Diskussion:ATI-Radeon-HD-4000-Serie

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 12 Jahren von Juri S. in Abschnitt Kritik
Zur Navigation springen Zur Suche springen

Taktraten

[Quelltext bearbeiten]

Es dürfte ein altes Problem sein, aber es scheint jedenfalls nicht von seiner Problematik eingebüßt zu haben: Die gezielten Taktraten liegen nur ungefähr mit den realen Taktraten zusammen, es gibt Abweichungen von ca. einigen Megahertz (im Bereich von unter einem Prozent). Beim Speichertakt der HD 4850 scheinen eher die realen Taktraten mit 993 MHz herumzuschwirren, AMD selbst gibt an "Memory Type GDDR3 2Gbps", also die gerundeten 1000 MHz. Da die keine extrem krummen Wert bei z. B. der Bandbreite erzeugen (die dann wieder gerundet werden), zur Vergleichbarkeit und vereinfachten Angabe auch immer genutzt werden, würde ich auch empfehlen, diesen Takt anzugeben. Für die meisten der Karten lassen sich auch die echten Taktraten ohne den Besitz einer nicht ermitteln lassen (auch die anderen im Artikel genannten Taktraten sind ja solche gerundeten). Ionenweaper 19:55, 25. Jun. 2008 (CEST)Beantworten

Hmm? "Memory Type GDDR3 2 Gbps" kann ja auch mit 1000 MHz takten nur taktet AMD diesen Speicher etwas unterhalb der möglichen Speicherspezifikationen. Das ist durchaus nicht unüblich, da man somit Luft für übertaktete Grafikkarten lässt und die Grafikkarte etwas sparsamer ( bezüglich Stromverbrauch) auslegen kann. --Juri S. 23:02, 25. Jun. 2008 (CEST)Beantworten
Im gleichen Dokument steht aber auch "Memory Type GDDR5 3,6 Gbps" für die 4870, der Speicher ist aber für 4 Gbps ausgelegt. Mir gehts ja auch nicht darum, dass der Speicher niedriger getaktet werden kann, sondern um diese minimalen Abweichungen vom ausgelegten Takt.. Ionenweaper 00:05, 26. Jun. 2008 (CEST)Beantworten
Edit: Jetzt habe ich auch ein On-Line Bild von AMD mit den Daten gefunden, da sieht man ganz deutlich was ich meine: Dort steht 1000m. Ionenweaper 11:53, 26. Jun. 2008 (CEST)Beantworten
Also wenn ich ehrlich bin, ist es mir lieber, die tatsächlichen Taktraten (und daraus abgeleitete Performancewerte) in der Tabelle stehen zu haben, denn Hersteller erzählen gerne viel, wenn der Tag lang ist (auch wenn das hier jetzt nur ein marginaler Unterschied ist). Man könnte ja dann über nen Verweis anmerken, dass AMD offiziell von 1.000 MHz spricht, bei der tatsächlichen Hardware dann aber 993 MHz vorliegen. Ich verstehe WP halt als eine an Tatsachen gebundene Enzyklopädie – es schreiben ja schon oft genug die Sieger die Geschichte, da muss nicht auch noch bei sowas klein beigegeben werden </philosophischerExkurs> :) --Uncle Pain 19:32, 26. Okt. 2008 (CET)Beantworten
Dann brauchen wir die Werte aber von jeder Grafikkarte so. Ich bezweifle dass wir die haben, und dann sind mir Datensätze aus einer Quelle doch deutlich lieber als zusammengewürfelte. Die Problematik ist ja nicht neue (spontan weiß ich z. B. das die 3850 828 MHz hatte statt die angegebene 830 MHz, und die 3870 auch mal 776 MHz mitbrachte...). Ionenweaper 19:43, 26. Okt. 2008 (CET)Beantworten

GDDR5, tatsächliche Taktrate

[Quelltext bearbeiten]

Es scheint offensichtlich keine Einigkeit darüber zu herrschen, mit welchem Takt der Speicher der HD 4870 denn nun betrieben wird. Die 900 Mhz erachte ich für unglücklich, da es sich hier um DDR und nicht QDR handelt. Deswegen plädiere ich für eine Taktangabe von 1800 Mhz. Der Speicher leitet sich schließlich vom DDR3-Konzept ab, der ja auch mit seiner tatsächlichen Taktrate angegeben wird, nich mit der Hälfte. Therian Sonnenpfeil 15:03, 27. Jun. 2008 (CEST)Beantworten

Der I/O-Takt liegt bei 1800 MHz, der Commandtakt bei 900 MHz und der Takt der Speicherzellen bei 450 MHz. Allerdings lese ich in fast jeder Veröffentlichung der Hersteller, in diversen Reviews vom Commandtakt und auch Tools wie GPU-Z lesen diesen aus, deswegen könnte evtl. die Angabe des Commandtakts sinnvoll sein. Vergleichbar ist aber nur der I/O-Takt. Ionenweaper 16:29, 27. Jun. 2008 (CEST)Beantworten

Das ist Unsinn. Es liegen physikalisch 900 MHz an. Bei DDR wird diese Zahl verdoppelt mit dem Marketingsargument, es können ja zwei Bits pro Takt übertragen werden. Die 1.800, die dabei 'rauskommen, haben nix mit der Einheit "MHz" zu tun. So ist es auch bei GDDR5: Es können vier Bits pro Takt übertragen werden, deswegen findet man bei der 4870 oft die Angabe "3.600 MHz". Dennoch: Physikalisch sind es 900 MHz.

Zustimmung! De-sophia 18:02, 27. Jun. 2008 (CEST)Beantworten
GDDR5 ist kein QDR-Takt. Ja, es liegen physikalische 900 MHz an. Es liegen aber auch physikalische 1.800 MHz an, man muss hier unterschiedliche Bereiche betrachten (nur 3.600 MHz findet man wirklich nicht). Vielleicht empfiehlt sich das zur Lektüre: Qimonda GDDR5 Whitepaper. Der Abschnitt zum Commandclock:
GDDR5 operates with two different clock types. A differential command clock (CK) to where address and command inputs are referenced, and a forwarded differential write clock (WCK) where read and write data are referenced to. Being more precise, the GDDR5 SGRAM uses two write clocks, each of them assigned to two bytes. The WCK runs at twice the CK frequency. Taking a GDDR5 with 5 Gbps data rate per pin as an example, the CK clock runs with 1.25 GHz and WCK with 2.5 GHz. The CK and WCK clocks will be aligned during the initialization and training sequence. This alignment allows readand write access with minimum latency.
Wie dann die Speicherzellen arbeiten, gehört dann eher in einen Artikel zum Speicher. Ionenweaper 18:16, 27. Jun. 2008 (CEST)Beantworten
Beim GDDR3 wird doch auch vom I/O-Takt ausgegangen, oder irre ich mich? Gleichzeitig würde eine solche Darstellung allein an der Taktrate sofort und ohne Umschweife dem Leser klar machen, dass es sich um Speicher handelt, der (nicht nur theoretisch) viel schneller ist. Therian Sonnenpfeil 23:09, 30. Jun. 2008 (CEST)Beantworten
Ja, bei GDDR3 wird auch der I/O-Takt angegeben. Kann man auch sicherlich abändern, mit einem Hinweis darauf, dass beim Speichertakt der I/O-Takt angegeben wäre, wäre die Angabe sowohl a) eindeutig (gemäß einer Enzyklopädie) und b) leicht verständlich. Ionenweaper 23:27, 30. Jun. 2008 (CEST)Beantworten

Somit sollten auch im Artikel 900 MHZ stehen. Ich ändere das mal entsprechend. --Eusterw 18:41, 2. Jul. 2008 (CEST)Beantworten

Der I/O-Takt liegt aber bei 1800 MHz, und dieser liegt auch physikalisch an. Siehe Whitepaper von Qimonda (oder auch die Angaben von AMD). Ionenweaper 19:13, 2. Jul. 2008 (CEST)Beantworten
Aber Fakt ist doch nun mal, das die gesamte Industrie mit dem physikalischem Takt arbeitet (siehe meine 3 Beispiele weiter oben). Warum sollte da gerade Wikipedia aus der Reihe tanzen und einen anderen Wert angeben? Ich mein, ich fange jetzt wegen dem Mist kein Flame-War an (und ändere den Beitrag immer weider zurück), aber ich finde es schon befremdlich, das die Mehrheit der User in dieser Diskussion für den physikalischen Takt ist und Ihr den Artikel einfach anders hinstellt. --Eusterw 23:15, 2. Jul. 2008 (CEST)Beantworten
Den physikalischen Takt gibts gar nicht. ;-) Wenn man so anfangt, könnte man auch den Takt der Speicherzellen dort nennen, der nochmal niedriger wäre. Der Punkt ist doch der: Bisher gibts bloß einer Grafikkarte mit GDDR5-Speicher, dass ist die 4870. Für die Angaben, die die diversen Hersteller angeben, gibt es sicher ein Nest (vmtl. irgendein Datenblatt was mal ein Mitarbeiter bei AMD als Information für die Partner verfasst hat). Das habe die Partnerhersteller übernommen und so hat sich das bis jetzt verbreitet. Die Speicherhersteller (die gehören ja auch zur Industrie) geben aber diese klare Taktrate eindeutig nicht an. Was auch klar ist, denn es ist kein QDR-Speicher. Mal schauen wie sich das bei weiteren GDDR5-Karten entwickelt und was sich später bei der Presse durchsetzt. Die Kartenhersteller schreiben ja bei DDR2/GDDR3 u. a. auch oft von 2000 MHz effektiv (o. ä.), während sich da in der Presse etwas anderes durchsetzt. Aber noch ist die ganze Thematik wohl zu neu, um das endgültig klar zu machen. Klar ist nur eins: Am ehesten vergleichbar ist der I/O-Takt. Denn die 900 MHz Takt beim GDDR5 der 4870 sind ein anderer Takt als die 1000 MHz Takt des GDDR3 der 4850 (was das Hauptproblem beim Auflisten in dieser Tabelle ist, Tabellen sollten in einer Spalten sich auf gleiche Dinge beziehen). Ionenweaper 00:02, 3. Jul. 2008 (CEST)Beantworten


Bild einer Radeon

[Quelltext bearbeiten]

Ich würde vorschlagen ein Bild einer Radeon HD 4xx0 neben der Überschrift hineinzustellen. Leider bin ich bei Wikipedia nicht angemeldet, von daher kann ich keine Bilder hereinstellen.

Habe auf Commons das Bild eines Die gefunden und eingestellt. Ich glaube, das ist aussagekräftiger als einfach nur ein Bild einer Grafikkarte. Sie sehen sich in letzter Zeit ohnehin alle sehr ähnlich - wenn nicht der Lüfter und Kühlung ohnehin alles verdecken. -- Saiht 02:26, 11. Mär. 2009 (CET)Beantworten

TDP mit angeben

[Quelltext bearbeiten]

Meiner Meinung nach sollten in der Tabelle unbedingt noch die TDP der GPU´s aufgeführt werden - so wie z.B. auch beim Artikel der Nvidia-Geforce-200-Serie. Dadruch werden die Grafikchips in Bezug auf Leistung pro Watt deutlich vergleichbarer. (nicht signierter Beitrag von RalfZenker (Diskussion | Beiträge) )

Wenn du Zahlen/Quellen hast, nur her damit :) Außer den Xbit-Labs kenne ich keine Seite, die den Graka-Stromverbrauch separat misst, und die haben meines Wissens (noch?) keine Radeon-4000er-Zahlen. Die TDP-Werte der englischen WP sind hier und hier her, wobei letztere Quelle ne Bezahlwebseite ist und daher für mich nicht nachprüfbar. TDP-Werte wären schon mal nett, aber echt gemessene noch besser. --Uncle Pain 16:32, 13. Jan. 2009 (CET)Beantworten
Ich verstehe es nicht, NVIDIA gibt auf der Webseite die TDP von den eigenen Grafikkarten an, wieso heißt es bei ATI nur: „More Performance Per Watt - ATI Radeon HD 4800 series delivers up to 2x the performance per watt of AMD’s previous generation GPUs.“ - ok, inzwischen gibt es bei X-bit labs auch ein paar Messwerte - danke für die Seite :) wenn ich gerade beim schreiben bin, gehören nicht an die TDP-Werte Referenzen dran, wo die Werte herkommen, da sie ja anscheinend nicht von der AMD/ATI-Seite kommen (ich brauchte eine gute Referenz, nicht die Werte selbst, falls sich jemand wundert) --Netspider 14:16, 29. Jan. 2009 (CET)Beantworten

HD4550 RAM Takt Falsch

[Quelltext bearbeiten]

Ich nutze die HD 4550 zur Zeit und kann die 800MHz RAM Takt nicht nachvollziehen. Standardtakt ist laut ATI CCC/ GPUz und RivaTuner 500MHz. Nicht mal mit O.C. komme ich auf über 610MHz. Ich hoffe das wird bei der Sichtung korrigiert. --IdeWindhund 15:56, 26. Okt. 2010 (CEST)Beantworten

In der Tabelle sind die Standards für Speichertyp und -takt angegeben. 500 MHz wären typisch für eine DDR2-Version. Eine Bestückung mit DDR2 oder der niedrige Speichertakt wäre allerdings kein Standard für eine 4550 (würde dann der 4350 entsprechen).
EDIT: Meine 4350 hat statt 500 MHz Speichertakt nur 400 MHz, ist ebenfalls abweichend vom Standard. --Denniss 09:31, 27. Okt. 2010 (CEST)Beantworten

Schnittstellen

[Quelltext bearbeiten]

Ein Abschnitt über mögliche Steckplätze wäre sehr hilfreich (AGP,PCIe usw...). Was nützt mir die ganzen Datenflut, wenn ich nicht in Erfahrung bringen kann, ob es diese Grafikkarte auch für meinen Steckplatz gibt! (nicht signierter Beitrag von 79.233.30.165 (Diskussion) 19:11, 11. Jan. 2011 (CET)) Beantworten

In der Tabelle zum Grafikprozessor steht schon mal die native Schnittstelle mit der es die GPUs auf jeden Fall gibt. Da steht bei der HD4000-Serie, dass die Schnittstelle PCIe 2.0 ist. So weit ich mich erinnern kann, war die HD3000-Serie, die letzte mit AGP-Versionen. Früher stand diese Information auch unter "Sonstiges", siehe hier: http://de.wikipedia.org/w/index.php?title=ATI-Radeon-HD-3000-Serie&oldid=49923143
Bei der HD3000-Serie waren die AGP-Treiber aber teilweise sehr Fehlerhaft (ich weiß nicht ob sich daran noch was geändert hat, so weit ich weiß eher nicht) Die AGP-Versionen der HD 2000 Serie liefen mit AGP noch ganz gut, inklusive entsprechender Treiber: http://de.wikipedia.org/w/index.php?title=ATI-Radeon-HD-2000-Serie&oldid=59336626
Ich weiß nicht, warum DeffisK diese Information am 7. August 2009 einfach so aus dem Artikel entfernt hat. Könnte man aber sicherlich wiederherstellen. --Juri S. 20:53, 11. Jan. 2011 (CET)Beantworten

Kritik

[Quelltext bearbeiten]

Wie sieht es mit Kritik an den Grafikkarten aus? Davon wird leider gar nichts erwähnt. So gibt es Varianten der Grafikkarten, welche nur über DVI Ausgänge verfügen. Wer mit solchen Grafikkarten ein HDMI Signal mit Ton (7.1 Sound ist theoretisch möglich) ausgeben möchte, muss unter Windows sich ein Dongle von ATI besorgen. Dritthersteller werden nicht erkannt. Um die Verwirrung perfekt zu machen gibt es auch noch 2 verschiedene Varianten des Dongels einmal schwarz, welches aber nur für die 2000er Reihe funktioniert und ein graues Dongel, dieses funktioniert dann auch mit den 4000er. Versuche und Open Source Treiber unter Linux lassen darauf schließen, dass ATI versucht zusätzliche Hardware (Dongle) per Software (Treiber) an vorhandene Hardware (Grafikkarte) zu binden, da unter Linux die Open Source Treiber Audio auch mit einem No Name Dongle zulassen. Mit Noname Dongels funktioniert unter Windows nur die Bild- nicht aber die Tonübertragung. Ich finde, mal ganz abgesehen davon, dass ich nicht glaube dass diese Praxis ganz legal sein kann, dieses Thema doch zumindest erwähnt werden könnte und sei es auch nur hier in der Diskussion. -- Zeze21 (Diskussion) 20:35, 1. Mär. 2012 (CET)Beantworten

Ohne mich mit der Sache näher zu beschäftigen, würde ich vorschlagen, Grafikkarten nur mit DVI-Ausgängen dann zu kaufen, wenn man Audiosignale so oder so über Audiausgänge hinausführt Damit erübrigt sich der Kauf eines Dongles. Abgesehen davon, erinnere ich mich daran, dass es verschiedene HDMI-Versionen gibt. So wird auch bei der HD2000 noch ein älterere HDMI-Version genutzt. Der Dongle, der sowohl mit der 4000er als auch mit der HD2000er funktioniert, müsste demnach ein neuerer sein, weil die neue HDMI-Version zur alten abwärtskompatibel ist. (Die alten Dongles aber offenbar nicht hochwärtskompatibel sind, zumindest nicht ohne entsprechende Treiberupdates). Wenn man also irgendwelche Dongles verwenden will, sollte man auf die HDMI-Version achten, die dieses Dongle unterstützt, dies kann auch ein No Name Dongle sein... --Juri S. (Diskussion) 23:33, 2. Mär. 2012 (CET)Beantworten