News Im Test vor 15 Jahren: ATis Radeon HD 4870 X2 griff nach der Leistungskrone

MaverickM schrieb:
Die Karte lief bei mir mit einem Enermax 460Watt ohne Probleme.
Dann MUSS die bei dir extrem gedrosselt gelaufen sein. Das Teil zieht bei Vollauslastung fast 500 Watt..
 
Hatte die Karte von Sapphire für 400€ gekauft und als Upgrade mit einem i7-920 gepaart.

Völlig undurchdacht einfach das Dickste genommen, was es damals gab 😎.
Meine Katze liebte es auf einmal, hinter dem PC zu liegen und sich von der GPU warm anpusten zu lassen.
Wenn die aufgedreht hat, ist alles Papier an der Wand in Wallung gekommen und die Steckdose hat angefangen zu wackeln.


MfG
 
  • Gefällt mir
Reaktionen: NMA, andi_sco, lubi7 und eine weitere Person
SaschaHa schrieb:
Aber in einem Land, dessen Behörden noch vorwiegend mit Fax-Geräten kommunizieren und in dessen Schulen noch Overhead-Projektoren verwendet werden, wundert mich Kritik an Innovationsbereitschaft mittlerweile auch nicht mehr.
Du ließt insgesamt Sachen heraus, für die es in dem Posting keine Basis gab, aber das ist die Höhe. Extreme Thesen brauchen auch entsprechend extreme Begründung. (freie Übersetzung des Sagan-Standards) Diese fehlt bei dir vollkommen.
SaschaHa schrieb:
Ein Jahr ist absolut gar nichts. Es hat viele Jahre gedauert, bis Software und auch Games so langsam Multi-Core tauglich wurden. Bis heute gibt es kaum ein Spiel, das von mehr als 8 Kernen profitiert, anfangs konnten selbst 2 Kerne kaum sinnvoll genutzt werden. Dieser Logik nach hätte man damals also auch sagen müssen "Multi-Core, so ein Schwachsinn, brauchen wir nicht!". Ein oder zwei Jahre reichen absolut nicht aus, um sagen zu können, ob sich gewisse Hürden überwinden lassen oder nicht.
Hier hingegen versuchst du es, aber es ist auch das gelingt dir nicht:
Schon in dem ersten Jahr konnte aber auf theoretischer Ebene widerlegt werden, dass sich das Grundproblem von AFR würde lösen lassen. Das ist der Unterschied. Was theoretisch nicht geht, kann auch praktisch nicht gehen. Umgekehrt war es schon möglich, praktisch zu zeigen, dass MultiCoreSpeedups von 100% möglich sind. Und was praktisch möglich ist, muss auch theoretisch gehen.
→ nichts von dem Vergleich hat Hand und Fuß.
SaschaHa schrieb:
Und es ist ja nicht so, dass man alles auf ein Pferd gesetzt und normale GPUs verworfen hätte. Diese Dual-GPUs haben einen winzigen Bruchteil am Gesamtmarkt ausgemacht. Es war ein Ansatz, den man erprobt hat und der auch nach Jahren mit zu vielen Schwierigkeiten verbunden war, sodass man ihn - zumindest beim Gaming - verworfen hat. Es ist aber gut, dass man solche Erfahrungen gemacht hat, nur so gibt es Fortschritt.
Der AFR-Ansatz wurde überall verworfen. In dem Themenbereich wird viel in einen Topf geworfen, was nicht in einen Topf gehört: Multi-GPU-Karten und Multi-DIE-Karten sind zum Beispiel nicht das gleiche. AMDs Aldebaran (MI 200, MI 210, MI 250(X)) hat nichts mit Multi-GPU-Karten zu tun. Multicore-CPUs und Multi-DIE-Karten haben auch nichts miteinander zu tun. Alle heutigen GPUs sind Multicore-GPUs; und zwar in viel größerem Maßstab als CPUs.


Wie gesagt: Es wird vieles zusammengeworfen.
 
Die ATi Radeon HD 4870 X2 war einfach der Knaller. Mit einem Accelero Xtreme 4870X2 war sie auch wunderbar Luftgekühlt und bzgl. Lautstärke bzw. Wärmeentwicklung absolut ein Traum.
 

Anhänge

  • SAM_0223.JPG
    SAM_0223.JPG
    482,7 KB · Aufrufe: 200
  • SAM_0222.JPG
    SAM_0222.JPG
    475,4 KB · Aufrufe: 196
  • SAM_0217.JPG
    SAM_0217.JPG
    410,5 KB · Aufrufe: 200
  • Gefällt mir
Reaktionen: NMA, konkretor, andi_sco und 7 andere
jotecklen schrieb:
Ich verstehe nicht so ganz, warum das damals so schwierig war, halbwegs leise zu kühlen.
War es nicht, meine X2 läuft mit Accelero Kühler sehr leise.
Aber die Gehäuse hatten teilweise noch keine 3x 12mm Lüfter in der Front etc.
Ergänzung ()

[wege]mini schrieb:
Nur würde man es dann nicht "X2" nennen.
X-Drive GPU🧟‍♂️

Ausser Twitter aka X Corp klagt
 
  • Gefällt mir
Reaktionen: [wege]mini und SweetOhm
Vulture schrieb:
Die Strategie AMDs keine High-End Chips zu fertigen und stattdessen auf diese X2 Monster-Karten zu setzen war leider ein Schuss in den Ofen.
Ist ja nicht so, das nVidia auch nie SLI genutzt hatte🙄 (GTX 295)
Screenshot_2023-08-05-17-06-41-77_df198e732186825c8df26e3c5a10d7cd.jpg


Und es gab noch die HD 4890. Zumindest in Crysis lagen die Karten der beiden Hersteller nicht weit auseinander (GTX 285 gegen HD 4890)
Screenshot_2023-08-05-17-09-17-24_df198e732186825c8df26e3c5a10d7cd.jpg
 
  • Gefällt mir
Reaktionen: SweetOhm, HaRdWar§FreSseR und -=[CrysiS]=-
andi_sco schrieb:
Aber die Gehäuse hatten teilweise noch keine 3x 12mm Lüfter in der Front etc.
Auch einer der Gründe dafür, dass Kühlerdesigns bei Grafikkarten damals überwiegend mit einem Axiallüfter Radiallüfter nach hinten ausblasend waren. Damit war man recht unabhängig vom, damals kaum vorhandenen, Airflow durch Gehäuselüfter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA und andi_sco
War eine sehr starke GPU nur leider hat sie nicht in mein Case gepasst, habe mich dann für zwei Radeon 4870 im CF Betrieb entschieden und bin eine lange Zeit damit gefahren, dazu noch ein Q6600 im g0 steppping einfach geil.
 
  • Gefällt mir
Reaktionen: SweetOhm
Ich bin ernsthaft gespannt wann AMD wieder mal nach der Leistungskrone greift und was sie dann Nvidia vor den Latz knallen 😁

und was dann die Antwort von Nvidia drauf sein wird....

und nein - ich nehme keine Partei für grün, rot oder blau 👍
 
  • Gefällt mir
Reaktionen: SweetOhm und HaRdWar§FreSseR
Hatte damals auch so ein Teil, die Mikroruckler waren aber echt abartig.
 
  • Gefällt mir
Reaktionen: cbmik und HaRdWar§FreSseR
mibbio schrieb:
Auch einer der Gründe dafür, dass Kühlerdesigns bei Grafikkarten damals überwiegend mit einem Axiallüfter nach hinten ausblasend waren. Damit war man recht unabhängig vom, damals kaum vorhandenen, Airflow durch Gehäuselüfter.
Du meinst Radial
 
  • Gefällt mir
Reaktionen: mibbio
Arzuriel schrieb:
Hatte damals auch so ein Teil, die Mikroruckler waren aber echt abartig.
Kenne ich zu gut, aber man konnte ja etwas Abhilfe schaffen, indem man V-sync und Pufferung angemacht hat natürlich auf Kosten der Latenzen. ^^
 
  • Gefällt mir
Reaktionen: Arzuriel
[wege]mini schrieb:
Nur würde man es dann nicht "X2" nennen.
Und wenn doch, würde eh ALLE der Musk kaufen.
Ergänzung ()

GOOFY71 schrieb:
Toller Test, zu mehr als einer HD4890 hat es damals nicht gereicht, meine Frau hätte mich umgebracht, zumal ich dann auch noch ein neues Netzteil gebraucht hätte.😅
Hatte auch die XFX HD 4890 Black Edition 1000M (1 GHz CPU u. RAM Takt). Die X² im CF hätte mich gereizt.
Nur die blöde "Vernunft" war dagegen.

https://www.tweakpc.de/hardware/tes...adeon_hd_4890_black_edition_1_ghz_gpu/s06.php
 
Zuletzt bearbeitet:
Die Lautstärke meiner 4870x2 war letzten Endes der Grund, dass ich sie damals ausgebaut habe. Ich wollte ja auch akustisch etwas vom Spiel haben 😝.
 
  • Gefällt mir
Reaktionen: NMA
CDLABSRadonP... schrieb:
Du ließt insgesamt Sachen heraus, für die es in dem Posting keine Basis gab, aber das ist die Höhe.
CDLABSRadonP... schrieb:
Der AFR-Ansatz wurde überall verworfen.
Scheinbar reden wir aneinander vorbei. Ich bezog mich allgemein auf Multi-GPUs, nicht explizit auf den AFR-Ansatz. Zuvor war ich auf einen Kommentar eingegangen, der AMD dahingehend kritisiert hat, dass sie - anstatt einen großen Chip zu bauen - eben auf eine Dual-GPU gesetzt haben. Dieses Vorhaben wurde allgemein kritisiert, ohne dabei technisch ins Detail zu gehen und explizit den AFR-Ansatz ins Visier zu nehmen. Als du mich zunächst zitiert hast, hast du ebenfalls nicht AFR erwähnt, sondern nur gesagt, dass das Mikrorucklerproblem schon seit einem Jahr bekannt sei. Für mich hat das den Eindruck erweckt, dass du ebenfalls das Experiment "Multi-GPU" im allgemeinen kritisierst und der Meinung seist, man hätte sich diesen Versuch sparen sollen. Wenn du das scheinbar anders meintest, haben wir einfach nur aneinander vorbeigeredet. Ich hoffe, wir sind uns zumindest dahingehen einig, dass AFR nur ein möglicher Ansatz für Multi-GPUs war bzw. ist, und dass zu Fortschritt eben auch Misserfolge gehören. Einen innovativen Ansatz aufgrund von Problemen schon nach einem Jahr zu verwerfen, halte ich jedenfalls für voreilig und nicht technologieoffen, das war lediglich der Kern meiner Aussage. Aber wie gesagt, wenn du das anders meintest, wäre das ja jetzt geklärt.

CDLABSRadonP... schrieb:
Multicore-CPUs und Multi-DIE-Karten haben auch nichts miteinander zu tun. Alle heutigen GPUs sind Multicore-GPUs; und zwar in viel größerem Maßstab als CPUs.
Ob die Kerne nun auf einem DIE oder auf vielen sind, ist zunächst einmal egal. Entscheidend ist die Latenz und die Kommunikationsgeschwindigkeit zwischen ihnen, und eben das Anwendungsgebiet. Natürlich haben CPUs und GPUs unterschiedliche Rahmenbedingungen, aber das Kernproblem - eine möglichst effiziente Parallelisierung zu erzielen - bleibt dasselbe. AFR hat sich als nutzlos erwiesen, aber ich bin nach wie vor der Auffassung, dass ein enormes Potential in Multi-DIE- oder Multi-Chip-GPUs steckt.
 
Unglaublich, dass mit diesem Mini-Kühler fast 500 Watt Abwärme abgeführt worden sind. Und noch viel extremer, dass man an diesem Kühlerdesign noch ewig festgehalten hat.
Ich mag die „vor 15 Jahren“-Berichte, so hab ich immer ’nen Einblick in die Dinge, die vor meinem Einstieg in das Thema abgingen :D
 
  • Gefällt mir
Reaktionen: TodboT und -=[CrysiS]=-
Zurück
Oben