News Im Test vor 15 Jahren: Zwei Radeon HD 5970 waren doppelt so schlecht

Cameron schrieb:
Ich hatte damals die HD 5870 von Sapphire, war ein gutes Stück. Unter ATi lief für Radeon alles noch besser

AMD hat ATI am 2006-10-25 uebernommen, die 5870 wurde 2009-09-23 vorgestellt; AMD hat die Marke ATI aber noch bis 2010 verwendet. Glaubst Du, dass es am Markennamen lag, wie es fuer die Radeon-Grafikkarten lief?
 
  • Gefällt mir
Reaktionen: floTTes
lowrider20 schrieb:
So schlimm ist es heute auch nicht mehr, da die Karten wesentlich effizienter wurden.
Natürlich, weil 200 Watt von damals heutzutage viel mehr sind! Die Luft damals war ja auch schlechter und konnte nicht so viel Wärme abtransportieren. Heutige Luft arbeitet ja auch viel effizienter!
 
  • Gefällt mir
Reaktionen: mae und Lord B.
CD schrieb:
Die Masochisten unter uns haben Multi-GPU zusätzlich mit Multi-Monitor-Gaming Setups kombiniert. Das waren noch Zeiten...
Wäre da nicht pro Monitor eine dedizierte GPU sinnvoller? Wenn die Monitore etwas asyncronen laufen, wird das kaum einem auffallen. Aber erst mit mehreren GPUs gemeinsam ein stotterdes Bild berechnen, um es dann auf mehrere Monitore zu verteilen?
 
Es geht um deine Aussage, dass das nicht mehr so schlimm sei weil die Karten effizienter wurden. Das stimmt zwar, aber der Verbrauch ist ja trotzdem höher, also ist es genauso schlimm. (fiktive) 400W damals sind auch heute noch 400W und genauso schlimm. Und zwar damals, heute, morgen, in der Sahara als auch hier bei uns.
 
  • Gefällt mir
Reaktionen: floTTes, metoer und KitKat::new()
Das war ein geiles Gespann. Hat mein Triple-Monitor Eyefinity Setup damals befeuert. :daumen:

Dracal2002 schrieb:
Heute braucht eine Karte schon mehr und niemanden stört es mehr.

Natürlich stört das einige. Mich persönlich auch. Wird ja immer absurder... Siehe 5090.
 
  • Gefällt mir
Reaktionen: Redundanz
Powl_0 schrieb:
Gibts bei aktuellen ~16" Laptops wieder vermehrt. Hat zuletzt zB Lenovo bei einigen IdeaPad Reihen viel verbaut. Aber leider nicht bei Monitoren.
Ergänzung ()


Hatte ein einziges Mal zwei 5970 da und sie zum Spaß in CF gesteckt. 3DMark skalierte wie ein Traum und hatte auch keine Mikroruckler.
Alles andere war eine Katastrophe.

Für benchen und OC aber mega witzig.
Ergänzung ()


Puh, schwierig. Die HD 2000er waren ein kompletter Reinfall, die 3000er und 4000er hatten dann auch die "kein Big chip, Fokus auf Mittelklasse" Strategie, die sie jetzt wieder fahren (müssen). Die waren meist auch nur über den Preis attraktiv. Die mobilen GPUs von ATi damals waren auch eine Qual, ich erinnere mich an eine 5650M oder whatever, die bei jedem Treiberupdate einen Bluescreen machte.

Es war schon immer ein Auf und Ab, aber bei so ziemlich jeder Chipfirma.
Mit meinem Satz meinte ich grundsätzlich die Zeit vor der Übernahme 2006. Mit meiner 9800XT hatte ich große Freude.
 
Fighter1993 schrieb:
Die Karten hatten immer noch weniger Verbraucht wie eine 5090 😂
Und 4 GPUs kosteten damals die Hälfte einer 5090, kranke Entwicklung.
 
  • Gefällt mir
Reaktionen: Redundanz
Dracal2002 schrieb:
Heute braucht eine Karte schon mehr und niemanden stört es mehr.
Liegt vielleicht daran, dass der Stromverbrauch im gesünderen Verhältnis zur Leistung liegt. Fake FPS mit Mikrorucklern bei fast doppelten Verbrauch waren damals durchaus kritikwürdig.
 
  • Gefällt mir
Reaktionen: shaboo
oha.. das ist schon 15 Jahre her... unglaublich...
Quad-Crossfire war natürlich echt Blödsinn, die zweite Karte konnte man dann beim Freund rein kloppen :D
Diese Dual Karten fand ich aber insgesamt noch recht interessant, gab eine Phase wo die echt Sinn gemacht haben. Finde eigentlich ganz gut das wir heute so schnelle Single Karten haben und nichts anderes mehr nötig ist. Wenn man sich jetzt mal anschaut wie die neuen Nvidia schon wieder abgehen...
 
Zurück
Oben