News Im Test vor 15 Jahren: Zwei Radeon HD 5970 waren doppelt so schlecht

Cameron schrieb:
Ich hatte damals die HD 5870 von Sapphire, war ein gutes Stück. Unter ATi lief für Radeon alles noch besser

AMD hat ATI am 2006-10-25 uebernommen, die 5870 wurde 2009-09-23 vorgestellt; AMD hat die Marke ATI aber noch bis 2010 verwendet. Glaubst Du, dass es am Markennamen lag, wie es fuer die Radeon-Grafikkarten lief?
 
  • Gefällt mir
Reaktionen: floTTes
lowrider20 schrieb:
So schlimm ist es heute auch nicht mehr, da die Karten wesentlich effizienter wurden.
Natürlich, weil 200 Watt von damals heutzutage viel mehr sind! Die Luft damals war ja auch schlechter und konnte nicht so viel Wärme abtransportieren. Heutige Luft arbeitet ja auch viel effizienter!
 
  • Gefällt mir
Reaktionen: lolekdeluxe, catch 22, mae und eine weitere Person
CD schrieb:
Die Masochisten unter uns haben Multi-GPU zusätzlich mit Multi-Monitor-Gaming Setups kombiniert. Das waren noch Zeiten...
Wäre da nicht pro Monitor eine dedizierte GPU sinnvoller? Wenn die Monitore etwas asyncronen laufen, wird das kaum einem auffallen. Aber erst mit mehreren GPUs gemeinsam ein stotterdes Bild berechnen, um es dann auf mehrere Monitore zu verteilen?
 
Es geht um deine Aussage, dass das nicht mehr so schlimm sei weil die Karten effizienter wurden. Das stimmt zwar, aber der Verbrauch ist ja trotzdem höher, also ist es genauso schlimm. (fiktive) 400W damals sind auch heute noch 400W und genauso schlimm. Und zwar damals, heute, morgen, in der Sahara als auch hier bei uns.
 
  • Gefällt mir
Reaktionen: catch 22, floTTes, metoer und eine weitere Person
Das war ein geiles Gespann. Hat mein Triple-Monitor Eyefinity Setup damals befeuert. :daumen:

Dracal2002 schrieb:
Heute braucht eine Karte schon mehr und niemanden stört es mehr.

Natürlich stört das einige. Mich persönlich auch. Wird ja immer absurder... Siehe 5090.
 
  • Gefällt mir
Reaktionen: Redundanz
Powl_0 schrieb:
Gibts bei aktuellen ~16" Laptops wieder vermehrt. Hat zuletzt zB Lenovo bei einigen IdeaPad Reihen viel verbaut. Aber leider nicht bei Monitoren.
Ergänzung ()


Hatte ein einziges Mal zwei 5970 da und sie zum Spaß in CF gesteckt. 3DMark skalierte wie ein Traum und hatte auch keine Mikroruckler.
Alles andere war eine Katastrophe.

Für benchen und OC aber mega witzig.
Ergänzung ()


Puh, schwierig. Die HD 2000er waren ein kompletter Reinfall, die 3000er und 4000er hatten dann auch die "kein Big chip, Fokus auf Mittelklasse" Strategie, die sie jetzt wieder fahren (müssen). Die waren meist auch nur über den Preis attraktiv. Die mobilen GPUs von ATi damals waren auch eine Qual, ich erinnere mich an eine 5650M oder whatever, die bei jedem Treiberupdate einen Bluescreen machte.

Es war schon immer ein Auf und Ab, aber bei so ziemlich jeder Chipfirma.
Mit meinem Satz meinte ich grundsätzlich die Zeit vor der Übernahme 2006. Mit meiner 9800XT hatte ich große Freude.
 
Fighter1993 schrieb:
Die Karten hatten immer noch weniger Verbraucht wie eine 5090 😂
Und 4 GPUs kosteten damals die Hälfte einer 5090, kranke Entwicklung.
 
  • Gefällt mir
Reaktionen: PulsarS, BAssDad und Redundanz
Dracal2002 schrieb:
Heute braucht eine Karte schon mehr und niemanden stört es mehr.
Liegt vielleicht daran, dass der Stromverbrauch im gesünderen Verhältnis zur Leistung liegt. Fake FPS mit Mikrorucklern bei fast doppelten Verbrauch waren damals durchaus kritikwürdig.
 
  • Gefällt mir
Reaktionen: shaboo
oha.. das ist schon 15 Jahre her... unglaublich...
Quad-Crossfire war natürlich echt Blödsinn, die zweite Karte konnte man dann beim Freund rein kloppen :D
Diese Dual Karten fand ich aber insgesamt noch recht interessant, gab eine Phase wo die echt Sinn gemacht haben. Finde eigentlich ganz gut das wir heute so schnelle Single Karten haben und nichts anderes mehr nötig ist. Wenn man sich jetzt mal anschaut wie die neuen Nvidia schon wieder abgehen...
 
Einfach brachial das aber leider auch in allen Aspekten. Aber für all das was den damals üblichen Rahmen so massiv sprengte bedarf es statt der insgesamt 4 demnächst nur noch eine GPU.
Da soll noch mal einer sagen heute wäre doch "" alles "" sooo viel besser. :stock:
Ergänzung ()

Balikon schrieb:
Fake FPS mit Mikrorucklern bei fast doppelten Verbrauch waren damals durchaus kritikwürdig.
Aber auch absolutes high end und state of the art.
 
War ne tolle Zeit :D
Mein Highlight war mein Triple SLI-System mit drei GTX670 von Gigabyte in der Windforce-Edition.
Karte Nummer Drei zog jedoch recht schnell wieder aus, weil es einfach viel zu warm im Gehäuse war 😬
 
Fighter1993 schrieb:
Die Karten hatten immer noch weniger Verbraucht wie eine 5090 😂
Und jetzt vergleich mal die Effizienz - der absolute Verbrauch ist nämlich als Vergleich absolut wertlos :)
Ergänzung ()

Dracal2002 schrieb:
Witzig damals war CF und SLI der riesen Aufreger wegen des Stromverbrauchs.
Heute braucht eine Karte schon mehr und niemanden stört es mehr. :daumen:
Nahezu niemand hat sich damals über den Stromverbrauch aufgeregt, aber sehr wohl über Abwärme und Temperatur - wie heute auch.
Immerhin liefen Grafikkarten für Gaming auch damals nicht 24/7 ;)

Die einzigen die wegen sowas Belanglosem wie 200kWh im Jahr ein Fass aufmachen werden sich Grafikarten über 1.000€ sowieso nicht leisten - 200kWh sind kein Döner im Monat, mit PV-Anlage 0 :rolleyes:
Ergänzung ()

BAssDad schrieb:
Einfach brachial das aber leider auch in allen Aspekten. Aber für all das was den damals üblichen Rahmen so massiv sprengte bedarf es statt der insgesamt 4 demnächst nur noch eine GPU.
Da soll noch mal einer sagen heute wäre doch "" alles "" sooo viel besser. :stock:
Wieder so ein naiver Vergleich - hier mal in vernünftiger:

2x HD 5970 mit 600W liegen im 3DMark Fire Strike Ultra bei 410 Punkten

Und jetzt Achtung - eine RTX 4090 liegt bei 400W bei 28.484 Punkten :lol:

Viel Spaß beim rechnen um wieviel die Effizienz sich seitdem verbessert hat :)

Wie relevant ist das nun nochmal ob die RTX 5090 nicht einmal mehr verbraucht - aber vermutlich bei weit über 30.000 Punkten liegt?
600W sind übrigens ein absoluter Witz für das Stromnetz, gerade bei den geringen Betriebsstunden die eine Gaming-Grafikkarte eines berufstätigen Menschen aufweist.
Ergänzung ()

bigfudge13 schrieb:
Und 4 GPUs kosteten damals die Hälfte einer 5090, kranke Entwicklung.
Ja - 4 GPUs mit 410 Punkten im 3DMark Fire Strike Ultra … heute bekommt man bald über 30.000 Punkte und das in einer GPU - es steht dir natürlich frei zu einem kleineren Modell zu greifen, das ebenso um das mehrere 100-fache leistungsfähiger und effizienter ist ;)
Ergänzung ()

Gullveig schrieb:
Natürlich, weil 200 Watt von damals heutzutage viel mehr sind! Die Luft damals war ja auch schlechter und konnte nicht so viel Wärme abtransportieren. Heutige Luft arbeitet ja auch viel effizienter!
Was hat das mit den Stromverbrauch, also im Endeffekt dem Geldbeutel zu tun?

Um viel Abwärme loszuwerden musste man damals wie heute kreativ werden und kleine Besenkammern sind eben nichts für eine solche Abwärme - zum Glück gibt es auch kleinere Modelle für Leute mit solchen Problemen :)

Aber der Stromverbrauch? Hätte bei meiner 4090 ohne PV-Anlage bei keinem Döner im Monat gelegen, das wird die 5090 vermutlich auch nicht ändern - und wer macht sich bei 2.300€ Gedanken über solche Beträge? Ist ja nicht so als ob das kleinere Modell 0W verbraucht, die Differenz ist dann nur noch ein halber Döner im Monat … über was sich manche echauffieren können, da gibt es in jedem Haushalt andere Baustellen :rolleyes:
 
Zuletzt bearbeitet:
lowrider20 schrieb:
Sorry, das ist aber keine sinnvolle Begründung!
Natürlich ist es das, denn so handeln Nutzer nunmal. Du kannst als GPU Hersteller gern versuchen der Kundschaft vorzuschreiben, welche Art Gehäuse sie zu nutzen haben, das wird dir aber erstmal nur Unmut einbringen.
Ergänzung ()

MalWiederIch schrieb:
Wieder so ein naiver Vergleich - hier mal in vernünftiger:

2x HD 5970 mit 600W liegen im 3DMark Fire Strike Ultra bei 410 Punkten

Und jetzt Achtung - eine RTX 4090 liegt bei 400W bei 28.484 Punkten :lol:

Viel Spaß beim rechnen um wieviel die Effizienz sich seitdem verbessert hat :)
Keineswegs ein vernünftiger Vergleich. Nach der Argumentation fändest du auch eine 5kW 4090 fantastisch oder wie?

Natürlich steigt die Leistung mit jeder neuen Generation. Das macht den absoluten Verbrauch aber nicht irrelevant oder unbedingt akzeptabel.

Es sollte offensichtlich sein, dass die von dir zitierten Aussagen in den Kontext der jeweiligen Zeit gestellt werden müssen.

Die gleiche schlechte Argumentation kommt auch immer bzgl höheren Preisen für neue Technik. Da wird genauso mit der Steigerung seit damals gefuchtelt. Nach der Logik wären dann auch Consumer Karten für 50k € ein Schnapper, weil sie ja xxx mal schneller als irgendeine Geforce 2 sind.
Nur zu dieser logischen Konsequenz möchten die Argumentatoren wie du aber nie kommen, weil sich dann ja der Unsinn selbst entlarvt.

(Das mal ganz davon ab dass der FSU auf 1GB Karten ins Speicherlimit rennt und deshalb sowieso nicht mehr richtig skaliert. Also auch noch einen unpassenden Benchmark gewählt, der ältere Hardware im Vergleich zusätzlich benachteiligt. Warum kommste nicht gleich mit einem Vergleich in Port Royal, da kann die 4090 dann eine unendlich bessere Effizienz vorweisen?)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PulsarS, BAssDad, bigfudge13 und eine weitere Person
Eine geile Vorstellung war und ist es mit zwei Grafikkarten im (Crossfire)Verbund die annähernd doppelte Performance in Spielen zu erreichen.
 
Ich mochte Crossfire und es wäre auch jetzt in Zeiten der horrenden Kaufpreise die bessere Wahl gegenüber 2300 Euro teuren Karten!

Mit der Radeon 290X/390X ging das auf jeden Fall gut ab und senkte die Schwelle der Unspielbarkeit erheblich, die Zweitkarte gab es für heutige Verhältnisse für einen "kleinen Apfel".

Man sollte auch daran denken: Die CPUs waren damals langsam, nicht schnell genug um die Power voll auszufahren.
Diese Zeiten haben sich erheblich geändert. Wenn ein Programm schon jede Menge CPU KI-Rechnungsleistung wegfrisst bleibt halt nichts mehr über.

@Millennial_24K
Das ist möglich! Lass dich durch diesen Artikel nicht in die Irre führen.
Findest sogar SLI Videos wo 3090er an die 4090 herankommen bei Youtube. Ist nur eine Geld und Bastelfrage.

Die schlechtere Lösung (hohe Preise) hat gewonnen. ;)
 
Simanova schrieb:
In den meisten Fällen haben die GPUs zu wenig VRAM
Kann gar nicht sein. Frag mal die Nvidia-Fanboys hier im Forum -> Merke: Den Grafikkarten geht grundsätzlich die Rechenleistung aus, bevor der VRAM limitiert.
/s
(Das Gegenteil hat u.a. die GTX 770 4GiB bewiesen.)
 
Zurück
Oben