AMD hat ATI am 2006-10-25 uebernommen, die 5870 wurde 2009-09-23 vorgestellt; AMD hat die Marke ATI aber noch bis 2010 verwendet. Glaubst Du, dass es am Markennamen lag, wie es fuer die Radeon-Grafikkarten lief?
Natürlich, weil 200 Watt von damals heutzutage viel mehr sind! Die Luft damals war ja auch schlechter und konnte nicht so viel Wärme abtransportieren. Heutige Luft arbeitet ja auch viel effizienter!
Wäre da nicht pro Monitor eine dedizierte GPU sinnvoller? Wenn die Monitore etwas asyncronen laufen, wird das kaum einem auffallen. Aber erst mit mehreren GPUs gemeinsam ein stotterdes Bild berechnen, um es dann auf mehrere Monitore zu verteilen?
Es geht um deine Aussage, dass das nicht mehr so schlimm sei weil die Karten effizienter wurden. Das stimmt zwar, aber der Verbrauch ist ja trotzdem höher, also ist es genauso schlimm. (fiktive) 400W damals sind auch heute noch 400W und genauso schlimm. Und zwar damals, heute, morgen, in der Sahara als auch hier bei uns.
Gibts bei aktuellen ~16" Laptops wieder vermehrt. Hat zuletzt zB Lenovo bei einigen IdeaPad Reihen viel verbaut. Aber leider nicht bei Monitoren.
Ergänzung ()
Hatte ein einziges Mal zwei 5970 da und sie zum Spaß in CF gesteckt. 3DMark skalierte wie ein Traum und hatte auch keine Mikroruckler.
Alles andere war eine Katastrophe.
Für benchen und OC aber mega witzig.
Ergänzung ()
Puh, schwierig. Die HD 2000er waren ein kompletter Reinfall, die 3000er und 4000er hatten dann auch die "kein Big chip, Fokus auf Mittelklasse" Strategie, die sie jetzt wieder fahren (müssen). Die waren meist auch nur über den Preis attraktiv. Die mobilen GPUs von ATi damals waren auch eine Qual, ich erinnere mich an eine 5650M oder whatever, die bei jedem Treiberupdate einen Bluescreen machte.
Es war schon immer ein Auf und Ab, aber bei so ziemlich jeder Chipfirma.
Liegt vielleicht daran, dass der Stromverbrauch im gesünderen Verhältnis zur Leistung liegt. Fake FPS mit Mikrorucklern bei fast doppelten Verbrauch waren damals durchaus kritikwürdig.
oha.. das ist schon 15 Jahre her... unglaublich...
Quad-Crossfire war natürlich echt Blödsinn, die zweite Karte konnte man dann beim Freund rein kloppen
Diese Dual Karten fand ich aber insgesamt noch recht interessant, gab eine Phase wo die echt Sinn gemacht haben. Finde eigentlich ganz gut das wir heute so schnelle Single Karten haben und nichts anderes mehr nötig ist. Wenn man sich jetzt mal anschaut wie die neuen Nvidia schon wieder abgehen...
Einfach brachial das aber leider auch in allen Aspekten. Aber für all das was den damals üblichen Rahmen so massiv sprengte bedarf es statt der insgesamt 4 demnächst nur noch eine GPU.
Da soll noch mal einer sagen heute wäre doch "" alles "" sooo viel besser.
Ergänzung ()
Balikon schrieb:
Fake FPS mit Mikrorucklern bei fast doppelten Verbrauch waren damals durchaus kritikwürdig.
War ne tolle Zeit
Mein Highlight war mein Triple SLI-System mit drei GTX670 von Gigabyte in der Windforce-Edition.
Karte Nummer Drei zog jedoch recht schnell wieder aus, weil es einfach viel zu warm im Gehäuse war 😬
Nahezu niemand hat sich damals über den Stromverbrauch aufgeregt, aber sehr wohl über Abwärme und Temperatur - wie heute auch.
Immerhin liefen Grafikkarten für Gaming auch damals nicht 24/7
Die einzigen die wegen sowas Belanglosem wie 200kWh im Jahr ein Fass aufmachen werden sich Grafikarten über 1.000€ sowieso nicht leisten - 200kWh sind kein Döner im Monat, mit PV-Anlage 0
Ergänzung ()
BAssDad schrieb:
Einfach brachial das aber leider auch in allen Aspekten. Aber für all das was den damals üblichen Rahmen so massiv sprengte bedarf es statt der insgesamt 4 demnächst nur noch eine GPU.
Da soll noch mal einer sagen heute wäre doch "" alles "" sooo viel besser.
Wieder so ein naiver Vergleich - hier mal in vernünftiger:
2x HD 5970 mit 600W liegen im 3DMark Fire Strike Ultra bei 410 Punkten
Und jetzt Achtung - eine RTX 4090 liegt bei 400W bei 28.484 Punkten
Viel Spaß beim rechnen um wieviel die Effizienz sich seitdem verbessert hat
Wie relevant ist das nun nochmal ob die RTX 5090 nicht einmal mehr verbraucht - aber vermutlich bei weit über 30.000 Punkten liegt?
600W sind übrigens ein absoluter Witz für das Stromnetz, gerade bei den geringen Betriebsstunden die eine Gaming-Grafikkarte eines berufstätigen Menschen aufweist.
Ergänzung ()
bigfudge13 schrieb:
Und 4 GPUs kosteten damals die Hälfte einer 5090, kranke Entwicklung.
Ja - 4 GPUs mit 410 Punkten im 3DMark Fire Strike Ultra … heute bekommt man bald über 30.000 Punkte und das in einer GPU - es steht dir natürlich frei zu einem kleineren Modell zu greifen, das ebenso um das mehrere 100-fache leistungsfähiger und effizienter ist
Ergänzung ()
Gullveig schrieb:
Natürlich, weil 200 Watt von damals heutzutage viel mehr sind! Die Luft damals war ja auch schlechter und konnte nicht so viel Wärme abtransportieren. Heutige Luft arbeitet ja auch viel effizienter!
Was hat das mit den Stromverbrauch, also im Endeffekt dem Geldbeutel zu tun?
Um viel Abwärme loszuwerden musste man damals wie heute kreativ werden und kleine Besenkammern sind eben nichts für eine solche Abwärme - zum Glück gibt es auch kleinere Modelle für Leute mit solchen Problemen
Aber der Stromverbrauch? Hätte bei meiner 4090 ohne PV-Anlage bei keinem Döner im Monat gelegen, das wird die 5090 vermutlich auch nicht ändern - und wer macht sich bei 2.300€ Gedanken über solche Beträge? Ist ja nicht so als ob das kleinere Modell 0W verbraucht, die Differenz ist dann nur noch ein halber Döner im Monat … über was sich manche echauffieren können, da gibt es in jedem Haushalt andere Baustellen
Natürlich ist es das, denn so handeln Nutzer nunmal. Du kannst als GPU Hersteller gern versuchen der Kundschaft vorzuschreiben, welche Art Gehäuse sie zu nutzen haben, das wird dir aber erstmal nur Unmut einbringen.
Ergänzung ()
MalWiederIch schrieb:
Wieder so ein naiver Vergleich - hier mal in vernünftiger:
2x HD 5970 mit 600W liegen im 3DMark Fire Strike Ultra bei 410 Punkten
Und jetzt Achtung - eine RTX 4090 liegt bei 400W bei 28.484 Punkten
Viel Spaß beim rechnen um wieviel die Effizienz sich seitdem verbessert hat
Keineswegs ein vernünftiger Vergleich. Nach der Argumentation fändest du auch eine 5kW 4090 fantastisch oder wie?
Natürlich steigt die Leistung mit jeder neuen Generation. Das macht den absoluten Verbrauch aber nicht irrelevant oder unbedingt akzeptabel.
Es sollte offensichtlich sein, dass die von dir zitierten Aussagen in den Kontext der jeweiligen Zeit gestellt werden müssen.
Die gleiche schlechte Argumentation kommt auch immer bzgl höheren Preisen für neue Technik. Da wird genauso mit der Steigerung seit damals gefuchtelt. Nach der Logik wären dann auch Consumer Karten für 50k € ein Schnapper, weil sie ja xxx mal schneller als irgendeine Geforce 2 sind.
Nur zu dieser logischen Konsequenz möchten die Argumentatoren wie du aber nie kommen, weil sich dann ja der Unsinn selbst entlarvt.
(Das mal ganz davon ab dass der FSU auf 1GB Karten ins Speicherlimit rennt und deshalb sowieso nicht mehr richtig skaliert. Also auch noch einen unpassenden Benchmark gewählt, der ältere Hardware im Vergleich zusätzlich benachteiligt. Warum kommste nicht gleich mit einem Vergleich in Port Royal, da kann die 4090 dann eine unendlich bessere Effizienz vorweisen?)
Ja genau. Deswegen gab es damals auch den großen Einbruch bei Gehäuseverkäufen... Und da eh nur auf Radiallüfter gesetzt wurde, setzte man weiterhin auf vollverblechte Gehäuse mit nur einem 92mm Lüfter an der Rückseite. Bis heute.
Ich mochte Crossfire und es wäre auch jetzt in Zeiten der horrenden Kaufpreise die bessere Wahl gegenüber 2300 Euro teuren Karten!
Mit der Radeon 290X/390X ging das auf jeden Fall gut ab und senkte die Schwelle der Unspielbarkeit erheblich, die Zweitkarte gab es für heutige Verhältnisse für einen "kleinen Apfel".
Man sollte auch daran denken: Die CPUs waren damals langsam, nicht schnell genug um die Power voll auszufahren.
Diese Zeiten haben sich erheblich geändert. Wenn ein Programm schon jede Menge CPU KI-Rechnungsleistung wegfrisst bleibt halt nichts mehr über.
@Millennial_24K
Das ist möglich! Lass dich durch diesen Artikel nicht in die Irre führen.
Findest sogar SLI Videos wo 3090er an die 4090 herankommen bei Youtube. Ist nur eine Geld und Bastelfrage.
Die schlechtere Lösung (hohe Preise) hat gewonnen.
Kann gar nicht sein. Frag mal die Nvidia-Fanboys hier im Forum -> Merke: Den Grafikkarten geht grundsätzlich die Rechenleistung aus, bevor der VRAM limitiert.
/s
(Das Gegenteil hat u.a. die GTX 770 4GiB bewiesen.)