Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIm Test vor 15 Jahren: Zwei Radeon HD 5970 waren doppelt so schlecht
AMD hat ATI am 2006-10-25 uebernommen, die 5870 wurde 2009-09-23 vorgestellt; AMD hat die Marke ATI aber noch bis 2010 verwendet. Glaubst Du, dass es am Markennamen lag, wie es fuer die Radeon-Grafikkarten lief?
Natürlich, weil 200 Watt von damals heutzutage viel mehr sind! Die Luft damals war ja auch schlechter und konnte nicht so viel Wärme abtransportieren. Heutige Luft arbeitet ja auch viel effizienter!
Wäre da nicht pro Monitor eine dedizierte GPU sinnvoller? Wenn die Monitore etwas asyncronen laufen, wird das kaum einem auffallen. Aber erst mit mehreren GPUs gemeinsam ein stotterdes Bild berechnen, um es dann auf mehrere Monitore zu verteilen?
Es geht um deine Aussage, dass das nicht mehr so schlimm sei weil die Karten effizienter wurden. Das stimmt zwar, aber der Verbrauch ist ja trotzdem höher, also ist es genauso schlimm. (fiktive) 400W damals sind auch heute noch 400W und genauso schlimm. Und zwar damals, heute, morgen, in der Sahara als auch hier bei uns.
Gibts bei aktuellen ~16" Laptops wieder vermehrt. Hat zuletzt zB Lenovo bei einigen IdeaPad Reihen viel verbaut. Aber leider nicht bei Monitoren.
Ergänzung ()
Hatte ein einziges Mal zwei 5970 da und sie zum Spaß in CF gesteckt. 3DMark skalierte wie ein Traum und hatte auch keine Mikroruckler.
Alles andere war eine Katastrophe.
Für benchen und OC aber mega witzig.
Ergänzung ()
Puh, schwierig. Die HD 2000er waren ein kompletter Reinfall, die 3000er und 4000er hatten dann auch die "kein Big chip, Fokus auf Mittelklasse" Strategie, die sie jetzt wieder fahren (müssen). Die waren meist auch nur über den Preis attraktiv. Die mobilen GPUs von ATi damals waren auch eine Qual, ich erinnere mich an eine 5650M oder whatever, die bei jedem Treiberupdate einen Bluescreen machte.
Es war schon immer ein Auf und Ab, aber bei so ziemlich jeder Chipfirma.
Liegt vielleicht daran, dass der Stromverbrauch im gesünderen Verhältnis zur Leistung liegt. Fake FPS mit Mikrorucklern bei fast doppelten Verbrauch waren damals durchaus kritikwürdig.
oha.. das ist schon 15 Jahre her... unglaublich...
Quad-Crossfire war natürlich echt Blödsinn, die zweite Karte konnte man dann beim Freund rein kloppen
Diese Dual Karten fand ich aber insgesamt noch recht interessant, gab eine Phase wo die echt Sinn gemacht haben. Finde eigentlich ganz gut das wir heute so schnelle Single Karten haben und nichts anderes mehr nötig ist. Wenn man sich jetzt mal anschaut wie die neuen Nvidia schon wieder abgehen...