News Im Test vor 15 Jahren: Die Radeon HD 5970 war schnell und ruckelte

Dass sich diese Lösungen wohl nie durchgesetzt haben, ist auch der Grund, warum sie wohl recht schnell wieder beerdigt wurden.

Ist ja genau das Gleiche wie mit den PDAs.

Sie verschwanden ja auch wieder recht schnell vom Markt.
 
naja PDAs verschwanden weil Smartphones und Tablets kamen .. und das ganze verbesserten ...
 
  • Gefällt mir
Reaktionen: Coeckchen, NMA und Kenshin_01
Ich weiß gar nicht, ob es hier schon einen Rückblick auf PDAs gibt.

Daran merke ich erst mal, dass ich alt werde (und das sage ich mit 31) :D
 
Moritz Velten schrieb:
Dass sich diese Lösungen wohl nie durchgesetzt haben, ist auch der Grund, warum sie wohl recht schnell wieder beerdigt wurden.
Meinst Du denn, dass das eine Technologie für den Mainstream war? Ich nicht ;)

Für ein Multi-GPU System brauchts halt mehr, als nur eine Graka (mit 2 Chips) / 2 Grakas, sondern auch noch ein starkes Netzteil, gute Gehäusebelüftung und bei echtem Multi-GPU auch ein Mainboard, dass das abkann. Die Technik war einfach für Enthusiasten.
 
  • Gefällt mir
Reaktionen: Redundanz und stevefrogs
xxMuahdibxx schrieb:
Das Original "SLI" war ruckelfrei
Das war halt auch ein anderer Ansatz mit zeilenweise statt frameweise.
Ein Freund hatte damals eine Voodoo5500 mit 2 VSA100, und das funktionierte recht anständig.
Abgesehen halt davon dass er mit 3dfx aufs falsche Pferd gesetzt hatte und sich knapp 1 Jahr später dann eine GF2 Pro gekauft hat.
 
Powl_0 schrieb:
FG war nie dafür gedacht, aus der unteren Kotzgrenze ein angenehmes Erlebnis zu machen.
So wird es aber verkauft. Wenn ich 60 fps schaffe, brauche ich eigentlich auch kein Frame Generation.
Das damalige SLI von 3dfx hat ja damals noch Sinn gemacht, weil die CPU noch wesentlich mehr berechnet hat und da Zuwachsraten von 90% fps raus kamen.
 
Zuletzt bearbeitet:
Ich fand diese MultiGPU Crossfire/SLI Setups immer mega interessant. Konnte mir aber nie eine Leisten und als ich es mir hätte leisten können, war die Vernunft da, um mich davon abzuhalten.

Interessant ist es aber allemal.
 
schade das sich SLI und Crossfire nie richtig durchgesetzt haben
 
SLI/CF sind geile Technologien, hatte selbst mehrere MultiGPU Setups.
9600GT GoldenSample 1GB im SLI
GTX 470 1280 im SLI, und das war hier die schlechteste Idee überhaupt, durch die nur 1,28GB ist das verhungert
GTX 670 4GB im SLI
GTX 770 4GB ebenfalls im SLI, und das Setup konnte teils ne GTX 970 ausstechen.
Schade das es quasi tot ist. Ich denke aber für VR könnte SLI/CF nochmal interessant werden, Pro auge eine Karte. Aber sowas technisch zu lösen wird wohl auch nicht ohne sein.
 
  • Gefällt mir
Reaktionen: NMA
Die Zeit, als man für 600€ noch zwei High-End GPU-Chips bekam… Heute gibt es dafür, für den inflationsbereinigten aktuellen Wert von ~850€ bekommt man da heute nur noch einen Chip. Und das ist nicht einmal High-End…
Ich habe selbst immer einen Bogen um die SLI/Crossfire -Verbünde und Dual-GPU-Karten gemacht, zu viele Klagen über die Mikroruckler bei den Nutzern solcher Karten vernommen.
 
The Professor schrieb:
@Chesterfield Hat man eigentlich jemals herausgefunden, ob es Hardware oder Softwareseitig nicht zu lösen war?
Ja, das Grundsatzproblem von AFR ist lange bekannt und lässt sich nur durch ein scharf gewähltes Framelimit mit dadurch gewonnenem genügenden Turbospielraum lösen. Das bedeutet dann aber auch: Zwei Karten liefern dann nicht mehr doppelt so viele FPS, sondern nur noch z.B. 50% mehr.

Aber woran liegt das?
Es gibt einen 1:1-Vergleich und das sind Bahnlinien. Man nehme einen rundfahrenden Zug, der braucht in seinem Geschwindigkeitslimit 60 Minuten für eine Fahrt von der Ausgangsstadt hin zum Messegelände und zurück. Und das Limit kostet er auch aus. Anstatt jetzt einen schnelleren Zug zu bauen oder einen mit mehr Wagons liegt es nahe: Zwei vom gleichen Modell und der zweite startet einfach 30 Minuten später. Dann kommen am Messegelände statt alle 60 Minuten alle 30 Minuten Besucher an. Super!
Das Problem tritt auf, wenn es z.B. bei Zug A zu einer Verzögerung kommt. Jemand blockiert die Türen und er kann erst 10 Minuten später losfahren. Wenn danach an dem Tag nie wieder eine weitere Verzögerung auftritt und die Züge sich nicht einmal auf der Strecke stören, gilt dennoch: Dann kommen die Züge nicht mehr alle 30 Minuten an, sondern einmal einer um zehn nach, einer regulär um halb, dann einer um zehn nach, dann einer um halb und so weiter. Sie sind nachhaltig desynchronisiert. Um sie wieder in den gleichen Takt zu bekommen gibt es jetzt mehrere Möglichkeiten. Leider kann kein Zug schneller fahren, denn sie fahren ja bereits am Limit!
Was geht, ist den zweiten Zug auch künstlich auszubremsen. Dann liegt man nun bei zehn nach, zwanzig vor, zehn nach, zwanzig vor. Blöd: Dafür opfert man künstlich Geschwindigkeit.
Statt dessen kann man auch hoffen, dass der zweite Zug irgendwann auch einmal eine Verzögerung abbekommt und sich das einfach so weghebt. In beiden Fällen gilt: Beim ursprünglichen Fahrplan mit um voll und um halb ist man dann immer noch nicht. Dafür muss man wirklich einmal zwischendurch sogar beide Züge ausbremsen.

Welche Alternative gäbe es noch, wenn man grundsätzlicher denken würde? Man könnte die Züge gar nicht am Limit fahren lassen, sondern z.B. pro Zug nur noch 90min Fahrtzeit anstreben. Wenn es dann einen Zwischenfall gäbe, würden sie einfach stärker beschleunigen können, um die Verspätung einzuholen. Davon würde beim Messegelände dann niemals jemand etwas mitbekommen.

BTW: Das dargestellte ist das echte Problem der deutschen Bahn: Sie lassen ihre Züge zu oft am Limit fahren und können daher Verspätungen nicht aufholen.

Auf AFR bezogen heißt es halt: Wenn man sagt, dass eine Graka 60FPS erreichen kann, dann kann man beide zusammen auf 90 FPS limitieren und erhält ein rundes Ergebnis. Lässt sich das gut verkaufen? Nein. Muss dafür das Boosten sehr gut funktionieren? Ja. Braucht man so oder so eine starke CPU, um die Karten zu befeuern? Ja.

Von diesen Problemen war zur Zeit der 5970 übrigens bereits fast alles bekannt. Die GPU-Boosts waren damals noch nicht in heutiger Form vorhanden, sondern nur als negative Boost, als Bremsen. Die theoretischen Überlegungen existierten aber vollkommen.
 
  • Gefällt mir
Reaktionen: NMA, The Professor und Powl_0
Multi GPU war schon geil, erfordete vom User allerdings Interesse und die Bereitschaft sich mit den Sielen und Treibern auseinander zu setzten. Plug and Play war es nie, dazu kam noch der mehr Aufwand beim implementieren. Rein Wirtschaftlich war Multi GPU für AMD / NVIDIA eine Katastrophe, da Ressourcen für eine extrem kleine Käuferschicht bereitgestellt werden mussten.

Ich denke dennoch gern an die Zeit zurück, mein erstes Multi GPU war ein 6800 Ultra SLI, das war noch was, frickelig und unter Last lächerlich laut.
 
Clonedrone schrieb:
Wenn ich 60 fps schaffe, brauche ich eigentlich auch kein Frame Generation
Weil?
120fps sehen besser aus als 60fps, auch bei gleichbleibender (oder gar minimal höherer) Latenz. Ausgenommen vielleicht hochgradig kompetitive Shooter. (Und sein wir mal ehrlich, die wenigsten Spieler haben tatsächlich genug Skill, um das bisschen höhere Latenz wirklich zu spüren).
Ergänzung ()

Hatsune_Miku schrieb:
Pro auge eine Karte. Aber sowas technisch zu lösen wird wohl auch nicht ohne sein.
AMD hat es mit LiquidVR mal versucht, hat aber niemand genutzt.
 
Clonedrone schrieb:
So wird es aber verkauft. Wenn ich 60 fps schaffe, brauche ich eigentlich auch kein Frame Generation.
Frame Generation wird genau dafür verwendet: Wenn man eigentlich (aus Sicht der Latenz) bereits genügend FPS hat, aber (für bessere Bewegtbilddarstellung, sprich Ausnutzung der Reaktionszeiten des Monitors) dem Monitor dennoch mehr füttern kann.
Clonedrone schrieb:
Das damalige SLI von 3dfx hat ja damals noch Sinn gemacht, weil die CPU noch wesentlich mehr berechnet hat und da Zuwachsraten von 90% fps raus kamen.
Es war genau umgekehrt: Da damals die CPU noch wesentlich mehr berechnet hat, war es wichtig, das Limit in Richtung der GPU zu verschieben, damit sich ScanLineInterleave gelohnt hat. Ansonsten hat sich die zweite Karte nur gelangweilt. Der Klassiker für die Verschiebung in Richtung GPU-Limit zu Voodoo-2-Zeiten war, die Auflösung von 800x600 auf 1024x768 (63% mehr Pixel) zu erhöhen. Und zu Voodoo-5-Zeiten dann, statt 1xAA eben 2xSGSSAA bzw. statt 2xSGSSAA eben 4xSGSSAA zu nutzen.
 
CDLABSRadonP... schrieb:
Es war genau umgekehrt: Da damals die CPU noch wesentlich mehr berechnet hat, war es wichtig, das Limit in Richtung der GPU zu verschieben, damit sich ScanLineInterleave gelohnt hat.
V2 SLI hat gar nichts verschoben. Die Berechnung des Bildes wurde damals bei gleichbleibendem VRAM aufgeteilt. Genauer gesagt wurden die Zeilenberechnungen geteilt, mehr nicht. Die Geometrie musste je Karte geliefert werden und das erledigte die CPU.
Weil die GPU heute wesentlich mehr berechnet, erreichte auch das spätere Nvidia SLI nur überschaubare Zuwächse. Das war abgesehen vom Namen auch eine andere Technologie, denn das "alte" originäre SLI hätte keinen Sinn mehr gemacht.
Ergänzung ()

Powl_0 schrieb:
120fps sehen besser aus als 60fps, auch bei gleichbleibender (oder gar minimal höherer) Latenz.
Weil 60 fps zumindest flüssig sind. Ich sehe natürlich auch den Unterschied, wenn mein 144 Hz Monitor ausgelastet wird durch höhere fps. Ich meine bei Quake 4 war es damals so, dass die fps sogar auf max 60 waren.
Ergänzung ()

Powl_0 schrieb:
Dann schau dir mal das Marketing von FG unter DLSS 3.X von Nvidia an. Da wird mit 23 fps -> 100 fps bei Portal geworben. Um solche Zuwächse zu erreichen, muss es schon DLSS 3 Performance + FG sein. Und Performance ist im Vergleich zu Quality noch mal Gift für die Latenz.
 
Zuletzt bearbeitet:
Ich finde es nach wie vor ein interessantes Konzept, eigentlich echt schade das heute die Multi-GPUs tot sind, aber klar, die derzeitigen Single GPUs haben nach oben hin genug Spielraum, irgendwo gibt es Grenzen beim Verbrauch und Wärmeentwicklung.
Ich werde jedenfalls nie vergessen, als ein Kollege mir die 5970 auf den Tisch legte und grinste. War schon ein Monster und eben teuer. Echtes Enthusiast halt. Heute sehe ich es nur noch als Unsinnig an.
Fand die Faszination nicht mehr so groß wie vorher bei der 4870 X2 sowie der 3870 X2, ich fand tatsächlich auch das alte Namensschema besser, verwirrt halt immer wieder.
Diese Dual-GPUs hatten immerhin noch den Vorteil, insofern Crossfire unterstützt wurde, konnte man tatsächlich bis 100% mehr Leistung raus holen, je nach Engine, alles darüber hinaus war dann totaler Mumpitz. Es gab Games bei denen nur 50% oder je zusätzliche GPU nur 20% drin waren...
 
Zurück
Oben