News Im Test vor 15 Jahren: Die Radeon HD 5970 war schnell und ruckelte

@Faust2011 Danke für den Hinweis, da hat sich AMD wohl gedacht, dass man den guten Ruf der inoffiziellen Third Party Treiber nun zu offiziellen macht.
 
  • Gefällt mir
Reaktionen: Redundanz
Ich hatte mal eine Zeit lang ein CF aus zwei 7970ern.
Ja die Mikroruckler und die CF-Profile waren echt nervig. Trotzdem finde ich es irgendwie schade, dass CF/SLI beerdigt wurden. Denn mit Freesync/G-Sync/Adaptive-Sync existiert heute Technologie, die das potential hat, Mikroruckler zu vermeiden.
Andererseits haben damals zwei Highend GPUs weniger gekostet als heute die obere Mittelklasse, heute wären also noch weniger Enthusiasten bereit sich ein SLI/CF ins System zu packen als damals schon.
 
Clonedrone schrieb:
Also im Prinzip das selbe Erlebnis wie heute mit Frame Generation. Nur das die Latenz heute auch noch als Negativpunkt dazukommt.

Frame Generation funktioniert bedeutend besser als SLI/Crossfire.
 
  • Gefällt mir
Reaktionen: Gsonz, stevefrogs und Fighter1993
Mikroruckler gabs doch nur, wenn man nicht fähig war, die Einstellungen im Grafikmenü richtig zu wählen.
 
  • Gefällt mir
Reaktionen: Redundanz
@Gullveig meinst du damit, dass man mit einer hohen FPS Zahl keine Mikroruckler mehr hat? Das ist schlichtweg falsch, Mikroruckler sind unterschiedliche Zeiten zwischen den Frames. Bei Crossfire/SLI werden Frames abwechselnd berechnet. Je nachdem, wenn eine der Karten länger für einen Frame braucht, hat man unterschiedliche Zeitspannen.
Mikroruckler sind natürlich bei niedrigeren Frames eher wahrzunehmen, als bei hohen, jedoch auch dort existent.

Hier nachzulesen
https://www.computerbase.de/2008-01...7/#abschnitt_das_multigpuproblem_mikroruckler
 
  • Gefällt mir
Reaktionen: konkretor, stevefrogs, piccolo85 und eine weitere Person
Clonedrone schrieb:
im Prinzip das selbe Erlebnis wie heute mit Frame Generation
Naja ne. FG hat keine Mikroruckler, wenn es richtig implementiert ist. Das wissen wir und haben es ja auch in einigen Spielen so. Genau mit der Latenz erkauft man sich ja ebenes Pacing.
 
  • Gefällt mir
Reaktionen: Gsonz
Chesterfield schrieb:
man munkelt dass der PLX Chip der Grund ist
Hatte genau nix damit zu tun.
Es liegt einfach am "alternate frame rendering" bei dem jeder Chip abwechselnd ein einzelnes Bild berechnet. Dass führte einfach zu unregelmäßiger Bildausgabe und war auch der Grund warum es mit Triple- oder Quad-SLI/Crossfire nur noch immer schlimmer wurde. Die Frametimes waren eine Katastrophe.
Ein bisschen konnte man es verringern mit Treiberoptimierung und/oder Framelimiter, aber die unregelmäßige Bildausgabe lag einfach in der Natur der Sache.
Eine komplett neue Multi-GPU Rendermethode wäre nötig um das Problem zu lösen.
 
  • Gefällt mir
Reaktionen: Topas93, konkretor, piccolo85 und 5 andere
@Yesman9277
Nein, ich meine vsync und triple buffering. Und natürlich sinnvolle Einstellungen, um die 60 Frames stets halten zu können Und halt stets mit multi/supersampling spielen und reduzierten Grafikdetails.

Dann bist quasi immer mikrorucklerfrei
 
  • Gefällt mir
Reaktionen: Redundanz
Meine DualGPU Grafikkartenerfahrungen waren auch nicht auf Dauer, einst hatte ich eine ATI Rage Fury Maxx und dann eine Nvidia 7950GX2. Waren beides technisch pornöse und brutale Grafikbeschleuniger zu seiner Zeit, schade das es das nicht mehr gibt, natürlich ohne Mikrorucklert und extra SLI Profilen etc.
 
Gullveig schrieb:
Nein, ich meine vsync und triple buffering. Und natürlich sinnvolle Einstellungen, um die 60 Frames stets halten zu können Und halt stets mit multi/supersampling spielen und reduzierten Grafikdetails.

Dann bist quasi immer mikrorucklerfrei
Dann macht Multi GPU aber keinen Sinn mehr.
 
  • Gefällt mir
Reaktionen: bad_sign, Wanderwisser, stevefrogs und 2 andere
@Palomino
Doch, weil du im Gegensatz zu nur einer Karte ein besseres Bild hast.

Eine Karte: 60fps locked, ohne MSAA
zwei Karten: 60fps locked, mit MSAA

Oder meinst du was anderes? SLI/CF mit Mittelkasse Karten, das macht keinen Sinn.

edit: Und SLI/CF OHNE VSYNC war auch total sinnfrei, man muss immer bedenken, dass damals ja nichts anderes da war um Tearing zu vermeiden.
 
Zuletzt bearbeitet:
Ach ja, ich erinnere mich noch an mein GTX570 SLI Setup das ich damals jemandem aus dem Forum hier abgekauft hatte. Tolle Zeit.
Irgendwann hatte mich das Forum glauben lassen, dass ich mit einer GTX 670 besser bedient wäre. (Minimal weniger FPS, aber keine Mikroruckler.) Ich bereue die Entscheidung heute noch. Ich war tatsächlich sehr zufrieden mit SLI.

Aber es gab halt Spiele wo es gar nicht funktioniert hat, dann hatte ich halt "nur" eine GTX 570, was immer noch völlig ok war. Ich halte bis heute daran fest, dass SLI ab einer GTX 470/570/670/970 durchaus Sinn gemacht hat, für Leute die wussten, worauf sie sich einlassen. Weil es schlicht nichts darüber gab. Im worst case konnte man eine GPU deaktivieren.
 
  • Gefällt mir
Reaktionen: Nekkepenn
Chesterfield schrieb:
Mainbaords die dual gpu‘s unterstützt haben hatten diesen plx Chip auf dem Mainboard.
Nö. SLI und Crossfire gingen auch als 8+8 ohne PLX. Crossfire geht theoretisch sogar in x4 Slots vom Chipsatz...
PLX Chips gabs eigentlich nur auf teuren Boards bzw wenn triple/quad GPU unterstützt werden sollte.
Ergänzung ()

Clonedrone schrieb:
Wenn die Berechnung nur 30 fps physisch schafft, wird der Input halt verzögert.
Und genau deshalb empfehlen AMD und auch Nvidia FG erst ab höheren Bildraten wie 60fps+. Durch FG soll eher ein flüssigeres Bild auf 120Hz+ machbar werden, da gehen die Wiederholraten aktueller Monitore ja enorm weit hoch.

FG war nie dafür gedacht, aus der unteren Kotzgrenze ein angenehmes Erlebnis zu machen.
 
  • Gefällt mir
Reaktionen: Coeckchen, NMA, stevefrogs und 2 andere
Gullveig schrieb:
@Palomino
Doch, weil du im Gegensatz zu nur einer Karte ein besseres Bild hast.

Eine Karte: 60fps locked, ohne MSAA
zwei Karten: 60fps locked, mit MSAA

Eine zweite Karte nur für AA ist aber genau das was er meint, das lohnt sich doch nicht.
Und in deinem Beispiel kommt dazu dass man bei einer Karte auch unlocked spielen kann wenn man mehr fps will und tearing nicht stört ohne direkt wieder die MultiGPU Probleme zu haben.

Besseres Bild ist natürlich auch was wert, aber es kam zu einem hohen Preis und es war auch nur dann drin wenn die Profile funktioniert haben, für die meisten ist das einfach kein guter Deal gewesen.
 
  • Gefällt mir
Reaktionen: Vulture
Wenn dich tearing nicht stört, dann stören dich auch die Mikroruckler und und das Kantenflimmern nicht.

Und dann brauchst du auch keine zweite GPU...
 
  • Gefällt mir
Reaktionen: Coeckchen
Das Original "SLI" war ruckelfrei ... aber nicht "Streifenfrei"
 
  • Gefällt mir
Reaktionen: NMA
@Gullveig Das "bessere" Bild habe ich dann aber nur in sehr wenigen Titeln, in der Masse konnte das auch die "einfache" GPU leisten. Das Leistungsplus von Multi GPU war schon immer begrenzt, oft deutlich unter 50%. Zumal oft auch das Problem des begrenzen Speichers bestand, was der nächste Flaschenhals sein konnte, falls die Rohleistung gut genug war.
Die FPS jetzt zu begrenzen um eine zusätzliche Kantenglättung zu aktivieren steht in keinem Verhältnis, mit einem Multi GPU System will man ja mehr Leistung (FPS) haben oder höhere Auflösungen nutzen können (Downsampling). Das macht auch ein schöneres Bild.
 
  • Gefällt mir
Reaktionen: NMA, stevefrogs und Vulture
Als preissensibler Käufer, mit Blick auf die Abwärme in den Sommermonaten, kamen solche Multi-Lösungen nie infrage. Das Hobby war auch so über die Jahre hinweg teuer genug. War wohl besser so.

Gefühlt haben damals mehr Leutz auf Multi-GPU geschworen, als der Tenor es hier vermuten lässt.
Klingt fast wie der Morgen nach der großen Party ... :-)
 
  • Gefällt mir
Reaktionen: EntelodonX, entengruetze und Vulture
Zurück
Oben