News Im Test vor 15 Jahren: Die Radeon HD 5970 war schnell und ruckelte

Mein Bruder hatte damals die Sapphire Toxic von der HD 5970. Das war schon ein fettes Teil Hardware, aber unter Last laut wie nen Starfighter und Microruckler hatte er auch damit, das fiel mir vor allem damals beim ersten Teil von Metro auf!
 
Ich war damals begeistert davon. Klar, die Mikroruckler waren nicht so toll, aber es war zu der Zeit einfach genial. Ich hatte zwei HD 4890, eine GTX 295, zwei Radeon 7970 und zwei GTX 980.
 
  • Gefällt mir
Reaktionen: nurfbold
Ich wünsche mir die Zeit von SLI und Dualkarten zurück. Ich konnte die Mikroruckler nie wahrnehmen und das Basteln war super. Die, die das nicht wollen, müssen ja nicht kaufen. So bekäme man mit zwei 4070 super 4090 Leistung zum halben Preis. Natürlich mit entsprechenden Nachteilen wie mehr Abwärme, größeres Netzteil, Treiber etc. Mir wäre es den Spaß wert.

Ich kann mich zudem an kein Spiel damals erinnern, wo ich Probleme mit Sli hatte. AAA Games wurden in der Regel gut unterstützt.
Passt natürlich nicht mehr in die heutige Preispolitik.
 
Zuletzt bearbeitet:
wer kann sich noch an das Video von PCGH erinnern, wie sie einen Schoko Hasen mit zwei HD4870x2 weg geschmolzen haben 😆?

Ansonsten, hab ich verschiedene Kombinationen testweise in Betrieb gehabt. Wobei ich sagen muss hd5870 im cf hat sich am besten angefühlt😎. Diese Gespanne waren jedoch langfristig nicht interessant für mich. Zurzeit habe ich weniger Zeit zum zocken und ich bin überrascht wie lange mich eine einzelne RTX2060 glücklich macht.

Es wäre dem basteln zu liebe aber schon etwas schönes wenn man Multigpu Open Source lässt.
 
  • Gefällt mir
Reaktionen: Pega und Yesman9277
War damals schon echt ein Brecher das Teil, hätte ich gerne gehabt.
Meine Multi GPU Erfahrungen beschränken sich auf ein Crossfire System mit 2x HD4890, zum Glück hatte ich die meiste Zeit gute Kopfhörer auf dem Kopf. :daumen:

Multi GPU hätte durchaus eine Zukunft gehabt, wenn man nicht aufgrund der werbewirksamen Leistungsskalierung beim unsäglichen AFR geblieben wäre. Mit SFR gab es das Problem mit den Microrucklern gar nicht, da beide GPUs am gleichen Frame gearbeitet haben.
Nur war hier die Leistungsskalierung nicht so gut wie mit AFR, und wurde deshalb nicht genutzt.
Es gab allerdings auch genug Nutzer die das Microruckeln gar nicht wahrgenommen haben, für diese Personen war das natürlich ein Träumchen.
Alle anderen mussten auf sehr hohe FPS hoffen um das Microruckeln im Spiel nicht zu bemerken.
Schade um die Technik, da hätte man sehr viel draus machen können.

Anfangs brauchte man ja noch eine "Master" und eine "Slave" Karte, was beim Kauf schon eine Katastrophe war, die Entwicklung ging dann jedoch zügig voran.
AMD hatte schließlich die Kommunikation der beiden Karten auf die PCIe Verbindung verschoben, um diesen schrecklich langsamen Brückenkabeln zu entgehen.
Zumal es ja auch sehr gute Ansätze gab, gerade mit dem später erschienenen Direct X 12.
Hier wurde am Beispiel von "Ashes of the Singularity" gezeigt, das Multi GPU auch Hersteller übergreifend funktioniert, und das hatte es erstaunlich gut.

80358.png

Ich schätze das Ende von SLI/Crossfire war eine rein ökonomische Entscheidung.
Wenn zwei wesentlich billigere Karten das Flagschiff in der eigenen Flotte nass machen, wirkt sich das auf die Marge aus, und das wollten beide Hersteller möglichst vermeiden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mumbira und Frecyboy
Clonedrone schrieb:
Da wird mit 23 fps -> 100 fps bei Portal geworben. Um solche Zuwächse zu erreichen, muss es schon DLSS 3 Performance + FG sein
...durch DLSS Upscaling werden die 23fps auf 50+ gehoben, und FG interpoliert das wiederum zu 100. Das ist ein wichtiger Unterschied, den du unterschlagen hast.

Du hast also nicht träge Latenz von 30fps wie du es behauptet hattest, sondern die Latenz von ~60fps, und darauf wird dann FG berechnet.

Also wie ich schon sagte: FG wird auch von Nvidia erst ab an sich schon ziemlich flüssigen Bildraten empfohlen.

Clonedrone schrieb:
Performance ist im Vergleich zu Quality noch mal Gift für die Latenz.
DLSS Upscaling verringert die Latenz, egal auf welcher Stufe.
Upscaling berechnet weniger Pixel intern und skaliert dann hoch, wobei diese zwei Schritte zusammen weniger Rechenzeit benötigen als für eine native Berechnung der Ausgabeauflösung nötig wären. Beim Upscaling werden die Frames nicht verzögert ausgegeben!

Da hapert es bei dir am Grundverständnis.
 
  • Gefällt mir
Reaktionen: Mumbira
Palomino schrieb:
@Gullveig Das "bessere" Bild habe ich dann aber nur in sehr wenigen Titeln, in der Masse konnte das auch die "einfache" GPU leisten. Das Leistungsplus von Multi GPU war schon immer begrenzt, oft deutlich unter 50%.
Ja, es gab da doch die eine Engine, die seine Probleme mit den Multi GPU Settings hatte. Aber generell lief SLI/CF in der Masse besser als du das jetzt hier darstellen willst.
Palomino schrieb:
Die FPS jetzt zu begrenzen um eine zusätzliche Kantenglättung zu aktivieren steht in keinem Verhältnis, mit einem Multi GPU System will man ja mehr Leistung (FPS) haben oder höhere Auflösungen nutzen können (Downsampling). Das macht auch ein schöneres Bild.
Super Sampling Antialiasing ist de facto ja downsampling! Das, was du hier vorschlägst ist eigentlich das, was ich ich meinte.

btw, damals gabs kein Freesync, die meisten spielten also mit Vsync on.

Eine Karte schaffte da 45-60 fps, mit ner zweiten war man dann bei 60-70, was dann dazu führte, dass oft mit 30fps locked gespielt wurde, und mit Crossfire wars halt dann 60fps locked.

Ich kannte jedenfalls niemanden, der ohne vsync gespielt hat.
 
Hardy_1916 schrieb:
Moin und Danke für die Zeitreise, ich war damals mit 2 5870 unterwegs, fand SLi und Crossfire geil und vermisse irgendwie die Zeit. (7900GTX SLi, 8800GTX SLi, GTX 280 SLi, HD 4870 CF, HD 4870x2 Quad CF, HD 5870 CF) Erst mit der ASUS ROG Matrix HD7970 Platinum hörte ich auf, weil 2 von der Karte nicht auf das Crosshair V passten.

Anhang anzeigen 1544247
Ja, so war das bei mir auch, hatte immer mal wechselnde Crossfire Setups. SLI kann ich nicht beurteilen da ich damals ausschließlich Radeons wegen CF genutzt habe. Meine längste Karte von der Zeit her war mit Abstand damals die 3870x2, mit der hab ich sehr lange gezockt.
Vielleicht bin ich auch nicht so empfindlich, aber ich kann mich gar nicht an so krasse Ruckler usw. erinnern, sei es jetzt mit zwei separaten Karten oder einer meiner x2 Karten. Blöd war immer nur das der VRam sich nicht auch noch verdoppelt hat.
Ich hab gerade mal im Schrank geschaut, ich hab meine 3870x2 und eine 4870x2 sogar noch. Eine GTX 295 hab ich damals mal erworben für meinen Schrank, aber nie eingebaut, soll aber laufen.
 
  • Gefällt mir
Reaktionen: Hardy_1916
Powl_0 schrieb:
DLSS Upscaling verringert die Latenz, egal auf welcher Stufe.
Upscaling berechnet weniger Pixel intern und skaliert dann hoch, wobei diese zwei Schritte zusammen weniger Rechenzeit benötigen als für eine native Berechnung der Ausgabeauflösung nötig wären. Beim Upscaling werden die Frames nicht verzögert ausgegeben!

Da hapert es bei dir am Grundverständnis.
Ja, ja. Kandidat 2 für meine Ignore-Liste. DLSS3.X Performance in Verbindung mit FG verschlechtert die Latenz.

"Auch bei den Latenzen zeigen sich größere Unterschiede. Bei der GeForce RTX 4070 spielt es bei gleichzeitiger Nutzung von DLSS SR „Quality“ keine Rolle, ob die künstlichen Frames genutzt werden oder nicht, die Latenz fällt nicht besser oder schlechter aus. Anders sieht es dagegen beim Einsatz von DLSS SR „Performance“ aus, bei dem die Latenz plötzlich 14 Prozent schlechter ist, wenn Frame Generation eingesetzt wird."
computerbase.de

Deinen Spruch mit dem Grundwissen kannst du dir schenken. Du brauchst auch nicht ständig die Dinge mit niedriger FPS-Rate wiederholen, die ich selbst geschrieben habe.

Und von 23 auf 100 fps sind es ohne FG folgerichtig 50 fps und nicht 60 fps, wie du im zweiten Abschnitt geschrieben hast. Dazu kommt die verschlechterte Latenz, wo ich dann nämlich nicht mal mehr bei 1/50 bin. Selbst 1/50 ist je nach Spiel auch alles andere als angenehm spielbar. Ich hoffe jetzt ist es auch für dich verständlich.
Ergänzung ()

Powl_0 schrieb:
...durch DLSS Upscaling werden die 23fps auf 50+ gehoben, und FG interpoliert das wiederum zu 100. Das ist ein wichtiger Unterschied, den du unterschlagen hast.
DLSS Performance ist DLSS Upscaling! Was schrieb ich noch mal? "Um solche Zuwächse zu erreichen, muss es schon DLSS 3 Performance + FG sein". Nächstes mal richtig lesen.
 
Zuletzt bearbeitet:
@Clonedrone
Ich kann dir nur empfehlen, die Postings genauer zu lesen, auf die du reagierst. Es passierte Dir nämlich gleich mehrfach in diesem Thread, dass du drastisch falsche Bezugspunkte gesehen hast.

Falls dir die Postings nicht transparent genug geschrieben sind, dann sprich die User darauf an. Die meisten auf CB sind sehr überdurchschnittlich freundlich und schicken dir auch eine zweite Erklärung.
Ich übernehme das mal einfach kurz, erst für deine Reaktion auf mein Posting:
Clonedrone schrieb:
V2 SLI hat gar nichts verschoben. Die Berechnung des Bildes wurde damals bei gleichbleibendem VRAM aufgeteilt. Genauer gesagt wurden die Zeilenberechnungen geteilt, mehr nicht. Die Geometrie musste je Karte geliefert werden und das erledigte die CPU.
Weil die GPU heute wesentlich mehr berechnet, erreichte auch das spätere Nvidia SLI nur überschaubare Zuwächse. Das war abgesehen vom Namen auch eine andere Technologie, denn das "alte" originäre SLI hätte keinen Sinn mehr gemacht.
Die Aussagen von dir sind korrekt, das Voodoo 2 / Voodoo 5-SLI war ScanLineInterleave und hat zeilenweise das Bild aufgeteilt. Deshalb konnte jede Karte ihren VRAM auch tatsächlich effektiv fürs Gesamtbild nutzen, während bei AFR der verdoppelte Speicher verkümmert.
Darum ging es nur nicht. Es ging darum, dass damals die CPU-Limits heftig waren, weil die Grakas noch wenig selbst übernehmen konnten. Genau deshalb hat ScanLineInterleave bei hohen Settings tolle Zugewinne gebracht, bei niedrigen kaum was.
(stand so auch schon im vorherigen Posting)


Und jetzt auch noch für eine Reaktion auf ein fremdes Posting:
Clonedrone schrieb:
DLSS3.X Performance in Verbindung mit FG verschlechtert die Latenz.
Das stand nicht zur Debatte. Es ging darum, dass wenn davon gesprochen wird, dass Upscaling und Frame Generation zusammen ein Spiel von ~25FPS auf ~100FPS hieven, dass dann die Latenz geringer ist als die, die nur bei 25FPS vorliegen würde. Und das ist sie, denn die verringerte Renderres bringt (im GPU-Limit, das hier zumindest genügend vorliegt) eine bessere Latenz.

Ich hoffe, ich konnte dir helfen.
 
  • Gefällt mir
Reaktionen: Mumbira
CDLABSRadonP... schrieb:
Und das ist sie, denn die verringerte Renderres bringt (im GPU-Limit, das hier zumindest genügend vorliegt) eine bessere Latenz.
Und genau das bringt sie eben nicht in jeder DLSS-Variation mit FG. Wem das nicht passt, Artikel hier vom 04.03.2024.
Unabhängig davon habe ich das schon in #59 geschrieben. "Steht nicht zur Debatte" ist daher etwas deplatziert.

Deine Behauptung war, dass 3dfx SLI hat das Limit in Richtung GPU verschoben. Textur und Geometrieinfos lieferte die CPU pro (!) Karte. Da somit der Anspruch an die CPU ebenfalls steigt, ist die Behauptung inkorrekt. Ich habe selbst noch zwei Monster 3d 2 in meinem Pentium III. Da die CPU deutlich später nach der Voodoo 2 kam, kann man die steigende Auslastung gut erkennen.
Das einzige Argument in Richtung GPU kann also nur die gestiegene Auflösung sein.
Sehr gut nachvollziehen konnte man das auch im damaligen UT99 mit z.B. einem K6 III 400. Da brachte SLI nämlich sogar eine Verminderung der fps, weil die CPU zwei Karten beliefern musste.

Ich denke es wurde alles gesagt. Unterschiedliche Ansichten in diesem Fall.
 
Zuletzt bearbeitet:
Clonedrone schrieb:
Ich denke es wurde alles gesagt. Unterschiedliche Ansichten in diesem Fall.
Nein. Definitiv nicht. Es sind die gleichen Ansichten, du liest einfach nur nicht richtig. Ich sage das, was du in diesem neuen Posting geschrieben hast 1:1!
Entsprechend empfehle ich dir auch, erst nochmals mein Posting genau mit dem Hintergedanken zu lesen,
Clonedrone schrieb:
Clonedrone schrieb:
Deine Behauptung war, dass 3dfx SLI hat das Limit in Richtung GPU verschoben. Textur und Geometrieinfos lieferte die CPU pro (!) Karte. Da somit der Anspruch an die CPU ebenfalls steigt, ist die Behauptung inkorrekt. Ich habe selbst noch zwei Monster 3d 2 in meinem Pentium III. Da die CPU deutlich später nach der Voodoo 2 kam, kann man die steigende Auslastung gut erkennen.
Nein, meine Behauptung war, dass es ein deutliches CPU-Limit gab...
CDLABSRadonP... schrieb:
Da damals die CPU noch wesentlich mehr berechnet hat, war es wichtig,
...weshalb sich ScanLineInterleave nur gelohnt hat, wenn man das Limit in Richtung GPU verschoben hat.
CDLABSRadonP... schrieb:
das Limit in Richtung der GPU zu verschieben, damit sich ScanLineInterleave gelohnt hat.
Insbesondere sprach ich...
Clonedrone schrieb:
Das einzige Argument in Richtung GPU kann also nur die gestiegene Auflösung sein.
...dabei von höherer Auflösung:
CDLABSRadonP... schrieb:
Der Klassiker für die Verschiebung in Richtung GPU-Limit zu Voodoo-2-Zeiten war, die Auflösung von 800x600 auf 1024x768 (63% mehr Pixel) zu erhöhen.
Und oho, oho, oho. Es stimmt! Das sollte dich generell skeptisch stimmen.
Clonedrone schrieb:
Clonedrone schrieb:
Unabhängig davon habe ich das schon in #59 geschrieben. "Steht nicht zur Debatte" ist daher etwas deplatziert.
Steht nicht zur Debatte war ein Zustimmen...
:rolleyes:
 
  • Gefällt mir
Reaktionen: Mumbira
Clonedrone schrieb:
DLSS3.X Performance in Verbindung mit FG verschlechtert die Latenz.
FG verschlechtert die Latenz, Upscaling verbessert sie. Das sind zwei verschiedene Komponenten von DLSS, die man unabhängig voneinander nutzen kann.
Clonedrone schrieb:
Was schrieb ich noch mal?
Hab ich gelesen, was ich dir aber ankreide ist dass du den Einfluß auf die Latenz zwischen Upscaling und FG durcheinander wirfst.
Clonedrone schrieb:
"Auch bei den Latenzen zeigen sich größere Unterschiede. Bei der GeForce RTX 4070 spielt es bei gleichzeitiger Nutzung von DLSS SR „Quality“ keine Rolle, ob die künstlichen Frames genutzt werden oder nicht, die Latenz fällt nicht besser oder schlechter aus. Anders sieht es dagegen beim Einsatz von DLSS SR „Performance“ aus, bei dem die Latenz plötzlich 14 Prozent schlechter ist, wenn Frame Generation eingesetzt wird."
computerbase.de
Vielleicht liest du dir auch das ganze Kapitel durch, woraus du da zitierst. Da ging es um das Verhalten von FG in einem spezifischen Spiel, wo direkt im Text vermerkt wird, dass sich DLSS FG dort generell falsch zu verhalten scheint, da es gerade einmal 7% mehr Bildrate liefert. Auf die Latenzmessung für dieses Spiel kann man also nicht viel geben.

Bitte versuch nicht, das zu verallgemeinern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mumbira und CDLABSRadonP...
Hatte damals mal eine 5970 unter Wasser. Die Karten waren teilweise dafür bekannt einen Coldbug bei Temperaturen <= 20 °C zu haben. Soweit ich noch weiß hing das glaub ich mitm VRAM zusammen. Habe die Karte dann übertaktet und die Artefakte beim Boot und in den ersten Min vom Windows waren weg. Damals waren meine Standards noch niedriger, aber ich hatte die Karte schon positiv in Erinnerung. Glaube auch das Ding hat den Umsatz der Trennscheibenhersteller für Winkelschleifer angekurbelt, war ja immens lang das Teil und dafür haben viele ihre Gehäuse bearbeiten müssen 😅

Wilde Zeiten... GTX295 Dual PCB auf Wakü umgebaut... "Die Dual PCB darfst du maximal 1 x öffnen, dann brechen die Kontakte vom kleinen SLi-Link Kabel und du kannst sie wegschmeißen" - meine habe ich bestimmt 3 mal hin und zurück gebaut und Jahre später im HWLXX Marktplatz wiedergefunden :)
 
Zurück
Oben