News Im Test vor 15 Jahren: Die GeForce 8800 Ultra zuckte und schwitzte im 3-Way-SLI

Atma schrieb:
Das war mit ziemlicher Sicherheit OpenGL only. Direct3D lässt sich nicht per Extensions erweitern.
Also, wenn Du drauf beharrst, dann kann ich Dir gerne die Infos liefern :)

Die Software heißt AMD GPU Services Library. Im Abschnitt "Benefits" findest Du für DX11 das hier:
  • DirectX® 11 Crossfire API updates.
    • Now supports using the API without needing a driver profile.
    • You can also now specify the transfer engine.
Muss Dir jetzt auch noch die Codebeispiele verlinken?


Edit: Gefunden! https://github.com/GPUOpen-LibrariesAndSDKs/CrossfireAPI11

The CrossfireAPI11 DirectX® 11 sample demonstrates how to use the explicit Crossfire API. This driver extension provides the ability to control resource transfers between GPUs in Crossfire configuration in DirectX 11. This allows improved performance in multi-GPU configurations.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA und bad_sign
„Zum Glück“ hat das nie richtig funktioniert , 3x2k€ um call of duty flüssig zu Spielen 😂🍻
 
  • Gefällt mir
Reaktionen: lorpel
  • Gefällt mir
Reaktionen: Kommando
Das Review ist von 2008 und erwähnt schon das Dschungelcamp. Seitdem ist RTL echt nix mehr eingefallen… 😂
 
  • Gefällt mir
Reaktionen: bad_sign, Schmarall und XFC
Ich denke multi gpu wird groß wieder kommen und dann mit ki gesteuerter frame Berechnung ohne ruckler
 
Für mich waren damals eher die Midrange-Karten reizvoll. Daraus SLI und für 2x wirklich geringes Geld dann echt Rechenpower im System.
Gemacht habe ich es aber nie. Gelohnt hätte es sich mit den Karten vermutlich aber auch nicht so recht. Außer damals bei der Voodoo 2, aber da hatte ich eine Voodoo 1 und bin direkt weiter gesprungen in den Generationen.
Für mich wären die dicksten Karten im SLI eh nie in Frage gekommen. Weil schon die dicken Dinger ja ihre Enthusiastenprobleme hatten. Sprich Abwärme, Preis usw. Luxusprobleme. Da ich da nie im Geld geschwommen habe als Schüler, Ausbildender und danach Student, kam das eh nie so recht in Frage. Als Norddeutscher war ich dann doch zu sehr Schwabe :D. Nichtsdestotrotz schon schade, vielleicht wäre ein Test mit 2 günstigen Karten doch mal was gewesen. Das Problem der Unterstützung war aber immer der Sargnagel für meine Entscheidung.
 
DeathDealer schrieb:
da war noch übel... das Gehäuse nicht passen für die Karten... man hat es dann irgendwie reinbekommen... das waren auch die ersten Gehversuche mit Wasserkühlung... 2008 oder so. Die Karten liegen mit Wasserkühler noch hier :-) Witzig wie schmal und flach der Kühler war

Anhang anzeigen 1312045
DSC00512.JPGDSC00507.JPGDSC00509.JPG Jaja die Jugend Teile :D Wenn man zu arm war für den zweiten GPU Kühler und noch jeder iwas gebastelt hat wo ihm gefallen hat. Weiß noch wie stolz ich auf die 9800 gx2 war haha Hab das Teil sogar noch auf Ebay verkauft. An jemanden wo den ma auf ner LAN Party gesehen hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA und DeathDealer
Ayo34 schrieb:
IDLE 420 Watt, das waren noch Zeiten, fast wie heute bei den neuen AMD Grafikkarten.
Also meine 6700 XT zieht laut dem Adrenalin Tool Dings (hab' den Namen vergessen ^^) 6-10 Watt im Idle :smokin:
(Nur mal als grober Vergleichswert :D )
 
RDNA2 liest nur GPU +RAM aus, Lüfter, Leitungsverluste und VRMs sind nicht inbegriffen (es kommt noch eine Handvoll Watt drauf)
 
  • Gefällt mir
Reaktionen: NMA
War eine spannende und bunte Zeit.

Kann mich heute noch gut daran erinnern, wie ein Kumpel einen Durchbruch ins Nachbarzimmer gemacht hat und den PC dort stehen hatte, damit es beim zocken nicht zu laut war :daumen:
 
Felix# schrieb:
Für mich waren damals eher die Midrange-Karten reizvoll. Daraus SLI und für 2x wirklich geringes Geld dann echt Rechenpower im System.
Gemacht habe ich es aber nie. Gelohnt hätte es sich mit den Karten vermutlich aber auch nicht so recht. Außer damals bei der Voodoo 2, aber da hatte ich eine Voodoo 1 und bin direkt weiter gesprungen in den Generationen.
Für mich wären die dicksten Karten im SLI eh nie in Frage gekommen. Weil schon die dicken Dinger ja ihre Enthusiastenprobleme hatten. Sprich Abwärme, Preis usw. Luxusprobleme. Da ich da nie im Geld geschwommen habe als Schüler, Ausbildender und danach Student, kam das eh nie so recht in Frage. Als Norddeutscher war ich dann doch zu sehr Schwabe :D. Nichtsdestotrotz schon schade, vielleicht wäre ein Test mit 2 günstigen Karten doch mal was gewesen. Das Problem der Unterstützung war aber immer der Sargnagel für meine Entscheidung.
Dito.
Ging mir genau so.
Aber hey. Warum nicht heute die Jugend nacherleben, indem man sich so ein System zusammenbaut? :D
 
PietVanOwl schrieb:
An den ursprünglichen Artikel erinnere ich mich noch sehr gut, als man 3 Grafikkarten brauchte um damit in Crysis halbwegs annehmbare Frameraten zu erreichen. :D
Anhang anzeigen 1311640
Bei mit gab es aufgrund des knappen Budgets nur eine HD3870 für das Game. :p

Und heutzutage mosern manche User rum wenn sie keine 144FPS in UHD auf Ultra Settings erreichen... :D
MFG Piet
Diese Settings von CB waren damals einfach Crap. Die Differenz 1AA/4AA sind gerade mal 4fps.
Die Redakteure von CB wussten damals wie heute nicht, wie man SLI/CF anständig bencht.

Wenn schon eine Karte alleine nicht sauber läuft, laufen drei davon wahrscheinlich auch nicht sauber.

Ich habs damals schon bemängelt (und wurde wegen meiner ruden Art damals von mehreren Mods zeitweilig geblockt), und bemängle es heute immer noch. Die CB Redaktion konnte einfach kein SLI/CF. Das fing schon mit der Hardware an, die bei AMD kein 2x PCIe x16, sondern nur x8 lieferte, gerechtfertigt mit einem Test Benches x8/x16, aber ohne Frametimes zu berücksichtigen.

Kurzfassung für erfolgreiches SLI/CF:
Eine Karte rein, System und Spiel so einstellen, dass es gut spielbar und ruckelfrei läuft, Antialiasing auf AUS, VSync und Triple buffering auf ON. Dann zweite (und/oder dritte) Karte rein und im Treiber Antialiasing/Supersampling dazuschalten.

Damit gibt keine Mikroruckler. Nur wenn die Game Engine schlecht ist,ruckelts, aber das liegt an der Engine und nicht an dem Setup.

Hat Wolfgang bis heute nicht verstanden^^
 
gerade noch gefunden mit 2x gtx680 in nem kleinen lianli würfel :-)

und nochmal 3x gtx480 war das glaub im Corsair Gehäuse. Auf I7 980 Extreme Basis glaube ich :-)
 

Anhänge

  • 004.JPG
    004.JPG
    1,1 MB · Aufrufe: 177
  • 008.JPG
    008.JPG
    211 KB · Aufrufe: 180
  • 009.JPG
    009.JPG
    183,7 KB · Aufrufe: 178
  • 010.JPG
    010.JPG
    229,1 KB · Aufrufe: 180
Zuletzt bearbeitet:
Raucherdackel! schrieb:
Eine Karte rein, System und Spiel so einstellen, dass es gut spielbar und ruckelfrei läuft, Antialiasing auf AUS, VSync und Triple buffering auf ON
Hmm, ja aber wozu dann noch weitere Karten dazu stecken wenn es mit einer schon flüssig läuft...
Die Idee hinter SLI/Crossfire war doch mal ursprünglich: wenn eine Karte nicht reicht um flüssig zu spielen, kann man mit einer 2. Karte flüssige Framerates erreichen. Oder irre ich mich da?

Mittlerweile ist dieses Thema aber eh Wurst da die Spieleentwickler ja keinen Wert mehr auf Multi GPU legen, ist wohl doch zu sehr Nische.

MFG Piet
 
ich hatte auch ne zeit lang mit 2x R9 390er im crossfire gezockt ohne microruckler bemerkt zu haben
 
Rocky Malvia schrieb:
Nur das man drei GPU´s dafür bekommen hat.
Das war aber damals Highend und die Leute haben das auch gemacht, mit allen damit verbundenen Nachteilen wie extrem hohem Energieverbrauch und Mikrorucklern. Damals wie heute gibt es also Leute die kein Problem damit haben in einer GPU-Generation deutlich über 2000€ in Grafikkarten zu stecken. Im Gegensatz zu damals regen sich heute aber die Leute auf, wie man sich erdreisten kann NVIDIA mit dem Kauf einer 4090 zu unterstützen.
 
piccolo85 schrieb:
Das war aber damals Highend und die Leute haben das auch gemacht, mit allen damit verbundenen Nachteilen wie extrem hohem Energieverbrauch und Mikrorucklern. Damals wie heute gibt es also Leute die kein Problem damit haben in einer GPU-Generation deutlich über 2000€ in Grafikkarten zu stecken. Im Gegensatz zu damals regen sich heute aber die Leute auf, wie man sich erdreisten kann NVIDIA mit dem Kauf einer 4090 zu unterstützen.
Keine Sorge... Auch "damals" haben sich Leute aufgeregt. Und auch in der Zukunft wird dies mit hoher Wahrscheinlihckeit so sein.
Der Unterschied ist, dass heute bei einer neuen Generation für mehr Fps mehr Geld gezahlt werden muss. Und nicht wie "damals" mehr Fps für ca. die gleichen Anschaffungskosten zu bekommen waren.
 
Rocky Malvia schrieb:
Und nicht wie "damals" mehr Fps für ca. die gleichen Anschaffungskosten zu bekommen waren.
Damals war es aber auch undenkbar mit einer über 6 Jahre alten mittelklasse Grafikkarte aktuelle Spiele noch spielen zu können. Heute läuft Callisto Protocol problemlos auf einer 1070, sogar mit ganz passablen Einstellungen.
Man stelle sich nur mal den Versuch vor, Bioshock, Halo 3 oder Assassin's Creed (alles 2007 Spiele) auf einer GeForce3 Ti 200 zu spielen (Release in 2001). Schon für DOOM 3 (2004) war eine GeForce3 Ti die "minimum requirements" das Ergebnis kann man hier bestaunen:


Spoiler alarm: Regelmäßige Drops <20FPS bei niedrigsten Einstellungen. Eine 3-Jahre alte GPU war damals schon fast ein Fall für den Elektroschrott...
Vielleicht sind viele auch einfach zu jung um sich dran zu erinnern wie es "früher" einmal war?

Man wird sich eben dran gewöhnen müssen, dass die Zeiten vorbei sind in denen man bei jeder neuen Generation für das gleiche Geld 40% mehr Leistung bekommt. Die Voraussetzungen haben sich geändert, eine viel größere Auswahl an Grafikkarten trifft auf eine riesige Bandbreite von Monitor Auflösungen - man muss die Grafikkarte kaufen die zu einem passt und kann diese dann auch lange verwenden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JMP $FCE2
Zurück
Oben