News Im Test vor 15 Jahren: Multi-GPU mit Nvidia und AMD dank Hydra

Ich habe das Thema damals sehr interessiert verfolgt. Schade dass nichts draus geworden ist. Ebenfalls ist es schade dass SLI und CF tot sind, wäre man dran geblieben hätte das sicher dazu geführt, dass Mikroruckler kein Problem mehr wären.
Naja auf der anderen Seite ist das Thema vielleicht auch einfach überholt.
 
DaBo87 schrieb:
Leider funktionierte das nur eine gewisse Zeit, bis Nvidia das im Treiber unterbunden hat. "Aus technischen Gründen" hieß es damals.
;)
Kann natürlich sein. Ich hatte zu dem Zeitpunkt allerdings extra dafür modifizierte Treiber, die nicht offiziell von Nvidia/AMD stammten.
 
  • Gefällt mir
Reaktionen: DaBo87
Miximus schrieb:
Nein, im Gegenteil. 2 kleine Karten waren immer teurer im Gesamtpaket als eine große.
Es gibt einen Grund warum SLI wieder verschwunden ist: weil es ineffizienter BS ist.

Nur die späteren Varianten.

Voodoo 2 SLI hatte deren Nachteile nicht, weil die Geometrie sowieso von der CPU berechnet wurde. Die beiden Voodoos konnten unabhängig voneinander Bilder mit halber Zeilenzahl berechnen, und erst hinterher zusammensetzen.

Bei der damaligen Preisgestaltung (Preise fielen im Laufe der Zeit auf die Hälfte oder weniger) konnte ich auch durchaus Geld sparen: zweite Voodoo 2 für 250 DM statt Voodoo 3 für 400 DM, Geschwindigkeit war ungefähr gleich.
 
Kurz: Eine unfassbar komplexe, fehleranfällige und kaum leistungsfähige Lösung für ein Problem, welches es nicht gab.
 
slogen schrieb:
Finde ich Schade dass das Thema SLI/CF nicht weiterentwickelt wurden.

Man Stelle sich 2 × 5090 vor mit fast der doppelten Leistung gegenüber einer 5090.
Doppel Burner... kannste eventuell wörtlich nehmen=)
Zur Zeit finde ich das Risiko schon mit einer 5090 zu hoch, das da was passiert..... und dann 2 von der Sorte? Du bist ja mutig=)
Ergänzung ()

MaverickM schrieb:
Jo, wir werden alle nicht jünger...
Treffer - versenkt=)
Ergänzung ()

Skysurfa schrieb:
Bürger... Holt Mistgabel und Fackel. Sollen die elenden Ketzer auf dem Scheiterhaufen brennen. Wer Rot und Grün im Rechner hat, muss mit dem Teufel im Bunde sein. :D
Ich dachte dem fehlt zum vollen Gück noch gelb, dann ist die Ampel wieder da - im heimischen Rechner=)))
Ergänzung ()

Windell schrieb:
Boah hefftig, MCU lässt grüssen?=))

P.s,. gabs da nicht auch mal einen anderen Abschnitt der Mischtech, bei der man eine eine AMD Hauptkarte, mit einer NV Nebenkarte mischen konnte, die dann Physixs berechnete? oder täusche ich mich?

So wie man heute bald eine alte NV Karte als 2 Kate braucht, witziger weise aus genau dem selben Grund, weil Physix ohne die passenden Instruktionen auf der CPU schnarchlangsam ist.
Ach ja, wers noch nicht mitbekommen hat, weil NV so ein armer Laden ist, müssen die jetzt noch an der Physix Abwärtskompatibilität sparen, die gibts GPU mässig nämlich garnicht mehr ab RTX 5xxx.....
Ergänzung ()

Quafe schrieb:
auch nicht zu vergessen das DX 12 ein Multi gpu support hat , ein weiter Grund warum es nix mehr herstellereigenes gibt.
Wird aber wohl nicht verwendet, oder? Hab jedenfalls nix von gelesen....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Windell
Hehe 😅 👍. Ich hatte auch mal sowas. Und es ist gar nicht so lange her. Wir schreiben Anno dazumal 2019/2020. Ein verrückter Portugiese, paart zwei High-End GPUs in einem System.

Und siehe da, es lief sogar 😃 👍 ganz problemlos. Doch damals hatten die X370 und X470 Boards, den 2./3. PCI-Express Anschlüsse mit weniger Lanes angebunden. Der 1. Lief immer auf 16x Doch der zweite nur noch halb so schnell. Also ich. Und der 3. falls vorhanden Krücke mit 4x herum.

Mein geistesgestörtes Experiment lief nur für wirklich kurze Zeit. Den der Abstand von der RTX GAINWARD Phantom GeForce 2080 zur AMD Radeon 64 Nitro + von SAPPHIRE, betrug gerade einmal sehr knappe 1,5cm. Ich wollte es nur einfach testen. Den es gab natürlich ein großes Hitze Abluft Problem da. Die untere Karte bekam die abwärme von der Backplate der oberen GPU. Die obere Karte hatte natürlich bessere Karten.

Aber alles lief zusammen mit einen Ryzen 1700x und einem gutem Smart Pro PSU von ThermalTake mit 850W.
 
AFR basierendes MultiGPU war einfach Mist, kein Wunder dass es eingestellt wurde
 
ThreepQuest64 schrieb:
Hatte damals für Mafia 2 eine AMD GPU als Hauptkarte und eine Nvidia Karte als PhysX Beschleuniger.
Und dann hat Nvidia dies treiberseitig unterbunden, man möge doch bitte ausschließlich Nvidia-Grakas in seinem Rechner verbinden.
Kann mich mich noch gut an die die Hardware-Empfehlung für Mafia 3 erinnern: Eine GTX480 zur Graphikberechnung UND eine weitere GTX480 für PhysX. Sozusagen ein SuperThermi (-GAU).

PS.: Und jetzt hat Nvidia die PhysX-Unterstützung bei den RTX 50x0 gestrichen, welch eine Ironie.
 
Zuletzt bearbeitet:
[…] welches preislich mit 320 Euro im High-End-Bereich angesiedelt war.

Und jetzt muss ich weinen.
 
  • Gefällt mir
Reaktionen: Supie
Ich hatte mehrfach (wassergekühlte) SLI-Systeme, zuletzt zwei GTX 980. Ich war mit der Performance, etc. immer zufrieden…

Schade das es SLI nicht mehr gibt. Dank DLSS & Co. wird es das wohl auch nie wieder geben…
 
Zuletzt bearbeitet:
Oh man waren das Zeiten :D Damals die zweite 5870 auf LAN-Party eingebaut vor allen Kumpels. Habe aber Hydra nie benutzt. War mit Crossfire sehr zufrieden im Schnitt. Gab damals schon den einfachsten Trick mit CF gut leben zu können. Frame Limiter. Und schon lief fast alles butterweich. Probleme gab es natürlich auch da. Meistens dass das Spiel nur auf einer GPU laufen wollte. Finde es auch schade das es heute kein SLI oder CF mehr gibt. Es war hin oder her der einzige Weg z.B Crysis halbwegs gut zu zocken. Ist einfach so. Das einzige was heute dagegen spricht, sind die kranken Preise.
 
Boimler schrieb:
AMD und Nvidia im Mischbetrieb... Das klingt ja schon nach Frevel ;)
Ist selbst heute nicht so unüblich... große amd Karte und eine kleine nv für physx zum Beispiel. Geht problemlos - auch heute ;)

Na wer weiß vielleicht bringt nv dedizierte Tensor Karten für RT Beschleunigung :D
 
Mystique_ schrieb:
Kann mir ein gemischtes Grafiksetup (AMD und nVidia) irgendwie nicht vorstellen. Für die Meisten ist doch die Wahl des Pixelboosters eh eine Glaubensfrage. Ich kann mir nicht vorstellen das jemand der auf nVidia abfährt sich auf einmal eine Radeon kauft.
Der größte Vorteil war, dass du eigentlich kombinieren könntest was du wolltest. In der Theorie zumindest.
Also angenommen du hast eine GPU, aber sie wird dir zu langsam, so kannst du einfach irgendeine dazustöpseln und die alte hilft eben auch noch mit.
Aber Theorie vs Praxis halt....
 
  • Gefällt mir
Reaktionen: Mystique_
Wenn die Preise in ein paar Jahren den Sweetspot von "zu langsam für die Praxis, aber noch nicht alt genug als retro Sammlerstück" erreicht haben, schaue ich mich mal auf dem Gebrauchtmarkt um, ob ich nicht zwei 980Ti oder 1080Ti günstig bekomme um mir ein Retro Win7 SLI-System für ältere Spiele zu bauen.
Ich fand das Thema SLI damals richtig spannend, mit Blick auf die realen Leistungszugewinne aber preislich zu unvernünftig.
 
Zurück
Oben