News Sonntagsfrage: Habt ihr mal eine Grafikkarte mit einer Dual-GPU besessen?

Nie besessen. Würde es nicht so ein Gefrickel sein und keine Probleme geben wäre man ja dafür, aber so gibts nur Profilgefrickel, Mikroruckler und bescheidenen Mehrwert
 
Hatte eine 9800GX2. Laut und warm (insbesondere wenn denn Mal beide GPUs genutzt wurden). Die Karte war insofern interessant, weil jede GPU ihre eigene Platine hatte.
 
Ui, das ist genau mein Thema (gewesen).
Hier mal ein paar Bilder aus vergangenen Zeiten.

Bild 1: HD3870x2 - seltene Sonderausführung mit GDDR4 Speicher im Tri-Crossfire mit einer normalen HD3870
Bild 2: puh. HD6990, HD5970 Black Edition, 4870x2 (von oben nach unten)?
Bild 3: XFX HD5970 Black Edition Limited #719
Bild 4: HD3870x2 aus Bild 1 zusammen mit einer Sapphire HD4850x2
Bild 5: XFX HD5970 Black Edition Limited #719 im "Fotostudio"
Bild 6: 3Dlabs Wildcat irgendwas - lustiges Teil, zwei PCBs mit einem AGP und einem PCI Slot :D - hatte die sogar 4 GPUs?
Bild 7: Unicorn 7900GX2
Bild 8: 9800GX2 Sandwich mit Wakü
Bild 9: Sapphire HD6870x2 eingebaut
Bild 10: Powercolor HD6990 (im Sandwich mit drei andern Dual GPUs für Mining-Tests)
Bild 11: 7950GX2 vor der HD5970 BEL

Aktuell habe ich noch eine GTX590, die nicht auf den Fotos ist. Zwischendurch habe ich mal eine seltene EVGA GTX295 Red Edition gehabt, die allerdings zurückging, weil der Link Chip einen weg hatte. Bestimmt auch noch welche vergessen. Die meisten davon sind mittlerweile im Besitz des Heinz Nixdorf Museumsforums :)
 

Anhänge

  • P1010006.JPG
    P1010006.JPG
    1,1 MB · Aufrufe: 232
  • DSC_0154.JPG
    DSC_0154.JPG
    1,2 MB · Aufrufe: 222
  • DSC_0178.JPG
    DSC_0178.JPG
    880,6 KB · Aufrufe: 222
  • 3870x2+4850x2 mit Kühler.jpg
    3870x2+4850x2 mit Kühler.jpg
    511,2 KB · Aufrufe: 225
  • DSC_9469.jpg
    DSC_9469.jpg
    279,3 KB · Aufrufe: 226
  • P1010001.JPG
    P1010001.JPG
    1.019,9 KB · Aufrufe: 227
  • P1010080.JPG
    P1010080.JPG
    1 MB · Aufrufe: 229
  • DSC_8801.JPG
    DSC_8801.JPG
    1,3 MB · Aufrufe: 221
  • DSC_8821.JPG
    DSC_8821.JPG
    1,3 MB · Aufrufe: 224
  • DSC_9136.JPG
    DSC_9136.JPG
    1,3 MB · Aufrufe: 225
  • DSC_9531.JPG
    DSC_9531.JPG
    848,3 KB · Aufrufe: 223
  • Gefällt mir
Reaktionen: SSD960 und kryzs
Bei mir war es 2 GT 8800 im SLI verbund. Meine Meinung zu diesen Thema war und ist" Es ist Geldverschwendung" Ich habe nur ca. 20% Leistungssteigerung erlebt. dafür war der Stromverbrauch ihmens und die Kosten beider Karten zu hoch. Sowas wie Mikroruckler habe ich aber bei mir nicht feststellen können. Aber vielleicht war ich nur ein wenig Sehbehindert.
Ergänzung ()

ach ja früher hatte ich auch eine Redon ATI Grafikarte (die war Sche....) aber im Verbund mit einer Voodo Karte als Durchschleifung war sie Klasse (Diamont 4 MB Voodo (I) glaube ich. Ist schon zu lange her.
Und experimente hatte ich auch mit Physik x Karten gemacht. Leider wurden nach Kurzer Zeit das Unternehmen aufgekauft und die Treiber nicht weiter endwickelt und schon wieder Geld für die Mülltonne
Ergänzung ()

gedi@​

weil du noch viel zu klein bist. spiel nur weiter mit dem Nukki*

*Scherz
 
Zuletzt bearbeitet von einem Moderator:
Alles viel zu "neu" was man hier so sieht 😆 aber schön zu sehen das so einige Karten weiterhin "genutzt" bzw. aufgehoben werden.

Bin mir ziemlich sicher das @SV3N das so nicht gemeint hat, aber es ist eine Karte mit 2 GPU´s 😁

DSC03200.JPG
Appian Jeronimo J2/N, 2x Cirrus Logic CL-GD5462 mit RDRAM

Zum Thema SLI/CF, nach wie vor finde ich den Ansatz einer Multi-GPU Lösung sehr spannend und auch wenn man es hier so liest war ein Dual oder Quad GPU System durch aus eine praktikable Lösung, zugegeben man hat den Eindruck das hier mit der Brechstange gearbeitet wird, aber entgegen vieler Meinungen hat es sehr gut funktioniert, sicher Probleme gab es, das will ich gar nicht unter den Tisch reden, aber ich selber hab nur wenige davon wirklich erfahren und das in jeder Kombination, Dual Karten, 3-fach Verbund oder 4-fach, oder Dual und zwei Single Karten, selbst "misch" -Kombinationen aus ATi/AMD und Nvidia haben Jahre lang gute Dienste geleistet und mal ehrlich viele Jahre sind keinem die “MicroRuckler” aufgefallen oder wurden als unwichtig eingestuft. Aber heute muss man sich tatsächlich Fragen, inwieweit sowas Sinn macht oder man es überhaupt noch sinnvoll nutzen bzw. Einsetzen kann. Die Idee dahinter fasziniert mich aber weiter hin, Leistung zu niedrig? Dann 2. / 3. oder 4. Karte rein und gut ist. Der Ansatz ist schon irgendwie cool.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DaBo87 und SVΞN
Hatte aufgrund der damit einhergehenden nervigen Probleme nie Relevanz für mich, genauso wie auch SLI und Crossfire nie ein Thema für mich persönlich waren. Ich frage mich ja warum die das nie auf die Reihe bekommen haben mit den Problemen und auch mit besserer Zusammenarbeit ggf. mit den Spiele-Entwicklern. Eigentlich ists ja schon eine nette Sache in der Theorie - das nötige Geld vorausgesetzt. Aber wenn man überlegt, dass man bei den Preisen dieser Generation früher easy ein Triple SLI Setup mit Oberklasse-Karten hätte bauen können :freak:
 
Ich hatte keine Dual-GPU, dennoch ein Multi-GPU-System: 3x ATI Radeon 5770, echt viel Leistung, bei viel zu wenig Grafikspeicher.
 
7950 GX2.
Einmaliger Ausrutscher. Damals war ich auch noch Enthusiast.
SLI hat mich aber nicht überzeugt. Zu abhängig und unkonstant in der Leistung bei der Spieleunterstützung.
 
Ich muss ja sagen, wenn ich Dishonored 2 auf meiner Radeon HD5770 spiele (meine neuere Grafikkarte ist mir ja gegen Anfang der Pandemie abgeraucht) und auf eBay Gebrauchtgrafikkartenpreise bestaune, kommt mir gelegentlich der Gedanke, eine zweite HD5770 für Crossfire zu holen. Ich schrecke dann aber vor dem Kauf zurück, wenn ich versuche, herauszufinden, ob Crossfire mit Dishonored 2 läuft. Bin zu alt, um enorme Preise für Grafikkarten zahlen zu wollen.
 
  • Gefällt mir
Reaktionen: andi_sco
Wattwanderer schrieb:
Letztendlich lautet die Frage wie viel Strom wollen wir in FPS umsetzen. Mit Grafikkarten die stramm in Richtung kW marschieren sehe ich keinen Markt für mehrere Grafikkarten in einem Gaming PC.
Und wieder mal die übliche Antwort: Interessiert kein Mensch, weil die 3€ pro Monat mehr oder weniger beim Nutzungsprofil eines durchschnittlichen Gaming PC hat jeder.

Es gibt nur einen einzigen Faktor der die Wärmeentwicklung in Desktop-PCs beschränkt und das ist wieviel Lautstärke man sich antun will bzw. wieviel Geld man in ein (sehr großes) Gehäuse mit einer entsprechenden Custom-Loop investieren will.

Der Auto-Vergleich hinkt mal wieder, weil das ganz andere Größenordnungen sind.
 
@HorstSan

Ich widerspreche, weil wir bei den aktuellen 850-W-High-End-karten nicht mehr über nur 3 Euro reden. Eine Herdplatte hat 1000 W. Das ist ja auch der Witz an der Entwicklung der letzten Jahre: Was bei der Geforce 5700 Ultra noch völlig übertrieben war, wird heute in Laptops gepackt.

P.S.
Und erinnert sich noch jemand an die Apple WWDC 2005? Apple wechselt zu Intel, weil IBM nur noch 180-W-CPUs bauen will. Und was verbrauchen Intel- und AMD-Workstation-CPUs heute nicht "TDP-Werbeanzeige" sondern bei ausreichender Kühlung real? 180 W genau wie IBM's POWER6, POWER7, POWER8 usw.
 
  • Gefällt mir
Reaktionen: Aquilid
Also selber benutzt habe ich:

  • SLI Verbund aus 2x Gainward Phantom GTX 570
  • SLI Verbund aus 2x GTX 285, eine Palit und eine Gainward
  • SLI Verbund aus 2x GTX 285, eine Asus und eine Zotac
  • 1x Asus GTX 690

Ansonsten hatte ich mal eine schöne Sammlung aus Dual GPU Karten, welche ich aber schon lange verkauft habe. Hier mal eine Auflistung, habe zwar noch Bilder, aber das würde den Rahmen sprengen:

Nvidia:

  • (2x) Geforce 7900 GTX Duo
  • (2x) Geforce 7950 GX2
  • (2x) Geforce 9800 GX2
  • Geforce GTX 295 Single und Dual PCB + (2x) EVGA Red Edition
  • Geforce GTX 590
  • Geforce GTX 690
  • Gigabyte GV-3D1 Dual Geforce 6600 GT plus passendem Mainboar
  • ASUS Extreme Dual N7800GT 512MB
  • Asus Mars *
  • Asus Mars II *
  • Evga Geforce GTX 460 2Win
  • Evga Geforce GTX 560 2Win
  • Evga Geforce GTX 275 CO-OP PhysX Edition

Dann hatte ich noch eine 3DLabs Wildcat II 5110 in der Sammlung.

ATI hatte ich auch, war aber eher Nvidia Fan. Eine Rage Fury Maxx, den Rest seht ihr auf den Bildern.
 

Anhänge

  • DSC_0818.JPG
    DSC_0818.JPG
    1,4 MB · Aufrufe: 214
  • DSC_0819.JPG
    DSC_0819.JPG
    1,5 MB · Aufrufe: 212
  • Gefällt mir
Reaktionen: kryzs
HorstSan schrieb:
Und wieder mal die übliche Antwort: Interessiert kein Mensch, weil die 3€ pro Monat mehr oder weniger beim Nutzungsprofil eines durchschnittlichen Gaming PC hat jeder.
Rein interessehalber, zahlst du deine Stromrechnung selbst?
 
  • Gefällt mir
Reaktionen: Aquilid
Wattwanderer schrieb:
Rein interessehalber, zahlst du deine Stromrechnung selbst?
Ja klar, wer soll die denn sonst zahlen? Aber wenn ich mir hier eine 3080 reinhänge und dann noch ne Custom Wakü draufpacke, dann überlege ich mir natürlich vorher, ob ich besagte 3€ mehr oder weniger habe.

Wenn ich die nicht habe, dann kann ich mir von vorne herein nicht so eine Karte kaufen. Und im Low- bis Mid-Range-Bereich wird die Leistung pro Watt kontinuierlich besser. Das wegen der besseren Fertigung immer größere Chips im High-End mit entsprechenden High-End-Verbräuchen da sind, darf einen dann halt nicht stören. Das ist aber ein rein psychologisches Problem.
 
HorstSan schrieb:
Ja klar, wer soll die denn sonst zahlen? Aber wenn ich mir hier eine 3080 reinhänge und dann noch ne Custom Wakü draufpacke, dann überlege ich mir natürlich vorher, ob ich besagte 3€ mehr oder weniger habe.
Ich frage weil das so weit weg ist von dem was fällig wird.

3 EUR pro Monat? So viel heizt bereits ein Netzwerkswitch durch. Ok, ein Gaming PC wird nur bei Release eines AAA Titels länger als 10 h pro Tag laufen und darf sich demzufolge mehr Strom genehmigen aber viel mehr als 50 W dürfte es nicht werden wenn er mit 3 EUR pro Monat auskommen soll.

Sollte eine Grafikkarte in Zukunft mal wirklich die 1 kW Marke knacken und würde man damit zwei 30+ Zoll Displays befeuern, dann wäre es 1,5 kW. Für eine 20 h Suchtsitzung 30 kWh, bei aktuellen Preisen etwa 11 EUR pro Tag.
 
Zuletzt bearbeitet:
Einziger Ausrutscher war eine 9800GX2 von Club3D,
hatte mit ihr trotzdem viele schöne Stunden in Far Cry 2 verbracht.
Dank der Karte war es in meiner Bude auch genauso heiß wie in der Savanne :D
 
  • Gefällt mir
Reaktionen: Aquilid
Ich hatte eine 4870 x2.
Musste sie aber abgeben, da sie einfach zu heiß geworden ist.
Damals in WoW war die Performance überragend.
Bin danach auf eine 5770 umgestiegen, die schlechteste Karte, die ich besessen hatte.
 
SLI-Systeme waren zu ihrer Zeit immer ein spezielles Thema. Leider gab es zu viele Probleme und Spiele zum Laufen zu bringen.
Aktuell habe ich tatsächlich noch eine AMD Radeon R9 390X2 in meiner Sammlung. Die tägliche Nutzung macht allerdings aufgrund der extremen TDP nicht wirklich Sinn.90A221FB-3FC5-4271-A3F5-B0B676A18BE2.jpeg
4CAE31C4-D61C-4155-B4CC-E28F3BF3D5ED.jpeg
 
Zurück
Oben