Bericht C:\B_retro\Ausgabe_8\: Historische Multi-GPU-Grafikkarten

XCPTNL schrieb:
Ist mir tatsächlich nicht aufgefallen, dass die nur am Wochenende oben stehen. Ich hatte halt grad den Fall, dass ich die Seite einem Kumpel nahegelegt habe und als Antwort kam dann "kein Interesse daran in der Vergangenheit zu leben" woraufhin ich dann auf die Seite bin und verstanden habe was er gemeint hat als ich gesehen habe, dass beide Top-Themen Retro-Artikel sind.

Erkläre deinem Bekannten bitte auch, dass auch wir an neuem Interessiert sind ... Fortschritt.

Man sollte zuerst wissen, woher man kommt, bevor man entscheidet, wohin man gehen will!

Ohne Wissen über Vergangenes ist eine Debatte über Zukünftiges nicht machbar. Wie will man sonst einen Vergleich anstellen, oder beurteilen, was man sieht?
Ergänzung ()

eLw00d schrieb:
Mikroruckler... das waren hitzige Diskussionen damals. ^^
Niemand wollte verstehen, dass Multi-GPU fps sich oftmals viel langsamer anfühlen als Single-GPU fps auf Grund der unterschiedlichen Frametimes.
Ist so wie mit dem Klimawandel heute. Wird auch geleugnet und ignoriert.

Nutze bitte TripleSLI mit drei GTX285 unter BF3 mit drei Monitoren (je einen Monitor je GPU anschließen) und schalte dann VSync ein) da sehe ich keine Microruckler mehr und kann die übrige Leistung in Grafikpracht stecken.

3 Quadros mit 9 monitoren im sogenannten SLI-Mosaic-Mode sind mal so ziemlich identisch im Aufbau und müssen je nach Spiel in der Grafikpracht zurückstecken, aber Microruckler sieht man da absolut nicht.

SLI ist nicht gleich SLI!

Wer das leugnet, hat nur das Consumer-SLI "probiert" und keine Ahnung, wieviel Potential doch darin steckt.
Ergänzung ()

MarcoMichel schrieb:
Voodoo ist ja nur eine Multi-GPU-Lösung von vielen weiteren, bei denen das Thema Microruckler so wie bei SLI immer ein Thema war.
Voodoo 1 war die erste MultiGPU-Lösung für Consumer und nicht eine von vielen weiteren! ATI mit der Maxx hat AFR eingeführt und damit das Ruckeln begründet!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 0xtapi und Visualist
Love Guru schrieb:
Nutze bitte TripleSLI mit drei GTX285 unter BF3 mit drei Monitoren (je einen Monitor je GPU anschließen) und schalte dann VSync ein) da sehe ich keine Microruckler mehr und kann die übrige Leistung in Grafikpracht stecken.

Arbeitet dann nicht jede GPU nur an ihrem eigenen Bild?
In dem Fall ist klar das es dann kein Mikrogeruckel gibt weil kein Verbund an einer Bildfolge sondern die Karten nur an ihrem Bildteil rechnen.
 
  • Gefällt mir
Reaktionen: eLw00d
Exakt … SLI ohne Microruckler … at its best!
 
  • Gefällt mir
Reaktionen: Apocalypse
Man merkt immer wieder beim Thema MGPU das viele einfach nur nachplappern und sich so etwas nie selbst in den PC gebaut haben .
Wenn der SLI Support da war oder man die Bits über Inspektor setzen konnte man mit einem Framelimiter gearbeitet hat konnte man super in WQHD 60FPS realisieren mit MGPU ohne lags mit smoothem Gameplay .

So konnte man auch die Nachteile wie zum Beispiel zu viel Temperatur oder Verbrauch wett machen .
59FPS Limiter .
MGPU fühlte sich für mich besser an als Single GPU mit um die 40 bevorzugt z.b in WQHD.
Auch wenn ich eine Ti drin habe bei mir aktuell wen der Suport da wäre würde ich sofort eine 2te nach stecken um meine konstanten 59 -60Fps zu erhalten in 4K um möglichst so gut wie immer Maxout spielen zu können.

Leider Kamm ich noch nie dazu mit MGPU Gsync auszuprobieren oder Freesync.

Das höchste was ich mal getestet habe waren 4*HD7970 in WQHD .
Mangels Profil lief leider nur BF3 erste Sahne mit Supersamplling Maxout einfach Traumhaft butterweich auf einem Monitor mit weit über 120 FPS was damals einfach heftig war.
 
  • Gefällt mir
Reaktionen: KraitES
MarcoMichel schrieb:
Multi-GPU-Systeme waren schon damals eine Totgeburt

Es gab auch schon Menschen, die Mehrkern Cpu Systemen keine Zukunft vorher gesagt haben, da sich viele Dinge einfach unglaublich schwer parallelisieren lassen.

Als dann das P4 Desaster mit der Ghz-Wall kam, musste man umdenken. Ein 20 Ghz Prozessor wäre zwar schön, ist technisch aber leider bei lebensfähiger Umgebung nicht zu realisieren.

Multi-GPU-Systeme sind die Zukunft und hier müssen vor allem die Softwareheinis mal aus den Puschen kommen. :stock:

mfg
 
  • Gefällt mir
Reaktionen: PS828
Hach, meine gute alte 3870x2. Die Karte die bei mir mit Abstand am längsten durchgehalten hat bis Sie von zwei HD6870 im CF abgelöst wurden welche wiederum zwei HD7970 im CF weichen mussten.
Hach war das schön damals ;)
Hatte auch nie Probleme mit keinem der CF Lösungen, im Vergleich zum späteren System aus zwei GTX980 im SLI was immer mal gemukt hat und ich mich danach mit der GTX 1070 wegen der SLI Erfahrung nach vielen Jahren mal wieder für ne Single Lösung Entschieden habe.
Damals wurden die Spiele in den Treibern aber wahrscheinlich auch besser Supported und bei den zwei 980ern ging das schon wieder wohl bissl zurück, leider.
Aber eine spätere AMD 6700XTx2 (Man darf ja wohl träumen) würde ich wohl schon allein wegen der guten alten Zeit mir mal näher anschauen. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Visualist
Love Guru schrieb:
Exakt … SLI ohne Microruckler … at its best!
Das kann ich leider nicht sagen da ich nicht weiss ob das noch unter SLI läuft.
Da fehlt mir jegliche Erfahrung und mehrere nvidia GPUs im Rechner sind noch lange kein SLI Verbund. Vergleichbare Finktionen hatte ich auch schon bei 1-2 Spielen gefunden und dafür war die Grafikkarte ziemlich egal weil es an sich kein Verbund sondern "nur" Multimonitoring war.
 
Love Guru schrieb:
Erkläre deinem Bekannten bitte auch, dass auch wir an neuem Interessiert sind ... Fortschritt.

Man sollte zuerst wissen, woher man kommt, bevor man entscheidet, wohin man gehen will!

Ohne Wissen über Vergangenes ist eine Debatte über Zukünftiges nicht machbar. Wie will man sonst einen Vergleich anstellen, oder beurteilen, was man sieht?
:daumen:
 
Echt Klasse wie die Community wieder einmal auf das Thema einsteigt und hier kräftig Bildmaterial liefert.

Ich sammle schon kräftig und werde heute Abend eine schöne Galerie aller Fotos inklusive Widmung in den Artikel einbauen.

Vielen Dank für den Support.
 
  • Gefällt mir
Reaktionen: Cr@zed^, Vendetta192, eLw00d und 4 andere
Ohmann kann mich gut erinnern, dass es die 3870x2 mal damals im Ausverkauf für günstige 370 Euro gab und ich als armer Schüler konnte mir die Karte nicht leisten..
Ich feier die Multi-Gpu Karten immer noch. Schade, dass der Support größtenteils eingestellt wurde. Hatte später mit der Gtx 480 im SLI viel Spaß und auch kein Problem mit den Rucklern.
 
Ich habe in der Umfrage mal mit Nein geantwortet, obwohl mein C128 technisch gesehen zwei Grafikchips hat, die man auch gleichzeitig verwenden kann (auf zwei Bildschirmen). 😉

Ich bin schon ganz froh, dass Multi-GPU außer Mode gekommen ist. War ja doch meist mit erheblichen Problemen verbunden.
 
Mich würde mal noch interessieren mit was für einer auflösung ihr mit den grafikkarten gespielt habt ,
(Meine 3870x2 durft zuerst 1280x1024 machen und dann 1920x1080)
Und was ihr für ein prozessor dazu hattet
Bei mir war es ein e6300
 
Schade, dass diese Leadtek hier keine Erwähnung findet im Artikel - die war nicht auf eine spezielle Platine angewiesen laut Hersteller:

DSCN0909.JPG
 
  • Gefällt mir
Reaktionen: Häschen, MaexxDesign, SVΞN und eine weitere Person
ich denke es geht bei dem weg lassen von SLI und Crossfire schlicht darum die User zu zwingen "neu" oder besser zu kaufen.

Egal ob für Amd oder Nvidia, es bringt schlicht mehr Geld als wenn jemand zu seiner bestehenden Karte eine im Abverkauf oder gar Gebraucht dazu kauft.

Das selbe bei Multi GPU Karten, wieso 2 "günstige" Chips auf ein PCB wenn man die User doch zu einer 1000€ Single Chip Karte überreden kann.
 
[wege]mini schrieb:
Es gab auch schon Menschen, die Mehrkern Cpu Systemen keine Zukunft vorher gesagt haben, da sich viele Dinge einfach unglaublich schwer parallelisieren lassen.

Da kannst du natürlich recht haben. Ich glaube das große Problem bei Mehrkern-GPU-Systemen, was ein CPU-Mehrkernsystem nicht realisieren muss, ist die Parallelisierung zu einem bestimmten Zeitpunkt.

Datenverarbeitung zu parallelisieren scheint nicht so großartig schwierig zu sein. Aber unterschiedliche Daten zu verarbeiten und dann zu einem bestimmten Zeitpunkt damit fertig zu werden, scheint schwieriger zu sein.

Entweder müssten zwei parallel arbeitende GPU-Kerne grundsätzlich auf einem niedrigeren Niveau arbeiten, um Spitzenrechenlasten ausgleichen zu können. Wie sieht man aber voraus, wann mehr Rechenpower notwendig ist? Offenbar ist das schwierig.

Oder zwei Kerne berechnen zusammen ein Bild und zwar so, dass sie sich die Arbeit gerecht teilen. Funktioniert das? Offenbar nicht, sonst würde man das schon langst so machen.
 
Da fehlt noch die Asus Mars mit 2 vollwertigen GTX 285 Chips und 4 GB (effektiv 2 GB). Mir war damals nur das Beste gut genug. Da habe ich mir gleich zwei dieser Monster gekauft für Quad SLI. Nur eine Karte mit 2 Chips erschien mir nicht sinnvoll, dazu hätte ich auch zwei GTX 285 nehmen können. Die Karte hat somit meiner Meinung nach nur Sinn gemacht, wenn meine eine zweite dazu packt.

die Karte war wohl auf 1000 Stück limitiert, ein Zertifikat mit einer Nummer gabs dazu. Volle Dröhnung sag ich nur dazu. Das kann man so wörtlich nehmen. Schon eine Karte war im Betrieb in normalen Spielen dermaßen laut, dass man sie durch eine geschlossene Zimmertür gehört hat, bei Türen, die eigentlich den Schall gut abschirmen. Interessanterweise waren zwei Karten nicht wesentlich lauter als eine. das war selbst mir zu viel, obwohl ich in dem Punkt damals nicht besonders empfindlich war. Die Karten gingen dann zurück an den Händler. Nicht alles was technisch möglich ist, ist auch sinnvoll.
 
Soso, vor 10 Jahren gabs noch zwei etwas abgespeckte Flagschiff-Chips für 460€... und heute wollen einem die nVidia-Jünger erzählen, dass es völlig normal und schon immer so gewesen sei, dass einer dieser Chips heute fast das doppelte wie damals die zwei auf einem PCB kostet. :daumen:
Die Zeit zwischen RV670 und Hawaii bzw. deren jeweiligen nVidia-Gegnern mit dem ständigen hin und her war schon was feines.

Ich finde es so nebenbei immer wieder erstaunlich, dass Microruckler jahrelang überhaupt keine Rolle gespielt haben und erst so ~2007 und besonders mit dem Start der großen Zeit der Multi-GPU-Karten mit der HD3870 X2 ins Blickfeld der Masse gekommen sind, obwohl AFR ja schon seit der Geforce 6 eingesetzt wurde. Und auch da galt ja noch, das alles über 30fps auch mit SLI/CF bedenkenlos spieletauglich sei. Ich meine mich daran erinnern zu können, wie ich damals im Luxx gelesen habe, wie beliebt die HD2900 Pro im CF war, da sie fast HD2900XT-Leistung zum absoluten Schnäppchenpreis bot und zwei davon unschlagbar günstig waren. Damals waren Microruckler noch kein Problem. Gar nicht so lange später waren sie dann auf einmal (zusammen mit der fehlenden Unterstützung) der Grund dafür, dassMulti-GPU-Systeme wieder fast komplett verschwunden sind...
 
Man, ich werde alt.
Meine erste Dual GPU Karte war eine 7950 GX2 von EVGA. Die hat sich mit meiner 7800 GTX 512 gemacht, die 7800 GTX 512 war damals ein Single GPU Monster was sich gut takten ließ.

Dann hatte ich eine 9800 GX2, die war richtig laut und wurde extrem heiß.

Die letzte Dual GPU die ich im Einsatz hatte war eine 295 GTX mit dem Single PCB. Die war OK aber da war SLI auch schon eher am verschwinden, viele Games hatten keine guten Profile und ich musste oft herumtüfteln.

Von AMD war meine einzige Dual GPU Karte R9 295 X2, welche ich vom Arbeitgeber bekam. Die hatte ich aber nicht lange, nach 2 Tagen hatte ich genug. Laut, heiß, schlechte Treiber, das Teil ging schnell weg.
Seitdem nur mehr Single GPU und ich bin happy damit. Schade dass sich die Technik nie am Markt etablieren konnte, ich hoffe beide Hersteller machen in die Richtung mal wieder was.
 
Zurück
Oben