Quad-SLI hat zwar nicht toll skaliert, aber immerhin bessere Latenz aufgrund "AFR of SFR). Hat nur damals keinen interessiert, selbst heute fällt keinem auf dass 3 extra Frames Prerendering (4-Way AFR) vielleicht toll skaliert, aber Input Lag nicht so der Bringer ist.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Im Test vor 15 Jahren: ATi CrossFire X gegen Nvidia Quad-SLI im Schlagabtausch
SVΞN
Redakteur a.D.
- Registriert
- Juni 2007
- Beiträge
- 22.959
Ja, ich finde schon.FR3DI schrieb:Und heutzutage läuft mit einer Karte alles besser?
Wenn man heute die maximale Leistung möchte, greift man halt zu einer 4090 und fertig.
Multi-GPU in Spielen hat ja schon immer nur mit den High-End-GPUs wirklich Sinn gemacht und zwei 4090 für 4.000 Euro sind dann doch ein wenig drüber.FR3DI schrieb:Ich würde mir ein Multi-GPU System heutzutage noch antun und wenn es nur zwecks Nostalgie und Nische wäre,
Zumal die FPS nur in Ausnahmefällen wirklich 1:1 oder auch nur nahezu skaliert haben.
Stromverbrauch, Abwärme, Mikroruckler … heute würde mich nichts mehr zu Multi-GPU zurückbringen.
xdevilx
Lieutenant
- Registriert
- Juli 2007
- Beiträge
- 558
Schinken42
Commander
- Registriert
- März 2021
- Beiträge
- 2.300
Naja, und, wo hat es uns hingebracht?ridde schrieb:määähhh zu teuer... mähhh wer soll das bezahlen.. määhhhhh 500€ für die beste Grafikkarte auf dem markt... mähhhh wo kommen wir da hin? rumheul
FR3DI
Rear Admiral
- Registriert
- März 2021
- Beiträge
- 5.487
Haben doch zwei "TITAN X Pascal" gerade mal etwas über die hälfte gekostet. Versteh mich nicht falsch. Hier gab es "Native" leistung. Kein Kerosin, kein NOS, kein DLSS.SVΞN schrieb:und zwei 4090 für 4.000 Euro sind dann doch ein wenig drüber.
Stimmt soweit. Es gab nur wenige Spiele die tatsächlich darauf Optimiert waren. Für mich waren es aber auch jene Spiele die ich gespielt hatte.SVΞN schrieb:Zumal die FPS nur in Ausnahmefällen wirklich 1:1 oder auch nur nahezu skaliert haben.
Ersteres und zweites genanntes haben wir auch heute. Mikroruckler haben mich weniger gestört. Einzig Tearing was sich durch "Vsync schnell" und oder durch einen Monitor mit mehr Hz behoben lassen hat, störte mich hingegen wirklich. Aber gut, ein anders Problem das gewesen ist.SVΞN schrieb:Stromverbrauch, Abwärme, Mikroruckler … heute würde mich nichts mehr zu Multi-GPU zurückbringen.
Gruß Fred.
der Unzensierte
Vice Admiral
- Registriert
- Juni 2009
- Beiträge
- 6.989
Danke für den tollen Retro-Artikel zum Wochenende, schöne Lektüre. Hat mich wieder an meine zwei relativ sorgenfreien SLI-Systeme (7800GTX und GTX280) erinnert. Mikroruckler waren da eigentlich nur dann ein Thema wenn es a) kein passendes Treiberprofil gab oder b) alles auf Anschlag lief. Da hat sich zu heute meiner Meinung nach nichts wesentliches daran geändert. Skaliert hat das damals in besten Fall bis 85, 90%, das waren aber eher die Ausnahmen. Auch wenn Multi-GPU heute ein totes Pferd ist möchte ich keine Wetten darauf abschließen das es so bleibt.
@wickedgonewild : sehr schöner build, gelungen!
@wickedgonewild : sehr schöner build, gelungen!
- Registriert
- Juli 2021
- Beiträge
- 2.716
Die Mikroruckler kamen bei diesen Systemen durch das Verfahren zustande, weil Bilder unterschiedliche Lasten erzeugen und daher unterschiedlich schnell ausgeben werden. Man kann es synchronisieren, dann verschlechtert sich jedoch die Latenz. Dazu kommt, dass die Ausgabe auch entsprechenc verwaltet werden müssen.drago-museweni schrieb:Ich finde es immer noch schade das es kein Multi GPU mehr gibt, es müsste doch technisch möglich sein sowas zu machen ohne die Mikroruckler etz.
Andere Verfahren - Splitted Frame Rendering - bieten sich hier an, benötigen aber auch entsprechende Synchronistation der GPUs und ebenso auch entsprechende Bandbreite und niedrige Latenzen.
Egal ob jetzt AFR oder SFR, ab einem gewissen Punkt stellen die Latenzen für die FPS hier eine unüberwindbare Barriere da und die Signalewege sind hier entscheidend.
Richtig, das ist hier der Hauptpunkt. Bis "DX6" - als die GPUs nur Polygone mit Texturen versehten, vorberechnete Lichtwerte drauf setzten und dann das Bild ausgeben haben, war es relativ einfach ein Bild in x-beliebige Happen zu zerlegen, weil quasi keine "Synchronistation" notwendig war, außer die fertigen Zeilen zu übergeben.Fighter1993 schrieb:Leider nein. War nicht das unlösbare Problem das der Weg zwischen den beiden Chips immer ein Delay hervorruft?
Seit DX7 wird die Geometrie und die Beleuchtung auch in Hardware berechnet und entsprechend ist das, was 3dfx mit SLI gemacht hat, nicht mehr so einfach möglich gewesen. Mit DX8 und später verstärkt mit DX9 und den Shadern kamen dann noch weitere Möglichkeiten hinzu, so dass man erst in den Framebuffer schreibt, von dort ausließt und Co. Daher ging man als "einfache" Lösung zu AFR über, dass jede Grafikkarte ein Bild berechnet. Hier muss "primär" die Bildausgabe synchronisiert werden und die Frames in der richtigen Reihenfolge übermittelt werden.
SFR wiederum benötigt es, dass ganze Bildaten über die Chips synchron gehalten werden, es ist also ein aufwendiges hin und her an Daten notwendig und entsprechend mit den Latenzen verbunden. Diese Latenzen bilden dann auch die unüberwindbare Mauer für die FPS da "mehr" geht dann nicht.
Dazu kommt dass mit "jeder" zusätzlichen GPU auch der Verwaltungsaufwand steigt und auch immer mehr Frames im Voraus berechnet werden müssen, was dann auch die Latenz des Spieles ansteigen lässt. Man hat zwar dann am Ende "mehr" FPS, aber teilweise keine bessere Latenz, weil eben x-Frames im Voraus an die GPU weiter geben werden - AFR - oder man benötigt entsprechende Bandbreite bei SFR und eben die Latenz.
SLI und CF habe ich beide nicht eingesetzt, schon gar nicht als Vierfach-Gespann. Das hatte technisch was von Pferdekutschen: Vier Pferde sind nicht viermal so schnell wie eines, man braucht aber viermal so viel Futter. Technisch eher ein Experiment als die Zukunft.
Ich glaube heutzutage gibt es auch gar keinen Bedarf mehr für so etwas, weil die Hardware nicht mehr den Spielen hinterherläuft. Es gibt ja kaum eine Grafikkarte mehr auf dem Markt, jünger als fünf oder sechs Jahre, die nicht jedes Spiel darstellen könnte. Das war früher schon im High End Bereich gelegentlich knapp oder gar technisch unmöglich.
Ich glaube heutzutage gibt es auch gar keinen Bedarf mehr für so etwas, weil die Hardware nicht mehr den Spielen hinterherläuft. Es gibt ja kaum eine Grafikkarte mehr auf dem Markt, jünger als fünf oder sechs Jahre, die nicht jedes Spiel darstellen könnte. Das war früher schon im High End Bereich gelegentlich knapp oder gar technisch unmöglich.
tuasani
Lt. Junior Grade
- Registriert
- Feb. 2009
- Beiträge
- 265
Nie quad Sli oder crossfire x gehabt.
Aber damals eine 7950gx2 auf Ebay geschossen, kurz benutzt, und teurer verkauft, damit dann eine 3870 geholt.
Aus fun für einen 3dmark Bench zwei 4850 drinne gehabt. Hier fande ich das es sich gelohnt hat. Eine hatte einen Accelero S1 drauf und war deswegen nicht so laut. Und ich glaube soviel haben die auch nicht gezogen.
Allein schon nur wegen der Optik hatte ich gerne 3870x2, habe mir auch deswegen ne gtx260 gekauft. 😂
Aber damals eine 7950gx2 auf Ebay geschossen, kurz benutzt, und teurer verkauft, damit dann eine 3870 geholt.
Aus fun für einen 3dmark Bench zwei 4850 drinne gehabt. Hier fande ich das es sich gelohnt hat. Eine hatte einen Accelero S1 drauf und war deswegen nicht so laut. Und ich glaube soviel haben die auch nicht gezogen.
Allein schon nur wegen der Optik hatte ich gerne 3870x2, habe mir auch deswegen ne gtx260 gekauft. 😂
Was hat das geheule geholfen? Hilft das heulen heute?Schinken42 schrieb:Naja, und, wo hat es uns hingebracht?
Ergänzung ()
Was hat das geheule geholfen? Hilft das heulen heute?Jethro schrieb:Wo kommen wir da hin?
Genau da wo wir Heute sind.
rg88
Fleet Admiral
- Registriert
- Feb. 2015
- Beiträge
- 35.061
Was soll das Beispiel genau Aussagen?CDLABSRadonP... schrieb:Die Frames müssen dem Auge synchron präsentiert werden, die Graka, die mit ihrem Bild schneller fertig wird, muss also auf das Niveau derjenigen gebremst werden, die mit ihrem Bild langsamer fertig wird.
(klassisches Beispiel: Explosion am linken Blickfeldrand)
Deathangel008
Grauer Jedi
- Registriert
- Jan. 2014
- Beiträge
- 83.689
wenn man den verlust im NT rausrechnet landet man bei ~500W-530W für die hardware. kann man mittlerweile durch ne einzelne graka jagen der leerlaufverbrauch, auch mit nur einer karte, ist dagegen nach heutigen maßstäben echt brutal.In Sachen[...]Leistungsaufnahme[...]stellten die Systeme mit vier GPUs neue Negativrekorde auf. In der Praxis bedeutete das[...]bis zu 600 Watt Leistungsaufnahme im Spielbetrieb.
hatte selber nie multi-GPU im system und das wird sich, von multi-GPU im sinne von CF/SLI ausgehend, wohl auch nicht ändern.
Zuletzt bearbeitet:
GOOFY71
Lt. Commander
- Registriert
- Juni 2011
- Beiträge
- 1.574
Damals habe ich drauf verzichtet, weil meine Kinder noch klein waren (Familie geht vor Hobby) und außerdem mag ich keine Mikroruckler, auch nicht am Anschlag.
Heute würde ich es nicht machen weil es unsinnig ist. Aber gibt es ja eh nur noch selten.
Heute würde ich es nicht machen weil es unsinnig ist. Aber gibt es ja eh nur noch selten.
SVΞN
Redakteur a.D.
- Registriert
- Juni 2007
- Beiträge
- 22.959
Das hast du bei einer 4090 doch auch heute und das ganz ohne DLSS & Co.FR3DI schrieb:Hier gab es "Native" leistung. Kein Kerosin, kein NOS, kein DLSS.
Die 4090 ist doch mit weitem Abstand das Schnellste was man sich gönnen kann.
Es ist doch niemand gezwungen DLSS zu nutzen. Es gibt allerdings schon heute Szenarien, da sieht DLSS besser aus als nativ.
Eine 4090 bei 300-350 Watt ist effizienter als alles was vorher jemals da war und das mit großem Abstand.FR3DI schrieb:Ersteres und zweites genanntes haben wir auch heute.
Die heutigen Kühler haben auch null Probleme damit, das sehr leise abzuführen.
FR3DI
Rear Admiral
- Registriert
- März 2021
- Beiträge
- 5.487
Der Fortschritt macht es möglich?SVΞN schrieb:Die 4090 ist doch mit weitem Abstand das Schnellste was man sich gönnen kann.
Wie soll das Funktionieren? Verlustbehaftet bleibt eben genau das, egal ob per KI hochgerechnet. Du darfst mich aber ruhig eines anderen überzeugen.SVΞN schrieb:Es gibt allerdings schon heute Szenarien, da sieht DLSS besser aus als nativ.
Mit händischem eingriff wird das stimmen, aber "OC" bleibt eben OC auch bei UV! Und wie reagiert so mancher Hersteller darauf? Mit Garantieverlust.SVΞN schrieb:Eine 4090 bei 300-350 Watt ist effizienter als alles was vorher jemals da war und das mit großem Abstand.
Gruß Fred.
Wobei ich die Einheit "fps/Watt" ohne Framelimiter sinnfrei finde. 200fps bei 350Watt sind extrem ineffizient, wenn man nur 60 oder 100fps für ein flüssiges Spiel braucht. Meine Kombi zieht grob ~200 Watt mit RT und Framelimit 60fps. Meistens sogar weit darunter, wenn die Spiele älter sind.SVΞN schrieb:Eine 4090 bei 300-350 Watt ist effizienter als alles was vorher jemals da war und das mit großem Abstand.
Aber ja: Effizienter als die alten Karten ist es allemal.
Hydrogenium
Lt. Junior Grade
- Registriert
- Dez. 2017
- Beiträge
- 281
@Normenn12596702
Bin hierbei nicht mehr im Thema wie G-Sync genau funktioniert. Spiele seit Jahren nicht mehr aus zeit gründen. Aber kann sein, das es genau das macht um die Bilder mehrerer GPU in einen regelmäßigen Abstand zu bringen. Aber wie Ein_Freund schon anmerkt wird es wohl zu viel Zeit verschlingen.
Bin hierbei nicht mehr im Thema wie G-Sync genau funktioniert. Spiele seit Jahren nicht mehr aus zeit gründen. Aber kann sein, das es genau das macht um die Bilder mehrerer GPU in einen regelmäßigen Abstand zu bringen. Aber wie Ein_Freund schon anmerkt wird es wohl zu viel Zeit verschlingen.
Ähnliche Themen
- Antworten
- 107
- Aufrufe
- 8.372
- Antworten
- 72
- Aufrufe
- 12.629
- Antworten
- 70
- Aufrufe
- 19.148
- Antworten
- 90
- Aufrufe
- 19.151
T
- Antworten
- 145
- Aufrufe
- 41.797