@Gradenkov also mein Netzteil kann 4 GPUs mit 2x8-Pin versorgen
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Im Test vor 15 Jahren: ATi CrossFire brauchte zwei verschiedene Grafikkarten
- Ersteller Robert
- Erstellt am
- Zur News: Im Test vor 15 Jahren: ATi CrossFire brauchte zwei verschiedene Grafikkarten
Fernando Vidal
Lt. Commander
- Registriert
- Okt. 2006
- Beiträge
- 1.788
Ja genau.
Ich bräuchte schon ein 600W+ NT damit ich SLI fahren kann. Toll.
Ne 2. GTX wäre ja kein Problem nen anderes Netzteil schon.
Schade. Naja, die 8800GTX funktioniert jedenfalls bestens auch wenn sie kaum was reisst.
Ich bräuchte schon ein 600W+ NT damit ich SLI fahren kann. Toll.
Ne 2. GTX wäre ja kein Problem nen anderes Netzteil schon.
Schade. Naja, die 8800GTX funktioniert jedenfalls bestens auch wenn sie kaum was reisst.
Kommt halt drauf an was du machst. Ich würde mich über multi GPU Support in Spielen freuen. Die heutigen Brücken sind auch ganz anders als der Kram früher. Das muss eigentlich gut sein mit entsprechender Optimierung. Thema VR kam ja auch schon auf. Wer weiß ob es da ein Comeback gibt. Vielleicht auch erst Wenn es auch bei GPUs Chiplets gibt die gut skalieren.
NMA
Lt. Commander
- Registriert
- März 2008
- Beiträge
- 1.634
@Gradenkov
Ist die GPU, mit der AiO standardmäßig so ausgeliefert worden?
@PCIe
Grundlegend genügt jeweils zwei mal 6Pin, entsprechend überbrückt (Pin 6/7), um 2X 8 Pin zu gewährleisten.
(Roman Hartung hat dazu einen Bericht / Video veröffentlicht).
Ist die GPU, mit der AiO standardmäßig so ausgeliefert worden?
@PCIe
Grundlegend genügt jeweils zwei mal 6Pin, entsprechend überbrückt (Pin 6/7), um 2X 8 Pin zu gewährleisten.
(Roman Hartung hat dazu einen Bericht / Video veröffentlicht).
Fernando Vidal
Lt. Commander
- Registriert
- Okt. 2006
- Beiträge
- 1.788
NMA
Lt. Commander
- Registriert
- März 2008
- Beiträge
- 1.634
@Gradenkov
Höchst interessant!
Das Produkt ging bisher an mir vorbei.
Ist bekannt, ob auch AiO's von Asetek damit kompatibel sind?
Ich muss mal schauen, ob auch eine RX5700 rev damit kompatibel ist.
Edit:
Die NZXT Kraken G10 ist mit der 5700er Serie (rev) und Asetek kompatibel.
Höchst interessant!
Das Produkt ging bisher an mir vorbei.
Ist bekannt, ob auch AiO's von Asetek damit kompatibel sind?
Ich muss mal schauen, ob auch eine RX5700 rev damit kompatibel ist.
Edit:
Die NZXT Kraken G10 ist mit der 5700er Serie (rev) und Asetek kompatibel.
Zuletzt bearbeitet:
(Ergänzung)
leckerbier1
Commander
- Registriert
- Dez. 2008
- Beiträge
- 2.481
In der Theorie fand ich es immer interessant, praktisch hätte ich es aber nie umgesetzt.
psychotoxic
Lieutenant
- Registriert
- Dez. 2009
- Beiträge
- 876
DiamondDog schrieb:du wirst es nicht glauben - ich hab echt nach einer 2. GTX 970 geschaut
Also, wenn man die Unterstützung bei den games hat, war die Performance wohl ganz gut, wenn man den youtu.be Reviews dazu glauben kann. Als die grakas so teuer geworden sind, wegen des minings, hab ich auch mit dem Gedanken gespielt, die 970 waren gebraucht ziemlich günstig. Problem ist halt die mangelnde Unterstützung.
Psy
T
Teralios
Gast
Was aber auch nicht verwundert.andi_sco schrieb:Kometenhafter Aufstieg mit Voodoo 2 und Voodoo 5 SLI und tiefer Fall mit Crossfire und nv SLI
Man vergleicht hier sehr starre GPUs, die primär nur die Bildsynthese durch führten, mit GPUs, die fast alles selbstständig berechneten, was das Bild anging.
Geometrie, Beleuchtung, Schatten und Co wurden bei Voodoo2 und Voodoo5 von der CPU berechnet und alle wichtige Daten lagen vor. Die Voodoos haben anschließend nur noch die Polygone genommen, Texturen darauf geklatscht, die Lichtwerte verrechnet und das ganze dann an den Monitor gesendet.
Seit DX7 und verstärkt DX8 wurden Geometrie, Beleuchtung, Schatten und Co auf der GPU berechnet und genau das war damals auch das "primäre" Problem, warum man sich in den meisten Fällen für AFR (Alternate Frame Rendering) entschieden hat, statt SFR (Splitted Frame Rendering). 3dFX nutzte SFR - Zeilenweise - und konnte so entsprechend Leistung herauskitzeln.
Nur muss für SFR beiden Karten die gleichen Daten an Geometrie, Beleuchtung und Co vorliegen und dann hätten die Daten entsprechend schnell synchronisiert werden müssen. Bei 3dFX war das kein Problem damals: Die Daten von der CPU gingen zur gleichen Zeit an die gleiche Karte.
Hier hat einfach die immer flexiblere GPU-Pipeline einen Strich durch die Rechnung gemacht. Und AFR wurde während der DX9 Zeit immer mehr ein Strich durch die Rechnung gemacht, in dem in den Rendertechniken auch auf Daten vorheriger Frames zurückgegriffen wurde.
Nein, wäre es in dem Fall nicht, weil die Hardware - bestimmte Aspekte - nicht mit der Entwicklung der Software hat Schritt halten können.Pry_T800 schrieb:Vielleicht wäre Multi GPU jetzt noch am Start, wenn die Hersteller einem die Wahl gelassen hätten, in welchem Modi man diese Karten miteinander betreibt?!
SLI von 3dFX war spätestens mit DX7 Geschichte - siehe T&L. Klar hatte 3dFX dafür eine Lösung bei Rampage parat, aber dort hätte es SLI eben nur auf der einen Karte geben. Ein Geometrie-Prozessor, der 1 - 4 Shader-Prozessoren versorgt. Klar, geht noch als SLI durch, aber eben nicht mehr beliebig skalierbar.
Der Untergang von SLI/CF war aber auch bereits kurz nach dessen eigentlichen Start schon wieder besiegelt, als die Rohleistung der Karte stieg und die Entwickler entdeckten, dass sie wichtige Informationen aus vorherigen Frames und deren Einzelschritten für den aktuellen Frame extrapolieren können.
Schon war die Bandbreite als auch die Latenz zwischen den Karten ein entscheidender Faktor. Klar für das einzelne fertige Bild reichte die Bandbreite oft aus, aber spätestens, wenn noch Einzelschritte mit mussten wegen bestimmten Effekten, war die Bandbreite schnell auch ein limitierender Faktor.
War halt noch die gute alte prä-DX7-Zeit. Da berechnete die GPU das Bild und hat es an beide Grafikkarten gesendet.SV3N schrieb:Bis auf 3dfx konnte mich niemand von Multi-GPU überzeugen. Mit CrossFire durfte ich in all den Jahren gar keine Erfahrungen sammeln.
Aber sowas von Falsch![wege]mini schrieb:Voodoo hatte halt einen anderen Ansatz. Da wurden 2 3D Beschleuniger, gleichen Typs und gleicher Geschwindigkeit (die waren auch zickig, selbst bei unterschiedlichen Herstellern) , mit einem 2D Beschleuniger verbunden, der die Konfiguration übernommen hat und daher auch keine Microrukler möglich waren.
Der Ansatz von 3dFX nannte sich Scan Line Interleave und funktionierte so gut, weil damals die eigentlichen Grundberechnungen für das Bild noch von der CPU genommen wurden. Die fertigen Bilddaten wurden dann anschließend vom Treiber an beide Voodoo²-Karten im System geschickt und Karte A berechnete die ungeraden Zeilen, Karte B die geraden Zeilen. Karte A hat dann ihre fertigen Zeilen Karte B geschickt und von Karte B gings dann an den Monitor.
Das hatte überhaupt nichts mit den damals üblichen 2d-Beschleunigern zu tun gehabt. Das ist im übrigen auch der Grund, warum man sowohl bei Voodoo², Voodoo³ und den Voodoo 4 und Voodoo 5 Karten gut von stärkeren CPUs profitiert hat. Bei 3dFX war eine schnelle CPU quasi Pflicht um die massive Rohleistung seiner Karten auch nur im Ansatz nutzen zu können.
...
- Registriert
- Jan. 2018
- Beiträge
- 19.239
@Teralios und @SV3N
Da würde mich mal interessieren, wie gut das 4x SLI der Radeon 9700 funktioniert hat.
Hier hat einfach die immer flexiblere GPU-Pipeline einen Strich durch die Rechnung gemacht. Und AFR wurde während der DX9 Zeit immer mehr ein Strich durch die Rechnung gemacht, in dem in den Rendertechniken auch auf Daten vorheriger Frames zurückgegriffen wurde.
Da würde mich mal interessieren, wie gut das 4x SLI der Radeon 9700 funktioniert hat.
T
Teralios
Gast
Kommt immer darauf an, wie die Engine arbeitete und welche Effekte implementiert wurden.andi_sco schrieb:Da würde mich mal interessieren, wie gut das 4x SLI der Radeon 9700 funktioniert hat.
Es war ja im Endeffekt ein schleichender Prozess, der langsam zum Sterben von SLI und CF geführt hat. Gerade Spiele der DX8-Ära (Mindestanforderung DX7 als Fallback) sowie der DX9-Ära bis ca. 2010 rum, funktionierten in der Regel sehr gut. Gleichzeitig gab es damals schon Spiele, die durchaus zeigten, dass SLI/CF an seine Grenzen stößt. Es hat einen Grund, warum gerade Cysis recht lange mit SLI/CF Probleme hatte und nicht wirklich anständig lief und soweit ich weiß, sind die Probleme auch nie wirklich gelöst worden.
Crysis war - neben UT3 - eines der ersten Spiele, bei dem viele Effekte umgesetzt wurden, die zum Teil den Framebuffer benötigten, aber auch auf Einzelschritte der vorherigen Frames angewiesen waren, damit diese Grafikpracht auf den Monitor gezaubert werden konnte.
Das Betraf damals aber wenige Spiele, da gerade in DX9 diese Effekte zwar möglich waren, aber sehr umständlich programmiert werden mussten. Als dann DX10 und DX11 viele Effekte durch Vereinfachung generell zugänglich machten und so vermehrt implementiert wurden durch Entwickler, fing dann der schleichende Abstieg von CF/SLI an und ist auch eng Verbunden mit den Mikrorucklern. Je nach Masse der "modernen" Effekte und wie sauber/unsauber die Programmiert wurden, um so stärker neigte ein Spiel bei SLI/CF zu Mikrorucklern.
Man kann hier - stark vereinfacht also sagen: Je einfacher man aufwendige Effekte durch DX in die Engines implementieren konnte, umso stärker traten die Schwachstellen von CF/SLI hervor.
Ähnliche Themen
- Antworten
- 82
- Aufrufe
- 11.405
- Antworten
- 107
- Aufrufe
- 8.449
- Antworten
- 72
- Aufrufe
- 12.651
- Antworten
- 70
- Aufrufe
- 19.178
- Antworten
- 41
- Aufrufe
- 9.561
C