T
Teralios
Gast
Nicht wirklich. VSA100 profitierte damals von DX6 und der Tatsache, dass die GPU - grob ausgesprochen - nur noch Polygone mit Texturen versieht, die Lichtwerte darauf anwendet und das ganze dann rastert.xxMuahdibxx schrieb:VSA 100 is Back ...
... irgendwie halt ... zwar nicht mit seiner Scan Line Interleave Technik aber Skalierbare Prozessoren..
Der SLI-Ansatz von 3Dfx ist aber seit DX7 nicht mehr wirklich anwendbar gewesen. Entsprechend hat 3Dfx mit Rampage die GPU in zwei Teile aufgesplittet: Geometrie und Beleuchtung wird auf einem "Geometrie"-Prozessor berechnet, anschließend können die "GPU" das Bild in ihrem "SLI"-Verfahren weiter bearbeiten, zusammen mit den Pixelshader.
Deswegen hat man sich bei NVIDIA und AMD bei SLI/CF für die AFR Methode entschieden, denn bei SFR - SLI von 3dFX gehört dazu - müssen bestimmte Daten doppelt vorliegen, und zwar "GLEICH" und nicht annähernd.
Da heute sowohl AMD als auch NVIDIA mit "Tiled-Based" arbeiten, wird sogar - grob ausgesprochen - SLI sogar bereits GPU intern angewendet, nur eben nicht mir Zeilen basiert, sondern auf Kacheln.xxMuahdibxx schrieb:... irgendwie halt ... zwar nicht mit seiner Scan Line Interleave Technik aber Skalierbare Prozessoren..
Diese Kacheln lassen sich sogar, theoretisch, sehr gut verteilen. Moder GPUs arbeiten ja auch so, dass sie die Kacheln auf freigewordene SM/WGP verteilen und diese dann die Kachel berechnen.
Das System bietet sich sogar für Multi-GPU-Ansätze an, nur bleibt dann weiterhin das Problem der Geometrie und Beleuchtung.
Das Problem ist es nicht die Rechenaufgaben zu verteilen, würde es nur darum gehen, wären Multi-GPU als auch "Chiplets" nicht so schwer.SoDaTierchen schrieb:Bleibt die Frage, wann der Crosslink wir genug ist. Der Ansatz ist ja nicht neu, SLI und Crossfire sind aber technologisch gescheitert. Hier wird aber ein anderer Weg gegangen. Statt Frames auf die Chiplets zu verteilen werden Rechenaufgaben verteilt - das machen GPUs schon Recht lange so.
Ein Hauptproblem ist viel eher, dass bestimmte Daten eines Bildes auf allen GPUs vollkommen gleich sein müssen, damit das Bild ordentlich berechnet wird. 3Dfx hatte dafür bei dem Nachfolger der Voodoo 5 eine Lösung: SAGE als Geometry-Prozessor. Dieser berechnet die Geometrie und Beleuchtungsdaten, die Bildsynthese und damit Pixelshader hätten dann wieder auf einzelne "GPUs" ausgelagert werden können.
Die "Mesh"-Daten eines Bildes müssen als Grundlage gleich sein und das muss entsprechend bei mehreren GPUs synchronisiert werden. Heute kommen dann halt noch die ganzen Post-Processing-Effekte hinzu, sodass recht viel Kommunikation zwischen den Chips notwendig ist.
Da wird heute aber "unified"-Shader haben, kann man nicht einfach - wie 3Dfx bei der Rampage - ein Prozessor für Geometrie als "Controller" verwenden und dann die Pixel-Shader-Monster auf den Rest loslassen.