Rollensatz schrieb:
Ich glaube ja, dass die Hersteller sämtliche Dual GPU Grafikkarten und auch Crossfire/SLI haben einschlafen lassen, weil sie sich so (bei weiterer Entwicklung, Optimierung und eventuellem Wegfall der Microruckler) ins eigene Fleisch geschnitten hätten - Produkte im eignen Portfolio hätten sich gegenseitig kannibalisiert.
Sie haben die Entwicklung nicht einschlafen lassen, sondern man hat festgestellt, dass man mit keiner der Rendermethoden auf lange Sicht Erfolg gehabt hätte, da man vor massiven technischen Problemen steht und so den Fortschritt in der Softwareentwicklung ausgebremst hätte.
Egal ob jetzt Split-Frame-Rendering oder Alternate-Frame-Rendering, der Austausch der Daten untereinander über PCIe als auch die Bridges ist ein Problem. Selbst wenn man die Bandbreite lösen könnte, scheitert es spätestens an der Latenz.
Und selbst wenn man diese Probleme mit der Zeit hätte lösen können, hätte die Physik bei den Latenzen eine harte Grenze dargestellt. Dazu der Verwaltungsaufwand zwischen den GPUs, die die Skalierung begrenzt hätte.
Und auch die Produkte haben sich damals nicht wirklich kannibalisiert, und sie würden es heute auch nur bedingt tun, da man sich entsprechende Fähigkeiten der Grafikkarte etwas hätte kosten lassen. Man sieht ja, dass die SLI-HB bereits ab 50,- aufwärts kostet. Entsprechen noch aufwendigere Bridges hätte sich nVidia als auch AMD sicher gut bezahlen lassen und schon wäre es relativ schnell uninteressant gewesen sich zwei "Mittelklasse"-GPUs zu holen um eine Highend-GPU zu ersetzten.
Rollensatz schrieb:
Denn schon damals war eine gute Implementierung eines SLI Profils der Tod der teuren High End Karte. 2 günstige GT´s haben das Top Modell der GTX alt aussehen lassen.
Ach, haben sie das? Das aber auch nur in wenigen Spielen und anschließend stand ein höhrere Strombedarf auf der anderen Seite, höhere Lautstärke und auch preislich war der Unterschied dann zur Highend-Karte alles andere ein großer Vorteil.
Ich kenne genug Leute, die damals sagten, dass sie sich lieber 2 Grafikkarten für 150 oder 250,- kaufen um ja nicht die 400€ oder 500€ Karte zu kaufen und am Ende war die Enttäuschung groß, weil sie selbst im besten Fall eben nicht "deutlich" schneller waren und der PC deutlich lauter war und im Sommer wegen den beengten Verhältnissen die Systeme zur Instabilität neigten.
Rollensatz schrieb:
heute alles kein Problem mehr
Natürlich ist auch all das heute noch ein Problem. Setzt mal zwei Grafikkarten mit je 2 Slots direkt nebeneinander ins System, was damals wie Heute immer noch der Fall ist. Eine der Grafikkarten wie immer deutlich heißer. Zudem muss die zusätzliche Abwärme auch abtransportiert werden. Entsprechend braucht man ein gutes Konzept für die Belüftung und gerade heute ist Lautstärke als auch Temperaturen für viel genau die Themen. Hier bekommen manche ja schon Schnappatmung, wenn ihre CPU unter Last 50°C erreicht und die GPU auf über 60° kommt.
Rollensatz schrieb:
die heutigen Preise der Highend chips sind in Bereichen von gut und böse. Karten über 1000€ - das waren früher höchstens totale Exoten - Heute: jede popel 2080TI
Ja, und was gewinnst du mit zwei Mittelklasse-GPUs? Mit zwei 2060er Super kommst du dann bei der aktuell best möglichen Skalierung auf die Geschwindigkeit einer 2080Ti. Die günstige Ti bekommst du aktuell für knapp 1050,-. Die günstigsten 2060Super kosten 380. Zu den 760.- kann man dann, je nach HB-Bridge zwischen 60 und 100,- einplanen. Sind wir bei 860,-.
Preislich spart man im ersten Augenblick zwar 15%, aber der Energiebedarf im Worst-Case steigt um 100 Watt und liegt damit um 40% höher (350W gegen 250W). Was man nun an 15% gespart hat kann man also gleich in ein besseres Netzteil investieren. Um auch die nötige Bandbreite beiden Grafikkarten zur Verfügung zu stellen kann man auch nicht auf die Consumer-Plattformen setzten, denn die bieten maximal PCIe 3.0 8x an für jede Grafikkarte und dass das zu wenig sein kann, kannst du hier beim Test der Radeon RX5500 nachlesen. Entsprechend kommen dann die Mehrkosten noch für die Highend-Plattformen von Intel und AMD hinzu. Und schon sind die 15% Ersparnis futsch.
Rollensatz schrieb:
3Dfx hatte damals schon das Problem der Microruckler umgangen....
3dfx verwendete damals auch ein Verfahren, dass heute ein Teil der Mechaniken hinter SFR ist. Scan-Line-Interleave. Das funktionierte damals sehr gut, weil die Grafikkarte viele fertige Daten von der CPU bekommen hatte und diese nur noch darstellen musste. Das klappte bis DX6 sehr gut.
Seit DX7 wird aber Geometrie und Beleuchtung auch auf der GPU-Berechnen und entsprechend SLI nicht mehr, da beide Grafikkarten entweder vollständig die Beleuchtung berechnen müssen oder ihre Daten effektiv teilen müssen und wir sind bei den oben erwähnten Problemen.
Rollensatz schrieb:
Die Treiberproblematik haben diese Art Grafikkarten "kaputt" gemacht.
Falsch. Die Treiberproblematiken haben SLI und Crossfire nicht kaputt gemacht, es war der Fortschritt bei der Grafikberechnung und technische Probleme, die bis heute nur sehr schwer zu lösen sind.
Che-Tah schrieb:
CF/SLI ist tot... aber was wäre mit einem Chiplet Design? (Abgesehen von Stromaufnahme/Wärmeabfuhr)
Das wird früher oder später kommen. AMD legt ja ihren IF genau darauf aus.
3dfx hatte mit Rampage eine erste Karte, die für "moderne" Rendertechniken geeignet war - DX8 fähig. Der Aufbau bestand damals aus einem Prozessor, der die Geometrie als auch Beleuchtung berechnet und anschließend hätte dieser die einzelnen Bildabschnitte an seine Co-Prozessoren verteilt. Das ging zu DX8-Zeiten und in den Anfangszeiten von DX9 noch recht gut, da viele Effekte als Schritte der Bildsynthese umgesetzt waren und man am Ende das fertige Bild ausgeben hat.
Heutige Engines berechnen aber nur noch einen Teil ihrer Effekte während der eigentlichen Bildsynthese. Viele heutige Effekte werden erst nach der eigentlichen Bildsynthese berechnet, gleichzeitig ist man aber auch auf die Daten der einzelnen Schritte der Bildsynthese angewiesen und auch auf die Daten ihrer Nachbarpixel und Daten aus vorherigen Frames.
Entsprechend hoch ist der Kommunikationsbedarf innerhalb einer GPU, weswegen ja sowohl nVidia als auch AMD die Caches als auch die Bandbreite dieser in ihren GPUs massiv aufgebohrt haben und auch versuchen Umwege zu eliminieren.
Als Beispiel: Früher hingen die Shader in der Regel über die TMUs am Cache, heute gibt es jedoch neben dem Weg über die TMUs auch noch einen direkten Weg des Shaders an den Caches, da dass dann die Latenz sinkt.
AMD arbeitet bei IF an einem Interconnect, versucht da die Latzen zu verringern, genau so arbeitet Intel als auch nVidia an Interconnects, damit man von großen und teuren monolitischen Dies auch bei GPUs weg kommt. Nur muss man dafür eben hohe Bandbreite + geringe Latenz zwischen den Chips ermöglichen. Tiled-Based-Rendering bietet sich auch dafür an. Es gibt dann verschiedene Lösungsansätze um die Kommunikationsbedsarf in den Griff zu bekommen, aber ganz kann man ihn nicht elemenieren.