Mracpad schrieb:
Langsam wird es albern. Nein, die Karte IST kein CF.
Und wenn die GPU unterschiedliche Aufgaben bearbeiten wird auch der Speicher unabhängig benutzt.
Okay. Da hat jemand wohl einen Korinthenkacker gefrühstückt.
Neue Formulierung:
Sie verhalten sich in allen Situationen wie zwei Karten, die bei Bedarf zu einer CF-Einheit zusammengeführt werden können.
Von EINER 32-GB-Karte zu sprechen ist aber in jedem Fall falsch. Wenn die Karten getrennt arbeiten, dann sind es eben auch zwei Karten mit je 16GB (und nur halber Bandbreite zu CPU und RAM). Die eine führt Aufgabe A aus und hat dafür 16GB Speicher und die Andere führt B aus und hat dafür auch 16GB Speicher.
Egal ob man sie als CF-Einheit oder einzeln benutzen will, hat man 2x16GB, was etwas Anderes ist als 1x32GB.
Und dass das etwas Anderes (in den meisten Fällen schlechteres) ist als eine GPU mit doppelter Leistung und doppeltem Speicher ist nunmal so.
Das liegt ganz einfach daran, dass es im Idealfall zwar möglich ist, komplett unterschiedliche Daten in beiden Speichern zu haben, das aber abseits von einigen Compute-Anwendungen selten der Fall ist.
In Spielen ist es annähernd unmöglich (zumindest mit SFR und AFR und eine anständige Alternative muss ich erstmal sehen).
Und selbst bei den von dir zitierten Verwendungen werden Daten redundant vorliegen und somit den effektiv nutzbaren Speicher reduzieren.
In dem Beispiel ist z.B. zumindest der kreierte Content (sei jetzt mal fiktiv 1GB) in beiden Speichern und belegt insgesamt damit 2x1GB, wo auf einer 1x32GB-Karte nur 1GB belegt wäre. Ganz einfach weil er zum editieren etc. im Speicher von GPU1 liegen muss, zum Rendern aber auch im Speicher von GPU2. Das ist zwangsläufig so, weil weder GPU1 performant auf dem Speicher von GPU2 rumarbeiten kann, noch kann GPU2 performant irgendwelche Szenen rendern, die im Speicher von GPU1 liegen. Es ist halt einfach kein shared memory, sondern es sind zwei NUMA-Nodes.
Genauso ist es z.B. auch mit RayTracing. Man kann nicht einfach die Szene auf beide Speicher aufteilen. Die Rays können potentiell von überall überall hin reflektiert werden, weshalb jede GPU die volle Szene braucht, wenn sie nicht extreme Performance-Penalties kassieren will, wenn mal ein Ray in den Teil der anderen GPU springt.