Verständnisfrage zum Speicher von Dual GPU-Grafikkarten (z.B. R9 295x2)

Calvin1962

Ensign
Registriert
Feb. 2014
Beiträge
132
Wenn man normale Grafikkarten im Crossfire/SLI-Modus betreibt, addiert sich der Speicher nicht, sondern es bleibt beim normalen Speicher einer Karte, das habe ich mittlerweile gelernt.

Sinnvoll für den Verbraucher wäre es also, Karten OHNE Arbeitsspeicher genau für dieses Zweck anzubieten, die etwas billiger sind. Das ein Hersteller das nicht für jedes Modell machen kann, ist auch klar, also gibt es sowas nicht. Soweit so gut.

Jetzt gibt es aber auch diese schönen Dual GPU-Grafikkarten, aktuell ja das 295x2-Monster.

Mir ist nicht klar, warum diese Karten jetzt auch zweimal den Speicher auf der Karte haben, wenn er doch wie bei Crossfire nur einmal genutzt werden kann. Verbaut man da nicht ein Element auf der Karte, das überhaupt keine praktische Bedeutung hat, also nicht zu einer Leistungssteigerung beiträgt? Ist das vielleicht eine technische Notwendigkeit, damit eine Dual-GPU-Karte überhaupt funktionieren kann?

Danke für eure Antworten im voraus.
 
Weil die exakt gleich wie CF mit 2 Karten funktionieren. Keine Speicheraddition, beide Chips nutzen ihren eigenen Speicher. Und Karten ohne Speicher würden überhaupt nicht funktionieren weder in CF noch alleine.
 
Die GPU braucht den doppelten Speicher weil jeder Chip alle Daten im Speicher haben muss da die Bild sozusagen abwechselnd berechnet werden. Darum wird der Speicher auch nicht addiert.
 
die dual chip karte ist quasi eine ganz normale CF kombination, nur eben auf einer platine anstatt auf 2 seperaten grafikkarten

trotzdem braucht immer noch jeder chip seinen eigenen speicher, da je nach berechnung des bildes jeder chip einen anderen teil vom dargestellten inhalt berechnet

jeder chip hat auch nur zugriff auf seinen eigenen speicher, er kann weder etwas in den speicher der anderen schreiben, noch daraus lesen
 
>>>Weil die exakt gleich wie CF mit 2 Karten funktionieren. Keine Speicheraddition, beide Chips nutzen ihren eigenen Speicher.

Gut, das ist aktuell eben so konstruiert. Aber ich kann mir nicht vorstellen, daß es auf einer Dual-GPU-Grafikkarte technisch nicht machbar ist, daß die zweite GPU die erste unterstützt, ohne ihren zweiten (eigentlich redundanten) Speicher zu haben.

Ist da
a) die Technik tatsächlich noch nicht so weit
oder
b) der zweite Arbeitsspeicher so billig, daß der Aufwand nicht lohnt?

---------------------------

Ergänzung: Ok, danke, geht dann wohl technisch tatsächlich nicht.
 
Calvin1962 schrieb:
Sinnvoll für den Verbraucher wäre es also, Karten OHNE Arbeitsspeicher genau für dieses Zweck anzubieten, die etwas billiger sind. Das ein Hersteller das nicht für jedes Modell machen kann, ist auch klar, also gibt es sowas nicht. Soweit so gut.

Warum sollte das sinnvoll sein ?
Die Karte ohne Speicher würde weder alleine, noch im CF funktionieren.
Wäre also eine absolute Verschwendung.

Calvin1962 schrieb:
Mir ist nicht klar, warum diese Karten jetzt auch zweimal den Speicher auf der Karte haben, wenn er doch wie bei Crossfire nur einmal genutzt werden kann. Verbaut man da nicht ein Element auf der Karte, das überhaupt keine praktische Bedeutung hat, also nicht zu einer Leistungssteigerung beiträgt? Ist das vielleicht eine technische Notwendigkeit, damit eine Dual-GPU-Karte überhaupt funktionieren kann?

Jede GPU (Der Datenverarbeitende Chip auf der "Karte"=PCB) hat seinen eigenen Satz Arbeitsspeicher, bestehend aus X Speichersteinen.
Beide GPU funktionieren an sich unabhängig und werden nur auf einem PCB gebündelt.
Das heisst nicht, das eine davon magischerweise ohne Speicher auskommt.

Wo soll die GPU denn ihre Daten ablegen, wenn nicht im Speicher ?
 
Das Problem wäre das die zweite Karte dann den Speicherinhalt der ersten verändern könnte was zu sehr unschönen Fehlern führen würde.
 
Die Technik ist, wie sie ist. Du kannst einem Verbrennungsmotor auch nicht vor werfen. dass er Benzin braucht, um zu funktionieren.

Eine GPU kann ohne RAM nicht arbeiten. Und ob man 1, 2, 3 oder vier GPUs auf eine Platine lötet. Jede braucht ihren VRAM.
 
Weil die GPUs noch nicht in der Lage sind sich den Speicher zu teilen. Jede GPU kann nur auf ihren eigenen Speicher zugreifen, da es keinen gemeinsamen Speicherkontroller gibt. Allerdings wurde schon vor einiger Zeit versprochen diese Technologie auf Grafikkarten einzuführen. Dafür muss aber entweder der Speicherkontroller als eigenständiger Chip ausgelagert werden oder eine GPU den Speicherkontroller der anderen GPU mitbenutzen. Dass dabei aber die Speicherbandbreite (von der man nicht genug bekommt) von beiden GPUs geteilt wird, scheint neben den hohen Materialkosten die Umsetzung dieser Idee zu verhindern.
 
@
MuhOo

Naja die Idee des TE ist soweit ja nicht unlogisch
wenn beide karten das selbe machen können sie auch einen Gemeinsamen Speicher
verwenden (so hab ich das verstanden)

AMD geht diesen weg bei dem Design von Z.B PS4 und Xbone schon zu einem
Teil.
Hier kann CPU und GPU auf den Exakt gleichen Speicher zu greifen.

Natürlich muss das gut koordiniert werden um sich nicht gegenseitig im Weg zu stehen.

Aber bei CF/SLi ist der zeit wichtig das jede Graka genau das gleiche in ihrem eigenem
Speicher hat weil jede Karte mehr oder weniger das selbe berechnen muss.

Ich könte mir aber durchaus vorstellen das DualKarten mit einem "Shared" Memory
auch funktionieren könnten.

Bei CPUs wird das eit den C2Ds so gemacht auch wenn es nur der L2 Cache ist.
 
@And.!: Danke! Also ist mein Gedanke, daß das sinnvoller mit einem Speicher wäre, durchaus richtig, nur ist die Technik tatsächlich nicht soweit und hat wichtigere Entwicklungsfelder.

Genauso frage ich mich, warum man noch keine Grafikkarten gemacht hat, bei denen man den Arbeitsspeicher wie auf dem Mainboard selbst erweitern kann. Vermutlich, weil die Hersteller immer neue Karten verkaufen wollen? Oder weil man bisher effektiv nicht mehr als 3-4 GB braucht und das die guten Karten alle haben?
 
Unter SFR, was unter Mantle möglich ist, kann jede Karte sehr wohl ihren dedizierten Ram separat ausschöpfen.
 
Das Problem wird wie immer die Anbindung sein, muss der Speicherinhalt von der einen GPU auf die andere dann geht das nur durch den PCIe Bus. Was wiederum viel zu langsam ist. Alternative wäre hier ein dedizierter Speicherbus (geht aber nur bei Dual GPU Karten)
... oder einfach RAM für jede GPU. Die Dinger sind so billig, dass die Entwicklung kaum der Lohnenswert ist, man bedenke dass Dual GPU Karten eher eine Randerscheinung sind
 
Calvin1962 schrieb:
Genauso frage ich mich, warum man noch keine Grafikkarten gemacht hat, bei denen man den Arbeitsspeicher wie auf dem Mainboard selbst erweitern kann. Vermutlich, weil die Hersteller immer neue Karten verkaufen wollen? Oder weil man bisher effektiv nicht mehr als 3-4 GB braucht und das die guten Karten alle haben?

zum größten teil ja

der speicher auf der grafikkarte ist nicht der limitierende faktor. die rechenleistung ist fast immer das problem, da hilft es dir auch nicht 8gb ram auf eine 4770 oder radeon 4550 zu kleben, da kommt am ende bei nichts raus

ausserdem gäbe das noch weit aus mehr technische probleme die dort umgangen werden müssten

1) mehr platz auf dem PCB (platine) der grafikkarte
2) kühlung müsste anders gebaut werden um platz für ram slots zu machen
3) weitere PCI-e plätze müssten ggf geopfert werden
4) ect ect pp


edit: warum beschiss? die karte hat 8gb, und die werden auch benutzt. also wo ist da dann der beschiss?
nur weil 1 chip 4gb davon nutzt und der andere auch 4gb nutz? nutzt die grafikkarte theoretisch nur 4 von 8 gb aus?

die logik musst du mir noch einmal genauer erklären
 
Wieso soll das Beschiss sein ?

Technisch gesehen haben die doch absolut recht.

Es wird eine Karte ausgeliefert, auf der sich 8GB Speicher befinden.
Das jede GPU davon nur 4 hat, ist nebensache, weil es eben nicht so viel her macht.
 
Nutzbar ist er ja, in Grafikanwendungen ist es nunmal so dass bei AFR beide Karten ihren eigenen RAM brauchen, geht es aber z.B. um numerische Simulationen, so können beide Karten getrennt mit jeweils 4 GB rechnen --> insg. 8GM genutzt

Die 8 GB werden schon genutzt, bringen aber RAM technisch nicht mehr als 4 (CF System)

@über mir:
DU zahlst viel dafür weil es eine "besondere" Karte ist. Im Einkauf sieht das sicher wieder ganz anders aus. Siehe iPhone mit 16/32/64 GB Speicher...
 
Calvin1962 schrieb:
Aktuell zahl man für 4 GB zusätzlich

Oh man. Die 8 GB Karten durften gar nicht gebaut und verkauft werden. Jetzt hat sie AMD doch zum Verkauf frei gegeben. Was Du da zeigst ist eine Rarität und der Preis entspricht nicht dem Produkt. Sie wird von Menschen gekauft, die bereit sind, für nicht viel mehr, viel mehr zu zahlen. Ähnlich wie Du mit Deinem Kauf. Was in den zwei, drei anderen Threads der vergangenen Tage nach zu lesen ist.
 
>>>Wieso soll das Beschiss sein ?

Weil da eine Leistungsfähigkeit suggeriert wird, die das Produkt (zumindest aufgrund des Arbeitsspeichers) nicht hat.
 
Zurück
Oben