ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
irgendwie isses ne krux mit dem physx. agaia konnte es nicht etablieren, weil sie zu klein und unbedeutend waren und für die verbreitung sich die leute erstmal die erforderliche hardware kaufen mussten.
dann wurde physx von einem der beiden großen grafikchiphersteller übernommen und per cuda in alle karten ab dx10 implementiert, sodass die hälfte der gamer schon über die notwendige hardware verfügen und auch die notwendigen kontakte zu den spieleschmieden bestehen und die werbetrommel gerührt wird. jetzt scheitert es aber genau daran: dass der eine hersteller es besitzt veranlasst den anderen logischerweise, es nicht zu unterstützen und somit hat es wieder keine chance jemals seinem potential entsprechend einzug in die gamerwelt zu halten.
egal wie mans dreht und wendet, eine eigentlich sehr vielversprechende technologie schafft den sprung zum standard einfach nicht.

da müsste schon ein "neutraler" konzern wie google oder m$ physx kaufen, damit es ne reale chance hat...
 
Zuletzt bearbeitet:
M$ bitte nicht, DX als Quasi-Monopol reicht mir...

Google wäre OK.
 
Ein gemeinsamer Memorycontroller bedeutet natürlich DDR3 Speicher und kein GDDR5 - Sideport wäre vielleicht noch eine zusätzliche Option.

Also ich bin für einen gemeinsamen Memorycontroller, der GDDR5 hat :D.
 
:daumen:
Genau 4 GB GDDR5 RAM und gut ist - dann spart man sich den DDR3 einfach ;)
Ergänzung ()

Wobei als ich das gerade nachgeschlagen habe die PS3 und Xbox genau das ja machen mit GDDR3 - so abwegig ist das vielleicht gar nicht :D
Was kostet denn so ein GDDR5 1GB Riegel?
 
Zuletzt bearbeitet:
Die gibt es, glaub ich, gar nicht als Riegel, so wie "normalen" RAM. Da werden nur einfache Chips auf die Karten geflascht (8 oder 16, soweit ich das im Kopf habe. Müsste man recherchieren oder y33h@ fragen, der wird das wohl sicher wissen).

Das Problem ist wohl eher, dass der GDDR3 nur in bestimmten Sachen so abartig schnell ist, dafür aber nicht so vielseitig. Ähnlich dem Verhältnis GPU-CPU.
 
Vielleicht kann man sich hieran orientieren:
https://www.computerbase.de/artikel...-test.1155/seite-2#abschnitt_technische_daten
Da ist die GT240 mit GDDR5 und DDR3 in 2 Versionen aufgeführt. Die HD5670 hat mit 512 MB GDDR5 einen Speicherdurchsatz von 64 GB/s bei 2000 MHz Speichertakt. Die GT240 hat mit 1GB DDR3@1000 MHz einen Speicherdurchsatz von 32 GB/s.

Da die APU keinen DDR2 Speichercontroller mehr benötigt, wird für die Grafik auch mindestens 128 bit Speicherinterface zur Verfügung stehen. DDR3 RAM wird bis dahin mit 2000 MHz takten, 1600 ist ja heute schon fast Standard. Man könnte fast davon ausgehen dass trotz DDR3 RAM gar kein geringerer Durchsatz gegeben sein wird.
Ergänzung ()

Und wenn sie GPU und CPU ein gemeinsames 256 bit Interface zuweisen können? Geht so was überhaupt?
 
das kann nvidia auch gerne machen.
spätestens wenn die programmierer umdenken, ist es eh aus.
und das wird so kommen. zwangsläufig.

wer will schon für 2 versch. physx-standards proggen. ;)


mfg
 
@Complication: zwar könnte die apu die geschwindigkeit der gt240 ddr3 erreichen, wenn die cpu nicht mitläuft. aber die cpukerne müssen den speicher auch beanspruchen und verursachen somit zusätzliche lese und schreibzugriffe. wenn beide chipteile den gleichen speicher ansprechen (und laut abbildung scheint das der fall zu sein, da beide auf einen gemeinsamen speicherkontroller zurückgreifen), müssen sie sich auch die lese- und schreibzugriffe teilen. dazu kommt, dass hochgetakteter speicher i d r höhere latenzen hat. das wäre in diesem fall besonders kontraproduktiv, da die zahl der speicherzugriffe durch die doppelbelastung enorm ansteigt. hier dürfte die latenz wichtiger sein als die taktung.

ich vermute, dass eine grafikeinheit, die den ram mitnutzen muss, nicht an eine diskrete hd5670 rankommen kann, selbst wenn der shaderteil der cpu dies ermöglichen würde.

sicher ist es nicht so schlimm wie beim turbo-cache, schon weil ddr3 statt ddr2 zum einsatz kommt, aber ein flaschenhals, der eine leistungsstarke spielegrafik verhindern wird, ist es sicherlich.
 
Zuletzt bearbeitet:
Bei der bisherigen Onboard-Grafik war der Arbeitsspeicher ne ordenliche Bremse kein Vergleich zum Vram,da ist Sideport mit mickrigem 32bit Speicherbandbreite schneller.
 

Anhänge

  • side port2.JPG
    side port2.JPG
    58,1 KB · Aufrufe: 450
Zuletzt bearbeitet:
@Lübke und Complication:
Bei Ati wird doch schon seit längerem auch Arbeitsspeicher für die Grafikberechnung mitbenutzt, Stichwort Hypermemory. In meinem Fall stehen satte 1791MB für die Grafikkarte bereit, wobei meine HD5570 nur 1024MB installiert hat.
 

Anhänge

  • hypermemory.JPG
    hypermemory.JPG
    61,7 KB · Aufrufe: 450
Raucherdackel schrieb:
Stichwort Hypermemory. In meinem Fall stehen satte 1791MB für die Grafikkarte bereit, wobei meine HD5570 nur 1024MB installiert hat.
Hypermemory bringt aber gar nix,unter umständen wird die Karte sogar ausgebremst.
1024MB reichen locker für die Karte
 
Nur bringen die 1791MB nicht viel, wenn man sie nicht mit ausreichender Bandbreite ansprechen kann. Das ist mitunter auch ein Grund, warum die 5770 mit ihren 1GB so gut auskommt.
 
@Raucherdackel: hypermemory ist der ati-name für das schon erwähnte turbocache. das gibt es bei "onboardersatz"-karten wie die 6200le oder hd2400 schon lange, das stimmt. damit sind die karten aber langsamer als mit ddr1 speicher @ 64bit ;)
der name klingt toll, tatsächlich ist das aber die aller langsamste und billigste form, einen grafikchip mit ram zu versorgen.
 
Noch langsamer als Shared?
 
Zwischen Shared und Hypermemory ist ein gravierender Unterschied: der zusätzliche Sideport Speicher der als Cache dient.

Hypermemory ist schneller als nur direkt angebundener DDR3 RAM
 
Ach herrje, ich lauf immer wieder in solche Fettnäpfchen :D Nomen est Omen.^^

Wobei, eigentlich habe ich gedacht, dass von Sideport die Rede war. Lesen wär also auch keine schlechte Idee.^^

EDIT: Danke für die Erläuterung, Complication :)
 
Zuletzt bearbeitet:
Intel GMAs z.B., die zapfen doch einfach etwas vom RAM ab. War zumindest bei mir immer so.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben