News Full-HD-Spiele auf AMD-„Temash“-Tablet in Aktion

http://www.anandtech.com/show/6600/...rformance-compared-to-nvidias-geforce-gt-650m

GT3 vs GT 650M
The video below shows Dirt 3 running at 1080p on both systems, with identical detail settings (High Quality presets, no AA, vsync off). Intel wouldn't let us report performance numbers, but subjectively the two looked to deliver very similar performance.

Die ersten Angaben zur Performance der GT3 von Intel die wohl in den 17W Teilen stecken wird. Ist jetzt de Frage was im 10W Haswell drin sein wird.

Edit: Wohl runter bis zu 15W gibst die GT3.

https://www.computerbase.de/2012-12/haswell-gt3-grafikloesung-mit-40-eus-auch-in-15-watt-cpus/

Spielt dann in Kabini Liga. Da wirds dann auch spannend. Ich bin gespannt welchen Aufwand Intel bei den Treibern reinstecken wird. Ich denke die Hardware , auch die GPU, von Intel ist schon gut und hocheffizient, allerdings machen die Treiber oft im Gamingumfeld einen Strich durch die Rechnung.
 
Zuletzt bearbeitet:
Nur dass der kabini billiger sein wird ^^ allein der l4 cache durfte schon ein grund sein wieso der i7 mit der gt3 teurer sein wird. Dann darfst du wieder die die-size vergleichen, wie du es ja sonst liebendgern bei fx threads gemacht hast. Ob der i7/gt3 trotz 22nm (vs 28) kleiner sein wird aber auch gunstiger zu produzieren lasst ?

Aber der i7/gt3 wird sicherlich cpu als auch grafisch potenter sein, dafur gibt es aber auch den richland ulv. Interessant nur dass AMD sich immer behaupten muss. Der kabini ist der atom gegner wobei die APUs eigentlich was ganz was eigenes ist. Bin gespannt ob sich da noch einiges durch HSA bewegen lasst. Das ist
ja die eigentliche Entwicklung auf die man zielt. Eventuell verspricht man sich dann spater durch diese Entwicklung die weiteren Performancesteigerungen. Somt ist kabini durch sein gunstiges design und fertigung, der perfekte Chip um hsa-plattformen zu verbreiten.

Die kabini performance sollte doch klar sein. A6 performance sein und das wird etwa die Performance der HD 4000 sein. Wobei sich die frage stellt wie groß der Abstand der neun A-serie sein wird.
 
Zuletzt bearbeitet:
Ich sehe das genau wie pipip. Mit den Bobcat/Jaguar-basierten APUs hat AMD, anders als bei den Llano/Trinity-APUs und den FX, ein Produkt, das nicht nur billig verkauft wird, sondern (höchstwahrscheinlich) aufgrund seiner geringen Komplexität/Größe auch wirklich billig herzustellen ist.

In allen anderen Bereichen verkauft AMD eine komplexe und teure "Big-Chip"-Architektur gezwungenermaßen zu Kampfpreisen. Das fing schon mit den ersten Phenoms an, die eigentlich C2Q-Konkurrenz sein sollten und zum Start auch entsprechend viel kosteten. Aber in der Praxis waren sie aufgrund ihrer Leistung eher nur Konkurrenz zu Intels Dualcores und die Preise mussten schnell entsprechend fallen. Und so sieht es bis heute aus.

Aber Bobcat/Jaguar ist von Anfang an als Billig-Architektur geplant gewesen.

Allerdings muss man auch bedenken, dass zumindest theoretisch das Spiel, große, komplexe Chips trotzdem billig zu verkaufen, nicht nur AMD spielen könnte. Was würde Intel daran hindern, die Low-Voltage-Haswells mit wenig oder sogar gar keinem Profit zu verkaufen, so wie AMD es mit seinen großen Modellen macht?
Intel kann sich einen Preiskampf dank prall gefüllter Kriegskasse finanziell garantiert viel eher leisten, als AMD . Sich im Markt der kleinen Mobilgeräte zu etablieren, ist ein extrem wichtiges strategisches Ziel. Nicht zuletzt, weil der derzeit von viel größerer Konkurrenz dominiert wird als AMD, nämlich den diversen Herstellern von ARM-SoCs.

Ich will nicht sagen, dass das so kommen muss oder auch nur besonders wahrscheinlich ist. Bisher hat Intel eigentlich immer darauf geachtet, alle Produkte mit maximalem Profit zu verkaufen und solche strategische Aspekte hinten an gestellt. Aber entspannt zurücklehnen sollte AMD sich deshalb eher nicht.
 
Kreisverkehr schrieb:
Ich wollte eigentlich nur meinen Unmut darüber ausdrücken, dass mMn AMD auch im Tablet-Sektor konkurrenzfähige Chips am Start hat, auch jetzt schon. Nur leider kann man quasi nur Intel kaufen, was ich auch musste.
Meine Befürchtung hierbei war nun, dass es bei dem jetzt vorgestellten Chip genauso sein wird, und man im Vergleich der Ausstattung, Preis usw. auch wieder nur bei Intel landet...

Die Befürchtung ist zwar mit den Erfahrungen der letzten Jahre, wo jetzt AMD bsplw. einige sehr interessante Trinity-Prozessoren im Lineup hätte, aber es kaum (z.B. mit dem 19W TDP A8-4555 Quadcore) oder gar keine Auswahl damit gibt, mehr als nur berechtigt, aber im Vergleich zu Hondo bewirbt man Temash mMn nun doch deutlich aggressiver, weshalb die Chance mMn höher ist, dass wir damit zumindest eine gute Hand voll Tablets zu Gesicht bekommen. Mit einer (kaufbaren) Anzahl von deutlich über 10 verschiednen Tablets würde ich aber nicht rechnen, sondern das dann eher als Traumvorstellung einordnen :)
 
terraconz schrieb:
Naja ich würde mir das wahrscheinlich nicht auf dem winz Display antun und eher auf Monitor oder TV streamen und da bin ich von meinen 120hz schon etwas verwöhnt. Wenn ich da an die 60hz in der Arbeit denke bekomme ich jedesmal Augenbrennen und Kopfweh nach 2-3 Stunden.

achja , so einen blödsinn was manche von euch geben , ist ja nicht normal.:stock:
 
LOL Augenbrennen weil ein Standbild von Word anstatt mit 60hz mit 120hz auf einem LCD Monitor angezeigt wird??? Ich lach mich schlapp^^
 
crustenscharbap schrieb:
Also Full HD hat sehr wohl was zu sagen. Die Auflösung und Anti Aliasing sind die größten Ressourcenfresser überhaupt. Sonst könnte man das Spiel auf 640x360px laufen lassen und angeben, dass die APU so schnell sei. Um es mal so zu sagen.

Das kann mein Subnotebook nicht. Nicht mit der Auflösung. Mit den gezeigten Grafikeinstellungen (vom optischem her) schafft mein Subnotebook etwa 25 fps, aber mit einer Auflösung von: 848x480. Ich hab mal 1366x768 eingestellt. Nun lief das Spiel mit etwa 10 FPS. Absolut unbrauchbar.

Ich will gar nicht wissen, wie flüssig das Spiel mit 848x480 pixeln läuft. :D:D

Also AMD. Eure Rettung liegt mit dem Teil sehr nahe. Jetzt müsst ihr nur noch den Finger ziehen. Wenn das Pad unter 500€ kostet, wird das der Knaller und ich überlege mir, mein iPad zu verschärbeln. :D

der wirklich größte ressourcenfresser ist
-> hochkomplexe dynamische schattendarstellung mitsamt der dynamischen beleuchtung.

wird von mir in shootern prinzipiell herunter geregelt, ist eh nur auf screenshots beachtet. fps>grafik!
 
@pipip

der preisliche Faktor war außen vor ;)

Man darf sich eher fragen ob 28nm Fremdfertigung günstiger sind als 22nm Eigenfertigung. Abgesehen davon laufen beide Fertigungen schon fast gleich lang. Naja aber darüber hat eh keiner Zahlen, keiner der anwesenden wird über die genauen Fertigungspreise/Chip/mm² Bescheid wissen :P

Fakt ist nur, dass Intel ne extrem hohe Marge und Stückzahl fährt, während zu GF kaum was bekannt ist und AMD mit glück schwarz schreibt.

Lassen wir das. Es ging nur darum dass sich selbst die GT3 schon bei 15W TDP tümmelt, die auch neulich dasselbe Spiel auf FHD mit Hohen Details wiedergegeben hat. Ich denke alles in allem wird aber in fast jeder TDP Klasse AMD was GPU Leistung angeht wie gewohnt sehr gut aufgestellt sein, meist vor Intel + bessere Spieletreiber. Ich würde aber ich nicht weinen wenns nicht so wäre und Intels neue iGPU rockt und Intel mehr in Treiber steckt. Ich kauf das was unterm Strich die intelligentere Wahl ist.

Z.B. sind die Zeiten wo ich AMD Grafik einer Intel im Multimedia HTPC Umfeld vorziehen würde vorbei- weil Intel massiv aufgeholt hat.
 
Zuletzt bearbeitet:
während zu GF kaum was bekannt ist und AMD mit glück schwarz schreibt.
GF wird erst interessant, wenn AMD Kaveri auf den Markt bringt. Eventuell auch ein Grund wieso von Kaveri noch nichts zu sehen ist. Die kleinen APUs wie Kabini werden bei TSMC hergestellt und hier hat man schon wesentlich komplexere und größere Chips gesehen.

Echt schade finde ich dass AMD nicht auch einen GPU-Chip produzieren lässt, der baugleich mit der igp von Kabini ist. Wenn man hier ordentlich mit treiber optimiert, hätte man in Ultrathinbooks ordentliche Hybrid-CF Lösungen mit denen man dann wesentlich mehr Performance hätte und auch potentere Spiele wagen könnte. Ein A6 Chip in gescheiten Hybrid CF sollte schon die Performance eines A8 zusammenbekommen. Die igp dürfte dann auch nur so die 10 watt tdp haben und wenn der Chip dann noch ordentlich auf der Platine verlötet ist und einen eigenen DDR3 Speicher bekommt sollte man schon ein ausgewogenes aber kleines System haben. (Man könnte in einem Notebook ja dann halt 2 - 3 Speicherbänke verbauen, wobei ja Kabini sowieso nur single Channel besitzt)
Doch denke ich mal dass die Entwicklung/Aufwand für den Markt nicht gerecht wäre, obwohl man dann mal ordentlich Enduro und co vermarkten könnte.

Was Kaveri angeht, bin ich schon gespannt ob GF es ordentlich gebacken bekommt :)
Immerhin wird die IGP 512 shader (GCN) haben. Zum Vergleich hat die HD 7770 640 shader.
 
Zuletzt bearbeitet:
Wattebaellchen schrieb:
Für die, die nicht begreifen wofür man die Leistung in einem Tablet überhaupt brauchen sollte... die Displays werden immer höhere Auflösung bieten und es gibt Tablet mit über 18 Zoll.... die brauchen für so eine Auflösung Leistung, und die Leistung die AMD hier bietet ist sagenhaft für den Stromverbrauch!
Die GPU muss genau gleich viel leisten bei der selben Auflösung in 7" oder 18" - da spielt die Displaygröße keine Rolle, da die Anzahl der dargestellten Pixel die selbe sein muss. FullHD bleibt FullHD ;)
 
5watt? Wozu brauchen die High-End GPUs heute denn weit über 100watt? :D Um die Berechnung von "Däumchen drehen" zu bewerkstelligen? :D

Erstaundlich, wenn man bedenkt, dass man so vlt. mal eine APU hat die ca. 15 watt braucht und Dirt in vollen Details flüssig wiedergeben kann...
 
Kennst du die Settings und die Fps mit denen Dirt auf Temash lief? ;-)
 
pipip schrieb:
Echt schade finde ich dass AMD nicht auch einen GPU-Chip produzieren lässt, der baugleich mit der igp von Kabini ist. Wenn man hier ordentlich mit treiber optimiert, hätte man in Ultrathinbooks ordentliche Hybrid-CF Lösungen mit denen man dann wesentlich mehr Performance hätte und auch potentere Spiele wagen könnte.

Ich warte noch auf Tests, die belegen, dass Hybrid-Crossfire mit Low-End-GPUs oder überhaupt eine Low-End-Multi-GPU-Lösung so gut funktioniert, dass man tatsächlich ein flüssigeres Spielerlebnis bekommt und nicht nur zwar durchschnittlich höhere, aber dafür extrem unregelmäßige Frameraten, so dass es subjektiv sogar stärker ruckelt als mit einer GPU allein. Hybrid-Crossfire mit Llano und Trinity hat ja nicht wirklich funktioniert.
Vielleicht würde es schon helfen, wenn es wirklich zwei komplett identische GPUs wären. Aber es gibt Mickroruckler ja auch immer noch bei den üblichen diskreten Lösungen aus zwei gleichen (und leistungsstarken) Grafikkarten und bei Hybrid-Crossfire mit einer integrierten GPU wird sich zwangsläufig immer deren andere Speicheranbindung bemerkbar machen. Also alles andere als perfekte Vorraussetzungen.

Da würde ich doch eher sagen, dass es sinnvoller wäre, wahlweise gleich eine entsprechend stärkere/größere GPU in die APU zu packen. Dann würde man halt zwei Versionen mit identischem CPU-Teil aber mit verschieden großer GPU anbieten. Macht Intel ja schon länger so und wird es bei Haswell mit 3 verschiedenen GPU-Ausbaustufen nochmals ausweiten.
Besonders bei kleinen Mobilgeräten wird es auch gar nicht anders sinnvoll sein. Das Letzte was man da haben will ist ein zusätzlicher GPU-Chip + dazugehörigem Speicher auf der Platine. (Das war damals Grund genug für Apple, beim MBA sehr lange bei den alten Core2-CPUs + Nvidia-Chipsatzgrafik zu bleiben und die ersten Core-i links liegen zu lassen.)
 
pipip schrieb:
Was Kaveri angeht, bin ich schon gespannt ob GF es ordentlich gebacken bekommt :)
Immerhin wird die IGP 512 shader (GCN) haben. Zum Vergleich hat die HD 7770 640 shader.

Woher nimmst du die 512? Das is meiner Ansicht nach etwas zuviel - zumal die GCN Shader ne Ecke größer sind. Naja ok, in 28 nm könnte das gerade so gehn.

Gibts da ne Quelle? =)

Ich bin gespannt wie sich Intel macht im GPU Segment. Die EUs bzw die Technik hinter den aktuellen iGPUs scheint ja nicht so schlecht zu sein, recht effizient bei kleiner DIE. Es fehlt noch etwas bezüglich Treiberpolitik. Da wird Intel aufholen müssen.

Ich denke nicht dass man ganz auf GT 650M Niveau spielen wird

http://www.youtube.com/watch?v=tDhgyZcVi_o

Reviewers who have been testing Intel’s Haswell chip are reporting that they are surprised that it is giving Nvidia based graphics chips a run for their money.

A video posted by The Tech Report shows off two systems - with one system featuring a Haswell-based Intel chip with integrated graphics, while the second system included an Ivy Bridge-based Core i7 CPU and a discrete Nvidia GeForce GT 650M GPU. Using Dirt 3 as the software it was set at 1920x1080 with all details set to high.

aber das Potential hatte ich so eigentlich nicht ganz erwartet (wirkt auch flüssiger als zb das Temash vid). Schaue ich mir einen Auszug aus der Benchmarkliste zu mobile GPUs an dann liegt Intel mit der iGPU GT3 sicher irgendwo zwischen HD7730M und HD7750M

leistungeni8asj.jpg


Bleibt also spannend. Mir solls rechts ein wenn eine dritte Partei bei den GPUs mitmischt. Eine 22nm Intel EU basierte GPU für Desktop wäre auch interessant.
 
Zuletzt bearbeitet:
Für Kaveri gab's mal ne Slide seitens AMD die acht CUs für Kaveri nannte, ja.
 
Herdware
Das liegt einfach daran, weil die GPU-CHIPs die bis jetzt für Hybrid-CF benützt worden sind einfach nicht abgestimmt sind. Unterschiedlich schnelle Chips. NV und auch der eine (selbst gemachte) CF-Treiber zeigen dass man sehr gut und effizient gegen micro-Ruckler optimieren kann. Deshalb sprach ich ja auch von einem Chip der die gleiche Performance, den gleichen Speicher und Treiber haben sollte, der für die 2 gpus in hybrid CF optimiert ist.
Das kannst du ja nicht mit den bisherigen CF-Lösungen nicht vergleichen, wo bis jetzt sicherlich nicht soviel Aufwand betrieben wurde.
Doch so einen kleinen Chip Herzustellen dürfte nicht so teuer kommen. Eventuell wird man zu Kaveri einen baugleichen Chip auf den Markt bringen.

http://www.tomshardware.de/Crossfire-SLI-Mikroruckler-Radeon-Pro,news-248333.html
Radeon Pro Treiber

Detail%20Frame%20Rate%20Crossfire%2002%20AFR%20Friendly.png

Detail%20Frame%20Rate%2001%20SLI%20Standard.png

Detail%20Frame%20Rate%20Crossfire%2004%20DVC%2050%20fps.png

Detail%20Frame%20Rate%20Crossfire%2005%20DVC%2040%20fps.png


Somit mit ausreichender Optimierung, hätte man auf einen Board die APU, eine gleiche gpu, 2-3 Speicherbänke und das zu einem passenden Preis. Dann hätte man auch noch AMD Enduro und man könnte Notebook und Desktop Plattformen anbieten an die bestimmt einige interessiert wären. Für Office völlig ausreichend und für Multimedia und Games auf 720P auf mittlere schätze ich ausreichend. Für einen HTPC im ITX oder mATX Format sicherlich interessant, besonders wenn das Board wie das neue Asus Board mit dem E-2000 einen großen Kühlkörper hätte und eigentlich Passive zu kühlen wäre ^^

Besonders bei kleinen Mobilgeräten wird es auch gar nicht anders sinnvoll sein.
Du musst schon lesen was ich geschrieben habe. Die Speicherverbindung alles soll ja identisch sein.
Weiteres denk mal so. Der Hersteller kann dann ein Board mit oder ohne extra dgpu verkaufen. Das heißt die günstigere Version kostet ohne extra dgpu etwas weniger, somit der Chip muss ja nicht verlötet werden ^^ Das heißt es gibt eine Flexibilität wie bei den Intel- NV Ion Boards.
Nur dass AMD den Vorteil hätte die GPUs zusammenarbeiten zu können, und das effizient, wenn man nur optimieren würde.
Weiters was die Kühlung angeht. Es gibt genug Ultrabooks die mit einem NV Chip Verbaut sind, der ne TDP von 25 watt hätte.
Ich vermute ein GPU Chip der Baugleich zur igp wäre würde auch mit einer 10 watt tdp auskommen. Das heißt ja man hätte wieder 2 Hot-Spots (wenn bsp die igp am Board verlötet wird) doch könnte man das ebenso mit passende passive Kühlkörper (wie bei den vorgestellten Asus Board) ausreichend Kühlen.

Wie gesagt, momentan nur wunschdenken, Enduro wäre perfekt. In Notebooks auch realisierbar, denn es gibt ja von Intel und NV Ultrabooks die wesentlich wärmer werden.
Ich glaube, aber dass wir in zukünftigen AMD-Produkte das Konzept sehen werden, denn immerhin steht ja auf den AMD (CB: Verschmelzung von CPU und GPU) extend to dgpu oder ähnliches.
3-1080.2263084609.png


Woher nimmst du die 512? Das is meiner Ansicht nach etwas zuviel - zumal die GCN Shader ne Ecke größer sind. Naja ok, in 28 nm könnte das gerade so gehn.
Weil man von einer 7750 gesprochen hat, aber auch im Internet fliegt die Zahl herum.
Nur um es mal genauer zu sagen, die DIE-Size der 7770 beträgt 124 mm^2.
Aber vllt wird die igp genauso groß sein wie der neue GPU-Chip der Einsteigerklasse der 384 shader aufweißt. Kleiner würde ich den Chip dann aber nicht mehr einschätzen.

aber das Potential hatte ich so eigentlich nicht ganz erwartet (wirkt auch flüssiger als zb das Temash vid). Schaue ich mir einen Auszug aus der Benchmarkliste zu mobile GPUs an dann liegt Intel mit der iGPU GT3 sicher irgendwo zwischen HD7730M und HD7750M
Dir ist schon klar, dass Temash erstens die Tablet Version ist und Kabini, der eine Tdp von 15 watt hat, somit schneller ist und schon eher die Konkurrenz zum i7+GT3 sein wird. Weiteres dass auch Kabini den Nachteil hat, nur einen single-Channel zu besitzen und wahrscheinlich die eigentliche Performance die die igp noch bieten würde nicht auslutschen kann ^^.
Viel interessanter wie dann aber Kaveri 17 watt ULV-Prozessor aussehen wird. Denn man hört so dass Richland so 20-40 % noch mal igp Performance dazu backen kann. Kaveri hat dann GCN 2.0 (angeblich) und dieses mal eine wesentlich potentere CPU (besonders da auch die single-thread-Performance erheblich ansteigen soll, man spricht ja von einem Zuwachs von 15-30 % IPC)
Mal sehen was sich dann bewahrheitet ^^.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Reviewers who have been testing Intel’s Haswell chip are reporting that they are surprised that it is giving Nvidia based graphics chips a run for their money.

Naja. Da wäre ich noch etwas vorsichtig. Die nehmen nicht umsonst alle ausgerechnet Dirt als Beispiel. Das ist einer der anspruchlosesten (halbwegs) aktuellen Titel, der mit fast jeder GPU spielbare Frameraten hergibt. Ich bin ziemlich sicher, dass eine 650M sowohl Hashwells iGPUs als auch den kleinen APUs (zumindest sowas wie Temash) doch deutlich die Rücklichter zeigen wird, wenn die GPU mal richtig gefordert wird.

@ pipip
Wie soll eine zusätzliche diskrete GPU die selbe Speicheranbindung haben, wie eine iGPU? Die iGPU greift ja über den Speichercontroller der CPU/APU auf den Hauptspeicher zu.
Soll die dedizierte GPU einen eigenen integrierten Speichercontroller mitbringen, der dann parallel auf den Hauptspeicher zugreift?

Ich bin mir nicht mal sicher, ob das überhaupt funktionieren würde. Die alten Chipsatzgrafiken funktionierten ja, weil der Speichercontroller damals noch im Chipsatz steckte und der bediente dann sowohl CPU als auch GPU.

Und dann bleibt noch abzuwarten, ob Multi-GPU mit schwachen GPU, die nicht sowieso konstant über 40 FPS liefern, denn wirklich ruckelfrei möglich ist.
Mit zwei GTX680 bzw. einer 690 geht es ja inzwischen ganz gut, aber in der Low-End-Liga oder auch nur der Mittelklasse habe ich den Beweis, dass das geht, noch nicht gesehen.
 
Herdware
Soviel ich weiß gab es doch Grafikkarten, die keinen eigenen Speicher hatten sondern ebenso auf den Hauptspeicher zu gegriffen haben oder ?
Weiteres sprach ich davon, dass man dann 2-Speicherbänke hätte. Einer wäre dann eben für die dgpu.
Aber ja ^^ Es ist nur mal ein Vorschlag, bzw eine Vorstellung von mir ^^
 
Krautmaster schrieb:
aber das Potential hatte ich so eigentlich nicht ganz erwartet (wirkt auch flüssiger als zb das Temash vid). Schaue ich mir einen Auszug aus der Benchmarkliste zu mobile GPUs an dann liegt Intel mit der iGPU GT3 sicher irgendwo zwischen HD7730M und HD7750M
Naja die kleinste Lösung vs. die grösste verfügbare Lösung.
y33H@ schrieb:
Für Kaveri gab's mal ne Slide seitens AMD die acht CUs für Kaveri nannte, ja.
Temash hat 2 CUs.. daher wären die 8 CU für die grösste Kaveri nicht so aus der Welt. Fragt sich halt wie das mit dem Speicher gelöst ist am Ende und ob die CUs ihre "PS" umsetzen können. Es kommen ja die HSA Features nun zum Zug.
Herdware schrieb:
Wie soll eine zusätzliche diskrete GPU die selbe Speicheranbindung haben, wie eine iGPU? Die iGPU greift ja über den Speichercontroller der CPU/APU auf den Hauptspeicher zu.
Soll die dedizierte GPU einen eigenen integrierten Speichercontroller mitbringen, der dann parallel auf den Hauptspeicher zugreift?
Das ist genau das worum es bei HSA geht. 2 GPUs und eine CPU und jegliche andere Hardware die das braucht, greifen gemeinsam auf einen einzigen Speicherbereich zu. Nach wie vor hat AMD noch nicht verraten wie das genau gelöst sein wird: alle nur in den System RAM? Es soll auch diskrete GPUs mit HSA Features geben, kann die CPU dann auf Daten in deren GDDR5 direkt zugreifen? Oder können die Speicher zusammengefasst werden so dass es einen Überspannenden Speicher gibt der die Adressierung RAM+GDDR5 verwaltet? In jedem Fall wird es da wohl Änderungen geben gegenüber den bisherigen Speicherinterfaces.
 
Zurück
Oben