News SoC-Dies von Xbox One und PlayStation 4 im Vergleich

Denke auch, dass die PS4 mehr Zukunft inne hat als die Xbox One.

Ähnlich wie Xbox 360 und PS3: Es war ne Qual, als Entwickler für die PS3 zu programmieren. Klar, es gab viel Potenzial und Rohleistung, das aber zu nutzen haben nur wenige Exklusivtitel hinbekommen. Multiplattformtitel liefen fast durchgehend auf der Xbox besser.

M$ macht den Entwicklern mit diesem eSRAM das Leben schwer. Sony hat aus den Fehlern der PS3 gelernt - simpel gehalten, 8GB GDDR5 für CPU und GPU, das ist simpel, kräftig, und besser als bei der Xbox One.
 
Wlkir100 schrieb:
Blöd von MS, die langsamere Lösung, aber mehr Geld ausgegeben.

Man gibt auf lange Sicht weniger Geld aus, die paar $ die der größere Chip mehr in der Produktion kostet holt man bei den RAM Preisen wieder rein. Und als 20nm bzw. 16nm Shrink wird der XBox One Chip dann kleiner als der geshrinkte PS4 Chip sein, da SRAM wesentlich besser mit einem neuen Prozess skaliert als der Rest. Der Preisvorteil beim RAM wird auch bleiben.


Die generelle Frage ist, ob man überhaupt hätte GDDR5 verwenden können, oder ob es Lieferengpässe gegeben hätte. Dankt doch mal an die Nachfrage, alleine Sony hat für den ersten Verkaufstag 16 Mio DRAM Chips benötigt. Wenn jetzt die XBox One auch auf GDDR5 gesetzt hätte, hätte man die Nachfrage stillen können?
 
realAudioslave schrieb:
Ich weiss nicht, wie ihr darauf kommt, aber so wie ihr es beschreibt, wird es nicht passieren. Konsolen sind über ihre gesamte Lebenszeit absolut identisch bezogen auf das, was hinten rauskommt. Es werden also niemals 14 bzw. 20 CUs genutzt.

Was hier glaube ich gemeint ist, ist die Tatsache, dass man den Die zur ersten Slim Version vielleicht verkleinern kann. Hat man die Produktion erst mal im Griff und die Ausbeute ist groß genug, kann man das Ding direkt mit 12 CUs bauen ohne zu viel aussortieren zu müssen.
 
onkel_axel schrieb:
niemand behauptet, dass die gddr5 variante die einfachere lösung und dank der mittlerweile möglichen 512 Gbit chips auch die bessere, aber jetzt tut mal nicht so, als ob esram eine dumme entscheidung gewesen ist. :rolleyes:
ms hat früh bestimmte zielvorgaben gesetzt und diese galt es zu erreichen. und da kam eben dies lösung bei raus, weil alle anderen noch schlechter gewesen wären

Ich denke, das kann man so stehen lassen^^ Und so betrachtet, ist die Xbox One auch kein schlechtes Gerät, rein technisch. Nur im Vergleich zur PS4. Und eben diesen Vergleich muss sie sich gefallen lassen.

@v_ossi:
Das mag sein, aber dafür ist es zu missverständlich formuliert meiner Meinung nach.
 
Zuletzt bearbeitet:
MichaG schrieb:
Der SoC der PlayStation 4 besitzt ein Drittel mehr Shader-Einheiten als jener der Xbox One

Also der Tabelle nach besitzt der SoC der PS4 50% mehr Shadereinheiten als der der XBone, oder der SoC der Xbone besitzt ein Drittel weniger als der der PS4...
 
Ich habe nur geschrieben, dass die Möglichkeit bestünde, später alle Recheneinheiten freizuschalten. Ob das so kommt, steht natürlich auf einem anderen Blatt. Die "in Stein gemeißelten" Spezifikationen wurden z. B. von Microsoft bei CPU und GPU wenige Monate vor dem Marktstart noch geändert, indem die Frequenzen erhöht wurden. Zu dem Zeitpunkt waren die Launch-Titel bestimmt längst im finalen Stadium der Entwicklung.

@KaHaKa: Danke für den Hinweis! Da hab ich verkehrt herum gerechnet. ^^ Ist korrigiert!
 
Zuletzt bearbeitet:
Whoozy schrieb:
Oh man bei jeder Konsolengeneration immer das gleiche. Natürlich werden Sony und Microsoft sicherstellen das alle Konsolen die gleiche Performance haben. Die zusäzlichen Einheiten sind zur Sicherheit da, damit genügend Chips in den ersten Monaten runter kommen. Das steht aber auch genauso in der News.

Natürlich werden Entwickler mit der Zeit noch mehr Performance aus den Konsolen kitzeln können. Das war schon immer so und wird auch immer so sein.

Warum da mehr Einheiten vorhanden sind wird schon erklärt, mm Text wird dann aber ein Vergleich zu den verschiedenen Ausbaustufen von GK110 gezogen - vielleicht nur, um die Verbesserung bei der Herstellung und die damit gesteigerte Ausbeute an voll funktionsfähigen Chips zu verdeutlichen - aber das ganze suggeriert doch schon sehr, dass ein ähnlicher Vorgang bei den beiden Konsolen auch denkbar bzw. zu erwarten sei. Aber genau dies wird wohl kaum passieren. Selbst wenn irgendwann mal 99 % aller Chips voll funktionsfähig ausgeliefert werden könnten müssen sie immernoch auf das Niveau der ersten Konsolen zurechtgestutzt werden.

@MichaG: Die Specs aller Konsolen zu ändern (nach oben zu korrigieren) ist aber was anderes als zB alle Konsolen ab 2015 mit mehr Power auszustatten. Entweder die Rechenpower liegt brach weil sich die Hersteller am kleinsten gemeinsamen Nenner orientieren, oder da wo eine neuere Konsole gerade so konstant 60 fps hat droppt eine ältere Konsole auch mal unter 60 fps. Weiß nicht ob man diese Inhomogenität innerhalb einer Generation will.
 
Zuletzt bearbeitet:
KaHaKa schrieb:
Also der Tabelle nach besitzt der SoC der PS4 50% mehr Shadereinheiten als der der XBone, oder der SoC der Xbone besitzt ein Drittel weniger als der der PS4...

Prozentrechnung ist schon was feines^^

Viel interessanter ist aber, das die PS4 auch 100% mehr ROPs hat als die Xbox One (32 statt 16) und 50% mehr TMUs (72 statt 48).

MichaG schrieb:
Ich habe nur geschrieben, dass die Möglichkeit bestünde, später alle Recheneinheiten freizuschalten. Ob das so kommt, steht natürlich auf einem anderen Blatt. Die "in Stein gemeißelten" Spezifikationen wurden z. B. von Microsoft bei CPU und GPU wenige Monate vor dem Marktstart noch geändert, indem die Frequenzen erhöht wurden.

Sie bestünde klar, aber wie bereits erwähnt, das wird nicht passieren und ist auch nicht vergleichbar mit dem Erhöhen der Taktfrequenzen (vor dem Launch!). Vom Hochtakten würden alle Nutzer profitieren, das Freischalten oder Nutzen aller CUs würde die Spielergemeinde aber in zwei Lager teilen und das ist nicht gewollt bei Konsolen.
 
Schon komisch, dass MS Chip mehr kostet, aber weniger kann. Entweder waren die Entwickler völlig blöd(alte Kamellen als Grundbasis) oder man spekuliert auf sinkende Ram Preise..
 
MichaG schrieb:
Ich habe nur geschrieben, dass die Möglichkeit bestünde, später alle Recheneinheiten freizuschalten. Ob das so kommt, steht natürlich auf einem anderen Blatt. Die "in Stein gemeißelten" Spezifikationen wurden z. B. von Microsoft bei CPU und GPU wenige Monate vor dem Marktstart noch geändert, indem die Frequenzen erhöht wurden. Zu dem Zeitpunkt waren die Launch-Titel bestimmt längst im finalen Stadium der Entwicklung.

Die finalen DevKits wurden erst im Sommer an die Studios verteilt. Die Spiele sind für den Großteil der Zeit auf PCs entwickelt worden. Die Erhöhung der Frequenz kann man im Vergleich zur PS4 Hardware ohnehin als Homöopathie bezeichnen. Die im Sinne der Yield-Raten deaktivierten Compute Units werden selbstverständlich nicht freigeschaltet.
 
Matzegr schrieb:
Das was du schreibst erinnert ein wenig an Kaffeesatz-Leserei. Entschuldige bitte diese Wortwahl.

1. Kannst du nur die Vermutung anstellen, dass der Shrink auf 20nm/16nm - oder welcher Full-Node oder Half-Node auch immer - den Chip in der One kleiner macht als aktuell. Wenn ich mir die aktuellen Dinge ansehe, müssten sie für kleinere Fertigungen durchaus Anpassungen im gesamten Layout vornehmen um Platz besser zunutzen, wenn sie eventuell kleiner werden möchten!

2. Gehst du bei deiner Schätzung davon aus, dass die RAM-Preise für DDR3 nicht steigen oder sinken und selbes bei GDDR5. Fakt ist jedoch, dass DDR4 in den Startlöchern steht und früher oder später die Produktion von DDR3 zurück geschraubt wird und damit auch wieder teurer wird und vermutlich auch für Microsoft!

3. Ist es, wie oben geschrieben alles ziemliches lesen im Kaffeesatz. Es wird sich zeigen, wie es kommt.
 
Zuletzt bearbeitet von einem Moderator:
Es muss wirklich ein Meisterwerk von AMD gewesen sein zu verheimlichen das beide Consolen beliefert werden,
es wär wohl bei der Entwicklung ein leichtes gewesen zu sagen "...MS eure Chip bringt nicht das gewünschte Resultat"
 
damn80 schrieb:
wiederspricht das nicht völlig dem konsolen gedanken das die hardware innerhalb der jeweiligen generation immer gleich leistungsfähig bleibt um eine bestmöglich optimierung der spiele auf die konsole zu garantieren!?

wär doch verarsche wenn z.b. spiel gta 7 nur mit ps4² und xboxone² spielbar läuft

Das bedeutet nur, dass sie im Moment noch mehr Material verschwenden. Wenn später der Herstellungsprozess optimierter ist, werden sie Material einsparen können und der Herstellungsprozess wird günstiger.
 
Haha ich sehs schon kommen flash bare bzw. freischaltbare chips für PS4 oder Xbox :D das wird ein chaos sonder gleichen^^
 
GrinderFX schrieb:
Das bedeutet nur, dass sie im Moment noch mehr Material verschwenden.

Wo genau wird verschwendet? Wenn MS und Sony alles auf den Müll werfen, was nicht 100% funktioniert ist das Verschwendung. Aber 2 CUs zugunsten der Ausbeute zu cutten ist so ziemlich das Gegenteil von verschwenden.
 
Auch wenn der eSRAM teuer ist, es hätte mindestens doppelt soviel da sein müssen um richtig anständig zu funktionieren.
Aber eben, noch Chipfläche und Preis.
Den 64 MB eSRAM kann man aber bei einem Shrink nicht hinzufügen ohne eine Zweiklassengesellschaft zu erschaffen.
Vielleicht können sich die Entwickler mit den 32 MB ja irgendwann mal ja begnügen?

Aber der GPU Vollausbau wäre auf dem Chip vorhanden.
Auch wenn noch wegen den Yeldgeschichten durchaus deaktiviert, eigenlich aber da.
Und da man im Desktopbereich durchaus teildeaktivierte GPU und CPU "freischalten" kann
und somit, falls sie läufen, gibts zusätzliche Ausführungseinheiten und Kerne.


Wieso sollte die nicht auch bei der PS4 oder XBone machbar sein, da sie ja eigentlich sowas wie ein x86 PC sind? ;-)
Somit kann ich mir eine gewisse Zweiklassengesellschaft durchaus vorstellen, wo bei manchen eben etwas mehr Power in der GPU da währe.
Ich hoffe AMD lasercutet die Teile nicht.... :-)
 
Zuletzt bearbeitet:
Kartenlehrling schrieb:
Es muss wirklich ein Meisterwerk von AMD gewesen sein zu verheimlichen das beide Consolen beliefert werden,
es wär wohl bei der Entwicklung ein leichtes gewesen zu sagen "...MS eure Chip bringt nicht das gewünschte Resultat"

Das machen sie genau einmal und bekommen weder von Sony noch von MS mehr Aufträge!
AMD ist doch nicht blöd und sabotiert sich selbst (absichtlich!).
 
Hallo, die Bezeichnung eSRAM ist mir recht neu. Ein Begriff der (so denke ich) vielen bekannt sein dürfte, ist der sogenannte Cache, z. B. als 2nd Level Cache oder 3rd Level Cache [1]. So gut wie jeder moderne Prozessor besitzt einen oder mehrere Caches.

Die AMD FX-Prozessoren [2] haben bis zu 2 MiByte 2nd Level und bis zu 8 MiByte 3rd Level Cache. In der ersten Cache-Stufe (1st Level) wird oft zwischen Instruktions- bzw. Anweisungs-Cache unterschieden, wobei anzumerken ist, dass die 1st Level Caches häufig deutlich kleiner als 1 MiByte sind, eher im Bereich 8kiByte bis 128kiByte.

Typischerweise werden Caches auf der CPU als SRAM-Zellen implementiert, seltener DRAM (wobei das dann tatsächlich als eDRAM bezeichnet wird). Ein Beispiel für externen SRAM Speicher der als Cache genutzt wird, stellt der betagte i386 dar [3]. Diesen gab es mit extern über das Mainboard angebundenem Cache, eine Stufe, bis 128 kiByte beim AMD Am386DX. Auf CPUs wie dem Intel Pentium III (Katmai Kern, Slot 1) war der 2nd Level Cache auf der CPU-Slotkarte realisiert [4].

Der Zweck des eSRAM bzw. des Caches auf dem XBox-Prozessor ist es, einen schnellen Zugriff auf die 8 GiByte DDR3 Speicher zu gewährleisten. Jeder Grafikchip freut sich über einen schnelle Speicheranbindung, insbesondere GPGPU - Computing profitiert sehr von schnellem Zugriff auf den RAM.

[1] Caches http://de.wikipedia.org/wiki/Cache#Prozessor-Cache
[2] AMD FX http://de.wikipedia.org/wiki/AMD_FX"]http://de.wikipedia.org/wiki/AMD_FX"]http://de.wikipedia.org/wiki/AMD_FX
[3] i386 http://de.wikipedia.org/wiki/Intel_80386
[4] Pentium III http://de.wikipedia.org/wiki/Intel_Pentium_III
 
Zuletzt bearbeitet:
Kartenlehrling schrieb:
Es muss wirklich ein Meisterwerk von AMD gewesen sein zu verheimlichen das beide Consolen beliefert werden,
es wär wohl bei der Entwicklung ein leichtes gewesen zu sagen "...MS eure Chip bringt nicht das gewünschte Resultat"

Die ESRAM-Geschichte wird schon eher auf Microsofts Mist gewachsen sein. Ob AMD das dann gut findet oder nicht spielt keine Rolle - sie bekommen den Auftrag also bauen sie was von ihnen verlangt wird.
 
Zurück
Oben