• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Xbox One und PlayStation 4: Technik im Vergleich

Wenn sie es gut entwickeln, dann sollen sie einfach ein PC Spiel programmieren und am Ende lassen sie dann einen optimierten Compiler für die PS4 oder die XBox One drüber laufen und das war es. Sowas wäre echt super. :D
 
nanoworks schrieb:
Findest du IllumiRoom wirklich so cool? In meinen Augen ist das eine Entwicklung in die komplett falsche Richtung, da VR-Peripherie bereits vor der Haustür steht. IllumiRoom beißt sich damit.

Oder um es mit den Worten von Sony Worldwide Studios President Shuhei Yoshida zu sagen:

Bin ich ehrlich gesagt nicht einer Meinung.. Und ja, dass wird einschlagen wie eine Bombe ! Billige Beamer gibt es ja bereits und für die Aufgaben genügen die völlig.. Aber die spielerischen Möglichkeiten werden dadurch in eine völlig anderen Bahn geworfen. Stellt sich da nicht ein Mitten-drin-Gefühl ein !? Also ich finde, so etwas hätte es schon viel eher geben müssen ! Aber wie gesagt, ich lasse mich überraschen und natürlich kann es auch in eine andere Richtung gehen. ;)
 
lottepappe schrieb:
Und ja, dass wird einschlagen wie eine Bombe !

Das bezweifle ich, denn soweit ich das mitbekommen habe, wird IllumiRoom überhaupt nicht veröffentlich werden. Das ist ne reine Technologie Demo
 
Gibt es eigentlich irgendein rationalen Grund wieso die Spiele dann nicht auch auf einem PC laufen sollten? Diese extrem PC ähnliche Architektur ist für Emulatoren-Programmierer doch ein Fest!
 
Ist zwar Offtopic. Aber auch mir fehlt der Vergleich mit der Wii U

Also die Wii U ist nicht schlecht. Aber mehr als eine XBox 360 1.5 ist sie auch nicht.
Die CPU ist nach wie vor ehlends Lahm und damit meine ich nicht die tatsache, dass sie nur mit 1,6GHz läuft.
Out-Of-Order ist nicht alles wenn man dann immernoch auf PowerPC G3 alias 750CL mit seiner Vierstufigen Pipeline schielt. Das Design ist echt alt und hat im Vergleich zu den aktuellen CPUs (auch die der XBox360/PS3) trotz des 2MB L2 Cache des 2. Kerns Null entgegegn zu stinken.

Die Wii U holt sich ihren Leistungsvorsprung nicht durch rohleistung der CPU sondern der Co-Prozessoren welchen diesen entlasten: DSP,ARM(Starlet),GPGPU. Das Design der GPU kommt stammt immernoch von einem R700. Die GPU (Xenos) der XBox360 geht in Richtung R600 war aber Leistungstechnisch bei einer x1800 (damals echtes statement!). Die Wii U GPU (Latte) geht in richtung HD4650.

Hier ein kleiner Vergleich wenn auch nicht ganz repräsentativ: X1800GTO vs HD4650

Gegen XBox One/ PS4 stintk die Wii U schon ab. Ich würde sie aber nicht abschreiben. Denn im Vergleich zu XBox360 hat die Wii U noch mal 512MB mehr RAM zur Verfügung und die 32MB embedded DRAM im Framebuffer sollten sich auch bemerkbar machen. Es ist auch nicht unwarcheinlich, dass Nintendo ein bisschen mehr an ihrem OS dreht und den Spieleentwicklern Nachträglich mehr RAM über lässt (ist bei Nintendo 3DS auch schon passiert).

Probleme dürften sich noch im Texturstreaming, dank langsamer RAM Anbindung (12GB/s) geben.

Die Frage ist halt, lohnt es sich für die Wii U zu portieren ? In PS360 Zeiten wo POWER State of the Art war, war das ja eine andere Geschichte. Aber jetzt muss man von CISC nach RISC porten. Die Entwickler werden es einem Danken.

Nun nochmal zum Topic.

Nach Gerüchten und Co. hat die PS4 ca. 30% mehr Rohleistung: 1,2GFlops vs 1,8GFlops. Die XBox One hatt aber 32MB embedded RAM für den Framebuffer und warscheinlich wie in der XBox360 eine Co-GPU die sich quasi nur um AA kümmern muss. PS4 muss dies in der ganz normalen GPU abhandeln. Und damit verringert sich der Unterschied bei AA merklich. Schlussendlich sind es Details die entscheiden.

Aber wie bereits erwähnt. Die aktuellen von Sony und MS sind sich technisch, also auch von der Architektur so ähnlich dass sie sich erstens besser vergleichen werden und dauf der anderen Seite vergleichbare Leistung abliefern werden.

Mal im vergleich: XBox - AMD Unified Shader (R600), 512MB GDDR3 Unified RAM, POWER CPU 3Cors - 6 Thread vs. PS3 - CELL mit 1 PPE (entspricht einem Single der XBox360 Cores) + 7 SPEs (davon 1 fürs OS reserviert), NVidia RSX (7800GTX, klassische Vertex + Pixelshader) + 256MB GDDR3, 256MB XDR RAM

Und nun das Ende der Geschichte .... wayne
 
MWR87 schrieb:
Nach Gerüchten und Co. hat die PS4 ca. 30% mehr Rohleistung: 1,2GFlops vs 1,8GFlops.

Also zum einen ist das nur der Unterschied zwischen den GPUs (PS4 = 1152 Shader @ 800Mhz = 1.84 TFLOPS, XBox One = 768 Shader @ 800 Mhz = 1.22 TFLOPS) und nicht den kompletten Systemen und zum anderen stimmen deine Prozente nicht (Prozentrechnung ist 6. Klasse Mathe, oder?). So ist es richtig:

Die GPU der PS4 hat 50% mehr Rohleistung als die GPU der XBox One.

oder

Die GPU der XBox One hat 30% weniger Rohleistung als die GPU der PS4.

MWR87 schrieb:
Die XBox One hatt aber 32MB embedded RAM für den Framebuffer und warscheinlich wie in der XBox360 eine Co-GPU die sich quasi nur um AA kümmern muss.

Die 32MB SRAM haben nicht besonders viel Bandbreite (102GB/s) und können daher als Framebuffer auch keine Wunder bewirken. Da ist der große 176GB/s Pool der PS4 klar im Vorteil. Die 32MB werden vermutlich als Scratchpad Memory für GPGPU Berechnungen eignesetzt werden, denn da kann der SRAM mit seiner niedrigen Latenz punkten. Generell gilt aber: Je mehr Memory Pools zum Einsatz kommen, desto schwieriger die Aufgabe für den Entwickler, diese effizient auszreizen. Der hUMA GDDR5 Pool der PS4 ist hier zweifellos die überlegene Speicherarchitektur. Die Xbox geht einen preisgünstigeren und weniger performanten Weg.

Das die XBox360 sich um AA kümmern soll ist kompletter Blödsinn. Das ist technisch nicht umsetzbar. Ich frag mich auch, wie man sich so einen Quark ausdenken kann? Wie stellst du dir das vor? Soll das Bild vor der Ausgabe extra nochmal zum XBox Chip geschickt werden, damit der da mit seiner Mini-Bandbreite und seinen paar ROPs gutes Antialiasing drüber bügeln soll? Also bitte...

MWR87 schrieb:
PS4 muss dies in der ganz normalen GPU abhandeln. Und damit verringert sich der Unterschied bei AA merklich.

Auch das ist Quatsch. Die PS4 ist der XBox One klar überlegen bei Dingen wie Auflösung oder AA, da sie mit 176GB/s die größere Bandbreite und mit 32 ROPs auch die größere Menge Rasterendstufen hat. Bandbreite und ROP-Leistung sind die limitierenden Faktoren für diese Dinge.
 
nanoworks
Ich denke schon, da die PS4 laut Entwickleraussagen super einfach zu programmieren ist. Wenn Sony gute Tools abliefert, dann wird die PS4 in dieser Hinsicht für die anderen Konsolen unschlagbar sein.
Naja mal abwarten, es gibt ebenso genauso news dass man eigentlich über die neuen Konsolen noch sehr wenig konkretes weiß.
Ich kann mir aber vorstellen, dass es momentan keine große Kunst ist, eine bessere Grafik verglichen zur jetzigen Konsole zu liefern. Da dürfte schlicht und einfach schon der größere Speicher ein Vorteile sein.
Siehe WiiU und Need For Speed, die da schon PC Texturen verwenden konnte.

Naja, momentan sieht es so aus, dass ich mit einen HTPC (Für Games/Blueray 3D (Fernseher mit Tuner) und WiiU (surfen und Mario Titel) Sehr gut ausgestattet bin. Würde ich mir also noch eine neue Konsole Kaufen, hätte wohl Sony das bessere Los. Das liegt aber schlicht und einfach daran, dass zwei gute Freunde immer Sony (Gewohnheit, Markentreue) kaufen.

Es ist zwar individuell, aber ich glaub eine gute Kombination von 2 Geräten, deckt meist alle Bedürfnisse.

Btw, eine höhere Rohleistung der PS4 bedeutet jetzt nicht, dass die PS4 jetzt automatisch gewonnen hat. . Kinect oder Smart-Glas kann hier einiges an Feature mit sich bringen.
Weiters kann es gut sein, dass man die tatsächlichen Unterschiede am Ende nur bei exklusiv Titeln sehen könnte. Es kommt eben auf die Programmierer an und wie viel Geld und Zeit sie investieren wollen.

Weiteres könnte es auch so sein, dass MS sich auch an den amerikansichen Markt angepasst hat. In Amerika lasst sich eine XboX auch am ehesten verkaufen. Markentreue sollte hier kein Fremdwort sein. In Japan hat bsp meist japanische Konsolen die oberhand. XBOX wird schon den Preis und Absatz so gewählt haben, sodass es für sie ein Geschäft mit der Konsole wird.
Und noch mal, Grafik ist nicht alles. Es gibt viele Fatoren, die das Erlebnis Gaming beeinträchtigen.
BSP:
Story
Spieledynamik
Spielsteuerung
Grafik

Die Spieldauer hängt mit allen Faktoren ab. Dabei glaube ich dass Grafik meist der kleinste Grund ist, wieso man ein Spiel nicht zocken möchte. Viel schlimmer ist es, wenn die Steuerung schlecht ist, das Spiel keine Herausforderung ist ect.

Das was man Annehmen darf ist, dass die meisten Games wohl für die PS4 optimiert werden und dann die anderen Konsolen Ports bekommen werden.

MWR87
Das Design ist echt alt und hat im Vergleich zu den aktuellen CPUs (auch die der XBox360/PS3) trotz des 2MB L2 Cache des 2. Kerns Null entgegegn zu stinken.
Das war im alten DeviKit wohlmöglich so, da man angeblich teils die Hersteller falsch informiert hat und einige WiiU Games 1 Generation tatsächlich nur mit 2 Threads laufen.

Die WiiU hat aber einen 3 Core Prozessor auf 1,25 Ghz. 3 Cores, 3 threads, out of order und 3 MB l2 Cache. Weiteres gibt es anzeichen, dass es vllt eine Taktsteigerung durch ein Firmeupdate bevorstehen könnte, da Nintendo überlegt "etwas an der Hardware" zu ändern.
So ein Schritt wurde beim 3DS bei der Einführung der Vita begrüßt.
 
Zuletzt bearbeitet:
"Das was man Annehmen darf ist, dass die meisten Games wohl für die PS4 optimiert werden und dann die anderen Konsolen Ports bekommen werden."

Ich hoffe es.
 
Also zum einen ist das nur der Unterschied zwischen den GPUs (PS4 = 1152 Shader @ 800Mhz = 1.84 TFLOPS, XBox One = 768 Shader @ 800 Mhz = 1.22 TFLOPS) und nicht den kompletten Systemen und zum anderen stimmen deine Prozente nicht (Prozentrechnung ist 6. Klasse Mathe, oder?). So ist es richtig:

Die GPU der PS4 hat 50% mehr Rohleistung als die GPU der XBox One.

Haha. Stimmt, was ist denn da passiert ^^ Sollte eigentlich heißen ca. 30% weniger als PS4

Das die XBox360 sich um AA kümmern soll ist kompletter Blödsinn. Das ist technisch nicht umsetzbar. Ich frag mich auch, wie man sich so einen Quark ausdenken kann? Wie stellst du dir das vor? Soll das Bild vor der Ausgabe extra nochmal zum XBox Chip geschickt werden, damit der da mit seiner Mini-Bandbreite und seinen paar ROPs gutes Antialiasing drüber bügeln soll? Also bitte...

NEC designed eDRAM die includes additional logic (192 parallel pixel processors) for color, alpha compositing, Z/stencil buffering, and anti-aliasing called “Intelligent Memory”, giving developers 4-sample anti-aliasing at very little performance cost.


Edit:
Wer hat eigentlich behauptet dass es sich bei den 32MB embedded RAM um SRAM und nicht um DRAM handelt ... könnte mir jemand mal eine Quelle nennen? So interesse halber.
 
Zuletzt bearbeitet:
Die Rohleistung allein zählt doch gar nicht, die müssen erst mal ein Programmierer finden, der das Spiel auch auf 8 Kerne optimieren kann.

Selbst bei PC-Spielen bringt heute ein Vierkerner gegenüber einem Dualcore noch kaum Vorteile, weil man die Aufgaben einfach nicht gescheit verteilen kann. Was diese Inflation an Muticore soll ist mir ein Rätsel, ein nur hoch getakteter Dualcore würde bestimmt mehr bringen als diese acht 1,6 Ghz Schnecken!

Die GPU selber ist sicher ausreichend für jeden bunten Effekt, sobald die Spiele aber etwas wie Inhalt bekommen, werden die an der CPU bestimmt schlapp machen!
 
Zuletzt bearbeitet:
Da sony, microsoft, amd und intel Milliarden konzerne sind werden die es wohl besser wissen als du.
 
MWR87 schrieb:

Der eDRAM in der XBox360 und der SRAM in der XBox One sind zwei ganz verschieden Paar Schuhe, daas darf man nicht durcheinander würfeln!

Der eDRAM der XBox360 ist mit 256GB/s direkt an die ROPs de GPU angebunden und funktioniert daher theoretisch auch wunderbar als Framebuffer, obwohl die Größe von 10MB viel zu klein ist für Deferred Renderer mit mehr als 720p.

Die XBox One nutzt SRAM mit ledigloch 102GB/s, der zwar eine niedrigere Bandbreite hat, aber dafür auch eine niedrigere Latenz. Dieser SRAM ist an die ganze GPU und nicht nur an die ROPs angebunden.

MWR87 schrieb:
Wer hat eigentlich behauptet dass es sich bei den 32MB embedded RAM um SRAM und nicht um DRAM handelt ... könnte mir jemand mal eine Quelle nennen? So interesse halber.

Da gibt es diverse Quellen: VGleaks, Eurogamer, ArsTechnica, EDGE, etc. Das ist schon lange klar. Es wurde nur sehr lange spekuliert, ob es sich dabei um 1T-SRAM oder 6T-SRAM handelt, was sich ebenfalls auf die Latenz, aber auch auf die Die-Größe auswirken würde.
 
Die Rohleistung allein zählt doch gar nicht, die müssen erst mal ein Programmierer finden, der das Spiel auch auf 8 Kerne optimieren kann.
Wie ist das eigentlich ?
Es werden doch bei beiden Konsolen nicht alle 8 Cores verwendet ? oder täusche ich mich. Bei der XBOX One sollen bsp einige Cores ja auch für die Steuerung verwendet werden oder ?

Was diese Inflation an Muticore soll ist mir ein Rätsel, ein nur hoch getakteter Dualcore würde bestimmt mehr bringen als diese acht 1,6 Ghz Schnecken!
Sowas nennt man klassisch Aufgabenaufteilung und nein, zwei hoch getaktete Dualcore sind bestimmt was Abwärme angeht nicht so effizient, eventuell mit der Anzahl der Aufgaben überfordert und man sieht ja schon in diversen Programmen die mehr als 2 Threads unterstützen dass ein starke Dual Core hinter her ist. Zwei starke Corse sind dann wertvoll, wenn man viele Anbieter hat, die selbe Software verwendet und eine breite Optimierung gegeben ist. Sodass oft Programme nur vorherrschen wie unter Windows die meist nur 2 Threads ordentlich befeuern könne.

Weiteres kann man aus so einen "schwachen" aber sehr energieeffizienter Prozessor in einer Konsole sehr viel an Potential herausholen, so dass man zum Vergleich zu einem Desktop Modell, einen höheren Takt bräuchte (wenn man das jetzt naiv mit den Takt vergleichen möchte).
Die Performance der Cores sollte also ausreichend sein und FX ist ein gutes Bsp dafür dass viele Threads und schwächere Cores nicht langsamer sein müssen, wenn die Umgebung optimiert ist.
 
Zuletzt bearbeitet:
Leute regt euch doch nicht alle so auf. Nachdem jetzt sowohl Sony als auch MS die Katze aus dem Sack gelassen haben sollten eigentlich gerade wir Computerbaseler am feiern sein. Leistungstechnisch hängen beide Konsolen wieder mal irgendwo im aktuellen Midrange Segment rum. Gleichzeitig sind beide jetzt x86, was schon mal bedeutet, dass selbst die schlampigsten PC Ports nicht mehr so extrem viel Mehrleistung brauchen werden, wie das bisher der Fall ist.

Also sollte praktisch jeder mit einem aktuellen Highend Rechner problemlos in der Lage sein, die Next-Gen Spiele zu spielen. Man spart sich also schon mal die Kosten für die Konsole. Nachdem ein Port dann quasi dank gleicher Architektur nur noch ein Umschalten am Compiler erfordert, werden auch alle außer die 1st Party Entwickler PC Ports bringen. Man wäre ja schön dumm, wenn man sich diese quasi gratis verfügbaren Kunden entgehen lässt. Eigentlich müssten momentan in Seattle die Korken knallen. Was besseres als die neuen Konsolen hätte Valve gar nicht passieren können. Steilvorlage für Steam.

Außerdem hat keiner der beiden Hersteller mir einen Weg gezeigt, wie ich auf einen durchschnittlichen Spielpreis von <5€ komme. Auf Steam hab ich das tatsächlich hingekriegt. :lol:

Ergebnis: Diese Gen sparen wir PC Spieler extrem viel Cash^^.
 
Zuletzt bearbeitet:
AshS schrieb:
Was diese Inflation an Muticore soll ist mir ein Rätsel, ein nur hoch getakteter Dualcore würde bestimmt mehr bringen als diese acht 1,6 Ghz Schnecken!

Ob du einen Quad-Core mit 3.2 Ghz oder einen Octa-Core mit 1.6 Ghz hast macht für die Entwickler keinen Unterschied, die passen den Code dementsprechend an. Und vor allem die Sony Studios haben dank den vielen SPEs des Cell sehr viel Erfahrung mit Multi-Threading und Job Scheduling sammeln können.

Wichtig ist nur, dass beide Konsolen x86 out-of-order CPU mit topmodernen Befehlssatzerweiterungen verwenden. Das wird einen ordentlichen Leistungssprung ermöglichen.

pipip schrieb:
Wie ist das eigentlich ?
Es werden doch bei beiden Konsolen nicht alle 8 Cores verwendet ? oder täusche ich mich. Bei der XBOX One sollen bsp einige Cores ja auch für die Steuerung verwendet werden oder ?

Das ist schwer zu sagen. Ich denke in dieser Hinsicht wird Sony auch flexibler sein als MS. Ich denke Sony wird mit der Zeit immer mehr CPU-Time an die Entwickler freigeben (Killzone SF nutzt bereits 6 Kerne), bei der XBox One wäre ich mir da aufgrund der vielen Gimmicks und Dienste nicht so sicher.
 
nanoworks
Jup aber, da es doch auch irwie klar ist, dass XboX One eine etwas schlechtere Grafik haben wird, auch weniger an CPU Performance benötigen wird, oder ? Dafür kann man eben mit Gimmicks punkten :O

Ich hoffe zu mindestens dass sich das mindestens so auf 6-5 Cores einpendelt. Damit man endlich mehr Multi-Core Desktop Games / Anwendungen sehen xD

dgschrei
Blöd nur, dass 90 % der Menschheit unfähig ist, einen PC aufzumachen und rumzuschrauben oder sogar nicht mal die Mühe machen wollen, einen PC selbst zusammen zu bauen. Wenn es darum geht, einfach los zu spielen, ist eine Konsole immer noch was gutes. Auch ein Grund wieso viel auf Tablets spielen, man braucht nicht viel Know How um solche Geräte zu verwenden.
 
Zuletzt bearbeitet:
AshS, an deiner Stelle würde ich deinen Post so schnell wie möglich löschen. Wenn du etwas recherchierst, wirkst du merken wie peinlich dein Kommentar ist. Scheinst wohl die letzten 5 Jahre total verpennt zu haben.
 
pipip schrieb:
Ich hoffe zu mindestens dass sich das mindestens so auf 6-5 Cores einpendelt. Damit man endlich mehr Multi-Core Desktop Games / Anwendungen sehen xD

Ich hab aber nur 4 Kerne in meinem PC... :(
 
Der eDRAM in der XBox360 und der SRAM in der XBox One sind zwei ganz verschieden Paar Schuhe, daas darf man nicht durcheinander würfeln!

Ich würfel nix durcheinander habe mich schon beim Gamecube bzw. der Wii mit SRAM auseinandergesetzt. Mir war nur nicht klar ob statischer oder dynamischer RAM wie bei der 360 eingesetzt wird.
Aber Danke jetzt weis ich ja bescheid.

Der eDRAM der XBox360 ist mit 256GB/s direkt an die ROPs de GPU angebunden und funktioniert daher theoretisch auch wunderbar als Framebuffer, obwohl die Größe von 10MB viel zu klein ist für Deferred Renderer mit mehr als 720p.

Kann ja sein, dass dieser unterdimensioniert ist. Ändert aber nichts am ursprünglichen Einsatzzweck. Soviel zu: Ich habe mir das nur ausgedacht ;-) bzw. Quatsch war das richtige Wort. Egal, danke dir für die Aufklärung.

Die WiiU hat aber einen 3 Core Prozessor auf 1,25 Ghz. 3 Cores, 3 threads, out of order und 3 MB l2 Cache. Weiteres gibt es anzeichen, dass es vllt eine Taktsteigerung durch ein Firmeupdate bevorstehen könnte, da Nintendo überlegt "etwas an der Hardware" zu ändern.
So ein Schritt wurde beim 3DS bei der Einführung der Vita begrüßt.

Die CPU ist trotzdem lahm. Und die Architektur lässt trotz Shrink schlicht und einfach keine große Taktsteigerungen zu. Und beim 3DS wurde lediglich mehr RAM für die Entwickler freigeben welcher eigentlich für das OS Reserviert war.
 
Zurück
Oben