• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Xbox Series X: Technische Details zur Zen-2-CPU und RDNA-2-GPU

Ist ja alles schön und auch ganz nett, dennoch bleibt beim "Boost-Modus" der PS5 ein fader Beigeschmack.
Warum schafft man es nicht die Leistung dauerhaft zu halten? Warum "muss" die GPU der PS5 wieder runtertakten? Man "schwankt" also zwischen 9,2 und 10,3 TF ... :rolleyes:

Dabei wurde uns doch letztens erklärt, dass die Anzahl der TF "nicht wichtig" sei.
Aber dennoch baut man einen "Boost-Modus" für mehr TF ein? Ziemlich widersprüchlich ...

Da wirkt das Konzept hinter der XBox Series X einfach schlüssiger und durchdachter.
 
Taxxor schrieb:
5-1260.jpg
 
ManPon schrieb:
Warum schafft man es nicht die Leistung dauerhaft zu halten? Warum "muss" die GPU der PS5 wieder runtertakten? Man "schwankt" also zwischen 9,2 und 10,3 TF ... :rolleyes:
Das wurde doch lang und breit erklärt und ist auch komplett logisch.

Sie schafft es schon, die Leistung dauerhaft zu halten, nur würde sie dabei je nach Spiel über die TDP Grenze gehen, für die man die Kühllösung konzipiert hat.
Der Boost Modus ist nicht für mehr TFLOPs nach oben sondern um den Verbrauch gleich zu halten und die TFLOPs ggf reduzieren zu können.
Manche Spiele lassen diese GPU bei vollem Takt und voller Auslastung z.b. 250W verbrauchen, andere aber 280W, je nachdem wie "heavy" die Spiele sind.

Damit man keine Probleme bei der Lautstärke bekommt, hat man das Kühlkonzept also für genau X Watt ausgelegt und darüber geht die Konsole nicht.
Sie verhält sich also exakt wie eine handelsübliche GPU im PC System, die ebenfalls nicht immer den gleichen Takt fährt und je nach Spiel auch mal 50-100Mhz weniger hat.

Damit ist aber gewährleistet, dass man X Watt nicht überschreitet und der Lüfter nicht lauter wird als man will, ohne dass man ihn für X + Y Watt auslegen muss, wobei Y nur in wenigen Fällen überhaupt anliegen.
 
  • Gefällt mir
Reaktionen: yummycandy
Wie wäre es dann mit einem besseren Kühlsystem und nicht dort wo es wichtig ist die letzten €/$ einsparen zu wollen? ;)

Gerade nach dem PS4 Pro "Desaster" hätte ich erwarten, dass Sony aus den Fehlern lernt.
Jetzt "drosselt" man gezielt die GPU um keinen Fön neben dem Fernseher stehen zu haben.
Ist in meinen Augen keine optimale Lösung ...
 
yummycandy schrieb:
Jaaa gut, es ging ja um die Größe des chips, da darf man schon mit 56 rechnen^^
Ergänzung ()

ManPon schrieb:
Wie wäre es dann mit einem besseren Kühlsystem und nicht dort wo es wichtig ist die letzten €/$ einsparen zu wollen? ;)
Das Kühlsystem der PS5 wird wohl mit das teuerste an der ganzen Konsole sein.

ManPon schrieb:
Gerade nach dem PS4 Pro "Desaster" hätte ich erwarten, dass Sony aus den Fehlern lernt.
Jetzt "drosselt" man gezielt die GPU um keinen Fön neben den Fernseher zu bekommen.
Ist in meinen Augen keine optimale Lösung ...
Für mich ist es die optimalste Lösung, so kann das Kühlsystem auf genau einen Verbrauchswert hin optimiert werden um genau dort das optimale Verhältnis aus Lautstärke und Kühlung zu bieten.

Es hat schon einen Grund warum GPUs das schon seit Jahren so machen und sich vom festen Takt entfernt haben.
 
  • Gefällt mir
Reaktionen: yummycandy
Taxxor schrieb:
Das Kühlsystem der PS5 wird wohl mit das teuerste an der ganzen Konsole sein.
Wie kommt man denn zu diesem Schluss? Noch dazu bei Sony ...

Die 1 Gramm Flüssigmetall-Wärmeleitpaste wird schon nicht so teuer sein. :evillol:
 
ManPon schrieb:
Wie kommt man denn zu diesem Schluss? Noch dazu bei Sony ...
Das wurde schon recht am Anfang des Jahres mal berichtet
https://www.playstationlifestyle.net/2020/02/14/playstation-5-price-parts-cost/
People informed about the company’s operations say Sony has most of PS5’s components ready to go. Even the cooling system is accounted for, though it bears an atypically high price of its own. Bloomberg reports Sony wants to “lavish more on making sure heat dissipation from the powerful chips housed inside the console isn’t an issue.”

Kürzlich hieß es doch auch, dass die PS5 teurer werden wird als die Series X
 
Shoryuken94 schrieb:
Eine APU ist auch nur die Bauform! Du kannst im Grunde jede beliebige GPU mit CPU in einen Chip packen. Die Series X APU ist schließlich auch größer und braucht mehr Strom, als manch eine Grafikkarte... Du kannst auch eine APU bestehend aus 64 Kern Threadripper und ner Titan basteln, die dann 600 Watt unter Last wegballert.

Und trotzdem bleibt es eine APU, egal was du nun versuchst zu erklären, was wieder auf die selber Ausgangsbasis zurückführt.

Ansonsten schocken mich irgendwelche Theoretischen Werte, wo wir nicht genau wissen, ob Sie vergleichbar sind nicht. Aber ich sag mal so. Ich habe bei den bisher bestätigten Raytracingtiteln für die Konsole noch keins gesehen, was auf die 38 Fache Raytracingperformance schließen lässt (oder auf eine 8 fache). Aber das kannst du mir gerne Zeigen. Alle bisher gezeigten Konsolen Spiele mit RT hatten ähnliche Limitationen, wie aktuelle Titel.

Dir ist schon klar, dass wir von RDNA2 reden? Da die neuen Konsolen noch nicht draußen sind, so verwundert es mich schon über die RT-Leistung bescheid zu wissen und dies vergleichen zu wollen und schon als ungenügend zu beschreiben. 🤔

Und vielleicht solltest du genauer Lesen, was ich geschrieben habe. Ich habe nie gesagt, dass die Leistung des Xbox Chips enttäuschend ist, sondern dass es spannend wird, wie AMD mit der RDNA2 Architektur konkurrieren wird. Das bezog sich im übrigen nicht nur auf RT, sondern auch die AI Komponente. Wenn AMD das wirklich ohne groß zusätzlich Transistoren schafft, sehr gut. Aber das wissen wir halt bisher nicht.

Dann lese doch erst einmal das was du geschrieben hast:
Shoryuken94 schrieb:
Im Grunde alles wie erwartet, aber für mich schon leicht enttäuschend auf Hinblick auf RDNA2.

Und jetzt erkläre nochmals bitte, dass du die Sache mit der Enttäuschung nicht geschrieben hast. Da bin ich jetzt einmal gespannt auf die wundersame Lösung. 😁

Und da begeben wir uns wieder ins Land der Mythen und Annahmen und stellen Theorien auf, für die es keine Belege gibt, auf Grundlage von theoretischen Werten. Warte es doch einfach ab, bis wir fertige Hardware sehen, zumal hier ein noch nicht erschienener Chip mit einer 2 Jahre alten Grafikkarte verglichen wird. Und noch mal, bislang wissen wir nichts über die tatsächliche Leistung und auch nichts über die Vergleichbarkeit der Werte.

Das was du schreibst macht doch absolut keinen Sinn. Natürlich wird beides gehen, denn wie soll es denn sonst funktionieren?
Wenn man allerdings davon ausgeht, dass AMD so doof ist und entweder nur RT oder eben nur Rasterize als Auswahl bereit hält, so kann man deine Antwort gelten lassen.

Aber ich gehen mit sehr viel größerer Wahrscheinlichkeit davon aus, dass AMD dies sehr genau weiß und dies schon getestet hat und man es durchaus als positiv betrachten kann. Auch wenn es dir missfallen mag. 😊
 
Wenn ich RTRT nur für Beleuchtung nehme, dann sollten in den meisten deferred render engines doch ohnehin keine Konflikte in den TMUs zwischen Textur <-> RT BVH berechnung auftreten, oder? Vielleicht werden Reflexionen einfach kostspieliger als Effekte wie global illumination.
 
xexex schrieb:
Wieso sollte Nvidia eine neue Technologie entwickeln und die dann "für alle" zur Verfügung stellen? Würde dann überhaupt noch irgendein Hersteller Geld in die Entwicklung neuer Technologien stecken?

wenn nvidia wenigstens selbst entwickeln würde. die nehmen sich teile von bereits existierenden technologien und packen das in ein proprietäres nvidia paket und fertig ist die chose.

physx stammt von ageia, die damals externe pci add-in physikbeschleuniger verkauft haben. nvidia kauft ageia, killt die marke, und integriert die damals für alle zugängliche technologie in die geforce karten und auf einmal haben ~40% der spieler (mit ati karte) keinen zugriff mehr auf physx, weil das ding nur noch mit geforce karten läuft. weil einige gerne ihre starke ati karte behalten wollten, haben die sich für die physikbeschleunigung eine günstige geforce als 2.karte ins system gesteckt, was nvidia dann per treiber unterbunden hat. weil das aber nicht genug ist, integriert nvidia für die cpu emulation auch noch extra langsamen code.

gameworks, im speziellen tessellation, das die basis für 80% aller gameworks effekte ist, ist eine nativ in DX11 vorhandene erweiterung.
nvidia geht also her, schnappt sich die dx11 erweiterung, optimiert die eigenen karten auf enorme geometrielast durch tessellation und schiebt die dx11 tessellation (2009) als radeon performance killer früher in einzelnen "the way its meant to be played" titeln und später unter dem namen "gameworks" wieder zurück in den markt.

ryan smith von anandtech schreibt im gtx 480 review
With the results of these tests, there’s no reason to doubt NVIDIA’s claims about GF100’s tessellation abilities. All the data we have points GF100/GTX 480 being much more powerful than the Radeon 5000 series when it comes to tessellation.

But with that said, NVIDIA having a more powerful tessellator doesn’t mean much on its own. Tessellation is wholly dependent on game developers to make use of it and to empower users to adjust the tessellation levels. (wir wissen, dass nur amd einen regler für die tessellationsauflösung einführen wird) Currently every DX11 game using tessellation uses a fixed amount of it, so NVIDIA’s extra tessellation abilities are going unused. This doesn’t mean that tessellation will always be used like this, but it means things have to change, and counting on change is a risky thing.

NVIDIA’s superior tessellation abilities will require that developers offer a variable degree of tessellation in order to fully utilize their tessellation hardware, and that means NVIDIA needs to convince developers to do the extra work to implement this. At this point there’s no way for us to tell how things will go: NVIDIA’s superior tessellation abilities could be the next big thing that seperates them from AMD like they’re shooting for, or it could be the next DirectX 10.1 by being held back by weaker hardware. Without some better sense of direction on the future use of tessellation, we can’t make any recommendations based on NVIDIA’s greater tessellation performance.

wir wissen auch alle, wie sich das bspw. in the witcher 3 mit hairworks vs tomb raider mit TressFX entwickelt hat.

https://www.hardwareluxx.de/index.p...d-tressfx-und-nvidia-hairworks-im-detail.html

gsync wurde im oktober 2013 vorgestellt und läuft natürlich nur über einen nvidia exklusiven zusatzprozessor. ebenfalls 2013, aber schon im januar, wurde DP 1.2a mit der adaptive sync erweiterung released. erst 2019 erlaubt nvidia die nutzung des vesa adaptive sync standards, allerdings wird durch einen marketingschachzug, ermöglicht durch die enorme marktmacht von nvidia, vesa adaptive sync und amd freesync quasi vom markt gewischt, und durch "nvidia gsync compatible" ersetzt.


nvidia ist kein technologietreiber.

physX kommt von ageia.
tessellation kommt von microsoft.
adaptive sync kommt von vesa in kooperation mit amd, die den offenen standard durch "freesync" verbreitet haben.
dx12 und vulkan kommen von microsoft und amd (mantle) + khronos group.
die herkunft von DXR als dx12 erweiterung muss auch nicht weiter erklärt werden.

raytracing ist das aktuelle buzzword für nvidia, das so lange geritten wird, wie nvidia das ding fürs eigene marketing ausnutzen kann. danach kommt wieder was anderes.

nvidia pickt sich nur die rosinen und nutzt vorhandene technologien aus, um die eigene marktmacht weiter auszubauen. und das wars.
 
  • Gefällt mir
Reaktionen: Haldi, TBrandes, DrCox1911 und 2 andere
Myki schrieb:
Euer Wort in Gottes Ohr. Ich hoffe wirklich, dass ihr da recht habt.

Ist wie schon gesagt wurde 2 unterschiedliche Ansätze/Philosophien.

Ähnlich wie bei einen Ford Mustang V8 5.0 Liter und Porsche 2.0 Liter Turbo.

Die Entwickler müssen sich am Ende damit auskennen, die Leistung ist bisher nur schwer abzuschätzen, da es vor Ende 2021 kein anständiges Material geben wird, was die Leistung effizient abruft.
 
duskstalker schrieb:
nvidia pickt sich nur die rosinen und nutzt vorhandene technologien aus, um die eigene marktmacht weiter auszubauen. und das wars.
Man könnte hier ja sogar anmerken, dass die "DX8"-Technologie ja eigentlich von 3dFX kommt und man auch nur durch deren Zukauf wirklich die GeForce3 machen konnte.

Oder SLI, was ja auch eher ATi als auch 3dFX hatten. NVIDIA? Nachzügler.

Oder die TensorCores, alles andere als NVIDIAS-Erfindung, im Endeffekt hat hier NVIDIA auch nur Ideen von anderen Aufgegriffen und stellt sie als ihre Innovation hin, stimmt aber nicht! Da war Google vorher da. ;)

Okay, ein mal ist es eine böse Verschwörungstheorie von mir, einmal die halbe Wahrheit und das letzte stimmt, könnt ihr selbst nachprüfen!

Im Endeffekt ist es aber auch egal, NVIDIA hat im Konkurrenzkampf mit 3dFX eines gelernt: Nicht die beste Hardware oder die erfindungsreichste Hardware ist entscheidend, sondern die Software-Infrastruktur sowie Marketing!
 
  • Gefällt mir
Reaktionen: Obvision und duskstalker
Gortha schrieb:
Ab jetzt wird sich das Blatt bei der Optimierung von Game-Engines von Multiplattofrm-Titeln zu Gunsten von AMD wenden. Jede Zen2(und neuer) CPU wird wohl besser als Intel abschneiden :smokin: :smokin: :smokin: :smokin: :king:

hätte aber auch schon mit PS4 bzw. Xbox one so sein müssen war ja auch AMD CPU/GPU verbaut 🤷🏻‍♂️
 
Allgough schrieb:
Ist das wirklich so? Kann die Xbox Series X nur 399,-€ kosten bei der Hardware?
Oder die PS5 geht auf 599 Disc und 499 digital, während die Xbox 499 kostet, womit man sagen könnte, dass sie mit Disk teurer ist^^
Ergänzung ()

Benji18 schrieb:
hätte aber auch schon mit PS4 bzw. Xbox one so sein müssen war ja auch AMD CPU/GPU verbaut 🤷🏻‍♂️
Aber keine CPU die man so im Desktop Markt findet. Das ist ja hier nun der Fall.

Bei der GPU stimmt es allerdings, hatte ich ja auch schon erwidert^^
 
  • Gefällt mir
Reaktionen: Benji18
Benji18 schrieb:
hätte aber auch schon mit PS4 bzw. Xbox one so sein müssen war ja auch AMD CPU/GPU verbaut 🤷🏻‍♂️
Nein, Jaguar/Puma ist vom Grundaufbau her - also Infrastruktur - wesentlich näher an Intel-CPUs dran, als nun Zen/Zen+ und Zen2.

Zudem darf man nicht vergessen, dass die SDKs für die Konsolen noch mal wesentlich weiter optimiert werden können, da die Hardware weitgehend bekannt ist und deren Fähigkeiten. Es ist daher wesentllich einfacher (1.) schlanke als auch (2.) optimierte Binaries zu erstellen. Für den PC muss man einiges mehr beachten.

Dazu kommt auch noch weiter, dass die Infrastruktur anders aufgebaut ist. Die PS4 als auch PS5 nutzen ein Unified-Memory mit sehr hoher Bandbreite, auch das spielt hier rein.

Oder kurz: Auch wenn in den Konsolen AMD-Prozessoren genutzt werden, gibt es drastische Unterschiede zum PC, angefangen bei der Hardware-Infrastruktur bis hin zu der Sofware und damit verbunden SDKs.
 
Gamefaq schrieb:
Hätte hätte Fahrradkette . Wen interessiert was AMD im stillen Kämmerlein eventuell (woohooo verschwörung , Glaskugel lesen blablabnla) getan hat?! Keiner von euch weiß es also lasst die Kirche im Dorf! Effektiv hinken sie hinterher und das deutlich. Den Rest wird die Zukunft zeigen.
Ich werde nicht hier mit Fanboys spekulieren was sein könnte , es zählt nur was ist. Und stand jetzt ist die Art wie es AMD integriert hat mehr eine Alibi Funktion = für die Feature Checkliste gedacht damit man sagen kann, man hat es auch. Ob und wie gut es genutzt wird , wird die Zukunft zeigen. Die Konsolen/neuen AMD Grafikkarten sind nicht mal erschienen. Da macht Spekulation keinen Sinn. Damit bin ich hier direkt raus aus der Diskussion weil die kann ich mit Fanboys nur verlieren. Denn mir ist es egal wer die Technik baut ich nutze AMD sowie nvidia so das das Gesamtergebnis mir passt.
Hi

Naja es nehmen sich beide nichts.
Diesmal hängt halt AMD kurz bei RT nach.

So oft wie Nvidia nachgehangen sollte man auch fair bleiben und dies erwähnen. Wenn schon den schon.

Supersampling.
PS. 1.4
Truform
DX10
DX12
Vulkan/Mantel
TV Outs

Da kann man noch genug aufzählen.

Das kommt nur so vor das AMD nachhängt, weil die meisten nur auf Fps Balken gucken und jetzt halt RT.

Nochmal was meine 7790 an Features dazu bekommen, da kannst bei Nvidia lange warten.

Man sollte schon differenzieren.
Nach der Logik hat Nvidia massig in den letzten Jahren nur Alibimässig "Check Features" integriert.
Nvidia ist mehr als oft von den Features im Hintertreffen gewesen.


Gruss Labberlippe



xexex schrieb:
Es gibt bis heute keine Vulkan RT API, die Spiele die mit RT und Vulkan hergestellt wurden, unterstützen logischerweise kein DXR sondern basieren auf Nvidias RTX Erweiterungen.

Anders ausgedrückt, es sollten theoretisch alle DXR Spiele auch auf AMD Grafikkarten laufen, wenn der Hersteller nicht einer Abfrage eingebaut hat, es ist aber unwahrscheinlich, dass auch die Vulkan Spiele mit RT einfach so auf AMD Karten funktionieren.
Hi

Ach und AMD kann keine Erweiterungen ein bringen.
Dir ist schon klar was Vulkan ist.

Gruss Labberlippe
 
Zuletzt bearbeitet:
Otsy schrieb:
Dass nVidia Mitglied des Khronos-Konsortiums ist bekamst du mit?

Und? Mitglied zu sein bedeutet nicht die Geschicke zu lenken. Anscheinend war RT für den Rest nicht so wichtig und dann können sie sich auch nicht beschweren, wenn in der Zeit bereits Fakten geschaffen werden.

Labberlippe schrieb:
Ach und AMD kann keine Erweiterungen ein bringen.

Natürlich kann auch AMD eigene Erweiterungen einbringen, nur läuft dann ein Spiel was auf AMDs Erweiterungen aufsetzt nicht auf Nvidia Hardware und umgekehrt sieht es genauso aus. Den Zirkus hat man bei OpenGL schon zu genüge getrieben und anscheinend sind die Umsetzungen soweit verschieden, dass auch Microsoft erst eine neue DXR Version entwickeln musste um beide unter einem Hut zu kriegen.
 
Da wir hier ja sowieso etwas wild spekulieren, hier noch ein Spekulatius dazu: vielleicht hat MS ja soviel Gedöns um die AVX256 Fähigkeiten des neuen SoCs gemacht, weil damit auch Raytracing gemacht bzw unterstützt werden kann? AVX, v.a. die größeren Varianten (256 und 512) kann das nämlich recht gut, und die Zahlen die MS genannt hat sind einigermaßen beeindruckend.
 
Zurück
Oben