Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsXbox Series X: Technische Details zur Zen-2-CPU und RDNA-2-GPU
Fehlt nurnoch Windows 10 vor installiert auf der XBOX Series X mit voller Tastatur und Maus Kompatibilität.
Zen 2 CPU genug performance für allerlei Windows Aufgaben und die Konsolen RDNA 2 GPU befeuert sämtliche XBOX games oder auch PC games mit einem besseren Preis / Leistungsverhältnis als es Gaming PC's nur könnten...
Der Todestoß für Nvidia in sachen Gaming.
AMD und Microsoft würden so alle anderen Hersteller die derzeit an einem Gaming PC von den Komponenten her beteiligt sind regelrecht zerstören. Wozu noch ein Computer wenn so ne Konsole auf der Windows 10 läuft alles besser kann zu einem günstigeren Preis ?
Weil das das typische Vorgehen von nvidia ist. Das ist über die letzten Jahrzehnte viele Male passiert: Physx, Gameworks, Gsync und RTX, wobei man bei letztem aufgrund mangelnder Konkurrenz noch keine konkreten Effekte sieht.
Geforce Partner Programm sei hier auch mal noch erwähnt.
Nvidia macht nie was für "alle". Es geht immer nur um das ausbooten der Konkurrenz über ihre Marktmacht hin zum Monopol.
Dann solltest du dich bei der Khronos Gruppe beschweren wieso sie über zwei Jahre für eine RT API benötigen oder bei AMD wieso sie ebenfalls so lange für die eigene Implementierung von RT gebraucht haben. Wieso sollte Nvidia eine neue Technologie entwickeln und die dann "für alle" zur Verfügung stellen? Würde dann überhaupt noch irgendein Hersteller Geld in die Entwicklung neuer Technologien stecken?
Wie der Abfrage- und Verarbeitungspfad bei RDNA2 aussieht, wissen wir noch nicht offiziell. So kann es durchaus sein, dass pro CU ein Kontextwechsel stattfinden muss und somit eine CU entweder komplett als Textureinheit oder die BVH- Traversal- Einheit herhalten muss. Eine Logik innerhalb der CUs, die beides Rückmelden würde, müsste wiederum zusätzliche Transistoren für Cacheaufteilung und zursätzlichen Steuerungseinheiten zur Verfügung stellen, was den Vorteil der schlanken Struktur schnell wieder egalisieren würde.
Für eine Kleinstspeicherkoherenz stelle ich mir das Gerade im Bereich des Raygens zudem nicht vorteilhaft vor, wenn man innerhalb der CUs wechselt.
Zudem kann das BVH- Traversal sehr wohl asynchron ablaufen, wenn die Beschleunigungsstruktur erstmal steht.
Du kannst die Hit-/Miss (oder abgeleitete Varianten) Informationen ja auch bündeln und erst im Anschluss durch die Effekt- Shader schicken. Das ist im Übrigen eine der Optimierungen, die in die aktuelle UE4 Revision geflossen ist.
Man munkelt ja in Sachen Ampere, dass die BVH Einheit um eine FF Einheit ergänzt wurde, die automatisiert eine effiziente Beschleunigungsstruktur erstellt und verwaltet.
Das ist noch eine der größeren Performancehürden in Sachen RTRT.
Ansonsten kann der Workflow tatsächlich so ablaufen, wie Du das beschrieben hast.
Wissen wir aber alles wie bereits zu Anfang erwähnt noch nicht offiziell...
Ergänzung ()
Taxxor schrieb:
Wie ich den Artikel verstehe, wären nur nicht 2 Textur und 2 BVH Anfragen an die TMU gleichzeitig möglich, was laut dir aber in der Praxis sowieso idR nicht vorkommt.
Zu ersterem wahrscheinlich eben nicht. Was einer der Nachteile wäre, da man halt doch auslastungstechnisch Einheiten links liegen lässt bzw. noch mehr Einheiten um Ressourcen rittern müssen, als sie es bei Turing taten.
Ein effektives Management auch in Sachen Timing wird aufwändiger, was aber nicht heissen muss, dass AMD den Aufwand nicht betrieben hätte. Dann wird aber der Anteil der FF Einheit innerhalb der TMU auch wieder mehr Fläche in Anspruch nehmen.
Ist aber alles noch hätte hätte Fahrradkette, denn einige kritische Punkte in der Art und Weise, wie Verarbeitet werden kann, gehen eben bis jetzt aus keinem der zugänglichen Daten hervor.
Also Vorsicht. Auch Teralios Ausführungen gehen von (wenn auch logischen) Annahmen aus. Diese gehen aber nicht zwingend aus den bekannten Daten der Besdhreibung des Vorgangs über die TMU hervor.
Natürlich habe ich den Post gelesen und ich verstehe auch den Hintergrund. Rohleistung wird nie 100% in Frames umgesetzt. ABER ich habe ja erläutert warum am Ende doch 20% mehr rauskommen KÖNNTEN: die Hardware der XBox ist auf GPU Seite dermaßen überlegen, dass Sony den Nachteil der CUs (52 zu 36, also ca. 30% weniger) mit Takt ausgleichen muss, was auf dem Papier zu 20% weniger Gessmteistung führt (12 zu 10TF). Die Aussage war nun, dass diese 20% Rohleistung nicht in 20% Unterschied münden werden, dem stimme ich zu, allerdings habe ich die Befürchtung geäußert, dass die PS5 bei solch hohen Taktraten throttled (und heißer und lauter wird) und das könnte dafür sorgen, dass real mindestens 20% weniger FPS rauskommen. Ich finde das durchaus nicht unrealistisch und finde das wirklich krass, was Sony da an Substanz fehlt. MMn ist die PS5 eine komplette Fehlkonstruktion verglichen mit der XBox Series X und selbst die alte XBox ist nicht wirklich weit weg. Sowohl Hardware als auch Design sind deutlich hinter der XBox. Wenn sie dann auch noch teurer und lauter wird...
PS5 Pro wird nach spätestens zwei Jahren erscheinen.
Auch wenn die XBox Series X das potentere System im Vergleich zur PS5 ist, kann es sich Sony nur sehr schwer erlauben bereits nach 2 Jahren eine Pro Version auf den Markt zu werfen. Die PS4 Pro kam 3 Jahre nach der normalen PS4, früher erwarte ich auch keine PS5 Pro.
Sony würde massiv an Vertrauen verlieren wenn man die eigene Konsole so schnell "absägt".
Bitte an der Stelle unterscheiden zwischen Asynchronität und wirklicher Nebenläufigkeit. Entscheidend ist hier immer die Abhängigkeit der Daten innerhalb des Shaders. Benötigt man das Polygon "X" um Texel „X" zu bekommen um dann den Farbwert Y zu bekommen, dann pausiert der Shader mit der Abfrage zu Texel X, bis er Polygon X hat, egal ob du nach dem Polygon X asynchron suchst oder nicht.
Wie gesagt, es gibt hier zwei Eben, die man beachten muss und auf Software kann man gewisse Abhängigkeiten nicht einfach lösen.
.Sentinel. schrieb:
Du kannst die Hit-/Miss (oder abgeleitete Varianten) Informationen ja auch bündeln und erst im Anschluss durch die Shader schicken. Das ist im Übrigen eine der Optimierungen, die in die aktuelle UE4 Revision geflossen ist.
Ist mir alles bekannt, aber auch hier gilt: Abhängige Berechnungen führt der Shader erst aus, wenn er die entsprechende Daten hat. Schau dir dir die Shader in der Ue4 an, ich habe es getan und auch hier: Sobald nachfolgende Berechnungen von einem Polygon, Texel und Co abhängig sind, geht der Shader (Programm) schlafen, bis er die Daten hat.
.Sentinel. schrieb:
Wie der Abfrage- und Verarbeitungspfad bei RDNA2 aussieht, wissen wir noch nicht offiziell. So kann es durchaus sein, dass pro CU ein Kontextwechsel stattfinden muss und somit eine CU entweder komplett als Textureinheit oder die BVH- Traversal- Einheit herhalten muss.
Richtig, wie es genau aussieht, kann man noch nicht sagen, nur die Patente als auch die Papers zu GCN als auch RDNA lassen mögliche Schlüsse zu. AMD war schon zu GCN Zeiten bemüht, die "Kontextwechsel" so zu gestalten, dass diese mit keiner "Latenz" einher gehen und so recht flexibel die CU aus gelastet werden können.
Wobei es hier nicht die CU - als ganzes - sondern die TMU die hier ggf. einen Kontext-Switch braucht. Aber da wird man abwarten müssen. Denn auch hier gibt es einige Lösungen.
Aber die CPUs con PS4 und Xbox One sind so veraltet (Jaguar-Kerne), dass egal wie optimiert Spiele sind, die aktuelle Intel und AMD CPUs sind Meilenweit vorne.
Dann solltest du dich bei der Khronos Gruppe beschweren wieso sie über zwei Jahre für eine RT API benötigen oder bei AMD wieso sie ebenfalls so lange für die eigene Implementierung von RT gebraucht haben. Wieso sollte Nvidia eine neue Technologie entwickeln und die dann "für alle" zur Verfügung stellen? Würde dann überhaupt noch irgendein Hersteller Geld in die Entwicklung neuer Technologien stecken?
Also bisher hat es sich für mich als Leihen so angehört das nVidias Ansatz viel performanter ist als der von AMD.
Aber nach deiner erklärung würde ich jetzt das so verstehen das es wie schon bei nVidia auch bei AMD zum Leistungseinbruch bei RT kommen wird.
So wie ich das sehe nehmen sich die Ansätze nix.
NV SM stellt Anfrage an (wieviele?) RT Core und wartet auf Antwort, steht in der Zeit nicht für klassisches Rendering zur Verfügung und setzt den Effekt dann um sobald Antwort da ist.
AMD CU stellt Anfrage an seine 4? TMU, wartet auf Antwort und steht in der Zeit nicht für klassisches Rendering zur Verfügung und setzt den Effekt dann um sobald Antwort da ist.
Wie es denn performt oder ob es Flaschenhälse gibt wird man sehen.
AMDs Ansatz spart in dem Moment an Fläche, weil es keine extra RT Cores braucht und auch nicht
immer mehr davon, bei mehr Shadern.
AMD kann also theoretisch, wenn sies auszulasten im Stande sind, viel mehr Shader auf dieselbe Chipfläche unterbringen ohne grossartig auf RT Leistung verzichten zu müssen.
@Myki dafür muss man halt Abwarten ob die PS5 dahingehend Probleme hat. Bisher weiß man nicht ob sie Temperaturprobleme haben wird, wir wissen ja nicht einmal ob die Xbox leise ist obwohl sie erstmal so aussieht der Rest ist halt Theorie und es ist leider nicht direkt bekannt welcher Einfluss hier das Kraut fett macht.
Für mich jedenfalls zählen andere Dinge als Rohrleistung beim Kauf. Denn diese hab ich auch auf dem PC
@PS828 Man kann mangelnde Leistung aktuell wirklich nur mutmaßen, aber der hohe Takt (man siehe dazu Desktop Taktraten) gepaart mit dem relativ kleinen Gehäuse spricht dafür, dass die Kühlung bei Last am Anschlag arbeiten wird.
Ich habe keinen Spiele PC und werde mir aus diversen Gründen eine PS5 kaufen. Wenn ich aber sehe, was eine XBox aus der gleichen Hardwarebasis herausholt, vor allem die massiv höhere Zahl an CUs, dann frage ich mich schon, wie das sein kann. Entweder hat die Spionageabteilung von Sony gedacht, dass die Xbox auch nur um die 36 CUs haben wird oder man meinte, dass man das mit hohem Takt regeln kann. Das PS5 Konzept ist mir nicht wirklich klar.
Edit: ich habe mir nochmal die Meldung vom März angeguckt, da wurde noch vom Boost Modus gesprochen, während die XBox immer vollen Takt fährt, weil halt niedriger getaktet. Und dann habe ich mir nochmal die Taktraten der 5700xt angeguckt, die zwar die erste Generation der RDNA Karten darstellt, aber dennoch kann man davon ausgehen, dass es einen Grund hat, warum man 1700Mhz +/- fährt. Die PS5 taktet bis zu 2,23Ghz. Das ist doch Wahnsinn. Ich bleibe dabei, die Performance der PS5 wird deutlich schlechter als die der XBox.
Warum haben sie GPU Physx hinter ihrer hauseigenen API versteckt, den CPU Fallback für den Spiele Einsatz bis heute im Singlethread Einsatz belassen (ist ja nur 10 Jahre her das dies für Version 3.0 angekündigt wurde,
NVIDIA PhysX System Software krebst noch auf SDK Version 2.x rum. Version 3.x kommt wohl nur im Bezahl Sektor zum Einsatz.) und sich ewig gegen das standardisierte Adaptive-Sync, besser bekannt als FreeSync, gesperrt? Weil sie es können und damit Verkaufszahlen und Gewinne sichern.
Gerade bei nvidia bin ich bei solchen Aussagen skeptisch und glaube es erst wenn ich es sehe.
Entweder hat die Spionageabteilung von Sony gedacht, dass die Xbox auch nur um die 36 CUs haben wird oder man meinte, dass man das mit hohem Takt regeln kann. Das PS5 Konzept ist mir nicht wirklich klar.
36CUs mit hohem Takt sind eben für den Chip bedeutend günstiger als 52CUs, außerdem hatte Cerny bei der Präsentation ja auch angesprochen, dass die CUs auch ausgelastet werden müssen und z.B. 40CUs mit 1,5GHz zwar die gleiche TFLOP Zahl haben wie 30CUs mit 2GHz, aber die Variante mit 30CUs diese mit dem höheren Takt entsprechend besser auslasten kann und so am Ende schneller ist/mehr von der Rohleistung auf den Schirm bringt.
Myki schrieb:
der hohe Takt (man siehe dazu Desktop Taktraten) gepaart mit dem relativ kleinen Gehäuse spricht dafür, dass die Kühlung bei Last am Anschlag arbeiten wird.
Das Konzept der PS5 sieht ja vor, dass der Verbrauch immer konstant gehalten wird, die Kühlung wird also immer genau das gleiche leisten müssen, was den Vorteil hat, dass man sie nur auf diese einen Verbrauch hin optimieren muss, während bei der XboX die Konsole mal mehr und mal weniger verbraucht und die Kühlung entsprechend reagieren muss.
@Myki kleinerer Chip beideutet bessere Ausbeute und günstiger.
Der große Xbox Chip wird zudem recht niedrig Takten. Sind halt zwei Philosophien. Dann noch das Auslastungsargument. Sind zwei verschiedene Herangehensweisen und beide können gute Produkte hervorbringen.