-
Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Xbox Series X: Technische Details zur Zen-2-CPU und RDNA-2-GPU
- Ersteller Wolfgang
- Erstellt am
- Zur News: Xbox Series X: Technische Details zur Zen-2-CPU und RDNA-2-GPU
Affenzahn schrieb:nV gibt ca. 10 Gigarays für ne 2080 Super an, MS 380 für ne Xbox. Das MÜSSEN Äpfel und Birnen sein.
Zumal man ja rein logisch davon ausgehen kann, dass dedizierte Hardware eigentlich performanter sein müsste als die Universallösung.
dediziert == weniger platz, weniger strom, aber != performanter
was es schlußendlich bedeutet wird man mit RDNA2 untersuchen können.. aktuell kann/darf dir das niemand sagen (NDA)
letsdoscience schrieb:Ist erstmal ein komischer Kompromiss,
Der "Kompromiss" ist aber auch eine ziemliche "Schummelei". So werden die AMD Grafikkarten in FPS Vergleichen bei Spielen ohne RT vermutlich mit ihren Nvidia Konkurrenten, trotz einer viel kleineren Chipgröße, mithalten können, während sie dann bei Spielen mit RT komplett einbrechen werden. Das ist aber auch nichts neues und war schon abzusehen, als der Patent seitens AMD eingereicht wurde.
Für die Konsolen bedeutet es wohl, bei Spielen auf der Xbox Series X werden wird öfters RT sehen, während bei der PS darauf verzichtet wird.
Allgough
Banned
- Registriert
- Apr. 2020
- Beiträge
- 346
Ich verstehe auch nicht was los ist mit den Preisen.Weyoun schrieb:Bin echt auf die Preise von Xbox X und PS 5 gespannt. Dürfte zu Beginn ein teures Vergnügen werden.
Habe ein Gefühl, dass Beide Konsolen verschoben werden.
W
Wadenbeisser
Gast
Einbruch ist relativ, wenn ich die Folie mit der "dual CU" Bezeichnung richtig interpretiere dann könnte die Renderleistung im Raytracing einsatz ca. halbiert werden weil dann für die entsprechenden Berechnungen 2 CUs daran rechnen aber nvidias Ansatz geht schließlich auch umsonst und geht (je nach RT Stufe) mit einem ordentlichen Leistungseinbruch einher.Inxession schrieb:Interessant, interessant ..
sollte der RT Ansatz dann auch bei Big Navi Einzug halten (was sehr wahrscheinlich ist), kann man ja eigentlich erahnen das die Leistung signifikant einbricht, sobald RT zugeschaltet wird.
Wird die geballte Power komplett ohne Raytracing genutzt, kommt einiges an Output, möchte man meinen.
Ob das dann der Türöffner für RT ist, bleibt abzuwarten.
Wäre echt mal interessant zu wissen wieviel Rechenzeit die unterschiedlichen Ansätze kosten. 🤔
menace_one
Lieutenant
- Registriert
- Okt. 2010
- Beiträge
- 1.020
Gnarfoz schrieb:Schade, dass kein Hardware-Support für AV1 dabei ist.
Sehe ich genauso und fürchte, dass wir im Desktop und vorallem im Notebook ebenfalls kein AV1 mit RDNA2 sehen werden.
Sehr, sehr schade.
Weyoun
Admiral
- Registriert
- Okt. 2010
- Beiträge
- 7.851
Wenn man zwei Konsolen und einen Gaming-PC hat, ist es auch absolut in Summe teuer.a-u-r-o-n schrieb:Hä im PC Bereich bekommst du dafür gerade mal eine "gescheite" Grafikkarte...
Teuer ist relativ...
Ergänzung ()
In Zeiten von Kurzarbeit und Arbeitszeitverkürzung (bei mir sogar beides gleichzeitig) sind 600 € kein Schnapper mehr.Ripcord schrieb:An hohe Preise sind wir durch Smartphones bereits gewöhnt. Selbst wenn die neuen Konsolen 600€ kosten wird das vielen Leuten wie ein Schnapper vorkommen. Heißt, wer nicht vorbestellt wird für mehrere Wochen/Monate leer ausgehen.
W
Wadenbeisser
Gast
Sa.Lt schrieb:dediziert == weniger platz, weniger strom, aber != performanter
Nicht unbedingt, müssen dafür Funktionseinheiten mehrfach ausgelegt werden ist der Platzgewinn auch ganz schnell dahin, vom Strombedarf ganz zu schweigen.
Maxxx800 schrieb:Was ist daran eine Schummelei?
Schummelei ist es deshalb, weil man ähnlich wie jetzt die Chips günstiger produzieren kann und vermeintlich mit der Konkurrenz mithalten kann. Dann ist Big Navi wie schon angedeutet auf dem Papier genauso schnell wie eine RTX2080(Ti) allerdings nur wenn kein RT zum Einsatz kommt.
Für manche mag das sicherlich in Ordnung gehen, für die Verbreitung von RT ist das absolut eine Fortschrittsbremse und unterscheidet sich wenig von der aktuellen Situation wo man eine 5700 gegen eine 2070 vergleicht, obwohl dem AMD Chip jegliches RT fehlt.
Wie gesagt, anders war es aber nicht zu erwarten, ich bin trotzdem auf die neue GPU Generation gespannt.
- Registriert
- Juni 2019
- Beiträge
- 8.358
Atent123 schrieb:Der arme Jaguar.
Gezwungen weit über seine Gewichtsklasse (Netbook CPU meets Konsole) zu schlagen, nur um dann noch verspottet werden.
Jaguare gehören auch nicht in die Konsole. Nur in die Garage
Der Ausblick auf RT und AI gestütztes upsampling ist interessant. Hat man bei AMD nun alles in den CUs und der Entwickler kann selbst entscheiden wie er sich die GPU aufteilt wenn ich recht verstanden habe. Bin gespannt wie gut dass Funktioniert
Affenzahn
Rear Admiral
- Registriert
- März 2017
- Beiträge
- 5.468
Auf gut Deutsch hat also nV ein neues Marketinggimmick aus dem Hut gezaubert, was ihnen jetzt mangels Vergleichbarkeit um die Ohren fliegt und der Konsument kann Äpfeln mit Birnen vergleichen und weiß trotzdem ohne Spieletests kaum bis gar nicht was er bekommt.Shoryuken94 schrieb:Das legt die Vermutung sehr nahe, dass sich die Angabe auf etwas anderes beziehen. Nvidia meinte auch mal, dass 1 Giga Ray entwa 10 TFlops an Computeperformance benötigen, macht als etwa 110 Billionen Berechnungen pro Sekunden, wohingegen Microsoft nur 380 Milliarden Berechnungen angeben , also lediglich 0,38 Billionen. Und so viel langsamer kann die AMD Lösung auch nicht sein. Von daher scheinen beide Hersteller da etwas anderes zu meinen...
*Slow Clap.
- Registriert
- Juni 2019
- Beiträge
- 8.358
Benutzt halt keiner. Ist mir zumindest noch nie unter gekommenGnarfoz schrieb:Schade, dass kein Hardware-Support für AV1 dabei ist. Das hätte dem Format vielleicht endlich den nötigen Push gegeben.
Allgough
Banned
- Registriert
- Apr. 2020
- Beiträge
- 346
Und wie soll das funktionieren?ManPon schrieb:Sony wartet auf Microsoft und Microsoft wartet auf Sony ...
Beide Konsolen werden fix im November 2020 erscheinen.
Jetzt mal ohne Witz wer wird als erstes den Preis rausrücken? Und vorallem wann aller aller spätestens?
Ripcord
Lt. Commander
- Registriert
- Dez. 2013
- Beiträge
- 1.322
Weyoun schrieb:In Zeiten von Kurzarbeit und Arbeitszeitverkürzung (bei mir sogar beides gleichzeitig) sind 600 € kein Schnapper mehr.
Bei mir nicht anders, aber da die fetten Jahre davor zurückhaltend gelebt wurde sind die Auswirkungen zumindest bei mir überschaubar. Aber jetzt sehe ich zwischen den höheren Preisen der neuen Konsolen und Bill Gates Bemühungen gegen Corona gewisse Zusammenhänge
Zuletzt bearbeitet:
T
Teralios
Gast
Jaein, bei nVidia steht die Leistung nicht wirklich parallel zur Verfügung.AndrewPoison schrieb:380 GigaRays/s klingt erst mal viel, wenn NVidias Flaggschriff auf gerade mal 11 kommt. Aber es ließt sich ja so, als ob bei AMD "entweder-oder" gefahren werden muss, wohingegen die 11 GigaRays (oder wie viel auch immer im jeweiligen Modell) bei NVidia parallel/zusätzlich zur Verfügung stehen (also die regulären Shader/Textureinheiten nicht {so stark} dafür benötigt werden)? Hab ich das richtig verstanden?
Hat etwas damit zu tun, wie diese Berechnungen ablaufen und wann welche Daten benötigt werden. Theoretisch können die RT-Cores parallel zu den TMUs belastet werden, in der Regel spielt das aber keine Rolle.
Fordert der SM die Abfrage vom BVH-Tree an, dann muss er in der Regel auf die Daten warten, bevor er zum nächsten Schritt kann.
1. Sowohl bei nVidia als auch bei AMD berechnen die CUs die "RT-Effekte". Bei beiden stehen nun aber in Hardware spezielle Funktionen zur Verfügung um die Berechnung zu beschleunigen. Die BVH-Tree-Suche findet bei AMD in speziellen Funktionserweiterungen der TMU statt, bei NVIDIA gibt es eingenständige RT-Cores. Beide beschleunigen aber in Hardware.Affenzahn schrieb:Kann mir bitte jemand erläutern warum die nicht miteinander zu vergleichen sind?
Abgesehen davon, dass AMD das in den CUs berechnet und nV eigene RT Cores hat?
Bist du Entwickler? Arbeitest du mit DXR1.2 und hast schon eine Navi2-Karte und weist mehr als wir? Oder sind das nur deine Vermutungen?xexex schrieb:Der "Kompromiss" ist aber auch eine ziemliche "Schummelei". So werden die AMD Grafikkarten in FPS Vergleichen bei Spielen ohne RT wahrscheinlich mit ihren Nvidia Konkurrenten, trotz einer viel kleineren Chipgröße, mithalten können, während sie dann bei Spielen mit RT komplett einbrechen werden.
Hier von Schummelei zu sprechen ist sehr gewagt.
Noch mal? Arbeitest du mit DXR1.2, kannst du programmieren, weißt du wie eine Grafikengine und Shader funktionieren. Hast du schon eine Navi2 und entsprechende Test gemacht?xexex schrieb:Schummelei ist es deshalb, weil man ähnlich wie jetzt die Chips günstiger produzieren kann und vermeintlich mit der Konkurrenz mithalten kann. Dann ist dann Big Navi wie schon angedeutet auf dem Papier genauso schnell wie eine RTX2080(Ti) allerdings nur wenn kein RT zum Einsatz kommt.
Und erneut: Hast du schon eine Navi2 und weißt wie das alles funktioniert.xexex schrieb:Für manche mag das sicherlich in Ordnung gehen, für die Verbreitung von RT ist das absolut eine Fortschrittsbremse.
Sorry, aber hier schreibst du massiven Bullshit zusammen, ohne dass du Ahnung von der Materie hast.
AMD fährt einen etwas anderen Ansatz, wird diesen aber auch erprobt haben. Am Ende während der Berechnung ist es allerdings vollkommen egal, ob die CU/SM die BVH-Abfrage an RT-Cores außerhalb auslagert oder an eine TMU. Hier entscheidend ist eher der allgemeine Ablauf.
Und auch bei NVIDIA laufen die Berechnungen nicht "parallel" in der SM ab, sodass sowohl Texturierung als auch BVH-Abfrage zur gleichen Zeit bearbeitet werden müssen.
Auf dem "Papier" mag "RT oder Textur" erst mal ein Nachteil sein, das ist es aber nicht. ... Manchmal wäre es echt schön, wenn Leute ihre Schwarzmalerei in ihrem Kopf lassen, gerade wenn sie keine Ahnung von der Materie habe.
Sorry Xexex, aber das nervt gerade schon ein wenig.
Haldi
Admiral
- Registriert
- Feb. 2009
- Beiträge
- 9.790
Hää.... Das ist jetzt aber ungünstig formuliert.Nvidia macht es mit DLSS vor, auch RDNA 2 soll es können. Die Rede ist von Machine Learning in Spielen und die entsprechender Beschleunigung in Hardware.
DLSS ist Deep Learning Super Sampling. Die Grafik Karte wendet ein SuperSamplig Algorithmus an der in einem riesigen Rehenzenter durch Machine Learning gefunden wurde.
Wenn die GPU da selbst Machine Learning Kann dann soll sie aber bestimmt was anderes raus finden als den Upscaling Algorithmus.
Nich unbedingt. Video Codecs waren noch nie teil der Architektur sondern immer ein dedizierter Teil der separat drauf kam.menace_one schrieb:Sehe ich genauso und fürchte, dass wir im Desktop und vorallem im Notebook ebenfalls kein AV1 mit RDNA2 sehen werden.
Sehr, sehr schade.
Kann also gut sein das die nächste Generation VCN 3.0 AV1 können wird.
https://en.m.wikipedia.org/wiki/Video_Core_Next
Ich wünsch mir ja nur 8k encoding support damit mein 5120x1440 in Vollbild aufgenommen wird.
ManPon
Lt. Commander
- Registriert
- Feb. 2005
- Beiträge
- 1.763
Natürlich ist irgendwann die "Schmerzgrenze" erreicht, allerdings haben die Hersteller ja noch einige Wochen Zeit, Thema Vorbesteller & Co.Allgough schrieb:Und wie soll das funktionieren?
Jetzt mal ohne Witz wer wird als erstes den Preis rausrücken? Und vorallem wann aller aller spätestens?
Kann natürlich auch sehr fix gehen und der Mitbewerber zieht dann gleich nach.
Sei nicht traurig, dafür gibt es ja den tollen "Boost-Mode" ...Myki schrieb:Wenn man was von 52 CUs liest und die PS5 hat 38(?). Oh man, das ist echt bitter für Leute, die auf PS5 only gehen, wie ich.
Sony hat leider zu viel an der SSD herumgedoktert und dabei die GPU außen vor gelassen.