• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Xbox Series X: Technische Details zur Zen-2-CPU und RDNA-2-GPU

Taxxor schrieb:
36 hat sie^^ Die Anzahl der CUs sagt aber erst mal überhaupt nichts aus, auch die TFLOPs nicht wirklich, denn die gehen immer davon aus, dass die CUs vollständig ausgelastet werden, was bei derer 52 schwieriger ist als bei 36, vor allem mit deutlihc geringeren Taktraten.

Beispiel: 2080Ti vs 2080 Super.

Im CB test taktete die 2080Ti FE so mit ca 1800MHz, die 2080 Super kommt auf 1900MHz.

Die 2080Ti hat 4352 Cores, die 2080 Super nur 3072.

Macht in Summe 15,67 TFLOPs für die 2080Ti und 11,67 TFLOPs für die 2080 Super.

Das ist ein Unterschied von 34,3% in der Rohleistung.
Was kommt in den GPU Tests üblicherweise raus? Die 2080Ti ist gerade mal 22% schneller als die 2080 Super.

34% mehr Rohleistung für 22% mehr Performance, das ist ein Faktor von ca 0,65 mit dem die Rohleistung in reale FPS skaliert.
Und das sind bereits die 4K Zahlen, wo die 2080Ti in seltenen Fällen noch was aus ihren 11GB VRAM holen kann, in 1440p sind es schon nur noch 17%.


Die Series X und die PS5 trennen 20% in der Rohleistung, die Xbox wird aber vmtl genauso an der nicht linearen Skalierung der Cores leiden, nimmt man den gleichen Faktor wie bei der 2080Ti, würden von den 20% Rohleistung noch 13% an realer Mehrperformance übrig bleiben.

Und was sind 13%? Damit lässt sich z.B. ein Spiel, welches auf der PS5 nur 50fps erreicht auf der Series X auch nicht auf 60fps heben, also lauifen beide mit 30fps, wo dann die Xbox evtl irgend ein kleines Detailsetting mehr hochsetzen könnte als die PS5

Schön und gut, aber die Rohleistung ist natürlich trotzdem deutlich höher. Auch wenn es offiziell 12 zu 10Tflops sind, so muss man ja noch damit rechnen, dass die PS5 throttled bei den hohen Taktraten. Ich gehe davon aus, dass am Ende 20% mehr Frames rauskommen, weil die Rahmenbedingungen einfach viel besser sind.
 
@Myki eben nicht. Hast du seinen Kommentar überhaupt aufmerksam gelesen? Er erklärt doch warum dies eben nicht der Fall sein wird :D
 
Drei Kommentare:
1. Der kleinere L3 Cache für die Zen2 CPUs ist zwar etwas schade, aber der Vergleichstest der Desktop Renoirs vs. 3000 Ryzens hat ja schon gezeigt daß der monolithische Die sehr gut mithalten konnte, trotz viel kleinerem L3 Cache. Scheint eben doch so zu sein, daß der CCX/chiplet Ansatz einiges an Performance frisst, was aber durch extra L3 Cache wettgemacht werden kann.
2. Ja, Raytracing mit dedizierter Hardware wäre wohl besser, aber hier gibt's zwei Gründe weil dem wohl nicht so ist: a. MS/AMD hätten um NVIDIAs Patente herum basteln müssen was sich aber b. nicht lohnt für Konsolen. Es gibt eben keine "console powered by NVIDIA", wenn z.B. die PS5 mit Custom NVIDIA daher kommen würde, wär die Situation anders.
3. Angenommen daß AMD dedizierte Raytracing und KI cores bauen kann (technisch und rechtlich) wären sie ja auch schön blöd die nicht für ihre zukünftigen Big Navis in Reserve zu halten. Irgendwie müssen sich die 1000 Euro+ Preise rechtfertigen lassen.
 
Shoryuken94 schrieb:
Im Grunde alles wie erwartet, aber für mich schon leicht enttäuschend auf Hinblick auf RDNA2. Mit den integrierten Lösungen wird man es nicht einfach gegen spezialisierte Hardware haben. Aber mal abwarten, was das ganze dann wirklich leistet.

380 theoretische GigaRays auf einer APU sind also eine Enttäuschung? Wieviele GIGA-Rays schafft denn so eine RTX2080Ti? 11 der 12?

Ja, es werden Ressourcen aufgeteilt werden müssen. Aber selbst wenn nur 10-20% der Shader mit der RT-Berechnung beschäftigt sind, so hat man also 38-76 GIGA-Rays RT-Leistung, also locker mal das 4-8 fache einer RTX2080TI und verliert nur 10-20% Shaderleistung! Wobei oftmals die Shader eh nie komplett ausgelastet werden, so sind wir dann bei 5-10% Verlust durch RT...

Ja, dies ist echt eine Enttäuschung. Nicht!
 
Wadenbeisser schrieb:
@xexex
[...] bei Turing ohne RT Cores auf den Tensor Cores und mit RT Cores auf den FFUs.
Nicht ganz, die Tensor-Kerne werden für Raytracing nicht benutzt. Was hier anders eingefärbt ist, ist die neue Berechnungsart (Integer statt Floatingpoint), die Turing kann und deswegen schneller ist (weil statt einer Floatingpoint-Berechnung vier Integer-Berechnungen gemacht werden können (bzw. sogar parallel)).
 
Zuletzt bearbeitet:
eastcoast_pete schrieb:
2. Ja, Raytracing mit dedizierter Hardware wäre wohl besser
Es ist doch dedizierte HW, sie sitzt nur woanders als bei Nvidia und kann eben auch noch andere Aufgaben übernehmen, wenn sie nicht für RT gebraucht wird.
 
  • Gefällt mir
Reaktionen: PS828 und Colindo
Taxxor schrieb:
Nvidia hat daran 10 Jahre gearbeitet, wer sagt denn, dass AMD nich auch schon Jahre daran gearbeitet hat, nur eben 2 Jahre später mit dem Release sind, weil sie die Technik erst noch weiter reifen lassen wollten?

Hätte hätte Fahrradkette . Wen interessiert was AMD im stillen Kämmerlein eventuell (woohooo verschwörung , Glaskugel lesen blablabnla) getan hat?! Keiner von euch weiß es also lasst die Kirche im Dorf! Effektiv hinken sie hinterher und das deutlich. Den Rest wird die Zukunft zeigen.
Ich werde nicht hier mit Fanboys spekulieren was sein könnte , es zählt nur was ist. Und stand jetzt ist die Art wie es AMD integriert hat mehr eine Alibi Funktion = für die Feature Checkliste gedacht damit man sagen kann, man hat es auch. Ob und wie gut es genutzt wird , wird die Zukunft zeigen. Die Konsolen/neuen AMD Grafikkarten sind nicht mal erschienen. Da macht Spekulation keinen Sinn. Damit bin ich hier direkt raus aus der Diskussion weil die kann ich mit Fanboys nur verlieren. Denn mir ist es egal wer die Technik baut ich nutze AMD sowie nvidia so das das Gesamtergebnis mir passt.
 
Gamefaq schrieb:
Hätte hätte Fahrradkette . Wen interessiert was AMD im stillen Kämmerlein eventuell (woohooo verschwörung , Glaskugel lesen blablabnla) getan hat?! Keiner von euch weiß es also lasst die Kirche im Dorf! Effektiv hinken sie hinterher und das deutlich. Den Rest wird die Zukunft zeigen.
Ich werde nicht hier mit Fanboys spekulieren was sein könnte , es zählt nur was ist.
Du bist doch derjenige der Spekuliert, dass AMD daran nicht länger als 2 Jahre gearbeitet hat und jetzt versucht Nvidia zu kopieren, ohne Belege dafür zu liefern. Und dann andere "Fanboys" nennen...

"Effektiv" kannst du erst Ende des Jahres sagen, ob AMD hinterherhinkt oder ob ihr Ansatz eine Alibi Funktion ist, ich gehe davon aus, dass er deutlich besser laufen wird als bei Turing, gegen Ampere wird man dann sehen.
 
  • Gefällt mir
Reaktionen: Haldi, SDJ, bad_sign und 8 andere
gartenriese schrieb:
weil statt einer Floatingpoint-Berechnung vier Integer-Berechnungen gemacht werden können
Du meinst, "weil parallel während jeder FP-Berechnung auch eine Int-Berechnung gemacht werden kann." Schließlich geht es um die gleiche Präzision, sofern nicht explizit angegeben.
 
Teralios schrieb:
So, ich klinke mich aus. Viel Spaß euch.
Vielen Dank für deine Zeit.
War sehr Aufschlussreich.
 
  • Gefällt mir
Reaktionen: SDJ, bad_sign, hurcos und 3 andere
DarkerThanBlack schrieb:
380 theoretische GigaRays auf einer APU sind also eine Enttäuschung?
Rechne lieber mit den 95GRays die bei der Triangle-Intersection rumkommen. Und die Leistung würde ich allgemein nicht abschätzen wollen, bis erste Benchmarks raus sind. Ist einfach zu schwer zu vergleichen.
 
  • Gefällt mir
Reaktionen: gartenriese
Gamefaq schrieb:
Genau. Bei nVidia haste du die Tensor Kerne die nur für Raytracing oder DLSS (oder eben die Kombination so wie benötigt) genutzt werden.

Tensor-Kerne werden nicht für das Raytracing benutzt.
 
  • Gefällt mir
Reaktionen: Iapetus und Colindo
xexex schrieb:
Genau, du bestätigst also seine Aussage, die arbeitsintensive Strahlenverfolgung wird beschleunigt. In diesem Fall Reflektionsstrahlen (Reflections), Globale Beleuchutungsstrahlen (Indirect Diffuse) und Schatten (Contact Shadows).
Ergänzung ()

Wadenbeisser schrieb:
@gartenriese

Danke aber das wurde zwischenzeitlich schon aufgeschlüsselt.
Das war von mir auch nur aus der hohlen Hand geraten. :D
Ja, tut mir Leid, aber das Forumsformat hier bei CB ist nicht so toll für längere Diskussionen geeignet, bei reddit ist es einfacher, da sieht man sofort, ob einem schon geantwortet wurde.
 
  • Gefällt mir
Reaktionen: jemandanders
@gartenriese

Ja man verliert schnell die Übersicht wenn zwischendurch noch ein paar Seiten ins Forum genagelt wurden. 😆
 
  • Gefällt mir
Reaktionen: gartenriese
Liest sich echt fett. Freut mich, wenn in der Spieleentwicklung der nächste Mainstream Schritt gemacht wird.
 
  • Gefällt mir
Reaktionen: gartenriese
Taxxor schrieb:
Du bist doch derjenige der Spekuliert, dass AMD daran nicht länger als 2 Jahre gearbeitet hat, ohne Belege dafür zu liefern.

Wenn sie etwas in der Schublade schon hatten warum war es dann nicht bereits in der Redeaon RX 5700 ** Generation ein Jahr nach der ersten RTX Generation enthalten? Wäre doch ein einfaches gewesen dann oder? So hätte AMD praktisch mit der nächsten Generation was die "Features" angeht mit nVidia gleichziehen können und das hätte nVdia RTX sofort wieder die Segel aus dem Wind genommen wenn sie doch wie du sagt schon VOR nVidias RTX dran gearbeitet haben. :rolleyes:

Ich bin auf deine Antwort gespannt was dir nun deine Glaskugel sagen wird...;)
 
xexex schrieb:
[...] everything’s handed off to the tensor cores for the final 20 percent of a frame, which perform their machine learning-enhanced magic—such as denoising ray traced images [...]
Woher hast du diese Aussage? Kannst du den Link posten? Das wäre mir nämlich neu, dass Tensorkerne für das Denoising eingesetzt werden.
 
DarkerThanBlack schrieb:
380 theoretische GigaRays auf einer APU sind also eine Enttäuschung? Wieviele GIGA-Rays schafft denn so eine RTX2080Ti? 11 der 12?

Eine APU ist auch nur die Bauform! Du kannst im Grunde jede beliebige GPU mit CPU in einen Chip packen. Die Series X APU ist schließlich auch größer und braucht mehr Strom, als manch eine Grafikkarte... Du kannst auch eine APU bestehend aus 64 Kern Threadripper und ner Titan basteln, die dann 600 Watt unter Last wegballert.

Ansonsten schocken mich irgendwelche Theoretischen Werte, wo wir nicht genau wissen, ob Sie vergleichbar sind nicht. Aber ich sag mal so. Ich habe bei den bisher bestätigten Raytracingtiteln für die Konsole noch keins gesehen, was auf die 38 Fache Raytracingperformance schließen lässt (oder auf eine 8 fache). Aber das kannst du mir gerne Zeigen. Alle bisher gezeigten Konsolen Spiele mit RT hatten ähnliche Limitationen, wie aktuelle Titel.

DarkerThanBlack schrieb:
Ja, dies ist echt eine Enttäuschung. Nicht!

Und vielleicht solltest du genauer Lesen, was ich geschrieben habe. Ich habe nie gesagt, dass die Leistung des Xbox Chips enttäuschend ist, sondern dass es spannend wird, wie AMD mit der RDNA2 Architektur konkurrieren wird. Das bezog sich im übrigen nicht nur auf RT, sondern auch die AI Komponente. Wenn AMD das wirklich ohne groß zusätzlich Transistoren schafft, sehr gut. Aber das wissen wir halt bisher nicht.

DarkerThanBlack schrieb:
Ja, es werden Ressourcen aufgeteilt werden müssen. Aber selbst wenn nur 10-20% der Shader mit der RT-Berechnung beschäftigt sind, so hat man also 38-76 GIGA-Rays RT-Leistung, also locker mal das 4-8 fache einer RTX2080TI und verliert nur 10-20% Shaderleistung! Wobei oftmals die Shader eh nie komplett ausgelastet werden, so sind wir dann bei 5-10% Verlust durch RT...

Und da begeben wir uns wieder ins Land der Mythen und Annahmen und stellen Theorien auf, für die es keine Belege gibt, auf Grundlage von theoretischen Werten. Warte es doch einfach ab, bis wir fertige Hardware sehen, zumal hier ein noch nicht erschienener Chip mit einer 2 Jahre alten Grafikkarte verglichen wird. Und noch mal, bislang wissen wir nichts über die tatsächliche Leistung und auch nichts über die Vergleichbarkeit der Werte.

Wir haben auch noch nicht eine einzige Software gesehen, die uns hier irgendetwas bewiesen hätte. In der Theorie klingt vieles super. Nur muss man es in der Praxis abliefern. Würde mir wünschen, wenn das so klappt. Aber die Geschichte hat bisher gezeigt, dass Theorie und Praxis verschiedene Themen sind. Kann ja sein, dass AMD da der Konkurrenz weit voraus ist, aber bis das nicht ansatzweise bewiesen wurde, sind es nur Worte ohne Bedeutung.
 
  • Gefällt mir
Reaktionen: gartenriese
Zurück
Oben