• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Xbox Series X: Technische Details zur Zen-2-CPU und RDNA-2-GPU

Wadenbeisser schrieb:
Nicht unbedingt, müssen dafür Funktionseinheiten mehrfach ausgelegt werden ist der Platzgewinn auch ganz schnell dahin, vom Strombedarf ganz zu schweigen.
klar, immer braucht eine dedizierte Funktionseinheit weniger Platz als eine multifunktionale
und genauso immer klar braucht eine dedizierte Funktionseinheit niemals mehr Energie als eine multifunktionale
und wird die dedizierte nicht gebraucht, dann wird se einfach abgeschalten
 
xexex schrieb:
Schummelei ist es deshalb, weil man ähnlich wie jetzt die Chips günstiger produzieren kann und vermeintlich mit der Konkurrenz mithalten kann. Dann ist Big Navi wie schon angedeutet auf dem Papier genauso schnell wie eine RTX2080(Ti) allerdings nur wenn kein RT zum Einsatz kommt.
Wieso? Die Karte muss sich doch in beidem beweisen - Benchmarks mit und ohne RT.

Wenn bei ausgeschaltetem RT eben durch diesen Ansatz mehr Leistung rausspringt, ist das ein faktischer Vorteil und keine Schummelei. Und wenn die Leistung bei eingeschaltetem RT zu gering ist, wird sich das genauso zeigen.

Verstehe nicht, wieso man jetzt schon nach Gründen sucht, um potentielle Stärken von RDNA2 kleinzureden.
 
  • Gefällt mir
Reaktionen: Thraker, Kodak, bad_sign und 11 andere
Hier stand Mist! Gerne löschen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu
Zensur
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Lamaan und jemandanders
Shoryuken94 schrieb:
DLSS 1 lief ja auch noch auf den Shadern und ist erst später auf die Tensorcores gegangen (mit großen Sprüngen beim Ergebnis).
Sorry du interpretierst da was rein, was eventuell so nicht stimmt. Das Ergebnis ist definitiv besser das hat aber vor allem mit der besseren Art und Weise zu tun. Zur besseren Art und Weise zählt aber auch das NV im Renderpfad nun zu nahezu jeder Zeit einen solchen Raytracing Schritt machen kann. Das führt meiner Meinung nach dazu das man auf die Tensor Cores gehen musste. Die könnten selbst sogar langsamer agieren als die Shader bringen trotzdem riesen Vorteile mit. Kann zu jeder Zeit eingesetzt werden - Implementierung für die Entwickler ist einfacher geworden etc pe pe.
 
Revan1710 schrieb:
Wieso? Die Karte muss sich doch in beidem beweisen - Benchmarks mit und ohne RT.

Müssen sich die aktuellen Navi Karten bei beidem beweisen? Wird bei den GPU Empfehlungen kritisiert, dass die 5700 kein RT unterstützt und deswegen nur bedingt empfohlen werden kann? Das wird schon alleine wegen der geringen Anzahl an RT Spielen auch in der Zukunft ähnlich ablaufen.
 
@Sa.Lt

Ich glaube du hattest nicht verstanden worauf ich hinaus wollte.
Weicht die Berechnung nicht so extrem ab das eine Aufbereitung der Daten genügt damit die CUs es besser verdauen können dann würde eine dedizierte, spezialisierte Funktionseinheit zusätzlichen Platz fressen weil diese noch mit eingebunden wird und zusätzliche Recheneinheiten ins Spiel bringt die nur dafür gut sind.
 
Wenn sich RT dann breiter aufstellt , könnte ich mir vorstellen das es in Zukunft nicht nur RT ein oder aus gibt, sondern wie jetzt auch schon teilweise mit low, med, high dann noch mit mehr diversen Einstellungen.

Bin zwar kein Konsolenspieler, aber die Technik hinter den neuen Konsolen ist schon sehr lecker. Selbst wenn es nur 1080p mit 60fps und ordentlichen Grafikdetails wäre inkl. Raytracing würde das schon ein ordentliches Bild zaubern können.
Wenn AMD mit RDNA2 allerdings einen DLSS Gegenpart hat, sollte auf den Konsolen, da sowiso gut optimiert, 4K60 möglich sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer und Unnu
Myki schrieb:
Wenn man was von 52 CUs liest und die PS5 hat 38(?). Oh man, das ist echt bitter für Leute, die auf PS5 only gehen, wie ich.
36 hat sie^^ Die Anzahl der CUs sagt aber erst mal überhaupt nichts aus, auch die TFLOPs nicht wirklich, denn die gehen immer davon aus, dass die CUs vollständig ausgelastet werden, was bei derer 52 schwieriger ist als bei 36, vor allem mit deutlihc geringeren Taktraten.

Beispiel: 2080Ti vs 2080 Super.

Im CB test taktete die 2080Ti FE so mit ca 1800MHz, die 2080 Super kommt auf 1900MHz.

Die 2080Ti hat 4352 Cores, die 2080 Super nur 3072.

Macht in Summe 15,67 TFLOPs für die 2080Ti und 11,67 TFLOPs für die 2080 Super.

Das ist ein Unterschied von 34,3% in der Rohleistung.
Was kommt in den GPU Tests üblicherweise raus? Die 2080Ti ist gerade mal 22% schneller als die 2080 Super.

34% mehr Rohleistung für 22% mehr Performance, das ist ein Faktor von ca 0,65 mit dem die Rohleistung in reale FPS skaliert.
Und das sind bereits die 4K Zahlen, wo die 2080Ti in seltenen Fällen noch was aus ihren 11GB VRAM holen kann, in 1440p sind es schon nur noch 17%.


Die Series X und die PS5 trennen 20% in der Rohleistung, die Xbox wird aber vmtl genauso an der nicht linearen Skalierung der Cores leiden, nimmt man den gleichen Faktor wie bei der 2080Ti, würden von den 20% Rohleistung noch 13% an realer Mehrperformance übrig bleiben.

Und was sind 13%? Damit lässt sich z.B. ein Spiel, welches auf der PS5 nur 50fps erreicht auf der Series X auch nicht auf 60fps heben, also lauifen beide mit 30fps, wo dann die Xbox evtl irgend ein kleines Detailsetting mehr hochsetzen könnte als die PS5
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: or2k, s0UL1, v_ossi und 12 andere
xexex schrieb:
Schummelei ist es deshalb, weil man ähnlich wie jetzt die Chips günstiger produzieren kann und vermeintlich mit der Konkurrenz mithalten kann. Dann ist Big Navi wie schon angedeutet auf dem Papier genauso schnell wie eine RTX2080(Ti) allerdings nur wenn kein RT zum Einsatz kommt.
Was ist denn falsch daran die Kosten im Blick zu behalten?
Und ob man mit dem Wettbewerb mithalten kann, werden wir in 2-3 Monaten sehen.
Und BIG Navi wird jedenfalls definitiv schneller als eine 2080ti sein.
Wenn ich mich auf die Aussage von David Chang zur CES berufe, (50% mehr Leistung / W) Dann wird eine 6700(XT) ungefähr auf dem Niveau einer 2080ti heraus kommen. Zumindest was die normale Renderleistung betrifft.
Wenn Du in Bezug auf die kombinierten Leistung schon genaueres weist, hast Du eine bessere Glaskugel wie ich und der große Rest.
 
Teralios schrieb:
Bist du Entwickler? Arbeitest du mit DXR1.2 und hast schon eine Navi2-Karte und weist mehr als wir? Oder sind das nur deine Vermutungen?

Brauche ich das? Big Navi hat Gerüchten zufolge 80CUs, wenn die nun genauso wie bei den Konsolen zum Einsatz kommen, braucht man kein Hellseher zu sein um das Ergebnis abschätzen zu können.

Summerbreeze schrieb:
Und BIG Navi wird jedenfalls definitiv schneller als eine 2080ti sein.

Höchstwahrscheinlich, nur eben dann wenn gar kein RT zum Einsatz kommt und die Leistung dadurch halbiert wird.
 
ManPon schrieb:
Natürlich ist irgendwann die "Schmerzgrenze" erreicht, allerdings haben die Hersteller ja noch einige Wochen Zeit, Thema Vorbesteller & Co.

Kann natürlich auch sehr fix gehen und der Mitbewerber zieht dann gleich nach.

Und wann ist die Schmerzgrenze spätestens erreicht?
 
Affenzahn schrieb:
Zumal man ja rein logisch davon ausgehen kann, dass dedizierte Hardware eigentlich performanter sein müsste als die Universallösung.
Wieso sprecht ihr bei AMD von ner Universallösung? Dazu wissen wir zu wenig. Selbst nach diesen Infos. Vielleicht hatte AMD ne geniale Idee...
Vielleicht ist sie optisch dann auch nicht so gut... Dafür deutlich performanter oder total easy umsetzbar...
Es gibt viele Wege nach Rom. Tensa Cores von NV waren eigentlich für KI wichtig - nur NV's Marketing kam auf die Idee hey können wir auch gut fürs Raytracing nutzen...
 
  • Gefällt mir
Reaktionen: ThePlayer
Nettes Stück Hardware auf jeden Fall. Beim RT wird vieles darauf ankommen wie es am Ende gelöst ist, vorallem Softwareseitig (Treiber + Game). Natürlich sieht der Ansatz erstmal Flexibler und besser zu skalieren aus, aber entscheidend ist das es sauber funktioniert und man nicht plötzlich in einem Game zu wenig vom einen oder vom anderen hat.

Mfg
Pawel
 
xexex schrieb:
Schummelei ist es deshalb......

Wie das Bild im Endeffekt erstellt wird, kann uns doch sofern die Qualität und Geschwindigkeit gleich ist, herzlich egal sein.

So gesehen kann die neue XBOX mit einer 5700XT mithalten und dazu gibts durch mehr Einheiten auch Raytracing dazu.
 
  • Gefällt mir
Reaktionen: or2k, bad_sign und Maxxx800
xexex schrieb:
Brauche ich das? Big Navi hat Gerüchten zufolge 80CUs, wenn die nun genauso wie bei den Konsolen zum Einsatz kommen, braucht man kein Hellseher zu sein um das Ergebnis abschätzen zu können.
Na, was befähigt dich das abzuschätzen, wie gesagt, hast du Erfahrung als Entwickler, arbeitest du schon mit DXR1.2, weißt du wie ein Renderpfad heute aussieht usw.

Sorry, entweder du begründest deine Aussage nun sachlich und fachlich, oder ich bleibe dabei: Du schreibst unfundierten Bullshit.

Novasun schrieb:
Zur besseren Art und Weise zählt aber auch das NV im Renderpfad nun zu nahezu jeder Zeit einen solchen Raytracing Schritt machen kann.
...
Kannst du mit Navi2/RDNA2 auch ... die CU kann jeder Zeit an die TMU die BVH-Abfrage stellen. Die CU kann nur nicht "gleichzeitig" Texturen als auch eine BVH-Abfrage stellen, das ist aber auch vollkommen egal.

In den Shadern läuft der Code meistens "imperativ" ab und man muss auf die Antwort der "TMU" warten, egal ob nun Texturen oder BVH-Anfrage. Entsprechend ist der hier dargestellte Nachteil erst mal nur theoretischer Natur, jedoch nicht praktischer Natur.
 
  • Gefällt mir
Reaktionen: s0UL1, Bccc1, SDJ und 4 andere
xexex schrieb:
Höchstwahrscheinlich, nur eben dann wenn gar kein RT zum Einsatz kommt und die Leistung dadurch halbiert wird.
Warum sollte die Leistung durch RT halbiert werden? Gehst du davon aus, dass die Hälfte der CUs sich dann nur noch um RT kümmern und die Rasterleistung auf 40 CUs fällt?
Wenn diese 52 CUs 380 Gigarays/s schaffen, dann reicht es aus, wenn 5% der CUs an RT rechnen, um die RT Performance der 2080Ti zu haben, nur dass dann eben noch die Leistung von 95% der 80CUs für Raster zur Verfügung steht.

Generell hat AMD in der letzten Zeit immer den Weg verfolgt, so wenig wie möglich Performanceeinbußen durch neue Features zu verursachen und ich glaube kaum, dass sie RT in einer Form bringen werden, in der sie dabei mehr Performance verlieren als Nvidia.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thraker, SDJ, gecan und 7 andere
Affenzahn schrieb:
Auf gut Deutsch hat also nV ein neues Marketinggimmick aus dem Hut gezaubert, was ihnen jetzt mangels Vergleichbarkeit um die Ohren fliegt und der Konsument kann Äpfeln mit Birnen vergleichen und weiß trotzdem ohne Spieletests kaum bis gar nicht was er bekommt.
*Slow Clap.

Wenn man es Pro AMD so auslegen möchte. Anders ausgelegt kann man auch sagen, dass sich AMD ein durch die Konkurrenz etablierten Begriff schnappt und für sich interpretiert.

pipip schrieb:
PS. Spezialisierte Hardware, ist auf den mm^2 nicht nur meist effizienter, es ist meist auch der schnellere Weg in den Markt.

Eigentlich ganz im Gegenteil. Softwarelösungen sind da deutlich schneller, aber oftmals ziemlich ineffizient. RT in Software ist auch ein alter Hut, aber viel zu langsam für Echtzeitgrafik. Daher stammt auch der alte Spruch, die CPu kann alles, aber nichts schnell.

pipip schrieb:
Es ist aber nicht zwangsweise der beste (siehe FreeSync). Sonst hätten wir keine CPUs wie X86.

Wo ist Freesync denn technisch besser? Und auch bei den CPUs ist viel in extra Befehlssätze gewandert die in Form zusätzlicher Transistoren das ganze beschleunigen und viele Funktionen sind mittlerweile Hardwarebeschleunigt. Das ist eher der Grund, warum x86 Kerne heute so extrem komplex sind.

Mit einer reinen x86 CPU könntest du heute relativ wenig mit moderner Software anfangen.

pipip schrieb:
Was ich mir aber gut vorstellen könnte, dass NV Tensor und RT Cores früher oder später mal als Chip auslagern könnte. Das wäre dann sehr spannend.

Gibt ja das Gerücht um einen Zusatzchip mit unbekannter Funktion auf den Ampere Karten. Ansonsten gibts die Gerüchte, dass das Teil der Hopper Architektur werden wird. Mal sehen. Wird bei beiden Herstellern spannend, wie die die Geschichten umsetzen und wie die Entwickler das ganze dann auch nutzen.

AMD hat den Vorteil, dass sie mit Ihren Ansätzen Transistoren und damit Chipfläche sparen. Das kann man entweder für günstigere Chips oder für mehr Transistorenbudget für andere Funktionen sorgen.

Ende des Jahres werden wir dann schlauer sein und sehen, wie sich die Lösungen so gegeneinander schlagen.
 
  • Gefällt mir
Reaktionen: gartenriese und evilhunter
xexex schrieb:
Höchstwahrscheinlich, nur eben dann wenn gar kein RT zum Einsatz kommt und die Leistung dadurch halbiert wird.
Wie gesagt, wenn Du eine bessere Glaskugel hast, lass mich bitte nicht Dumm sterben.
Ob sich die Leistung direkt halbiert, oder vielleicht auch feinfühlig austariert wird / werden kann, weiß zumindest offiziell bisher "keine Sau".
 
  • Gefällt mir
Reaktionen: Thraker, gartenriese und ThePlayer
@xexex

Nichts für ungut aber dein Einwand ist quatsch weil auch die RTX Karten beim RT Einsatz einbrechen, je nach RT Stufe auch schnell mal erheblich.
Siehe die Anfangszeit wo der Grad des RT Einsatzes beim damaligen Demo Titel nochmal reduziert wurde um brauchbare Frameraten zu erhalten.
 
  • Gefällt mir
Reaktionen: Thraker, SDJ, Grundgütiger und 4 andere
Zurück
Oben