• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Xbox Series X: Technische Details zur Zen-2-CPU und RDNA-2-GPU

xexex schrieb:
Natürlich kann auch AMD eigene Erweiterungen einbringen, nur läuft dann ein Spiel was auf AMDs Erweiterungen aufsetzt nicht auf Nvidia Hardware und umgekehrt sieht es genauso aus. Den Zirkus hat man bei OpenGL schon zu genüge getrieben und anscheinend sind die Umsetzungen soweit verschieden, dass auch Microsoft erst eine neue DXR Version entwickeln musste um beide unter einem Hut zu kriegen.

Hi

Das gleiche Spiel läuft aber auch unter DX.
Wie oft wurde da geändert.

Nvidia weigert sich anscheinend in der Regel auf einen gemeinsamen Nenner zu gehen.
Hat man ja bei DX 12 und Vulkan gesehen.
Jetzt ist der Zirkus bei beiden APIs

Gruss Labberlippe
 
  • Gefällt mir
Reaktionen: Benji18
duskstalker schrieb:
physx stammt von ageia, die damals externe pci add-in physikbeschleuniger verkauft haben. nvidia kauft ageia, killt die marke, und integriert die damals für alle zugängliche technologie in die geforce karten

Blah blah... AMD hätte genauso die Option gehabt die damals konkurrierende Hawok Technologie zu übernehmen und in eigene Lösungen zu implementieren. Sorry dich enttäuschen zu müssen, aber Zukäufe und Kooperationen gehören nun mal zu Produktentwicklung dazu. AMDs RT Lösung ist nun auch nicht "für alle" frei, sondern wurde als erstes patentiert und nun? Ist "Freesync" denn für alle nutzbar oder sind es nur die freien DP Adaptive Sync und HDMI VRR?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
DarkerThanBlack schrieb:
Und trotzdem bleibt es eine APU, egal was du nun versuchst zu erklären, was wieder auf die selber Ausgangsbasis zurückführt.

Ja und worauf möchtest du nun hinaus? Es ist eine APU, sagt halt null zur Leistung aus. Daher die Frage, warum soll die Leistung für eine APu beachtlicher sein, als für einzelne Lösungen?


DarkerThanBlack schrieb:
Dir ist schon klar, dass wir von RDNA2 reden? Da die neuen Konsolen noch nicht draußen sind, so verwundert es mich schon über die RT-Leistung bescheid zu wissen und dies vergleichen zu wollen und schon als ungenügend zu beschreiben. 🤔

Ich hab ehrlich gesagt keine Ahnung, was du mir damit sagen möchtest. Aber zur eingehenden Frage Ja. Nein habe nie gesagt, dass die Leistung ungenügend ist und ja es gibt genug Material, was man analysieren kann und da sieht man schon viel Optimierungsarbeit im Videomaterial, wie beispielsweise die Auflöungen der RT Effekte oder auch die Art und Weise, welche Objekte geraytraced werden und welche nicht. Gibt da beispielsweise Analysen von DF und paar anderen Seiten.

DarkerThanBlack schrieb:
Dann lese doch erst einmal das was du geschrieben hast:

Dann lese doch auch mal weiter bzw. auch das was davor geschrieben wurde...

DarkerThanBlack schrieb:
Und jetzt erkläre nochmals bitte, dass du die Sache mit der Enttäuschung nicht geschrieben hast. Da bin ich jetzt einmal gespannt auf die wundersame Lösung. 😁


Wie gesagt, lese dir den gesamten Post, dann solltest du verstehen, was mit Enttäuschung gemeint ist, worauf es bezogen ist und das es nicht heißt, dass RDNA2 schlecht sein wird, nur dass es gewisse Herausforderungen gibt, die man mit dem Ansatz erst mal gelöst bekommen muss.

DarkerThanBlack schrieb:
Das was du schreibst macht doch absolut keinen Sinn. Natürlich wird beides gehen, denn wie soll es denn sonst funktionieren?


Es geht pro TMU nur das eine oder das andere. Sagt Microsoft doch selbst. Da der Chip 52 aktive TMUs hat und nicht jede Einheit gleichzeitig ausgelastet ist, kann man natürlich damit RT beschleunigen. Habe auch nie was anderes Behauptet. Also was genau macht jetzt keinen Sinn?

DarkerThanBlack schrieb:
Wenn man allerdings davon ausgeht, dass AMD so doof ist und entweder nur RT oder eben nur Rasterize als Auswahl bereit hält, so kann man deine Antwort gelten lassen.

Ich glaube, du hast das geschrieben nicht verstanden. Wo habe ich gesagt, dass entweder nur RT oder nur normale Grafikberechnungen berechnet werden können?

DarkerThanBlack schrieb:
Aber ich gehen mit sehr viel größerer Wahrscheinlichkeit davon aus, dass AMD dies sehr genau weiß und dies schon getestet hat und man es durchaus als positiv betrachten kann.

Oh das ziemlich sicher. Nur kennen wir das Ergebnis im Bezug zu anderen Lösungen nicht. Also vielleicht du mit deiner Glaskugel, wenn du genaue Vergleiche zu Turing ziehen kannst. Ich kann das nicht und anscheinend auch kein anderer. Aber wenn du das anhand des gezeigten kannst. Glückwunsch.

DarkerThanBlack schrieb:
Auch wenn es dir missfallen mag. 😊

Warum sollte es mir missfallen? Ich würde mich riesig freuen, wenn AMD ein voll konkurrenzfähiges Produkt auf den Markt bringt! Ich mag AMD sehr und habe mir bestimmt nicht weil ich AMD hasse vor ein paar Jahren die teuerste AMD GPU und CPU gekauft, welche es gab.

Und ich bin ziemlich an einer neuen Grafikkarte interessiert und würde mir auch lieber eine Radeon kaufen, als eine Nvidia, wenn beide etwas auf Augenhöhe anbieten.

Anders als du kann ich aus den gegebenen Werten des Artikels nur nichts ablesen, was RDNA 2 kann. Ich kann nur zielich sicher sagen, dass AMD und Nvidia bei der Leistungsangabe der Giga Rays etwas anderes als Berechnungsgrundlage heranziehen, da man mit AMDs Methode nicht auf die Nvidia Werte kommt, wenn man die Turing Werte in die Berechnungsformel einsetzt.

Daher sind 380 vs 11 auch nicht direkt vergleichbar. Das AMD eine funktionierende Hardware RT Lösung baut ist klar. Nur wissen wir nicht wie stark diese ist und anhand des Artikels und der Werte können wir es nicht abschätzen, da wir diese Werte nicht einordnen können.

Nur weil man nicht blind alles abfeiert und hinterfragt ist man nicht Anti AMD. Ich finde es nur problematisch mit Annahmen um sich zu werfen, sie so nicht aus der gegebenen Informationslage entnehmbar sind. Wegen mir kann AMD auch 100 mal schneller als Nvidia sein. Hätte ich nichts dagegen.
 
  • Gefällt mir
Reaktionen: gartenriese und .Sentinel.
Novasun schrieb:
Tensa Cores von NV waren eigentlich für KI wichtig - nur NV's Marketing kam auf die Idee hey können wir auch gut fürs Raytracing nutzen...

Zunächst einmal heißen die Dinger Tensor Cores ... zum anderen würde ich dir empfehlen einmal einen Blick auf eine beliebige Turing-RTX-Karte zu werfen. Was wirst du finden? Cuda Cores, Tensor Cores und - man lese und staune - RT Cores. Deine Annahme ist also kompletter Unfug.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: gartenriese und .Sentinel.
Myki schrieb:
Und dann habe ich mir nochmal die Taktraten der 5700xt angeguckt, die zwar die erste Generation der RDNA Karten darstellt, aber dennoch kann man davon ausgehen, dass es einen Grund hat, warum man 1700Mhz +/- fährt.
Bedenke, dass AMD bei der Vorstellung von Renoir einen interessanten Hinweis gegeben hat. Man habe die Taktraten bei Vega so enorm steigern können, weil eine Methode gefunden wurde, die auch in diskrete Grafikkarten integriert wird. Renoir hat 60% mehr Takt, davon geht die Mehrheit auf den Node-Shrink zurück. Aber so 25% mehr Takt bei gleichem Stromverbrauch kann man bei RDNA2 erwarten. Dann ist der Takt der PS5 gleich nicht mehr so schlimm.
Glyphus schrieb:
Wenn ich RTRT nur für Beleuchtung nehme, dann sollten in den meisten deferred render engines doch ohnehin keine Konflikte in den TMUs zwischen Textur <-> RT BVH berechnung auftreten, oder?
Selbst wenn es nur für die Beleuchtung ist werden trotzdem Ressourcen bei der Berechnung benötigt, die dann dem Rasterizer fehlen. Letztlich hängt es davon ab, ob AMD die RT-Anfragen und Textur-Anfragen gut sortiert bekommt, das sollte man aber auch bei der Beleuchtung bemerken.
eastcoast_pete schrieb:
vielleicht hat MS ja soviel Gedöns um die AVX256 Fähigkeiten des neuen SoCs gemacht, weil damit auch Raytracing gemacht bzw unterstützt werden kann?
Die CPU kann zwar Raytracing mit AVX berechnen, allerdings ist für eine sinnvolle Nutzung der Ergebnisse eine sehr schnelle und latenzfreie Verbindung zur Grafikkarte notwendig. Das funktioniert nur, wenn die CPU komplett alles berechnet, nicht im hybriden Ansatz.
 
  • Gefällt mir
Reaktionen: Teralios
Myki schrieb:
@PS828 Die PS5 taktet bis zu 2,23Ghz. Das ist doch Wahnsinn. Ich bleibe dabei, die Performance der PS5 wird deutlich schlechter als die der XBox.

Die Playstation 5 hat in den Bereichen Rasterizer und bei den ROPS mehr Leistung als die Series X, wenn die Sony Konsole den Takt von 2.23 Ghz halten kann. Es wird wohl sicher Fälle geben in dem jede Konsole ihre Architektur Trümpfe jeweils ausspielen kann.
 
  • Gefällt mir
Reaktionen: PS828
input_iterator schrieb:
Die Playstation 5 hat in den Bereichen Rasterizer und bei den ROPS mehr Leistung als die Series X, wenn die Sony Konsole den Takt von 2.23 Ghz halten kann. Es wird wohl sicher Fälle geben in dem jede Konsole ihre Architektur Trümpfe jeweils ausspielen kann.
Hi

Samb zockt hat es in einen Video gut erklärt.
Beispiel Switch.
Handheld oder Dockmode.
Da ist das Spiel quasi auf 2 Konsolen zu programmieren obwohl es für den Kunden ja nur eine Konsole ist.

Jetzt muss man sich das mal vorstellen.

MS und Sony wollen ja auch quasi zum Start eine Light Variante bringen.
Die Spiele sollten z.B bei Sony auch bei der Pro oder alten PS4 gehen.

Deswegen kaufen alle z.b. die PS 4 Pro, weil die neueren Games auf der normalen PS 4 nicht so gut rennen.
( Bei X-Box das gleiche spiel)

Das sind quasi 8 Versionen.
Ach ein PC Port sollte es auch sein.

Da wird eine reine PC Version vermutlich einfacher sein.

Die meisten Games werden im Konsolen Bereich verkauft und da sollten alle Spiele inkl PC auf allen Systemen rennen...

Irgendwo habe ich das Gefühl das die Hersteller b.z.w Spiele Hersteller dann immer auf die non Pro Version pfeifen...

Gruss Labberlippe
 
Colindo schrieb:
Selbst wenn es nur für die Beleuchtung ist werden trotzdem Ressourcen bei der Berechnung benötigt, die dann dem Rasterizer fehlen. Letztlich hängt es davon ab, ob AMD die RT-Anfragen und Textur-Anfragen gut sortiert bekommt, das sollte man aber auch bei der Beleuchtung bemerken.

Ja klar ist es immer langsamer ETWAS zu berechnen als es gar nicht zu berechnen. bzw. in dem Fall das einfachere klassische Beleuchtungsmodell zu nehmen. Die Frage ist, wie du schon sagst, nach dem Performance hit und ob der stärker oder schwächer als bei Nvidia ausfällt. FXAA ist auch schneller als SSAA/MSAA aber langsamer als nativ.

Weil du Rasterisierung ansprichst - Ich nehme an dass die ROPs ansich unbeeindruckt von RT sein sollten. Die große Show scheint sich eher wirklich nur in den TMUs und ALUs abzuspielen.
 
Labberlippe schrieb:
Das gleiche Spiel läuft aber auch unter DX.

Nein, da Microsoft rechtzeitig die DXR API bereitgestellt hat und nun alle Grafikkarten drauf aufsetzen können, Vulkan hat sich schlichtweg wie üblich so viel Zeit gelassen, dass Nvidia nichts andere übrig bliebt als eigene Erweiterungen herauszubringen. Das ging bei OpenGL gut 20 Jahre so, weshalb die API irgendwann in die Bedeutungslosigkeit versunken ist.
 
duskstalker schrieb:
nvidia ist kein technologietreiber.
Du unterschätzt da eine Sache ganz gewaltig und zwar dass Du eine gewisse Größe, die Beharrlichkeit und den Nachdruck brauchst, um Technologien überhaupt etablieren zu können.

Da können die Leute über Microsoft, nvidia und co. so viel meckern wie sie wollen. Die haben einfach nicht miterlebt, wie zerklüftet die Software- und Hardwarelandschaft ohne einheitliche Standards lange Zeit im XT/AT Sektor dagestanden hat.

Insofern haben wir diesen von vielen verhassten, großen Firmen unendlich viel zu verdanken, weil die jeweils mit Nachdruck Technologien etablieren und standardisieren konnten.

Und gerade in Anbetracht von Turing, wo nun nivida aufgrund der Konkurrenzsituation nun überhaupt keine Veranlassung hatte, ein Risiko einzugehen und diese Masse an sinnvollen neuen Technologien einzuführen, ist es einfach völlig daneben, nvidia den Titel als treibendes Technlolgieunternehmen nehmen zu wollen.

Weniger Emotion. Weniger Fußballmanschaft anfeuern wollen, weniger Religion und Markenfetischismus.
Einfach mal nüchtern die Geschichte betrachten. Die Firmen mögen einem nicht sympathisch sein.
Hätte es diese aber nicht gegeben, wäre der Fortschritt und die Durchdringung der IT erheblich gebremst worden.
 
  • Gefällt mir
Reaktionen: Schattenspender, Cohen, adAstra und eine weitere Person
xexex schrieb:
Nein, da Microsoft rechtzeitig die DXR API bereitgestellt hat und nun alle Grafikkarten drauf aufsetzen können, Vulkan hat sich schlichtweg wie üblich so viel Zeit gelassen, dass Nvidia nichts andere übrig bliebt als eigene Erweiterungen herauszubringen. Das ging bei OpenGL gut 20 Jahre so, weshalb die API irgendwann in die Bedeutungslosigkeit versunken ist.

Hi

Nein.
MS hat PS 1.4 integriert obwohl es Nvidia nicht hatte.
Die sind auch mit im Boot gewesen.
MS wollte maximal DX 11 haben.

MS macht sogar mehr Ausnahmen als OpenGL oder jetzt Khronos.

Stell Dir vor Du würdest alle Erweiterungen bei OpenGL/Vulkan weg streichen.

Der Vorteil:
Dafür sollten die Treiber auch bei allen Herstellern sich an diese Versionen halten.
Nein hat mit Low Level nichts zu tun.
Kommt aber eher ran.

Der Vorteil bei DX ist ja noch, das dann eine Variante zwingend genutzt werden muss.


Gruss Labberlippe
 
Labberlippe schrieb:
Da ist das Spiel quasi auf 2 Konsolen zu programmieren obwohl es für den Kunden ja nur eine Konsole ist.

Jede moderne Engine ist in der Lage entsprechend der zur Verfügung stehenden Leistung zu skallieren. Das ist ja auch unter anderem die Erungenschaft von diversen API`s, dass die Hardware in dem Fall keine allzu große Rolle mehr spielt.
 
input_iterator schrieb:
Jede moderne Engine ist in der Lage entsprechend der zur Verfügung stehenden Leistung zu skallieren. Das ist ja auch unter anderem die Erungenschaft von diversen API`s, dass die Hardware in dem Fall keine allzu große Rolle mehr spielt.

Hi

Nein.
Es gibt massig Beispiele, das bei der PS4 Pro die Games super rennen, die non Pro Variante wirklich Probleme haben.
Das gleiche bei der X--Box.

Es gibt sogar ein Switch Spiel das besser rennt wie bei der X-Box.

Gruss Labberlippe
 
  • Gefällt mir
Reaktionen: input_iterator
Labberlippe schrieb:
Es gibt massig Beispiele, das bei der PS4 Pro die Games super rennen, die non Pro Variante wirklich Probleme haben.
Das gleiche bei der X--Box.
Was aber auch daran liegt, dass die Spiele zuerst für die PS4 kamen und dort schon so aufs Limit programmiert wurden, dass erst die Pro das ganze später wirklich flüssig hinbekommen hat.
(Man könnte meinen man wollte schon von Anfang an einen Anreiz schaffen, später zur Pro zu wechseln^^)
 
  • Gefällt mir
Reaktionen: Shoryuken94
Labberlippe schrieb:
Hi

Nein.
Es gibt massig Beispiele, das bei der PS4 Pro die Games super rennen, die non Pro Variante wirklich Probleme haben.
Das gleiche bei der X--Box.

Es gibt sogar ein Switch Spiel das besser rennt wie bei der X-Box.

Gruss Labberlippe



Deine Aussage ihm vorrigen Posting war das das Spiel quasie auf zwei Konsolen zu programmieren ist. Das die ein Spiel zwei mal für die jeweiligen Konsolen Modes komplett programmieren wage ich zu bezweifeln. Da dürften sich die Anpassungen aus den von mir genannten Gründen in Grenzen halten. Da für hat man APIs die das entsprechend abstrahieren, siehe PC.
 
Hi

Um das Thema mit mehreren Konsolen zu beenden.


Ausser Ihr programmiert auch Spiele.

Wenn Ihr natürlich auch für Switch und Android und Co Spiele macht...

Bei DX 5 hat es übrigens z.b eigene Inf Files für den jeweiligen Grapfik Chip gegeben..

Gruss Labberlippe
 
Interessant auch die Angabe zur HDMI 2.1 Schnittstelle mit 10Gb FRL pro Link, bei 4x also die 40Gbps die die neuen Denon/Marantz AVRs an ihren 8K Anschlüssen unterstützen und auch was die neuen LG OLEDs der 2020er Modelljahre haben im Gegensatz zu den 48Gbps der 2019er. Mithin ohne DSC maximal 10Bit bei 4:4:4 mit 4k120. Kann mir gut vorstellen dass das bei der PS5 genauso ist.
 
Shoryuken94 schrieb:
Daher sind 380 vs 11 auch nicht direkt vergleichbar.

Irgendwie schon.

Nicht so flüssige 30fps Minecraft RTX 1080p auf der XSX versus Minecraft RTX auf einer 2080ti in 60fps.

380 << 11 in diesem Fall.
 
Das wäre doch einmal eine APU vom feinsten. 8C 16T; starke Grafik und schneller RAM. Das Teil in ein Notebook und es bäuchte nichts anderes mehr. Wobei der Preis mit Sicherheit auch recht hoch sein wird.
 
Zurück
Oben