• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Xbox Series X: Technische Details zur Zen-2-CPU und RDNA-2-GPU

xexex schrieb:
Höchstwahrscheinlich, nur eben dann wenn gar kein RT zum Einsatz kommt und die Leistung dadurch halbiert wird.
Du verbreitest hier gefährliches Halbwissen.
 
  • Gefällt mir
Reaktionen: gecan, rumpeLson, Otsy und 3 andere
Taxxor schrieb:
Warum sollte die Leistung durch RT halbiert werden? Gehst du davon aus, dass die Hälfte der CUs sich dann nur noch um RT kümmern und die Rasterleistung auf 40 CUs fällt?
Xexex hat einfach keine Ahnung von der Materie und schwadroniert hier rum. Frau Schmitz von der GameStar umschrieb es mal sehr schön: ein Schwall ins All.

Hier wird nun auf einem "theoretischen" Nachteil herum geritten - entweder BVH-Abfrage oder Textur-Abfrage - der aber kein praktischer Nachteil ist, weil die CU jeder Zeit eine der beiden Anfragen stellen kann.

Alle weiteren Annahmen - auch ein Stückweit bei dir - ist eher Halbwissen, weil ihr die Technik nicht wirklich kennt. Deswegen:

Taxxor schrieb:
Wenn diese 52 CUs 380 Gigarays/s schaffen, dann reicht es aus, wenn 5% der CUs an RT rechnen, um die RT Performance der 2080Ti zu haben, nur dass dann eben noch die Leistung von 95% der 80CUs für Raster zur Verfügung steht
Stopp: Falsch!

Sowohl bei NVIDIA als auch bei AMD werden die eigentlichen Effekte - also auch RT - auf den SM/CUs berechnet. NVIDIA lagert die Abfrage des BVH-Baumes jedoch in einen eigenen "Core" aus, bei AMD wird die TMU um entsprechende Funktionen erwietert, da die TMU bereits sehr dirtekt auf Caches als auch RAM zugreifen kann.

Grob läuft es so ab:

Shader berechnet seinen Wert, Shader stößt auf einen "unbekannten" Wert und muss den BVH-Baum durch suchen. Shader sendet Anfrage an den RT-Core oder die TMU. RT-Core/TMU durchsuchen nun den BVH-Baum nach dem richtigen Eintrag. RT-Core/TMU liefern den Wert an den Shader zurück. Shader rechnet weiter.

Wie gesagt5, die eigentliche Shader laufen recht imperativ ab in der CU/SM, so dass eine "Textur-Anfrage" also auch "RT"-Anfrage nicht wirklich parallel vorkommen. Entsprechend ist das vorgehen hier ein theoretischer Nachteil, aber kein Praktischer.
 
  • Gefällt mir
Reaktionen: jemandanders, Bccc1, v_ossi und 16 andere
xexex schrieb:
Müssen sich die aktuellen Navi Karten bei beidem beweisen? Wird bei den GPU Empfehlungen kritisiert, dass die 5700 kein RT unterstützt und deswegen nur bedingt empfohlen werden kann?
Nein, aber RDNA2 wirbt ja genau wie Turing explizit mit RT-Hardware-Unterstützung - deshalb muss man sich definitv auch hier dann beweisen.

Bei der CB-Empfelung wird das bei den Vor- und Nachteilen von Nvidia/AMD doch aufgeführt und dass das bei der überschaubaren Anzahl an Titeln auch nicht das wichtigste Kriterium ist, finde ich angemessen.
 
  • Gefällt mir
Reaktionen: gartenriese und ThePlayer
Taxxor schrieb:
36 hat sie^^ Die Anzahl der CUs sagt aber erst mal überhaupt nichts aus, auch die TFLOPs nicht wirklich, denn die gehen immer davon aus, dass die CUs vollständig ausgelastet werden, was bei derer 52 schwieriger ist als bei 36, vor allem mit deutlihc geringeren Taktraten.

Naja, der Unterschied zwischen PS4 und One war bei einigen Games zumindest deutlich sichtbar. Da kann die Mehrleistung schon der ausschlaggebende Punkt für z.B eine höhere Auflösung sein.
 
Ripcord schrieb:
Naja, der Unterschied zwischen PS4 und One war bei einigen Games zumindest deutlich sichtbar.
Natürlich, dort war der Unterschied in der Rohleistung mit 1,84 zu 1,31 TFLOPs ja auch bei 40% und wir waren bei beiden Konsolen nicht in einem Core Count Bereich, wo die Skalierung Probleme gemacht hätte, die Xbox hat 12 CUs und die PS4 18.
Ergänzung ()

Teralios schrieb:
Grob läuft es so ab:
Danke für die grobe Erklärung, bedeutet das aber nicht trotzdem, dass immer nur jeweils ein Bruchteil der CUs die Aufgabe übernehmen muss, die bei Nvidia die RT Cores übernehmen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rumpeLson und [wege]mini
PS828 schrieb:
[AV1] benutzt halt keiner. Ist mir zumindest noch nie unter gekommen
Schonmal was von Netflix gehört?
netflix.jpg

Und dann erst diese Minderheitenplattform Youtube.

Benutzt ja wirklich kein Schwein. Oder ist Euch da schonmal jemand untergekommen?
 
  • Gefällt mir
Reaktionen: s0UL1, hurcos, gartenriese und eine weitere Person
Taxxor schrieb:
Natürlich, dort war der Unterschied in der Rohleistung mit 1,84 zu 1,31 TFLOPs ja auch bei 40% und wir waren bei beiden Konsolen nicht in einem Core Count Bereich, wo die Skalierung Probleme gemacht hätte, die Xbox hat 12 CUs und die PS4 18.

Sehe da jetzt keiben großen Unterschied. Wir haben ja kein 2013 mehr und die Entwickler werden schon wissen wie sie vorhandene Leistung nutzen können. Vor allem, wenn Sony und MS noch unterstützend mitwirken um ihre Konsole möglichst gut gegenüber der Konkurrenz darzustellen.
 
Ripcord schrieb:
Sehe da jetzt keiben großen Unterschied.
Zwischen 20% und 40% siehst du keinen großen Unterschied?

Und mit der Jahreszahl hat das auch herzlich wenig zu tun, wie mein 2080Ti vs 2080 Beispiel von vorher zeigt, auch Nvidia kann ab einer gewissen Anzahl die Kerne nicht mehr effizient genug auslasten, sodass die Rohleistung auch komplett ankommt.
Je weniger Kerne man hat, desto leichter ist das ganze, von 12 auf 18 CUs skaliert das ganze noch nahe der 100%, von 36 auf 52 CUs können wir uns schon im Bereich von 80% bewegen.
 
  • Gefällt mir
Reaktionen: Col.Maybourne, evilhunter und PS828
@StockholmSyndr. Tatsächlich sind die meisten Videos mit denen ich Kontakt habe, VP9. Und H.264/265

Wie du im zweiten Link deutlich Zeigst ist es nix weiter als eine Beta. Eine Implementierung also Erst in der ersten GPU Generation nach offizieller Freigabe denkbar.


Netflix und den restlichen streamingquatsch nutz ich tatsächlich nicht :D zumindest so lange wie sie keine dauerhaften Direktkäufe, unkomprimierte preloads und ordentlichen Ton ermöglichen.
 
@Teralios

Könnte es sein das die CU für RT Berechnungen die zweite CU an sich binden kann und dann wieder frei gibt und damit wieder für andere Berechnungen bereit steht? Die Dinger sind ja höchst warscheinlich nicht dauerhaft damit beschäftigt und der Anteil an der Arbeitszeit relativ gering ausfallen könnte.
 
Taxxor schrieb:
Danke für die grobe Erklärung, bedeutet das aber nicht trotzdem, dass immer nur jeweils ein Bruchteil der CUs die Aufgabe übernehmen muss, die bei Nvidia die RT Cores übernehmen?
Nein, die Aufgaben der RT-Cores übernehmen ja die TMUs.

RT-Cores sind - kannst dir ja mal dir die Folien zu der RTX2x00-Serie ansehen - vereinfacht "Fixed-Function-Units" die einen sehr effizienten Algorithmus abbilden, mit dem man den BVH-Tree durchsucht. Diese Funktionen machen nichts anderes, als den BVH-Tree zu durchforsten. Diese Suche ist sehr aufwändig, weil bei einer heute komplexen Szene eine Vielzahl an Verknüpfungen durchsucht werden müssen.

AMD erweitert nun ihre TMUs um eine weitere Funktion, nämlich eine "Fixed-Function-Unit", nur dass diese nicht separat ausgeführt wird, sondern in die TMU eingegossen wird. Die TMU bei AMD kann entweder eine Texturabfrage oder eine BVH-Abfrage beantworten und dessen Wert zurück geben.


Keine CU übernimmt die Aufgaben der RT-Cores. Deswegen auch der Hinweis, dass sowohl bei NVIDIA als auch AMD der eigentliche Effekt immer per Shader berechnet wird. Unterscheiden tun sich die Vorgehensweisen an einem Punkt dann:

Bei NVIDIA sendet der Shader seine Anfrage an den RT-Core, bei AMD an die TMU. Beide müssen ab der Abfrage darauf warten, bis sie das Ergebnis ihrer Anfrage haben, dann geht es weiter.
 
  • Gefällt mir
Reaktionen: jemandanders, Bccc1, JJJT und 3 andere
Ich glaube Big Navi wird nicht AMDs großer Wurf, den sich hier alle erhoffen. Ja, RT kommt und sie kommen etwas näher and Nvidia ran aber erst nachstes Jahr mit MCM Design wird man mehr sehen. Bis dahin wird auch die RT Leistung nicht gravierend ausfallen, muss sie aber auch nicht.
 
Shoryuken94 schrieb:
Wenn man es Pro AMD so auslegen möchte. Anders ausgelegt kann man auch sagen, dass sich AMD ein durch die Konkurrenz etablierten Begriff schnappt und für sich interpretiert.
Daran ist nichts pro AMD (gemeint).
Wie man es dreht und wendet: Der Kunde ist der Esel.
 
xexex schrieb:
Müssen sich die aktuellen Navi Karten bei beidem beweisen? Wird bei den GPU Empfehlungen kritisiert, dass die 5700 kein RT unterstützt und deswegen nur bedingt empfohlen werden kann? Das wird schon alleine wegen der geringen Anzahl an RT Spielen auch in der Zukunft ähnlich ablaufen.
Was ist denn eigentlich dein Problem? Du regst dich hier über ungelegte Eier auf. Und stellst Vermutungen an ohne auch nur eine Ahnung zu haben wie es am Ende wirklich funktioniert und Performt.
Dann nennst Du AMD auch noch Betrüger.
In einigen Monaten wissen wir wie gut oder schlecht das RT bei AMD funktioniert und ob es bei der XBOX genauso aufgebaut ist wie bei RDNA2 oder doch irgendwie anders.
Und dann kannst Du meckern oder einfach mal die klappe halten(wenn die Performance gut ist)!
 
Taxxor schrieb:
dass immer nur jeweils ein Bruchteil der CUs die Aufgabe übernehmen muss, die bei Nvidia die RT Cores übernehmen?

Aktuell sind es ja nur Zahlen, die noch nicht mit relevanten Inhalten wie FPS, Blingbling oder physikalischen Effekten gefüllt wurden.

Wenn AMD mit 52 Dingsbums 380 irgend was berechnet, können 12 Dingsbums z.B. 78 irgend was berechnen und man hat noch 40 Dingsbums übrig, was der Zahl an Dingsbums von der PS5 entspricht.

Die andere Konkurrenz macht mit einer anderen Zahl/Bauart von Bumsdings 10 von irgend was und was die nächste Generation der Konkurrenz an irgend was berechnen kann, steht noch nicht fest.

Die Zahlen sehen erst einmal ganz gut aus und was man daraus macht, wird man abwarten müssen.

mfg
 
  • Gefällt mir
Reaktionen: bad_sign, AUTScarab, gartenriese und 2 andere
In der News fehlt die Erwähnung dass der HDMI 2.1 Anschluss 40 Gbits hat.
Was da noch bei den Receivern gejammert wurde...
Jetzt ist zumindest für die Konsolen sowie AMD GPUs 40 Gbits bestätigt und keinen interessiert es. :rolleyes:
 
nom3rcy schrieb:
ich werde erst mit der ps5 pro zuschlagen, kommst sicher nächstes jahr

Bei der PS4 hat es ~3 Jahre gedauert, wie kommst du darauf dass es nun schon nach einem Jahr passiert?
 
  • Gefällt mir
Reaktionen: Obvision
Teralios schrieb:
Die TMU bei AMD kann entweder eine Texturabfrage oder eine BVH-Abfrage beantworten und dessen Wert zurück geben.
[..]
Beide müssen ab der Abfrage darauf warten, bis sie das Ergebnis ihrer Anfrage haben, dann geht es weiter.
Ich bin glaube ich echt zu wenig in der Materie um hier überhaupt einen halbwegs schlüssigen Gedankengang zu formulieren ohne dass dort direkt wieder Annahmen drin sind, die falsch sind^^

Da hätte ich jetzt gedacht, da die TMU ja in der Zeit keine Texturabfrage von einer anderen CU bearbeiten kann, während bei Nvidia dadurch dass es auf den RT Cores passiert, genausoviele Texturabfragen gestellt werden können wie vorher, müsste AMD mehr Performance verlieren.

Wenn ich mir aber mal so eine 5700XT anschaue, dann hat die 40CUs und 160 TMUs, eine theoretische Big Navi hätte dann wohl 80 CUs und 320 TMUs.
Warum gibt es denn so viel mehr TMUs als CUs? Wenn die CUs auf das Ergebnis der TMUs warten, wäre bei diesem Verhältnis ja in dem Fall, dass eine TMU gerade BHV Abfragen beantwortet, sowieso immer genug andere TMUs frei.

Freue mich schon auf dein "Falsch!" ^^
 
  • Gefällt mir
Reaktionen: GERmaximus und dohderbert
Wadenbeisser schrieb:
Nein, ich hab es noch mal versucht etwas genauer zu erklären.

Die CU/SM berechnet den Effekt, während des Effektes kommt es dann zu einer BVH-Abfrage, diese BVH-Abfrage wird dann an den RT-Core oder an die TMU gestellt - hier müssen "Millionen" an Pixel der Szene durchforstet werden, deswegen auch eine "Fixed-Function-Unit". Die CU macht im Endeffekt das gleiche wie die SM bei NVIDIA bei der RT-Berechnung, nur dass eben kein RT-Core den Suchbaum durchstöbert, sondern die TMU. Sobald der Eintrag aus dem BVH-Baum zurückgegeben wird, kann die CU dann weiter rechnen oder eben die SM.

AMDs-Ansatz nutzt aus, dass während einer Berechnung im Shader entweder eine Textur-Anfrage oder eine BVH-Anfrage kommen kann, beides gleichzeitig aus derselben CU ist wegen des imperativen Ablauf von Shadern höchst unwahrscheinlich. Jeder Pixel ist sein eigener Thread in diesem Fall, innerhalb des Pixels wird nicht noch mal parallelisiert.

Der größte Irrtum, der hier - aber auch im Internet - verbreitet ist, dass die "RT-Effekte" bei NVIDIA auf den RT-Cores berechnet wird, das ist aber falsch. Die Effekte an sich werden auch bei NVIDIA in der SM berechnet, das hat NVIDIA auch selbst recht klar kommuniziert.
 
  • Gefällt mir
Reaktionen: Bccc1, bad_sign, Aza* und 15 andere
Wadenbeisser schrieb:
Ich glaube du hattest nicht verstanden worauf ich hinaus wollte.
Weicht die Berechnung nicht so extrem ab das eine Aufbereitung der Daten genügt damit die CUs es besser verdauen können dann würde eine dedizierte, spezialisierte Funktionseinheit zusätzlichen Platz fressen weil diese noch mit eingebunden wird und zusätzliche Recheneinheiten ins Spiel bringt die nur dafür gut sind.
ich glaub du hast nicht verstanden was was wir hinaus wollten.
und dein Argument macht auch keinen Sinn, denn es wird die gleiche Berechnung mit beiden Einheiten gemacht!
 
Zurück
Oben