News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

Hollomen schrieb:
Für mich liest sich das alles eher bescheiden. Die TDP bei solch hohem Takt soricht für einen "kleinen" Chip. 256 Bit SI, ist wohl auch eher ein Witz. Einzig ein großer/der gemutmaßte Cache könnte hier noch was retten.

Soweit bekannt ist hat AMD mit Sony und Microsoft an einer Technik gearbeitet Bandbreite zu Sparen um die Leistung eines großen Interfaces rauszubekommen. Wer weis was da wirklich rausgekommen ist, aber wenn AMD da was abliefert das mit NV mithalten kann und dabei weniger Strom verbraucht why not?
 
  • Gefällt mir
Reaktionen: anzman
Ich denke auch das die Karten leicht "Überhyped" sind Aber wir wissen immerhin
schon das sie mindestens mit einer 3080 "mithalten".

Der hype bei den RTX 30** war noch heftiger.
und so richtig versteh ich den Hype immer noch nicht.
Vieles an PR BS.
Was ja normal ist nur wird das selten mal für so bare Münze genommen :D

Bin gespannt auf RDNA2.
Wenn das was AMD bei der ZEN 3 PC gezeigt hat wirklich
schon Ende der Fahnenstange ist und sie dabei fast 100 WATT
weniger brauchen wäre das trotzdem eine ENORME Effizienz Überlegenheit
( Ein komplett neues Konzept bei AMD :D )
 
  • Gefällt mir
Reaktionen: Rockstar85
SKu schrieb:
Ich denke, dass AMD dieses Mal ein heißes Eisen mit RDNA2 haben wird. Nvidias zwanghafter Move noch mehr Leistung aus einer 3080 pressen zu wollen, indem sie einfach 50W mehr dafür opfern, passt nicht zu dem Nvidia der letzten Jahre. Auch hat Nvidia bislang mit keinem Konter das Argument für mehr VRAM aufgeführt. Auch hätte Nvidia der 3080 mit Sicherheit wieder lieber den 104er Chip verpasst, wenn sie könnten.

Mann stelle sich vor wie viel eine 20GB 3080 erst verbrauchen wird, wenn das Refernzmodel mit 10GB bereits 320W verbrauch. Ich würde mal auf 340W tippen.
Das mit den verarschmichnicht 699$ für die 3080 hat Moore's law is dead bereits frühzeitig richtig erkannt, das es sich dabei nur um einen fake Preis in homöopathischen Dosen handelt um dann bei den Boardpartnern so richtig abzukassieren.
Ist eigentlich auch einleuchtend: 627mm2 Samsung 8nm, 10GB, GDDR6X und extrem teure Kühllösung / Board da wird es schwierig die für NVIDIA typischen 60% Marge einfahren zu können.
Aber ein 103er wird wohl im Verlaufe des nächsten Jahres sicher noch folgen.
SKu schrieb:
Big Navi wird Nvidia in Bezug auf Rasterization Performance Paroli bieten.
In Bezug auf RT und DLSS wird AMD das Nachsehen haben.

Ein Equivalent zu DLSS scheint gegenwärtig auch wenn eher unwahrscheinlich nicht ganz ausgeschlossen zu sein.
ML xbox.png

Beim Thema RT ist noch nicht aller Tage Abend auch wenn es anhand des Architecture Whitepaper Anhaltspunkte gibt die auf eine Überlegenheit von Ampere bei RT hindeuten.
Jetzt kommt das aber!
Beim in der XBOX verwendeten RDNA2 Derivat muss es sich wie der Name Derivat schon sagt nicht zwangsläufig um die exakt gleiche RDNA2 Variante handeln sondern da können abseits vom SI noch massig andere Änderungen auch in Bezug auf RT vorgenommen worden sein.
Allein schon die Fläche von 500-530mm2 die für Big Navi in den Raum gestellt werden würde darauf hindeuten.

Als Beispiel hat der GPU Part des XBOX SoC für 56CU's ca. eine Fläche von 300mm2 (das ist sicher)
Bei 80 wären das 428mm2 jetzt hat big Navi im Unterschied zum SoC nur ein 256 Bit anstatt ein 320Bit SI
Hochgerechnet auf die 80CU würde das ca. dem halben relativen Platzbedarf für das SI benötigen.
Bzw. < 400mm2 für 80CUs nun gehen ein beträchtlicher Teil wohl für die 128MB IF Cache drauf.
Was ist mit dem Rest um auf die 500-530 zu kommen?
(Gut analog Zen 2 würden 128MB L3 Cache wohl ca. 136mm2 benötigen allerdings ist das schwierig miteinander zu vergleichen)
Aber eins ist klar 128MB IF werden einen großen Teil dieser Differenz beanspruchen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ice-Lord und Thorque
Klingt immer alles ganz gut, auf die Straße gebracht hat AMD die Leistung bei GPUs leider nie ... Aber man hofft weiter auf Besserung. Preis ist mir egal, Stromverbrauch ist egal, schlägt AMD die 3080 oder nicht- ist mir eigentlich auch egal. Wichtig ist nur dass ich eine Grafikkarte bekomme die meine angestaubte VII in Rente schickt ohne das Lager wechseln zu müssen. Verfügbarkeit wäre noch interessant, nen 5900x und ne neue GPU vor den Feiertagen wäre schön nett, wenn man eh schon nicht unter Leute darf 🙈🙊🙉
 
  • Gefällt mir
Reaktionen: Cpt.Willard
engineer123 schrieb:
Wenn der neue AMD Wunderchip wie die drei Benches aus dem AMD Teaser gezeigt haben
"nur" knapp an einer 3080 dranliegt, und dafür benötigt der Chip auch
noch
irgendwas um die 2300 bis 2400 Takt plus 6 GB VRAM mehr...
OK, spätestens bei dem Punkt war klar das der Rst auch Unsinn ist.
 
  • Gefällt mir
Reaktionen: Kodak, Otsy, hongkongfui und 3 andere
^^"Vorschußlorbeeren" ist nichtdestotrotz ein Blödsinns Titel,

keine Benchmarks -> keine Vorschußlorbeeren

bislang gab es nur die drei von AMD - und die liegen hinter der 3080
nicht DAVOR.
 
  • Gefällt mir
Reaktionen: gesperrter_User
Ist es wirklich der Maßstab ob man vor einer 400 Watt fressenden Karte für 800 Euro liegt oder habe ich was verpasst und Gamer kaufen sich heutzutage echt so einen Müll? Wird wohl eher unter 0,1% aller PC Gamer sein, wobei die meisten Gamer eh Konsole oder Smartphone sind ^^
 
Krautmaster schrieb:
Ist ohne X86 schwer. Und X86 macht die Portierung Zwischen PC und Konsolen sehr einfach
Dann soll man sich seitens Nvidia nicht hinstellen und so tun als ob sie nur kein Interesse gehabt hätten. So haben sie es nämlich marketingtechnisch verkaufen wollen.
 
eSportWarrior schrieb:
Kann AMD aber trotzdem nicht kaufen im GPU Bereich da Sie keine vernünftige NVENC Konkurrenz anbieten
Kannst Du das so genau sagen?
Beim Test der W5700 bei Igor hat die sich gegen die Q4000 gar nicht mal schlecht geschlagen.
Mit Navi2 kommt dann ja auch der VCN 3.0. Navi1 hatte noch Version 2.
Ich würde das wohl nicht so einfach verallgemeinern sondern bei jeder Gen wieder neu hinschauen.
 
Volkimann schrieb:
Dann soll man sich seitens Nvidia nicht hinstellen und so tun als ob sie nur kein Interesse gehabt hätten. So haben sie es nämlich marketingtechnisch verkaufen wollen.
Hä? Wie hätten sie es denn sonst hinstellen sollen? Das wäre ungefähr so, wie wenn du AMD dafür blamen würdest, dass sie am Smartphone Markt kein Interesse haben.
 
Laphonso schrieb:
Genau deshalb ist so ein Feature wie DLSS der Trumpf überhaupt.

Wenn selbst eine 3090 in RDR2 4K Ultramax mehr oder weniger stabil gerade mal über 60 fps (von dreistelligen frames ist eine 3090 da auch so weit entfernt wie Schalke von einer Meisterschaft) in einem "last gen" Spiel stemmt, dann sieht man, dass 4K Gaming unter der Prämisse "ich kann meinen 144/165/240 Hz Monitor fluten" unfassbar weit entfernt ist, und evtl niemals den Effekt und Feature catchup schafft ,denn Raytracing prügelt direkt wieder die fps weg.

DLSS ist für mich die wichtigste (R)Evolution hier.


Du hast recht aber irgendwie vergessen alle, das AMD eine ähnliche Technologie hat.

Optisch sehe ich kaum Unterschiede.

 
  • Gefällt mir
Reaktionen: Haldi
foo_1337 schrieb:
Hä? Wie hätten sie es denn sonst hinstellen sollen? Das wäre ungefähr so, wie wenn du AMD dafür blamen würdest, dass sie am Smartphone Markt kein Interesse haben.

Um dich mal zu erhellen (falls du es nicht wusstest)
In den meisten Smartphones stecken Adreno GPUs, eigentlich sind das Radeons.
Die mobile Sparte hat AMD aus Geldnot verkauft.
 
iron mike schrieb:
Um dich mal zu erhellen (falls du es nicht wusstest)
In den meisten Smartphones stecken Adreno GPUs, eigentlich sind das Radeons.
Ich rede auch nicht von AMD 2008, oder wann das genau war.., sondern AMD von heute oder in den letzten Jahren.
Aber danke für's "erhellen".
 
LäuftBesser2000 schrieb:
Beides optimiert dein Bild und entlastet deinen PC.
Fidelity FX CAS optimiert dein Bild nicht, es verschlechtert es, und zwar IMMER. Das geht aufgrund der Technik gar nicht anders.

DLSS ist damit nicht vergleichbar.
 
  • Gefällt mir
Reaktionen: adAstra, .Sentinel., legenddiaz und 4 andere
Gerne.
Naja der Punkt ist letztlich AMD kann alles aus einem Haus liefern, Nvidia müsste bei den CPUs kooperieren, da ARM nicht genügend Power für Games auf diesem lvl bieten könnte. Es müsste also zwingend Intel oder AMD mit an Bord sein und beide würden das mit Nvidia nicht machen.
Zudem hat man mit AMD immer gute Erfahrungen gemacht, auch weil man da wohl viel Geld spart.
Baue mal in aktuelle Konsolen Intel und Nvidia rein, eben mit womöglich dedizierter GPU und stelle dir die Preise vor...
 
LäuftBesser2000 schrieb:
Beides optimiert dein Bild und entlastet deinen PC.
Du kannst diese beiden Technologien bei weitem nicht vergleichen. Es ist jedoch davon auszugehen, dass AMD ein Äquivalent vorstellen wird. Ob noch dieses Jahr, wird sich zeugen.
Ergänzung ()

iron mike schrieb:
Gerne.
Naja der Punkt ist letztlich AMD kann alles aus einem Haus liefern, Nvidia müsste bei den CPUs kooperieren, da ARM nicht genügend Power für Games auf diesem lvl bieten könnte. Es müsste also zwingend Intel oder AMD mit an Bord sein und beide würden das mit Nvidia nicht machen.
Zudem hat man mit AMD immer gute Erfahrungen gemacht, auch weil man da wohl viel Geld spart.
Baue mal in aktuelle Konsolen Intel und Nvidia rein, eben mit womöglich dedizierter GPU und stelle dir die Preise vor...
Genau so ist es. Deshalb finde ich es fragwürdig, wenn man Nvidia dafür blamen will, den Markt nicht in Angriff nehmen zu wollen. Er ist schlicht zu uninteressant für sie. Und eine diskrete GPU/CPU ist, wie du schon sagst, für MS und Sony zu uninteressant.
 
  • Gefällt mir
Reaktionen: evilhunter
Hier mal im Detail die Performance Vorteile.
Weiterhin ist Fidelity nicht abhängig von der Verwendeten Grafikkarte ;) diese Künstliche Limitierung von Nvidia mit DLSS ist eigentlich schon ein Witz genauso wie Sie versuchen Raytracing zu pushen auf kosten von brutalen Performance Einbrüchen.
Taxxor schrieb:
Fidelity FX CAS optimiert dein Bild nicht, es verschlechtert es, und zwar IMMER. Das geht aufgrund der Technik gar nicht anders.

DLSS ist damit nicht vergleichbar.
Stimmt nicht
 
Zurück
Oben