News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

Ich habe mir fest vorgenommen kein Hype aufkommen zu lassen!


Diesmal nicht AMD! Diesmal nicht...
 
  • Gefällt mir
Reaktionen: -Ps-Y-cO-
Botcruscher schrieb:
NV hat halt quasi einen AMD Chip wie Hawaii oder Vega gebastelt. Viel Leistung die man nur bei entsprechenden Anwendungen und Auflösungen auf die Straße bekommt.

Den Vergleich sollte man so nicht ziehen, da AMD damals aus der Not heraus Computing als Gaming verkauft hat, bei Nvidia sind die Karten klar auf Gaming ausgerichtet und kacken daher seit viele Gens bei Computing ab. Ist übrigens einer der Gründe für die damals eingesparten Watt, aber jetzt hat man ja so einen Brummer raus gehauen für den auch Games angepasst werden müssen. Ist aber mit den Tenso Cores genau dafür vorgesehen mit RT.

Nach der Logik hat jetzt aber AMD einen spezialistierten Gaming Only Chip in Kooperation mit Sony und Microsoft, wenn sie da einiges an Know-How auch im Desktop einbauen müsste das der Überflieger Chips werden.
Aber naja, alles wilde Spekulationen, jedoch ist es verwunderlich wie extrem Nvidia ohne Not den Launch der 3000er Serie verhauen hat. Die Preise / Leistung / Stromverbrauch macht man so einfach nicht ohne Konkurrenz. Da ist was im Busch.
 
  • Gefällt mir
Reaktionen: derSafran, tunichgut, Benji18 und eine weitere Person
Ich gönne es AMD, aber ich vermute eher 3070 bis 3080 Niveau bei der großen Karte. Wenn Preis/Leistung passt wird es diesmal wohl eine AMD Karte werden ansonsten eine 3070.

Meine jetzige 1070 packt zwar FullHD echt noch gut, aber bei WQHD wird es eng.
 
Für mich liest sich das alles eher bescheiden. Die TDP bei solch hohem Takt soricht für einen "kleinen" Chip. 256 Bit SI, ist wohl auch eher ein Witz. Einzig ein großer/der gemutmaßte Cache könnte hier noch was retten. Der wiederum verbraucht auch Leistung, genau wie die 16 GB Speicher. Da passt für mich irgendwas nicht. Ich prognostiziere, dass AMD diesmal wieder hinterher fährt. Wünschen würde ich mir das Gegenteil.
 
Taxxor schrieb:
Man munkelt von $849-$899 für die 20GB Version.
Das wäre ja Milchmädchen vom Allerfeinsten, sprich die nicht existente 3080FE a 699+150 !?
Funzt nur so einfach falls es die 2GB-Module gibt. Bei zusätzlichen 1GB-Modulen auf der Rückseite wären die
3080-20GB wohl eher umgelabelte 3090XL.

eher:
Die 20GB kommen nur als Customs , brauchen auch ein höheres PL für den größeren Vram und starten
bei 949€ und die "Strixx oder Nix" > 1000€. (NT dann 850W oder Was?)
Man kann dann ruhig die Gesamtkosten Graka+NT+Gehäuse/Lüfter mal zusammenzählen,
um ein Gefühl dafür zu bekommen, ob sich der Wahnsinn vom Küchenchef überhaupt lohnt.
Vermutlich werden nur Wenige, die von der 2080Ti kommen bereits den notwendigen Unterbau besitzen.
Ob Diese jedoch auch mehrheitlich umsteigen, bezweifel ich.(schließlich soll 2021 schon Hopper kommen)

Speku:
Falls AMD tatsächlich ne XTX bringt wäre ja auch noch schnellerer GDDR6 vorstellbar.
https://www.computerbase.de/2018-01/samsung-gddr6-18gbps/
(damit no Problem für die IF)

Analog dann die XT mit 16Gbps und die XL mit 14.(falls die XL net gar nur 12GB@192bit bekommt)
Das wäre dann kostendeckend sinnvoll.
Momentan würde mich bei AMD nix mehr überraschen, da waren die RX5600XT und RX5500XT schon gute Bsp.,
das man net vor Modellvielfalt mit entspr. Cuts zurückschreckt.
Gerade ne RX5800XL/RX5700XT@12GB würde dann NV schon Richtung einer teuren 3070(Ti)-16GB drängen.
(selbes Spiel wie bei Turing SUPER = Pyrrhussieg auf dem Papier für NV)
 
Zuletzt bearbeitet:
Eine der wenigen Releases, wo AMD deren GPUs nicht hyped, aber dann trotzdem für die eventuellen Enttäuschungen dastehen muss, die durch Leaks entstanden sind.

Und man sollte auch beachten dass der GPU Boost (ob der jetzt bei 2.4 GHz liegt oder nicht) nicht überall anlegen wird wenn er sich ähnlich verhält wie die Ryzen oder sogar die 3000er Nvidia Karten.

Hat man ja ganz gut bei den 3080s gesehen, die über 2 GHz geboostet haben - aber nur dann, wenn die GPU nicht komplett ausgelastet war.
 
Bei dem hohen Takt denke ich, TSMC fertigt NAVI schon im neuen 7nm+ EUV. Da könnten solche hohen Taktraten realisiert werden.
Nur das kleine SI macht mir da noch Sorgen, aber ersteinmal abwarten wie gut NAVI damit umgehen kann. 🤔
 
Hollomen schrieb:
Die TDP bei solch hohem Takt soricht für einen "kleinen" Chip.
Wenn man die RDNA1 Effizienz zugrunde legt, ja, ansonsten passen 250-275W zu einer 80CU Karte die im Schnitt mit 2GHz läuft.

Hollomen schrieb:
256 Bit SI, ist wohl auch eher ein Witz. Einzig ein großer/der gemutmaßte Cache könnte hier noch was retten. Der wiederum verbraucht auch Leistung, genau wie die 16 GB Speicher.
Der Cache verbraucht nicht so viel, sehr viel weniger als es ein 512bit SI tun würde.
Und die 16GB Speicher verbrauchen auch nicht mehr als 8GB, weil man einfach 2GB Module nimmt, im Gegensatz zu Nvidia, die bei GDDR6X wohl wirklich von 10 Modulen auf 20 Module gehen müssen, da die 2GB chips noch nicht verfügbar sind.
 
Rockstar85 schrieb:
Dann hätte AMD aber was geschafft was weder NV noch Intel schaffen.. Die Leaking Kanäle trocken gelegt.
Ja zu dem Zeitpunkt wenige Wochen vor NV Release war das genau so. Igor war das ganze auch nicht "geheuer". Das ist zumindest nicht normal.
Moores Law is dead meinte gar das AMD noch mehr gemacht hat. Falschinfos gestreut. Bisher würde das passen. Zu viele Infos passten nicht. Da wurde alles über einen Kamm geschert.
Es gab auch die Vermutung das AMD das Referenz Design bei Sapphire produzieren lässt. Da Sapphire exklusiver Partner ist werden die Ihre Lippen versiegeln.
Igor selbst ist sehr ruhig geworden. Ich vermute er hat neue Infos aber unter NDA...
 
  • Gefällt mir
Reaktionen: Rockstar85
Novasun schrieb:
Es gab auch die Vermutung das AMD das Referenz Design bei Sapphire produzieren lässt.
Soweit ich weiß, stammen die Referenzkühler schon länger von Sapphire.
 
  • Gefällt mir
Reaktionen: Colindo
Botcruscher schrieb:
Tests einfach passend wählen. 100MB irgendwo als Zwischenspeicher sind für eine GPU nichts. Zudem muss auf so eine Konstruktion wieder extra entwickelt werden. Nach dem Treiberdesastern um Vega und Navi bestimmt ganz toll.
Aber irgendwie hat es ja funktioniert und ich glaube nicht das man da extra drauf entwickeln muss, das wird AMD schon abgeklärt haben.
Das wird schon werden.
 
Sun-Berg schrieb:
Ich habe mir fest vorgenommen kein Hype aufkommen zu lassen!
Diesmal nicht AMD! Diesmal nicht...
Bin ich bei dir. AMD schafft im Zweifel die 3800 nicht. Ist dann aber im einstelligen Prozentberreich dran. Und das ist so nah wie schon sehr lange nicht mehr.
Ergänzung ()

Taxxor schrieb:
Soweit ich weiß, stammen die Referenzkühler schon länger von Sapphire.
Ich mein Vega 7 wurde komplett bei Sapphire gefertigt... (meine mich zu erinnern was gelesen zu haben)
 
  • Gefällt mir
Reaktionen: Sun-Berg
ArrakisSand schrieb:
Vielleicht handelt es sich beim ominösen Infinity Cache um ein künstlich im Teilchenbeschleuniger (LHC) in Cern
hergestelltes schwarzes Loch für die Hosentasche.
Daher benötigt die Navi 21 auch kein so üppig ausgestattetes SI wie es z.B. bei der 3080 der Fall ist.
Die Texturen werden einfach um den Faktor unendlich komprimiert (logisch daher auch infinity cache;)) und dann wieder bei Bedarf per Hardwareeinheit wieder dekomprimiert und schon ist die zuvor verschwundene Taktleistung wieder da.
Schmunzeln musste ich da schon, allerdings ist infinity angelehnt an die Infinity Fabric nicht an Infinity =unendlich 😉
 
slogen schrieb:
Ich gönne es AMD, aber ich vermute eher 3070 bis 3080 Niveau bei der großen Karte. Wenn Preis/Leistung passt wird es diesmal wohl eine AMD Karte werden ansonsten eine 3070.

Meine jetzige 1070 packt zwar FullHD echt noch gut, aber bei WQHD wird es eng.
Die 3070 sollte man eigentlich nicht in einem Atemzug mit Big Navi erwähnen, dafür ist sie einfach zu schmal auf der Brust um bei den Großen mitreden zu können.
Alleine wenn man sie mit der 3080 in Relation setzt sollte das eigentlich klar sein.
46 SM vs 68 SM bei ca. gleichem Takt ergibt einen Unterschied von 48%

Ich würde am Ende wohl auf eine Mehrperformance der 3080 von ca. 30% relativ zur 3070 bei kleineren Auflösungen (<4k) tippen.

Big Navi wiederum kommt im worst case bei 3080 - 10% und im best case
gibt es eigentlich keine Grenzen nach oben selbst eine 3090 sollte dann zu knacken sein.

Im schlimmsten Fall halt mit einer H2O Edition bei ebenfalls 480W so wie es bei der 3090 ROG STRIX GUNDAM gerade der Fall ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: slogen
Kanns nicht mehr abwarten. Ich brauch jetzt langsam mal ne Ablöse für die 1070. :D
Bin so gespannt was AMD bringt. Und wie NVidia kontern wird.
 
SV3N schrieb:
Ich glaube, man sollte die Kirche mal im Dorf lassen.

Sehr gerne, dann sollte Computerbase aber auch das Nvidia Marketing mehr reflektiert präsentieren.

Das Nvidia Marketing wurde mit jedem Tag nach dem Launch immer mehr entzaubert in den Foren und Communities, und vor allem bei Eurer sehr defensiven Paperlaunch Analyse habe ich die journalistische Schaufel ein wenig vermisst, muss ich sagen, um den Sand, welchen Nvidia getreut hat, mal beseite zu schaufeln.

Wieso bekomme ich das als User mit meinem Hobby schneller hin, über Lieferaten die authentische Situation nachzuvollziehen als ein Computer Magazin, deren primäre Aufgabe dieses Eruieren ist, zumal Ihr ja nun auch tolle Klickraten hattet? Und IHR habt doch viel bessere connections und Quellen als wir?

Nvidia hat eine schlicht verlogene PR abgeliefert. Beweis: Die Zahlen. Objektiv = intersubjektiv nachvollziehbar.

Die journalistische Glaubwürdigkeit hat immer zwei Seiten. Hype sachlich zu illustrieren aus der Technikaffinität und für die target group, aber auch Fragwürdiges zu pointieren und zu dekonstruieren, mit dem "Risiko", die Fanboys zu vergrätzen.

Als User habe ich den Vorteil, dass ich immer leichter und penetrant subjektiv bewerten kann.
Aber eine klare und kritischere Haltung von Computerbase zu dem Launchfiasko von Ampere hätte ich mir gewünscht, zumal die Radeon VII ja auch, zurecht, hier kritisch betrachtet worden ist.

Abseits der der zweifellose guten Qualität der 3080 gibt es aber eben auch das Drumherum, und Ihr habt es nicht nötig, Katalysatoren für Nvidia (oder AMD) zu sein.

Erst sehr "spät" habt Ihr eine klarere Darstellung zur Liefersituation hier published, quasi fast 2 Wochen später, nachdem allen das schon klar war.

Ist nur meine persönliche Sicht.

Bie aller Kritik bleibt Computerbase meine klare Nummer 1 :) 🍻
 
  • Gefällt mir
Reaktionen: derSafran, mtmac, easty und 4 andere
KuestenNebel schrieb:
https://folding.lar.systems/folding_data/gpu_ppd_overall
Ein wenig über 1M PPD? Das wird von einer 1660S locker getoppt - bei halbem Stromverbrauch.
Deutlich besser stehen die Karten dort da, wo die irre Bandbreite des Speichers auch tatsächlich gebraucht wird - und keine CUDA-Alternativen existieren :D
Hmmm, schon was her, aber ich meine mich zu erinnern, dass ich recht drüber lag. Natürlich mit angepassten Optimierungen bezogen auf PPD/Watt sowie UV+OC.

Unoptimert hast du wahrscheinlich recht. Die Grafik bezieht sich ja wahrscheinlich auf alle Karten. Von daher fraglich, wer die Vegas @stock verwendet hat und wer nicht.
 
Fighter1993 schrieb:
Egal ob das Spiel anspruchsvoll ist oder nicht man kauft doch keine 5600XT für 4k...
Von Full HD auf 4k werden in etwa die 4 fache Menge an Pixeln berechnet, da bringt es nichts wenn die Karte doppelt so schnell ist das ist immer noch zu langsam.
Darum ging es doch gar nicht, lediglich das alte Karten generell kein 4k 60 Hz liefern können, also auch nicht auf dem Desktop. 4k 30 Hz fühlen sich auch zum Arbeiten nicht gut an. Außerdem ist ein 4k Panel perfekt zum zocken in Full HD geeignet, weil 1 Pixel auf 4 Pixel abgebildet werden und keine Interpolation auftritt. Nur weil man 4k besitzt heißt das nicht das man es auch speziell zum Zocken angeschafft hat.
 
Zurück
Oben