News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

johnieboy schrieb:
Jede AMD Karte der letzten Jahre wurde im Vorfeld in der Gerüchteküche gnadenlos überhypt, egal ob Fury, Vega oder Navi 1.

Ich würde sogar bis hawaii zurück gehen
Und ja, das ergebnis war naja
 
Botcruscher schrieb:
256-Bit sind viel zu wenig um 80 Kluster zu versorgen. NV ist ja nun auch entgültig bei AMD Problemen angekommen: Rohleistung ohne Ende die nicht auf die Straße kommt weil ROPs und co limitieren.

Es soll So etwas geben wie den von AMD patentieren infinity Cache der soll Gerüchten zufolge über 100mb groß sein, der Cache von nvidia ist 13,5mb groß.

Mit dieser anderen Art der Herangehensweise soll die Power mit "nur" 256bit Speicherinterface auf die Straße zu bringen sein, wie sollen sie sonst 88fps in cod schaffen und die 3080 90fps wenn amd doch angeblich am speicherinterface verkrüppelt.

Edit siehe auch @[wege]mini
 
  • Gefällt mir
Reaktionen: Strubbel99 und Cpt.Willard
Linmoum schrieb:
dass 256bit nicht ausreichend sind

Wenn man es brauchbar realisiert, verbietet man dem doofen Game einfach, ständig neue unnütze Texturen hin und her zu schieben und reserviert einen Teil des RAMs als "Cache".

Warum über den Bus schieben, wenn es 2 Takte vorher schon im RAM war.

mfg
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech, el Indifferente und Fighter1993
domian schrieb:
3800x, 3900x und 3950x waren längere Zeit nicht verfügbar. Sicher nicht so extrem wie gerade Ampere, aber es ist ja nicht so, als ob es bei AMD keine Lieferprobleme gibt.
Ja aber der 3700x war doch letztendlich der sweetspot.
Gut ich liebäugel auch mit dem 12 Kerner aber der 8 core sollte es auch locker bringen :D
 
AMD muss erst mal abliefern...Taktraten und bestimmte Benchmarks sagen gar nix aus!

Richtige Benchmarks auf CB und anderen Seiten werden es uns zeigen, was die Karten können.
 
  • Gefällt mir
Reaktionen: konkretor und [wege]mini
GHad schrieb:
@R@ph@el

Ähm... Hier Details: https://www.computerbase.de/forum/threads/mikroruckler-mit-asus-rog-strix-5600xt-bei-fullhd.1975493/

Ich zieh mir das nicht aus den Fingern und das Problem kann durchaus an mir oder meinem System liegen. Wenn du Ratschläge hast, her damit.
Die hat doch das PCIE 4 Fach Interface oder nicht?
Für mich klingt das, wenn man das Netzteil ausschließt, schon fast nach einem gravierenden Treiberfehler.. Kannst du es denn Reproduzieren mit anderen Programmen? Könnte am Ende an Crossout liegen.
 
dersuperpro1337 schrieb:
Ich bin und bleibe skeptisch.
Ich war beim Hype um Fury X dabei, welche ein Flop war.
Ich war beim Hype um Vega 64 dabei, welche ein Flop war.
Ich war beim Hype um Vega VII dabei, welche ein Flop war.

Flop in welcher Hinsicht?
Das die Karten in allen Redaktionen nicht den längsten Balken hatten?

Dagegen sind die Besitzer dieser Karten in Großem und Ganzen sehr zufrieden, und das sogar bis heute.
Man darf auch einfach mal selbst testen, anstatt auf die letzten Prozent in den Diagrammen zu gucken.

Flop rein technisch gesehen war die 970 ... mit ihrem 0,5 GB "Langsam-Speicher".
Rein von den Verkäufen her gesehen ist die 970er die am meisten verkaufte Karte der letzten 10 Jahre gewesen.

Vega ist ein Paradies für Bastler. Die Karten muss man eben ein wenig tweaken.
Die VII war der 7nm Pipe Cleaner ... da hat man eben das Maximum aus GCN raus gequetscht.
Hätte man sicher auch bleiben lassen können.
Für die Internas aber sicher ein Produkt was viele Erkenntnisse geliefert hat.

Sanjuro schrieb:
Diese Angabe TBA macht micht ganz unruhig, ist das so eine neuartige Technik bei GPU´s ??:freak:

JAAA, aber wie viele TBA´s ???
 
  • Gefällt mir
Reaktionen: Haldi, Benji21, Crankson und 2 andere
Laphonso schrieb:
Das wäre jetzt auch nicht die unerreichbarste aller Hürden, welche die AMD engineers hier nehmen mussten.
Die 3080 sorgte nun nirgendwo für offene Kinnladen mit der Performance als deklariertes "Flaggschiff".

Ich glaube, man sollte die Kirche mal im Dorf lassen.

Bei Erstauflage von RDNA konnte AMD mit der RX 5700 XT gerade einmal mit der RTX 2070 Super mithalten, die RTX 2080 war ein wenig schneller, die RTX 2080 Super unerreichbar und die RTX 2080 Ti auf einem ganz anderen Level.

Die RTX 3090 kann man jetzt mal außen vorlassen, denn selbst wenn die RTX 3080 20 GB 850 bis 1.000 Euro kosten wird, bleibt die RTX 3090 mit ihren 12 bis 15 Prozent Mehrleistung für Spieler weitestgehend uninteressant. Also heißt der Gegner für eine RX 6900 XT schlussendlich RTX 3080 20 GB.

Wenn AMD hier etwas auf Augenhöhe anbieten kann, 16 GB Speicher und eine bessere Effizienz auf der Habenseite hat und ggf. noch ein wenig günstiger ist, dann ist doch bereits viel erreicht.

Schneller als eine RTX 3090 (egal in welchem Szenario), 16 GB Speicher und günstiger als eine RTX 3080 10 GB Founders Edition (die 20 GB Version wird es nicht als Founders Edition geben), wird es in der Kombination so nicht geben.

Meine Prognose:
  • Leistung einer RTX 3080
  • Leistungsaufnahme leicht unterhalb einer RTX 3080
  • Preis leicht unterhalb einer RTX 3080 20 GB (die der erklärte Gegner sein wird)
Eine grobe Richtung der Leistung hat AMD ja bereits mit den Benchmarks bei der Präsentation von Ryzen 5000 gezeigt. Nehmen wir an, sie haben die Katze noch nicht ganz aus dem Sack gelassen, dann schlummern da ggf. noch 10 Prozent Leistung und man wird sich also maximal leicht oberhalb der RTX 3080 platzieren können und das auch nur im Best Case.

Die beiden Flaggschiffe für Gaming werden zukünftig wohl RTX 3080 20 GB und RX 6900 XT 16 GB sein und leistungstechnisch auf Augenhöhe operieren. Alles andere wäre eine Überraschung, wenn auch nicht ausgeschlossen.
 
  • Gefällt mir
Reaktionen: Wow4ikRU, MaW85, Kalsarikännit und 13 andere
Benji21 schrieb:
Aus heiterem Himmel kann man mit ner 2080Ti einfach nichts mehr anfangen und neue Karten welche nur 10% oben drauf legen für einen wesentlich geringeren Preis sind dead on arrival obwohl vorher maximal ein Bruchteil aller Kunden für Grafikkarten so ein Modell gekauft hat. :freak:
naja ich konnte weder mit der 1080ti noch was mit der 2080ti anfangen, ich hab mir gesagt (mit dem kauf des c9) dass meine nächste GPU unbedingt HDMI 2.1 haben muss, GPUs mit Hdmi 2.0 waren für mich daher damals schon "veraltet" ;)

selbst eine 2080ti für 200€ würde ich mir nicht kaufen :)
für mich ist es tatsächlich "preislich" ok, 3080 für 800+€ ist besser als 2080ti für 1000+€
... auch wenn es die 3080 für 800 aktuell niergends zum kaufen gibt :)
für die 980 ti (erscheinen der 10xx) hab ich damals 380€ bezahlt, inkl. Xbox 360 Wireless Controller, hab bisher also auch nie mehr als 400€ für eine gpu bezahlt, aber die 3080 wäre es mir wert.

aber ich warte jetzt tatsächlich auch die vorstellung von AMD ab, wollte mir eigentlich sofort ne 3080er holen aber ja.... so eilig hab ich es nicht mehr... tendiere aber schon eher zu nvidia wegen gsync monitor + gsync tv
 
  • Gefällt mir
Reaktionen: MeisterOek
modena.ch schrieb:


Ich seh da nicht den Unterschied zu NVENC
Cool, danke für das Update !
Schön daß es an dieser Front auch Fortschritte gegeben hat.
OBS hat AMD lange Zeit sehr stiefmütterlich behandelt.
Dieses pulsierende aufpixeln hat mich wahnsinnig gemacht !
Da ich zu der Zeit nur einen i5 3570K hätte, kam streamen über die CPU leider nicht in Frage.
Dann könnte mich AMD vielleicht ja wirklich dazu animieren wieder öfter meinen Stream anzuschmeissen.
Wobei mir der ins Haus stehende Nachwuchs wahrscheinlich einen gewaltigen Strich durch die Rechnung machen wird :D
Aber besser haben und nicht brauchen, als brauchen und nicht haben.
 
  • Gefällt mir
Reaktionen: modena.ch
SV3N schrieb:
Unnötig langes Zitat durch Moderator entfernt
Die Entscheidung die XTX zu bringen ist erst nach der 3090 Präsentation wirklich getroffen worden und die Karte kommt exklusiv von AMD und nicht von den AIBs. Die 3080 wird schon geschlagen werden in dem ein oder anderen Fall (wie es auch bei der 5700XT und der 2070S der Fall war -> wenn Sapphire oder Powercolor der Karte unbedingt die Sporen geben wollen halt) - Raster auf jeden Fall, Raytracing ist zwischen der Turing und Ampere Arch., und nochmal: das DLSS Äquivalent kommt erst später, aber bestehende Systeme bei AMD wurden aufgebohrt (CAS, FidelityFX, RIS) und sind nun deutlich besser nutzbar (halt mehr FPS als bei DLSS, aber etwas schlechter in der Bildqualität) Bei den Preisen wird es wohl im Schnitt günstiger sein - sie wollen die 3080 halt über den Preis deutlich schlagen - kommen sie mit der Karte dem Preis der 3070 zu nahe hat Nvidia ein Problem.
Aber im Zweifel wird dann halt doch Nvidia gekauft - die 80% Marktanteil kann man nicht so einfach aus der Rechnung rausnehmen.
Ich für meinen Teil entscheide immer was für mich in der aktuellen Situation am meisten Sinn macht. Trotz Dual GSync Monitoren heißt das im Zweifel wechseln - das kann natürlich nicht jeder (Kosten) aber generell sind wir doch alle froh endlich mal wieder die Wahl zu haben. Wenn es auch im Moment schwierig ist die 3080/3090 überhaupt zu ergattern - die Zeiten werden sich auch wieder ändern.
 
Zuletzt bearbeitet von einem Moderator: (Unnötig langes Zitat durch Moderator entfernt)
SV3N schrieb:
Ich glaube, man sollte die Kirche mal im Dorf lassen.

Bei Erstauflage von RDNA konnte AMD mit der RX 5700 XT gerade einmal mit der RTX 2070 Super mithalten, die RTX 2080 war ein wenig schneller, die RTX 2080 Super unerreichbar und die RTX 2080 Ti auf einem ganz anderen Level.

Die RTX 3090 kann man jetzt mal außen vorlassen, denn selbst wenn die RTX 3080 20 GB 850 bis 1.000 Euro kosten wird, bleibt die RTX 3090 mit ihren 12 bis 15 Prozent Mehrleistung für Spieler weitestgehend uninteressant. Also heißt der Gegner für eine RX 6900 XT schlussendlich RTX 3080 20 GB.

Wenn AMD hier etwas auf Augenhöhe anbieten kann, 16 GB Speicher und eine bessere Effizienz auf der Habenseite hat und ggf. noch ein wenig günstiger ist, dann ist doch bereits viel erreicht.

Schneller als eine RTX 3090 (egal in welchem Szenario), 16 GB Speicher und günstiger als eine RTX 3080 10 GB Founders Edition (die 20 GB Version wird es nicht als Founders Edition geben), wird es in der Kombination so nicht geben.

Meine Prognose:
  • Leistung einer RTX 3080
  • Leistungsaufnahme leicht unterhalb einer RTX 3080
  • Preis leicht unterhalb einer RTX 3080 20 GB (die der erklärte Gegner sein wird)
Eine grobe Richtung der Leistung hat AMD ja bereits mit den Benchmarks bei der Präsentation von Ryzen 5000 gezeigt. Nehmen wir an, sie haben die Katze noch nicht ganz aus dem Sack gelassen, dann schlummern da ggf. noch 10 Prozent Leistung und man wird sich also maximal leicht oberhalb der RTX 3080 platzieren können und das auch nur im Best Case.

Die beiden Flaggschiffe für Gaming werden zukünftig wohl RTX 3080 20 GB und RX 6900 XT 16 GB sein und leistungstechnisch auf Augenhöhe operieren. Alles andere wäre eine Überraschung, wenn auch nicht ausgeschlossen.

Seh ich ganz genau so. Ihr habt ja auch nicht alle ZEN 1 /1+/2 gekauft, weil die CPU in Spielen der Brummer war. Sondern weil das gesamt Paket gestimmt hat.
 
jk1895 schrieb:
obwohl ihr Konkurrent einen Volltreffer mit der 3000er Serie gelandet hat.

Also für mich, ist nur das DLSS ein Volltreffer.
Der Rest hat NV aber so richtig gegen die Wand gefahren (Volltreffer).
 
  • Gefällt mir
Reaktionen: Bright0001 und bad_sign
@SV3N
Du solltest dich der Kritik hier schon stellen und nicht einfach Postings zensieren (wenn du das warst)
Die News bietet inhaltlich nicht neues, ist aber so nicht gekennzeichnet.
Genau die selben Spekulationen gab es bei euch schon als News - warum nochmal aufgelegt? -> klicks
Inhaltlich sind sowieso keine Fakten dabei.

Und dann noch der fade Beigeschmack das du hier früher unter dem Usernamen Ryzen unterwegs warst... ist ja sehr unparteiisch... da will wohl einer das die Radeons ganz toll werden und bleibt nicht objektiv.
Ist ja nicht so das ich auf der Seite von Nvidia oder wem auch immer wäre (sehe die sehr kritisch) aber das ist doch schon etwas schade für regelmäßige Leser der News, den Artikel hätte man sich so kneifen können.

Bitte in Zukunft Fakten und nicht Gerüchte erneut als News verwursten.
 
BlackRain85 schrieb:
Seh ich ganz genau so. Ihr habt ja auch nicht alle ZEN 1 /1+/2 gekauft, weil die CPU in Spielen der Brummer war. Sondern weil das gesamt Paket gestimmt hat.
ich "bereue" es mich damals für den 8700k entschieden zu haben nur weil amd niergends lagernd war, auch wenn die leistung des 8700k @ 5.1 wirklich sehr gut ist, mit amd hätte ich halt "jetzt" auch die 5000er nutzen können und hätte die modernere Plattform.

naja kann mich mit einem möglichen upgrade auf 9900k (glaub das wäre mit meinem board noch möglich) trösten XD
 
@Rockstar85

Ja, die Karte hat PCIE 4, mein Board hat aber nur 3

Dachte das sei alles ohne Problem rückwärtskompatibel. Aber das könnte es erklären, falls die Karte warum auch immer zwischendurch auf PCIe 2 oder 1 zurückfällt für eine Weile...

Und leider hab ichs nirgendwo sonst gegengetestet. Ich hätte noch Borderlands 3 ausprobieren können, das lief auf 4K aber ganz ok auf mittleren Settings ohne VSync bei ca. 60 FPS mit der 5600XT. Da sind mir keine Probleme aufgefallen das Wochenende davor (hab aber auch nur eine 3h Session gehabt).

Erst diesen Freitag als ich mal wieder Zeit zum Zocken hatte hatte ich die Probleme mit Crossout. Da war der 4K Monitor schon in Retour und dann ist es mir eben aufgefallen als ich nach ruckelfreien Settings gesucht habe aber keine finden konnte.

Und als ich es bis Samstag Abend nicht hinbekommen habe hab ich kurzerhand die alte GraKa wieder eingebaut ohne andere Games zu testen.

Blöd. Ich überlege off ich noch mal Zeit investieren soll oder ich morgen den Umtausch bei Arlt probieren soll.

Die Karte ist an sich geil, ziemlich lautlos auch in Game und reicht für meine Ansprüche und das 4K Bild ist toll zum Arbeiten. Aber ich kann weder mit täglichen Abstürzen leben noch mit Mikroruckler Phasen. Und ich will da auch nicht unendlich Zeit investieren zum Basteln... Hmm...
 
domian schrieb:
Diese dargestellte Performance p. Watt ist aus meiner Sicht absolut unrealistisch. AMD kocht auch nur mit Wasser. 7nm hin oder her.
Ganz einfach das Gerücht spricht von 255W für NAVI 21 XT und die 3080 benötigt 320W
255/320 = 0.80 x 100 = P/W 3080 80%

Laut Computerbase hat die 3080 ein Performancerating von 200% relative zur 5700XT (100%)

100% + (100% x 0.6 scaling 60%) = 160% / 1.9GHz x 2.4GHz = 202% bzw. eine P/W von 100% relativ zu den 80% der 3080.

Das alles ohne die Miteinbeziehung allfälliger IPC Steigerungen.
Mit zum Beispiel + 10% IPC fällt die relative P/W natürlich entsprechend noch schlechter für die 3080 aus.
Allerdings ist wie erwähnt das SI noch die große Unbekannte, falls diese limitieren sollte, sieht es für die 3080
doch schon deutlich besser aus im Vergleich zur Navi 21 XT.


Wobei der real anliegende Takt beim Gaming laut Computerbase im Bereich von 1.820 bis 1.840 MHz für die 5700XT liegt.

Bei den 2.4GHz handelt es sich ebenfalls um den real anliegnden Takt und der max. boost kann sogar noch leicht höher ausfallen.
Daher sieht es eigentlich für die 3080 aus P/W Sicht sogar noch schlimmer aus.
 
Zuletzt bearbeitet:
Ich bin gespannt!
Die 5700(XT) war für mich einfach zu leistungsschwach.
Schade das es so lange gedauert hat.
 
Eines muss ich ja zugeben (als langjähriger Nvidia-Nutzer seit fast 15 Jahren): Das Treibermenü von AMD ist ja tausendmal schöner, übersichtlicher und praktischer!


Ich glaube, ich steige nun doch auf AMD um und hole mir die RX 6000. :D

Nvidias Treibermenü ist sowas von altbacken und enthält so viele alten Einstellungen, die mittlerweile völlig irrelevant sind oder überhaupt keinen Effekt oder Nutzen mehr haben und die jüngeren Nutzer nur verwirren. Zudem ist Nvidias Treibermenü auch oft etwas langsam und reagiert erst nach einer Sekunde auf das, was man macht.
 
ArrakisSand schrieb:
Ganz einfach das Gerücht spricht von 255W für NAVI 21 XT und die 3080 benötigt 320W
255/320 = 0.80 x 100 = P/W 3080 80%

Laut Computerbase hat die 3080 ein Performancerating von 200% relative zur 5700XT (100%)

100% + (100% x 0.6 scaling 60%) = 160% / 1.9GHz x 2.4GHz = 202% bzw. eine P/W von 100% relativ zu den 80% der 3080.

Das alles ohne die Miteinbeziehung allfälliger IPC Steigerungen.
Mit zum Beispiel + 10% IPC fällt die relative P/W natürlich entsprechend noch schlechter für die 3080 aus.
Allerdings ist wie erwähnt das SI noch die große Unbekannte, falls diese limitieren sollte, sieht es für die 3080
doch schon deutlich besser aus im Vergleich zur Navi 21 XT.
sorry
 
Zurück
Oben