News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

derSafran schrieb:
Ja, aber sehr schöne Spezifikationen. Eventuell zu schön... Ich finde gut, dass es berichtet wird, aber im vorsichtigem Ton. Nicht, dass es nochmal so eine Vega-Enttäuschung gibt :/
Bin auf jeden Fall ultragespannt und sehr, sehr interessiert!

Oder noch schlimmer Fury X Enttäuschung ;) Ich bleibe mal entspannt... Ich glaube noch gar nichts. Ich erwische mich aber trotzdem schon wieder wie ich insgeheim am hoffen bin :)
 
foo_1337 schrieb:
Dein Fehler ist, dass du einen SoC nicht von einer APU unterschieden kannst. Nvidia hat keine APU und hat auch nicht bei Sony/MS gepitched.
Große Worte. Eine APU kann auch ein SoC sein.
Nvidia konzentriert sich auf den Pro Markt. Da sind die Margen wesentlich höher.
Ohja, die Shield ist so ein großer Pro Markt. Und die Nintendo Switch ist schon fast elitär. Totaler Pro Markt.

Fakt: Nvidia hatte schlicht für PS4 und Xbox kein passendes Produkt im Portfolio und haben es für PS5 & Co noch immer nicht.
 
  • Gefällt mir
Reaktionen: Kodak, Otsy und Mracpad
Vitali.Metzger schrieb:
Alleine schon das AMD gleich mit 3 Modellen an den Start gehen wird, ist für mich ein gutes Zeichen. 2080ti Leistung mit 12 oder 16 GB für 500€ bei um die 200W und ich bin dabei.
...und ich bin auch dabei. :D
 
Ich zitiere mal @ Jan:

Die Redaktion hat die Gerüchteküche im Auge, greift aber bewusst nur die Gerüchte auf, die als glaubwürdig eingestuft werden. Und das sind aktuell nicht viele.


Natürlich kann es dabei zu Fehleinschätzungen kommen, aber lieber ein Gerücht nicht aufgegriffen, als jeden Informationshappen – und sei er noch so unrealistisch – mit einer kritischen Einordnung ins Rampenlicht zu stellen.


Diese Einstellung vertritt ComputerBase nicht nur im Fall von AMD Ryzen 3000 und Navi, sondern generell.

Quelle: https://www.computerbase.de/2019-05/amd-ryzen-3000-navi-geruechte/
 
  • Gefällt mir
Reaktionen: han123, Otsy, Dai6oro und eine weitere Person
FranzDurst schrieb:
Ich werde jedenfalls entspannt vergleichen und dann das für mich bessere Produkt kaufen, hoffentlich AMD! Maximal 10 fps im Durchschnitt weniger als die 3080 und der Hobel ist gekauft!

Und bei 11fps dann die 3080 oder was? :D
 
  • Gefällt mir
Reaktionen: FranzDurst
Meine Fresse gehts hier ab.

First ... lass die 3070 gut werden und verfügbar.
Second ... Bitte Bitte holt Euch dann alle eine 3070 ...

... damit ne Big Navi für mich übrig bleibt als Early.

Danke!
 
  • Gefällt mir
Reaktionen: han123 und MasterAK
Also als jemand der dringendst seine Titan p@2Ghz tauschen muss um seine (bald)neue Reverb G2 zu befeuern, interessiert mich DLSS und RT recht wenig.
Ich brauche Rohleistung für VR. Und dafür gebe ich gerne ü1000 aus. Leider ging es ja bei der 3090 nach dem Warenkorb damals nicht weiter. Aber vielleicht war es ja auch Glück. Und soweit sind 3080 und 3090 auch nicht auseinander als das die Grosse nicht erreichbar wäre.
Aber ich hatte bisher immer nur NVIDIA für VR. Bei BN bin ich ja schon geneigt AMD wieder mal eine Chance zu geben. BN soll ja USB C haben. Hat AMD denn VR treibertechnisch im Griff?
 
Cpt.Willard schrieb:
vllt. mal für die Zukunft im Hinterkopf behalten, was nicht heißt, dass AMD sowas nicht auch gern gemacht hätte.
naja, als ich mir damals die 980ti gekauft hatte, hatte AMD absolut nichts vergleichbares :) jetzt bin ich halt an Gsync gebunden
 
Nun, ich versuch mir mal die Mühe zu machen um folgendes zu Rechnen:

Basis: 5700 XT mit 225W bei Durchschnittlich 1755 MHZ lt. CB = 100%
eine 5700XT mit 50% mehr Performance pro Watt für also bei gleicher Geschwindigkeit
168,75W Verbrauchen. Die Performance pro Watt wird ja aber auch durch die IPC Steigerung erreicht, also ist die IPC Steigerung von der alle sprechen, in meinem Verständnis, ja schon mit enthalten.

Wenn der Takt der 6900 XT / XTX nun also bei ca. 2280 MHZ liegt, sind das genau 30% mehr als die 5700XT.

Da nun ja bekannt ist, das die TGP bei ca. 280W liegen wird im besten Fall, ist das nicht die Doppelte Leistung einer 5700XT, die doppelte leistung wird also erst durch den "Mehrtakt" erreicht

168,75W x 2 = 337,5 W
280W entsprechen ca. 80% der 337,5W.

Also reden wir bei der TOP Version der 6900 von der 2,1x fachen Leistung einer 5700XT bei selbiger Speicherbestückung, da die 6900 aber nun 16GB hat, kann man vielleicht von 2,15x - 2,2x Leistung sprechen..
Laut CB ist die 3080 FE OC im Performance Rating 210% schneller als eine 5700XT. (3840 x 2160) da hat die 5700XT möglicherweise noch einen kleinen Nachteil aufgrund der 8GB statt der 10 GB. Wenn die 3080 mit 20GB bei der Auflösung möglicherweise nochmal 5% - 10% schneller ist, dann hat AMD (wie hier auch schon viele vermutet haben) mit der 20GB Version gleich gezogen und gut ist. Sollte die dann auch noch günstiger sein ist es wie der Sven schon sagt, eine beachtliche Leistung seitens AMD.

Spielerreien wie Infinity Cache etc. kann und will ich gar nicht hier berücksichtigen, da diesen sowieso noch niemand genau einordnen kann.
 
Volkimann schrieb:
Große Worte. Eine APU kann auch ein SoC sein.
Nein, bei einem SoC ist (fast) alles auf einem Chip, wie es der Name schon sagt. Es gibt von AMD auch SoC. Um die geht es aber nicht.

Volkimann schrieb:
Ohja, die Shield ist so ein großer Pro Markt. Und die Nintendo Switch ist schon fast elitär. Totaler Pro Markt.
No Clue at all? Es geht um den Server/Cloud (Big Data/ML, VDI etc) + High-End (Supercomputing, Forschung) sowie um den (ehemals) Quadro (Workstations) Markt. Eben das, wo AMD aktuell eher wenig partizipiert.
 
bad_sign schrieb:
Wenn die 3080 mit 20GB bei der Auflösung möglicherweise nochmal 5% - 10% schneller ist
Die 3090 mit 24GB und 20% mehr Rohleistung ist bereits nur 11% schneller, die 20GB werden der 3080 im Bench also nichts bringen.
 
  • Gefällt mir
Reaktionen: I'm unknown
Eine Frage die ich mir stelle wie wird das raytraycing bei den Navi 21 Karten sein . Brauchen tu ich den kack nicht aber wird sicher für einige doch auch ein Entscheidungsgrund sein .
Wenn die 6000 Serie etwas über der 3070 ist reicht mir das schon .
Dann geht meine 290 in den wohlverdienten Ruhestand.
 
  • Gefällt mir
Reaktionen: daknoll
BlackRain85 schrieb:
168,75W x 2 = 337,5 W
Damit verdoppelst du aber die komplette Karte, es werden ja nur die CUs verdoppelt, 8 Speicherbausteine bleiben, 256bit Speichercontroller bleibt, der Rest der Karte dürfte vom Verbrauch auch ähnlich bleiben.

Du musst also die 180W TDP der 5700XT verdopeln und dann den Rest der Karte dazurechnen

2x180W = 360W
360W + 45W = 405W.

Darauf kannst du jetzt die 50% Perf/Watt rechnen und kommst auf 267W für eine Karte mit 1800MHz und 80 CUs.
Man hörte aber auch in letzter Zeit immer öfter Meldungen nach denen AMD diese 50% noch übertroffen haben will.
 
Zuletzt bearbeitet:
Außerdem stellt sich weiterhin die Frage, wie hoch der Aufpreis bei der 3080 mit 20GB RAM ist. 10 GB mehr Speicher ist ja auch ne Menge. Fragt sich auch, ob es sich dann um den Schnellen DDR6X Speicher handelt oder den „einfachen“ DDR6 Speicher.
Um so interessanter könnte die RX 6800XT mit 16GB sein.
 
Martinfrost2003 schrieb:
Außerdem stellt sich weiterhin die Frage, wie hoch der Aufpreis bei der 3080 mit 20GB RAM ist.
Man munkelt von $849-$899 für die 20GB Version.
 
SV3N schrieb:
Und was in aller Welt sollte einen börsennotierten Konzern dazu bringen, die [dann] stärkste Karte am Markt quasi zu verschenken? Das wird nicht geschehen, wie man ja auch an der Ryzen-5000-Serie auf Basis von Zen 3 sieht.

AMD wird Big Navi ja auch nicht verschenken, aber die RTX 3090 ist doch kein Maßstab. Das RTX Topmodell ist dermaßen hoffnungslos überteuert, im Grunde ist der Preis so absurd, dass ich mich wundere, dass das nicht viel heftiger kritisiert wird. Man muss sich vor Augen führen, dass der GA102 der 3090 nicht der Vollausbau ist. Der zusätzliche Speicher kostet Nvidia knapp 100$. Wie soll man den Preis gegenüber der RTX 3080 rechtfertigen? Und nein, die 3090 ist keine Titan Klasse. Das ist Marketing-Blabla ohne harte Fakten (Salvage Chip!).

SV3N schrieb:
Es wird kein 3090-Leistungsniveau zu einem "viel geringeren Preis" geben und die 4K-Benchmarks von AMD haben doch gezeigt wohin die Reise gehen wird. Die waren leicht unterhalb der 3080 und selbst wenn AMD jetzt noch 10-15 Prozent in der Hinterhand hat, wird's halt "nur" 3080-Leistungsniveau oder leicht darüber.
Nur weil Nvidia mal wieder übermäßig schröpft, heißt das nicht, dass AMD seine Karten nicht intelligent platzieren kann. 1000$ sind ja dennoch happig. Außerdem muss AMD wegen fehlendem AI-Upscaling + 1. Gen Raytracing erst noch kleinere Brötchen backen. Es verdichten sich die Hinweise, dass die 3090 angegriffen wird. Ich gehe da mittlerweile sogar mit.
 
  • Gefällt mir
Reaktionen: Piep00
Taxxor schrieb:
Die 3090 mit 24GB und 20% mehr Rohleistung ist bereits nur 11% schneller, die 20GB werden der 3080 im Bench also nichts bringen.
Die Frage die ich mir stelle ist, wenn die RTX 3080 mit 20GB Speicher kommt, zu einem Preis von 899,00 / 999,00 Euro [Preise welche wir jetzt schon bei der RTX 3080 mit 10GB Speicher sehen und selbst zu diesem Preis gibt es ja bei den Käufern kein halten!], warum sollte man sich dann noch eine RTX 3090 mit nur 4GB Speicher mehr und knappen 10% mehr Leistung für 400,00 bis 500,00 Euro mehr kaufen? Im Moment ist ja der deutliche Aufpreis der RTX 3090 gegenüber der RTX 3080 eigentlich nur noch durch das mehr an Speicher zu rechtfertigen, das würde ja mit einer 20GB Version der RTX 3080 zu Nichte gemacht.

Was AMD mit Big Navi betrifft, sollte man wirklich an die Leistung der RTX 3080 oder darüber kommen und man jetzt schon genügend Grafikkarten produziert haben, würde ich sogar den Launch vorziehen. Da Nvidia im Moment nicht liefern kann, wäre das doch die Chance für AMD nach dem Motto: "Wenn nicht jetzt, wann dann!"

Wäre doch interessant zu sehen, was dann unser Nvidia CEO Huang machen würde, wenn der Markt mit gleichwertigen Produkten und mehr Speicher zu einem besseren Preis von AMD mit Big Navi beliefert wird, als das was im Moment bei den RTX 3080 Grafikkarte mit deutlich über 800,00 / 900,00 Euro bezahlt werden muss. Dann könnte der beste Launch aller Zeiten den man ja immer noch mit Champagner feiert bei Nvidia, zu einer tristen Feier mit Mineralwasser werden. :daumen:
 
  • Gefällt mir
Reaktionen: Nick.Bo
GerryB schrieb:
Speku:
Für die meisten WQHD-Gamer würde ja ne 6700XT/6800XL mit 12GB Vram reichen.
Und das Ganze am ollen 550W-NT ohne Aufrüsten zu müssen.
Geht mir auch so mein 550W NT muss mindestens noch 5 Jahre reichen.
Daher ist bei mir auch bei in etwa 200W eine Bariere wo schon driftige Gründe existieren müssen damit ich die deutlich überschreiten würde.

Daher kommt für mich wohl nur eine 6700 (36CU, 2.3GHz, 192BIt, 96MB Cache, 12GB?) oder 6700XT (40CU, 2.5GHz, 192BIt, 96MB Cache, 12GB) in Frage,
wobei ich bei der ersteren von deutlich unter 200W analog der 5700 und bei der zweiten von etwas >200W analog 5700XT ausgehe.
Leistungstechnisch würde ich die grössere Variante auch in etwa zwischen einer 2080 super und 2080ti FE einordnen.

Die + ca. 30-35% relativ zur 5700XT die dafür nötig wären müssten eigentlich drin liegen.

2.5 GHz (eventuell auch realer gaming Takt?)
mit 2.5/1.9=1.32 + IPC? sollte dies eigentlich machbar sein, scaling Effekte sind zu vernachlässigen da beide 40CU, 2560 haben und das SI wäre mit 192BIt (96MB) wohl mehr als reichlich dimensioniert wenn man es mit den 256Bit 128MB von Navi 21XT vergleicht.
Aber wir werden es ja in einigen Tagen sehen, kann auch sein das ich komplett falsch liege mit meiner Einschätzung.
 
Inxession schrieb:
Alles was man bisher gezeigt hat, ist ein Video welches die Performance einer unbekannten RDNA2 Karte gezeigt hat.
Nope. Die Karte an sich. Und ich finde es ist eine echte Schönheit... Super wäre sie ist noch leise und nicht zu heiß (im wörtlichen Sinne :evillol:)
 
Zurück
Oben