Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

Am ende des Tages sehe ich folgendes:

Die AMD 6900 XT kostet 500 $ (!!!!!) weniger im Vergleich zur 3090. Liefert von mir aus entweder die gleiche oder eine leicht geringere Performance bei einer ca. 17% geringeren Energieaufnahme. Hitzeprobleme scheint / wird Sie wohl nicht haben und es sind noch 75W Luft zum Übertakten. (75W PCI-E + 2x 8PIN 150W = 375W TBP)

Alleine schon die Ingenieurs Leistung sehe ich als sehr beachtlich an. Mit einem 256-Bit Speicherinterface, weniger Energieverbrauch, weniger VRAM, kein GDDR6X "fast" oder "die selbe" Leistung zu liefern, zollt bei mir Hochachtung.

Ein Chip deckt den Markt von ca. 500 - 1000 Dollar ab. Und Nvidia wird sicher wieder im Chip Wirrwarr wiederfinden. 3080 / 3080 Super / 3080FE / 3080TI. Verdammt, wer das nicht sieht, hat Unternehmertum verpennt.
Alleine die Preisverhandlug, YieldRate, Endkundenpreis und Lieferbarkeit haben dadurch massiven Einfluss genommen. Über die Glücklichkeit von Boardpartner ganz zu schweigen, Sie bekommen ein Produkt mit welchem Sie viel Geld verdienen und damit auch mehr Respekt zukünftig AMD zollen.

Frau Su sagte, RDNA is a Journey like Zen. Zen hat nun 4 Updates bekommen und ist wohl die beste CPU im Augenblick. Sie hat damit klar gemacht wo die Reise hingeht. Und RDNA2 ist wie Zen2. RDNA3 ist dann sicherlich vergleichbar mit ZEN 3.

Und die 2250 MHZ Game Clock bei der 6900XT scheint man ja bewusst da gehalten zu haben, damit die Custom Designs möglicherweise ggü. dem Referenz Design etwas mehr Luft haben.

Die Custom Designs brauchen gar kein neues PCB, die klatschen nen anderen Kühler und ein frisiertes Bios drauf, gut ist. 25% TBP sind bestimmt genug.

RayTracing wird wohl in allen Titeln die es Anbieten schnell genug sein. Und die 500 DOLLAR behalt ich dann, für die Next Gen RT Karte von AMD.

Die Basis für die kommende RDNA3 ist klasse.
  • 5nm (für vielleicht 20 - 40 CU mehr?) und dann trotzdem 300W - 320W TBP
  • einfache Aufstockung von Infinity Cache
  • vorbehaltlich immer noch Platz für ein größeres Speicherinterface
  • GDDR6X

Als Unternehmen glaube ich, dass AMD an einem Verkauf so einer GPU mehr Verdient als NVIDIA bei Ampere trotz geringeren Preisen. Das sichert zukünftig den Wettbewerb und uns darf es alle freuen.


EFFIZIENZ scheint das Lieblingswort von AMD geworden zu sein.

PS: Sicher bezeichnen mich jetzt einige als AMD Fanboy. Dazu kann ich jetzt aber nur sagen, dann stimmts halt, denn diese Tatsachen lassen mich im Augenblick ein AMD Fanboy sein. Tesla macht mit einer Batterie und einem Motor auch viele Verschiende Modelle und ist Flexibel. Das ist das, was ich bewundere. Und AMD hat den selben Weg eingeschlagen, wenn auch nicht ganz so Extrem wie Tesla.
 
  • Gefällt mir
Reaktionen: GERmaximus, ThePlayer, dohderbert und 8 andere
"there's no need to worry about special adapters to connect to the power supply especially ones that are placed in odd locations that can interfere with the aesthetic of your build "
Oof.
 
  • Gefällt mir
Reaktionen: Crankson, Nefcairon, Geckoo und 8 andere
Zenx_ schrieb:
naja ein Ferrari sehen deutlich mehr Leute auf der Straße als ne GPU im geschlossen PC, die Leute mit nem geilen Wagen würde ich sogar eher verstehen können

Ja, kann ich auch alles verstehen.

Ich gebe nur mal zu bedenken, auch wenn mir das sicherlich als Angeberei ausgelegt wird: Wer im oberen Einkommensdezil ist und einen top-100%-sicheren Job hat, aber das Geld wg. Covid-19 nicht in Urlaub o.ä. stecken kann, sucht sich eben eine andere Möglichkeit für Konsum.

Warum also nicht heftig Essen bestellen und mal einen halben Monatslohn für jemanden bei Nvidia finanzieren? Nur, weil es manchen hier nicht kosteneffizient genug ist? Cry me a river.
 
  • Gefällt mir
Reaktionen: nikky, Unnu, derSafran und 2 andere
RDNA2.jpg
Ist das ein GTA-Cheat eine Tekken Kombo oder was soll dies darstellen?

Aber ansonsten bin ich echt gespannt was die Tests dazu sagen.
 
  • Gefällt mir
Reaktionen: GERmaximus, AlanK und karl_laschnikow
NguyenV3 schrieb:
Man bencht 100 Spiele und zeigt die bekannteste, wo man noch vorne liegt. Dann ein paar, wo der Konkurrent leicht besser ist - soll ja nicht auffallen.

Ist doch total egal und selbst wenn die 3090 schneller ist dafür spar ich mir über 500€ und die 16GB RAM werden die nächsten 2-3 Jahre easy reichen und danach kauf ich mir sowieso wieder eine neue Karte.
 
  • Gefällt mir
Reaktionen: Unnu und Hercule Poirot
Nun wird auch klar, warum nvidia so früh gelaunched hat.
Das wär ganz schön lächerlich gewesen, wenn sie 50% mehr Geld für dieselbe Performance verlangt hätten (3090 zu 6900xt).
 
  • Gefällt mir
Reaktionen: uli_2112, Nefcairon und Hercule Poirot
NguyenV3 schrieb:
Man bencht 100 Spiele und zeigt die bekannteste, wo man noch vorne liegt. Dann ein paar, wo der Konkurrent leicht besser ist - soll ja nicht auffallen.
Nein, es gibt keinen Testparcours mit 100 Games, auch nicht auf CB.
Die meisten Testparcours haben so um die 10 - 15 Games, nicht mehr.
Das wäre auch viel zu aufwendig für die Redaktionen.

Am besten auf die Launchanalyse aus dem 3dcenter warten.
Hier wertet Leo viele Tests aus, so dass man einen guten Mittelwert hat.
 
  • Gefällt mir
Reaktionen: Unnu und Dai6oro
stevefrogs schrieb:
Weiterer Lacher, als man WoW mit Raytracing gezeigt hat, verdammt sieht das Spiel scheiße aus, mit oder ohne RT.
Das kann ich fast nicht so stehen lassen. Zwar spiele ich es schon eine Weile nicht mehr, allerdings überlege ich, mir doch wieder ein fast schon obligatorisches Addon-Revival zu gönnen.
Das Spiel sieht IMHO keineswegs "scheiße" aus. Es wollte, will und wird schlicht nie versuchen, die Realität abzubilden. Es lebt vielmehr von seinem Artwork, das hin und wieder auch schon despektierlich als "Comic-Stil" bezeichnet wurde. Das kann man auch an WC3 oder SC/2 sehen, die teils nach über 20 Jahren eine so aktive Community haben, wie sie andere Titel während ihrer gesamten Halbwertszeit nicht erreichen. Es geht eben nicht nur um die Grafik sondern in erster Linie um den Spielspaß.
Wenn es nach Deiner Logik ginge, dann würde Schach auch scheiße aussehen, weil dort immer noch die 1500 Jahre alten Symbolfiguren verwendet werden, anstatt z.B. mit dem 3D-Drucker sexy modellierte Damen. Die Grafikengine bei WOW ist nun mal in erster Linie auf MMO ausgelegt und dabei geht es doch drum, die Spieler möglichst lange ohne Zusatzinvestitionen bei der Stange zu halten, um den "Progress" zu ermöglichen. Man könnte andersherum sagen, dass der fehlende Erfolg bzw. die Kurzlebigkeit anderer Spiele eben genau damit begründet ist, dass sie immer nur in den höchsten Grafikdetails überhaupt irgend einen Reiz ausüben.

Im Umkehrschluss und als Kritik an deinem "Scheiße"-Urteil müsste man daher den Schluss ziehen, dass es Dir nur um das Eintauchen in möglichst realitätsnahe Spielumgebungen, aber gar nicht ums "Spielen" im engeren Sinne geht. Dabei geht es um andere Dinge, wie Erfolge zu sammeln, dies und das, was Blizzard eben recht gut macht, um es nie langweilig werden zu lassen. So dürfte bei Dir auch jedenfalls jedes optische Spektakel schnell seinen Reiz wieder verlieren, sobald es etwas noch Beeindruckenderes gibt. Ich hoffe, dass das bei einer Grafikkartenvorstellung nicht OT ist. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Crankson, Cyberwiesel und Kalsarikännit
..ist doch immer das Gleiche
780ti mit 3gb Vram -> Speicherkrüppel
970 mit 3,5gb Vram -> Speicherkrüppel
1060 mit 3gb Vram -> eigentlich schon eine Frechheit an sich.

Unter 12gb kaufe ich keine neue Karte. Und hier heißt es 16gb und Rot für 649 € oder 24gb und eine Niere für Grün

Der Onkel vor diesem Computer möchte einfach nur 165fps in wqhd mit angepassten Grafikeinstellungen. RTX on wäre mir keine 10 Frames wert und DLSS schließt sich durch die paar Spiele mit denen es Funktioniert kategorisch selbst aus.
 
  • Gefällt mir
Reaktionen: Crankson, Chrisu80, Unnu und 5 andere
SPECIALIZED- schrieb:
Wenn man in 4K zocken will, wechselt man dann nicht eh jede Generation auf das Topmodell?
Geht mir zumindest so, da wir noch immer nicht in jedem Game bei 4K + 144Hz sind
ich persönlich überspringe meist eine Generation also die nächste generation würde ich wahrscheinlich nicht holen (ausser der Unterschied wäre wirklich riesig) und da grafikkarten ja eher alle 2 Jahre kommen wären das 4 Jahre.Werden in 3-4 Jahre 10gb Vram noch reichen und somit mit Raytracing und dlss an der 6800xt vorbeiziehen oder werde ich das Vram limit schon bei Cyberpunk erreichen? Es fällt mir wirklich schwer haha.
 
bin gespalten.
die Rohrleistung ist deutlich höher als gedacht

aber
keine aussagen zu RT und keine Aussagen zu einem dlss Gegenstück.
 
Einfach nur WOW!!! Mehr fällt mir da gerade nicht ein.
 
  • Gefällt mir
Reaktionen: Hercule Poirot und Dittsche
Freu mich auf die Test´s , aber 999 eu ist schon eine ansage für die RX 6900 XT !
 
Axol-13 schrieb:
Anhang anzeigen 984856
Ist das ein GTA-Cheat eine Tekken Kombo oder was soll dies darstellen?

Aber ansonsten bin ich echt gespannt was die Tests dazu sagen.

Könnte ein Finish him bei Mortal Combat sein, obwohl ist vermutlich zu kurz.
 
  • Gefällt mir
Reaktionen: Dittsche
bvbdragon schrieb:
ok ich warte jetzt einfach mal 1-2 jahre auf amd bis mal etwas wie dlss vielleicht kommt um cyberpunkt oder wd3 zu spielen :freak:

Ja weil du das spiel ohne DLSS überhaupt nicht spielen kannst .... OMG bist du ein Fanboy od. meinst du die sülze ernst?

Wer sagt das es 2 Jahre dauert bis eine Lösung kommt? Ich habe gemeint es wird diese Zeit dauern bis eine DLSS Lösung im Markt stark verbreitet ist so das man es auch tatsächlich "als" Gewinn und Vorteil ansehen werden kann.

und das Nvidia reihenweise ihr "closed Source" ausflüge mit "tollen" features versemmelt haben ist dir ja auch bekannt oder? Daher sei dir nicht gewiss das dieses Schicksal nicht auch mit DLSS passieren kann wie gesagt es ist viel Aufwand auf Nvidias seite und daher kosten die Sie unmittelbar nicht zurückbekommen.
 
  • Gefällt mir
Reaktionen: Hercule Poirot
KlaraElfer schrieb:
Wenn AMD so gar nichts zu den Punkten sagt, wird das AMD RT/DLSS Pendant wohl nichts gescheites sein, davon kann man ausgehen, bzw ich weiß es eh schon ne Zeit lang, aber dass man gar nix zeigt hätte ich nicht gedacht, das ist mager und da hilft mir der RAM dann auch nichts.

Ich verstehe sowieso nicht, warum du nicht noch bis zu den Test's gewartet hast und dann deinen 10900K / 3090 verkauft hast?

Werde es ähnlich machen wenn ich ne ZEN 3 / 6900 bekomme ok und wenn die mir net zusagt Bucht!
 
acmilan1899 schrieb:
Wow ich bin absolut überwältigt. Die Preise sind extrem (im positiven Sinne) frech.


Genau das (alte Strukturen gebrochen) hat AMD mit Zen auch gemacht.
(Vertrauen schaffen, Marktanteile gewinnen, egal zu welchem Preis)

Intel und Nvidia sind aus der "comfort zone" raus und müssen zu anständigem Tarif liefern.
Nvidia kann die 3090 zu einem Preis von 1500€ auch knicken, außer jemand braucht CUDA.

Nächstes Jahr wird wahrscheinlich das geilste Hardware Jahr aller Zeiten.
 
  • Gefällt mir
Reaktionen: Hercule Poirot
Zurück
Oben