Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

Marcel55 schrieb:
AMD weiß schon wie die Leute dazu gebracht werden, mehr Geld auszugeben :D

Ich meine, der RX6800 kostet 579$. Das sind 80$ mehr als die RTX 3070, dafür doppelter VRAM und vielleicht etwas mehr Leistung (vor allem wenn der VRAM ins Spiel kommt).
Und die RX 6800XT? Performance auf Level der RTX 3080. 6GB mehr VRAM, und trotzdem ist sie günstiger.
Der Aufpreis von der 6800XT zur 6800 ist in Grunde so gering, dass man gleich die große nimmt.
Das meine ich jetzt nicht unbedingt negativ, aber wenn ich ehrlich bin, hätte ich auch für 450-500$ be Karte mit 12GB VRAM akzeptiert, die die RTX 3070 vom Platz fegt.

Nunja, mal schauen wie sich die Marktpreise entwickeln. Ich hoffe, dass die Konkurrenz noch ein bisschen Preisdruck ausübt. Aber ich muss sagen, die Karten gefallen mir jetzt schon besser als Ampere.
Vor allem Features wie GPU-Memory Zugriff durch die CPU, wenn man RDNA2 mit einer Zen 3 CPU kombiniert. Ich weiß zwar noch nicht, ob es wirklich viel bringen wird, aber wir werden sehen.

Ich werde auf jeden Fall noch die Testergebnisse abwarten. Aber ich bin mir jetzt schon ziemlich sicher, dass innerhalb der nächsten Monate sowohl Zen 3 als auch RDNA 2 den Einzug in meinen Rechner erhalten werden. Diesen Monat habe ich schon mal die Vorbereitungen dafür getroffen.
Jetzt muss ich mir nur noch überlegen, was zuerst kommt.
Aktuell tendiere ich ja zur GPU zuerst, denn der R5 3600 wird erst mal noch reichen, und mit der neuen GPU merke ich dann auch schon mal eher das CPU Limit, damit rechtfertigt sich eine neue CPU umso mehr :)

Achja und 1000 Kommentare in wenigen Stunden, ihr seit echt wahnsinnig 😂
Wahrscheinlich wird das eh niemand lesen. Kommt man ja kaum hinterher.
alles gu, ich habs gelesen.... :)

du kannst deine 3600 verkaufen, und somit die letzte unterstützende cpu für die sockel kaufen. die 3600 bekommst du noch gut weg.
 
  • Gefällt mir
Reaktionen: Zenx_
Karl S. schrieb:
RT ist für mich auch noch kein Kaufkriterium. Ich finde es aber irgendwie erschreckend, wenn eine 3060 oder 6700 nicht für 350€ zu haben sein sollten. War das nicht mal die Midrange? Aber nun wo durch AMD wieder Konkurrenz herrscht, steigt die Change auf günstigere Preise zumindest theoretisch wieder an. Daumendrücken. :)
Zwischen der 6700 (gehoffte 350 Euro)und der 6800 (580 Euro) steht noch eine 6700Xt (470euro ) . Passt doch ;)
 
Und wie viele Leute waren hier felsenfest davon überzeugt, dass AMD bei der Zen3 Präsentation die stärkste Karte gezeigt hat, weil alles andere aus Marketing Sicht total dumm wäre?


4271777_620x310_r.jpg


24-1080.946d56cc (1).png


Selbst wenn man die 6800XT nimmt, ist es mehr geworden
12-1080.f2fe896b.png


zwar nur 4% aber immerhin, die Tests der Zen3 Zahlen waren von Mitte September, die der heutigen Zahlen von Mitte Oktober, bis mitte November könnten da gerne nochmal 3-4% draufkommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nefcairon, znarfw, LukS und 19 andere
Syndlogic schrieb:
Hätte mich über eine neue AMD Karte mit RTX2080 Leistung für 300 - 350 EUR gefreut
wir wissen, dass Navi22 existiert, denke mal da kommt was im Januar zur CES.
 
  • Gefällt mir
Reaktionen: konkretor, Syndlogic und danyundsahne
Karl S. schrieb:
RT ist für mich auch noch kein Kaufkriterium. Ich finde es aber irgendwie erschreckend, wenn eine 3060 oder 6700 nicht für 350€ zu haben sein sollten. War das nicht mal die Midrange? Aber nun wo durch AMD wieder Konkurrenz herrscht, steigt die Change auf günstigere Preise zumindest theoretisch wieder an. Daumendrücken. :)

ja genau meine 1060 hat damals 330€ zum release gekostet und dafür gabs ne MSI Gaming X also ne top custom karte. Wennst schaust was die 2060 super kostet ... da bist bei über 400€ ...

Ich hoffe das es preislich auch hier wieder runter geht und ich möchte in der Midrange aufjedenfall auch 8GB als minimum haben.
 
  • Gefällt mir
Reaktionen: Karl S.
GerryB schrieb:
Minus kannste Dir schenken. Wurde schon 5000 mal erklärt.
(sind die NV-DLSS-Fanboys eigentlich des Lesens mächtig?)

Chill mal.

Sobald in dem uber hype game Cyberpunk die 3070 dann um und bei 6900XT frames schiebt via DLSS, zitiere ich Dich direkt Mal, ok? ;)
 
  • Gefällt mir
Reaktionen: Knito, oeMMes und SPECIALIZED-
War schon sehr begeistert während dem Livestream weil ich mit so einer Leistung wirklich nicht gerechnet habe. Hätte eher gedacht dass die 6900 XT auf 3080 Niveau ist. Dass der Preisunterschied zwischen 6800 XT und der normalen 6800 so gering ist, ist allerdings ein bisschen ein Dilemma wenn man ein quasi neues 550 Watt Netzteil hat. Könnte mir zwar vorstellen dass die Karte in Kombination mit einem Ryzen 5 3600 sogar noch stabil laufen würde aber mit deutlich über 80% Auslastung möchte ich mein Netzteil dann doch nicht betreiben. Die normale 6800er ist für 4k aber halt nur bedingt zukunftssicher auch wenn sie derzeit anscheinend ganz gut für 60 fps reicht.
 
oeMMes schrieb:
Dann muss aber auch noch nen neues Brett her...bin ich zu faul für. Der 9700k tuts noch.

Weißt du wie die AMDs in CAD/Renderprogs wie Inventor und Konsorten performen? Hab mich seit Vega nicht mehr mit dem Zeugs befasst
Warte auf den Test von Igor, der hat solche Anwenderprogramme auch mit Test.
 
  • Gefällt mir
Reaktionen: NMA, Benji18 und oeMMes
Laphonso schrieb:
Chill mal.

Sobald in dem uber hype game Cyberpunk die 3070 dann um und bei 6900XT frames schiebt via DLSS, zitiere ich Dich direkt Mal, ok? ;)

Mein reden :hammer_alt: und das heist nicht das RDNA2 schlecht ist, im Gegenteil nur AMD's DLSS pendant ist atm kein vergleich zur NV Version!
 
  • Gefällt mir
Reaktionen: Laphonso
Simariqcocuq schrieb:
du kannst deine 3600 verkaufen
Aber erst wenn ich 5800X oder sowas im Sockel stecken hab 😅
Das ist tatsächlich mein Plan, ich hoffe ich kriege noch halbwegs was dafür dann. Allerdings ist der 3600 immer noch eine gute CPU und wildert preislich in Bereichen wo Zen 3 erst mal keine Rolle spielt. Der kleinste, 5600X, kostet ja schon fast das doppelte, für 20-25% mehr Leistung.

Allerdings muss ich jetzt erst mal sparen, habe diesen Monat schon 1500€ aufn Kopp gehauen...
 
F4irPl4y schrieb:
Ich bin leider etwas an Nvidia gebunden wegen Gsync... 😟
Und deswegen sollte man sich nicht von propietären Lösungen eines einzelnen Herstellers abhängig machen. ;)

Aber sonst...
Wahnsinns-Karten. Mir zu teuer, ich warte auf die RDNA2-Mittelklasse (6600/6700) und dann wird gegönnt. Evtl. bekomme ich noch günstig von einem Kumpel Board, Ryzen 1800 und RAM (leider B350, vielleicht gibts Mod-BIOS) und fertig ist mein erster AMD-only Rechner :love:
 
  • Gefällt mir
Reaktionen: Nefcairon und Benji18
Ich sehe das Smart Memory Feature eher kritisch. Lt. Quellen wie Linus bewegt sich der Performancevorteil durch den Rage-Mode bei 1-2%. Demnach würde der Löwenanteil an Performance-Boost durch eine herstellerabhängige Lösung umgesetzt werden. Der Rage-Mode ist nichts anderes als ein Automatismus, der ein fest definiertes Offset einstellt. Die bessere Lösung wird mit Sicherheit immer noch eine manuell angepasste Spannungskurve bleiben.
Nichtsdestotrotz ist der SMA ein für den Hersteller eingesetztes Verkaufsargument. Von daher würde ich unter der oben getätigten Annahme mindestens 5% Leistung von den Karten abziehen, da sie nicht herstellerübergreifend auf jeder Plattform anliegen. Am Ende ist auch AMD nur ein Unternehmen, das seine Produkte an den Mann bringen möchte.

Intel oder Nvidia würden für so ein Verhalten direkt wieder Kritik einstecken müssen. Bei AMD wird es als tolles Feature betrachtet.

Nächste Woche wird der 5950X bestellt - ob der dieses Jahr noch ankommt sei mal dahingestellt.
Bei der 6900 XT sehe ich als Wakü-User keinen realistischen Einsatz vor Ende Januar. Bei der RTX 3000er Reihe dauerte es auch mindestens vier Wochen bis da mal ein paar GPU-Blöcke auf Lager waren. Die Blöcke für Custom-Karten sind noch nicht mal auf dem Markt. Für die Strix kommt der EKWB Block erst Ende November.

Hätte Nvidia eine 3080 Ti mit 12GB auf dem Markt, würde ich die 3080 Ti wahrscheinlich der 6900 XT vorziehen. Den Wissensvorteil seitens RT und DLSS wird AMD nicht einfach so wettmachen können.
 
  • Gefällt mir
Reaktionen: Esenel, NMA, thuNDa und 3 andere
Krautmaster schrieb:
ich bezog mich ja auch auf die Konkurrenz die nicht 7nm TSMC nutzt, bzw nur bei teuren Datacenter Produkten.

Dass 40-> 80 CU bei gleichem oder höheren Takt gut Leistung bringen wird, das war absehbar. Ja, bei gleichem Prozess wie klein Navi.

Nein? Du hast das klar hergeleitet, warum die Verbrauch/Leistung für dich ggü RDNA daher keine große Leistung wäre und der Chip nur “aufgebläht”. Und konkludierend die einzige große Leistung daher der Cache wäre.

Krautmaster schrieb:
Aus 40CU werden 80, und AMD hat nen guten 7nm Prozess zur Hand.

[...] Takt und Prozess sei Dank. Min RX5700 *2 Leistung.

Die einzige wirkliche Engineering Meisterleistung ist der Cache

Wie wäre das bei der Verdopplung der Recheneinheiten, mit anschließend noch +40% mehr Takt pro Einheit, bei gerade mal +30% Verbrauch, möglich?

Ich habe keinen Master in Integrierten Schaltungen, aber wenn das kein großer Sprung in der Entwicklung der Architektur sein soll, dann wüsste ich nicht welche Kriterien alternativ greifen sollten.

Wenn die Arch, wie du sagst, schlicht aufgebläht worden wäre, dann müssten wir nun bei ca 700W sein, nicht 300.
 
  • Gefällt mir
Reaktionen: LukS, Otsy, eXe777 und 5 andere
Benji18 schrieb:
Das Probleme ist aber die genannten "anderen" Firmen kommen jahr für Jahr damit durch.
Ja, und es läge an uns, das zu stoppen. Zum Verarschen gehören immer zwei. Konsequent die zu meiden, die uns zu verarschen versuchen, wäre eine Lösung, aber da sind wir scheinbar zu träge zu.

Wehret den Anfängen, deswegen meine abschließenden Worte:

Wenn man kein 500er AMD-Board hat (oder plant, eins zu kaufen) und nicht plant, einen 5000er Ryzen darauf zu betreiben, dann Finger weg von der 6900XT!
Nach Darstellung von AMD kann die 6900XT nur dann auf RTX3090-Level performen, wenn sie auf einem 500er Board mit 5000er Ryzen kombiniert wird, was Grundvoraussetzung für die Aktivierung "Smart Memory Access" ist.

Alle, die eine Intel-Plattform haben, oder einen 400er-Board bzw. einen 3000er Ryzen müssen mit mindestens 5% Leistungseinbuße rechnen, da sie "Smart Memory Access" nicht nutzen können, welches laut AMD 5 - 13% Mehrleistung bringen kann. Ohne dieses Feature ist die 6900XT zu nahe an der 6800XT, als dass sich der Aufpreis lohnen würde.
 
  • Gefällt mir
Reaktionen: thuNDa, stevefrogs und Benji18
Irgendwie bin ich jetzt extremst traurig, dass ich eine RX 5700 XT habe :/ hätte mir doch die die kommen holen sollen :C
 
Marcel55 schrieb:
Der Aufpreis von der 6800XT zur 6800 ist in Grunde so gering, dass man gleich die große nimmt.
Das meine ich jetzt nicht unbedingt negativ, aber wenn ich ehrlich bin, hätte ich auch für 450-500$ be Karte mit 12GB VRAM akzeptiert, die die RTX 3070 vom Platz fegt.
Kommt aufs Netzteil an. Die RX 3800 verbraucht auch etwas weniger, außerdem würde es mich nicht wundern, wenn der Markt den Preis noch weiter regelt.

Wenn einem 12 GB reicht, könnte die RX 6700XT interessant werden, die soll ja mit kleineren SI kommen. Die Dürfte aber wohl erst nächstes Jahr auf den Markt kommen. Wenn die 400-450 Euro kostet, wird das schon ein großer Druck auf die 3070 werden, selbst wenn sie diese nicht ganz erreichen wird.
 
Sun_set_1 schrieb:
Daher bleiben +100% mehr CU, mit +>40% Takt (was rein kalk. schon über +200 Leistungsaufnahme wären [a x 2 x 1,4; wobei der Takt eigtl mehr als Linear skaliert]) bei gerade mal +30% Verbrauch, realisiert.
okay, wenn du die zugrunde liegende Effizienz mit einbeziehst mag da AMD durchaus auch nen guten Gain gemacht haben zur ersten RDNA Iteration aber auch da sind wenig Daten / konkrete Infos bisher da oder?

Ka wo genau der kleine Navi aktuell agiert wenn man ihn auf etwa 150W undervoltet. Vermutlich hat AMD einfach die Spezifizierte Power von einer 5700 XT genommen und auf die 300W der 6800er Serie umgemünzt + die Leistung in Relation gesetzt.
 
mylight schrieb:
... da kann man doch nur hoffen das des bei AMD nicht so drastisch sein wird mit der Aufpolierung der eigenen Statistiken um den Hype/Verkauf anzukurbeln. Gewisse Toleranz ist jedoch hinnehmbar. Die 10% bei NVIDIA waren imho schon zu sehr gefaked.

Wenn ich mich recht erinnere, dann hat AMD bei der Vorstellung der 5700XT auch nicht übertrieben. Ich glaube bei Tests war es sogar mehr Leistung als von AMD versprochen
 
  • Gefällt mir
Reaktionen: Benji18, Monstranz und The_Jensie
Zurück
Oben