Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

Die 6900XT ist gekauft, selbst wenn sie nicht ganz an die 3090 rankommt - sie ist günstiger & wird nativ von macOS unterstützt ;) Kann es kaum erwarten und freue mich mega über den großen Wurf von AMD hier, das ist das erste richtig konkurrenzfähige Produkt seit Jahren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne, Onkel Föhn, surtic und 2 andere
Dai6oro schrieb:
DLSS2.0 ist es wohl eher nicht.
Ich hoffe mal, dass hier durch MS am Ende ein »gemeinsamer« Standard für ein »DLSS« steht, der in die Engines eingepflegt wird und dann AMD als auch NVIDIA darauf aufbauend dann ihre Implementierungen im Treiber umsetzten.

In der jetzigen Form ist DLSS als auch eine Alternative von AMD zwar interessant, aber bleiben sie auf einen »Hersteller« limitiert, ist der Nutzen für uns Kunden am Ende zu gering.

Deswegen stört mich da NVIDIA auch immer etwas. Sie haben tolle Ideen, aber sie versuchen zu sehr den Markt zu »dominieren« und an sich zu binden. Verständlich durchaus, aber für uns Kunden von ganz großem Nachteil.
 
  • Gefällt mir
Reaktionen: bad_sign, daknoll, Blekota und 4 andere
DanyelK schrieb:
Leute die sich aber ne 3080 holen, kaufen in 2 Jahren halt auch die 4080, kenn ich von mir selbst. Deshalb sind die VRAM eventuell nicht ganz so wichtig wie ne gute RayTracing Performance bei Cyberpunk im Dezember

In deiner Situation wie Du das schillderst verstehe ich Dich voll und ganz. Für mich, wo die Karte nicht viel wechselt, kommt halt nichts unter 16gb in den Rechner. Beispielsweise lohnt es sich nicht für mich viel die Karte zu Wechseln, da ich sehr schlechte Augen habe (kam mir schon beruflich in die Quere) und viele Sachen nicht oder nur ganz schwach wahrnehme. Ruckler hingegen wegen zu wenig VRam merke ich glücklicherweise doch noch. Wie du siehst ist der Einsatz und das Nutzerverhalten sehr unterschiedlich und jeder muss für sich entscheiden. Ich schrieb extra das es zum Problem werden könnte. Mir würde eigentlich meine R9 390er immer noch reichen aber jetzt gönnt sich der Flou auch mal was Neues.
 
  • Gefällt mir
Reaktionen: modena.ch
Ich werd mir entgegen der Fanboys nach unendlichen Nvidia Jahren ne AMD Karte gönnen. Ich bin immer noch vom 3,5+0,5gb Gate angenervt. Meine 970 läuft zwar immer noch ganz gut (Bios mit 1560mhz), aber so langsam sehne ich mich nach mehr Speicher :)
 
  • Gefällt mir
Reaktionen: russianinvasion, bikkje und Onkel Föhn
Wadenbeisser schrieb:
Die *p Angaben geben letztendlich nur die Anzahl der vertikalen Pixel wieder....

p steht für progressiv, gibt auch 1080i, steht dann für interlaced.
 
DLSS fehlt ... RT Leistung viel zu gering.

Leute, kauft bitte keine AMD Karten...

(dann hab ich mehr Chancen eine zu bekommen).
 
  • Gefällt mir
Reaktionen: Kloin, Papabär, niteaholic und 5 andere
Motkachler schrieb:
Ich denke langam sollte man im highend auch mal daran denken auf nen zen3 zu wechseln wenn man die big navi richtig nutzen will der 9700k wird gegen den eher alt aussehen mit ner 6800XT oder 6900XT.
Und eher ein botelneck sein.
Wenn man dem glaubt was da in der präsi von amd gezeigt wurde.
So oder so ähnlich wird man das dann wohl auch in unabhängigen benches sehen.

Die 3090 sollte in meinem sys etwa 23-47% Mehrleistung gegenüber der 2080ti bringen. Je nach
Quelle und Game.
Bringt die 6900XT ähnliches oder mehr?

Nicht das die Mehrleistung gebraucht wird, aber NICE 2 HAVE ;)
FH4 2560x1440 ultra läuft begrenzt mit 144 Hz bei 60-80% GPU-Last.
Wäre es nicht nett, die GPU bei 40-60% Auslastung zu sehen?

Bei der CPU sehe ich keine so nennenswerte Leistungsteigerung in ähnlichen %-Bereichen.
Daher belibt der 9er intel noch.
 
AppZ schrieb:
Wegen 16Gb RAM welche fürs Gaming sowieso nicht gebraucht werden?
Also ich hab von Grafikkarten ja echt keine Ahnung. Ja wirklich nicht. Ich hab mir 2016 für einen schmalen Taler eine Radeon RX470 mit 4gb gekauft. Also vor etwa 4.5 Jahren. Damals haben sie mir alle gesagt das das ein schlechter Kauf sei, weil 4gb selbst in FullHD für vieles nicht reicht. Ich war unbelehrbar und finde retrospektiv das ich hätte auf die Leute hören sollen. Der Speicher läuft häufig voll bei der Karte... von Anfang an.

Jetzt sagst du mir, dass 4.5 Jahre später 8gb für alles locker ausreicht was da die nächsten Jahre noch so kommt? Mir ist das ganze High End GraKa zeug sowieso egal, ich kauf mir einfach bei nächster Gelegenheit wieder was in der aktuellen Leistungsklasse entsprechend meinem damaligen Kauf. Der Hersteller ist mir da echt Wumpe. Vermutlich sogar ne NV Karte weil ich beruflich CUDA beschleunigtes Spezialzeug benutze und das auch gern zuhause laufen lassen möchte. Aber was aus eigener Erfahrung heraus imho Quark ist, ist dieser Geiz am Speicher bzw. das Schönreden von knappem Speicher bei ner GPU in dem Leistungsbereich.
 
  • Gefällt mir
Reaktionen: russianinvasion, s0UL1, daknoll und 2 andere
Beg1 schrieb:
Ich kaufe seit ca. 12 Jahren nur noch nvidia GPUs.
Aber sowohl Preispolitik (Händler nehmen die Aufpreise nun sogar direkt selbst mit...) als auch VRAM-Geiz und miese Verfügbarkeit lassen mich (falls Benchmarks sich bestätigen) zu AMD greifen.

Eine 3070 für 799€ ist für mich jedenfalls absolut indiskutabel.

Tornavida schrieb:
Ich hoffe nur,dass AMD nicht ebenso ein hinterfotziges Spiel treibt wie Team Grün und die Karten sowohl verfügbar sind und sich die Aufpreise für Customs im Rahmen halten.

Die VRAM-Thematik von Nvidia bei Ampere (also Geiz, Verfügbarkeit und dementsprechend auch der heftige Preis) liegt ganz einfach an der Tatsache, dass sie sich für GDDR6X Speicherchips entschieden haben welche von nur einem einzigen Hersteller (Micron) produziert werden. Dass sie hier die Nachfrage nicht bedienen können war vorprogrammiert und deshalb ist es auch der Paperlaunch geworden, den wir nun alle live miterleben.

AMD war in diesem Aspekt mit Infinity Cache einfach technologisch innovativer, hat über den Tellerrand hinaus geschaut um eine Lösung zu finden und dieses Schlagloch zu umfahren. Zudem haben sie sich das Ganze auch noch patentieren lassen. Alles in allem hat AMD dadurch, was die technologischen Fortschritte betrifft, sowohl beim Rennen gegen Intel als auch Nvidia die Nase klar vorne, vor allem wenn man dann noch Smart Access Memory miteinbezieht. Wenn dann Super Resolution im Vergleich zu DLSS in nicht-proprietärer Form umgesetzt wird liegt dann Nvidia lediglich bei Raytracing vorne. Man muss dabei bedenken, dass Nvidia bei Raytracing eine ganze Generation Vorsprung hat, daher ist es durchaus legitim dass AMD in diesem Punkt noch hinterherhinkt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Delirus, r4l, Papabär und eine weitere Person
Inxession schrieb:
RT Leistung viel zu gering.
Na ja, es war klar, dass die ersten Spiele nicht so »preformen« auf der AMD-Hardware.

Die Spiele, die bisher RT implementieren sind für den Anstaz von NVIDIA optimiert, hat NVIDIA quasi »RT« in die Spiele eingebaut. ;)

Er jetzt mit den Konsolen als auch Navi2X kann man anfangen den »flexibleren« Ansatz von AMD zu nutzen und auch darauf hin zu optimieren.
 
  • Gefällt mir
Reaktionen: voalirus
@jburn
Ja, ich liebe es auch GPUs bei max. Frames unterm Limit zu sehen, gibt einem das Gefühl, für zukünftige Spiele gerüstet zu sein :D
Was die 6900XT bringt werden unabhängige Tests zeigen müssen, wenn einem P/L wichtig ist, könnte es das bessere Produkt werden. Konsolen basieren zudem auf der RDNA2-Architektur, wodurch sich eventuell sogar Leistungsvorteile ergeben könnten.

Es ist einfach toll, dass AMD zumindest wieder auf Augenhöhe ist.

Und die CPU wird noch ne Weile reichen, mit WQHD limitiert oft erst GPU, bei 4K und/oder RT sowieso.
 
HerrRossi schrieb:
So ähnlich auf jeden Fall@h2o: (zumindestens den Großteil, wo man net ans PL anstösst)
EK Water Blocks Readies Radeon RX 6000 and Ryzen 5000 Water Blocks | TechPowerUp
Man muss mal schauen, ob die 6900er wirklich Golden Chips sind.
oder
eher Kleine besser taugen?
Im Prinzip ist ja bei 2x 8pin mit 390W Schluss, falls net die Toxic mit 3x 8pin kommt.
(hoffe auf irgendwann offenes PL per MPT; was am Anfang im Bios steht, ist ne andere Geschichte)

Ob nun 2450 oder 2500 auf der Uhr steht, ist net so wichtig.
Hauptsache der IC macht auch mehr mit und der Vram.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dai6oro und HerrRossi
Also ich hab noch ne 1660 Super und zocke in FHD mit nem AOC 144Hz und kann quasi alle Games auf hoch bzw. Ultra flüssig spielen. Mal ganz im Ernst... reicht völlig, also grundlegend.

Natürlich gehts dann besser, also schneller, höhere Auflösung + RT...

Aber auch hier meine Meinung: RT ist ja schön und gut, ein Muss?? Ich finde nicht.
Ob ich das in den meisten Games überhaupt so bewusst merke ist fraglich - wie ist das bei euch?
Z.B. Shooter, Rennspiele etc.. ob da der Boden spiegelt o. nicht merkt man nicht wirklich bzw. nur am Rande oder?
Mal genießen kann man dann eher in ruhigeren Spielen, wo man mal innehalten kann wie nem Rollenspiel etc..

Wie ist da eure Meinung, lass mich gerne eines besseren belehren :)

Ich kann gemütlich zocken und somit auch ganz ruhig abwarten. Und das würde ich auch jedem empfehlen.

Also auf die Tests von den AMD Karten um ganz genau Klarheit zu haben wie gut die Karten wirklich sind.
Dann kann jeder nach seinen Bedürfnissen entscheiden bzw. nach dem was einem wichtig ist. Leistung, Stomverbrauch, RT-Performance, VRAM etc... so mache ich das - unabhängig vom Hersteller.
Bin kein Fanboy einer Marke, aber bisher haben für mich und meine Bedürfnisse die grünen den Zuschlag erhalten.

Aber das was die Lederjacke hier (erneut) abzieht geht zumindest mir gehörig auf die Kronjuwelen.
Wieder dieses VRAM-Rumgegeize und mMn die damit verbundene Kundenverarsche wie bei den
2060/70 Karten wo dann nach nem halben Jahr die schnelleren + mehr VRAM Super Karten kamen.
Deswegen das (erneut). Dazu noch der "Paperlaunch" etc....

Normal sollten wir keine einzige der aktuellen Karten von NVIDIA kaufen um ein Zeichen zu setzen wie
"So nicht! Nvidia" aber die Leute kaufen ja trotzdem. Leider...

Ich hoffe das NVIDIA endlich Klartext spricht und die Gerüchte mal aufhören, ist doch alles beschissen genug.
Mit anderen Worten.... ich will wissen ob noch Karten mit mehr VRAM kommen oder nicht. Wenn ja besteht
die Chance das ich bei NVIDIA bleibe. Wenn nicht bzw. die sich noch ewig Zeit lassen, haben se Pech gehabt.

Und generell, ich bin froh das AMD konkurrenztechnisch wieder oben mitmischt, kann nur von Vorteil sein für alle Kunden.

Ich zocke gemütlich mit meiner 1660 Super und spare sogar noch bares Geld mit den ~120W :-D
 
  • Gefällt mir
Reaktionen: Hells_Bells und Delirus
Brauche einen neuen Gaming PC vor ein paar Tagen hat mein Alter PC seinen Geist aufgegeben immerhin 4 Jahre hat er mir gedient (Intel/Nvidia Kombo) Sehr erfreulich diese Entwicklung wenn sich die Angaben von AMD in etwa bestätigen wird es diesmal ein AMD only PC.
 
Teralios schrieb:
-Unnötiges Komplettzitat entfernt-
Wie es richtig geht, ist hier nachzulesen.

Das Problem ist halt, dass diese Entwicklung ganz toller neuer Ideen sich nur wirtschaftlich lohnt, wenn sich das dann auch durch die zusätzlichen Einnahmen lohnt.
Ist wie bei Big Pharma: Entweder die neuen Medikamente sind arschteuer, oder sie werden eben gar nicht erst entwickelt.
Entweder Nvidia hat ne Technologie (zumindest zeitweise) exklusiv und hat damit ein zusätzliches Verkaufsargument für ihre Karten, oder die neue Technologie wird eben nicht entwickelt.
AMD entwickelt nur Systemoffen, da sie ohne Marktdominanz garnicht anders können.
Es sei denn natürlich sie hätten ein Killerfeature, das alles andere in den Schatten stellen würde.
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
Also ich hätte mir ja eine 3080 mit 20 GB gegönnt für 999 € (nachdem die 10 GB mit 699 € vorgestellt wurde).
Weil die Leistung der neuen nVidia Karten NICHT "schlecht" ist und mich DLSS interessiert.
Mit den hohen Watt Zahlen hab ich mich mehr oder weniger (leider) schon abgefunden.
Nur gibt es die 20 GB Version nicht (wurde gestrichen, sowie die 3070 mit 16 GB) und gegeben hätte es diese vermutlich erst Anfang 2021.
Somit wird es mit an Sicherheit grenzender Wahrscheinlichkeit die 6800 XT 🙃

MfG Föhn.
 
  • Gefällt mir
Reaktionen: s0UL1 und russianinvasion
Ich hab noch einen FX6300 und eine HD7800. Dieses Jahr gibt es Ryzen5000 und RX6000 für mich. Was für ein Sprung :) Thanks AMD
 
  • Gefällt mir
Reaktionen: danyundsahne, RaptorTP und Veitograf
m4f10s0 schrieb:
GDDR6X Speicherchips verwenden welcher von nur einem hersteller (Micron) produziert wird. Dass sie hier die Nachfrage nicht bedienen können war vorprogrammiert und deshalb ist das auch der Paperlaunch geworden, den wir nun alle live miterleben.

Ist mir alles bekannt, dennoch ist es halt für die Kunden ein herber Schlag, sowohl wenig VRAM als auch homöopathische Verfügbarkeit (Scalper erhöhten Preise, jetzt machen es die Händler mit) und das sollte man auch immer wieder erwähnen.
Meine Käufe (inkl. 2 G-Sync Monitoren) zeigen, wieviel Vertrauen ich in nvidia hatte, dennoch werde ich nun wechseln, wenn AMD abliefert (Leistung + Verfügbarkeit).
 
  • Gefällt mir
Reaktionen: Onkel Föhn und RaptorTP
HighPerf. Gamer schrieb:
@Ray Donovan

Sorry deine Tabelle weisst seltsame Daten auf. Erstens woher kommen die 10 Jahre Technologievorsprung von Nvidia her ? Welche Glaskugel von Nvidia hast du gekauft ? Was für ein blödsinn. Nur weil Nvidia die "besseren" Gpus gebaut hat die letzten Jahre ? Schwachsinn, siehe Intel und AMD. Sowas wie Technologievorsprung ist für unser einer nicht zu ermitteln, weil wir nicht bei der Entwicklungsabteilung von AMD und Nvidia und Intel arbeiten. Und um das zu ermitteln müssten wir bei allen gleichermaßen Einblick haben

Zweitens Nvidias Raytracing und AMD' Raytracing basieren beide auf DX12 und NEIN Nvidia ist nicht der Erfinder von Raytraycing, denn RT ist, keine Ahnung ....... ein 40 bis 50 Jahre alter Hut.

NVIDIA hat aber mit RTX extra Leistung auf den GPUs, die genau für RT genutzt werden. Das hat AMD nicht bzw. nicht in der Form (RA).
Mit Technologie-Vorsprung meinte ich, dass NVIDIA seit Jahren alleine im High-End Segment war. Sobald AMD etwas hatte (Leistungstechnisch aber mit deutlich schlechterer Effizienz), hat NVIDIA sofort wieder einen drauf gesetzt. Für mich ist das ein Technologie-Vorsprung.

Welche Daten sind noch seltsam?
 
Zuletzt bearbeitet:
Zurück
Oben