Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

gut und richtig schrieb:
Ganz ehrlich, bei 500 Dollar Unterschied wäre mir egal ob - oder + 5 FPS
Hat auch der 8auer so gesagt.

Geht ja nicht immer nur um die "5 FPS" manchen ist ja auch DLSS oder Raytracing wichtig, was für andere wieder egal ist :schluck:
 
  • Gefällt mir
Reaktionen: Benj
SPECIALIZED- schrieb:
Von den Saphire Karten hört man ja auch nur Positives aus AMD sicht!?
Das ist momentan das einzige was Schade ist, das es vor 4 Wochen noch kein ZEN 3 gab, sonst wäre da jetzt kein 10900K drin :hammer_alt:

War kurz davor mir eine Sapphire Nitro+ 5700XT zu holen, als ich von Amazon den bekannten Dämpfer über die nicht lieferbare, aber vorbestellte Zotac RTX 3080 Trinity bekam.

Extrem schöne Karte die Nitro+. Ich gucke nicht nur auf Leistung, sondern auch auf Optik. Und die Zotac war letztlich auch nur Verzweiflung, wobei die jetzt nicht sooo schlecht aussieht. Aber es hat so sollen sein!! :D

Also ehrlich, ich habe mir im Juli auch gerade das neue Setup via Intel zusammengestellt und möchte dieses so schnell nur wegen einer vermeintlichen RX 6000 nicht aufgeben.

Wenn nun Zen zur Folge hat, dass rein aus der hauseigenen Kompatibilität ein besserer Vorteil darin besteht, eine Kombi aus GPU und CPU aus dem gleichen Lager zu haben, dann hätte ich wohl Einbußen bei der 6800 XT.
Nur wie hoch die wären, sollen mir mal die künftigen Reviews erläutern.

Ich kann echt warten. Natürlich würde ich meinen absoluten Liebling RDR2 gerne in Ultra Settings bügeln, aber alles auf Hoch und in WQHD zeigt, dass meine GTX 1070 Ti noch gut dabei ist.

Bin natürlich gespannt auf WD Legion, CP 2077 und Valhalla!! 🤫
 
  • Gefällt mir
Reaktionen: SPECIALIZED-
Es ist schön das AMD jetzt mal wider so richtig dabei ist. Ich hoffe dass die beiden Parteien (red und Green) davon profitieren, schliesslich tut uns den Kunden (besonders unserem Geldbeutel :)) die Konkurenz sehr gut.
Was mir aber net so gefällt ist der Preis für die 6800. Super dass die bissel schneller ist als die 3070, dafür ist die ja auch 80 Euronen teurer. Dazu fehlen ein Paar features wie RT und DLSS (ja ja, ich weiß niemand braucht RT, ausser mir und ein paar meinesgelichen :D ).
Mannomann, fast 600 Öken. Und warum soll man eine 6800 für 579 kaufen wenn es eine 6800 xt für 70 Euronen mehr gibt, hmm? Komische Preisgestaltung.
Ich hoffe das AMD den Preis bissel nachjustiert. Mit 500€ wäre es eine feine Rasur für 3070. So aber nicht.
 
aid0nex schrieb:
Und Nvidia ist sich sicher dass sie nicht doch noch die Versionen ihrer Karten mit mehr VRAM in den Handel bringen wollen??
Weil das nix bringt. Die müssen ihr Portfolio neu sortieren.

Die 3070 klar geschlagen von der 6800 bedeutet man muss etwas a la 3070 Ti bringen, dafür brauch man dann aber einen abgespeckten 3080er Chip, weil der andere schon so ziemlich maxed out ist. Ergo komplett neue Karte fällig, dann wohl gleich mit 10GB und 320Bit Interface.

Wenn man die 6800XT klar schlagen will muss man hier auch eine 3080Ti bringen mit abgespecktem 3090 Chip, 12GB und 384Bit Interface.

Die 3090 hat keine Optionen mehr ausser die vollen 5376 Shader von Ampere GA102 freizugeben. Speicher läuft schon ziemlich hoch, hat auch genug davon. Viel geht da wohl nicht mehr.

Und wenn man eben die 3070Ti brächte würde die 3080 fast schon obsolet weil man näher ranrückt, also muss auch dafür was neues kommen. Mit nur bisschen mehr Speicher ist es hier nicht getan.


baskervil77 schrieb:
Was mir aber net so gefällt ist der Preis für die 6800. Super dass die bissel schneller ist als die 3070, dafür ist die ja auch 80 Euronen teurer.

Ich hoffe das AMD den Preis bissel nachjustiert. Mit 500€ wäre es eine feine Rasur für 3070. So aber nicht.
18% Mehrleistung im Schnitt sollen sie dir also schenken weil sie nix verdienen wollen ? Hör doch auf. Du kriegst 18% mehr für 16% Aufpreis.

Wann war denn nVidia letztes mal so fair bei der Preisgestaltung ? Da kosten 10% mehr Performance schnell 100% mehr Cash.

Und jetzt wart mal obs überhaupt Modelle der 3070 für 500€ gibt, am Ende liegen die alle bei 600 und eine 6800 wirkt auf einmal sehr fair. Man man man...immer das Geweine.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thorque und hongkongfui
gut und richtig schrieb:
Ich mach mal eine These auf, Nvidia wird mit exklusiven Features keinen Blumentopf mehr gewinnen

Ich stelle mal die "These" dagegen, gerade die exklusiven Features sind bei einem Kopf an Kopf Rennen der entscheidende Faktor. Wer einen G-Sync Monitor hat, Cuda nutzt und mit NVENC, DLSS, Nvidia Broadcast, Reflex oder Ansel was anfangen kann, wird sich unbeirrt der AMD Vorstellung weiterhin eine Nvidia Karte zulegen.
 
  • Gefällt mir
Reaktionen: Ctrl und marzk
@xexex
Wer hat schon einen G-Sync Montor bei den absurden Preisen?
Das dürfte selbst bei Nvidia Kunden eine Nische sein, vor allem seit Free-Sync auch geht.
Wir reden ja letztlich über das große Ganze, da kann ich mir beim besten Willen nicht vorstellen das gescheiterte und teure Features da das Rennen machen :P

Aber es stimmt schon, 2 Leute haben bereits gepostet sie können wegen ihrem teuren G-Sync Monitor nicht wechseln, bzw. wollen nicht in den sauren Apfel beissen.
Verstehe ich!
 
Ernie75 schrieb:
Nur mit der 6900XT und der Leistung dürfte NVidia ein bisschen überrascht worden sein.
Finde ich auch und theoretisch müssten die jetzt so schnell wie möglich eine RTX3080Ti 12GB für 999€ releasen
um die Käufer abzufangen die bereit sind 1000€ für eine Grafikkarte auszugeben. Bin gespannt ob es so kommt.
 
  • Gefällt mir
Reaktionen: Ernie75
Naja, wir lassen uns auch von 16 GB betören, die darüber hinaus auf allen 3 Modellen 6800/XT/6900 verbaut werden, was uns suggeriert, dass AMD da wirklich seriös mit Ihrer Handhabe argumentieren kann.

Wir sollten echt div. Tests abwarten und uns dann hier nochmals darüber unterhalten!! ;)
 
ThirdLife schrieb:
Und wenn man eben die 3070Ti brächte würde die 3080 fast schon obsolet weil man näher ranrückt, also muss auch dafür was neues kommen. Mit nur bisschen mehr Speicher ist es hier nicht getan.
Man kann sich die Zahlen z.B. in 1440p auch mal nehmen und die 6800 mit der 3080 vergleichen, dann stellt man fest, dass diese auch nur 5-10% unterhalb der 3080 agiert, für hierzulande vmtl. 600€.
 
  • Gefällt mir
Reaktionen: GerryB
SPECIALIZED- schrieb:
Das hab ich mir im Januar 2020 schon gesasgt und am Ende war es dann erst Oktober so weit :daumen:
Ich warte seit Vega... bzw. seit der Miningzeit, Turing, war ich skeptisch.... Navi1 war dann nur Mittelklasse, dafür zwar gut, aber ... ich wollte erstmal Ruhe nach der nächsten Investition.

Gut, damals war 3570k auf 4,5 aber ich hechle seit dem auf 580 - und hab im August nun den WQHD-Monitor@144Hz geholt... da ist schon Bedarf.

Hätte ich eine 3080 geholt, ... holen können, hätte ich mich schon gefreut, obwohl Team Red - Die Karten sind trotzdem für meinen Bedarf super.
 
  • Gefällt mir
Reaktionen: xXcanwriterXx
ThirdLife schrieb:
dafür brauch man dann aber einen abgespeckten 3080er Chip, weil der andere schon so ziemlich maxed out ist.
Ich behaupte einfach mal, dass die Yield-Rate bei Samsung derartig Scheiße ist, dass sie überhaupt kein konkurrenzfähiges Portfolio mehr zusammen kriegen.

so denn die AMD-Karten in unabhängigen Tests nicht abkacken, was ich allerdings auch nicht glaube. Sie würden sich dann selbst vernichten und das würde auf die CPU Branch dann auch wieder negativ abfärben.

Time will tell...
 
Taxxor schrieb:
Man kann sich die Zahlen z.B. in 1440p auch mal nehmen und die 6800 mit der 3080 vergleichen, dann stellt man fest, dass diese auch nur 5-10% unterhalb der 3080 agiert, für hierzulande vmtl. 600€.
Stimmt, das ist mir gar nicht so sehr aufgefallen.

Dürfte spannend werden wieviel OC für einen persönlich drin liegt, dann wärs ein echter Deal. Knapp 3080 Leistung für 3070 Money.

Ich glaub der eigentliche 3070 Konkurrent wäre erst noch abzuwarten mit einer 6700XT für um die 449 Dollars.

oeMMes schrieb:
Ich behaupte einfach mal, dass die Yield-Rate bei Samsung derartig Scheiße ist, dass sie überhaupt kein konkurrenzfähiges Portfolio mehr zusammen kriegen.

so denn die AMD-Karten in unabhängigen Tests nicht abkacken, was ich allerdings auch nicht glaube. Sie würden sich dann selbst vernichten und das würde auf die CPU Branch dann auch wieder negativ abfärben.

Time will tell...

Ist das wirklich so schlimm ? Oder hängts nicht eher am GDDR6X Speicher ? Womöglich zwei Baustellen ? Unkomfortable Lage grad, kann man nur hoffen AMD hat das besser im Griff - sieht zumindest smarter aus via Cache und einfacherem Speicher zu kontern. Eigentlich genial.
 
Tornavida schrieb:
Das kann TS schon lange und streamen kann man mit obs ebenfalls nur um Alternativen aufzuzeigen.Sicher keine exklusiven Features.
Und kannst du mir ein Beweisvideo schicken, dass es ein ähnliches Ergebnis gibt wie RTX Voice (hier mal ein Vergleich RTX Voice zu Discord Krisp Vergleich).
Und gleich noch meine Freunde dazu überreden, Teamspeak zu nutzen.
Oh und könntest du dir die Zeit nehmen das ganze für mich einzustellen, weil das bestimmt so einfach ist wie bei RTX Voice.

Falls nicht, argumentiere ich dagegen dass Intel GPUs auch ein Bild auf dem Monitor anzeigen, ist doch das gleiche, wozu eine Nvidia/AMD GPU kaufen. Das irgendwo dieses Feature vorhanden ist, interessiert null wenn es nicht gut umgesetzt wird.
 
buuge schrieb:
Hätte ehrlich gesagt auch bei der neuen RTX zumindest mit 12 für die 3070 und 16/20 für die 3080 erwartet

das ist ein "wunschdenken" , denn man kann da nicht einfach mal so beliebige speichermengen dranhängen.

eine 3070 mit 12gb wäre nur mit einem 192bit (6x 2gb) oder einem 384bit (12x 1gb) realisierbar - aber das bedeutet auch dass das speicherinterface anders ausgeführt ist und entsprechend andere speicherbandbreiten machbar sind - sprich, die gpu wird auch in ihrer performance teilweise massiv beeinflusst. (192bit @ 16gbps = 384gb/s // 384bit @ 16gbps = 768gb/s )

mit 192bit würde man die 3070 zu starb beschneiden und 384 bit ist man bei der 3090..also zu groß und vor allem zu teuer und energiebedüftig..)

...
 
gut und richtig schrieb:
Wer hat schon einen G-Sync Montor bei den absurden Preisen?

Wer sich eine 3090 für 1500-2000€ leistet, den interessiert auch der Aufpreis für einen G-Sync Monitor nicht, vor allem wenn man einen Monitor auch locker mal 10 Jahre nutzt und gute Monitore auch ohne ein G-Sync Modul Geld kosten.
 
  • Gefällt mir
Reaktionen: Ctrl, TorgardGraufell und SPECIALIZED-
gut und richtig schrieb:
Wer hat schon einen G-Sync Montor bei den absurden Preisen?
Ich und das ganze in 32zoll ?
 
  • Gefällt mir
Reaktionen: SPECIALIZED-
Die echte Konkurrenz zur RTX 3070 wird doch dann erst die 6700 werden oder nicht? Die soll ja im Januar oder so kommen. Vermutlich mit 12 GB, immer noch 4 GB mehr als die 3070.

Nvidia's Lineup sind allesamt Speicherkrüppel (3090 ausgenommen), und überzeugen mich nach AMDs Vorstellung überhaupt nicht mehr.
 
Die 6800 ist mir preislich etwas zu teuer und zu dicht an der 6800 XT. Ja sie hat mehr Speicher als die 3070 aber Leistungsmäßig auf demselben Level. Da wären 500 USD/Euro das rundere Angebot.
 
  • Gefällt mir
Reaktionen: cmi777
@xexex
Brauchen das hier nicht ausdiskutieren. Kann jeder kaufen was er meint.
Aber erst erzählen wer sich eine 3090 leistet kann sich auch einen teuren G-Sync Monitor leisten und dann die Mär erzählen das eben jene Enthusiasts das dann 10 Jahre benutzen ist halt so verlogen das es dir sicher selbst auffällt. Oder auch nicht xD
 
gut und richtig schrieb:
@xexex
Wer hat schon einen G-Sync Montor bei den absurden Preisen?

Hab sogar Extra für die 3090 nen G-Sync OLED angeschafft und lass dir sagen, wenn du das einmal hattest ist es schwer sich was anders anzusehen ^^, daher hoffe ich das eventuell in den nächsten 1 - 2 Jahren 32- 40 Zoll OLED's kommen :schluck:
Ergänzung ()

xexex schrieb:
Wer sich eine 3090 für 1500-2000€ leistet, den interessiert auch der Aufpreis für einen G-Sync Monitor nicht, vor allem wenn man einen Monitor auch locker mal 10 Jahre nutzt und gute Monitore auch ohne ein G-Sync Modul Geld kosten.

Na ich bezweifel Stark das der OLED 10 Jahre halten wird, ich gehe eher davon aus das ich den nach 2 Jahren Tauschen werde.
x.jpg
 
  • Gefällt mir
Reaktionen: Esenel, t3chn0, TorgardGraufell und 2 andere
Zurück
Oben