Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

Ich ziehe mrinen virtuellen, Real nicht vorhandenen Hut. Das liest sich gut und ich hoffe, dass da im November und Dezember die Karten gut zur Verfügung stehen und AMD bei der Leistung auch viele verkauft. Ich selber bin raus, weil überhaupt kein Kauf geplant ist (nutze ja "den alten Shice" bis er kaputt ist).
 
  • Gefällt mir
Reaktionen: Solavidos und 0xtapi
Viele RTX 3080 mit 10GB und 3 Lüfter kosten schon knapp 900 Euro,
eine 6900XT hat schon ab Werk 3 Lüfter und ist schon auf RTX 3090 Niveau + 16GB Vram statt 10GB
 
  • Gefällt mir
Reaktionen: Solavidos, Hercule Poirot, Dittsche und 3 andere
KlaasKersting schrieb:
Vielleicht sind ja nicht nur Nvidia und AMD, sondern einfach der ganze Markt gesunken, aber nur so eine Idee
Hast natürlich auch Recht, mag aber manch subjektive Persönlichkeit nicht von der aggressiven Meinung abhalten.
Ich meine, ich versuch nur "Fanboyismus2020" zu verstehen, verstehst ;) ?
 
Mydgard schrieb:
Ähem 8 vs 16 GB VRAM? Doppelter Speicher = Mehrkosten, ist doch klar wie Kloßbrühe :D

Die willste die 16GB vollkriegen, 4K schafft ne 6800 doch eh nicht^^, möglicherweise gibts ja bald eine wesentlich günstigere 8GB Variante der 6800
 

Anhänge

  • Opera Momentaufnahme_2020-10-28_191204_www.amd.com.png
    Opera Momentaufnahme_2020-10-28_191204_www.amd.com.png
    17,4 KB · Aufrufe: 358
Das strategische Schwergewicht ist die neue Synergie aus Gpu und Cpu. Besser kann man Kunden nicht binden. Ich wette, das hatte Intel auch geplant als (ehemaliger) Gaming Cpu Marktführer. Bin gespannt welche Cpu Nvidia in Zukunft für ihre Benchmarks verwendet 😊
 
  • Gefällt mir
Reaktionen: Solavidos und Thorque
Bright0001 schrieb:
Weil auf CB 80% der Leute FHD, WQHD oder 4K benutzen, während 3440 ein Exot ist. Das macht viel Arbeit und wenig Sinn, da hilft auch das alltägliche @Wolffgang nichts.
Es gibt hier einige die auf 34 zoll unterwegs sind!
 
Ich glaube die RTX3070 ist vom Preis her ganz okay. Die RX6800 ist etwas teurer und etwas schneller. Wenn eine RX6700 kommen würde und sie die gleiche Leistung, wie eine RTX3070 bietet, dann wäre der Abstand zur RX6800 wahrscheinlich zu klein.
 
mylight schrieb:
Na es wird sicherlich Custommodelle geben die andere Anschlussarten anbieten, da muss man als Käufer ohnehin sehr drauf achten, wenn man mehrere Monitore betreiben möchte. Wenn es nicht gleichzeitig sein soll gibts ja auch Monitorswitcher, vermutlich noch andere Adapter, zweite Graka einbauen ginge auch oder^^
Ach da war ja noch was. Danke :D An die Custom-Modelle habe ich gar nicht gedacht. Ich war bis eben nur sowas von verwirrt, wie die da lieber einen USB-C Anschluss (für was der da auch immer gut sein soll) anstatt einem weiteren DVI oder zumindest HDMI Anschluss hinmachen konnten. Weil ich würde behaupten, dass inzwischen doch einige mindestens 3 Bildschirme haben. Und die verliert man ja alle als potentielle Käufer. Für mich würde das mit den Anschlüssen gerade noch so hinhauen, aber ich hatte eher für einen Freund das ganze im Auge behalten und der hätte da mit 3x DVI keine Chance. Noch dazu kommt bei ihm noch ein vierter Monitor mit 21:9 dazu und dann ist es komplett vorbei.
Also eine zweite wollte ich mir jetzt nicht extra kaufen um ehrlich zu sein :D
 
MiaSanMiaaa schrieb:
Ja, echt ein wahrer Gewinner, wer sich zum gleichen Preis, wie eine nagelneue Karte, eine 2080ti kauft. Keine oder verminderte Garantie. OCed von irgendeinem Hansel, wo man nicht weiß, was er gemacht hat. Keine neuen Featuresets. Wirklich ein wahrer Gewinner, wer da zuschlägt :daumen:
Mehr VRAM, mehr OC möglich (fast 3080 Performance bei ähnlichem Verbrauch). Wer eine 3070 für 500€, oder 3080 für 700€, oder jetzt die RX 6XXX Modelle für die UVP vor Weihnachten, oder Ostern nächsten Jahres bekommt, das steht alles in den Sternen.
 
v_ossi schrieb:
Aber ein Gamechanger ist das mMn (noch) nicht. Jetzt kann ich halt zum selben Preis und Verbrauch auch bei AMD kaufen. Yay.
Das finde ich schwierig zu beurteilen. Klar eine 6800 ist nicht so positioniert, dass eine 3070 überhaupt nicht mehr der Rede wert ist. Andererseits glaube ich, dass Big Navi schon im Vorfeld einen erheblichen Einfluss genommen hat. Ansonsten hätte Nvidia die 3080 auch durchaus als 3080 Ti für 999 $ verkaufen können und die 3070 wäre die 3080 geworden.

Ich bin aber auch kein Freund davon, dass auf Kosten der Effizienz alles auf Leistung getrimmt wird. In der oberen Leistungsklasse ist das aber auch meist Nebensache (3090-Customs mit 500 W BIOS :freak:).
Eine kleinere RDNA2-Karte mit weniger VRam hat jedenfalls mächtig Potential, neuer Effizienz-König zu werden.
 
  • Gefällt mir
Reaktionen: daknoll
gut und richtig schrieb:
Eben vorallem das die AMD Statistiken teilweise zu stark über den NVIDIA Karten stehen lässt große Zweifel aufkommen, ob man diesen Test glauben kann.

Das war kein Test.

Und sowieso... es kann nicht sein was nicht sein darf. ;)
 
  • Gefällt mir
Reaktionen: JanTenner, DonL_ und Marc53844
Als ich vor 3 Monaten ein 650 Watt Netzteil gekauft habe und erwähnte, dass ich damit eine der jetzt erscheinenden Grafikkarten und einen Ryzen3700 betreiben will, hat mich der Mensch im Versandhandel mitleidig lächelnd angeschaut und gemeint: So viel Leistung brauchst du nicht. Nimm ein 450 oder 550 Watt Netzteil, die reichen vollkommen aus.

Tja, mal schauen, was dann im Dezember oder wann auch immer die neuen Karten verfügbar sein werden, mein 650er NT dazu sagt :D
Momentan rennt mein PC mit 320 Watt laut Messgerät...plus 300 Watt...wird eng LOL
 
  • Gefällt mir
Reaktionen: Teeschlürfer, Tornavida, Incident und 2 andere
Warum sind hier alle aus dem Häuschen wenns noch nichtmal echte Benchmarks gibt? Die AMD-eigenen Werte sollte man eh ignorieren, außerdem gibts da ja nur den Vergleich mit der letzten Geforce-Generation...
Und was auf dem Papier steht heißt auch oft nichts. Gab ja oft genug Karten, die überall voll tolle Werte hatten und dann in den Spielen doch langsamer waren. Und nur darauf kommts an.
 
  • Gefällt mir
Reaktionen: kellerbach
Bright0001 schrieb:
Weil auf CB 80% der Leute FHD, WQHD oder 4K benutzen, während 3440 ein Exot ist. Das macht viel Arbeit und wenig Sinn, da hilft auch das alltägliche @Wolffgang nichts.

Interessant was man heute schon als "Arbeit" ansieht :hammer_alt: , warum kriegen es andere Hardware Seiten hin ?
 
Turrican101 schrieb:
Warum sind hier alle aus dem Häuschen wenns noch nichtmal echte Benchmarks gibt? Die AMD-eigenen Werte sollte man eh ignorieren, außerdem gibts da ja nur den Vergleich mit der letzten Geforce-Generation...
Und was auf dem Papier steht heißt auch oft nichts. Gab ja oft genug Karten, die überall voll tolle Werte hatten und dann in den Spielen doch langsamer waren. Und nur darauf kommts an.
AMD stapelt die letzten Jahre immer recht tief in solchen Präsis. Deswegen glaube ich die Werte.
 
  • Gefällt mir
Reaktionen: Hercule Poirot, Dittsche, Inxession und 2 andere
Ich schätze mal, ihr testet schon die Zen3. Es wäre mal interessant, zu wissen, ob die floppen oder ob die Angaben gestimmt haben. In ersterem Fall könnte man nämlich auch diese Anhaben mit Vorsicht genießen.
 
Mhmm... diese Karten sehen schon sehr lecker aus. :love: Aber ich bin leider nicht gewillt, mehr als 300.- für eine Grafikkarte auszugeben und bin deswegen mehr auf die schwächeren Modelle von Nvidia, AMD & bald auch Intel gespannt.
 
Zurück
Oben