Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

SPECIALIZED- schrieb:
Hab sogar Extra für die 3090 nen G-Sync OLED angeschafft

Das ist dann aber kein Monitor mit einem G-Sync Modul, sondern ein G-Sync Compatible Gerät (oder?) und der lässt sich genauso gut auch an einer AMD Karte betreiben.
 
  • Gefällt mir
Reaktionen: Apocalypse, Krautmaster und ThirdLife
oeMMes schrieb:
Sie würden sich dann selbst vernichten und das würde auf die CPU Branch dann auch wieder negativ abfärben.

Also ich glaube sicher nicht, dass Frau Dr. Lisa Su ihre Promotionsarbeit durch einen Ghostwriter hat ankurbeln bzw. plagiieren lassen.

Ich bin als Mann ohnehin für Gleichberechtigung und der Überzeugung, dass eine Elektroingenieurin einen noch besseren Job macht.

Meine Ehe funktioniert auch nur durch konstruktive Aufgabenteilung und das fördert ungemein den Zusammenhalt und das Miteinander. Es gibt Dinge, die ich besser kann und Dinge, die meine Frau besser umsetzt.

Es wäre traurig, dass nicht erkannt zu haben bzw. erkennen zu können!! :)
 
  • Gefällt mir
Reaktionen: Cpt.Willard, Veitograf, Flyerdommo und 2 andere
Schön, dass AMD Leistungsstarke Karten auf den Markt bringt,
aber für mich persönlich bin ich von den Preisen enttäuscht. Abgesehen von 6900xT/3090 sind die Karten ja nahezu genauso teuer wie die Nvidia-Karten.

Hatte da schon etwas darauf gehofft, dass AMD, um schneller/mehr Marktanteile zu bekommen, trotz gleicher Leistung günstiger gehen.

Bleibt nur zu hoffen, dass Asus, MSI und Co zumindest im Gegensatz zur 3080 mehr Leistung rausbekommen und somit die Preis/Leistung noch etwas ansteigt.
 
@SPECIALIZED-
Für das Geld 2 Jahre Nutzung, macht eben auch fast kein Mensch.
Hab auch erst überlegt mir einen vierstelligen OLED hin zu klatschen, aber selbst mir wären dann solche Features wie von dem LG echt egal und würde auf so etwas wie 120 Hz verzichten und eher eine größere Diagonale nehmen. 48 Zoll ist einfach inzwischen echt klein wenn du mal 65 Zoll aufwärts gewohnt bist.
Ich trenne PC und Konsole allerdings strikt. Am PC suche ich Competition und benötige die besten Bedingungen, auf Konsole genügt mir ein riesiger TV der ein gutes Bild hat, alles andere ist da egal.

P.S.
Um auf dein eingefügtes Bild einzugehen:
Trägst du schon Brille und wie ist das so mit Kopf bewegen?
Ernst gemeinte Frage, bei dem Sitzabstand empfinde ich das als krank.
Strategiespiele würden da mMn gar nicht gehen, vor allem wenn du in die Ecken schauen musst fürs Interface.
Competitive Gaming ist bei deinem Setup eigentlich gar nicht möglich.
Weist schon das Pro Gamer sonst auch so zocken würden :P
 
  • Gefällt mir
Reaktionen: Neronomicon
stevefrogs schrieb:
Die Tatsache, dass keine RT-Benchmarks gezeigt wurden, verheißt nichts Gutes. Rasterizing Leistung dürfte aber echt super sein, wie ich es auch erwartet hatte. Auf DLSS-Konkurrenz ist man leider auch nicht wirklich eingegangen, auch das trübt die Stimmung.

Lustiger Moment: “und all das mit nur 300W” LOL, bis Ampere hätte man dafür noch Schelte bekommen, aber jetzt ist das die neue Realität im High-End. Ich kann damit gut leben, aber manche Foristen hier scheinen ein Problem damit zu haben.
Weiterer Lacher, als man WoW mit Raytracing gezeigt hat, verdammt sieht das Spiel scheiße aus, mit oder ohne RT.

Preise finde ich etwas hoch, unter der Annahme, dass RT und DLSS nicht auf dem gleichen Niveau sein/bzw fehlen werden, aber das ist halt noch nicht ganz gewiss. Sollte man da überraschenderweise doch auf gleichem Niveau spielen, sind die Preise dann doch voll in Ordnung. Bzw für Leute, die nur auf Rasterizing stehen sind die Preise auch fair für das Gebotene.

Bin schon sehr auf den Infinity-Cache in der Praxis gespannt, die Folien verheißen viel, aber ob sich das so einfach in die Realität überträgt, muss sich erst beweisen. Auch bei Vega gab es dicke Balken auf manchen Folien, draus geworden ist dann leider doch nichts (primitive shaders).

Ich bin auch noch etwas skeptisch was auf den Folien gezeigt wurde. Ebenso auch bei den CPU‘s. Erst Ende November sind wir schlauer ob AMD wirklich besser als Ampere als auch Comet Lake ist.
 
GerryB schrieb:
Sein Taschenrechner war bzgl. der 6800 vollkommen daneben.
(Absicht?)
Er hat sich schon dazu geäußert: Die Leaks kamen wohl von einer Karte im Rage Mode/OC. Und darauf passt dann seine Rechnung.
 
  • Gefällt mir
Reaktionen: oeMMes
SPECIALIZED- schrieb:
...Das ist momentan das einzige was Schade ist, das es vor 4 Wochen noch kein ZEN 3 gab, sonst wäre da jetzt kein 10900K drin :hammer_alt:

Da du immer das Beste willst, kannst du immer noch zu AMD wechseln ;)
 
AMD is back. Das ist einfach eine Tatsache!
Die RX6900 haben sie auf 300Watt TBP gedrosselt um den Effekt der Effizienz zu steigern.
Daher wird wohl die RX6800XT der Renner werden. Günstiger, sparsamer, teils schneller und zukunftssicherer als eine RTX3080.

Ich für meinen Teil bin mit meinem System bestens bedient und warte auf 5nm. 😊
 
gut und richtig schrieb:
@SPECIALIZED-
48 Zoll ist einfach inzwischen echt klein wenn du mal 65 Zoll aufwärts gewohnt bist.

Da gebe ich dir absolut recht, der ist auch nur für den PC gedacht, im Wohnzimmer steht der selbe nochmal in 65 für Netflix und CO!
Und der wird hoffe ich auch länger halten, da er nur für Filme genutzt wird!

Bei den 2 Jahren bezoge ich mich auf die Nutzung am PC da ich mir schon vorstellen könnte das des Display nach 2 Jahren hin ist, aber ich lass mich da mal überraschen!
 
superrocko schrieb:
Die echte Konkurrenz zur RTX 3070 wird doch dann erst die 6700 werden oder nicht? Die soll ja im Januar oder so kommen. Vermutlich mit 12 GB, immer noch 4 GB mehr als die 3070.

Nvidia's Lineup sind allesamt Speicherkrüppel (3090 ausgenommen), und überzeugen mich nach AMDs Vorstellung überhaupt nicht mehr.
Mit 12GB wird die wohl kaum kommen. Dann müsste man das Speicherinterface weiter beschneiden, ein 384er wird die nicht bekommen. Denke die kommt daher mit 8GB und ist somit ein direkter Konkurrent zur 3070 - fertig.

Die 6800 ist hingegen eine Art Voraus-Konkurrent zu einer kommenden 3070 Ti, von der ich aber ausgehe dass sie nicht mehr als 10GB bieten wird weil man einen 3080er Chip und dessen Interface benutzen wird.
 
elmex201 schrieb:
Die 6800 ist mir preislich etwas zu teuer und zu dicht an der 6800 XT. Ja sie hat mehr Speicher als die 3070 aber Leistungsmäßig auf demselben Level. Da wären 500 USD/Euro das rundere Angebot.

Okay, wenn +17% in 1440p für dich das selbe Level ist und es erst ein "rundes" Angebot ist, wenn man für 17% mehr Performance und 100% mehr VRAM den gleichen Preis verlangt...
 
  • Gefällt mir
Reaktionen: nikky, znarfw, eXe777 und 4 andere
Apocalypse schrieb:
Igor hatte da schon ein paar Ergebnisse von Board Partnern sehen können und es sieht wohl aus das man beim Raytracing dafür dann hinten liegt, aber nicht dramatisch, aber doch ganz ordentlich. Statt 20% vorne ist man dann "plötzlich" 20% hinten. Und zwischen drin liegt man dann auch mal gleich auf mit der 3080.

https://www.igorslab.de/3dmark-in-u...x-6800xt-ohne-und-mit-raytracing-aufgetaucht/

Das sieht schon ganz solide aus, besonders für die 6800, weil da der Speicherunterschied nun wirklich enorm ist.

RTX 3080 und 3070-User werden die Textur-Details senken müssen und Navi2-User RT-Genauigkeit.
Unterschiede wird man in beiden Fällen wahrscheinlich mit der Lupe suchen müssen
 
  • Gefällt mir
Reaktionen: bugmum, pipip, Obvision und eine weitere Person
gut und richtig schrieb:
Wer hat schon einen G-Sync Montor bei den absurden Preisen?
Ich, und ich bin sehr zufrieden.
gut und richtig schrieb:
Das dürfte selbst bei Nvidia Kunden eine Nische sein, vor allem seit Free-Sync auch geht.
Wir reden ja letztlich über das große Ganze, da kann ich mir beim besten Willen nicht vorstellen das gescheiterte und teure Features da das Rennen machen :p

Aber es stimmt schon, 2 Leute haben bereits gepostet sie können wegen ihrem teuren G-Sync Monitor nicht wechseln, bzw. wollen nicht in den sauren Apfel beissen.
Na ja, Tatsache ist, daß G-Sync mit einem entsprechenden Modul immer noch ein Ticken besser und flüssiger aussieht als Freesync oder Nvidia + FreeSync. Ob das nun einem auf den letzten Ticker so wichtig ist, muß jeder für sich selbst entscheiden. Und FreeSync steht ja trotzdem einem solchen Monitornutzer offen. ;)
 
  • Gefällt mir
Reaktionen: ThunderS01, TorgardGraufell und SPECIALIZED-
Schuhkarton schrieb:
Schön, dass AMD Leistungsstarke Karten auf den Markt bringt,
aber für mich persönlich bin ich von den Preisen enttäuscht. Abgesehen von 6900xT/3090 sind die Karten ja nahezu genauso teuer wie die Nvidia-Karten.

Du hast aber sonst schon gemerkt, das fast nahezu doppelter VRAM verbaut ist!?
Rechne da mal mit locker 100 € allein an mehr VRAM.
 
  • Gefällt mir
Reaktionen: Apocalypse
gut und richtig schrieb:
Leute, ich habe @HisN in diesem Thread noch gar nicht gesehen nach 67 Seiten.
Schon sehr merkwürdig, ist er doch sonst Dauer-Poster. Komischerweise immer bei Nvidia.

Ach, ich seh gerade er hat sich nach der zehnten Titan dann doch mal die 3090 gegönnt.
Richtig, warum sollte er hier posten? ;) Aber vielleicht muß er heute auch nur schlichtweg so spät noch arbeiten.
 
  • Gefällt mir
Reaktionen: bugmum
ThirdLife schrieb:
Mit 12GB wird die wohl kaum kommen. Dann müsste man das Speicherinterface weiter beschneiden, ein 384er wird die nicht bekommen.
Nein sie wird ein 192bit Interface bekommen und ebenfalls Infinity Cache, vmtl dann nur 64 statt 128MB
 
Tyga schrieb:
Fassen wir zusammen: AMD mit viel Speicher, den kein Spiel braucht. Nvidia mit vielen Features, die kein Spiel nutzt.
Na toll.

Von den neu erscheinenden AAA-Titeln unterstützen doch fast alle DLSS und Raytracing. Raytracing ist zwar kein direktes Nvidia-Feature, aber Igors ansonsten korrekte Leaks besagten schon, dass AMD im Raytracing zurückliegen wird.
Sun_set_1 schrieb:
?

Die 5700XT hat im arithmetischen Mittel bei 1788MHz @ 180W. Nicht 1900Mhz bei 150W.
Damit verschieben sich die Faktorwerte schon ganz schön.

Anhang anzeigen 984985
Anhang anzeigen 984986

Das ist die ASIC Power der GPU, Board Power sind 225 Watt.

Der Effizienzsprung zu RDNA 2 ist schon sehr deutlich, die dort beworbenen 300 Watt sind bereits Board Power.
 
  • Gefällt mir
Reaktionen: squadric, Obvision, Taxxor und eine weitere Person
Wie sieht es eigentlich mit Crossfire aus? =p
 
Taxxor schrieb:
Nein sie wird ein 192bit Interface bekommen und ebenfalls Infinity Cache, vmtl dann nur 64 statt 128MB
Meinst ? Dann wäre sie aber recht herb beschnitten. Fürchte dann reicht die Leistung nicht mehr ganz zur 3070.
 
Zurück
Oben