Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

Gonzo28 schrieb:
Nur wenn es ein gutes Equivalent gibt. Gsync hat noch Vorteile gegenüber Freesync.
Kannst du das näher ausführen?
 
  • Gefällt mir
Reaktionen: Inxession und Dittsche
Mcr-King schrieb:
Mag sein aber es gibt auch Leute die sie länger nutzen wollen oder möchten wie ich ca 5 jahre.

Deswegen eine RX6700er mit 12GB wäre echt nice.

Aber jetzt erst mal CPU R5 5600x und PCIe SSD. 😉

Es ging ja auch mehr darum, dass manche nach der Ankündigung der AMD Karten so tun als wären die NVIDIA Karten nun der größte Scheiss. Sind sie aber nicht. Die liefern immer noch die Leistung ab und werden höchstwahrscheinlich in Sachen RT und DLSS besser dastehen. Wenn einem VRAM und Rasterizerleistung wichtiger ist, dann ist es ja jedem unbenommen ne AMD Karte zu holen. Für die meisten Käufer ab der 3080 ist aber eh regelmäßiges aufrüsten angesagt, vor allem da man dank dem Konkurrenzkampf der endlich wieder real stattfindet auch in den nächsten Jahren große Sprünge erwarten darf. Die NVIDIA Karten wären halt mit mehr Speicher auch die absoluten Gewinner, so muss man halt für sich selbst abwägen was einem wichtiger, VRAM oder RT, ist und entsprechend kaufen.
 
Sgt.Seg schrieb:
Vega56 raus, 6800XT rein, hoffen, dass das 650W Netzteil reicht :-)
Igor wird bestimmt wieder genau prüfen wie es bei AMD mit Spitzen ausschaut...
Wenn AMD das "Problem" gar nicht hat.
Sieht es an der Netzteilfront vielleicht gar nicht so schlecht aus.

MfG
 
  • Gefällt mir
Reaktionen: Sgt.Seg und sifusanders
Che-Tah schrieb:
...
Damit man gleichzeitig sagen kann ohne Rage Mode sind wir bei Watt/Performance super und das Powerlimit niedriger... und bei den FPS aktivieren wir ihn und sind da weiter vorne?
Sehe den Sinn dahinter noch nicht wirklich.
...


korrekt. und das ist marketingtechnisch auch genau richtig. die normale performance bei geringem verbrauch anpreisen und dann optional Rage Mode, denn beim letzten Leistungsquäntchen interessiert niemanden der Verbrauch. das hat die Vergangenheit inklusive der jüngsten (ampere release) gezeigt.
 
KlaraElfer schrieb:
Dass AMD nichts bei RT reißt, ist überdeutlich, aber für viele ist das nicht sooo wichtig.
Also sie liegt ÜBER der RT Leistung einer 2080 Ti, jene welche 1259 € gekostet hat zu Release (Custom´s noch mehr).

NICHTS "reißen" ist da schon eher eine perfide Aussage Deiner seits ...

MfG Föhn.
 
  • Gefällt mir
Reaktionen: Kodak, Rockstar85, eXe777 und 7 andere
Für den Preis der 6900XT kann man sich ja noch eine 3070 holen um dann DLSS 2.0 zu haben ;-)
 
  • Gefällt mir
Reaktionen: danyundsahne und flappes
Onkel Föhn schrieb:
Also sie liegt ÜBER der RT Leistung einer 2080 Ti, jene welche 1259 € gekostet hat zu Release (Custom´s noch mehr).

NICHTS "reißen" ist da schon eher eine perfide Aussage Deiner seits ...

MfG Föhn.


Hier schreien grad einige, dass wohl die RTX Leistung von den 6800ern nicht genug sei.
Also, wenn ich mir nun diese Tabelle ansehe (bitte Anhang öffnen)

Dann frage ich mich, ob die Massenrelevante Karte von Nvidia (3070) in dieser Disziplin überhaupt schneller sein wird als die RX6800 ????!!!! Für mich sieht das grad nicht danach aus.

So wie ich das sehe, wird sich die 3070 irgendwo zwischen 350 - 400 FPS einpendeln.
Und die 6800er (ohne XT) mit ihren 60CU´s die auch gleichzeitig RT Cores sind mit dem etwas geringerem Takt (-15% CU`s und - 10% Takt) kommt sie auch auf 350 FPS - 400 FPS.

Ich frage mich langsam wirklich, was das ganze RT gequarke soll. Im Massenrelevanten Markt werden sich die beiden nichts geben. Die Top Karten von AMD werden wohl dann den kürzen in RT ziehen. Ich frag mich aber grad ob die RT Leistung einer 2080TI im augenblick nicht genug ist ? Bzw. gibt es denn "überhaupt" eine Karte, die kommende Games mit Ulra Setting etc. etc. und RT ON über 60fps darstellen können? Keine ahnung, da bin ich nicht Gamer genug. Soll jemand bitte gerne mal hier einspringen.
 

Anhänge

  • Opera Momentaufnahme_2020-10-29_104343_videocardz.com.png
    Opera Momentaufnahme_2020-10-29_104343_videocardz.com.png
    70 KB · Aufrufe: 178
Zuletzt bearbeitet: (Zitat und Korrektur)
Unnu schrieb:
Dazu kommt, dass PC-Gaming hauptsächlich in Spielen stattfindet, die mit sehr vielen FPS und wenig EyeCandy kompetitiv & online gespielt werden. TripleA ist auf PCs, verglichen mit Konsolen, eher wenig.

Wie kommst du zu dieser Annahme?
Ich behaupte nämlich genau das Gegenteil
 
xexex schrieb:
Und was habe ich davon? Dort werden zig Konfigurationen mit aktuell noch nicht für den Endkunden erhältlichen CPUs und diversen Treiberversionen genannt, mit denen die Tests durchgeführt wurden
Blah blah blah....
Erst willst du dass Webseiten die selbe Szene testen soll wegen vergleichbarkeit, worauf ich dir darlege dass unterschiedliche Szenen auch unterschiedliche Ergebnisse im selben Game liefern können, wo mal die eine Karte besser skaliert als die andere und umgekehrt. Also wer entscheidet welche Szene getestet wird? Der Jensen oder die Lisa vielleicht ? Je nachdem was die GeForce bzw. die Radeon lieber hätte ?
Dann sagst du man weis nicht welche Testkonfiguration AMD verwendet hat worauf ich dir die Folien verlinke, und wieder ists nicht recht.
Unterschiedliche Redaktionen verwenden auch unterschiedliche Systeme um ihre Kartentests zu fahren, und betreiben RAM dann auch noch ausserhalb der Spezifikation des CPU Herstellers mit unterschiedlichem Takt (weil wegen Chancengleichheit usw.... nur weil ein paar "Auserwählte" hier glauben es betreibt ja niemand sein System mit Herstellervorgaben was für ein Mist, - entweder ich teste Stock oder ich lass es gleich bleiben bzw mach OC zusätzlich)
Aber da ists dann wohl kein Problem.
Nur weil Zen3 erst in einer Woche im Laden steht willst du da jetzt auch noch ein Fass aufnmachen....
Dann wart einfach bis die CPUs am 5.Nov und die Karten am 18. Nov in den Läden stehen bzw. das NDA fällt, anstatt hier mit irgendwelchen fadenscheinigen Argumenten immer wieder zu versuchen unbedingt Recht zu haben !
Ich bin damit raus hier, das führt zu nichts....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kodak, Rockstar85, Meltman und eine weitere Person
DocWindows schrieb:
Wieso ist 2x540p = 1080p und 2x 1080p dann 4K?
4K = 4x1080p oder wie oder was? :confused_alt:

Eine von den beiden Angaben stimmt doch da nicht wenn es "2x in each dimension" ist.
Sie meinen, dass die Verdoppelung sowohl Hoizontal, als auch vertikal trägt.
Somit ja- 540P = 1080P
 
OZZHI schrieb:
Man darf nicht vergessen, dass Nvidia nur eine Ti (12-20GB) davon entfernt ist den Hypetrain von AMD ins Straucheln zu bringen. Sie haben schon mal eine 700€ 1080 unter den Bus geworfen und eine Ti für den selben Preis released.

Obwohl ich selbst von diesem Lineup beeindruckt bin, weiss ich auch, dass eine grosse Mehrheit aus Prinzip lieber Nvidia kaufen würde.

Mit einem G-Sync Monitor gehöre ich da ehrlich gesagt auch zur Zielgruppe.

Werde dennoch meinen Bestellfinger bereit halten. Wenn es für mein System nicht ausreichen sollte, landet die Karte eben in der Verwandtschaft. :)

Vllt. ist ja so eine AMD Grafikkarte drin und dazu der passende Monitor.Dann k
valin1984 schrieb:
Ich finde ihn nicht zu hoch für das gebotene, hätte es aber besser gefunden, wenn sie ein etwas niedrigpreisigeres Produkt auf dem Preisniveau der 3070 oder darunter gebracht hätten. Mit 12 GB Grafikspeicher und etwas weniger Leistung hätten die die 3070 immer noch abgeledert und man hätte sich direkt auf dem Preisniveau etablieren können.

Einen tot muss man immer sterben.man wird es nie allen Recht machen können.
Vllt. kommt ja noch was schönes bei den kleineren Karten bei rum.
 
die 6800xt ist für mich kein guter preisleistungstipp gegen die 3080.
nur 50€ günstiger, dafür sehr wahrscheinlich schlechteres raytracing, kein oder schlechteres dlss und sehr wahrscheinlich im schnitt langsamer als die 3080 wenn man beide GPUs in das gleiche system steckt (nicht wie bei der präsentation die karte maximal overclocken und mit dem noch nicht verfügbaren besten Zen3 pairen.)

die 6900 für 1000€ betrifft das gleiche schicksal, aber immerhin ist sie ganze 500€ günstiger als die 3090 was sie zur interessantesten karte im lineup macht.
die 6800 ist zwar schneller als die 3070 aber dafür auch teuerer, da bleibts sich gleich wer da die nase vorn hat.
gerade bei raytracing und dlss schweigt sich amd aus. bei der performance kommen sie allgemein ran, aber überholen die 3080 respektive die 3090 nicht und sind mit ausnahme der 6900xt nicht unbedingt als günstiger zu bezeichnen wenn man rt und dlss im hinterkopf behält.

alles in allem: sehr gute präsentation, aber gehyped bin ich nicht. freue mich dass nvidia jetzt echte konkurrenz hat, allerdings sehe ich team grün was gesamtpaket angeht immernoch vorne.
 
  • Gefällt mir
Reaktionen: Sun-Berg, zonq und .Sentinel.
Hektor26 schrieb:
ich kann irgendwie nicht glauben das AMD schneller sein soll will nicht in meinen Kopf, ganz entspannt auf unabhänige Tests warten da wird sich zeigen was sache ist nicht vorher

Es spricht zwar für dich das du auf unabhängige Tests wartest aber solche Kommentare und Verbohrtheit will mir nicht in den Kopf. Nachdem Motto Intel macht immer die besten CPUs und nur der FCB ...
 
  • Gefällt mir
Reaktionen: Rockstar85, eXe777, Onkel Föhn und 4 andere
Gonzo28 schrieb:
Nur wenn es ein gutes Equivalent gibt. Gsync hat noch Vorteile gegenüber Freesync.

Ja und nein HDR mut GSync gibt es fast nicht zu kaufen zum guten Preis da ist Freesync schon besser und HDR ist klasse. 😉
 
  • Gefällt mir
Reaktionen: Sun-Berg, Onkel Föhn, Rambo5018 und eine weitere Person
Zu sagen "es gibt nur wenige DLSS-Titel" und deshalb das Feature schlechtzureden, wenn auch klar ist, dass viele Titel kommen werden ist einfach nicht richtig. Dass AMD etwas bringen wird, kann als gesichert gelten, sie werden es müssen. Wir gut das sein wird und wann es kommen wird ist reine Spekulation. Man muss DLSS2.0 Titel mti DLSS 2.0 gegen AMD ohne DLSS2.0 benchmarken, Stand heute.
Ich bin gespannt.
 
Che-Tah schrieb:
Damit man gleichzeitig sagen kann ohne Rage Mode sind wir bei Watt/Performance super und das Powerlimit niedriger... und bei den FPS aktivieren wir ihn und sind da weiter vorne?
Sehe den Sinn dahinter noch nicht wirklich.
Da habe ich noch einen. Was macht denn NV. Marketingtechnisch Fanatsiepreise aufrufen, die du aber im Markt gar nicht bekommst... Gut bei der Konkurenz nun - vielleicht doch.
 
  • Gefällt mir
Reaktionen: Dittsche und McTheRipper
Weiß jemand, ob dieses Smart Access Memory auch auf B450 Boards mit den 5000er Ryzen Prozessoren unterstützt wird oder nur auf mindestens 500er Chipsätzen?
 
Monstranz schrieb:
Alles unter 4K und schneller GPU 3070 und 6800 brauchen das nicht. DLSS ist momentan viel zu ueberbewertet auf PC.
Moment mal- Kam nicht gerade im Ampere- Thread das große Umweltgewissen vieler hier zum Vorschein?
DLSS kann einen großen Beitrag dazu leisten, Energie zu sparen, da die Aufbereitung durch die Tensor Cores deutlich weniger Schluckt, als die Berechnungen über den gesamten Shader- Apparat.

Synce ich also auf 60/120/144FPS, ist die Wahrscheinlichkeit, dass ich per DLSS die GPU in den Sweetspot kriege, deutlich höher.
 
Hagen_67 schrieb:
:o:o:o Leute, was geht ab????? 1.764 Kommentare in nicht mal 24Std.
Jau, der Fanboyflamewar tobt hin und her :D Ich persönlich bin nur froh, dass es endlich auch im High End-Bereich wieder Konkurrenz gibt, das ist gut für uns alle, weil die Preise sinken, wie man ja schon anhand des MSRP der 3080 sehen konnte. Wie man jetzt weiß, hat Nvidia das nicht aus reiner Menschenfreundlichkeit getan, sondern weil Big Navi ernste Konkurrenz ist.
 
  • Gefällt mir
Reaktionen: russianinvasion, PietVanOwl, andy484848 und 5 andere
Capthowdy schrieb:
Kannst du das näher ausführen?

Das Fenster HZ bei Gsync ist größer. So zumindest bei meinen Bildschirmen die von 1HZ bis 165HZ alles flackerfrei darstellen können, im Gegensatz zu meinem wesentlich neueren 240HZ Freesync-Bildschirm das nur von 60-240 HZ abdecken kann. Gsync -> Hardware. Freesync -> Software.
 
Zurück
Oben