Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

"Closed" Features/Tech sollte man als schlauer Konsument nicht auch noch unterstützen.Insbesondere sprechen wir nicht über Nucleartechnologie&Staatsverteidiging sondern das Topic ist Gaming=Spass haben.Spass hat man i.d.R. gemeinsam!
 
Gonzo28 schrieb:
Das Fenster HZ bei Gsync ist größer. So zumindest bei meinen Bildschirmen die von 1HZ bis 165HZ alles flackerfrei darstellen können, im Gegensatz zu meinem wesentlich neueren 240HZ Freesync-Bildschirm das nur von 60-240 HZ abdecken kann. Gsync -> Hardware. Freesync -> Software.

Mein Monitor macht es von 48-144Hz. Also ist deine Aussage schon falsifiziert.
 
  • Gefällt mir
Reaktionen: eXe777, Onkel Föhn und Colindo
elmex201 schrieb:
Man muss die genauen Ergebnisse abwarten. Aber ich schätze mit "bis zu" Werten zu kommen halte ich für unangebracht.
"bis zu" ist ganz normal in Marketing Folien, eben damit sich am Ende niemand beschweren kann, wenns 2% weniger sind.

Aber hier glauben ja schon ein paar Leute, dass das deshalb die max FPS sein würden gegen Nvidias avg FPS, selten so gelacht :D
 
  • Gefällt mir
Reaktionen: Onkel Föhn, m2020, McTheRipper und 2 andere
Frage an die Leute mit Glaskugel:
850W Netzteil (Corsair RM850) genügend für den R9 5900x + 6900XT?
Gemäss AMD ist ein 850W Netzteil empfohlen für die 6900XT, unbekannt ist jedoch ob dass dann an der Kotzgrenze läuft und mit welcher CPU hier gerechnet wurde.

Ein 1000W Netzteil in Weiss habe ich leider nicht gefunden (Das Corsair war ein Sondermodell in 1000W), sonst würde sich die Frage erübrigen.
 
Gonzo28 schrieb:
Das Fenster HZ bei Gsync ist größer. So zumindest bei meinen Bildschirmen die von 1HZ bis 165HZ alles flackerfrei darstellen können, im Gegensatz zu meinem wesentlich neueren 240HZ Freesync-Bildschirm das nur von 60-240 HZ abdecken kann. Gsync -> Hardware. Freesync -> Software.
Hast du das auch mal tatsächlich getestet? Ich habe das schon hier und da anders gelesen, z. B.:
https://extreme.pcgameshardware.de/...gend-schnelles-va-panel.592112/#post-10504323
 
Malar schrieb:
Frage an die Leute mit Glaskugel:
850W Netzteil (Corsair RM850) genügend für den R9 5900x + 6900XT?

Locker, hab 850w platinum, ne 3090 laufen mit overclocked i7 8700k und keine probleme.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, mc_ace, GerryB und eine weitere Person
Dittsche schrieb:
die schelle ist allein schon, dass Amd relativ spielend bei akzeptablen Verbrauch und Formfaktor mit dem von Nvidia selbstbetitelten "Titan Class Krösus" der 3090 gleichziehen kann.

Hast du eine andere Präsentation gesehen als ich? Also spielend war das ja nun auch nicht wirklich. Man ist in ein paar Spielen schneller, in einigen langsamer. Insgesamt nehmen die sich nun nicht wirklich viel, zumal die Benchmarks von AMD mit OC und Ryzen 5000 Vorteil waren bei der 6900XT

300 Watt sind ein Akzeptabler Verbrauch, aber bei 320 Watt für eine 3080 drehen hier alle am Rad. Aber auch hier, wir wissen nicht, was die karte wirklich verbraucht. Das ist ja auch gerne mal abweichend von der Angabe ;) Ich erinnere hier nur mal an Polaris.

Und zum Kühler, auch hier muss sich zeigen, was das Kühlerdesign denn wirklich kann. Man muss hier der 3090 lassen, dass die FE Karte einen extrem guten und leisen Kühler hat. Kleiner ist ja nett, aber am Ende kommt es auch auf die Kühlleistung an und die kennen wir noch nicht.

Würde da die Füße still halten und einfach mal warten, was die Tests denn sagen. 6800XT, 3080, 6900XT und 3090 liegen eh so extrem dich beieinander, dass es auch schon fast egal ist. Das Leistungsplus der 6900XT ist da schon fast enttäuschend. Die 6900Xt ist laut AMDs eigenen Benchmarks mit OC nur ca. 10% schneller, als die 6800XT ohne OC und das bei 350€ Aufpreis. Kein wirklich guter Deal. Wäre auch bereit 1000€ auszugeben, aber nicht bei so wenig Unterschied.

Dittsche schrieb:
Das hat HD 5870 Niveau. Chapeau!

Naja nicht wirklich. AMD ist weder deutlich früher auf dem Markt noch sind hier Welten zwischen der Effizienz. Mal hoffen, dass zwischen Ampere und Navi2x keine so riesen unterschied bei der RT Leistung liegt, wie zwischen HD 5000 und GTX 400 bei der Tesselation. Aber das müssen Tests dann zeigen. Gerüchte sagen zwar AMD ist langsamer beim RT, aber genaugenommen wissen wir es bisher nicht. Das wird sich in Tests zeigen. Vielleicht liegen sie da ja dichter beieinander, als manche denken. Ampere ist ja auch nicht der heilige Gral beim Raytracing und im grunde auch noch viel zu langsam für umfangreiches RT oder gar Path Tracing (wenn die Spiele nicht gerade 20+ Jahre alt sind)

Dittsche schrieb:
Ich habe auch die normalerweise sehr rumpeligen Kommentare beim Youtube Release verfolgt und habe sehr sehr oft "RIP Nvidia" gesehen. Das sah normalerweise gänzlich anders aus bei Amd Graka Release. Das zeigt mir als ersten sozialen Anhaltspunkt, das Amd abgeliefert hat und das die Leute auch so sehen.


Bitte was? Fast jede Generationen war in den sozialen Medien doch der Nvidia Killer.... Bis zum Release zumindest.... Polaris, Fiji, Vega, Vega 2, Navi etc. Wie Leute das in einem AMD livestream sehen ist ein Sache, wie die Leute Kaufen eine andere.

Mich erinnert das ganze ein wenig an die R9 290X. Die war auch eine extrem gute Karte (abgesehen vom gurkigen Referenzkühler). Deutlich schneller als eine 780, 33% mehr Speicher und trotzdem haben die Leute wie blöd GTX 780s gekauft und auch viel teurere GTX 780Tis, die kaum schneller waren. Also mal abwarten. Ich denke AMD hat hier sehr gute Chancen, wenn Sie liefern können.

Die RX 6000 Karten sind schon sehr gut und wirklich rund. Aber ich sehe hier nicht wirklich den Nvidia Killer, den manche sehen. Die Karten sind aber deutlich runder. Ich werde mir wohl auch die 6800XT holen, aber realistisch hat AMD hier zu Nvidia aufgeholt. In einigen Bereichen ist AMD besser aufgestellt, in einigen Bereichen nvidia. Hier muss man einfach priorisieren, was einem wichtig ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: andy484848, Tock und v_ossi
Malar schrieb:
Frage an die Leute mit Glaskugel:
850W Netzteil (Corsair RM850) genügend für den R9 5900x + 6900XT?
Die Frage lässt sich nicht seriös beantworten, du wirst die Tests abwarten müssen. Bei Igor's Lab wird auch immer sehr ausführlich auf den Stromverbrauch inkl. Peaks eingegangen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
BlackRain85 schrieb:
...

Ich frage mich langsam wirklich, was das ganze RT gequarke soll. Im Massenrelevanten Markt werden sich die beiden nichts geben. Die Top Karten von AMD werden wohl dann den kürzen in RT ziehen. Ich frag mich aber grad ob die RT Leistung einer 2080TI im augenblick nicht genug ist ? Bzw. gibt es denn "überhaupt" eine Karte, die kommende Games mit Ulra Setting etc. etc. und RT ON über 60fps darstellen können? Keine ahnung, da bin ich nicht Gamer genug. Soll jemand bitte gerne mal hier einspringen.

"RT is the new Tesselation" - ich warte dann schon auf die ersten Nvidia gesponsorten Titel, welche RT übers Limit drehen und die Radeons (und Nvidias) einbrechen lassen. So wie bei der Crysis Unterwasser-Tesselation oder den versteckten Nilpferden (oder was war das?) in der Distanz des Final Fantasy 15 Benchmarks.
 
  • Gefällt mir
Reaktionen: flappes
ComputerJunge schrieb:
Yep, die sind "total fertig". Und erst wenn "der Gegner total vernichtet, alle Dörfer niedergebrannt, die Bevölkerung vertrieben .....".

Manchmal kann ich ob der Wortwahl und den formulierten Gedanken nicht einmal mehr mit dem Kopf schütteln.

Hast du da was in den falschen Hals bekommen?
Ich finde es beeindruckend, daß so eine kleine Firma wie AMD es mit den Riesen Intel und Nvidia aufnimmt.
Falls das schlecht rübergekommen ist, dann entschuldige ich mich dafür.
 
  • Gefällt mir
Reaktionen: Laphonso und Onkel Föhn
Ethylamin schrieb:
Weiß jemand, ob dieses Smart Access Memory auch auf B450 Boards mit den 5000er Ryzen Prozessoren unterstützt wird oder nur auf mindestens 500er Chipsätzen?
Es wurde von "500 series" gesprochen, die Leute sind sich aber aktuell selbst darüber uneinig, ob B550 geht.


Malar schrieb:
Frage an die Leute mit Glaskugel:
850W Netzteil (Corsair RM850) genügend für den R9 5900x + 6900XT?
Gemäss AMD ist ein 850W Netzteil empfohlen für die 6900XT, unbekannt ist jedoch ob dass dann an der Kotzgrenze läuft und mit welcher CPU hier gerechnet wurde.
Siehst du doch gut bei Nvidia, da wurde auch mit einem Intel HEDT bewertet und man kam auf 850W für die 350W der 3090. Also mit 850W bist du auf jeden Fall Safe und ich werde auch mit meinen 650W sehr sicher safe sein.
 
  • Gefällt mir
Reaktionen: Malar
Malar schrieb:
Gemäss AMD ist ein 850W Netzteil empfohlen für die 6900XT, unbekannt ist jedoch ob dass dann an der Kotzgrenze läuft und mit welcher CPU hier gerechnet wurde.
Rechne doch mal nach. 300W GPU + ca. 120W CPU. Da hast du noch Unmengen von Reserven für eventuelle Spikes. Die angaben sind bei den Herstellern immer sehr überzogen, weil es sein könnte das du einen Chinaböller als Netzteil benutzt
 
  • Gefällt mir
Reaktionen: Malar
donativo schrieb:
Für alle 2080TI Besitzer war das nun auch die Backpfeife von der anderen Seite :stacheln: 😁
Nicht ganz, Ich habe eine gebrauchte 2080 Ti (MSI Trio) am Tag nach der Ankündigung der 3000er Serie für 505 Euro bekommen von einem Besitzer der damals 1600 Euro bezahlt hatte :o

Also für die damaligen Neukäufer bestimmt eine ordentliche Watschn, aber als Second Hand fühl ich mich nicht gewatscht :)

Wenn ich die FPS der 6800 bei meinem Spiel Battlefield V sehe, werden meine Augen leicht wässrig, aber selbst mit 240hz/1440p kann ich die 2080 Ti nicht ganz ausspielen, da bremst vorher der 9700k bei 190 FPS... ->heißt ohne einen neuen Ryzen Prozessor brauch ich erst gar nicht dran denken mir eine 6800 zu holen :)
 
Shoryuken94 schrieb:
Ich denke AMD hat hier sehr gute Chancen, wenn Sie liefern können.
Es wird auch auf den Treiber ankommen. Falls es da wieder viel Theater mit CTDs und Bluscreens gibt, dann können die Karten so gut sein, wie sie wollen. Und falls es doch größere Probleme gibt - was natürlich immer vorkommen kann - dann werden sie hoffentlich schnell behoben.
 
Gonzo28 schrieb:
Zu sagen "es gibt nur wenige DLSS-Titel" und deshalb das Feature schlechtzureden, wenn auch klar ist, dass viele Titel kommen werden ist einfach nicht richtig. Dass AMD etwas bringen wird, kann als gesichert gelten, sie werden es müssen. Wir gut das sein wird und wann es kommen wird ist reine Spekulation. Man muss DLSS2.0 Titel mti DLSS 2.0 gegen AMD ohne DLSS2.0 benchmarken, Stand heute.
Ich bin gespannt.
Zu deiner Forderung - nein muss man nicht. Hier wird ja getan als ob DLSS die erleuchtung sei. Ist es nicht. Nativ in der kleineren Auflösung zu rendern und dann groß zurechnen kann man auf allen Karten.
Schön ist, das NV gegen die Bildfehler die dadurch zwangsläufig entstehen vorgeht. Aber auch AMD ist da bereits dran und es gibt ein "vergleichbares" Feature. Laut Igor rein optisch auch beide annehmbar. Mal mehr mal weniger...
Das Problem an NV`s Strategie ist - wieder mal proprietär - sie haben schon vieles leider zu grabe getragen...
Man muss es noch immer explizit implementieren...
Das Feture im Treiber zuschaltbar - das wäre die Goldrandlösung... dann kannst du es für alle Spiele nutzen... Allerdings vermute ich, werden wir dann mehr "Bildfehler" sehen... Aber die gibt es stand heute auch noch bei DLSS 2.0 und bei 1.0 war es ja wohl ein Graus....
Ob NV jetzt noch so viel Geld in die Hand nehmen wird das weiter im Markt zu puschen... Mal sehen...
 
  • Gefällt mir
Reaktionen: Onkel Föhn, m2020 und Heschel
Tornavida schrieb:
"Closed" Features/Tech sollte man als schlauer Konsument nicht auch noch unterstützen.Insbesondere sprechen wir nicht über Nucleartechnologie&Staatsverteidiging sondern das Topic ist Gaming=Spass haben.Spass hat man i.d.R. gemeinsam!

Daran die Schlauheit eines Konsumenten festmachen ist schon arg fraglich. Als ich zu G-Sync gestoßen bin war Freesync noch lange kein Thema und G-Sync ist und war auch ein Killerfeature, insbesondere für Simracer mit Rig wie mich. Es läuft doch immer so, eine Firma entwickelt etwas Neues, ist Vorreiter, hat dadurch einen Wettbewerbsvorteil, die Konkurrenz zieht nach und dann gibt es freie Alternativen oder Standards. Sogesehen dürfte kein Linux-Nutzer zu Nvidia greifen, denn sie weigern sich bis heute einen quelloffenen Treiber anzubieten, geschweige denn die vorhandenen Nouveau-Treiber zu unterstützen und überlassen den fleißigen Entwicklern einen Haufen Arbeit mit Reverse-Engineering und verhindern eine Änderung des Takts, sodass ein freier Linux-Treiber unbrauchbar wird. Ich vermute ja, dass da Geheimdienst-Code im Nvidia-Treiber ist und sie sich deshalb so wehren einen alternativen Treiber anzubieten.

Ich bin froh über die Konkurrenz. Das dürfte die Nvidia-Preise weiter drücken. Und dann habe ich die Qual der Wahl, werde vermutlich aber zu Nvidia greifen, da 3x 1440p ISP 165HZ Gsync Monitore und DLSS.

Wenn sich der vorige Beitrag mit 2DP+1USB-C und 1xHdmi bewahrheitet habe ich ohnehin ein Problem.
Ich brauche 4xDPan einer Karte.
 
Shoryuken94 schrieb:
...

Mich erinnert das ganze ein wenig an die R9 290X. Die war auch eine extrem gute Karte (abgesehen vom gurkigen Referenzkühler). Deutlich schneller als eine 780, 33% mehr Speicher und trotzdem haben die Leute wie blöd GTX 780s gekauft und auch viel teurere GTX 780Tis, die kaum schneller waren. Also mal abwarten. Ich denke AMD hat hier sehr gute Chancen, wenn Sie liefern können.

Die RX 6000 Karten sind schon sehr gut und wirklich rund. Aber ich sehe hier nicht wirklich den Nvidia Killer, den manche sehen. Die Karten sind aber deutlich runder. Ich werde mir wohl auch die 6800XT holen, aber realistisch hat AMD hier zu Nvidia aufgeholt. In einigen Bereichen ist AMD besser aufgestellt, in einigen Bereichen nvidia. Hier muss man einfach priorisieren, was einem wichtig ist.

die R9 290 war eine starke aber keine effiziente Karte. Sie hatte einen 512bit Bus, wurde sehr heiß und verbrauchte sehr viel. Also eher ein Approach wie momentan Ampere (forciert aufs letzte Leistungsquäntchen). der Verglich hinkt also etwas. Nichtsdestotrotz möchte ich dir mtteilen, dass Radeon zu 290er Zeiten den höchsten Marktanteil vs Nvidia der jüngeren Vergangenheit überhaupt hatte.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Zurück
Oben