Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

Stunrise schrieb:
Der 360Hz Monitor sowie die Maus mit Reflex

Der igor hat aber gesagt erst dann wird es aber wirklich spannend vorher naja wenn der Monitor nur eine 400€ Krücke ist bringt dass nix. ;)
 
BlackRain85 schrieb:
Frau Su sagte, RDNA is a Journey like Zen. Zen hat nun 4 Updates bekommen und ist wohl die beste CPU im Augenblick. Sie hat damit klar gemacht wo die Reise hingeht. Und RDNA2 ist wie Zen2. RDNA3 ist dann sicherlich vergleichbar mit ZEN 3.

Die Basis für die kommende RDNA3 ist klasse.
  • 5nm (für vielleicht 20 - 40 CU mehr?) und dann trotzdem 300W - 320W TBP
  • einfache Aufstockung von Infinity Cache
  • vorbehaltlich immer noch Platz für ein größeres Speicherinterface
  • GDDR6X
Als Unternehmen glaube ich, dass AMD an einem Verkauf so einer GPU mehr Verdient als NVIDIA bei Ampere trotz geringeren Preisen. Das sichert zukünftig den Wettbewerb und uns darf es alle freuen.

EFFIZIENZ scheint das Lieblingswort von AMD geworden zu sein.

YES in weiten Teilen
Ob RDNA3 so einfach ala Zen3 agieren kann, glaub ich net. (liegt ja speziell an der Fertigung-Probs bei Intel)

Was aber für ne weitere gute Entwicklung spricht: man braucht noch net mal 5nm für nen einfachen Refresh
Raff-pcgh:
"Bemerkenswert ist, dass all das bei offiziell gleicher respektive nur optimierter Fertigungstechnologie passiert. AMD spricht wörtlich von "Optimized libraries" der von TSMC bereitgestellten 7-nm-Fertigung. Von DUV-Layern ist nirgends die Rede, was die Effizienzgewinne in hellem Licht erstrahlen lässt und außerdem einen Shrink im Jahr 2021 naheliegend macht."

5nm könnte man sich also noch für MCM aufheben, wobei ich gar net weiss Was man mit 4 Chips dann
anstellen würde. 8k ist irgendwie too much für den normalen Gamer.

Zu Effizienz:
3090@300W ist noch net der Rage-Mode, der auch etwas kosten sollte.
Vom Grundsatz aber sehr vernünftig, ohne Rage die 300W anzupeilen.
Damit sollten die meisten 2080Ti-User ohne NT-Wechsel auskommen.

btw.
RX6800 scheint mir net nach der 3070 ausgerichtet sondern eher nach GA102-150=3080Salvage(3070Ti)
Da passt dann auch der Preis.
(das vermutlich die 3070-Customs schon so teuer wie die RX6800 sind ist ein Bonus für AMD)
Abgerechnet wird vermutlich in 1440p bei diesen Salvage-Modellen:
 

Anhänge

  • RX6800@1440p.png
    RX6800@1440p.png
    416,2 KB · Aufrufe: 134
  • GA102-150.png
    GA102-150.png
    113,8 KB · Aufrufe: 140
  • Gefällt mir
Reaktionen: Hatch, Makso und BlackRain85
Karl S. schrieb:
Du verstehst mich falsch: Mit "thematisiert" meine ich, dass sie es nicht richtig vorgestellt haben. Ok man weiß das sie daran arbeiten, aber man hat keinen Ausblick auf das Endprodukt. Also wer weiß was letztlich dabei rauskommt?

Und zu sagen, dass ich "Müll" erzähle ist halt schon beleidigend. Überdenke mal deine Wortwahl.

Und irgendwie wirst du trotzdem von mehreren Falsch verstanden, vielleicht liegt es an deiner Wortwahl ???

😂 😂 😂
 
  • Gefällt mir
Reaktionen: aldaric
mylight schrieb:
die AMD Karten altern schlecht, heißt für mich in 2 Jahren wird als AMD User aufgerüstet während man als NVIDIA User noch 2 Jahre Ruhe hat, extrembeispiel, verdeutlich sehr gut weswegen wohl trotzdem viele NVIDIA Karten kaufen werden.
So ein Quatsch was du da schreibst, richtiges fanboy bla bla. Sorry aber wirklich blabla. Mein amd Karten bis auf r7 laufen alle noch auch die ich bei Freunden verbaut habe. Ich hoffe mal du redest da von den sagen wir mal top Modellen beider hersteller, ja die halten beide bei guter Pflege bzw. Gutem airflow im case lange. Das einzige was Bei aller Hardware irgendwann passiert sie erfüllen nicht mir die Anforderungen der aktuellen Games dann oder haben die Features nicht.
 
  • Gefällt mir
Reaktionen: edenjung, elvis2k1, LencoX2 und 2 andere
mad-onion schrieb:
Also mir ist noch die € Preisgestaltung unklar. Nvidia hat ja die Dollarpreise bei den FE's 1:1 von $ zu € übernommen. Sollte AMD das nicht machen, stehen sie in Europa und vielen anderen Regionen Preisleistungstechnisch teils deutlich schlechter da, als in den Staaten.

1159€ bei 16% und 1189€ bei 19% MwSt. für die 6900XT sind mindestens 359€ mehr, als ich bereit wäre dafür zu zahlen

Wann hat man denn jemals den Dollar Preis plus Mehrwertsteuer in Euro verlangt?
Aus den $399 der 5700XT wurden hier auch 419€.

Du kannst dich drauf einstellen, dass eine Karte für $999 dann hier wohl um die 1049€ kosten wird
 
  • Gefällt mir
Reaktionen: timmey77 und sifusanders
JoeDoe2018 schrieb:
Die AMD KArten haben außerdem einen deutich größeren Speicher (16GB) und das obwohl der Ppreis günstiger ist. Auch der Stromverbrauch ist geringer als bei NVIDIA. Wenn man bedenkt das diese Grafikkarte in zwei Spielekonsolen steckt, dann werden auch viele Spiele sehr stark auf AMD optimiert werden. Das bringt sicher noch Performance.

Naja, die aktuellen Konsolen haben auch AMD-Hardware. Jetzt hat AMD im Vergleich jedoch auch konkurrenzfähige Hardware
 
  • Gefällt mir
Reaktionen: The_Jensie
Wadenbeisser schrieb:
So ganz stimmt das nicht.
Bei nvidia läuft die Strahlenvervolgung über die RT Cores und bei AMD über eine Spezialeinheit in den TMU, der Effekt selbst wird bei beiden über die Shader berechnet.

Hier wäre natürlich nvidias bei vergleichsweise wenigen Strahlen mit den vielen Shadern im Vorteil aber mit steigender Komplexität bei der Strahlenverfolgung (mehr Strahlen, mehr Verfolgungstiefe bei Reflektionen) könnte sich das Blatt für AMD wieder wenden da ihr Ansatz hier nach bisherigen Informationen stärker zu sein scheint.

das wusste ich nicht bis jetzt dachte ich man hat das Feature als "erweitungen" direkt in den Shader integriert schön zu wissen. Mal schauen wie stark ihr ansatz wirklich ist aber wenn die Leaks stimmen und 2080TI Niveau erreicht wird dann finde ich das durchaus sehr stark für AMD und den ersten Geh versuch.

viel Spannender ist für mich aber wie lange es noch dauert bis RT ohne trickereien der Entwickler ordentlich läuft und ob die Karten jetzt mit jeder Gen eine Steigende Leistungsaufnahme haben od. ob das jetzt wieder stagniert.
 
Benji18 schrieb:
siehe DLSS, Physiks, GSync? od. RTX Broadcast?
Das sind zusätzliche Features, ausser DLSS hat das keinen Einfluß auf die Leistung. Aber DLSS ist auf jeder Plattform nutzbar, wenn das Spiel das unterstützt, Smart Memory Acces eben nicht.

Ich habe die Nvidia-Präsi nicht gesehen. Wenn Nvidia dabei auch riesige Benchmarkbalken gezeigt hätte und darunter ganz klein "aber nur mit DLSS" geschrieben hätten, wäre es genauso Mist. Der Benchmark wäre jedoch für jeden User gültig, egal ob er die RTX mit einer Intel- oder AMD-Plattform kombiniert.
 
Karl S. schrieb:
Ja habe ich und wo ist es? Es ist offensichtlich das Nvidia das Thema mit viel mehr Engagement angeht. AMD hat Fidelity FX in der Präsi nicht mal thematisiert/geteasert. Das zeigt schon wie wichtig das denen ist. Darauf vertraue ich also nicht.

hast du die ganze Präsi überhaupt gesehen od. dich nur durchgeklickt? Das wurde Thematisiert und das war sogar relativ "lange" zu sehen man ist auf jedes einzelen Featuer aus dem Paket bis auf den DLSS 2.0 pedanten eingegangen.
 
  • Gefällt mir
Reaktionen: jemandanders
Die 6900 XT stelle ich mir mit Undervolting äusserst interessant vor
 
  • Gefällt mir
Reaktionen: KarlsruheArgus und bad_sign
Croftout90 schrieb:
Zum ersten mal, dass ich es iwie "bereue" einen Monitor mit G-Sync zu haben O.o
Jetzt hoffe ich nur, dass Nvidia eine 3080 mit mind. 12 GB VRam rausbringt...
Aber sau stark AMD - genau so und nicht anders!
Wenn dann 20GB VRAM, wäre witzig wenn AMD 2 Monate später wie sie halt immer ewig brauchen, ne Variante mit 32GB rausbringen würden lol, wer soll das bezahlen und was bringt mir das ich sehe kein Unterschied bei 4K / 8K Texturen.
 
Balikon schrieb:
AMD sagt laut "Hier, wir nehmen es mit der RTX 3090 auf" und schreiben ganz klein darunter "aber nur auf reinen AMD-Plattformen". Sowas hat ein echtes Geschmäckle, da kann ich auch als AMD-Sympathisant nicht drüber hinwegsehen.

Ähm... was genau wäre deine Erwartung?
Meinste etwa Intel arbeitet mit denen zusammen? (sind doch die wo selbst gerne Fake Benches bringen)

AMD ist eben Zen 2 + RDNA 2 = xbox series x und ps5

und genau das gibts auch am PC mit endlich mal Vorteilen, wieso sollte das AMD bitte anders machen?

Und was für Nvidia Games gibt es denn? Alle großen Games werden für Konsole programmiert.

Welche Triple-A PC Exklusivgames mit neuer super duper Technik für Nvidia sind denn in der Pipeline?

Ich frag mich was für Luftschlösser manche immer bauen, es existiert einfach nicht xD
 
Das freut mich für amd dass sie im cpu und gpu Markt wieder richtig Fuß gefasst haben. Bin gespannt auf die ersten reviews :)
 
Ano_Dezimal schrieb:
Ich glaube auch nicht das Aussagen wie "beissen in die Tischkante" wirklich ernst gemeint sein sollen.
Doch, das meine ich ernst. Wenn ich jetzt 1500€ für eine RTX 3090 ausgegeben hätte und in vier Wochen für gleiche Leistung 500€ weniger zahle, würde ich den halbe Tisch auffressen. OHNE Ketchup.
 
  • Gefällt mir
Reaktionen: JanTenner, Makso, jemandanders und eine weitere Person
Echt bemerkenswert, was das im Vergleich zu Intel und Nvidia "kleine" AMD mit ZEN 3 und RDNA2 geschaffen hat.
Fetten Respekt an deren Ingenieure und das Management drumherum.

Endlich wieder Konkurrenz in allen Belangen auf Augenhöhe oder sogar drüber. Gewinner ist der Konsument, also WIR!
 
  • Gefällt mir
Reaktionen: Coenzym, russianinvasion, Apple ][ und 3 andere
Jetzt noch auf die Tests warten und dann „vermutlich“ eine 6800XT kaufen, wenn sich die Preise eingependelt haben.
Die 80 Dollar Preisunterschied zur 6800 ist mir den Leistungsunterschied auf jeden Fall wert.
Oder nVidia bringt doch noch was preislich attraktives mit viel RAM oder die Tests für AMD zeigen ein deutlich schlechteres Bild, woran ich aber nicht glaube.
Super spannende Zeiten.
 
@Mcr-King
Lies einfach den Computerbase Bericht über Reflex, da ist alles sehr ausführlich beschrieben. Wie gesagt ist Reflex in Valorant sowohl bei meiner alten GTX 1650, als auch bei der neuen RTX 3080 per Standard aktiv und wird auch verwendet - und das mit "nur" einem 165Hz G-Sync Monitor.

Das es verwendet wird konnte ich nachstellen, weil ich im Treiber G-Sync/V-Sync auf On habe und ohne Ingame Limiter in Valorant ich dann 165FPS maximal habe (V-Sync), mit Reflex aber die FPS durch das SDK auf 158FPS limitiert werden, sodass der V-Sync Delay nicht zum Tragen kommt.
(Normal habe ich sowieso Low Latency Mode auf Ultra, aber Reflex hat das schon automatisch eingebaut - da braucht man keinen Ingame FPS Limiter mehr bei G-Sync+V-Sync)
 
Zurück
Oben