Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

Die AMD KArten haben außerdem einen deutich größeren Speicher (16GB) und das obwohl der Ppreis günstiger ist. Auch der Stromverbrauch ist geringer als bei NVIDIA. Wenn man bedenkt das diese Grafikkarte in zwei Spielekonsolen steckt, dann werden auch viele Spiele sehr stark auf AMD optimiert werden. Das bringt sicher noch Performance.
 
  • Gefällt mir
Reaktionen: The_Jensie
SPECIALIZED- schrieb:
Richtig nur das NV Reflex im eSport genutz wird und nicht Anti-Lag,
Was irgendwie logisch wäre wenn keine Radeons sondern geforce Karten zum Einsatz kamen, meinst du nicht?
RT hat das Problem der mangelnden Verbreitung und wir das Problem fehlender offizieller Vergleichswerte, welche es vermutlich erst bei Release geben wird. Bis dahin bleibt die Wundertüte eben weiterhin zu.
 
Wenn AMD zu Release genug Karten liefert bedrängt das Nvidia doch wirklich zu einer Erklärungsnot. Es wird auch wahrscheinloch so sein, und Nvidia soll zugeben dass Samsung nicht genug liefern kann, weil Nvidia sich für den vermeintlich günstigeren Fertiger entschieden hat, und es im Abkommen ein paar versteckte Klauseln gibt dass evtl Samsungs Yield nicht ausreichend sein könnte und Nvidia damit einverstanden ist, darum auch günstiger...
 
  • Gefällt mir
Reaktionen: The_Jensie und elvis2k1
Sehr gut gemacht AMD...
...hoffentlich werden die Nvidia Karten jetzt billiger.:evillol:
 
Summerbreeze schrieb:
Schon mal was von Fidelity FX / Radeon Boost gehört?
Da wurde wohl auch wieder dran gearbeitet.
Bin ich mal gespannt wie sich die neue Version so schlägt.

Ja habe ich und wo ist es? Es ist offensichtlich das Nvidia das Thema mit viel mehr Engagement angeht. AMD hat Fidelity FX in der Präsi nicht mal thematisiert/geteasert. Das zeigt schon wie wichtig das denen ist. Darauf vertraue ich also nicht.
 
Cpt.Willard schrieb:
Naja, so unklar dürfte das nach Vega nicht sein - Peaks...

Hast du da echt einen Unterschied gemerkt zwischen v56 zu v64? Hatte beide drin zum testen beides Asus strix und es waren glaube ich 30 bis 40 Watt mehr bei der v64.
 
Freut mich das AMD so solide abgeliefert hat und dafür wurde ich vor Wochen beim RTX Test noch angefeindet, weil ich sagte zu sagen, wartet ab, AMD schlägt zurück.

Hoffe NV ist das eine leere, sonst gibt es mit RDNA3 das böse Erwachen wie bei Intel mit Ryzen 3. Irgendwie gibt es da auch Parallelen.

Ryzen 1 = RDNA 1 (Achtungserfolg und Comeback)
Ryzen 2 = RDNA 2 (ungefähr Gleichstand)
Ryzen 3 ? RDNA 3 (Thron übernommen)

Zu DLSS sagte Lisa doch, das da noch später etwas kommt, sollen sich Zeit lassen und dafür kommt eine gute, stabile Alternative zum DLSS.

Beim RT, schwer zusagen, beim Teaser zum Ryzen Event haben die uns ja auch etwas in die Irre geführt mit den R6800XT Benchmark Werten.Vielleicht heben die sich das bis zu den Tests auf um nochmals bämm zu machen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NameHere, Rangerkiller1, IBISXI und eine weitere Person
RedDr4gon schrieb:
Obwohl ich AMD den Erfolg gönne, frag ich mich ja was das was an der neuen Architektur konkret besser sein soll.

Die doppelte Leistung ja klar, bei:
• doppelter Chip Größe
• doppelter Transistor Anzahl
• doppelte CUs
• doppeltem Speicher
• doppelter Preis 😅

Klingt für mich in erster Linie nach einer besseren Skalierung. Man hat einfach mehr von allem. Is klar das dann die Leistung steigt. Bin gespannt auf die Effzienz der Architektur im Detail...

  • Nicht doppeltes Speicherinterface
  • kein 3,5nm Fertigungsprozess
  • keine doppelte Leistungsaufnahme

bei doppeltem Energieverbrauch wäre die 6900xt mehr als doppelt so schnell. Wo sieht man da nicht die Verbesserung ? Du bist Lustig 😂 😂 😂 😂
 
  • Gefällt mir
Reaktionen: Rangerkiller1 und RedDr4gon
Joshua schrieb:
Ob ich abgezogen werde hat nur nichts mit meinem verfügbaren Einkommen zu tun. Oder zahlst Du 20€ für ein Brötchen weil, naja, Du weißt schon...

Arrogant durch Einkommen, kennt man doch 😉 Immer dran denken: Im Netz und in Foren hat jeder den dicksten.
 
  • Gefällt mir
Reaktionen: JanTenner, russianinvasion, eXe777 und 3 andere
Ich kann da AMD nur Gratulieren.
Ich hab ja fast Pippi in den Augen bei den Daten.



Ich hab nur jetzt mehrere Probleme... Ich brauche, glaube ich, ein neues Netzteil für die 6800xt. Und den Ryzen 5000 wegen den "haben will" Faktor.

😅
 
  • Gefällt mir
Reaktionen: grtty und s1msala
Karl S. schrieb:
  • die Benchs sind mit dem Ryzen 5000 exklusiven Feature erstellt, also wird die Leistung nicht so viel besser als von der 3070 sein.
  • Kein DLSS Pendant (Richtig dicker Minuspunkt)
  • Vermutlich schlechteres Raytraying

zu 1 egal die Karte hat 16GB VRAM und mehr VRAM ist durch nichts zu ersetzten als noch mehr VRAM, besondersn wenn man schon bei Nvidia erlebt hat das die Leistung der Karte noch locker ausreichend war aber die Karte durch ihren schmalen VRAM EOL wurde ... dann ist man etwas sauer.

zu 2
DLSS bieten Sie ja es wurde angekündigt das da was kommt Fidality FX nennt sich das "gesamtpaket" wo viele Feaatures zusammengepackt sind. Die Frage ist ob Sie den move mit Sony und MS gehen und wenn man das über die Konsolen in dem Markt drückt hat NV ein Problem mit ihrem DLSS den die Konsolen sind einfach der größer Markt damit könnte man easy eine rasche Verbreitung bekommen.

zu 3
wissen wir ebenfalls nicht, es kann sein das es noch optimierungsbedarf an den Treibern gibt od. man wartet auf den DLSS pedanten.

also abwarten und Tee trinken, ein guter und wohl überlegter gegenschlag den AMD da ausgeführt hat, der hat mal ordentlich gesessen bei Nvidia insbesonders weil die Ampere mich persönlich auch nicht sonderlich vom hocker geworfen haben.
 
  • Gefällt mir
Reaktionen: LencoX2, BlackRain85, Rangerkiller1 und 2 andere
The_Jensie schrieb:
Warum? Für mich spricht nichts dafür.

Ich kauf sie ja auch für mich und nicht für andere :)
Trotzdem warte auch ich noch die realen Tests für alle ab. Temperatur, Stromverbrauch usw.
 
Karl S. schrieb:
Ja habe ich und wo ist es? Es ist offensichtlich das Nvidia das Thema mit viel mehr Engagement angeht. AMD hat es in der Präsi nicht mal thematisiert. Das zeigt schon wie wichtig das denen ist. Darauf vertraue ich also nicht.

Du hast wohl nicht zugehört. AMD hat EXPLIZIT erwähnt, dass Sie an einem Super Resolution Scaler arbeiten. (An diesem hat man wohl in Zusammenarbeit mit Microsoft für die neue Xbox gearbeitet).

Erzähl doch nicht, dass sie das nicht thematisiert haben, wenn sie es extra erwähnen.

Für mich sieht es so aus, als hättest du die Präsentation nicht geschaut und möchtest hier Müll erzählen.
 
  • Gefällt mir
Reaktionen: eXe777, RuShEr89, m2020 und 4 andere
Karl S. schrieb:
AMD hat es in der Präsi nicht mal thematisiert.
Dann empfehle ich die Präsentation noch einmal anzuschauen. Ich habe es nämlich gesehen. ;)
 
  • Gefällt mir
Reaktionen: eXe777, Otsy, schkai und 3 andere
johnieboy schrieb:
Bei den 6900XT Werten wäre ich noch ein wenig vorsichtig, das war mit "Rage Mode", was AMDs Auto OC Feature ist und dem "Smart Access Memory" Boost.
Letzteres finde ich besonders doof und hat Gechmäckle, schließlich ist Smart Acces Memory exklusiv auf AMD only Plattformen mit 500er Chipsätzen nutzbar.

johnieboy schrieb:
Einfach bei allen Karten 10% vom Durchschnitt abziehen, dann sollte das der Wirklichkeit entsprechen.
So schaut es aus. Wer keine AMD-only Plattform hat, kann sich die 6900XT wahrscheinlich sparen.
 
  • Gefällt mir
Reaktionen: thuNDa
Bierliebhaber schrieb:
Ich will aber zu Weihnachten Cyberpunk spielen und habe momentan noch eine 290X.

Konsole kaufen? Oder erstmal mit dem aktuellen sys zocken und dann mit neuem sys (und ersten patches) das spiel noch mal ganz neu erleben?
 
Mcr-King schrieb:
Brauchst aber extra Monitor und Maus mit NV logo naja möchte ich irgendwie nicht. ;)
Bullshit, das Reflex SDK steht jedem Entwickler zur Verfügung und wird von jeder Nvidia Grafikkarte ab GTX 900 (Maxwell) unterstützt. Der 360Hz Monitor sowie die Maus mit Reflex ergänzen nur die Latenzanalyse um zahlreiche Werte im Overlay, die niedrigere Latenz selbst liefert aber das Reflex SDK. Valorant hat Reflex schon eingebaut und das kann jeder verwenden, der eine Nvidia Grafikkarte besitzt. Reflex ist sogar via Default aktiv, sofern eine Nvidia verwendet wird :-)
 
Rick_Tarantula schrieb:
Trotzdem warte auch ich noch die realen Tests für alle ab. Temperatur, Stromverbrauch usw.
Ist das Beste. Jeder der jetzt kauft, wird hinterher in die Tischkante beissen, wenn sich bewahrheitet, was die Tests zeigen. AMD ist gleich gut/besser, für weniger.
 
  • Gefällt mir
Reaktionen: Mcr-King
Mal schauen was die Tests sagen. Ich bin gespannt.
 
  • Gefällt mir
Reaktionen: The_Jensie und Mcr-King
Zurück
Oben