Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

Ich verstehe gerade nicht wieso AMD nur die "ehrlichere"(?) TBP (Total Board Power) angibt und nicht, wie Nvidia, einfach nur die TDP (Thermal Design Parameter).
Das cheched doch wieder keiner (daß man die Werte nicht direkt miteinander vergleichen kann) und man könnte meinen, die 6080xt und die 3080 hätten nur 20 Watt Unterschied im Verbrauch...
 
  • Gefällt mir
Reaktionen: Der Lord
gustlegga schrieb:
Sehr verehrte DLSS Heulsusen:
Habt ihr schon mal von AMD RIS und FidelityFX CAS was gehört ?

Ja, hab ich gesehen, das taugt aber nichts, jedenfalls nicht um die Performance zu steigern und die BQ zu erhöhen, bzw zu behalten. Was "Heulsusen" angeht, habe ich eher das Gefühl, dass es umgekehrt ist.
Wer was bei AMD oder Nvidia besser findet (RAM oder RT+ DLSS) kann sich ja dann für das was er besser findet entscheiden. Wenn AMD so gar nichts zu den Punkten sagt, wird das AMD RT/DLSS Pendant wohl nichts gescheites sein, davon kann man ausgehen, bzw ich weiß es eh schon ne Zeit lang, aber dass man gar nix zeigt hätte ich nicht gedacht, das ist mager und da hilft mir der RAM dann auch nichts.
 
  • Gefällt mir
Reaktionen: stevefrogs und AMD
LencoX2 schrieb:
Könnte genauso gut in ein paar Jahren sang und klanglos beerdigt werden wie Physx usw.
Definitv nicht.

Physx war ein engine feature, ein Effekt.

DLSS verändert den kompletten Renderingprozess über delegierte AI/ML und schiebt 40-60% mehr fps, ohne dass die GPU mehr "können" muss.

Das ist ein Blockbuster Feature und für mich, das spamme ich hier seit Monaten, der konkurrenzlose unique selling point, den Nvidia noch hat.
Der ist aber so groß, dass eine 3070 (und eine 2080Ti) rechnerisch an einer 6900XT vorbeiziehen kann mit DLSS , ohne RT!

Dann schlägt eine 500 Euro GPU eine 1000 Euro.
Das ist eine ganz andere Dimension als der Spielkram Hairworks oder Physx.

DLSS bzw diese Technologie ist die Zukunft. 50 % mehr fps "einfach so".
Niemals wird man zukünftig als AAA Game an so etwas vorbeikommen, damit meine ich nicht Games, die schon lange in der Entwicklung sind, sondern AAA Games, die 2022, 2023, 2024 erscheinen.

Und wie AMD das lösen wird, müssen wir sehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gonzo28, MeisterOek, breedmaster und 5 andere
Schade, dass 6900 XT erst im Dezember kommt :/
Mich freuts, AMD hat sich in den Letzten 5 Jahren wirklich den Hintern aufgerissen. Verdient!
 
  • Gefällt mir
Reaktionen: Hercule Poirot
Seit Jahren nur noch AMD verbaut. Seit Jahren dafür shit bekommen, rote Gamer seien AMDioten. Aber immerhin, die Investion zahlt schließlich Früchte, dank Lisa und ihrem geilen Team.
 
  • Gefällt mir
Reaktionen: LinuxTux, miro98, Hercule Poirot und 6 andere
squadric schrieb:
@Benji18
Nicht von dir auf andere schließen. Mag sein das es für DICH irrelevant ist, für mich jedenfalls nicht.

Nochmal es ist ein super Feature aber Sachlich betrachtet aus Markt sicht mit 8 Spielen komplett irrelevant. Nichts anderes habe ich ausgesagt, eine GPU nur wegen DLSS 2.0 zu kaufen ist daher sachlich gesehen schwachsinn mit Ausnahme du hast eines der Spiele und möchtest JETZT dieses Feature nutzen, für alle anderen die auch noch warten können wird es bei AMD auch eine Lösung geben und das wird dann hoffentlich dazu führen diese Lösung in den Breiten Markt eine größere Aktzeptanz bekommt, wenn das z.b. von MS für die Konsole auch kommt wird sich eine passende Lösung sicherlich deutlich schneller verbreiten und davon haben WIR ALLE ETWAS wenn du das lieber als "closed Source" siehst und damit den Fortschritt für den gesamten Markt blockieren willst ist das reines FANBOY Gelaber.

und Nvidia hat ja genug Erfahrung wie man closed Source elegant versenkt gibt ja genug bsp. aus der Vergangenheit.
 
  • Gefällt mir
Reaktionen: Crankson, GERmaximus, Rock Lee und 12 andere
matty2580 schrieb:
In der Hälfte der Games lag die 6900 so gar vor der 3090.

Auch die 6800 XT schlägt in 5 Games die 3080.

matty2580 schrieb:
Nur hat Nvidia diesen Vorteil leichtfertig verspielt, so dass AMD jetzt gleichauf ist, oder so gar in vielen Games vor Nvidia liegt.

Man bencht 100 Spiele und zeigt die bekannteste, wo man noch vorne liegt. Dann ein paar, wo der Konkurrent leicht besser ist - soll ja nicht auffallen.

Wäre die 6900 wirklich so schnell, hätten die garantiert gesagt "the fastest gaming GPU in the world". So haben sie es auch bei den Ryzen 5000 gemacht, weil sie sich sicher sind. Nvidia hat es bei der 3090 umschrieben mit "the world's first 8k gaming gpu". Ich denke, die liegen beide auf einem sehr ähnlichen Niveau. Die eine ist günstiger, die andere hat mehr VRAM.
 
Na DA bin ich mal gespannt wie es dann in der Praxis bei nicht gefakten oder bezahlten realen Tests aussieht ^^
Hat man ja schon an der Radeon VII gesehen dass man viel versprechen kann! :D

Andererseits wäre es mal schön und vor allem wichtig wenn Nvidia Konkurrenz bekommt!
Wertbare Ergebnisse gibt es dann wohl erst frühestens ende November :/
Bin aber dennoch schon richtig gespannt wie es dann wirklich aussieht :D
 
  • Gefällt mir
Reaktionen: mylight
Hab den Test nur überflogen, bin da noch etwas skeptisch, ob die Ergebnisse wirklich so stimmen :p
 
@Jesterfox Ich glaube nicht das Cyberpunk in WQHD und allem auf Ultra mit Raytracing auf einer 3090 flüssig läuft aber ich hätte auch nicht gedacht das sie die 3080 übertrumpfen können mal sehen.
 
netbuster21 schrieb:
Eigentlich sollte die Karte wieder rot werden, aber ich will 60 FPs in WQHD und brauche entsprechend die Leistung einer der beiden Karten... 580 € oder mehr, dass sitzt nicht so locker als Familienvater...

Ciao

Naja sich dann jetzt noch mal eine 8GB Karte in den PC zu bauen?
Außerdem einfach mal etwas abwarten das sind alles UVP Preise, ist die Verfügbarkeit ausreichend wird der Preis wie üblich schnell sinken. Außerdem kommt ja auch noch Navi 22.
 
Bin gespannt auf die Tests von CB. Auf dem Papier schaut es schon mal lecker aus :D
 
Starke Sache von AMD. Könnte mir gut vorstellen der 6900XT und einen 5900X eine Chance zu geben
Freut mich auf jeden fall das Schwung im Markt ist .bin gespannt was Team Grün nun macht - Könnte mir gut vorstellen das die Freigeworden TSMC 7 nm Fläche von Apple an Nvidia geht und man im Januar oder Februar ne RTX 30X0 Super sieht
 
  • Gefällt mir
Reaktionen: Hercule Poirot
Solange ich nichts zu Lautstärke und Temperatur weiß bleibe ich skeptisch.
Unabhängig davon starke Präsentation. Der Preis der 6900XT ist dann wohl ne Kampfansage!
 
  • Gefällt mir
Reaktionen: Hercule Poirot und EL-SANTO
Jetzt zündet euch doch mal alle eine Kerze an und verliert euch nicht schon wieder in Spekulationen - AMD ist auf Augenhöhe, endlich mal wieder ^^
 
  • Gefällt mir
Reaktionen: Hercule Poirot und Monstranz
Literally RTX3080 is dead on arrival


Ich bin massiv beeindruckt von der RX6800 XT... ach wenn man dem Marketing immer auch so glauben könnte.. ;)
 
  • Gefällt mir
Reaktionen: Dimensionday und Laphonso
NguyenV3 schrieb:
Man bencht 100 Spiele und zeigt die bekannteste, wo man noch vorne liegt. Dann ein paar, wo der Konkurrent leicht besser ist - soll ja nicht auffallen.

Wäre die 6900 wirklich so schnell, hätten die garantiert gesagt "the fastest gaming GPU in the world". So haben sie es auch bei den Ryzen 5000 gemacht, weil sie sich sicher sind. Nvidia hat es bei der 3090 umschrieben mit "the world's first 8k gaming gpu". Ich denke, die liegen beide auf einem sehr ähnlichen Niveau. Die eine ist günstiger, die andere hat mehr VRAM.
Ich denke das ist unterm Strich (außer für das Ego der 3090 Besitzer) auch irrelevant. Wenn AMD auf 3090 Niveau - auch mit einigen Prozent weniger und dafür 500 Dollar weniger in die UVP packt ist das trotzdem mehr als beachtlich.
 
  • Gefällt mir
Reaktionen: breedmaster, Rockstar85, Hercule Poirot und eine weitere Person
David84 schrieb:
Aber Nvidia hat doch den geilen GDDR6X Speicher und AMD nur den GDDR6.
AMD hat sich halt für den Speichertyp entschieden, der besser verfügbar, nicht unnötig teuer und trotzdem noch schnell genug ist. Der etwas schnellere GDDRX6 bringt nVidia ja auch nichts, wenn dadurch die Kosten (und damit die Preise der Karten) höher sind. Und die RTX 3080 gibt es auch erstmal nur mit 10GB, weil es von GDDRX6 aktuell nur 1GB Module in Massenproduktion gibt und für 20GB bräuchte man ja 10x2GB. Oder man verbaut die doppelte Menge an Chips (beidseitig wie bei der 3090), was für eine 3080 aber zu kostspielig wäre.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rock Lee, Hercule Poirot, Informer und 3 andere
Zurück
Oben