News AMD Radeon RX 6800XT: Navi 21 XT mit 4.608 Shadern und mehr als 2,5 GHz Boost

USB-Kabeljau schrieb:
Bin mir immer noch nicht sicher,

Im CB Test zur 3090 ist dann schon ein Spiel (Ghost Recon) drin was dann in 4K mehr als 10 GB braucht. Auch so von CB publiziert.
 
  • Gefällt mir
Reaktionen: Rockstar85
Und wer ernsthaft 4k und gar RT in Betracht zieht, wird kaum um DLSS oder einen adäquaten Ersatz kommen:

1603318693416.png

Dann reichen auch die 10GB wieder locker aus. Wenn man bedenkt, dass die AMD Karten sich im Bereich der 3080 Einordnen werden, wird das mit 4k eher enttäuschend, wenn man auf FPS wert legt und nicht die Regler allzuweit nach links schieben will.
Hier noch die FPS für Control:
1603318832315.png
 
Wenn Nvidia keine 20GB 3080 bringt bleibt einem ja kaum noch eine andere wahl als AMD zu kaufen. Eine 10 GB Karte im Premiumsegment kaufe ich jedenfalls nicht mehr.
 
  • Gefällt mir
Reaktionen: ThePlayer, Strubbel99, 122messi122 und 6 andere
@foo_1337 Und wenn du dann die anderen 8 Millionen Spiele nimmst die kein DLSS unterstützten sieht es wieder anders aus.

Wahrscheinlich liegen die Spiele, die DLSS unterstützten weit im unteren einstelligen Prozentbereich.

Das wird in ein paar Jahren definitiv anders aussehen. Bis dahin ist AMD dann aber eh soweit und es gibt sowieso wieder 1-2 neue GPU Generationen.
 
  • Gefällt mir
Reaktionen: ThePlayer, eXe777, karl_laschnikow und 4 andere
Absolut gesehen sicherlich. Aber der Löwenanteil der zukünftigen AAA Titel wird es wohl unterstützen.
Du hast die Wahl: ne 3080, die bei einigen DLSS Titeln voll in 4k überzeugt und beim Rest eine akzeptable bis nicht mehr spielbare Leistung hinlegt. Oder eine AMD Karte, auf die nur letzteres zutrifft*, aber bei wenigen VRAM hungrigen Titeln in 4k mit der Texturqualität punkten kann, aber in den Frames total einbricht?

*Vorausgesetzt es gibt keine brauchbare Alternative zu DLSS.
 
  • Gefällt mir
Reaktionen: KingZero
Eine Bitte an CB könntet ihr bitte bitte die Gerüchteflut eliminieren und zur faktenbasierten Berichterstattung zurückkehren?
 
  • Gefällt mir
Reaktionen: dersuperpro1337 und Enurian
@foo_1337 Natürlich, da stimme ich dir zu.

Ich kann halt auch nur für mich selber sprechen: Für mich macht DLSS halt (noch) keinen Sinn da meine Spiele DLSS nicht unterstützen.
Daher kaufe ich mir dieses Jahr eine GPU die stand jetzt für meine Spiele am besten ist.
 
adretter_Erpel schrieb:
Eine Bitte an CB könntet ihr bitte bitte die Gerüchteflut eliminieren und zur faktenbasierten Berichterstattung zurückkehren?
Du kannst doch die berichte und Threads einfach ignorieren. Wie du hier siehst finden viele User diese Gerüchte interessant und diskussionswürdig.
 
  • Gefällt mir
Reaktionen: derSafran, Bright0001, ahuev0 und eine weitere Person
Pisaro schrieb:
Ich kann halt auch nur für mich selber sprechen: Für mich macht DLSS halt (noch) keinen Sinn da meine Spiele DLSS nicht unterstützen.
Daher kaufe ich mir dieses Jahr eine GPU die stand jetzt für meine Spiele am besten ist.
Ack, das macht Sinn :)
 
  • Gefällt mir
Reaktionen: Pisaro
Hallo zusammen,

@ Pisaro
Pisaro schrieb:
Das wird in ein paar Jahren definitiv anders aussehen.
Du, ich bin mir da nicht so sicher. Einfach alleine an was ich mich so alles erinnern kann, was marketingtechnisch total gepuscht wurde und heute kein Hahn mehr danach kräht. Gerade Nvidia hat da bissel was in den Büchern stehen.

Im Grunde sind es doch nur die wenigen Vorzeigespiele, die wirklich mit RT oder DLSS wirklich so bedient werden, wie sie es in ihren Hochglanzwerbeflächen Propagieren. Das gilt Äquivalent aber auch für manches Produkt manch anderer Firmen. Deshalb bin ich da in solchen Dingen eher vorsichtig.
Pisaro schrieb:
Bis dahin ist AMD dann aber eh soweit und es gibt sowieso wieder 1-2 neue GPU Generationen.
Das sehe ich ganz genauso, wenn das wirklich mal in der Breite wichtig werden sollte, sind schon 1-2 GPU-Generationen ins Land gezogen.

@ foo_1337
foo_1337 schrieb:
nur wird sich AMD zeitnah an Watchdogs Legion und Cyberpunk 2077 messen lassen müssen. Und da wird es leider gegen DLSS ziemlich schlecht aussehen, insbesondere wenn RT aktiv ist.
Ja, ich befürchte auch, daß das so kommen könnte. Aber AMD wird ja auch nicht dumm gepinselt sein, die werden sicherlich in dem Bezug auch auf die beiden Firmen zugegangen sein, insbesondere was Watch Dogs angeht, denke ich, daß sie da ein Heimspiel haben werden. Also ich bin da in dem Kontext schon gespannt.

So long...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard und Pisaro
Luxmanl525 schrieb:
Im Grunde sind es doch nur die wenigen Vorzeigespiele, die wirklich mit RT oder DLSS wirklich so bedient werden, wie sie es in ihren Hochglanzwerbeflächen Propagieren. Das gilt Äquivalent aber auch für manches Produkt manch anderer Firmen. Deshalb bin ich da in solchen Dingen eher vorsichtig.
Das stimmt, nur wird sich AMD zeitnah an Watchdogs Legion und Cyberpunk 2077 messen lassen müssen. Und da wird es leider gegen DLSS ziemlich schlecht aussehen, insbesondere wenn RT aktiv ist. Und je nach Verfügbarkeit der Karten von beiden Teams, könnte das wieder schlecht für die Verkäufe von AMD in dieem Preissegment werden.
 
  • Gefällt mir
Reaktionen: Pisaro und Luxmanl525
AMD MUSS sowas die DLSS bringen. Bitte das hat gar nichts mit Fanboys zutun.

Schon krass, das manche meinen sowas braucht man nicht. Ihr spielt da glaub ich noch DOOM3?
 
  • Gefällt mir
Reaktionen: legenddiaz, KingZero, KlaasKersting und eine weitere Person
Sehe ich genau so. Wenn man sich die Watchdogs Requirements für RT anschaut, fällt recht schnell auf, dass es ohne DLSS wohl unspielbar wird:

1603319978513.png


Mit DLSS kann halt hier die 3070 mit ihren ach so wenigen 8GB VRAM easy in very high Settings inkl. DLSS Quality @ 1440p liefern.

Daher: Man muss ich beim Kauf im Klaren sein, was man will und dann entscheiden. Rein Datenblätter vergleichen funktioniert 2020 nicht mehr.
 
  • Gefällt mir
Reaktionen: Strubbel99
adretter_Erpel schrieb:
Eine Bitte an CB könntet ihr bitte bitte die Gerüchteflut eliminieren und zur faktenbasierten Berichterstattung zurückkehren?
Gerüchte sind nicht gleich Gerüchte. Von der reinen Glaubwürdigkeit solcher mal abgesehen, kann man irgendwann natürlich auch die Quelle(n) der Gerüchte entsprechend einordnen. Zumal CB auch weit davon entfernt ist, jeden Fussel aufzugreifen. Aber das jetzt kommt z.B. von Videocardz und Igor bzw. Patrick Schur, über den das vBIOS eines der AiB kommt. Sowas ist dann schon handfest(er).
 
  • Gefällt mir
Reaktionen: derSafran und foo_1337
Der VRAM ist aber zu Wichtig. 10GB sind ein NoGo hoch 10.
 
  • Gefällt mir
Reaktionen: dersuperpro1337
Rodger schrieb:
...
Oder die Mäuler, die sich über den Stromverbrauch von Ampere aufgeregt habt, werden mal sowas von still werden, wenn Navi21 kommt.
...
Hier übersiehst du allerdings etwas.
AMD ist "seit langer Zeit dafür bekannt" (leider) erheblich mehr Saft zu brauchen, um dann doch nicht an Nvidia ran zu kommen, während die Nvidia Karten Zeitgleich auf einem (sehr) guten Sweetspot (Energie Verbrauch / Leistung) liegen.

Tatsache ist allerdings bei Ampere, dass Nvidia den Sweetspot verlassen oder nicht getroffen hat, indem insbesondere bei der 3080 40 bis 50 Watt zuviel durch die Karte geschickt wird, die lediglich etwa 5% Performance bringen. (Außerdem sollte man auch für die Frage offen sein, wo der Verbrauch einer 3080 mit 20GB DDR6X VRAM landen kann)
Sollten sich im Gegenzug die Gerüchte bestätigen, dass RDNA2 im Bereich der 3080 landen kann, ist es aus AMD Sicht immer noch mindestens ein beachtlicher Erfolg, vielleicht sogar auch ein Riesenerfolg, selbst wenn die Karte mehr verbraucht, vor allem wenn es nur "knapp mehr" sein sollte. Wir wollen nicht vergessen, dass AMD Karten der letzten Zeit weit hinter den grünen 80er Karten zurücklagen, bestenfalls einer 70er Paroli bieten konnten. Als zusätzlicher Fürsprecher für die dicken RDNA2 Karten beim Energie Verbrauch und unter dem Aspekt "sinnvolle Ausstattung", kommen die bereits verbauten 16GB GDDR6 VRAM, die für 4K fähige Karten und FS 2020 Spieler@WQHD aufwärts, die Sicherheit liefern, die eine 3080 mit 10GB nicht liefern kann (12 bis 16GB VRAM sind für solche Karten einfach die bessere Wahl).


Unabhängig davon wäre es natürlich schöner, wenn die Karten nicht so viel / mehr ziehen würden, als eine 3080 oder gar 3090, alleine schon aus thermischen Gründen. Wenn aber ein (vergleichbar) hoher Stromverbrauch der Preis ist, um eine vergleichbare Leistung, direkt mit einer Vernünftigen Menge VRAM und zu einem vergleichbaren VK zu erhalten, werde ich in diesen sauren Apfel gerne beißen, alleine schon weil ich viel Zeit im FS 2020 verbringe und meine Radeon 580 nur auf ihren Custom Nachfolger für WQHD@Ultra wartet.
 
  • Gefällt mir
Reaktionen: Strubbel99, Rockstar85, Pisaro und eine weitere Person
Ich möchte min 20GB haben. Die NextGen kommt jetzt, Godfall (PS5/PC) möchte 8GB für FullHD haben.
 
Zurück
Oben