News AMD Radeon RX 6800XT: Navi 21 XT mit 4.608 Shadern und mehr als 2,5 GHz Boost

FGA schrieb:
Die 6800XT wird schon bei Amazon gelistet :o
ich sehs schon: leute die sich auf ebay eine 6800 gekauft haben und versuchen AGP auf PCIE zu verbauen XD
 
  • Gefällt mir
Reaktionen: s0UL1, Cpt.Willard und Tzk
foo_1337 schrieb:
Du kannst von der Shaderzahl alleine nicht auf die Leistung schließen!
Im Hinblick auf RT sind die Shader sehr wichtig dachte ich.
Die ~10% mehr Boost-Takt bei der 6900XT vs 3080 wird die geringe Shaderanzahl doch auch nicht ausgleichen können. Jetzt müsste die 6900XT im Speicherbereich besser als die 3080 sein, ist sie es?

Welche Daten spielen noch eine Rolle, bis auf die Features RTX IO, DLSS?

Ich verstehe nicht wie die 6900XT die Nase vorn haben soll, bin aber dankbar für jede Erleuchtung :D
 
Ich warte ebenfalls sehnsüchtig auf die 6900xt und hoffe, dass das PCB nicht allzu lang ausfällt. Verwundert bin ich hier allerdings darüber, dass die wenigsten wirklich verstehen, was für ein Durchbruch KI Upscaling wie DLSS bringt. In der Tat ist AMD hier massiv im Nachteil, sollten sie das nicht hinbekommen.

Darüber hinaus ist RTX aktuell zu langsam. Never the less werden wir in einigen Jahren AAA Games nur noch mit Pathtracing sehen.
 
Taxxor schrieb:
@foo_1337 Erst mal abwarten was AMD so an Features bringt.

Und zum VRAM, der Flight Simulator zeigt ja bei der 3080 mit 10GB, dass er den VRAM auch in 1440p voll bekommt und die Karte massiv einbricht, von daher wären für mich auch bei 1440p 10GB eher das Minimum für die nächsten Jahre, wenn der Texturregler länger auf Maximum bleiben soll.

Für mich wäre eine 275W 6800XT mit der Leistung einer auf 270W gedrosselten 3080 schon ganz cool, zumal ich dank meines Monitors sowieso nur auf Freesync setzen kann.
Frage, brauchen oder reserviert?
JustMy2Cents schrieb:
Der Vorteil könnte sein das MS in der SeriesX/S stark auf DX12 setzt. Wenn AMD da direkt drauf optimiert hat, und das beste aus der Zusammenarbeit macht, wer weiß ;)
Wer weiß, ob die Planungsdaten sich überschnitten haben. „DLSS“ war bestimmt im Lastenheft drin (upscaling war ja schon bei den Vorgängernkonsolen ein Thema). Ob Direct x12 Ultimate schon als Grundlegenes Feature drin sein sollte, wer weiß das schon.
 
derin schrieb:
Könnte bei solchen "News" vielleicht noch eine Kennzeichnung dran dass es sich weiter um News oder geleakte Infos und keine offiziellen Angaben handelt?
Eigentlich könnte man so etwas im Konjunktiv schreiben, meine ich. Aber das wird leider sehr oft nicht getan, weshalb ich in der Vergangenheit mit schon häufig gewundert habe, wieso man es so formuliert, als wäre es offiziell gesichert.


Was ich am spannendsten finde: Die Rückkehr von XTX und XL!!! :D :volllol:
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Ich verstehe nicht wieso hier bei den Top Grafikkarten manche über dlss nachdenken. Ja bei kleineren Karten ist es so wie geringere Details eine Möglichkeit auf Kosten der Bildqualität die Auflösung rauf zu drehen.
Aber bei einer rtx3080 oder dann 6800 wird man hoffentlich mit höchster Qualität in 4k spielen können.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Letztendlich werden die Preise der entscheidende Punkt. Ich vermute leider stark das wir relativ ernüchtert sein werden. Ja AMD wird "schlechteres" RT bieten und zu einem DLSS Konter ist ja noch nichts bekannt, aber zumindest am Anfang vermute ich das sie das mehr an RAM als Argument nehmen werden um halt relativ nah an Nvidia preislich zu liegen. Ich lasse mich da gerne positiv überraschen, aber die 649€ für die 6800XT halte ich auch führ realistisch und wahrscheinlich 899 oder 999 für die 6900. Bei 599€ für die XT wäre sie ein Nobrainer mMn, für 649 €würde ich persönlich schon schwer überlegen ob mir das "schlechtere" RT und vermutlich "kein oder schwächeres DLSS" 50€ weniger wert sind bzw. ob das mehr an RAM dieses ausgleicht. Klar sollte sein das die 3080 20GB nicht für unter 850€ zu haben sein wird. Insofern schon kniffelig und ich bin echt gespannt was AMD für die Karten aufruft.
Wirklich gespannt bin ich aber wie das mit der 6900 gehen wird. Soll ja AMD exklusiv sein, was entweder bedeuten kann das es keine Customs gibt und/oder halt das sie direkt von AMD vertrieben wird. Das spricht schon deutlich dafür das es nur sehr begrenzte Stückzahlen der 6900 geben wird.

Mfg
 
KlaraElfer schrieb:
Bin gespannt wie viel Takt man mit OC herausprügeln kann, ich wette auf 2,5Ghz unter Wasser.
So oder so wird das Topmodell in meinen PC wandern, sogut wie bestellt, hoffe mit besseren Stückzahlen als bei Nvidia und DLSS Äquivalent.

Und wenn es kein AMD-DLSS gibt?
 
mylight schrieb:
Die ~10% mehr Boost-Takt bei der 6900XT vs 3080 wird die geringe Shaderanzahl doch auch nicht ausgleichen können. Jetzt müsste die 6900XT im Speicherbereich besser als die 3080 sein, ist sie es?

Ich verstehe nicht wie die 6900XT die Nase vorn haben soll, bin aber dankbar für jede Erleuchtung :D

Für die Erleuchtung musst du dir nur mal anschauen, wie die doppelte Shaderzahl bei Ampere zustande kommt., dazu gabs hier schon häuifig ausführliche Erklärungen.

Die 3080 müsste mit ihren 8.704 Shadern und den daraus resultierenden 30 TFLOPs auf dem Papier 2,7x so schnell sein wie eine 2080, die mit 2944 Shadern nur auf 11 TFLOPs kommt.
In der Realität ist sie aber gerademal 65-70% schneller, weil viele der zusätzlichen Shader in Gaming Anwendungen einfach brach liegen.


Hätte man Ampere so aufgebaut wie Turing, dann würde man die gleiche Gaming Performance mit ca 4800-5000 Shadern erreichen. Und genau da steht AMD momentan.
 
  • Gefällt mir
Reaktionen: fox40phil, Cruentatus, Cpt.Willard und 6 andere
Also wenn per undervolting 250w machbar ist ohne großen leistungsverlust dann OK.
Sonst 3070...
 
Was ich interessant finde dass die so hoch boosten sollen. Guckt man sich mal die TDP an bedeutet das im Umkehrschluss vermutlich, dass, wenn man die Karten etwas runtertaktet man den Stromverbrauch vermutlich nochmal signifikant senken kann.
Das wären dann echte Effizienzwunder.
 
  • Gefällt mir
Reaktionen: fox40phil und ThePlayer
Radeon RX 5700 XT:
TDP: 180 W
TGP: 225 W
Verbrauch unter Spielelast laut Tests: 220W ...
 
  • Gefällt mir
Reaktionen: Benji18 und rumpeLson
SamSoNight schrieb:
einen Durchbruch, wie damals die R9 290(X)
Galt die wirklich als Durchbruch? Ich hatte mir eine 290X von Asus relativ kurz vor der nächsten Generation gekauft und ich war sehr enttäuscht von dem Ding. Super laut, heiß, extrem stromhungrig. Leistung war aber deutlich besser als von meiner alten GTX 660. Ich war froh, als ich sie los war.
 
Zuletzt bearbeitet:
Duffy Duck schrieb:
Radeon RX 5700 XT:
TDP: 180 W
TGP: 225 W
Verbrauch unter Spielelast laut Tests: 220W ...
Meine 3080 verbraucht niemals 340Watt unter Spiel-Laster. Im Schnitt weit unter 200Watt , haha AMD und effizienter ja wers glaubt...
 
mylight schrieb:
Meine 3080 verbraucht niemals 340Watt unter Spiel-Laster. Im Schnitt weit unter 200Watt , haha AMD und effizienter ja wers glaubt...
Pff meine 3dfx voodoo 5 zieht nur 30 Watt. Jetzt kommst du.
 
  • Gefällt mir
Reaktionen: fox40phil, Onkel Föhn, PES_God und 5 andere
Taxxor schrieb:
@foo_1337 Erst mal abwarten was AMD so an Features bringt. Ich glaube kaum, dass sie das Thema DLSS komplett ignorieren und bei dem jetzigen Stand von Fidelity FX CAS bleiben werden.
Und wenn es eine Art Adaption vom Checkerboard Rendering mit zusätzlichem ML Algorithmus zur Bekämpfung der Artefakte wird, sowas kann ich mir aufgrund der RDNA2 Konsolen schon vorstellen.
Das ist ja das schöne aktuell: Es bleibt spannend. Ich wünsche AMD, dass sie ein DLSS Äquivalent bringen. Aber selbst wenn: Das wird erstmal deutlich hinter DLSS 2.0 sein. Und die Studios müssen es noch adaptieren.

Taxxor schrieb:
Und zum VRAM, der Flight Simulator zeigt ja bei der 3080 mit 10GB, dass er den VRAM auch in 1440p voll bekommt und die Karte massiv einbricht
FS ist eh ne Sache für sich... Ob da die 3070 für 1440p die richtige Karte ist? :) Ich erwarte in dem Fall, dass sie unter der 2080ti liegen wird. Da ist dann der Ram auch egal ;)
 
Hallo zusammen,

@ jk1895
jk1895 schrieb:
Galt die wirklich als Durchbruch? Ich hatte mir eine 290X von Asus relativ kurz vor der nächsten Generation gekauft und ich war sehr enttäuscht von dem Ding.
Ein Durchbruch war die nicht. Gar keine Frage. Und dein Empfinden deckt sich in vielem mit der Realität. Es gab aber auch Custom-Designs wie z. b. von Sapphire, wo die richtig gut war.

Und später gab es speziell von Sapphire 290 / 390er Modelle, wo der Verbrauch deutlich gezügelt wurde, um die 50 Watt weniger unter Last gegenüber den sonstigen Modellen diesen Typs. Dazu hatte dieses Modell 8 Gbyte Ram, was seinerzeit richtig viel war. Das bekam seinerzeit aber nur Sapphire so hin. Mit ein Grund, weshalb Sapphire bei den Custom Designs so einen guten Ruf bis zum heutigen Tag hat.

Ich habe dir hier noch einen Test eines dieser Sapphire Modelle aufgeführt, die ragte schon deutlich aus der Masse heraus seinerzeit:

https://www.ht4u.net/reviews/2015/sapphire_radeon_r9_290x_tri-x_oc_8_gb_test/

So long...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard, daknoll und jk1895
foo_1337 schrieb:
Und die Studios müssen es noch adaptieren.
Vielleicht, vielleicht auch nicht^^ Renderauflösung auf 75% und dann mit RIS gegensteuern kannst du heute ja auch schon in jedem Spiel vom Treiber aus machen. Gut das Spiel muss ein Setting für die Renderauflösung haben, aber das haben ja mittlerweile sehr viele.

Ich erwarte mir von AMD da schon eine Lösung, die zwar nicht an DLSS 2.0 ran kommt, dafür aber überall funktioniert, da das in letzter Zeit eigentlich genau AMDs Ansatz ist.

Es würde ja schon reichen, wenn man die Bildqualität nahezu beibehalten könnte, dafür aber ein höher aufgelöstes Ausgangsmaterial braucht als DLSS, sodass man mit DLSS dann vielleicht 50% mehr FPS bei gleicher BQ bekommt und mit dem AMD Ansatz nur 25%.
Da muss man in 4K eben auf 1800p gehen statt mit DLSS Quality auf 1440p.
Das wäre mir deutlich lieber, als ein Fidelity FX CAS, mit dem man dann auch +50% bekommt, aber die BQ sehr viel stärker leidet.

Dadurch würde man nicht komplett von DLSS abgehängt werden in den Spielen die es unterstützen und zusätzlich hätte man dann in Spielen, die es nicht unterstützen, einen Vorteil. Wobei es eigentlich auch gegen AMDs Ansatz sprechen würde, wenn Nvidia diese Technik nicht auch nutzen können dürfte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil, Baal Netbeck, Wadenbeisser und 3 andere
Apropos DLSS, Microsoft hat auf der Siggraph 2018 schon Upscaling mit Direct ML gezeigt. Ich denke im Hintergrund wird auf jeden Fall etwas in der mache sein.
Vielleicht erfahren wir am 28.10 wirklich mehr davon.
 
  • Gefällt mir
Reaktionen: fox40phil, Wadenbeisser, KlaraElfer und 3 andere
Zurück
Oben