News AMD Radeon RX 6800XT: Navi 21 XT mit 4.608 Shadern und mehr als 2,5 GHz Boost

Ich glaub Nvidia hällt ihre neuen Karten ganz bewusst zurück, da sie wissen das AMD mit den neuen 6000er ein echt harter Konkurent sein könnte. AMD wird zwar kein evtluelles Topmodel einer 3090TI knacken, was mir als normalo eh wurst ist.

Hier. https://www.computerbase.de/2020-09/geforce-rtx-3080-test/ hat ne 3080 10 GB GDDR6X VRAM. Die custom Karten kosten dann bestimmt um die 700-950 EURO. Hinzu kommt noch der hohe Verbrauch von um die 400-500Watt. 450 Watt!!?? Ist das jetzt 450 Watt/h?

Die RX 6800XT https://www.computerbase.de/2020-10/amd-radeon-rx-6800xt-navi-21-xt-72-cu-2-5-ghz-boost/
hat sage und schreibe 16 GB GDDR6 VRAM +RT + um die 300-400Watt Verbrauch. Meine Einschätzung nach wird die 6800er auch um die 700-950E kosten.

Ich hab ne RX5700XT Sapphier Nitro+ mit 8GB Vram. Im Adrenalin Traiber wird mir in machen games jetzt eine Auslastung von 11GB VRAM angezeigt. N bisschen wird jetzt schon ausgelagert scheinbar. In StarCitizen steht da jetzt schon oft dauerhaft 11,589 GB VRAM schieß mich tot. Die Performance meiner Nitro+ ist (trotz alldem) nach wie vor topp. Wenn ich mir jetzt also ne Karte Kaufen müsste, wäre es ganz klar die 6800er, da die 16 GB VRam hat. Deutlich zukunftsicherer. Und ja beim Kauf würde ich auch auf den Verbrauch achten. Nicht jeder kann mit Solarpanels eigenen Strom produzieren und hat noch Überschüsse.
 
Zuletzt bearbeitet:
Vitali.Metzger schrieb:
Falls da was dran ist und es keine 3070 mit 16 GB geben wird, dann wird es bei mir ganz klar eine 6800 oder 6800XT.
Oder eben eine 6700 / 6700XT mit 10GB / 12GB für den schmalen Geldbeutel.

Man sollte auch bedenken das man bei einer imaginären 3080 mit 16GB sicherlich nochmals 20W auf die
320W oben drauf rechnen kann, da sind selbst wenn laut Igor die XL / XT um die 280 / 300 - 320W benötigen würde (255W TGP + 45-65W?)
und OC Modelle bis 350W, wäre das immer noch aus effizienztechnischer Sicht, gerade wenn man den Speicher noch mitberücksichtigt 10-20% vor NVIDIA.

Wo gehen die OC Varianten bei der 3080 los 380W? mit 16GB wären das 400W? und gegen oben gibt es keine Grenze.
Für +5% 500W (Das ist kein Witz, es ist nämlich zu traurig um da rumzualbern zu wollen)

Ach ja, "2.577 MHz besitzen, was in „Real unter Last“ noch immer in 2,1 GHz bis 2,3 GHz Gaming-Takt
Boost 2.6GHz und dann nur 2.1 -2.3GHz gaming takt"

Nie im Leben, da werden am Ende wenn die Kühlung stimmt 2.4 - 2.5GHz dabei rum kommen.
 
Zuletzt bearbeitet:
Xtrasmart schrieb:
Die Diskussion können wir ja auf den 28.10. verschieben. Und bis dahin lassen wir das "persönlich-werden" hier mal sein, junger Mann. Danke.

Du verstehst es wohl nicht. Es gibt keine Diskussion. Ich werde mit dir nicht über den Verbrauch diskutieren. Unterlasse einfach die Drehung von Gerüchten zu Fakten.
 
  • Gefällt mir
Reaktionen: Strubbel99
Rodger schrieb:
Deutlich mehr Einheiten und nun kann AMD auch noch die Takschraube scheinbar nach belieben hochdrehen....DAS wäre einfach viel zu schön um wahr zu sein.
Ich meine mich erinnern zu können, dass AMD davon gesprochen hat, Taktpotential bei der Entwicklung von Vega für Renoir entdeckt und freigelegt zu haben. 2,4 GHz sind dort mit Übertaktung ja schon möglich. Ich denke also, die Takterhöhung resultiert zum Teil auch aus architektonischen Änderungen.

mylight schrieb:
Ich glaube nicht das NVIDIA all seine guten Karten sofort ausspielt, sondern abwartet bis es den größten Effekt hat.
Klasse Taktik! Im Veröffentlichungstest von der Presse gerügt werden, obwohl man ein tolles Produkt hätte anbieten können. Nur damit man später nachbessern kann. Ich hoffe du bist nicht im Marketing tätig.
 
  • Gefällt mir
Reaktionen: PS828
De
R4ID schrieb:
Erst flog meine Intel CPU raus und AMD zog ein, ob sich nun das ganze wiederholt :D
Dein Netzteil reicht bestimmt nicht^^:stacheln:🔌
 
Zuletzt bearbeitet:
ToKnight schrieb:
Kann auch gut sein, dass man in allen Spielen mit DX12-Ultimate-Implementierung bald treiberseitig oder auch im Menü DirectML(Machine Learning)-Upscaling aktivieren können wird. Durch die Mitentwicklung der XBox-Plattform hätte man sicher entsprechendes Know-How bei AMD.
Leider wird dieser Text von der Mehrheit ignoriert bleiben und du wirst trotzdem im jeden zweiten Post etwas von DLSS lesen. Es wird nämlich geglaubt dass das von Tenso-Cores abhängig ist.

Von Facebook wurde eh schon eine DLSS Konkurrenz vorgestellt, die auf alle Hardware laufen soll. Wieso MS und Sony noch bisher noch nichts konkretes vorgestellt haben, bezüglich Techniken, muss auch nicht bedeuten dass nichts existiert. Kann genauso sein, dass es AMD vorstellen wird. War bei der letzten Generation auch nicht anders. So hatte AMD auch Dinge wie Audio Chip in der GPU, Async Compute ect vorgestellt.
Und auch wenn MS und Sony Konkurrenten sind, setzen sie sicherlich auch bewusst auf AMD, weil sie so auf Gewissheit gemeinsame Standards haben.
Wäre ja nicht so dass beide nicht schon mio in Techniken und Features investiert haben, welches sich dann nicht durchgesetzt haben. Nur mal so nebenbei.
 
  • Gefällt mir
Reaktionen: GINAC, karl_laschnikow, Rockstar85 und eine weitere Person
mylight schrieb:
Warum hat die 6900XT denn nur halb soviele Shader wie eine 3080? Verbraucht fast genauso viel Watt? Kann sie die 3080 denn überhaupt schlagen?

Weil man weniger Shader manchmal besser ausgelastet bekommt. Dann lieber weniger Shader und dafür mehr Takt.
Siehe GCN zu RDNA.
 
Hallo Zusammen,


ich war lange Zeit stiller Leser und mein Account war nicht mehr gültig, da ich diesen vor dem Umzug auf die neue Plattform genutzt habe. Das war damals zwischen 2003 und 2008 oder so... :)

Vorweg: Ich habe sowohl schon Nvidia, AMD und Intel in meinem PC gehabt und für jede Zeit gab es einen passenden Anbieter. Ich suche immer nach dem besten Preis-Leistungsverhältnis für meine Wünsche und das bietet mir momentan einfach AMD.

Ich finde es schade, dass hier die meiste Zeit nur über DLSS geredet oder gestritten wird.
Ja, es ist eine sehr gute Entwicklung und auch wünschenswert im Sinne von Stromverbrauch und Hitzeentwicklung auf Technologien zu setzen, welche mit ihren Algorithmen helfen das Bild hochzurechnen.
Vergleichbar mit der Entwicklung bei der MP3 damals. Natürlich hat da jeder profitiert, dass es Verfahren gab, die Speichermenge zu begrenzen. Davon hatte wirklich rückblickend jeder profitiert.
Somit ist der Weg von Nvidia da auch richtig. Falsch ist nur, dass dies nur ein Nvidia Alleinstellungsmerkmal ist.

Ich kann mir absolut nicht vorstellen, dass AMD (und MS und Sony) nicht ähnliche Strategien verfolgen.
Die Konsolen müssen in den nächsten Jahren 4K auf die TV's zaubern und dass nicht mit 30FPS.
Wie soll eine 500 Euro Konsole dass über die nächsten Jahre schaffen (bis zum Refresh)?
Natürlich wird es da Techniken geben, welche helfen, dass Bild mit möglichst viel FPS zu berechnen und Raytracing und sonstige Features zu erlauben.
Warum sollte es somit nicht möglich sein, diese Technologie auch für (AMD, ...) Desktop Grafikkarten zu implementieren?

Für meinen Teil: Ich besitze einen 4K 60Hz Monitor und bin super glücklich mit diesem.
Ich wünsche mir eine Grafikkarte mit der ich aktuelle Spiele zwischen 40-60FPS (ich habe Freesync) auf meinem Bildschirm und auf den TV (Steam Link 4K) in möglichst höchster Detailstufe spielen/streamen kann.
Jetzt kommen dazu endlich mal die passenden Grafikkarten die dies möglich machen ohne dass man vorher dauernd die Grafikeinstellungen anpassen - also Stück für Stück runter regeln muss.
Natürlich auch endlich 4K Leistung zu einem Preis, welcher noch gerade so vertretbar ist.

Somit freue ich mich sehr auf die AMD Grafikkarten und wünsche mir, dass meine Wahl auf AMD fällt.
Nach jetzigen Prognosen werden sie wohl meine Wünsche erfüllen, so dass ich mir keine (nicht verfügbare) Nvidia 3080 kaufen muss. Sollten meine Wünsche nicht realisierbar sein, dann wechsle ich dieses Mal ins grüne Lager. Es wird einfach das gekauft, wass jetzt zu mir und meinen Vorstellungen passt. That's it!

Was ich aber nicht verstehen kann sind Kommentare, welche die 6900er Karte auf Augenhöhe mit der 3080 sehen oder hoffen, dass die dort rankommt...???
Also mal ehrlich: Die 6900er Karte gehört wie die 3090er in die Titan Klasse und dafür wird sie in limitierter Stückzahl gefertigt. Auch wenn sie vielleicht keine Chance zur 3090 hat - in diese Richtung soll es gehen.

Die 6800XT wird die Karte werden, welche sich mit der 3080 messen soll.

Und was die Gerüchte angehen:
Ich denke auch das Igor verlässliche Quellen hat und weiß, was er das ausrechnet.
Warum sollte er lügen, wenn er zufällig ein BIOS zugespielt bekommen hat?

Der Rest kann man sich schon zusammenreimen in welche grobe Richtung es geht.

Die 2500Mhz Boost Takt waren auch nur absolute Maximalleistung bei einer übertakteten Custom Card.
Lest doch mal seinen Artikel oder schaut sein Video dazu an.
Auch hier geht man von einem stabilen Gaming Takt von 2100-2300Mhz aus.

Die Stock Radeon 6800XT wird vermutlich einen geringeren Boost Takt haben.

Ich für meinen Teil erwarte eine 6800XT auf ungefährer Augenhöhe zu einer GeForce 3080.
Nicht berücksichtigt ist da Raytracing und DLSS. Einfach die Rohleistung auf 4K.
Alles andere wird man in den ersten Benchmarks und Test sehen, wie die Karten mit allen Features laufen.

In diesem Sinne: Ich wünsche allen viel Spaß beim warten und spekulieren :)

VG
 
  • Gefällt mir
Reaktionen: karl_laschnikow, Rockstar85, Strubbel99 und 5 andere
mylight schrieb:
Meine 3080 verbraucht niemals 340Watt unter Spiel-Laster. Im Schnitt weit unter 200Watt , haha AMD und effizienter ja wers glaubt...

Die ganzen Magazine haben bestimmt alle falsch getestet. 😂
 
  • Gefällt mir
Reaktionen: ArrakisSand, eXe777, 122messi122 und 3 andere
bad_sign schrieb:
@engineer123
AMD hat ja schon gezeigt, sie sind an der 3080 dran, die letzten 5% jucken da wenig, wenn mit der letzten Gen 50% Leistungsrückstand zu Nvidia aufgeholt hat.
Die Umstände sind noch unbekannt und für den Showeffekt könnte tatsächlich die zweit schnellste Karte gezeigt worden sein, ich mein OC für die letzten 5-10% sind wirklich nichts, was AMD nicht anbieten könnte...

Man darf bei den Spekus net vergessen, das NV für die FE immer ein bisschen über der preiswerten Ref. liegt.
Bei AMD ist es etwas Anders, sprich die Ref. ist tatsächlich die Graka mit dem niedrigsten PL.
(vermutlich dann 238W TGP)

Eins weiss man derzeit schon:
AMD skaliert besser mit ansteigendem PL als NV.
3DCenter Forum - Einzelnen Beitrag anzeigen - AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
Daher kann ein OoB-Player dann ne Custom mit höherem PL nehmen und bekommt auch echten Leistungszuwachs.
 
Adzz schrieb:
Wenn Nvidia ihre nächste Generation wirklich schon ende 2021 in 5 nm tmsc bringt kann man ja wieder warten

oh nein, nicht schon wieder warten :rolleyes:
ich warte seit 2008 mit meiner 8800 gts 512 und will doch nur rdr2 mit mehr als 320x240er auflösung und 7 fps spielen :D
 
  • Gefällt mir
Reaktionen: derSafran
Naesh schrieb:
Mit DLSS + RTX schlägt wohl selbst die 2060 eine 6900XT.
Also ich hab ne 2060 im Laptop (ASUS TUF Gaming 15 mit 144 Hz und RYZEN 4900H).
Werde in Bälde extra Tests für Dich machen und Dir diese dann mitteilen … :-)

MfG Föhn.
 
mylight schrieb:
Solange AMD nicht in die Nähe der 3080 kommt wird NVIDIA sich treiberseitig nicht veranlasst fühlen mehr Leistung in die Spur zu bringen, daher hoffe ich ja auch das AMD NVIDIA schlägt. Momentan sieht es jedoch sehr schlecht aus.

dir ist aber schon in den Sinn gekommen das diese "performance" vielleicht schon am maximum ist? Nvidia hat die Shader Cluster massiv umgebaut im vergleich zu turing. Ampere ist wie ein GCN also eher richtung Compute Leistung ausgerichtet und nicht mehr wie Maxwell, Pascal richtung spiele, mit Turing hat man erstmals angefangen die Shader richtung Compute auszurichten.

Was ich damit sagen will ob da wirklich "soviel" noch brach liegt sei mal dahingestellt
 
foo_1337 schrieb:
Sehe ich genau so. Wenn man sich die Watchdogs Requirements für RT anschaut, fällt recht schnell auf, dass es ohne DLSS wohl unspielbar wird:

Anhang anzeigen 982090
Uups
Das wird wohl noch öfter passieren.
In 4k dann nur noch DLSS "performance" = Bildqualität???.
Da nützt dann auch RT nix wenn der Rest vom Bild nix taugt.
(RT ist mit den derzeitigen Grakas in 4k einfach net in Quality-Ultra machbar)

In open World Games ist die Misere mit RT noch schlimmer. Sobald Grashalme und Blätter sich bewegen
bricht RT ein. (gab net umsonst bei BF V viele Anläufe)
Daher wurde ja Crysis Remastered nur noch mit starrer Vegetation vorgeführt.
Das zerstört nach m.E. die ganze Atmosphäre.
(und über die Weitsicht kann ich nur Lachen, Crysis-64bit-Original konnte Das schon)
btw.
Was die Leute an Deathstranding finden ist mir ein Rätsel. Die Grafik sieht ja nach gar nix aus.
Das immer so ein Mxxx für Vergleiche herangezogen wird und auch im Parcour mitmachen darf.
Das sah ja schon FarCry besser aus.(mit bewegter Vegetation)

Ergänzung ()

Vitec schrieb:
Also ne 6700 XT für 350€ würde sicher gut weggehen.

1. Ein Preisberreich, wo es noch genug Käufer gibt.
2. Keine Konkurrenz von Nv derzeit.

What?
Da kommt doch bald die guuute 6GB-3060.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Benji18 und Rockstar85
Wie immer, abwarten und Tee trinken bis offizielles bekannt ist.
Eine Anmerkung...Nachdem Verfügbarkeit Fiasko von NVidia, wird wohl ein Erfolg vor allem von AMD‘s Verfügbarkeit am Markt ankommen.
8376C7D5-16E4-4090-ABAC-B08BC0449AF5.jpeg
 
  • Gefällt mir
Reaktionen: Rockstar85 und Novasun
Zum Watt Thema:

Auch wenn ich ebenso der Meinung bin, dass alle Geräte in Zukunft (egal ob PC, Kühlschrank, TV, etc.) weniger verbrauchen sollen und alles im Sinne von Klimaschutz abläuft:

Ich bin aber auch realistisch.
Die neuen Grafikkarten sollen den 4K Markt hauptsächlich bedienen.
Also die Top Modelle zumindest.

4K ist 4mal Full-HD. Es werden vier Mal so viele Pixel berechnet in der gleichen Zeit mit allen Features und Effekten. Wo soll denn der Leistungszuwachs herkommen?

Auch die TV Geräte mit 4K haben meist kein A+++ mehr wie ein alternativer Full HD.

Es wird einfach mehr Leistung benötigt und ich glaube inzwischen auch, dass der neue Maßstab für 4K zwischen 250 und 350 Watt liegen wird.

Alle anderen (WQHD oder Full HD) können sich ja eine 3070 oder eine 6700er Karte kaufen mit weniger Stromhunger.

Möglicherweise wird da in den nachfolgenden Architekturen und Möglichkeiten wieder nachgebessert.
Aber das braucht wieder etwas Zeit, dass man hier effizienter fertigen kann und neue Technologien zum Einsatz kommen.

Somit habe ich dieses Jahr auch mein Netzteil aufgerüstet und lebe damit, dass dies wohl aktuell der Standard für 4K ist. So ist Technik eben.
 
  • Gefällt mir
Reaktionen: Strubbel99 und Sly123
Zurück
Oben