Test AMD Radeon RX 6800 XT im Test: RDNA 2 gegen Nvidia GeForce RTX 3000

Meleager schrieb:
Wenn die 6900 jetzt noch die 3090 genauso angreift, dann brauch Jensen ne wärmere Lederjacke
Bei den Quartalszahlen wird ihm auch so warm werden, glaube nicht dass man bei Nvidia große Angst vor AMD haben muss. Sind ja voll Konkurrenzfähig und nicht Intel. ;)
 
Das Teardown Video von Gamersnexus ist zusätzlich empfehlenswert.

Custom Modelle dürften wesentlich leiser werden bzw. sich mit geringerer lautstärke höher takten lassen meiner Meinung nach lohnenswert darauf zu warten.

AMD hat beispielsweise nen Thermal Pad verbaut statt Wärmeleitpaste. Qualitativ hochwertiges Thermal Pad aber kommt trotzdem nicht an WLP ran.

Die Taktraten bei den Custom Modellen werden noch sehr interessant, AMD hat laut Aussage von Scott Herkelman in einem Interview bewusst Spielraum nach oben gelassen bei den Taktraten für die Modelle der Boardpartner.
 
Zuletzt bearbeitet:
@jk1895

Da ich das Spiel nicht kenne kann ich dazu nicht viel sagen, ich habe nur das ursprüngliche Minecraft als sehr CPU lastig in Erinnerung und zur RT Variante kann ich garnichts sagen, die Geforce dürfte da aber definitiv schneller sein. War die dort eingesetzte RT Variante nicht auch noch auf die Geforce beschränkt weil nvidias Haus Schnittstelle genutzt wurde? Im Teillast Bereich dürften beide Karten deutlich weniger Strom fressen.

An sonsten vbin ich beim Thema Strombedarf des Systems etwas anders gestrickt, für Video, Office, Surferei und Co. wird ein auf sparsam getrimmtes separates ITX System genutzt. Das spieletaugliche System ist halt nur zum Spielen und andere forderne Lasten da.
 
  • Gefällt mir
Reaktionen: jk1895
DonL_ schrieb:
Es mag da jeder anderes aufgestellt sein oder andere Prioritäten haben, aber ich kann mit meinem SMART TV (fast 5 Jahre alt) per App jede Sender Mediathek, Youtube und nach meinem Geschmack noch Amazon Prime plus Netflix abrufen/streamen, dazu habe ich noch Auswahl über das Vodaphone Angebot, weil das bei mir über Kabel Deutschland läuft. Also ich brauche nicht wirklich Kinox To.
Ich kann mehr Serien und Filme Streamen, als ich in meinem Leben jemals Zeit haben werde anzuschauen.

Eben, sieht jeder anders aus was er alles an Diensten nutzen will, wobei für viele es sicher nicht um Quantität geht, sondern nicht "20" Streamingdienste gleichzeitig zu bezahlen für die paar Rosinen die man wirklich schauen möchte. Die Landschaft ist ja leider sehr fragmentiert.
Ich will einen PC ja eigentlich schon alleine wegen Steam auch am TV dran haben. Couche Gaming kommt am Schreibtisch einfach nicht so gut, genau wie ich keinen ego Shooter auf der Couche spielen will oder Arbeiten ohne Multi-Monitor.
Anderseits, auf die paar Watt drauf gepfiffen, Youtube läuft nun wirklich nicht den ganzen Tag, auch wenn der verbrauch bei Multi-Monitor ärgerlich ist. Da verbraucht man den Tag über im Home Office wahrscheinlich mehr als man beim Daddeln mit der Nvidia mehr raushaut.
 
Hab aktuell dieses Netzteil: 550 Watt be quiet! Straight Power 11 Modular 80+ Gold

Wie verträgt sich das mit einer 6800 (mit/ohne XT) und einem R7-2700X? (2x m.2, 3x sata-hdd, 1x sata-ssd)
 
jk1895 schrieb:
Zur Zeit spiele ich tatsächlich wieder mehr und zwar Modded Minecraft. Keine Ahnung ob das Spiel die Grafikkarten so beansprucht, dass der Unterschied im Stromverbrauch relevant wird. Wegen 3 Watt weniger im Desktop kaufe ich nicht sofort die AMD Karte.
Mit Mods? Können die Grafikkarten auf Volllast laufen und zwar ohne Probleme, gerade der Path-Tracing Mod bringt selbst ne 5700xt oder auch ne 2080ti in die Knie. Auf den ganz neuen Karten zwar SEUS noch nicht gesehen, wird aber sicher genauso sein. Ist halt im Grunde die gleiche Geschichte wie bei Minecraft RTX, nur das es auch zügig auf AMD Hardware läuft und imho besser aussieht.
 
Bin mal gespannt, wann die Produkte auch endlich mal verfügbar sind.

Momentan gilt für Zen3, RTX 3000 und RX6000:

Entweder nicht verfügbar oder zu lächerlich hohen Preisen.

Paper Launch ist mittlerweile zum Standard geworden.

Ganz im Ernst: Wer kauft sich denn bitte ne RTX 3070 für über 600€? :freak:


Mal schauen, wie es bis Weihnachten aussieht. Spätestens bis dahin sollten die Produkte auch mal breit und nahe am UVP verfügbar sein, sonst geht AMD und NV viel Geld durch die Lappen.
 
  • Gefällt mir
Reaktionen: Esenel
Wulfman_SG schrieb:
Hab aktuell dieses Netzteil: 550 Watt be quiet! Straight Power 11 Modular 80+ Gold

Wie verträgt sich das mit einer 6800 (mit/ohne XT) und einem R7-2700X? (2x m.2, 3x sata-hdd, 1x sata-ssd)
Igor hat gemessen, und tatsächlich ist es knapp, sollte sich aber iirc eigentlich ausgesehen. Die 6800 auf jeden Fall, mit XT ist es schon knapper. AMD hat hier ein wesentlich besseres PCB gebaut und fängt einen Großteil der Spannungsspitzen direkt am Eingang mit ihrem LC-Filter ab.
Platinenlayout und Komponenten
Netzteilempfehlungen
 
Apocalypse schrieb:
Igor hat gemessen, und tatsächlich ist es knapp, sollte sich aber iirc eigentlich ausgesehen. Die 6800 auf jeden Fall, mit XT ist es schon knapper. AMD hat hier ein wesentlich besseres PCB gebaut und fängt einen Großteil der Spannungsspitzen direkt am Eingang mit ihrem LC-Filter ab.
Platinenlayout und Komponenten
Netzteilempfehlungen

Das ganze hängt ja auch mutmaßlich an der Auflösung, die absoluten Zahlen zeigen ja immer UDH auf Ultra.
Spielt jemand in WHQL oder 1080p sinkt die Leistungsaufnahme schon sehr merklich.
Ich bin trotzdem davon überzeugt das er auch in UHD mit einem Straight Power 550 für eine 6800 ausreichend aufgestellt ist. Auch kann man diese ohne Leistungsverlust noch gut Undervolten.
 
So, keinen Bock mehr auf das Warten gehabt.

3090 FE für 1.499€ bestellt. :P
 
  • Gefällt mir
Reaktionen: Celinna, van-keulen, .Sentinel. und 2 andere
Wadenbeisser schrieb:
Da ich das Spiel nicht kenne kann ich dazu nicht viel sagen, ich habe nur das ursprüngliche Minecraft als sehr CPU lastig in Erinnerung und zur RT Variante kann ich garnichts sagen, die Geforce dürfte da aber definitiv schneller sein. War die dort eingesetzte RT Variante nicht auch noch auf die Geforce beschränkt weil nvidias Haus Schnittstelle genutzt wurde? Im Teillast Bereich dürften beide Karten deutlich weniger Strom fressen.
Nein, du verwechselst das mit einem anderen Minecraft. Von Minecraft gibt es am PC mittlerweile 3 Verschiedene Versionen. Die Classic Java.Edition, das ist das original mit Unmengen an Mods, unter anderem auch heftig gute Texturen und Shader, inclusive Path-Tracing Mod ohne RTX Unterstützung.

Dann die Bedrock Edition, die entstannt aus den Consolen Versionen, ist deutlich performanter, und hat oben drauf eine Education Mode wo man noch einen kleinen Chemi-Baukasten und Lehrer Modus haben kann. Die große Modunterstützung gibt es dort aber nicht.

Und dann die Minecraft RTX Edition die iirc auf der Bedrock basiert, aber im Kern von Nvidia auf Pathtracing mit RTX Karten optimiert ist. Die läuft wie Rotz auf AMD Hardware, und ist sieht ziemlich ähnlich zur Java Edition mit Sonic Ether's Unbelievable Shaders aus.

Abschließend muss ich sagen, das Minecraft mit RT egal ob SEUS oder RTX wirklich fantastisch aussieht, aber auch gigantischen Hardware hunger hat. Sieht alles aus als würde man mit einer echten Lego Variante spielen, da kann Raytracing wirklich mal glänzen.
 
  • Gefällt mir
Reaktionen: derSafran
SKu schrieb:
So, keinen Bock mehr auf das Warten gehabt.

3090 FE für 1.499€ bestellt. :p

Ungeduld kostet :D. Aber du wirst die auch für mehr los wenn AMD wieder was hat ;).
 
  • Gefällt mir
Reaktionen: .Sentinel.
schkai schrieb:

Dafür eine 3090 zur UVP. :D

Falls noch wer Interesse hat, die 3090 gibt es gerade bei NBB als FE zur UVP. :P
 
Palomino schrieb:
Bei den Quartalszahlen wird ihm auch so warm werden, glaube nicht dass man bei Nvidia große Angst vor AMD haben muss. Sind ja voll Konkurrenzfähig und nicht Intel. ;)
Ich sehe das auch so. Nvidia muss aktuell wenig fürchten, weil ihre Karten ganz vorn dabei sind. Für Swan dürfte es aktuell unangenehmer sein.
 
  • Gefällt mir
Reaktionen: foo_1337
DavidG schrieb:
Ich sehe das auch so. Nvidia muss aktuell wenig fürchten, weil ihre Karten ganz vorn dabei sind. Für Swan dürfte es aktuell unangenehmer sein.
Wenig Fürchten auf jeden Fall. Aber wenn die Boardpartner hinter vorgehaltener Hand davon sprechen das die UVP komplett unrealistisch ist und sie Bankrott gehen würden, wenn sie zu viele RTX30 Karten verkaufen, dann spricht das jetzt auch nicht dafür das Nvidia so selbstsicher ist.

Und es erklärt auch warum an den PCBs so gespart wurde. Bei der Platinen-Qualität haben wir ja gesehen das Nvidia nicht ganz vorne dabei sind, den günstigen Samsung Node hat man auch vorgezogen, da wurde schon sehr viel gespart und sehr überhastet veröffentlicht mit den bekannten Konsequenzen.
 
Maggolos schrieb:
Sebastian2003 schrieb:
So ich hab auch gerade zugeschlagen. Dann wird die Karte bei besserer Verfügbarkeit der anderen Karten halt wieder verkauft. Für 499 kann man ja momentan wenig falsch machen
M4real schrieb:
....AND its gone again. Ich hab auch mal eine bestellt. Danke für den Hinweis!
SKu schrieb:
So, keinen Bock mehr auf das Warten gehabt.
3090 FE für 1.499€ bestellt.
1+++

Es ist auf jeden Fall besser, wenn die User bei beiden Herstellern kaufen, Anders wird man
die Nachfrage net in den Griff bekommen.

Auf der anderen Seite verstehe ich net, was die drölftausend A-Fans/Käufer hier im Thread wollen.
Erst wochenlang diskutieren, obwohl mental klar war, das man doch A kauft.
Lasst doch bitte hier die RX-Fans/Käufer Ihre Bewerbchen unter sich klären.

Es kam mal die Frage der Packdichte für die verschiedenen Chips:
Der Luxx hats mal gepostet. GA100>GA102>N21

btw.
Vram-OCen:
Der Luxx hat ähnliche Werte wie CB festgestellt. Bei der XT ist >2100 irgendwann ne Fehlerkorr. aktiv.(XL<XT)
(den genauen Wert muss anscheinend Jeder selbst finden)
Bis dahin gibts aber ein gutes Scaling. (hätte ich mit dem IC gar net erwartet)
Das Scaling allerdings nur in Control, was ja die selbe vermurkste Engine wie QuantumBreak@DX11 hat, leicht modifiziert für RT+DX12. QB war auch schon sehr zähflüssig, lief am Besten mit 30fps-Lock ala Konsole, warum auch immer.
 

Anhänge

  • RX6800xt-Vram-Fehlerkorr.png
    RX6800xt-Vram-Fehlerkorr.png
    104,1 KB · Aufrufe: 329
  • Packdichte.png
    Packdichte.png
    68,9 KB · Aufrufe: 293
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derSafran
4to cka3al schrieb:
Ich glaube 12GB gehen nur mit 384bit Buss. Die hätten den Speichercontroller aufbohren müssen dafür, was auf den Stromverbrauch geht. Also war nur 8 oder 16 GB eine Möglichkeit bei der Entscheidung eines 256bit Buss.
Wobei sicherlich auch AMD die Frage gestellt hat.
12GB @ 384bit @infinity cache
vs 16GB @ 256bit @infinity cache
Anscheinend haben die sich für letzteres entschieden
Immerhin hat AMD jetzt die Möglichkeit in 2-3 Gens noch auf ein 320 Bit SI zu setzen, zusammen mit IF, und dann statt 16Gb 20GB anzubieten.
Vielleicht ist dann aber auch schon GDDR6X breiter verfügbar und AMD kann auch weiterhin bei den 256bit bleiben, man wird sehen.
Da wären dann auch wieder mit 1,5er Chips 24 GB VRAM bei 256 bit möglich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 4to cka3al
Apocalypse schrieb:
Wenig Fürchten auf jeden Fall. Aber wenn die Boardpartner hinter vorgehaltener Hand davon sprechen das die UVP komplett unrealistisch ist und sie Bankrott gehen würden, wenn sie zu viele RTX30 Karten verkaufen, dann spricht das jetzt auch nicht dafür das Nvidia so selbstsicher ist.

Die Partner jammern gern. So wie jede Firma die die anvisierten Verkaufspreise nicht realisiert bekommt.
Das sind strategische Äußerungen auf der einen Seite. Die Shoprealität ist dann die andere Seite.
NBB hat bereits 2 Partnerkarten für 499 gelistet.

Man sollte jede Äußerung in dieser Hinsicht mit Skepsis betrachten. Bei nVidia, AMD und deren Partnern gleichermaßen.
 
  • Gefällt mir
Reaktionen: derSafran und cookie_dent
Zurück
Oben