Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

Che-Tah schrieb:
Warum eigentlich der "Rage Mode" ?
Wenn der Offset für jede GPU eh gleich ist warum also nicht den Boost Clock nach oben getan?

Damit man gleichzeitig sagen kann ohne Rage Mode sind wir bei Watt/Performance super und das Powerlimit niedriger... und bei den FPS aktivieren wir ihn und sind da weiter vorne?
Sehe den Sinn dahinter noch nicht wirklich.

Smart Access Memory
Hat in der Präsentation geklungen als ob das das gleiche wie Microsoft Direct Storage / RTX IO. ...aber das soll doch nur die Ladezeiten verbessern. Was macht AMD da anders, dass die FPS steigen? ...oder werden die NV Karten mit RTX IO noch schneller? Denke das hätte NV groß rausposaunt wenns so wäre.
...oder kompensiert AMD damit nur das Bottleneck Speicherinterface welches die NV Karten garnicht haben?
Bei RM denkt AMD sicher an die Out of the Box Player die net das "gefährliche " OCen machen möchten.
1-2% for free ohne "größeren" Verbrauch klingt doch gut.(ob sich der Verbrauch minimal ändert wird man sehen, oder obs nur der Takt ist)
SAM kommt von den Konsolen und APU´s. Dort kann die CPU direkt in den gemeinsamen Ram+Vram-Pool adressieren.(soll unter Linux auch mit Zen2 funzen)
Vermutlich gehts bei RX6000 sogar in den L3-Cache. Da spart man effektiv den Umweg über den Ram+PCiE hin+weg zum Ram.
NV hat nix derartiges. RTX I/O wird erst so richtig funzen, wenn MS in einem Jahr direct storage auch für den PC einführt.(Was natürlich AMD nextGen-Konsolen jetzt schon können=bessere Ladezeiten in den entspr.Games)
 
  • Gefällt mir
Reaktionen: Che-Tah
Crabman schrieb:
Die Kombo RT + DLSS als Strohmann-Argument herunter zu spielen ist schon sehr, sehr kurzsichtig, um nicht zu sagen trollig. RT selbst ist inzwischen in genug Spielen drin und wird in nacher Zukunft praktisch zu einem Standard-Feature werden. Dass AMD diesbezüglich rein garnichts gezeigt hat, ist deswegen, so vielversprechend (mehr nicht) der Rest der Präsentation auch war, ein extradicker Minuspunkt, da führt kein Weg dran vorbei.

Wie viele Haende brauchst du um die Spiele abzuzaehlen? Sind es mittlerweile mehr als zwei? RT ist derzeit ein Gimmick, genauso wie DLSS da die Verbreitung einfach ein schlechter Witz ist. Mal davon abgesehen, dass zu viele RT Spiele aussehen als haette jemand einfach nur den Gamma Wert hochgedreht.

Stand August hat RNDA grob zwei Drittel der RT Performance von Nvidia. Mit folgenden Caveats: Man weiss nicht welche Karte es war, man weiss nicht welche Settings es waren, man weiss nicht ob es die finale Hardware Revision war, man weiss nicht auf welchem Stand der Treiber war. Und das was in Richtung Scaling kommt wurde doch auch schon gesagt.

Mal davon abgesehen, dass Microsoft's DirectX mittlerweile 1:1 auf Xbox und PC verwendet. Es gibt keine Abwandlung extra fuer die Xbox mehr. Auch wenn das vehement abgestritten wird, davon profitiert AMD da Entwickler aus deren Architektur das beste rausquetschen muessen um ihre Spiele gut aussehen zu lassen. Mal komplett davon abgesehen, dass AMD endlich die Verfuegbarkeit von CPUs und GPUs dazu nutzt das ganze besser zu integrieren. Smart Memory Access hoert sich sehr nach einer aehnlichen Funktionsweise wie bei den Konsolen an. Und Nvidia hat natuerlich nichts, dass sie dagegen stellen koennen, weil sie keine CPUs haben (ARM wird sie da auch nicht retten).

Anders gesagt, dein "extradicker Minuspunkt" ist nur dann einer, wenn man eh schon die gruene Brille hat. Wenn RT gepusht wird, dann durch die Konsolen und nicht Nvidia. Genauso mit Resolution Scaling. Und wenn es dann endlich so weit ist, dass RT ueberall ist und fuer mehr als nur ein bisschen spiegeln genutzt wird, dann saufen die 3000er Karten komplett ab, weil ihnen der VRAM fuer RT nicht mehr reicht.

Teralios schrieb:
Ich habe in einem anderen Thema bereits mit @Colindo als auch @Kacha darüber philosophiert.

Was, wir haben geredet?! Wer bist du? Was willst du von mir?! :D

Andere Frage, tippst du darauf, dass das dynamische CU Clustering Einzug gefunden hat oder nicht? Fuer mich sieht es derzeit nicht so sehr danach aus. Allerdings faellt es mir schwer zu glauben, dass der 128MB Infinity Cache das alles leistet. Ja, Caches koennen extrem viel ausmachen, aber die doppelte Leistung eines 384 Bit Interfaces waere wirklich krass.

@Laphonso Ganz gute Zusammenfassung. Marketingtechnisch und preistechnisch steht Nvidia wirklich komisch da. Ob da wirklich so schnell ein Konter kommen wird werden wir abwarten muessen. Eine 3080Ti mit 12GB fuer 1k sieht am wahrscheinlichsten aus. Das muesste dann aber der gleiche Ausbau wie bei der 3090 sein und damit ist die 3090 fast komplett abgeschossen. VRAM technisch hat Nvidia halt ihre typische Strategie gefahren, damit die Kaeufer bitte auch sofort die Generation danach kauft. Diesmal sind sie damit auf die Fresse geflogen. Aber keine Angst, es werden genug Nvidia kaufen, egal was AMD macht.

DLSS ist in der Tat das einzige bei dem Nvidia sich irgendwie noch abhebt. Aber derzeit ist das auch ein Strohmann und mehr nicht. Erst wenn das ganze im Treiber ist und automatisch bei jedem Spiel funktioniert kann man es wirklich anfuehren. Ist halt doch kein 1-Klick Feature zum implementieren wie Nvidia behauptet hat (wer konnte das ahnen?!). Mal davon abgesehen, dass AMD wohl mit was aehnlichem kommen wird das sowohl open source als auch cross-platform sein soll. Wenn das dann auch noch auf Nvidia laeuft, dann ist deren Implementierung schneller gestorben als man glaubt. Denn wer implementiert schon zwei Ansaetze wenn einer alles abdeckt?

Und Smart Memory Access und dergleichen wird garantiert weiter gespusht werden. Das ist derzeit ein Unique Selling Point fuer AMD. Intel koennte vielleicht was aehnliches bieten wenn sie GPUs haben, allerdings fehlt ihnen derzeit die Erfahrung die AMD von den Konsolen her hat. Und Nvidia darf dann bei AMD oder Intel betteln. Die ganzen Forderungen nach einem Oekosystem von AMD wurden wohl erhoert. Aber jetzt ist es natuerlich wieder doof. ;)
 
  • Gefällt mir
Reaktionen: eXe777, JohnVescoya, KadmosIII und 5 andere
Gonzo28 schrieb:
Wenn sich der vorige Beitrag mit 2DP+1USB-C und 1xHdmi bewahrheitet habe ich ohnehin ein Problem.
Ich brauche 4xDPan einer Karte.
Das vermeintliche Problem dürfte sich mit einem "DisplayPort-Splitter" lösen lassen. Die gibt es dann mit bis zu 4 Ausgängen und hier mal ein entsprechender Artikel dazu. Oder man nutzt Monitore mit DP-Ausgängen und "Daisy-Chaining", wo der erste Monitor an der Grafikkarte steckt und die restlichen dann hintereinander gehängt werden.
 
Gonzo28 schrieb:
Ich vermute ja, dass da Geheimdienst-Code im Nvidia-Treiber ist und sie sich deshalb so wehren einen alternativen Treiber anzubieten.
Durch den "Patriot Act" betrifft es nicht nur NVIDIA. Im Treiber oder direkt im Silizium, das waere eine Hausnummer und ein ausweichen auf OpenSource ist dann auch keine sichere Loesung. Das amerikanische HighTech Firmen alles aufkaufen was nur irgendwie nach Zukunftstechnologie riecht, ist auch verdaechtig. Die wollen die volle Kontrolle ueber alle Datenstroeme Weltweit. Der Patriot Act entlarft alle US gefuehrten Unternehmen, auch wenn sie ab und an was anderes behaupten.
 
  • Gefällt mir
Reaktionen: iceshield
Che-Tah schrieb:
Warum eigentlich der "Rage Mode" ?
Wenn der Offset für jede GPU eh gleich ist warum also nicht den Boost Clock nach oben getan?


Weil der Rage Mode ziemlich sicher das Powertarget nach oben setzt und man die 300 Watt Grenze nicht brechen wollte. Der Ragemode dürfte das Powertarget anheben und damit einfach etwas mehr Boost freigeben.

saveit schrieb:
wird es in naher Zukunft eine neue Karte um die 350€ geben aus der neuen Graka Familie?

Ziemlich sicher. Allerdings dürfte das noch einige Monate dauern. Bislang hat AMD nur Grafikkarten auf Basis des großen navi 21 Chips vorgestellt. Es wird auch einen kleineren Navi 22 Chip geben, der dann die Mittelklasse bedient. Allerdings werden wir die karten wohl erst Q1 2021 sehen. Auch von Nvidia werden noch kleinere Lösungen kommen.
 
  • Gefällt mir
Reaktionen: Che-Tah, Onkel Föhn und saveit
saveit schrieb:
wird es in naher Zukunft eine neue Karte um die 350€ geben aus der neuen Graka Familie?
davon kann man ausgehen, ja. traditionell bedienen beide firmen aber zuerst das teurere segment (> € 500,-), rechne also eher nicht mit den kleineren karten vor dem jahreswechsel
 
  • Gefällt mir
Reaktionen: saveit
Wahnsinn was hier los ist, ich denke entweder der AMD Graka Test oder der AMD Zen 3 Test wird das Potenzial haben den Kommentarrekord vom Zen 2 Test zu schlagen.

Übrigens halte ich AMD's Zurückhaltung wegen Raytracing für verdächtig, ich vermute mal das wird die große Schwäche der neuen GPU's werden. Ich hoffe wirklich das dem nicht so ist. Ich hoffe das intern einfach nur der Treiber noch nicht so weit ist, aber wenn ich wetten müsste, würde ich dagegen wetten.
Naja meine Vermutung dieses Jahr Graka technisch leer auszugehen, scheint sich zu bewahrheiten. Die Resonanz im Netz ist gewaltig, die Leute reissen Nvidia die Karten aus der Hand und bei AMD wird das nicht anders sein.
 
Matthias80 schrieb:
Igor wird bestimmt wieder genau prüfen wie es bei AMD mit Spitzen ausschaut...
Wenn AMD das "Problem" gar nicht hat.
Sieht es an der Netzteilfront vielleicht gar nicht so schlecht aus.
Die Empfehlungen der Grakahersteller und von Igor liegen seeeehr auf der sicheren Seite.
(um auch mit Chinaböllern zu funzen?)
Bei guten NT´s mit ner guten HoldUpTime wird vermutlich der Spike 1-5ms durch die Kondensatoren voll gepuffert. (Standard ist für gute NT´s ne HoldUpTime>16..17ms)
In den Reviews von Igor würde ich daher nur die Spikes von 5-10ms heranziehen.
Vermutlich werden Viele mit nem ordentlichen NT auch mit 50W weniger klarkommen, wenn net halt etwas mehr UVen und Takt runter, damit man net mehr ins PL läuft. PL reduzieren erst als Letztes.
Fps-Limit ist auch hilfreich.

edit: bzgl Corsair-RM-Serie
Corsair RM650, RM750, RM850 (2019) im Test - Neue Generation mit neuen Features - Holdup-Time und Timing, Housekeeping (4/10)
Auch die Kleineren 650+750 klingen gut. Ob das 850 mit 14ms reicht, weiss ich net, sollte aber mit kleineren CPU´s gar net soweit kommen. Vermutlich wird highFps in WQHD die max. Gesamtlast von GPU+CPU sein.
In 4k ist es i.d.R. unkritisch, weil die CPU chilled.
 
Zuletzt bearbeitet:
mibbio schrieb:
Das vermeintliche Problem dürfte sich mit einem "DisplayPort-Splitter" lösen lassen. Die gibt es dann mit bis zu 4 Ausgängen und hier mal ein entsprechender Artikel dazu.

Ja, weiß ich, hatte ich auch einen hier für meine 2080TI mit 3xDP+1xHDMI+1xUSB-C bis ich herausfand, dass USB-C als DP-Equivalent benutzt werden kann. So etwas ist aber unnötig teuer und unnötig kompliziert. Ich möchte nicht mehr als einen Desktop-Shortcut oder eine Tastenkombination ausführen um zwischen meinen Konfigurationen umzuschalten (singleScreenDesktopGaming = Bildschirm in der Mitte, die drei anderen Screens aus, multiScreenDesktop = 3 Bildschirme am Schreibtisch an, ein weiterer aus und singleScreenRacingRigGaming = 1 Bildschirm an im Rig und alle anderen drei deaktiviert).

Das ist leider ein Rückschritt wie es aussieht bei AMD und Nvidia. Ob Custom-Designs andere Anschlüsse aufweisen muss sich zeigen, bei NV habe ich noch keine 3xxx Karte gesehen die das kann. Vielen Dank trotzdem für den Link. So wie es aussieht haben die neuen AMD Karten gar nur zwei DP Anschlüsse. Ich brauche aber auch 3x165HZ und 1x240HZ.
 
Malar schrieb:
850W Netzteil (Corsair RM850) genügend für den R9 5900x + 6900XT?

Wird bei mir mit dem gleichen Netzteil ein nahezu identisches Setup. Wird schon passen.

Die Leistung an sich ist sicher ausreichend. Die PEAKs muss das Netzteil in bruchteilen von Sekunden aushalten können. Und das wird sich eben zeigen müssen.


@Gonzo28 .. ich nutze einen 34" Freesync Monitor an einer RX 580 und spiele ebenso SIM Racing.

Die Sync Techniken sind quasi gleichzusetzen.

G-Sync ist allerdings quasi aufgekündigt durch die Öffnung für Adaptive Sync.

Wer sich damals für einen G-Sync Monitor entschieden hat, hat sicher einiges richtig gemacht. Aber auch vieles falsch. Es ist wie bei allen nVidia propritären Techniken ... sie verschwinden irgendwann im Nirgendwo.

Also den Monitor so lange behalten wie nur möglich. Bei nem Upgrade sollte man dann aber schon mal drüber nachdenken wo G-Sync, PhysX und die ganzen propritären Techniken mittlerweile angekommen sind.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Unnu schrieb:
Das auch nur, weil GDDR6x von nVidia & Micron exklusiv entwickelt wurde.
Selbst wenn AMD gewollt hätte, wäre es nicht gegangen. Von daher ist es schon beachtlich, was sie aus GDDR6 quetschen.
Sagen wir es mal so, GDDR6x bringt in der Praxis nicht das auf die Strasse was Micron angibt.
 
  • Gefällt mir
Reaktionen: Unnu
Ein Aspekt wurde bis jetzt in diesem extrem langen Thread noch garnicht angesprochen.

Sehen wir uns doch einmal die Daten der NAVI-Karten an. Da wird von Game-Clock und Boost-Clock gesprochen, wobei der Game-Clock der typische Clock sei, der bei der max. TGP(total graphics power) erreicht wird. Aber auch bei Last-Szenarien könne der maximalen Boost-Takt erreicht werden, solange die max. TGP nicht überschritten wird.

Soll bedeuten, mit UV oder OC kann bei NAVI21 nochmals kräftig an der Taktrate gedreht werden!
Wenn dies sich bestätigt so wird NAVI21 zum Overclockingdream-Hammer voll auf die Umme von NVIDIA! 😁
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Dittsche
Unnu schrieb:
Selbst wenn AMD gewollt hätte, wäre es nicht gegangen. Von daher ist es schon beachtlich, was sie aus GDDR6 quetschen.
Manchmal ist es eben vorteilhaft, keine Zugang zu gewissen Technologien zu haben. Damit werden Wege für Kreativität geebnet ;)
 
  • Gefällt mir
Reaktionen: Unnu, Onkel Föhn und Duffy Duck
Das Sync meines neuesten Monitors "Samsung 32" Odyssey G7" für mein Racingrig ist nicht so gut wie das meiner drei anderen Acer XB271HU 27". Zumindest nicht, wenn die FPS in Ladebildschirmen runtergehen und man aus der Freesync-Range fällt, auch wenn ich diese bereits erweitert habe.
 
Gut, hab jetzt mal sicherheitshalber AMD Aktien gekauft... 🤑
 
  • Gefällt mir
Reaktionen: danyundsahne, Onkel Föhn und DarkerThanBlack
Zurück
Oben