Test AMD Radeon RX 6800 XT im Test: RDNA 2 gegen Nvidia GeForce RTX 3000

Wadenbeisser schrieb:
@Substanzlos

Dann hast du dich wohl ewig nicht mehr damit beschäftigt, siehe HBM Modelle.

Aus dem FuryX Test: ...


Aus dem Vega Test: ...

Merkste, dass bei HBM ein anderes SI Verwendung findet als bei GDDR(6)?

Hatte ne Polaris, da war der Speicher mit zwei Monitoren oder mit 120Hz bei einem auch immer auf Max getaktet.

Also bleibt dabei, AMD hat da schon immer den Takt auf max und war auch eine Aussage von AMD, dass das SI nicht stabil bleibt bei niedrigem Takt und zwei Monitoren.

Danke fürs Gespräch.
 
  • Gefällt mir
Reaktionen: Sennox
@Substanzlos

Dir ist schon klar das die neuen Karten durch den infinity Cache auch nicht mehr das klassische Speicher Design besitzen und die Geforce Karten damals dafür gefeiert wurden das sie nicht hochtakten würden, die Verbrauchsmessungen in dem Test durch den Mehrverbrauch aber das Gegenteil bewiesen haben?
Das Test Setting hat sich durch die beiden UHD Displays seit damals geändert und damit auch der Bandbreiten Bedarf. Offenbar zu viel für nvidias Lösung weshalb auch diese nun hochtakten müssen.
 
@t3chn0 Hab auch den Eindruck, dass in den meisten Spielen die Ampere Karten @ 4K dominieren, solange man nicht SAM hinzuschaltet, was in einigen Szenarien die Situation zugunsten der AMD Karte ändern könnte.
Ich meine, Benchmarks gesehen zu haben, in denen gezeigt wird, dass eine 6800XT mit SAM mit einer 3080 gleichzieht bzw. diese sogar überholt. Ich glaub, Valhalla ist aktuell das markanteste Beispiel für das Potential von SAM (klar, ein AMD Titel, daher muss man schaun, ob in Zukunft SAM überhaupt einen großen Einfluß auf Spiele haben wird, die nicht in enger Zusammenarbeit mit AMD optimiert worden sind).
In einigen Benches geht die 6800 non-XT auch extrem ab, überholt die 3080 während die XT über der 3090 steht, aber das sollten eher Ausnahmen sein. Wir müssen einfach abwarten, wie der Impact von SAM sein wird, ob viele Spiele in 2021 von SAM in großem Maße profitieren werden oder eben nur sehr wenige (AMD-Titel).
Aktuell würde ich für 4K-Gaming die 3080 der 6800XT vorziehen, die 3080 ist überwiegend schneller. Aber das könnte sich mit SAM in 2021 ändern. Mal gucken, wie es kommt.
 
  • Gefällt mir
Reaktionen: t3chn0
Ich bin gespannt wie die Implementierung von SAM bei Nvidia aussieht und was hier noch rausgeholt wird. Vor allem die Min FPS sollen doch sehr von SAM profitieren laut LTT.
 
@SV3N
https://twitter.com/patrickschur_/status/1333078578767028226
die 6900XT wird man auf bis zu 3 GHZ Takt einstellen können.

War genau meine Vermutung, dass AMD hier die 6800XT hardwareseitig limitiert für die 6900XT, als ich das 8auer-Video gesehen habe
Einzige Frage wäre für mich noch: Warum zur Hölle ist das nur +15% Power Limit eingestellt? Ich hoffe das ist nur ein Platzhalter. Warum würde AMD ihr Topmodell limitieren?
 
  • Gefällt mir
Reaktionen: SVΞN
t3chn0 schrieb:
Ich bin gespannt wie die Implementierung von SAM bei Nvidia aussieht und was hier noch rausgeholt wird. Vor allem die Min FPS sollen doch sehr von SAM profitieren laut LTT.

Man kann zukünftig aber alles mischen, zumal SAM auch eine PCI-E-4.0-Spezifikation ist oder wie war das?

CPU --- GPU
AMD + AMD
AMD + Nvidia
Intel + AMD
Intel + Nvidia

Und kann AMD auch direkt auf PCI-E-4.0-X4-M.2-SSDs zugreifen (und PCI-E 3.0)?
 
5hred schrieb:
daher muss man schaun, ob in Zukunft SAM überhaupt einen großen Einfluß auf Spiele haben wird, die nicht in enger Zusammenarbeit mit AMD optimiert worden sind

Der Punkt ist, SAM ist an sich nichts revolutionäres, auch wenn AMD nun als erstes das bei den eigenen GPUs implementiert hat. Es dürfte somit relativ zeitnah auch auf Intel und NVidia Hardware laufen.
https://docs.microsoft.com/en-us/windows-hardware/drivers/display/resizable-bar-support
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Banger
Hier ein neuer Test zur Strahlenverfolgung bei AMD. Dort scheint mit Optimierung der Treiber und Spiele noch einiges zu gehen.

https://www.golem.de/news/cod-crysi...racing-kann-auch-schnell-2011-152389.amp.html

Bleibt zu hoffen das die Entwickler sich nicht von der grünen Geldbörse locken lassen. Insbesondere da die offene dlss Variante von AMD auch für die Konsolen wichtig ist. Wenn eine Konsolen Variante optimiert ist und das Feature nutzt sollte es kein großer Aufwand sein das für den PC zu implementieren. Naja wir werden sehen. Jedenfalls wird eine AMD Karte für mich immer interessanter. Allerdings kann ich bei der aktuellen Verfügbarkeit wohl gleich auf RDNA3 warten.
 
Schau dir mal die Benutzung von RT in Dirt5 und WOW an und vergleiche das mit den anderen Spielen. Das ist ne andere Hausnummer. Dazu kommt, dass sie auch die Darstellungsfehler in u.A. WDL nicht erwähnt haben.
 
foo_1337 schrieb:
Schau dir mal die Benutzung von RT in Dirt5 und WOW an und vergleiche das mit den anderen Spielen. Das ist ne andere Hausnummer. Dazu kommt, dass sie auch die Darstellungsfehler in u.A. WDL nicht erwähnt haben.

Eben um die großen Unterschiede geht's ja und zeigt das mehr möglich ist.
 
Wadenbeisser schrieb:
@Substanzlos

Dir ist schon klar das die neuen Karten durch den infinity Cache auch nicht mehr das klassische Speicher Design besitzen und die Geforce Karten damals dafür gefeiert wurden das sie nicht hochtakten würden, die Verbrauchsmessungen in dem Test durch den Mehrverbrauch aber das Gegenteil bewiesen haben?

Der Infinity Cache sitzt aber am anderen Ende des SIs sozusagen. Ich werde auf jeden Fall, sobald ich eine HD6X00 in Händen halte, versuchen da mit den Tools von Igor's Lab etwas dran zu basteln.
Hoffe ja noch auf eine HD6700 mit 12GB Speicher. Schaumer mal.
 
@Substanzlos

Das Problem ist halt ähnlich wie eine Diskussion wo über CPUs ohne L3 Cache anhand des Speicherinterfaces über die Performance von CPUs mit L3 Cache argumentiert wird. Solange die erforderlichen, performance kritische Daten in den L3 passen und weniger wichtige Daten im RAM vorgehalten werden spielt das Speicherinterface nur eine untergeordnete Rolle für die Performance. Das merkt man erst wenn der Cache überläuft und die Daten weitestgehend aus dem RAM geladen werden müssen.

Es gibt einfach zu wenig Erfahrungen mit dem aktuellen Design aber allso neu ist es nicht.
Im übrigen gibt es schon lange keine HDxxxx Modelle mehr, die fangen heute mit Rx an. ;)
 
Mozarella_Fox schrieb:
Postest du auch, falls das System mal abschmiert?
Danke für die Info:daumen:

Also vorhin ging der PC zum ersten mal aus, war aber nicht auf Last :D Ansonsten läuft aber alles 1a stabil seit Releaseday, werd aber zwecks OC von CPU/GPU demnächst mal schauen ob ich nen Schnapper für ein gutes Netzteil finde mit Reserven. :king:
 
  • Gefällt mir
Reaktionen: H1ldegunst
foo_1337 schrieb:
Ich meinte den Grad der Benutzung von RT im Game.
Und weil in z.B. WoW nicht so viel RT benutzt wird, bricht eine 3070 dort af 50% Leistung ein, mehr als in einem CoD oder Crysis? Gerade deshalb sollte sie ja noch deutlich weniger einbrechen, vor allem wenn sie ohne RT bereits schneller als die 6800 ist.
Bei Dirt ist sie bricht mit RT auf 63% ein, die 6800 fällt nur auf 71%.
 
Zuletzt bearbeitet:
@Taxxor Bzgl WoW: Punkt für dich :)
Aber: Kann es vielleicht sein, dass das Testsystem von Golem verschiedene CPUs nutzte?
Der Einbruch ist hier deutlich geringer. Leider haben sie nicht mit ner 3070 und ner 6800 getestet. Aber PCGH schreibt, dass RT hier massiv auf die CPU geht.
 

Anhänge

  • 1606772627087.png
    1606772627087.png
    169,4 KB · Aufrufe: 307
  • 1606772639125.png
    1606772639125.png
    174 KB · Aufrufe: 315
Zuletzt bearbeitet von einem Moderator:
Ich verstehe auch nicht, wie eine 3080 auf 64% in Tomb Raider einbrechen kann, wo ja nur Schatten benutzt werden, was noch nicht mal so auffällt, gleichzeitig aber in Watch Dogs, wo mit den Reflektionen deutlich mehr gemacht wird, auch auf die gleichen 64%.
 
Jop, das ist schon strange. PCGH hat nvidia um Stellungnahme gebeten... mal sehen, ob nvidia was sagt ;)
 
Wadenbeisser schrieb:
@Substanzlos
Im übrigen gibt es schon lange keine HDxxxx Modelle mehr, die fangen heute mit Rx an. ;)

Schande über mein Haupt, ich geh in die Ecke zum nachsitzen! 😅

Zum Cache/Si. Was die Performance angeht hast absolut Recht.
Mir ging es eher darum, ob es durch Anpassung der entsprechenden Optionen bei zwei Monitoren möglich ist das SI/den Speicher nicht so hoch zu Takten. Dabei soll es natürlich stabil bleiben und der Stromverbrauch sinken.

Aufgrund von fehlender RX 6800 kann ich es leider nicht testen. Aber vielleicht findet sich ja jemand der da Bock drauf hat.
 
@Substanzlos

Wenn ich richtig liege dürfte die Gesammtauflösung aller aktiven Displays der entscheidene Faktor sein.
Solange es in den Infinity Cache passt könnte sie sich dann wie Vega und Co. verhalten denn dessen Bandbreite dürfte wohl kaum ein Problem sein aber überschreitet sie den kritischen Wert läuft es über den VRAM, welcher dann genauso hochtaktet wie bei den anderen Karten im Test.

Nur leider wurde das bisher noch nicht getestet. ^^
 
Zurück
Oben