Test Radeon RX 6900 XT im Test: AMDs „RX 6800 XTX“ im Duell mit Nvidias GeForce RTX 3090

@GerryB

Ich bin mal auf die Custom Designs gespannt und ob diese einhöheres Powerlimit besitzen und/oder eine deutlich stärkere Erweiterung zulassen denn die OC Versuche wurden ja weitestgehend davon einkassiert.
Ich hoffe allerdings das es auch welche mit dem Referenz PCB gibt damit die Wahl des Wasserkühlers deutlich leichter fällt.
Ergänzung ()

@foo_1337

Das wollen ist weniger die Frage als das bekommen. :freaky:
Gibt es überhaupt Speicher ICs die dafür genug Speicherkapazität besitzen würden?
 
Zuletzt bearbeitet von einem Moderator:
Apocalypse schrieb:
Warum sollte ich das tun, wenn die nicht gemessen wurden? Kleiner als eine Millisekunde ist für das Netzteil ziemlich Wumpe (475.7W) und Lastspitzen größer als eine Millisekunde waren maximal bei 390.9W.

Bei Linustech hat das 1k Seasonic Netzteil für diese Spitzen z. B. nicht gereicht.

ca. bei 7Min 25 Sek.
 
Wadenbeisser schrieb:
@GerryB
Ich bin mal auf die Custom Designs gespannt und ob diese einhöheres Powerlimit besitzen und/oder eine deutlich stärkere Erweiterung zulassen denn die OC Versuche wurden ja weitestgehend davon einkassiert.
Ich hoffe allerdings das es auch welche mit dem Referenz PCB gibt damit die Wahl des Wasserkühlers deutlich leichter fällt.
Igor hats als Erster geschafft:
Radeon RX 6900 XT mit knapp 2.7 GHz im Time Spy - Dank Wasserkühlung und MorePowerTool | igor´sLAB

Ich verstehe soundso net, warum die ganzen YTer seit 2 Wo keine 6800 unter Wasser setzen.
Die haben zusammen mit der Graka das Set von EK bekommen.

btw.
Das AMD die Refs länger fertigt, macht ja auch mehr Sinn für die User+Waterblockhersteller.
AsRock-Subzero soll wohl auch das Ref-PCB bekommen.
 
Zuletzt bearbeitet:
CastorTransport schrieb:
Haben schon soviele auf Seite 1 geschrieben, aber lieber erhöhen wir die Anzahl der Beiträge durch ständige Wiederholungen. Mittlerweile sollte auch der allerletzte IT-affine mitbekommen haben, das neue Hardware in 2020 kaum zu bekommen ist.

Nebenbei: habe eine 6800 XT zum Start bekommen und einen 5900X letzte Woche einfach aus einem Komplettrechner geschraubt und letzteren mit meinem 3700X zu einem guten Preis weiterverkauft.
Glückwunsch, zum Start heißt? Referenzmodell bei AMD zum UVP oder überteuertes Custom Modell? Man bekommt auch jetzt jede Graka die man will wenn man bereit ist jeden Mondpreis zu zahlen. Ansonsten braucht man wohl etwas Timeluck. Hoffe das dir deine CPU dann nicht abraucht, Garantie hast ja dann keine mehr drauf.
 
GerryB schrieb:
Igor hats als Erster geschafft:
Radeon RX 6900 XT mit knapp 2.7 GHz im Time Spy - Dank Wasserkühlung und MorePowerTool | igor´sLAB

Ich verstehe soundso net, warum die ganzen YTer seit 2 Wo keine 6800 unter Wasser setzen.
.
Unbenannt.jpg


der Takt scheint nicht so gut zu skalieren
 
Wadenbeisser schrieb:
Das könnte ev. daran liegen das es keine Wasserkühler zu kaufen gab.
Die blöden YTer haben sogar im Video das Unboxing der EKWB-Sets gezeigt.
(ich meine jetzt net Igor sondern eher OC3D und Co)


captain kirk schrieb:
der Takt scheint nicht so gut zu skalieren
ggü. Stock?

Man bräuchte mal den ganzen Taktverlauf@Stock z.Vgl. und müsste sich auch den Vram mal mit 1-2 Settings genauer anschauen. Weiss net ob bei Jedem 2150 Fast am Besten läuft.

Bei den Hotspot-Temps bin ich mal gespannt ob Igor LM genommen hat.

btw.
PortRoyal hat bei GN@air ja auch net 1:1 mit dem PL skaliert.
 

Anhänge

  • TS-guru3d.png
    TS-guru3d.png
    27,3 KB · Aufrufe: 287
  • 6900_PR_OCed.png
    6900_PR_OCed.png
    245,8 KB · Aufrufe: 283
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ShiftyBro
GerryB schrieb:
Ich verstehe soundso net, warum die ganzen YTer seit 2 Wo keine 6800 unter Wasser setzen.
Weil es keine Möglichkeit gibt den Takt über 2800MHzeinzustellen(Edit...bei der 6900XT scheinen es 3000MHz zu sein)....und das scheint schon mit Luftkühlung möglich zu sein.

Und da der real anliegende Takt bei AMD unter den eingestellten liegt, kommen sie auch so auf 2,7GHz.

Wasserkühlung ist sicherlich besser für die Ohren, aber es lohnt sich nicht so richtig fürs übertakten.
 
Zuletzt bearbeitet:
ZeroStrat schrieb:
Verwunderlich in dem Fall wäre dann allerdings, dass bisher noch nichts dergleichen passiert ist, weil Nvidia zum einen sehr schnell mit Treiberupdates ist und zum anderen ältere AC Teile noch nicht angefasst wurden in der Hinsicht.
Es ginge hier tatsächlich um Anspassungen im größeren Stil. Die Architekturen haben sich doch inzwischen stark gewandelt. Wenn Du Dir allerdings den Treiber anschaust, versucht der mit aller Gewalt quasi noch "einen Weg für alle Karten" auf einem relativ niedrigen gemeinsamen Nenner verfügbar zu halten.

Die Organisation bzw. die Stärken und die Schwächen der Generationen sind inzwischen ziemlich ausgeprägt. Noch schleppt man den alten Mist mit, weil sonst wieder die Schreihälse kommen, die von einer künstlich generierten Obsoleszenz der alten Karten sprechen, wenn die neuen dann auf einmal unverhältnismäßig davonziehen.

Eine Gratwanderung, die auch mit viel Know- How, Testing und Loslassen von großen, bewährten Teilen des Codes einhergehen inkl. der Gefahr von Bugs, Instabilitäten und Inkompatibilitäten mit den zehntausenden von Spielen auf dem Markt usw. usf.

Das gabs ja immer mal wieder, dass nvidia alte Zöpfe abgeschnitten hat... mit entsprechendem Shitstorm von leuten mit alten Grafikkarten, die von der Umstellung nicht profitieren konnten:
1607537042568.png

Ab dem Zeitpunkt ist es für Fermi unangenehm geworden. Und selbst innerhalb der selben Familie hat man in den oberen Rängen Steigerungen von teils 13% und mehr erhalten.

Die Lücke wurde mit den nachfolgenden Treibergenerationen weiter ausgebaut (mit entsprechenden Problemen, dass es Shitstorms gab, dass man absichtlich alte Karten ausbremsen würde).

ZeroStrat schrieb:
Nvidias bescheidene Performance in Verbindung mit Anvil ist ja fast schon ein alter Hut.
Auch hier werden die halt den Renderpfad maximal uniform gestalten und eine Spreizung erst spät stattfinden lassen.
Zudem ist Valhalla der erste DX12 Titel und wenn irgendwas kein Spaß ist, dann dort mit bestehenden Engines, die überhaupt nicht dafür geschaffen wurden, ins manuelle Micromanagement überzugehen. Auch da muss man alte Zöpfe abschneiden.

Rentiert sich aber derzeit nicht, weil durch RTRT und co. so viel Bewegung reingekommen ist, dass man in der Übergangszeit mit Übergangslösungen arbeitet.

So hat AMD mit einer explizit auf Inline- Raytracing ausgelegten Hardware darauf gesetzt, dass demnächst die Titel nur auf wenig komplexe bzw. auf einen Effekt beschränkte Raytracing- Effekte zum Einsatz kommen werden.

Jetzt gibt es aber Minecraft RTX &co. und auch z.B. ein Cyberpunk mit multi- RT Effekten, teils Pathtracing und komplexen Shadern (3x darf man raten, warum CDPR beim Launch keine AMD Unterstützung anbietet...).

Die kriegen das (erst recht ohne DLSS) derzeit schlichtweg auf der AMD Hardware im Standard nicht akzeptabel lauffähig.
Die Umgestaltung der Shaderbatterie bzw. die Reorganisation der Renderengine um das zumindest im Ansatz zu ermöglichen ist sehr aufwändig und das Ergebnis wird trotz Upscale- Notlösungen auf mehreren Ebenen spürbar unterlegen sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra, gecan, Salamimander und 3 andere
@.Sentinel.

War das nicht die geschichte wo der Multicore Workaround eingeführt wurde und davin natürlich nur die schnelleren Karten profitieren konnten weil diese sonst in das CPU Limit des Spiels gerannt sind?
 
Wadenbeisser schrieb:
@.Sentinel.

War das nicht die geschichte wo der Multicore Workaround eingeführt wurde und davin natürlich nur die schnelleren Karten profitieren konnten weil diese sonst in das CPU Limit des Spiels gerannt sind?
Auch... Wir sind ja inzwischen in der fast schon bizarren Situation, dass die Engines tatsächlich wieder stark CPU- Abhängig sind, bzw. diese überhaupt begrenzen. Dem FPS- Wahn und den Streaming- Datenmassen (ohne Spezialprozessoren der Konsolen) sei dank.

DX11 hatte Mittel an Bord, um die Master- bzw. Renderthread- Problematik etwas zu entschärfen.
Mit DX12 kann man bereits (mit Abstrichen) eine Renderengine bauen, die den Renderthread (der im Normalfall immer die begrenzende Größe darstellt) auf mehrere Threads mit pro zusätzlichem Thread allerdings sinkendem Grenzertrag sinnvoll aufteilen kann.

RTRT/Pathtracing wird auch hier die Karten wieder komplett neu mischen. Multi- GPU bzw. GPUs mit vielen Chiplets sind die neue Magie.

Auf RTRT kannst Du Kerne und GPUs werfen, wie Du willst, ohne die Nachteile von Multi- GPU- Lösungen auf Rasterebene.

Es gibt wieder einen spürbaren Offload von CPU zur GPU.

Wir sind in der Übergangsphase, wissen aber bereits durch Intel, AMD und NVIDIA, dass sie genau in diese Richtung (Packaging/Chiplet) gehen.
Und ab da gibt es für das neue Primär- Rendering RTRT kein Halten mehr...
 
  • Gefällt mir
Reaktionen: PS828, gecan und captain kirk
Gibts eigentlich einen Bericht über das Spulenrasseln iwo? Ist ja nicht feierlich, dass da alle Highendkarten so stark davon betroffen sind, mich würde das tierisch nerven...
 
  • Gefällt mir
Reaktionen: Nefcairon
.Sentinel. schrieb:
Mit DX12 kann man bereits (mit Abstrichen) eine Renderengine bauen, die den Renderthread (der im Normalfall immer die begrenzende Größe darstellt) auf mehrere Threads mit pro zusätzlichem Thread allerdings sinkendem Grenzertrag sinnvoll aufteilen kann.
...
Ich wünschte mir Asobo bzw generell Microsoft hätte das als DX12 Vorreiter bei ihrem Vorzeigetitel dem Flightsimulator von Anfang an beherzigt ,und nicht erst alles auf DX11 aufgepflanzt

Denn hier sind die Frameraten und der Mehrkernsupport absolut unterirdisch

Hat man da mal was gehört warum sie sich für diesen konservativen Weg entschieden haben? Denn das war doch lange abzusehen ,das solch ein Titel hohe Anforderungen stellt

Hier hätte man mit DX12 gleich mehrere Fliegen mit einer Klappe schlagen können, und als Bonus noch DLSS um die Last zu verringern

Ich bin mal gespannt wie das mit dem VR Update laufen soll , bei der geringen Framerate gibts doch nur wieder Magenprobleme
Ergänzung ()

GerryB schrieb:
ggü. Stock?

Man bräuchte mal den ganzen Taktverlauf@Stock z.Vgl. und müsste sich auch den Vram mal mit 1-2 Settings genauer anschauen. Weiss net ob bei Jedem 2150 Fast am Besten läuft.

Bei den Hotspot-Temps bin ich mal gespannt ob Igor LM genommen hat.

btw.
PortRoyal hat bei GN@air ja auch net 1:1 mit dem PL skaliert.
Auch das der 12 Kerner, bei nahezu identischen Takt(5GHZ) ,und 4 nativen Kernen mehr, so schwach abschneidet ist merkwürdig.

Hier mal beide Systeme im direkten Vergleich

https://www.3dmark.com/compare/spy/16111977/spy/16096821#
 
Zuletzt bearbeitet:
DrFreaK666 schrieb:
Und wieso sollte man diese Spiele nicht in die Wertung miteinbeziehen? Kann CB doch nichts dafür dass es dort schlecht läuft
Ja, warum auch DrFreak. Und wenn das Spiel gar nicht läuft, tragen wir ne Null FPS ein und bewerten so die Leistungsfähigkeit der GPU.

Wozu verschwende ich überhaupt meine Zeit darauf zu antworten.
 
  • Gefällt mir
Reaktionen: DannyA4
Wann kommt der Test bezüglich der Apps 🤔
 
Ich habe gerade das Review von JayzTwoCents gesehen:
Der würde die 6900XT aus mmn nachvollziehbaren Gründen nicht empfehlen. Schade, bei den GPUs ist wohl idr Nvidia die bessere Wahl. Ich bin gespannt, was es alles an Hardware 2022 geben wird.
 
Tolle Leistung von AMD, das hätte ich vor einem halben Jahr nur zu hoffen gewagt.
2020 endet damit mit einem richtigen Paukenschlag.
Bin gespannt wann die Karten zu normalen Preisen zu erwerben sind.
 
  • Gefällt mir
Reaktionen: DannyA4
Zurück
Oben