Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

Anhänge

  • Opera Momentaufnahme_2020-10-29_143033_www.computerbase.de.png
    Opera Momentaufnahme_2020-10-29_143033_www.computerbase.de.png
    58,2 KB · Aufrufe: 232
  • Gefällt mir
Reaktionen: Papabär
  • Gefällt mir
Reaktionen: Otsy, Mcr-King, Papabär und eine weitere Person
BlackRain85 schrieb:
Und das Custom Design mit UVP 549 € kostet dann was ??? 😂 😂 😂 😂

mindestens 677 Euro bei Caseking. Hatte ich schn gepostet genau dasselbe Modell. Naja wers braucht. Price/Performance Charts sollten dann an den aktuellen Wasserstand angepasst werden.
 
  • Gefällt mir
Reaktionen: bugmum, Mcr-King und Papabär
TempeltonPeck schrieb:
Kann mir bitte jemand erklären warum immer wieder nach 16+x VRAM geschriehen wird?

Weil es nunmal schon jetzt Spiele gibt für die 10GB nicht immer ausreichen. Ich kaufe meine GPUs immer für die nächsten paar Jahre. Da kaufe ich dann doch keine GPU die je nach Spiel schon jetzt zu wenig VRam hat.
 
  • Gefällt mir
Reaktionen: Dittsche und Stellarix
  • Gefällt mir
Reaktionen: iceshield, Dittsche, Mcr-King und eine weitere Person
Dirt 5 beeindruckt mich irgendwie gar nicht, FH4 gefällt mir immer noch einiges besser.
Und wenn ich ich die Vergleiche zwischen Raytracing on/off sehe, weiss ich dass das für mich nie ein Kaufargument sein wird. (aber da gehöre ich sicher zur bescheidenen Minderheit)
 
  • Gefällt mir
Reaktionen: Gonzo28, godfuture und Mcr-King
Unabhängig davon was die leisten, finde ich die Preise schon hoch für ne gpu. Einstieg mit 579$ ist schon happig..
 
  • Gefällt mir
Reaktionen: eXe777, Pisaro und godfuture
  • Gefällt mir
Reaktionen: Norebo und mc_ace
Colindo schrieb:
Das frage ich mich immer noch. Hatte das Paper, dass du gefunden hattest, durchgearbeitet und denke, dass das eine tolle Technik ist. Wahrscheinlich kommt noch ein Artikel von mir dazu, auch wenn der InfinityCache wohl deutlich mehr IPC-Gewinn gebracht hat..

Ich frage mich ob es ueberhaupt implementiert ist. Es wurde nicht erwaehnt bei der Vorstellung und die technischen Details waren natuerlich eh ziemlich mager. Den Infinity Cache mit 128MB konnte man natuerlich super auf der Folie platzieren, den Rest eher nicht. Ich hoffe da kommt bald mehr an technischen Details.

Teralios schrieb:
Ich sag es ganz ehrlich: Ich rate da nicht, sondern warte ab.

Dann nenne es spekulieren. ;)

Teralios schrieb:
Im gewissen Sinn haben sie ja die »dynamischen« CU bereits bei RDNA mit der WGP/DualCU eingeführt. Wie weit es nun durch die neue Cache-Hiarchie erweitert wurde? Keine Ahnung. Ich muss die Papers sehen, dann kann ich es genauer einschätzen.

Es gab ein Paper dazu und ich habe es in einem anderen Thread auch verlinkt. Aber keine Ahnung mehr in welchem und den Link selber habe ich nicht gespeichert. Vielleicht hat @Colindo den noch. Es gint auch nicht um die Cache-Hierarchie oder aehnliches, sondern, dass der L1 cache der CUs miteinander geteilt wird. In dem dazugehoerigen Patent wird auch klar beschrieben wie das ganze funktionieren soll. CUs koennen in ein Cluster gepackt werden und dort ihren L1 Cache sharen. Man versucht CUs so zu clustern, dass das was sie berechnen aehnlich genug ist. Cluster werden dynamisch neu gestaltet sobald die Hit Rate unter einen, wohl fixen, Wert faellt. Im Endeffekt man versuch Cache Misses schon auf dem Level des L1 Caches zu vermeiden. Aehnlich dem was sie mit dem Infinity Cache machen.

Teralios schrieb:
Das 128 MB zusätzlicher Cache den Bandbreitennachteil von 256-Bit gegenüber 384-Bit ausgleichen kann? Auf jeden Fall, ob es am Ende die »doppelte« Leistung ist? Jein! Es kommt da auf einige Sachen an. Ich mutmaße nicht umsonst, dass der Infinity-Cache als auch Smart-Access »Nachfolger« des HBCC sind.

AM als HBCC Nachfolger, bzw. darauf aufbauend, ja. Aber die 128MB sehen mir sehr nach einem recht "einfachen" Cache aus. Mir ist durchaus klar, dass ein Cache riesige Unterschiede machen kann. Haetten sie gesagt man kann ein 384 Bit Interface ausgleichen, klar, kein Ding wenn der Cache so gross ist. Aber die doppelte Leistung?! Dafuer muessten sie massiv die Miss Rate senken. Und da frage ich mich halt ob das L1 Sharing schon mit reinspielt. Was natuerlich auch geht, den 128MB Cache vorausschauend fuellen.

Teralios schrieb:
RDNA hat bereits massiv beim Cache zugelegt. L0-Caches für die CU (vormals L1), pro Shader Engine ein gemeinsamer L1-Cache von 128 KiB und dann ein großer L2-Cache von 4 MiB. Bereits hier zeigte sich, was AMD vorhat um die GPU unabhängiger von der Bandbreite sowie Latenz des Speicherinterfaces abzukoppeln.

Das ist mir schon klar, aber Cache ist auch nicht unbedingt klein, bzw. guenstig. Es hat schon einen Grund warum man nicht einfach die CPU oder GPU komplett mit Cache zukleistert. Zumal, je naeher der Cache an der Execution Unit ist, desto schneller er sein sollte. Aber ich tippe auch darauf, dass es AMD nicht nur um das Speicherinterface geht, sondern schon um ein Chiplet Design. Da kann man mit einem ordentlichen Cache einiges abfangen.

Teralios schrieb:
Nimmt man jetzt HBCC - die Grundlage - wendet diese auf die Caches L1 bis zum VRAM an und setzt noch den »Infintiy Cache« als L3 mit 128 MiB dazwischen, dann kann man da wunderbar mit den »Pages« arbeiten.

Dazu kommt, dass AMD mit Vega einen »Tiled-Based-Render« eingeführt hat im Treiber und mit RDNA ben der Wechsle von Wave64 zu Wave32.

Geht man nun einzeln an die Sachen ran, dann ist das alles »unspektakulär«, betrachtet man aber alle im Kontext, verstehe ich langsam, warum sowohl Vega als auch Navi am Anfang »durchwachsen« waren.

HBCC = VRAM <-> System-RAM, nette Idee. Brachte im VRAM-Limit etwas. Die Grundlage der »Pages« als kleinste Block der verwaltet wird, bietet einiges an Potenzial.

DSBR = Umstieg auf einen Tiled-Based-Render. Damals noch 1. Generation. Daher durchaus »Fehleranfällig«. Gleichzeitig, wird das Bild in passende Happen geteilt. Man denke nun an die »Pages« beim HBCC.

Wave64 => Wave32 = Feinere Granulierung bei den Shader-Threads auf der GPU. Bessere Auslastung der ALUs und »kleinere« Datenhunger pro Wave.

Man koennte es auch zusammenfassen mit: Sie stimmen die Komponenten aufeinander ab. ;) War auch dringend noetig. Ich finde auch SAM recht interessant, das duerfte direkt von den Konsolen kommen. Mich wundert es nur warum das so spaet kommt. Allerdings frage ich mich was genau die CPU da macht. Man hat da immer noch PCIe als Bottleneck, da man Daten hin- und herschieben muss. Allerdings spart man sich den Umweg ueber den RAM. Man koennte gewisse Sachen natuerlich intelligenter platzieren, bzw. auswaehlen.

Teralios schrieb:
Gehen wir nun auf die Pages zurück: DSBR als auch die Umstellung auf Wave32 veringern die »Datenmenge« die pro Tile als auch eben pro Shader benötigt werden. Sieht man sich nun die Pages von HBCC an: Mich würde es nicht wundern, wenn AMD nun eben diesen Pages-Ansatz vom L1 bis zum VRAM nutzt und Pages entsprechend der Tiles aufbaut und im Infinity-Cache die Pages der Tiles aufbewahrt, die nun berechnet werden und dann die Tiles in den L2 und L1 verschieben.

Genau so denke ich auch, dass man darauf achtet, dass Shader einer Tile primär in derselben Shader-Engine ablaufen, so dass man die Querverbindung nutzen kann.

Koennte hinhauen. Im Endeffekt legen sie sich auf ein(e) "Protokoll/Einheit" fest und optimieren jede Komponente darauf. Und so wie es aussieht skaliert es ziemlich gut, was auch positiv fuer die naechste Generation ist. Es ist nicht der Holzhammer, das ist klar. Den hat jemand anderes rausgeholt.

Teralios schrieb:
Aber alles jetzt »Rätelsraten«, ich warte auf die Papers!

Aber das ist doch der ganze Spass dabei! Aber ja, Papers zur Architektur werden interessant.

WilliTheSmith schrieb:
Ich bin gespannt auf die Benchmarks. Ich hoffe nur, dass der Infinity Cache nicht für schlechtere min FPS sorgt. Und dass man die Grafikkarte gut in einer VM nutzen kann (hallo FLR-Bug?), ohne viel Leistung zu verlieren. Die Ansage, dass man mit einem Ryzen 5000 nochmal etwas mehr Leistung hat, macht mir da z.B. sorgen. Zwar wird in meinem nächsten PC ein 5950 drin stecken, aber das Windows wird nur in einer VM mit 8 per KVM durchgereichten Kernen laufen.

Das ist aber auch ein recht spezieller Fall. Wenn du in deinem virtualisierten Windows spielen willst koennte das ein Problem sein, ja. Es ist noch offen wieviel da vom Betriebssystem/Treiber kommen muss. AMD hat bisher nur davon geredet, dass man es im BIOS aktiviert. Ich bezweifle auch, dass Tests darauf eingehen werden. Wenn du aber die Zeit und Musse hast, dann probier es aus und berichte davon!

Finde die Situation auch gerade etwas unguenstig, aber aus anderen Gruenden. Mir reichen die 11GB meiner 1080Ti in Machine Learning nicht mehr. AMD hat die sinnvolleren Karten vom VRAM her, aber der Support von ROCm in Frameworks ist nicht ganz so berauschend. Zumal ROCm nicht auf Windows laeuft. Die einzige Karte die von Nvidia in frage kommt kostet allerdings mindestens 1.5k. Nein, danke. Derzeit sieht es danach aus, dass ich die die 1080Ti ins NAS stecke und das dann dafuer nutze. Oder ganz irre, zwei Karten in den Hauptrechner. xD
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: s0UL1, Colindo und Mcr-King
Anti-Virus schrieb:
Unabhängig davon was die leisten, finde ich die Preise schon hoch für ne gpu. Einstieg mit 579$ ist schon happig..
Seit wann ist eine RX 6800 eine Einstiegs GPU? Da werden Anfang nächstes Jahr mit Sicherheit noch günstigere Modelle kommen.
 
  • Gefällt mir
Reaktionen: Nefcairon, Otsy, bugmum und 2 andere
sifusanders schrieb:
kriegst für den Preis doch auch keine 3070 :=)
Das stimmt, war eine generelle Kritik bezogen auf die Preise aller Grafikkarten, welche natürlich noch höher ausfallen würden, wenn amd nicht konkurrenzfähig wäre. :)
 
  • Gefällt mir
Reaktionen: sifusanders und Mcr-King
Anti-Virus schrieb:
Unabhängig davon was die leisten, finde ich die Preise schon hoch für ne gpu. Einstieg mit 579$ ist schon happig..
Ist ja nicht so, dass die keine günstigeren RX 6700 6600 und evtl 6500 Reihen rausbringen werden.
 
  • Gefällt mir
Reaktionen: Mcr-King
Colindo schrieb:
Ich meine im Video wurde gesagt, dass es L3 ist. Und das besondere ist ja, dass man Energie spart und trotzdem schneller ist als ein 512bit-Interface gewesen wäre. Das muss man erstmal so designen können.

Das ist klar. Analog dazu wäre das wie ein 128MB L3 Cache im CPU und dafür aber statt Dual Channel DDR4 nur Single Channel. Das spart auch ggf etwas Energie, und funktioniert über weite Strecken ggf manchmal sogar besser - aber manchmal auch schlechter wenn man einen Cache Miss hat.

Die Frage ist also wie viel dieser zB 10 Gb VRAM Nutzung im Game überhaupt relevant zugegriffen werden müssen um Performancetechnisch einen Unterschied zu machen. Caching kann ja auch proaktiv erfolgen, also braucht es eine Vorhersage was als nächstes wieder gebraucht wird usw..

Wenn ich die 10GB belegten VRAM vollkommen random immer wieder abrufen müsste dann würden die 128 MB wenig bringen, dann wäre ein breiteres SI wie es Nvidia hat besser (da im Schnitt dann der Zugriff schneller ist).

Wenn ich aber von den 10GB VRAM Belegung die selben 50MB in 99% der Zugriffe brauche dann machen 128MB natürlich extrem viel Sinn und sind sogar schneller.

AMD wird also schon wissen wie die VRAM Zugriffe im Schnitt aussehen und wie viel Cache notwendig ist um die geringere SI Bandbreite zu kaschieren oder sogar zum Benefit zu wandeln.
 
  • Gefällt mir
Reaktionen: bad_sign, Colindo und Herdware
Vitali.Metzger schrieb:
Seit wann ist eine RX 6800 eine Einstiegs GPU? Da werden Anfang nächstes Jahr mit Sicherheit noch günstigere Modelle kommen.
sehr richtig, Navi22 ist ja schon entdeckt. Wird denke ich zur CES 2021 Januar angekündigt.
 
  • Gefällt mir
Reaktionen: Mcr-King
Hoffentlich halten sich die Probleme mit Treibern und irgendwelchen Screens und sonstigen Problemen in Grenzen. Dann steht einer AMD Karte nichts mehr im Weg. Hab ja noch ~6 Monate Zeit.
Da die AMD Karten wohl noch einen weiteren Boost durch ein 5er Board und Zen3 erhalten, ist das schon mal ein kleiner Schritt Richtung Steigerung wie mit DLSS. Da ich das Board schon habe und Zen3 ebenso geplant ist, hört sich das schon mal nach einem Plan an und mit 16GB Vram nach einer Karte die 4-5 Jahre zu gebrauchen ist.
 
Mcr-King schrieb:
Nee der Igor hat dazu andere Informationen wo nach sogar Costums der RX6800 XT an die RX6900 XT rankommen. 😉

Das hab ich auch schon gedacht/spekuliert - man hole sich eine 6800xt, schalte Rage + SAM ein (bei SAM die Minderheit die es kann - Intel komplett aussen vor und alles ohne 500er AMD Chipsatz auch) und komme mittels Custom Werks OC auf 6900xt Niveau...
Schließlich wurde die 6900xt im Gegensatz zur 6800xt mit Rage + SAM gebencht) und ohne rutscht die 6900xt sozusagen auf Custom 6800xt Niveau ab...

Die 6800xt scheint einfach die Karte zu sein, die AMD mit Macht verkaufen will!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Delirus
Krautmaster schrieb:
AMD wird also schon wissen wie die VRAM Zugriffe im Schnitt aussehen und wie viel Cache notwendig ist um die geringere SI Bandbreite zu kaschieren oder sogar zum Benefit zu wandeln.

Ich kann mir gut Vorstellen, dass man bei GPUs/VRAM sogar besser vorhersagen kann als bei CPUs/RAM, welche Daten am besten im Cache gehalten werden. Da gibt es ja immer die selben, recht ausgeprägt unterschiedliche Arten von Daten (Texturen, Tiefeninformationen, Zwischenspeicher für Berechnungen/Shader usw.), die wahrscheinlich sehr unterschiedliche Anforderungen an die Bandbreite haben und auf die verschieden oft zugegriffen werden muss. Wenn das intelligent gehandhabt wird, ist da sicher viel herauszuholen.

Trotzdem sollte man bei Werbe-Aussagen, die zeigen sollen wie effektiv ein Cache ist, immer etwas skeptisch sein. Auch wenn die Angaben korrekt sind, kann man wunderbar Rosinen rauspicken und Benchmarks wählen, wo der Cache nahezu 100% greift, die aber mit der Realität nicht unbedingt viel zu tun haben müssen.
 
Zurück
Oben