News AMD RDNA 3: Navi 31 könnte mit 3 Modellen ab Oktober starten

Hmm, wollte eigentlich gerne ne 7700 XT für meinen 4k screen, weil mir die Leistung einer 6800 (XT) eigentlich ausreicht. Aber die 12 GB machen mich jetzt irgendwie nich so an.. hm. Dann vielleicht doch das Geld für ne 7800 in die Hand nehmen.. hoffe, die Preise gehen nich komplett an die Decke. :(
 
Ich hab echt noch lange überlegt, mir jetzt noch ne 6800XT zu holen und werde das vermutlich auch tun.
Die Leistungsaufnahme der nächsten Generation finde ich ausgesprochen unsexy, wie die Verfügbarkeit aussieht weiß kein Mensch und es ist eh mehr eine Sa he von wollen als brauchen*

* bei Grafikkarten imo eh ein sschwieriges Pflaster.
 
  • Gefällt mir
Reaktionen: Verak Drezzt
Xerxes-3.0 schrieb:
Ich hab echt noch lange überlegt, mir jetzt noch ne 6800XT zu holen und werde das vermutlich auch tun.
Die Leistungsaufnahme der nächsten Generation finde ich ausgesprochen unsexy,
Was verbraucht den die 7700 xt und wie sieht sie Leistung aus?


Rnda 3 soll bei gleichen Stromverbrauch 50% schneller sein. Auch wenn die high Karte 600-800w verbrauchen sollte heisst es nicht das alle Karten darauf ausgerichtet sind
 
so wie einige hier kalkulieren kann das durchaus Sinn machen, jetzt noch zur einer 6800XT zu greifen, vor allem wenn die 7700XT eh erst im Frühjahr 2023 aufschlägt und noch mit entsprechend hohen Early Adopter Preisen, sie zwar schneller sein könnte wie eine 6900XT, aber dann auch nur mit 12GB VRam daher kommt
Ergänzung ()

würde vielleicht noch den Release von den 79xx Karten im Oktober abwarten, damit die Preise dann bei RDNA2 noch etwas nach unten gehen

edit
ansonsten auch mal den Preis der 7900XT im Auge behalten, wenn diese nur "Spekulatius" 900€ oder gar weniger kostet, aber dafür 30% schneller als eine 6900XT ist, muss man aber schauen wie sich die Preise zu RDNA2 entwickeln
 
Zuletzt bearbeitet:
GerryB schrieb:
AMD hat zwar ein Patent angemeldet, wie dann die Aufteilung der Last/tiles erfolgen kann, aber ist wohl noch net genug erprobt.
AMD hat dazu 5 Patentanträge gestellt, von denen einer angenommen wurde:
  1. US20200409859 GPU CHIPLETS USING HIGH BANDWIDTH CROSSLINKS
  2. US20210097013 ACTIVE BRIDGE CHIPLET WITH INTEGRATED CACHE
  3. US20210098419 FABRICATING ACTIVE-BRIDGE-COUPLED GPU CHIPLETS
  4. 11232622 Data flow in a distributed graphics processing unit architecture
  5. US20220207827 SYSTEMS AND METHODS FOR DISTRIBUTED RENDERING USING TWO-LEVEL BINNING
In den MI200 wurde einiges entsprechend US20200409859 umgesetzt. Allerdings ist die MI nach außen 2 GPUs.
Zum 2., 3. und 5. gibt es Computerbase Artikel.

Es ist eben so, dass nicht alle Patente umgesetzt werden. Und falls es umgesetzt wird ist unklar wann es kommt. allerdings war die Gerüchteküche sind bis zum April einig dass AMD Navi 31 und Navi 32 mit 2 GCD umgesetzt werden. Als Greymon55 die Shaderanzahl nach unten korrigiert hat, bemerkte kopte7kimi dass dies auch mit einem GCD umsetzbar wäre. Seit dem ist die Multi-GPU-Geschichte in der Gerüchteküche nur ein noch Randthema.
GerryB schrieb:
Derzeit gibts nur einen Hauptchip und kleinere Chips für den Cache drumherum.
Sagte die Gerüchteküche vor 2 Monaten. Inzwischen hat eine leichte Änderung gegeben was MCD bedeuten soll.

Meine Sicht zur aktuelle Lage
https://www.computerbase.de/forum/t...ch-und-15-360-shader-an.2034273/post-27141366
 
  • Gefällt mir
Reaktionen: Colindo und GerryB
Easy1991 schrieb:
Was verbraucht den die 7700 xt und wie sieht sie Leistung aus?
Rnda 3 soll bei gleichen Stromverbrauch 50% schneller sein. Auch wenn die high Karte 600-800w verbrauchen sollte heisst es nicht das alle Karten darauf ausgerichtet sind
Es ist das Konglomerat aus Leistungsaufnahme, Verfügbarkeit und Preis, die alle noch Spekulation sind, aber die mich mit dem Gedanken einer 7800xt oder 7700xt nicht warm werden lassen. Außerdem sind die weltweiten Lieferkettenprobleme immer noch nicht ausgestanden. Klar kann ich auch falsch liegen. Zumal:

Verak Drezzt schrieb:
so wie einige hier kalkulieren kann das durchaus Sinn machen, jetzt noch zur einer 6800XT zu greifen, vor allem wenn die 7700XT eh erst im Frühjahr 2023 aufschlägt und noch mit entsprechend hohen Early Adopter Preisen, sie zwar schneller sein könnte wie eine 6900XT, aber dann auch nur mit 12GB VRam daher kommt
Ergänzung ()

würde vielleicht noch den Release von den 79xx Karten im Oktober abwarten, damit die Preise dann bei RDNA2 noch etwas nach unten gehen

edit
ansonsten auch mal den Preis der 7900XT im Auge behalten, wenn diese nur "Spekulatius" 900€ oder gar weniger kostet, aber dafür 30% schneller als eine 6900XT ist
Ist alles richtig. Dazu kommt aber: ich hab jetzt noch 5 Wochen Sommerferien und dann das erste Mal einen eigenen Leistungskurs als Tutor, da wirds dann bis Weihnachten einfach zeitlich schwierig. :D

Ob ich jetzt noch 780€ oder 700€ zahle ist zwar nicht egal, aber erträglich. Ich habs nur nicht eingesehen, >1000€ für ne Grafikkarte auszugeben. Es sollte halt nicht gänzlich bescheuert sein, was ich da tue
 
  • Gefällt mir
Reaktionen: _Flattermann_ und Verak Drezzt
Xerxes-3.0 schrieb:
Ob ich jetzt noch 780€ oder 700€ zahle ist zwar nicht egal
Kommt halt drauf an wo die 7900XT preislich im Oktober landet, wenn diese zu nem Kurs von 900€ kommen sollte, können die Händler keine 750-900€, für ne 6900XT oder ne 6800XT, mehr verlangen. Also kann schon gut sein das du ne 6800XT für 600-650€ dann bekommst, aber solang man dahingehend die Release Preise von den 79xx Karten nicht kennt, nur Spekulationen.
 
Zuletzt bearbeitet:
FreedomOfSpeech schrieb:
Gibt es auch schon Infos zum HDMI 2.1 Anschluss? 40GBit / 48GBit? ALLM? VRR? Alles was mit RDNA2 beworben aber bisher nicht eingeführt wurde.
Ist das so? Meinen LG OLED kann ich mit 120 Hz, VRR, 10 Bit und 4:4:4 über den Denon X1700 ohne Probleme mit der 6900XT betreiben. Ist aber zugebener Maßen auch nervig richtigen zertifizierte. Kabel zu finden.
 
Zuletzt bearbeitet:
meine vega 56 verbraucht unter 200w und hat neu ca. 260€ gekostet.

das hat die letzten 2 (oder 3?) generationen nichts getoppt und denke auch diese generation bietet nicht mehr leistung bei gleichem verbrauch und unter 300€.
egal bei welchem hersteller!
hoffentlich werd ich eines besserem belehrt. ansonsten gibs bald ne xbox sx anstatt aufrüsten + monitor
 
Pestplatte schrieb:
das hat die letzten 2 (oder 3?) generationen nichts getoppt und denke auch diese generation bietet nicht mehr leistung bei gleichem verbrauch und unter 300€.
Ja, für den preisbewussten Konsumenten ist Moore's Law praktisch tot. Die Vega 56 hat ca. 12 Milliarden Transistoren und eine RX6600 nur noch 11 Milliarden. Lediglich in der preisoffenen Klasse der High-End GPUs gibt es mit jeder Generation noch deutlich mehr Transistoren als zuvor. Der User, der nicht in der Enthusiasten Klasse kaufen möchte, bekommt also weniger Transistoren als zuvor, die entsprechend hoch getaktet müssen um überhaupt mehr Leistung bieten zu können. Die Effizienz bleibt dabei natürlich auf der Strecke.
 
  • Gefällt mir
Reaktionen: Viper816
Naja so schlimm sieht ne 6700XT/6800 non XT vom Verbrauch her jetzt auch nicht aus, wenn man mal von der doppelten Leistung einer 3050/Vega56 ausgeht

https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/#abschnitt_benchmarks_in_spielen

und wird sich wohl auch bei der nächsten Generation im Rahmen halten
Ergänzung ()

ansonsten was die Preise angeht, ist halt auch alles nur Angebot und Nachfrage solang die Preise gezahlt werden, wobei die Inflation auch mit rein spielt
 
Zuletzt bearbeitet:
Pestplatte schrieb:
hoffentlich werd ich eines besserem belehrt. ansonsten gibs bald ne xbox sx anstatt aufrüsten + monitor
Dann aber nur ohne Briefe schreiben oder Tabellen machen....
 
Verak Drezzt schrieb:
ansonsten was die Preise angeht, ist halt auch alles nur Angebot und Nachfrage solang die Preise gezahlt werden, wobei die Inflation auch mit rein spielt
in einem feld wie cpu/gpu wo sich die leistung alle 2-3 jahre verdoppelt, ist das aber kein argument.
wenn ich cpus vergleiche von vor 5 jahren in derselben preisklasse... da hat sich einiges getan.

und ich bin ja nicht schuld, dass das angebot der hersteller (menge und leistung) schlecht ist.
dazu kommt noch, dass ich glaube die akzeptanz stattgefunden hat, dass grafikkarten (jetzt auch "nach" corona) nicht bis 500€ gehen, sondern ab 500€
 
  • Gefällt mir
Reaktionen: ThePlayer
Verak Drezzt schrieb:
ansonsten was die Preise angeht, ist halt auch alles nur Angebot und Nachfrage solang die Preise gezahlt werden, wobei die Inflation auch mit rein spielt
Der Trend begann bereits vor Corona und hat mit den steigenden Kosten pro Transistor bei den neuen Fertigungsverfahren zu tun. Das ist der Grund, warum z.B. die Ryzen Dies nur etwa 100mm2 groß sind und nun Chiplets auch bei den GPUs Einzug halten. Hoffen wir, dass es etwas bringt. Man kann ja heute auch schon effizient unterwegs sein, wenn man z.B. eine 3090ti auf 200W TDP begrenzt Es macht ja für Nvidia und AMD keinen Sinn sich ein Marketingkonzept zu überlegen, wo man den Leuten gedrosselte High-End GPUs zum gleichen Preis wie die ungedrosselten verkaufen kann, mit der Begründung, dass sie ja wesentlich effizienter seien. Die Leute werden eh immer das Produkt mit der besseren Leistung kaufen.
 
Skjöll schrieb:
Dann aber nur ohne Briefe schreiben oder Tabellen machen....
wie meinen? am pc arbeiten bleibt ja erhalten, nur das zocken verschiebt sich
mit aufrüsten + monitor meinte ich neuen monitor von FHD zu WQHD oder 4K... die Leistung hat die Vega natürlich nicht
 
@FreedomOfSpeech mir ist der Zusammenhang zwischen: AMD kann nicht richtig HDMI 2.1 und es geht erst bei der CX Version von LG ganz hoch offiziell AMD Freesync nicht ganz klar. Im Handbuch vom C9 (dem ich vor dem CX übrigens selbst hatte) steht auch klar:

Unterstützt 4K @ 50/60 Hz (4:4:4, 4:2:2, 4:2:0)

In deinen Links geht es teils darum, dass mit custom setting nicht auf dem C9 VRR auf über 60Hz geht. Ich fürchte das liegt klar am Fernseher und nicht an der Radeon. Ich glaube auf den Umstand wurdest du nach kurzer Suche im Forum schon ein paar mal drauf hingewiesen. Hast du denn eine Quelle bei der steht, dass RDNA 2 nur 40 GBits/s auf dem HDMI Ports kann? Dann dürfte ja im Umkehrschluss mein setup nicht funktionieren…4K 120 Hz mit Freesync 4:4:4 subsampling 10 Bit + 7.1 Sound.
 
@Galatian

Mit dem Thema habe ich mich seit Dezember 2020 beschäftigt weil ich damals eine 6900XT ergattern konnte. Im übrigen auch eine PowerColor Ref wie du. :-)

Der C9 kann VRR und GSync. Letzteres sogar mit NVidia Turing Karten. AMD Karten konnten bisher auch beim CX, C1 und C2 nur Freesync, und kein echtes HDMI Forum VRR.

Auf dem C9 konnte man anfangs, auch ich, VRR mit einem Drittanbieter Tool names C.R.U. aktivieren, und z.B. Custom-Auflösungen erstellen, Wiederholfrequenzen anpassen, Freesync Range ändern usw. Daher wahrscheinlich deine Verwechslung bzgl "Custom". VRR lief mit dem Tool anstandslos.

Mit einem Treiber-Update hat AMD im Q1 2021 die Freischaltung aktiv unterbunden.
Mit dem neusten AMD Treiber geht jetzt bei allen OLED ab C9 HDMI Forum VRR.

Die 40GBit Anbindung habe ich von Swedish-Overclockers. Keine Ahnung mehr wie das rausgefunden haben, ein Hinweis war auch, dass die PS5 und XBOX die beide RDNA2 nutzen auch nur 40GBit angebunden sind,
ebenso wie alle mobilen RDNA2s.

Deine 4K120 4:4:4 10bit passen in 40Gb/s. Erst 12bit brauchen die 48Gb/s.
 
GerryB schrieb:
Mal über die Leute mit UWQHD nachgedacht?

Es gibt schon Games wo ne 6700xt zu schwach ist.

Das fällt bei mir unter die erwähnten GPU-Käufer mit Spezialanforderungen und diese gibt es sicherlich, aber eigentlich ist die RX 6800 nicht ganz 4K/UHD Oberklasse und etwas Overkill für (obere) Mittelklasse (WQHD) im Vergleich zu einer RX 6700XT, ergo untere Oberklasse.
Längerfristig (für 4+ Jahre) halte ich die RX 6800 XT für deutlich besser aufgestellt und ebenso die RX 6700 XT für die bessere Wahl, wenn man knapper bei Kasse ist oder in 2 Jahren spätestens wieder eine neue Grafikkarte zu kaufen gedenkt.


Zum frischen Leak von bis zu 20Gbps Speicher für RDNA3 GPUs zum Marktstart und vermutlich bis zu 24 Gbps GDDR6 erst bei einem Refresh in 2024 (Ende 2023 halte ich für eher unwahrscheinlich, zumal der RDNA2 Refresh erst ein paar Monate her ist), denke ich, dass man damit evt. die Krone gegenüber nVidia verlieren könnte, wenn es denn so kommen sollte.

Natürlich würde das Speicherkosten sparen und damit die Gewinnmarge erhöhen, aber ist das bei den zu erwarteten RX 7900 (XT) Karten (mit kolportierten Preisen ab ca. 1000 Euro und darüber) und den noch leistungsfähigeren Modellen zu viel erwartet gleich 24Gbps (wie vermutlich die Konkurrenz) zu bieten?
Gut, Reserven für einen spürbaren Leistungszuwachs bei Refresh-Karten zu haben ist sicherlich nicht verkehrt, aber es gäbe zu dem Zeitpunkt ja wahrscheinlich auch noch die Option auf GDDR7 im High-End-Gaming-GPU-Bereich zu setzen (nVidia könnte es wohl machen, aber vielleicht reicht denen auch ein noch schnellerer GDDR6X, wenn dieser denn dann bereit stünde).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
@FreedomOfSpeech auch ich hatte mich damit beschäftigt und es gibt einen klaren Grund (neben der Größe auf dem Schreibtisch) warum ich vom E9 55“ auf den CX 48“ umgestiegen bin. Mein Problem waren damals ganz klar Frequenzen > 60 Hz. Die gehen mit dem Panel zwar, aber der HDMI Port des Fernseher unterstützt es schlicht nicht (daher auch der Hinweis aus dem Handbuch). Man kann durchaus Filme auf Festplatte mit 120 Hz abspielen. Zur VRR Thematik gibt es bis Anfang des Jahres mehrer Updates von LG ich fürchte allerdings einfach, dass es immer noch nicht zufriedenstellend gelöst ist und das schlicht der HDMI Port am Fernseher nicht die Leistung erbringt. Im übrigen sagen genau das auch deine links sowohl bei Reddit als auch hier. So richtig sehe ich noch nicht wo es AMDs schuld ist. Ich sehe nicht wo die aktiv was im Treiber unterbunden haben Und wo das vor allem mit deiner ursprünglichen Aussage, dass der HDMI 2.1 Port sich bei RDNA 2 nicht an die Specs hält zusammenpasst.

Dazu auch HiFi.de

Einfache HDMI-2.1-Features wie ALLM und eARC findest du etwa seit Baujahr 2019 bei vielen TV-Geräten, die mit 4K und HDR sowie 120 Hz-Displays ausgestattet sind. HDMI mit VRR und 4K@120Hz kam erst ab 2020/2021 in entsprechenden TVs auf. Zum Beispiel beim OLED CX von LG oder dem Samsung Q90T.

Ich probiere probehalber aber gerne mal mein altes 3080 Notebook an E9 aus.
 
Zuletzt bearbeitet:
Zurück
Oben