Test RDNA 2 vs. RDNA vs. GCN im Test: IPC und CU-Skalierung bei Radeon RX seit GCN analysiert

brainDotExe schrieb:
Etwas OT, aber ich finde es unglaublich wie gut sich Hawaii heutzutage noch schlägt. Mit meiner 290X (8GB) kann ich noch so gut wie alles auf hohen oder höchsten Einstellungen in Full HD zocken. OK, bei manchen Spielen dann mit 30 fps, aber die Karte ist 7 Jahre alt.
Was auch damit zutun hat, dass heute die Spiele wesentlich mehr kleinteilige Shader ablaufen lassen als es noch früher der Fall war.

Es ist total interessant, wie sich in den letzten Jahren die Grafikqualität weiter "verbessert" hat - man sieht es nicht immer direkt - und wie viele Shader heute in einem Bild laufen und wie Feinteilig diese teilweise sind.
 
  • Gefällt mir
Reaktionen: .Sentinel. und brainDotExe
Viele User schreiben hier, dass die Grafikqualität gar nicht so stark gestiegen ist.
Selbst Raytracing wird oft abgelehnt, da klassische Methoden für viele ähnlich aussehen.

Ich selbst bin ein Fan neuer Technologien, und auch deshalb hier im Forum.

Aber wichtig ist der Spielspass, und NICHT die Hardware dahinter.
Ich habe z.B. mehr Spass mit meiner Switch, als mit der PS5.
Weil Nintendo einfach weiß, wie man geile Games macht.
Beim PC dagegen habe ich locker 100 Games bei Steam noch nicht einmal angespielt.....
Die kaufe ich über Humble Bundles billiger ein als früher Briefmarken.....

Bei der Switch dagegen habe ich jetzt schon über 15 Games zum Vollpreis eingekauft, mit heftigen Spielständen, mit sehr langer Spielzeit.....
 
  • Gefällt mir
Reaktionen: Tanzmusikus
matty2580 schrieb:
Aber wichtig ist der Spielspass, und NICHT die Hardware dahinter.
Ich habe z.B. mehr Spass mit meiner Switch, als mit der PS5.
Weil Nintendo einfach weiß, wie man geile Games macht.
Beim PC dagegen habe ich locker 100 Games bei Steam noch nicht einmal angespielt.....
Die kaufe ich über Humble Bundles billiger ein als früher Briefmarken.....
Und jetzt schließt du von dir auf andere?
Ich kenne genügen Familienväter die haben einen Gaming PC nur für ein oder zwei Spiele zu Hause, weil sie gar nicht mehr Zeit haben! Für viele war Anno 1800 ein Grund sich mal wieder mit Hardware zu beschäftigen und dafür Geld auszugeben.
Meine meiste Spielzeit geht für HoI IV und World of Warshps drauf, nicht unbedingt die Hardware Fresser.
Die Geschmäcker von Millionen sind verschieden!
 
Ich schließe NIEMALS von mir auf Andere....
Aber ich verfolge sehr interessiert alle Statistiken zu den einzelnen Märkten, wo CB immer aktuell dabei ist.

Natürlich verfolge ich auch die Erfolgsstatistiken zur Switch.
Und niemand kauft eine Switch wegen der "tollen" Hardware, sondern wegen der Games....
 
  • Gefällt mir
Reaktionen: Tanzmusikus
ilovebytes schrieb:
danke das hatte ich anders in Erinngerung, nämlich das als Fazit eben doch eine wenn auch nur leichte Limitierung durch den Cache rauskam, oder könnte es sein das es bei der 6900XT stärker auftritt ? und ich es deshalb so in Erinnerung habe ?

falls es da auch nicht das Problem ist, dann stellt sich halt doch wieder die Frage warum RDNA2 gerade in 4K etwas abfällt im Vergleich zu FHD und WHQD, liegt es doch daran das Nvidia bei höheren Auflösungen ihre CUs besser ausgelastet bekommt und darum im Vergleich besser performt ?
Jap so steht es auch im Test, umsohoher die Auslastung umso schlechter werden die CUs ausgelastet zwae alles nur bedingt aber da ist was dran.
 
Fighter1993 schrieb:
Jap so steht es auch im Test, umsohoher die Auslastung umso schlechter werden die CUs ausgelastet zwae alles nur bedingt aber da ist was dran.
Dann hast du anscheinend den Test nicht gelesen, da steht genau das Gegenteil!!
Zitat:
Damit bestätigt UHD, dass die Skalierung von RDNA 2 mit steigender Anzahl CUs nicht schlechter wird. Ganz im Gegenteil sogar: Mit 60 statt 40 respektive 72 statt 60 CUs werden rund 72 Prozent beziehungsweise 75 Prozent der zusätzlichen ALUs in mehr Leistung umgesetzt und der Sprung von 72 auf 80 hat immer noch eine Effizienz von 73 Prozent.
weiter:
Damit lässt sich grob sagen, dass RDNA 2 unabhängig von der Gesamtzahl der ALUs diese in Ultra HD im Bereich zwischen 72 und 75 Prozent zu mehr Performance umsetzen kann. In Full HD beträgt die „Effizienz“ 55 bis 56 Prozent, in WQHD sind es 60 bis 66 Prozent. Die geringen Unterschiede in den einzelnen Auflösungen zeigen, dass sowohl Front-End als auch Speicherbandbreite bei RDNA 2 so gewählt sind, dass selbst 80 CUs problemlos mit genug Daten gefüllt werden können.

Das AMD in 4K gegenüber Nvidia abfällt liegt daran, das ihre GPUs wesentlich weniger CUs/ALUs haben und auch um einiges kleiner sind, effizienter sind sie auf alle Fälle, sonst könnten sie mit weniger CUs/ALUs nicht fast die gleiche Leistung erreichen.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
DonL_ schrieb:
Das AMD in 4K gegenüber Nvidia abfällt liegt daran, das ihre GPUs wesentlich weniger CUs/ALUs haben und auch um einiges kleiner sind, effizienter sind sie auf alle Fälle, sonst könnten sie mit weniger CUs/ALUs nicht fast die gleiche Leistung erreichen.
Man kann es auch anders Ausdrücken:

AMD hat die IPC bei ihren Karten so gut erhöht, dass sie endlich auch mal ihre TFlop auf die Straße bringen, während NVIDIA nicht an ihrer IPC gearbeitet haben, sondern drastisch ihre TFLop hoch geschraubt haben.

2 * 64 * 80 * 2,25 GHz = 23,04 TFLOP/s. (6900 XT)
2 * 128 * 82 * 1,695 GHz = 35,58 TFLOP/s. (RTX 3090)

Und trotzdem sind beide ca. gleich schnell im Mittel. Bisher kannten wir es halt anders rum. Wobei hier IPC hier nicht unbedingt der richtige Begriff ist. Hier kommt es ja eher darauf an, dass man die Vektoren passend befüllen kann.

Man braucht genug Vektoren - Threads - und entsprechend Werte (Länge/Breite). GCN krankte an der Menge der Vektoren - Ampere krankt nun an der Breite der Vektoren.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, DonL_ und Iscaran
Lange Zeit war es genau anders herum, AMD hatte die deutlich schlechtere IPC als Nvidia.
Und nun hat Nvidia die schlechtere IPC mit Ampere, und AMD lastet die Shader besser aus.
Dazu kommt, dass Nvidia auch die schlechtere Fertigung hat.
7nm bei TSMC ist deutlich besser als 8nm bei Samsung, was ja nur ein verbesserter 10nm Prozess bei Samsung ist.

Aber die Wahl von Nvidia war trotzdem richtig.
Da nicht allein der Fertigung, sondern besonders die Kapazität entscheidend ist.
Nvidia kann viel besser liefern, wie Marktanalysten, z.B. von JPR, anzeigen, oder die Steam Statistik.

Was nutzt es AMD wenn man gleichwertige Produkte hat, die Konkurrenz aber viel bessern liefern kann?
Die 6700 XT war innerhalb von Minuten ausverkauft....

Es gibt gar keine bezahlbaren GPUs von AMD, aber neue Konsolen, die in Wellen von Tausenden zur UVP zu kauft werden.
 
Zuletzt bearbeitet von einem Moderator:
matty2580 schrieb:
Nvidia kann viel besser liefern, wie Marktanalysten, z.B. von JPR, anzeigen, oder die Steam Statistik.
Na ja ... wirklich liefbar ist keiner der Hersteller und man braucht bei beiden Glück, da die Scalper als auch Miner das Zeug direkt weg kaufen.

3060: 800 - 950 €, 6700 XT 800 - 950 € bereits bei den Händlern.
 
Ich kenne die Entwicklung am GPU-Markt.....
Du brauchst das für mich nicht extra wiederholen....

Trotzdem stehen Wellen neuer Konsolen, die zu tausenden zur UVP verkauft werden, einigen wenigen neuen halbwegs bezahlbaren GPUs gegenüber.....
 
  • Gefällt mir
Reaktionen: IronAngel
Wenn man davon spricht, dass ein Anbieter viel besser liefern kann und man selbst dann entsprechend bei den eigenen Großhändlern als auch Systemhäusern anruft und dort nur kommt: "Nope", dann ist das bild, was du hier vermitteln willst, zwar nicht unbedingt falsch, aber für die meisten hier vollkommen irrelevant.

Und dass du gerne mit deinem Wissen glänzt, ist mir bekannt. Dass das oft dann mehr Schein als Sein ist aber auch. Daher: Viel Spaß.
 
  • Gefällt mir
Reaktionen: Kodak, Booby, Rage und 2 andere
matty2580 schrieb:
Die Zielsetzung bei Nvidia war ganz klar 4k Gaming.
Was ja auch gut ist.
Nach wie vor ist die am meisten verbreitete Auflösung 1080p.
WQHD war/ist nach wie vor eine Nische.
Deswegen werden die Karten ja auch hauptsächlich von 4K Gamern gekauft, richtig?
 
Teralios schrieb:
AMD hat die IPC bei ihren Karten so gut erhöht, dass sie endlich auch mal ihre TFlop auf die Straße bringen
Wobei man, wenn man sich den Vergleich 5700XT vs 6700XT @2 GHz anschaut, sieht es ja so aus, als wäre die IPC gesunken.
 
Ich schrieb davon, dass aktuell beim PC immer noch mit weitem Abstand 1080p die wichtigste Auflösung ist, während Sony Patch für Patch für alle großen IPs 4k mit mindestens 60 fps nachliefert.

Und ja, für die PC Masterrace ist das extrem peinlich.
Hier wird 4k noch lange eine Nische bleiben....

Und um zum Thema zurück zu kommen, der Fokus von Nvidia war eindeutig 4k, auch wenn die Masse GPUs kaufen wird, wo eher WQHD empfohlen wird.
 
Taxxor schrieb:
Wobei man, wenn man sich den Vergleich 5700XT vs 6700XT @2 GHz anschaut, sieht es ja so aus, als wäre die IPC gesunken.
Ja, dass ist sie auch, was daran liegt, dass man die Pipeline ein wenig verlängert hat um noch höhere Takte erreichen zu können.

Man muss da immer auch abwägen: Wie viel Takt gewinne ich gegenüber dem "IPC" Verlust.
 
  • Gefällt mir
Reaktionen: DonL_ und .Sentinel.
matty2580 schrieb:
Und ja, für die PC Masterrace ist das extrem peinlich.
Hier wird 4k noch lange eine Nische bleiben....
Warum sollte das peinlich sein? Die 4K 60FPS Low/Medium Settings der PS5 sehen immer noch schlechter aus und fühlen sich schlechter an als meine 1440p 120FPS High Settings.
Ergänzung ()

Teralios schrieb:
Ja, dass ist sie auch, was daran liegt, dass man die Pipeline ein wenig verlängert hat um noch höhere Takte erreichen zu können.

Man muss da immer auch abwägen: Wie viel Takt gewinne ich gegenüber dem "IPC" Verlust.
Die Karten müssten doch eigentlich viel effizienter geworden sein wenn man den Takt nur auf sagen wir 2,2GHz maximal gesetzt und dafür die IPC erhöht hätte.

Wenn man diese aber sogar absichtlich etwas verschlechtert, um noch höhere Taktraten zu erreichen und so auf die Leistung zu kommen auf Kosten eines deutlich höheren Verbrauchs, dann sieht das für mich so aus, als hätte es gar keine Chancen auf bessere IPC bei RDNA2 gegeben.
 
Zuletzt bearbeitet:
Final Fantasy 7 Remake wird das nächste Spiel sein, wo man gut PC mit der Konsole vergleichen kann.
Seiten wie Digital Foundry werden das bestimmt auch machen, wie schon bei Assassins Creed.
https://www.pcgameshardware.de/Assa.../Assassins-Creed-Valhalla-PS5-Grafik-1363101/
Und Sony setzt keine Tricks ein, im Gegenteil bietet zu echten 4k, 60 fps, noch zusätzliche Effekte an.
Ein Mittelklasse PC, der aktuell ein kleines Vermögen kostet, wird da niemals für 499€ mithalten können.
 
Er wird es einfach nie verstehen. Selbst die Digital Foundry Videos, wo bei den PC/Konsolen vergleichen alles vorgekaut wird, versteht er anscheinend nicht.
 
Fighter1993 schrieb:
Jap so steht es auch im Test, umsohoher die Auslastung umso schlechter werden die CUs ausgelastet zwae alles nur bedingt aber da ist was dran.
Das hat weniger was mit Auslastung zu tun, als dass Ampere, wenn auch nur unter bestimmten Voraussetzungen, dann doch deutlich mehr Shader (Hardware) zum Abarbeiten der Shader (Software) hat.

In Raytracing und mit zunehmender Shaderlast in hohen Auflösungen setzt sich Ampere deshalb ab. Setzt man zusätzlich beim Entwickeln/Kompilieren auf Operationen mit FP, kann der Unterschied sogar ziemlich deutlich ausfallen.

Das macht man als Entwickler aber (noch) nicht, da sonst die Vorgängergenerationen an Grafikkarten und auch die anderen Plattformen (RNDA/2) nicht mehr so performant laufen würden. Da ist die "Massenkompatibilität" dann doch wichtiger als das Optimieren auf Ampere (sorry nvidia).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fighter1993
Das ist halt immer das Problem mit der Optimierung. Nur auf eine Architektur entwickeln ist halt blöd weil es auf den anderen Plattformen auch schnell laufen soll.

Und für alles einen separaten Pfad der Optimierung mit Hardware-Erkennung programmieren wird wohl kaum einer machen.
 
Zurück
Oben