Test iGPUs von AMD im Vergleich: Radeon 780M vs. Z1 Extreme (ROG Ally) vs. Radeon 680M

Chismon schrieb:
mit RDNA4 hoffen, aber das ist ja noch ein Weilchen (ca. 1,5 Jahre wohl) hin und bis die passenden Ultrabooks/Notebooks dann mit RDNA4 APUs am Start sind wohl eher 2,5 Jahre (solange haelt hoffentlich noch mein R7 4800U basiertes Laptop durch) und mehr echte Herstellerauswahl; waere zudem noch zu begruessen.
Könnte vielleicht noch etwas mehr sein. Da erst Rdna 3.5 auf den Markt kommt.

Auch wenn viele etwas enttäuscht sind was die rdna3 Igpu Leistung betrifft.
Wenn man aber den Notebook Bereich ausklammert und nur den Desktop Bereich betrachtet. Ist diese Apu ein Riesen Sprung, von Vega auf Rdna3. Und das diese Apu auf dem Desktop erscheint, ist laut Gerüchten gesetzt.
 
Chismon schrieb:
RDNA3 lohnt sich auch bei den iGPUs/APUs nicht wirklich, wie es scheint, aber das war aufgrund des eher mageren Leistungszuwacheses bei den Desktop(-Chip)-Karten von RDNA2 zu RDNA3 wohl auch zu erwarten.
Da sich zwischen 680M und der 780M quasi nur der interne ALU-Aufbau sowie der Takt geändert hat. Und ohne die Taktraten in den Spielen hier zu haben, kann man hier nicht so viel sagen, woran es denn hängt.

Auch die Aufteilung der TDP und Bandbreite zwischen CPU und GPU kann hier eine Rolle spielen. Das Steamdeck hat zwar auch nur 128 Bit - also klassisches Dual-Channel - aber aufgeteilt in 4 * 32, was hier auch von Vorteil sein kann.
mkl1 schrieb:
Arrow Lake kommt viel später, das ist noch kein Thema. Aber Meteor Lake-P mitsamt Xe LPG GT2 sollte mit 680M/780M konkurrieren können.
Kommt am Ende auf die genaue Zusammensetzung an und ob Intel den L4 für alle APUs aktiviert oder nur bei bestimmten und wie viel es am Ende auch ist.

Philste schrieb:
WENN Intel es schafft die GPU zu füttern, sei es durch L4 oder sonst was.
Das ist der einzige Knackpunkt und aktuell auch der Punkt, der die 780M hier weit unter den Erwartungen ins Ziel laufen lässt. Der "L4"-Cache wird hier helfen können, das hat man auch bereits bei den ehemaligen Iris Pro gesehen in der Haswell und Broadwell-Generation.
Philste schrieb:
Meteor Lake bringt 33% mehr EUs und Gerüchtehalber 50% mehr Takt.
Und am Ende muss die Bandbreite passen, dass genug Daten ankommen. Sowohl Takt als auch die EU sind hier aktuell eher nebensächlich. Das Interessante ist der "L4".
Philste schrieb:
Plus die Architekturverbesserungen durch den Switch auf Alchemist sollte man da bei gut doppelter Leistung rauskommen und damit auch ~25% über Phoenix.
Die reinen Architekturverbesserungen können hier am Ende genauso wie bei RDNA3 verpuffen, weil die Änderungen für sich notwendig sind, aber eben nicht direkt die Leistung betreffen, sondern an andere Stelle ihre Wirkung haben.

Man sollte an dieser Stelle auch nicht "unterschlagen", dass die 780M und die APU theoretisch mit LPDDR5 7500 betrieben werden können. Bisher sieht man die 780M mit vergleichsweise "schwachem" RAM.
guggi4 schrieb:
Das ist aber auch sehr optimistisch gerechnet, dass selbst iGPUs nicht perfekt skalieren hat man ja bereits öfter gesehen (Vega 8 -> 11, 660M -> 680M, auch bei den Intels)
Die EU/CU sind in dem Fall aber eher weniger das Skalierungsproblem. Genauso der Takt. Probleme kommen hier durch die Speicherbandbreite/Datenversorgung sowie ggf. die TDP und damit die Verteilung auf CPU und GPU.

ETI1120 schrieb:
Und welchen Unterschied macht es für den Compiler ob er nun zusätzliche CUs füttern muss oder Dual Issue füttern muss?
Es macht für den Compiler keinen Unterschied, das habe ich an der Stelle aber auch nicht geschrieben.

Die zusätzlichen CUs werden durch den Treiber und dem dortigen Scheduler gefüttert, die neuen Vec-ALUs wiederum werden vom Compiler gefüttert, in dem wer entsprechend entweder genug Rechenoperationen für die Dual-Issues Ausführung findet und parallelisieren kann, oder genug Daten für einen Wave64 zusammen kommen.

Bei mehr CUs müssen mehr Threads zusammen kommen, bei den umgebauten ALUs mehr Daten pro ALU. Und dass "letzteres" nicht wirklich optimal funktioniert, erkennt man an Ampere nun Ada und eben auch RDNA3. Ampere, Ada und auch RDNA3 schaffen es erst bei hohen Auflösungen pro Task genug Daten zusammen bekommen. AMD kann hier noch Dual-Issues anführen, aber dafür muss halt genug Anweisungen gefunden werden, die parallel ausgeführt werden können.

Und bei so kleinen GPUs wie hier - also die iGPUs - muss man sich um die Anzahl der Tasks wenig sorgen machen, für die Auslastung der mehr an Shader pro CU aber sehr wohl.
ETI1120 schrieb:
Navi 31 hat gegenüber Navi 21 was die CU anbelangt gut skaliert.
Genau, Navi31 hat gut mit der Anzahl der CU skaliert, weil bei modernen Engines genug Threads zusammen kommen. Navi31 benötigt 192 Threads, damit die GPU gut ausgelastet wird, das ist heute möglich.

Mit der Anzahl der Shader hat aber damals weder Ampere noch jetzt mit Ada wirklich gut skaliert und auch RDNA3 nicht und genau das sieht man auch bei der iGPU.

Die Anzahl der CU wäre hier "einfacher", die neuen Vec in RDNA3 sind sehr stark auf den Compiler angewiesen und auch von der Auflösung.

Aber die Probleme bei der 780M scheint eher an andere Stelle zu liegen. Ich bin mal auf die Taktrateng gespannt.
 
  • Gefällt mir
Reaktionen: guzzisti
Ich habe auch mal einen kleinen Test durchgeführt,
da ich folgende 2 Geräte Besitze.

  • Minisforum UM773 SE (Ryzen 7 7735HS Zen3+, Radeon 680M RDNA2, 32GB DDR5-4800)
  • Beelink GTR7 (Ryzen 7 7840HS Zen 4, Radeon 780M RDNA 3, 32GB DDR5-5600)

Habe auf beiden Geräten den intenen Benchmark von Far Cry 6 laufen lassen.

Wie bereits von anderen angegeben, gibt es aktuell für die 780M
keinen offiziellen Treiber von AMD; der genutzte ist ein propietärer Treiber von Beelink.
 

Anhänge

  • b_niedrig.jpg
    b_niedrig.jpg
    323,4 KB · Aufrufe: 266
  • b_mittel.jpg
    b_mittel.jpg
    323,3 KB · Aufrufe: 267
  • b_hoch.jpg
    b_hoch.jpg
    315,4 KB · Aufrufe: 265
  • b_ultra.jpg
    b_ultra.jpg
    299,3 KB · Aufrufe: 264
  • Gefällt mir
Reaktionen: Herrenlos, mightyplow, iSight2TheBlind und 4 andere
DevPandi schrieb:
Die EU/CU sind in dem Fall aber eher weniger das Skalierungsproblem. Genauso der Takt. Probleme kommen hier durch die Speicherbandbreite/Datenversorgung sowie ggf. die TDP und damit die Verteilung auf CPU und GPU.
Da hab ich mich eventuell zu kurz und undeutlich mit dem "selbst iGPUs" ausgedrückt. Gemeint war, dass auch iGPUs selten perfekt mit zusätzlichen Ausführungseinheiten skalieren, allerdings nicht aus den selben Gründen wie im dGPU Highend, sondern aus den von dir genannten Gründen. Deswegen fand ich @Philste s Einschätzung eher auf der optimistischen Seite. Ich rechne eher mit einem Patt (Intel wird auch nicht zaubern können und AMD bis dahin noch etwas aus der 780m herausholen)

DevPandi schrieb:
Aber die Probleme bei der 780M scheint eher an andere Stelle zu liegen.
Davon gehe ich auch aus.
Wenn man sich Navi33 gegen Navi23 ansieht, hätte RNDA3 durchaus die Fähigkeit, bei minimal besserer Fertigung leicht schneller und sparsamer zu sein. Dass jetzt eine 780m bei deutlichem Fertigungssprung komplett auf der Stelle treten soll, wirkt seltsam.
Wenn man sich die aktuelle Treibersituation (Bugs bei Navi31, immer noch eigener Treiber für Navi33, kein Treiber für 780m auf der Webseite) ansieht, könnte da durchaus noch einiges an Potential brachliegen.
 
@KWMM das ist doch ein ordentlicher Leistungszuwachs in diesem Spiel für Rdna3. 15-24% Leistungszuwachs.

Könntest du das auch in einer höheren Auflösung testen? Der AMD Treiber kann ja VSR.
 
Cark schrieb:
Laut den Gerüchten soll Meteor Lake Phoenix Point deutlich schlagen aber gegen Strix Point mit 16 CU's und RDNA 3.5 2024 dann wieder unterlegen sein.

Das wäre dann wenigstens ein kurzer Genuss des Sieges.


Strix Point wird noch lange auf sich warten lassen, Phoenix muss erstmal richtig in den Markt kommen. Mehr als 1-2 Modelle von Asus gibt es noch nicht. Diese Modelle, so wie ich das sehe, sind mit einer dGPU ausgestattet. Von der U-Serie ist noch gar nichts zu sehen. Letztes Jahr hatte jeder getönt Meteor Lake wäre viel zu spät, weil ja AMD zur CES Phoenix bringt. Bei AMD klaffen Ankündigung/launch und tatsächliche Verfügbarkeit sehr weit auseinander im Notebook Segment. Hier sollte man ein wenig realistisch bleiben.

Davon abgesehen bezweifle ich, dass Meteor Lake AMD mit 680M/780M deutlich schlagen kann oder wird. Das wird sich maximal innerhalb von 10-20% abspielen. Es sei denn, Intel bringt tatsächlich spezielle Modelle mit L4. Im Moment ist nicht davon auszugehen. Außerdem wären die sehr teuer. War damals beim edram auch so. Für eine große Serie ist das nicht lukrativ. Intel spart sich ja schon die GT2 ein bei MTL-M/U.
 
  • Gefällt mir
Reaktionen: Cark
mkl1 schrieb:
Mehr als 1-2 Modelle von Asus gibt es noch nicht
Dazu kommt noch das Razer Model und von Hp gibt es auch schon ein paar Modelle.

Wenn man nur die Apu betrachtet kommen dazu noch 3 Handheld Hersteller und 2-3 Mini PCs.

Ja, sehr wenig immer noch. Aber anscheinend ist der Startpunkt erst so richtig mit dem Versand Tag des Rog ally losgegangen.

Asus hat bei AMD immer schon vorrangig mobile Hardware bekommen. Auch der maximal Ausbau des Vorgängers durfte Adus fast 6monate alleine für sich beanspruchen. Danach wurden erst weitere Hersteller beliefert.
 
Northstar2710 schrieb:
Ja, sehr wenig immer noch. Aber anscheinend ist der Startpunkt erst so richtig mit dem Versand Tag des Rog ally losgegangen.
So langsam geht es los, das stimmt. Aber die Tatsache, dass es A noch keine Treiber gibt und B auch Tools wie HWInfo immer noch nicht den GPU Takt auslesen können, zeigt doch, daß da irgendetwas faul ist/war. Es kommt einem beinahe so vor, als hätte AMD gar nicht vorgehabt, die Dinger letztendlich zu verkaufen, sondern nur mal was schönes ankündigen.

Ich hoffe nur, dass man nächstes Jahr auf der CES endlich mal von einer neuen Ankündigung absieht und sich nicht weiter lächerlich macht. Dann muss man halt kleinere Brötchen backen und nicht jedes Jahr ne neue Gen launchen. Klappt im Desktop ja auch.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
mkl1 schrieb:
Davon abgesehen bezweifle ich, dass Meteor Lake AMD mit 680M/780M deutlich schlagen kann oder wird. Das wird sich maximal innerhalb von 10-20% abspielen. Es sei denn, Intel bringt tatsächlich spezielle Modelle mit L4. Im Moment ist nicht davon auszugehen. Außerdem wären die sehr teuer. War damals beim edram auch so. Für eine große Serie ist das nicht lukrativ. Intel spart sich ja schon die GT2 ein bei MTL-M/U.
Ich bin schon überzeugt davon das Phoenix Point unterlegen ist nur wie groß/klein der Abstand sein wird ist halt die Frage. Hätte AMD mit Phoenix nicht auf der Stelle getreten, wäre ich anderer Meinung. Die 1100 mobile Serie war ja mit der 5000 H/U Serie fast gleich auf. Da Phoenix nur ein wenig mehr Leistung bringt als Rembrandt, hinkt Intel von der igpu Leistung ja nicht 2 Generationen hinterher, sondern eher so 1 Generation und ein bisschen. Es gibt z.B auch Test, wo ein 6900hx mit 6000 MHZ RAM läuft. Da gibt es manchmal gar keine Mehrleistung mehr von den 7x40 Modellen.
 
Eine 128eu Variante soll ja laut Hardware Analyse an Phoenix rankommen. Es soll aber auch eine 192eu starke Version geben.

Wann /wie und ob diese überhaupt in Notebooks platzfindet oder nur in Intel extrem nucs. Werden wir wohl irgendwann erfahren. Dadurch das sich Phoenix Point so stark verzögert hat ist es natürlich etwas schade.
 
Northstar2710 schrieb:
Es soll aber auch eine 192eu starke Version geben.
Das wäre ja richtig stark! Laut meinen Wissensstand wurden die 192eu bei Meteor Lake nicht erreicht und es werden doch nur 128eu. Hast du da Quellen von diesen Monat dazu?
 
@Northstar2710

Wenn das so kommen sollte wäre das doch nice, noch eine 192eu Version zu haben. Den Artikel von Ende Mai/Anfang Juni habe ich jetzt nicht gefunden. Jedenfalls ging es darum das Intel seine Folien aktualisiert hat und beim GPU tile anstatt 96-192eu nur noch 96-128eu steht. Man wird mehr im September oder schon etwas früher wissen.
 
Die 192 EUs sind schon lange vom Tisch. Mit den 128EUs verdoppeln sie aber die Rechenleistung auf dem Papier (2.25Ghz@128EU= 4608 TFLOPS vs 1.5Ghz@96EU=2304 TFLOPS). Eine fps Verdopplung sieht man aber in der Regel nicht, zumindest nicht ohne große IPC Verbesserungen an der GPU. IPC Verbesserungen von Xe LPG lässt sich noch nicht abschätzen und Bandbreitenlimitierung auch nicht. Vielleicht bleiben von 2x Tflop Verbesserung nur 60-80% fps übrig, mal sehen.
 
mkl1 schrieb:
Vielleicht bleiben von 2x Tflop Verbesserung nur 60-80% fps übrig, mal sehen.
Es kann auch weniger übrig bleiben. Die IPC ist hier im übrigen nicht so "ganz" der Faktor, sondern wie gut die ALUs ausgelastet werden können, besser: wie gut die SIMD mit Daten befüllt werden können.

Der Takt wird auf jeden Fall relativ guit ankommen, alles darüber hinaus, wird man sehen müssen.
 
Die Architektur muss natürlich auf Skalierung ausgelegt sein. Ich erinnere nur an die Gen7.5 GT3 mit 40EUs. Von den theoretischen 2x sind am Ende vielleicht 1.5x übrig geblieben. Dagegen wurde der theoretische 2x Sprung von Icelake Gen11 zu Tigerlake Gen12 fast 1:1 in fps umgesetzt, weil es gleichzeitig einen größeren Architektur Sprung gab. Xe ist ja generell auf bessere Skalierbarkeit ausgelegt, Xe HPG umso mehr als Xe LP, vor allem wegen der Reduzierung von 96 EUs auf 64 EUs pro slice.

Wenn es schlecht läuft können es auch nur 50% werden, aber das erwarte ich nicht. Ich würde eher erwarten, dass die iGPU Version von Alchemist besser läuft als bei den dGPUs. PCIe und GDDR6 war Neuland für Intel und das ist eine Schwachstelle gewesen. Ein anderes Beispiel ist DG1/Iris Xe MAX, also praktisch die PCIe Version von der Xe LP iGPU. Die Performance war oft deutlich schlechter, sehr deutlich sogar.
 
mkl1 schrieb:
Die Architektur muss natürlich auf Skalierung ausgelegt sein.
Ja und Nein, du musst an der Stelle aufpassen, von welcher Skalierbarkeit du sprichst. So wie du hier an das Thema heran gehst, könnte man die Skalierbarkeit der Hardware meinen und die ist hier nur sekundär ein Problem.
mkl1 schrieb:
Xe ist ja generell auf bessere Skalierbarkeit ausgelegt, Xe HPG umso mehr als Xe LP, vor allem wegen der Reduzierung von 96 EUs auf 64 EUs pro slice.
Egal wie gut du die Architektur auf Skalierbarkeit auslegst, du musst in so einem Fall immer zwei Ebenen betrachten: Software und Hardware.

Du kannst auf Hardware-Ebene eine gute Architektur habe, die sehr gut skalierbar ist, am Ende scheitert die Skalierbarkeit dann aber auf Software-Ebene. Das sehen wir heute zum Beispiel bedingt bei CPUs, die in den letzten Jahren ja immer mehr Kerne bekommen haben, aber im Consumerbereich diese Leistung kaum ankommt.

Man kann sich dafür auch GCN, RDNA und nun RDNA3 ansehen und die Änderungen. GCN - Vega - hatte in den CU 4 * Vec16 und jede Vec16 benötigt einen eigenen Task, also pro CU 4 Tasks. Entsprechend benötigte die Rage als audch Vega dann bei dem maximal Ausbau 256 Tasks, damit jede der ALU ausgelastet wird. Daher war die Skalierung von Vega56 zu Vega64 nicht so gut, wie man es dachte.

Dann der Sprung von GCN zu RDNA: Statt 4 * Vec16 gibt es nur noch 2 * Vec32 und damit waren nur noch 2 Tasks notwendig. Resultat: 5700 XT mit 2560 Shader bei 1,9 GHz ca. 15 - 30 % schneller war als die Vega64 mit 4096 Shader bei 1,5 GHz. - 37,5 % Shader, dafür ca. 26 % mehr Takt.

Die 5700 XT hätte von den Eckdaten her "langsamer" sein müsse war aber schneller. Dank der "besseren" Organistation der Shader war dann der Sprung von 5700 XT zur 6900 XT dann fast "perfekt" - 100 % CU + 15 % Takt resultierten in 80 - 115 % mehr Leistung, also quasi eine fast perfekte Skalierung.

Und jetzt? Die 7900 XTX legt auf die 6900 XT fast 140 % an Shadern zu, es kommen aber gerade mal im besten Fall 40 % an. Oder nimm die 3090 zur 2080 Ti, über 100 % Shader, resultierten hier in je nach Auflösung in 30 - 50 %. Und wenn du es prominenter magst:

4090 zur 3090 Ti: 16384 zu 10752 Shader (50 % mehr), 2,5 GHz gegen 1,8 GHz: 38 % mehr Takt. Am Ende skaliert das mit 40 - 60 %. Theoretisch - wenn das alles "perfekt" skaliert, hätte hier etwas von 80 - 107 % ankommen müssen.

Um eine GPU auszulasten brauchst du genug Vektoren und in jedem Vektor genug Elemente. Es kommt am Ende halt auch bei Intel darauf an, wie sie die EU ggf. umgebaut haben. Das kann ein Mega Bumbs werden oder ein laues Lüftchen.
 
Artikel-Update: Zur besseren Einordnung der iGPU-Ergebnisse enthält der Parcours jetzt auch Ergebnisse der beiden Desktop-Grafikkarten GeForce RTX 1060 (6 GB) und Radeon RX 570 (4 GB).
 
  • Gefällt mir
Reaktionen: Plage, bad_sign, Holgmann75 und 5 andere
Das sind Desktop-Grafikkarten, aber Mobil-APUs, kann sein, dass die Desktop-Variante der APU etwas schneller wird, wenn 65W TDP ausgenutzt werden. Aber generell werden Grafikkarten mit 256 Bit Bus Interface immer einen Vorteill haben, gegenüber 128 Bit geteiltem Speicherbus.
 
Ja die Desktop Apu wird interessant, aber ob da wirklich noch viel geht glaube ich nicht. Allerdings wenn man einen 5700g einbezieht währen das Welten.
 
Zurück
Oben