Test AMD Radeon 680M im Test: Die Ryzen-6000-iGPU mit RDNA 2 auf dem Prüfstand

wenig mit dem stromverbrauch getestet.

Wie hoch ist der Idle-Verbrauch, und beim Twitch/Netflix 1080p gucken usw (zB mit 50% Helligkeit). Wie lange hält der Akku?!
 
Eine Desktop-APU mit 4c/8t, RDNA2 und 6GB GDDR6X mit 105W TDP wäre ein Traum.
 
Jan schrieb:
Die Anschlüsse haben sich gegenüber den Vorgängern nicht groß verändert, der Kartenleser wurde aber auf UHS-II-microSD aufgewertet.
Der Vorgänger hatte gar keinen Kartenleser, deswegen ist die Neuerung, dass überhaupt einer eingebaut wurde.
Quelle: Ich schreibe dies auf dem 2021er Modell.
 
  • Gefällt mir
Reaktionen: Excel, Apocalypse und Jan
Schade das kein vergleich mitn gtx760 gtx 960 gtx1050 und gtx1050ti gemacht wurde
Die 680m muss bei 3,3tf etwas schneller sein und fast die gtx770 erreichen (gtx1050ti)
ich hatte eine gtx760 mit 1152shader bei 1,1ghz=2,5tf
Eine gtx1050ti hat 2,1tf aber mehr bandbreite am ende sind beide gpu gleich schnell
Da wäre ein vergleich interessant
Die gtx770 hatte 3,3tf mit 1536 shadern
Das müsste passen sofern der ram nicht limitiert.
 
  • Gefällt mir
Reaktionen: dpauso
Ein reiner Vergleich von iGPUs wäre langweilig gewesen, denn bei dem Vergleich sieht die Intel iGPU nur AMDs Auspuff.
Naja, beim nächsten Mal klappt es dann vielleicht.
Dass man damit auch noch einfachen dGPUs das Wasser reicht finde ich toll, es schont Ressourcen und reicht für die meisten Anwendungsfälle völlig aus.
 
mastakilla91 schrieb:
Mit Super Resolution
nur dass das, wie auch DLSS, keine Hilfe ist, um die Leistungsfähigkeit einer GPU einzuschätzen.

Natürlich setzen AMD und auch Nvidia gerne auf diese Technologien, sei es als reine Softwarelösung, oder als relativ einfach zu realisierende Hardwarelösung, da sie so mehr FPS aus weniger leistungsstarker Hardware herausholen können, was ja auch nicht verwerflich ist.
Aber aus der Sicht der Hardwareinteressierten, ist das einfach eher ein kleines Foulspiel, welches halt im realen Spiel nicht gepfiffen wird.
 
  • Gefällt mir
Reaktionen: Ray Donovan, Porty47 und Apocalypse
Hmmm...
Gerade ein Lenovo Yoga Slim 7 Pro mit einem 5900HX gekauft. 😅
Ob ich doch noch hätte warten sollen?
 
Schade das ihr Fortnite nicht nochmal mit niedrigen Details getestet habt. Ich hatte mit dem 3200G bei, glaub ich niedrigen oder mittleren Details @ FHD rund 70fps durchgehend. Mal mehr, mal weniger je nach Ort.
Wenn ich das nächste mal an den Rechner komme probiere ich mal hohe Details. 30 fps Durchschnitt sind schon sehr schwach - das ist ja schlechter als der Vorgänger!
Ich selbst teste solche Rechner meistens mit CSGO und je nach Einsatzzweck auch mit Fortnite. Lassen sich beide relativ schnell installieren und für CSGO gibts sogar eine Benchmark-Map.

Ansonsten find ich das Gerät wirklich sehr schick! Könnte mir auch gefallen.
edit: warte mal...war das nicht der laptop mit dem "matrix-display" im deckel - wenns nicht so viel kohle wäre, hätte ich den schon hier stehen^^
 
Zuletzt bearbeitet:
Ich kann die Rufe nach einem "mehr" bei der iGPU Leistung nur bedingt nachvollziehen.

Für mich sollte die iGPU moderne Auflösungen (4k), 2 externe Monitore, moderne Codecs beherschen und dabei möglichst wenig Strom verbrauchen.

Klar sind annehmbare Fps bei allem ausser AAA Spielen dabei auch gerne gesehen, aber jede dedizierte GPU im Notebook bringt ein vielfaches an Leistung wenn man daran interessiert ist.

Der Ruf nach einem Leistungswunder führt nur zu Absurditäten im mobilen Bereich.
 
  • Gefällt mir
Reaktionen: bensen
Zeitwächter schrieb:
größeren Cache á la Infinity Cache
Teuer, teuer und teuer.
Ich weiß ja nicht, wieviel der L3 Cache da hilft, der dürfte ja hoffentlich auch der Navi helfen
 
Mal aus purer Neugier:

Beherrschen AMDs iGPUs auch Video-Encoding?
 
ThinkPad X13 Gen3 AMD
Mit Linux. Praktisch bestellt, wenn Lenovo keinen Mist baut.

Steamdeck quasi, nur mit guter Tastatur statt Analogsticks.
 
  • Gefällt mir
Reaktionen: Asznee, Tacheles und Deinorius
mastakilla91 schrieb:
Bedenkt, dass es hierbei lediglich um die Leistung von nativem 1080p handelt.
Mit Super Resolution kriegen wir nochmal ca. 50% mehr Leistung raus.
FSR bzw Auflösungsreduzierung bringt mit sinkender Originalauflösung(also in absoluten Zahlen weniger Unterschied bei den Pixeln, die nicht berechnet werden müssen) immer weniger Performancevorteile.

Die Auflösung von 2160p auf 1080p zu reduzieren, bringt ne ganze Menge, während eine Reduzierung von 1080p auf 540p deutlich weniger bringt.

Am meisten profitieren dazu noch RT Games, die bei dieser APU aber sowieso außen vor sein werden. Für non-RT Games kann man mit FSR UQ in 1080p so mit ca 20% mehr rechnen und muss dabei bereits ordentliche Abstriche bei der Bildqualität machen.
Für 50% müsstest du meist schon tatsächlich auf FSR Performance und damit 540p gehen.
 
Zeitwächter schrieb:
Warum designen sie nicht APUs mit integriertem Speicher für die GPU? Oder zumindest ein größeren Cache á la Infinity Cache?
Ich denke damit würde die APU erneut wesentlich bessere Performance auf die Straße bringen können.
Das wäre für den APU Nachfolger für das nächste Steam Deck eine Option. Da wir mittlerweile wissen, dass die APU ein Custom Design für Valve ist, wäre ein Infinity Cache durchaus eine Option.
Und obwohl ich mir einen Infinity Cache für die Laptop APUs auch gewünscht hätte, verstehe ich, dass das aus ökonomischer wenig Sinn macht. So stark wird die GPU Leistung nicht verwendet. Wer Grafikleistung (ob für CAD, Rendering und natürlich Games) im Laptop braucht, kauft sich halt ein Modell mit dGPU.
Vielleicht überrascht uns AMD ja sogar in Zukunft. Ich würde mich freuen, aber vielleicht steht schon dieses Jahr ein Laptop Kauf an, die Hardware (hoffe auf USB 4 Reviews mit externer GPU, sobald die Zertifizierung durch ist winkwink @Jan ;)) passt jetzt endlich (IMHO).

jusaca schrieb:
Sehr nice, ich freue mich vor allem, dass AV1 nun auch bei AMD in HW unterstützt wird. Damit steht einer zunehmenden Verbreitung ja nun nicht mehr viel im Weg.
Doch, Qualcomm fehlt noch immer! Warum auch immer und das stört mich gewaltig. Qualcomm ist in diesem Sinne eigentlich noch wichtiger als Intel/AMD/nvidia.
 
Von den Ergebnissen ausgehend, dürften die 6CU`s+DDR5 dann ca. auf dem Niveau der Vega mit 8 CU`s liegen, was ich absolut Top finde. Dazu aktuelle Decoder, was will man mehr.

Wünschen würde ich mir evtl. noch 1-2 Games mit FSR.
Oder auch den Takt von 2400 MHZ in 200MHZ senken um zu sehen, ab welchem Punkt der Speicher anfängt zu limitieren, wobei könnte mir vorstellen, das Igor sowas in der Art machen wird ;) .

Dann bin ich mal auf die Preise der Desktop Versionen gespannt. Würde den 3400G mal langsam auswechseln und so ein 6C12T + 6 CU`S wäre schon was feines.

Taxxor schrieb:
Die Auflösung von 2160p auf 1080p zu reduzieren, bringt ne ganze Menge, während eine Reduzierung von 1080p auf 540p deutlich weniger bringt.
Vielleicht schafft man, zumindest im Desktopbereich dann 1440p + FSR.
Wäre in meinen Augen auch schon eine Steigerung gegen 1080p nativ, wobei das noch zu testen wäre.
 
Zuletzt bearbeitet:
@Jan
Ein paar Fragen oder auch Anmerkungen:
QHD+ ? Wenn ich das google lande ich beim Wiki Artikel und da heißt es 3200x1800 in 16:9? Wieso gibt man nicht einfach die Auflösung hier an?
Und beim RAM: "(DDR5-4800, 8 GB verlötet, 8 GB als SO-DIMM)" 8GB sind verlötet und weitere 8GB sind es nicht? Das heißt beim upgraden hat man immer "krumme" Ramverteilung?! Das ist ja mega mies. Wieso macht man das?!


Und sobald Speicherbandbreite zählt, wird im Vergleich zur Konkurrenz mit GDDR5/6 hingegen auch DDR5 zum Flaschenhals
Hier hätte wohl ein größerer Cache oder Infinity Cache viel geholfen?!

ruckelt die Radeon 680M am Ende sogar doppelt so schnell durch den Test.
lol...
 
Zuletzt bearbeitet:
Macht Lust auf mehr. Ich hätte gerne noch dieses Jahr einen 32C Zen 4 Desktop Chip am liebsten ohne eigene IO Die und sparsamen Idle Verbrauch.
Auch Mini PCs auf der 6XXX Serie könnten richtig gut werden.
 
  • Gefällt mir
Reaktionen: IBISXI und Inxession
Schade das es keinen Vergleich der Effizienz gibt. Klar ist ne 3050 mobile schneller aber mit 60 Watt und Prozessor oben drauf wahrscheinlich weit über dem Budget der APU von AMD.

LTP hatte dazu nen interessanten Test gemacht, bei dem andere Kombinationen auf das selbe Powerlimit gesetzt wurden und da hat AMD erst Recht mit Intel aufgeräumt.
 
Zurück
Oben