Test AMD Radeon 680M im Test: Die Ryzen-6000-iGPU mit RDNA 2 auf dem Prüfstand

Nagilum99 schrieb:
Jeder der Ahnung von den Architekturen hat, hat nie erwartet, dass da ein Infinitycache vorhanden sein wird.
Ähm, kann man so nicht schreiben, Jeder der Ahnung von den Architekturen hat, hätte gehofft, das AMD einen "L4-Cache" einbaut, den die GPU und CPU nutzen kann, aber nicht unbedingt damit gerechnet.

Und wer weiß, vielleicht wird AMD sogar irgendwann etwas wie ein "Pro" raus bringen, der einen entsprechenden Cache auch hat.
Nagilum99 schrieb:
SRAM ist immer schon Stromfresser gewesen und HBM lässt sich nicht mal eben und/oder günstig unterbringen.
Natürlich wäre die Leistung deutlich höher, aber eben nicht ohne Nebeneffekte.
... Nein! Einfach nur Nein! SRAM verbraucht weit weniger Energie, als ein "externer" HBM-Baustein und ebenso weniger als ein GDDR6 oder GDDR6X Baustein.

Caches in der CPU verbrauchen viel weniger als ein externer Baustein mit einem entsprechenden Controller. Das Problem ist eher, dass diese Caches Transistoren kosten und damit im Zweifle teuer werden.
Nagilum99 schrieb:
Das dient dazu Multicore CPUs besser bedienen zu können und hat rein gar nichts mit erhöhter Bandbreite zu tun.
Nein, das ist so nicht richtig. Die Aufteilung von 64 Bit auf 2 * 32 Bit hat nichts damit zutun "Multicore-CPUs" besser bedienen zu können und genauso wenig soll damit die Bandbreite erhöht werden, sondern es soll die Auslastung verbessern und es so ermöglichen näher an die theortische Bandbreite zu kommen.

Ebenso sollen damit Wartezeiten und Co optimiert/verringert werden. Davon profitierne Multicore-CPUs - richtig - aber davon profitiert auch ein einzelner Kern, weil man mehre Operationen auf den Arbeitsspeicher gleichzeitig ausführen kann.

bensen schrieb:
Zeit wann ist SRAM ein Stromfresser? Jeder Speicherzugriff der nicht off-Die zum DRAM muss spart Energie.
Ein dicker SRAM würde den Chip sparsamer machen.
Absolut ichtig, einer der Gründe, warum RDNA diesen dicken Cache hat. Zudem kann man den Cache auch deutlich schneller ansprechen, als zusätzlich über einen Controller zugehen.

HBM benötigt einen Controller, GDDR6 benötigt einen Controller. Oder man muss den Speichecontroller entsprechend anpassen.

Ein Systemcache, wie im M1, macht da bei der CPU als L4 und als L3 für die iGPU mehr sind.
 
  • Gefällt mir
Reaktionen: Colindo und k0n
flaphoschi schrieb:
Frage:
Test des WLAN-Chips?
Lenovo hat lieber Intels WiFi/Bluetooth verbaut als Realtek. Und laufen diese gut mit Linux?

Atheros war bisher halt eine sichere Bank für AMD und Linux. Aber aus Gründen wollen sie das nicht mehr.

Wer sind sie und was sind das fuer Gruende? Wenn ich mir https://en.wikipedia.org/wiki/Comparison_of_open-source_wireless_drivers so anschaue, gibt es fuer ath genauso freie Treiber wie fuer iwl* (Intel wireless), und fuer einige davon braucht es nicht einmal proprietaere Firmware (anders als bei iwl*).
 
oh man oh man, warum bauen die da noch eine extra Grafikkarte ein? Weg mit dem Gaming-Müll. Ich will nur die neue CPU, ballert alle Leistung, die kühlbar ist, auf die rauf. Das würde ein so geil flaches, leistungsstarkes Workstation-Notebook werden. Her mit dem CPU-Test!!
 
  • Gefällt mir
Reaktionen: Asznee und Jonis
MPQ schrieb:
oh man oh man, warum bauen die da noch eine extra Grafikkarte ein?
Weil das Zephyrus nun mal ein Gaming-Notebook ist? Es werden natürlich auch Geräte ohne dedizierte GPU kommen.
 
  • Gefällt mir
Reaktionen: Powl_0
Xes schrieb:
Eine GTX 1050Ti wäre vermutlich knapp gleichschnell wie die 680M gewesen und ein viel besserer Vergleich,
1050 Ti gefunden. Benchmarks kommen zum/am WE.

D0185F84-ABB0-4828-A47B-328B0BBD6015.jpeg



Download Anno 1800 und AoE 4 läuft. CS:GO dito @pabu.rar
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iNFECTED_pHILZ, CuMeC, Zwirbelkatz und 16 andere
MPQ schrieb:
Her mit dem CPU-Test!!

Was erwartest du?

Ca. 10% werden mehr kommen (im Besten Fall). Die erkauft man sich über mehr Takt, bessere Kühlung oder mehr Verbrauch.

Auf der CPU Seite sind eher kleinere Verbesserungen passiert, die bei gleichem Takt und gleicher Stromaufnahme in etwa Gewinne bringen, die man unter "Messtoleranz" einstufen kann.

Der DDR5 RAM, bringt bei Notebooks auf der CPU Seite mit den Latenzen echt wenig.

mfg
 
Weil auch der GeForce RTX 3050 Laptop GPU 4 GB im Raytracing-Benchmark 3DMark Port Royal der Speicher ausgeht, ruckelt die Radeon 680M am Ende sogar doppelt so schnell durch den Test.
Wie kann das eigentlich sein? Wenn der Grafikspeicher ausgeht, sollte es doch auf den Systemspeicher ausgelagert werden, und der Grafikspeicher und Systemspeicher müssten doch zusammen immer noch schneller sein als ein Grafikchip mit nur Systemspeicher? Oder kommt es hier zu noch größeren Performanceeinbrüchen, weil 2 verschiedene Speicher angesteuert müssen anstatt immer nur derselbe 1 Speicher (wie bei der 680m - trotz dass dieser langsamer ist)?

PS: auf den Vergleich mit der 1050ti bin ich auch gespannt.
 
Zuletzt bearbeitet von einem Moderator:
franzerich schrieb:
Wie kann das eigentlich sein? Wenn der Grafikspeicher ausgeht, sollte es doch auf den Systemspeicher ausgelagert werden, und der Grafikspeicher und Systemspeicher müssten doch zusammen immer noch schneller sein als ein Grafikchip mit nur Systemspeicher?
Bedenke: Zum RAM kommt die 3050 nur über PCIe - das ist das Problem.
 
  • Gefällt mir
Reaktionen: [wege]mini, andi_sco, bensen und eine weitere Person
mae schrieb:
Wer sind sie und was sind das fuer Gruende? Wenn ich mir https://en.wikipedia.org/wiki/Comparison_of_open-source_wireless_drivers so anschaue, gibt es fuer ath genauso freie Treiber wie fuer iwl* (Intel wireless), und fuer einige davon braucht es nicht einmal proprietaere Firmware (anders als bei iwl*).
Zuerst: Realtek war natürlich falsch, MediaTek ist AMDs Partner bei WiFi.

Ich in Schwammig geblieben, weil die Hintergründe auch für mich schwammig sind. Atheros gehört seit bald zehn Jahren zu Qualcomm und anders als Qualcomm hat Atheros einen hervorragenden Ruf bei der Unterstützung von Linux und bei WiFi generell. Damals hätte ich sogar spekuliert, das Qualcomm mal AMD aufkaufen würde, wenn AMD es nicht schafft. AMD hat es geschafft - und wie!

Nur scheint Qualcomm auch zu versuchen in den PC-Markt einzudringen und da hat sich wohl AMD überlegt ob MediaTek nicht der besser Freund wäre:
https://www.fierceelectronics.com/e...-partner-for-wi-fi-6e-qualcomm-challenge-gold

MediaTek war halt eher so auf Level "Consumerlaptop im Elektronikmarkt mit Frickeltreiber der nur unter Windows überhaupt funktioniert". Ich hoffe das ändert sich. AMD erlaubt aber explizit Herstellern andere Chips zu verbauen, Intel oder Qualcomm Atheros. Mir wäre letztere Option fast die liebste.
 
Hutzeliger schrieb:
Ganz nett aber am Ende nichts wert.

Mit den Zahlen kann man nicht wirklich angenehm (wenigstens FHD stable 60 FPS) zocken.

Okay für ne iGPU aber:
Ob 12 oder 27 FPS spielt am Ende keine Rolle. Beides Mist.
Das kommt halt extrem auf die Spiele an.
Wer wie ich maximal spiele spielt die 2016 raus kamen, wird durchaus zufrieden sein keine extra gpu mit Strom versorgen zu müssen.
 
  • Gefällt mir
Reaktionen: bondage game
Ich glaube der G14 2022 könnte meinen alten Acer Laptop in 2022 ersetzen. Alle Tests waren bisher sehr positiv. 👍
 
Ich bin mal gespannt auf die Desktop iGPU. Das könnte für den 2. Rechner ein solider Ersatz sein, da dort eher normale bis einfache Anforderungen für Spiele sind. Vielleicht wird es doch mal ein Laptop, schadet nicht einen im Haus zu haben. Für Sims, Diablo und hie rund da mal ein MMO und co. sollte es reichen.
 
Bei Golem zersägt der 6900HS in 30W den i9-12900HK in Multicore einfach mal so (>600$ CPU).
Effizienzkerne hin oder her. 14 Kerne...
Das find ich irgendwie auch sehr beeindruckend und geht schnell in den Nachrichten unter.

Meine Vermutung ist weiterhin das Intel sein Pulver verschossen hat und AMD Intel in nächter Gen regelrecht "ausradieren" wird. Es ist das Best Case Szenario für Intel in dem AMD einfach so gewinnt. Mit Zen3+ in 6nm EUV TSMC vs. Intel 7. Da kommen dieses Jahr Zen4 + 5nm TSMC dazu. Integrated Graphics und DGPU kann AMD auch besser.
Das wird richtig übel.
Würde schon mal Intel Aktien verkaufen, wer noch welche hat und falls es nicht eh schon im Kurs enthalten ist.
Das ist zumindest meine Ansicht zu dem Thema.

Das beste, Intel Kunden kann es egal sein, da AMD nicht mal 1/10 der CPUs von Intel liefern kann.
Dürfen sich also gerne die High-End Krone aufsetzen.
Sorgt eh nur dafür das Intel noch mehr Tryhard macht.
Zum Wohle der Menschheit soll der Wettbewerb ruhig so bleiben, wobei ich gerne mehr Umsatz bei AMD sehen würde, viel mehr.

Mit DDR5 für APU im Desktop könnte es dann endlich interessant für AMD werden. Das wird aber wohl dieses Jahr nichts mehr. Monolithen sind aufgrund der Größe viel bescheidener bei TSMC zu bauen, wenn man es den auch noch als Kunde bezahlen möchte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tsu, peru3232, Dittsche und eine weitere Person
Jan schrieb:
Bedenke: Zum RAM kommt die 3050 nur über PCIe - das ist das Problem.
Ich glaub ich verstehe jetzt (nach weiterer Recherche). Also ist eine Grafikkarte mit dediziertem RAM nur solange toll, solange der dedizierte RAM nicht überfliesst. Wenn er jedoch überfliesst, geht es den Umweg über den langsamen PCIe zur CPU und von dort zum System-RAM, während es bei einer iGPU direkt zum System-RAM geht (und der auch eine schnellere Anbindung hat als PCIe).
Also wäre in solchen Fällen des "Überfliessens" eine Architektur mit iGPU sogar im Vorteil. So betrachtet sind iGPUs gar nicht so übel, obwohl sie doch früher von Gamern verhasst waren. Aber das lag dann wohl hauptsächlich an der schlechten iGPU, und nicht an der Architektur selbst...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Jan und Lord B.
Schauen gut aus die Benchmarks! Dedizierte GPUs bringen natürlich ein vielfaches an Leistung, aber die will eben auch abgeführt und mit Strom versorgt werden. So eine APU wird sich auch noch einigermaßen im Akkubetrieb nutzen lassen für ein Spie zwischendurch. Spannend wird auch der Nachfolger mit IF-Cache.
 
Draco Nobilis schrieb:
Meine Vermutung ist weiterhin das Intel sein Pulver verschossen hat und AMD Intel in nächter Gen regelrecht "ausradieren" wird. Es ist das Best Case Szenario für Intel in dem AMD einfach so gewinnt. Mit Zen3+ in 6nm EUV TSMC vs. Intel 7. Da kommen dieses Jahr Zen4 + 5nm TSMC dazu. Integrated Graphics und DGPU kann AMD auch besser.
ich hoffe vielmehr das AMD in dieser Generation noch einen raushaut, small Rembrandt mit 4/8core und 6CU
Warte jedenfalls gespannt auf die tests Core i7-1265U vs 6800u. Leistungstechnisch dürfte AMD da sicher vorne liegen vom Single core abgesehen aber wie schaut es mit Akkulaufzeit und Kosten der Endgeräte aus ?!?!
 
Icke-ffm schrieb:
ich hoffe vielmehr das AMD in dieser Generation noch einen raushaut, small Rembrandt mit 4/8core und 6CU
[...] Akkulaufzeit und Kosten der Endgeräte aus ?!?!
Also vermutlich wird AMD da rein gehen, wo es die meiste Marge und höchste Preise gibt. Man hat eh nicht genug Wafer von TSMC um Intel in einem Intel dominierten Segment anzustinken. Für sowas wie bsp. kleine Asus Serien reicht es, aber für das groß an Lenovo, HP oder Dell eicht es halt nicht. Wenn man könnte würde man wohl gerne alles in EPIC packen.
AMD haben es auch bei den OEMs schwer, durch die ganzen Intel Integrationen mit WiFi TB etc. pp.

AMD wird meines erachten die maximal vorstellbaren Preise aufrufen, da sich eh alles von TSMC verkaufen wird. Alles andere wäre in meinen Augen unlogisch.
 
  • Gefällt mir
Reaktionen: Icke-ffm
Die neue APU klinkt schon mal vielversprechend.

Schade, dass AMD nicht ein kleines Infinity-Cache eingebaut hat. Das hätte die APU deutlich beschleunigen können. (Wie Intel, zumindest früher, bei seine CPUs.)
 
Sehr schön, dass die iGPUs, egal von welchem Anbieter (Intel, AMD) immer stärker werden. Als Casual Gamer kann ich dann zukünftig immer mehr auf eine dGPU verzichten.
 
Zurück
Oben