Test Gaming-Notebook-Benchmarks: Viel mehr FPS in Spielen durch einen MUX-Switch-Klick

SavageSkull schrieb:
Hat man das Problem nicht bereits bei den Versuchen mit eGPU festgestellt?
Korrekt.
SavageSkull schrieb:
Ist halt auch die Frage woher ich als Kunde nachher weiß, welche Notebooks ein Mux hat oder nicht. Ich finde ja nichtmal überall Aussagen zu der TDP
Bei gh.de gabes schon eine Filterfunktion für MUX ja oder nein. Diese ist jetzt leider nicht mehr drin aber meist bei den entsprechenden Notebooks noch bei "Besonderheiten" aufgelistet (siehe hier).
Deshalb ist es wichtig, dass man sich als Kunde vorher informiert bzw Beratung sucht.
 
  • Gefällt mir
Reaktionen: DaBo87
Bei aktuellen Versionen von Windows 10 und bei 11 sieht man in den erweiterten Anzeigeeigenschaften von Windows zu jedem Display an welcher GPU es hängt.

Der Nvidia Treiber zeigt auf der Physx Seite eine grafische Übersicht der Anschlüsse wo man insbesondere sehen können sollte, welche Anschlüsse der dGPU zur Verfügung stehen, auch wenn nichts angeschlossen ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Anzony und Jan
Wertzius schrieb:
Nvidia bewirbt natürlich nicht Konkurrenz Technologien.
Die GPU an der das display physisch hängt bestimmt letztenlich die nutzbaren Verfahren. Also mit einer AMD iGPU bekommt man am internen Display und per HDMI Freesync (sofern vom Display unterstützt), auch wenn die dGPU das Bild rendert. Am USB-C, der an der Nvidia dGPU hängt steht dann Gsync compatible/Adaptive Sync zur Verfügung.
Das war nicht der Punkt. Wieso wirbt Nvidia mit "endlich geht Gsync auch in Optimus-Notebooks", wenn Gsync doch sowieso auch ohne MUX geht. Dann würde der MUX "nur" die Performance anheben, sonst nichts.

Und dass Adpative Sync offenbar mit MSHybrid nutzbar ist, finde ich sehr gut. Die Frage bleibt bei welcher Hardware genau, was man testen müsste (theoretisch geht vieles).
Bisher gehen Alder-Lake + RTX3000 und Ryzen 6000 + Radeon RX6000.
 
Wertzius schrieb:
Weil GSync jetzt auch auf dem internen Display funktionieren könnte, was vorher nicht ging?!
Das ist genau die Frage. Wir wissen, dass die neuesten GPUs und CPUs von Nvidia, AMD und Intel eben Adaptive Sync auch ohne MUX (und somit Gsync Compatible ohne "Advanced Optimus") durch die iGPU schleifen können.
Vielleicht ging das damals zur Vorstellung von Advanced Optimus im April 2020 tatsächlich noch nicht. Die Nvidia Turing-GPUs wurden wohl v.a. mit den Comet-Lake-H von Intel verbaut.

Und ich sehe gerade: Comet-Lake war tatsächlich Intels letzte Generation, die noch kein Adaptive Sync konnte. Das ist die Erklärung :)

Ab Ice Lake könnte theoretisch Gsync (Compatible) auch ohne "Advanced Optimus" auf dem internen Display funktionieren. Kann das jemand bestätigen?
 
Also ohne MUX Switch? Ich denke nicht?! Wie sollte das gehen und warum macht Ice-Lake einen Unterschied?

Es geht nur das, was die iGPU bietet. Also bei AMD Freesync und bei Intel Xe Adaptive Sync, wenn das interne Display per eDP angesteuert wird und kompatible ist.

Also wenn es dir um die generelle Frage geht, ob irgendein Adaptive Sync Verfahren genutzt werden kann: ja.
Nvidia Gsync nein, nicht ohne MUX Switch.
Gsync und Gsync compatible sind auch nochmal 2 Paar Schuhe.
 
bensen schrieb:
@mastergilgalad
Es geht hier nicht um das rendern auf der iGPU, sondern nur um die Bildausgabe.
Das war mir schon klar. Genau darauf bezog sich mein Post auch. Oder worin erkennst du einen Widerspruch? Ich denke dennoch das die Leistung der internen Grafikkarte sich eben maßgeblich auch die Bildausgabe auswirkt (aus eigener Erfahrung wie ich schrieb) das rendern der Spiele passiert dennoch über die dezidierte gpu - jedoch wird diese durch die geringe Ausgabeleistung der internen GPU gedrosselt und dümpelt dann je nach Spiel bei 20-30% vor sich hin. Das ist aber wirklich extrem spiel (engine) abhängig.
 
mastergilgalad schrieb:
Das war mir schon klar. Genau darauf bezog sich mein Post auch. Oder worin erkennst du einen Widerspruch?
Dass eine andere iGPU die schneller rendert hierbei schneller sein soll. Warum, wenn die nichts rechnen muss?

mastergilgalad schrieb:
Ich denke dennoch das die Leistung der internen Grafikkarte sich eben maßgeblich auch die Bildausgabe auswirkt (aus eigener Erfahrung wie ich schrieb) das rendern der Spiele passiert dennoch über die dezidierte gpu - jedoch wird diese durch die geringe Ausgabeleistung der internen GPU gedrosselt und dümpelt dann je nach Spiel bei 20-30% vor sich hin.
Was ist denn die Ausgabeleistung?
Deine eigene Erfahrung gibt doch gar keinen Anhaltspunkt über die Relevanz der iGPU Performance.
 
mastergilgalad schrieb:
Ich denke dennoch das die Leistung der internen Grafikkarte sich eben maßgeblich auch die Bildausgabe auswirkt (aus eigener Erfahrung wie ich schrieb) das rendern der Spiele passiert dennoch über die dezidierte gpu - jedoch wird diese durch die geringe Ausgabeleistung der internen GPU gedrosselt und dümpelt dann je nach Spiel bei 20-30% vor sich hin. Das ist aber wirklich extrem spiel (engine) abhängig.
Die Leistung der iGPU selbst ist nicht entscheident, was jedoch Auswirkungen hat ist der PCI-E Link an dem die dGPU angebunden ist und der System RAM den die iGPU ja als VRAM nutzt.

D.h. je schneller der RAM und je mehr PCI-E Lanes die dGPU zur Verfügung hat, je geringer ist der Performance- Verlust.
 
  • Gefällt mir
Reaktionen: Anzony und Ray519
mastergilgalad schrieb:
das die Leistung der internen Grafikkarte sich eben maßgeblich auch die Bildausgabe auswirkt
Da moderne iGPUs bei korrekter Systemkonfiguration (RAM Geschwindigkeit, Dual Channel) kein Problem haben mehrere Monitore anzutreiben, auch am Maximum der Fähigkeiten der Anschlüsse, wird das kein Durchsatzproblem der iGPUs selbst sein (solange sie die von der dGPU erzielte Framerate selbst an den Monitor ausgeben kann).

Um das näher zu diagnostizieren, müsste man vergleichen, wie verlorene Leistung zB mit PCIe Bandbreite (GPU-Z zeigt das unter anderem an), Framerate und Refresh-Rate des Monitors skaliert. Und selbst dann kann man nur vermuten, weil man die verwendete RAM-Bandbreite der CPU und die Auswirkungen auf Latenzen nicht direkt sehen kann.

Ich habe jetzt aus Spaß an der Freude mal mit meinem System 2 Messungen gemacht: Desktop 12900K iGPU + RTX 3090 + 3840x1600@120 (10 Bit Ausgabe) Monitor

  • Counter Strike GO - High Preset
    • 354,4 fps Ausgabe direkt - 4% GPU Bus Load (PCIe)
    • 334,4 fps Ausgabe via iGPU - 31% GPU Bus Load (PCIe)
  • Control - Low Preset, RTX Off
    • 165,9 fps - 5% GPU Bus Load (PCIe)
    • 157,4 fps - 15% GPU Bus Load (PCIe)
Daraus würde ich deuten: Es gibt einfach einen gewissen Overhead (~6% bei mir).

Wenn der Performance Unterschied weiter auseinander klafft, dann vermutlich weil PCIe oder RAM mehr ausgelastet wird, oder weil es ein Software-Bug/Problem ist mit der Synchronisation.
Je nachdem wie das Spiel die Synchronisation implementiert (dGPU wartet vllt bis die iGPU das Frame vollständig erhalten hat, VSync nicht korrekt umgesetzt wenn die Aufgabe über 2 GPUs verteilt wird etc.) oder Wechselwirkungen, weil der Transfer der Frames von der dGPU über PCIe in den RAM der CPU PCIe Bandbreite und RAM Bandbreite braucht. Die Ausgabe der iGPU braucht auch nochmals RAM Bandbreite.

Ich denke es ist durchaus möglich, dass hohe Bandbreiten an (Auflösung * Framerate) PCIe und RAM eine solche Grundlast ergeben, dass Latenzen von gewissen anderen Operationen deutlich steigen.

Bei mir sind die Bandbreiten in allen Fällen ja noch weit vom Limit weg, weshalb ich so ziemlich ausschließlich Synchronisations-Probleme / Bugs erwarten würde:
Bildschirm-Ausgabe: 3840x1600x 3Byte * 120fps = 2,06 GB/s (2,58 GB/s für 10 Bit)
Frame-Transfer 160 fps: 3840x1600x 3Byte * 160fps = 2,75 GB/s
Frame-Transfer 350 fps: ~6 GB/s
PCIe Bandbreite: ~24 GB/s
RAM Bandbreite: ~76 GB/s

Ich bin jetzt aber zu faul um meine PCIe Geschwindigkeit oder RAM Geschwindigkeit zu reduzieren und damit neu zu messen, wann zB die PCIe oder RAM Bandbreite bei diesen beiden Spielen anfängt stark zu limitieren (Der Verlust zur Basis-Geschwindigkeit wird vermutlich irgendwann deutlich über 6% gehen und vermutlich exponentiell).

Die iGPU Last ist dabei bei mir 45% bei 2W, Tiger Lake Notebook iGPUs sind deutlich schneller als meine, die AMD APUs sollten das auch sein, RAM Bandbreite wird bei den meisten Notebooks ohne DDR5 aber weniger sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Anzony, Onkel Föhn und AssembIer
Sorry, dass hier die Tage noch keine Feedback kam. Omikron hatte direkt nach dem Veröffentlichen dieses Artikels am Dienstag den Booster überrannt. ;-)

Das Theme FreeSync mit dGPU über iGPU ja oder nein sehe ich mir die Tage noch einmal an. Auf den ersten Blick ist das nicht trivial. Ich melde mich!
 
  • Gefällt mir
Reaktionen: Anzony, Onkel Föhn und AssembIer
da wird ja alte technik neu wiederbelebt. mein alter core i 5 laptop (glaube von 2012) mit amd graka, hat nen knopf um zwischen igpu und dgpu zu wechseln.
 
Neu ist der Mux-Switch nicht nein, früher als es noch keine autom. Grafikumschaltung gab hatte sogar jedes Notebook mit dedizierter GPU einen.

Aber mittlereile sind GPUs im Notebook - im Vergleich zu den Desktop Ablegern - so schnell das es eben einen großen Unterschied machen kann ob die Daten direkt zum Display ausgegeben werden oder sie den Umweg über die iGPU gehen müssen.
 
Artikel-Update: Der Artikel wurde um FHD-Benchmark-Ergebnisse eines Alienware X14 mit Core i7-12700H und GeForce RTX 3060 Laptop GPU mit direkter und indirekter Anbindung an das Display ergänzt. Bisher enthielt der Artikel lediglich Ergebnisse mobiler AMD-Plattformen.

Das Notebook verfügt über Nvidia Advanced Optimus, nimmt den Wechsel der Anbindung des internen Displays auf die aktive dGPU also theoretisch automatisch vor. In der Praxis zeigten sich allerdings Probleme, oft gelang der Wechsel nicht.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]

Die GeForce RTX 3060 Laptop GPU ist im Alienware X14 über PCI Express 4.0 x8 an den Alder-Lake-Prozessor angebunden. Das entspricht der Anbindung der Radeon RX 6800S an den Ryzen 9 6900HS, die bereits im Test enthalten ist.

Die Auswirkungen auf die Leistung des Notebooks in Spielen, wenn von der dGPU der Umweg über die iGPU zum Display gegangen wird, sind allerdings nochmals deutlich geringer. Ob das an der allgemein niedrigeren Leistung der GeForce RTX 3060 Laptop GPU, oder dem Zusammenspiel aus dGPU von Nvidia und iGPU von Intel liegt, müssen weitere Tests noch detaillierter beleuchten.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, AssembIer und Anzony
Das Notebook verfügt über Nvidia Advanced Optimus, nimmt den Wechsel der Anbindung des internen Displays auf die aktive dGPU also theoretisch automatisch vor. In der Praxis zeigten sich allerdings Probleme, oft gelang der Wechsel nicht.

Ich habe die Erfahrung gemacht, dass man einfach die iGPU abschalten muss.
Advanced Optimus hin oder her, das ganze Zeug nervt^^
 
Stinkt mir. Habe mir n gutes gebrauchtes G713 mit 5900HX und 3060 besorgt.

Wenn ich die neuen MUX Modelle sehe frage ich mich wieviel „Leistung“ ich wohl mit nem MUX mehr hätte.

Sei’s drum…Backupgerät…
 
In dem Artikel zum Test des G14 wurde erwähnt, dass die Betriebsdauer beim Spielen im Akku-Modus nicht steigt, wenn die dGPU per Energieverwaltung deaktiviert ist. Das hallt bei mir noch nach und kommt mir so seltsam vor. Ist das weiterhin der Fall? Falls ja, gibt es dafür eine Erklärung?

Vielen Dank für die Aktualisierung. Super interessantes Thema!
 
daddel_lars schrieb:
dass die Betriebsdauer beim Spielen im Akku-Modus nicht steigt,
Die Ersparnis kommt auf dem Desktop und vor allem im Idle.
Die iGPUs können den Windows Desktop mit unter 0.5W anzeigen, weil der RAM eh für die CPU an sein muss.

dGPUs brauchen schonmal einen guten Batzen mehr an Strom, weil der VRAM schneller als System RAM ist und entsprechend mehr Strom brauchen kann. Insbesondere mit höheren Auflösungen und mehrern Monitoren skaliert der Stromverbrauch der dGPU dann exponentiell, insbesondere bei großen Mengen an VRAM.

Wenn die dGPU eh auf Volllast läuft, ist es zu vernachlässigen, was die iGPU verbraucht und das Bisschen mehr an PCIe Transfers zurück zur iGPU fällt auch nicht auf, weil die dGPU ja schon ständig mit dem Spiel kommunizieren muss.

Gerade beim Abspielen von Videos mit HW Decoding wird das deutlich (zb 4K HEVC), das macht die iGPU viel sparsamer.

In Notebooks kann die dGPU dann auch noch komplett abgeschaltet werden, wenn gar nichts an ihr hängt und sie gerade nicht gebraucht wird. Im Desktop brauchen die bis zu 10W Idle (ganz ohne Monitore) für ne 3090.
 
  • Gefällt mir
Reaktionen: Anzony
Ray519 schrieb:
In Notebooks kann die dGPU dann auch noch komplett abgeschaltet werden, wenn gar nichts an ihr hängt und sie gerade nicht gebraucht wird. Im Desktop brauchen die bis zu 10W Idle (ganz ohne Monitore) für ne 3090.
Exakt, auch im Falle des G14 wird die dGPU deaktiviert sofern nicht benötigt.

Dabei können auch keine Sensordaten mehr ausgegeben werden (HWInfo), was bedeutet das da nicht mehr viel aktiv zu sein scheint. D.h. es dürfte kaum einen Unterschied machen im Akkubetrieb.
 
  • Gefällt mir
Reaktionen: Jan
Zurück
Oben