Test Gaming-Notebook-Benchmarks: Viel mehr FPS in Spielen durch einen MUX-Switch-Klick

Danke @Jan für den hochspannenden Bericht! So etwas macht CB für mich aus.

dienst schrieb:
Ich glaube, dass man am Desktop ebenfalls einen Passthrough durch die interne GPU einstellen kann ( wenn eine da ist). Da geht die Bandbreite sicher in gleicher Weise runter.
Genau!
Ich oute mich mal als großer Verfechter von MSHybrid, also dem Routen über die iGPU:
Seit 2018 betreibe ich meinen Desktop so und leite das dGPU-Signal über meine uralte Skylake-iGPU :D (jetzt Kaby Lake wegen HDR).
Dadurch kann ich das Bild-Signal über Thunderbolt in meine Docks schicken, was sehr bequem ist und viel Rumstöpseln im Home Office bei mehreren Rechnern erspart.


Schon damals haben mich die Performance-Verluste durch das Durchrouten interessiert:

World-in-Conflict-Benchmark bei 1920x1200 mit GTX970, i5-6600K und 16 GB Single-Channel-RAM:
  • Gigabyte Z170N-WIFI
    • Bildschirm am HDMI des Mainboards (dGPU-Signal via iGPU): 30 FPS avg.
    • Bildschirm am HDMI der Grafikkarte (direkt): 40 FPS avg.
  • Asrock Z270 Gaming ITX
    • Bildschirm am Thunderbolt des Mainboards (dGPU-Signal via iGPU): 39 FPS avg.
    • Bildschirm am HDMI der Grafikkarte (direkt): 41 FPS avg.
Das Gigabyte-Mainboard hatte also irgendein Problem (reproduzierbar), was das andere Board nicht hatte. Die geringen Verluste am Thunderbolt, ließen mich denken, dass es keine Probleme mehr gibt. Das muss ich nach dem Artikel vielleicht revidieren.

Kompliziert macht die Thematik im Allgemeinen, dass man jetzt immer schauen muss, was die iGPU und was die dGPU kann, was wir mal hier zusammengetragen haben. Es gibt auch skurile Fälle wie meine GTX970, die kein HDR über Displayport ausgeben kann, aber über die iGPU von Intel dann doch :cool_alt:
Im verlinkten Thread kam auch die Frage auf, ob sich Adaptive Sync/FreeSync/Gsync nicht doch über eine kompatible iGPU routen lässt. Der Kommentar eben klang ja verheißungsvoll:
AssembIer schrieb:
Das interne Display des G14 ist Freesync kompatibel und das lässt sich scheinbar auch nutzen wenn man den Mux Switch auf den Hybrid-Modus setzt (zumindest kann man es in den Radeon Settings weiterhin aktivieren). D.h. es müsste auch funktionieren wenn man ein externes Display über einen Anschluss der iGPU verbindet.
Könnt ihr von Computerbase das noch näher beleuchten? Vielleicht geht immer FreeSync/Gsync Compatible und Nvidia wirbt bei Optimus nur mit dem klassischen Gsync, welches sicher einen MUX braucht?
 
  • Gefällt mir
Reaktionen: Jan
AssembIer schrieb:
D.h. es müsste auch funktionieren wenn man ein externes Display über einen Anschluss der iGPU verbindet.
Was an adaptiver Synchronisation mit dem Display ausgehandelt wird, sollte alleine eine Sache der ausgebenden GPU sein. Das klappt bei meinem Desktop zB wunderbar mit Control auf der RTX 30, via Hybrid an die UHD770 GPU und dann Adaptive Sync via DP zu meinem modernen G-Sync Monitor (HW-Modul, aber neu genug dass HDMI VRR / DP Adaptive Sync kompatibel).

Ich könnte mir höchstens vorstellen, dass nicht alle Spiele optimal VSync abschalten können oder ähnliches und dann vllt nicht voll flexible Framerates haben, mehr Latenz oder andere Zicken.

Auch weil das je nach Grafiktreiber anders gehandhabt wird. Bei Nvidia muss man sich zB selbst drum kümmern, was oberhalb der Sync Range passiert (VSync oder Framerate Limiter in diversen Tools oder inGame), während das bei Intel direkt eine Option zu Adaptive Sync ist und standardmäßig aktiv.

Edit:
In wie fern die integrierten Displays mit eDP aber ähnlich breit kompatibel sind nach DP Adaptive Sync ist eine andere Frage, schließlich müssen hier die GPUs traditionell mehr Funktionen überhehmen, da es keinen separaten Scaler oder G-Sync HW Modul gibt...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Anzony
Convert schrieb:
D.h. im Umkehrschluss auch: PCIe 5.0 bei Alder Lake Notebook-CPUs macht doch Sinn. Da kann man sich den Switch und die ganze Umschalterei sparen und die Leistungseinbussen werden nicht so stark ausfallen, wie bei AMD mit nur PCIe 4.0 mit X8-Anbindung ohne entsprechenden Switch.
Nein, da keine GPU bisher PCIe5 unterstützt, läuft Alder Lake genauso nur mit 4.0
 
  • Gefällt mir
Reaktionen: Convert
Eine Frage:

Im Artikel wird "Nvidia Advanced Optimus" erwähnt in den Tests is aber davon nichts mehr zu sehen.
(zumdindest sind ja im test nur radeons verbaut)

Gibt es dafür einen Grund oder ist eben nur AMD davon betroffen weil eben Nvidia diese Technologie nutzt?

Meine Frau hatte damals nen amd laptop mit apu und dedizierter nvidia graka, das hat auch nie so hin gehauen wie es sollte, bzw. nie den erwarteten effekt hervor gebracht.
war zwar auch kein gaming laptop aber vor ein paar jahren wars ja auch in casual laptops gang und gäbe eine stromspar gpu mit einer leistungs stärkeren zu paaren.

in 3d wurde dann eben die nivida genutzt, in allem andern halt die apu der cpu.
aber auch vor jaaaahren gabs da ja wie gesagt schon probleme.

allerdings waren da die gpus und apis noch nicht so leistungsstark wie heute.
das isses halt einfach weniger aufgefallen, keiner hats bemerkt oder getestet denk ich mal.
jedenfalls nicht so intensiv.

wie auch immer, später gabs dann nen laptop mit ner amd igpu und ner amd dgpu.
die liefen bei bedarf dann quasi sogar im crossfire, das klappte eigentlich ganz gut.
(naja, bis auf die akku sache, aber das hat sich ja bis heut scheinbar nicht geändert)


jedenfalls is ja bekannt das jeder umweg zeit und leistung kostet.
und einen monitor mit zwei verschiedenen grafik lösungen am desktop pc zu verbinden geht heut auch nicht anständig.

mit windows 11 kann ich zwar einstellen wann welche gpu genutzt werden soll, aber bis der monitor merkt: ey jetzt DP2 statt DP1 ...........
 
  • Gefällt mir
Reaktionen: mm19
Interessanter Artikel. Hat jemand Erfahrungen, wie es mit Linux-Unterstütung dieses Multiplexers aussieht?
 
Suspektan schrieb:
Zmdst. für den korrekten Weißpunkt bzw. RGB Balance muss ich ja die rgb Regler bedienen, aber unabhängig davon schlägt eine Kalibrierung zwangsweise fehl, wenn die Werte der Graustufen von z.B. 0-10 alle wie 0 dargestellt werden.
Das dürfte eher daran liegen, dass 99% der Laptopdisplays nur mit 8Bit angesteuert werden.
Ergänzung ()

Anzony schrieb:
Könnt ihr von Computerbase das noch näher beleuchten? Vielleicht geht immer FreeSync/Gsync Compatible und Nvidia wirbt bei Optimus nur mit dem klassischen Gsync, welches sicher einen MUX braucht?
Nvidia bewirbt natürlich nicht Konkurrenz Technologien.
Die GPU an der das display physisch hängt bestimmt letztenlich die nutzbaren Verfahren. Also mit einer AMD iGPU bekommt man am internen Display und per HDMI Freesync (sofern vom Display unterstützt), auch wenn die dGPU das Bild rendert. Am USB-C, der an der Nvidia dGPU hängt steht dann Gsync compatible/Adaptive Sync zur Verfügung.
 
Zuletzt bearbeitet:
Tacheles schrieb:
Wer sich für das Zephyrus G14 unter Linux interessiert kann sich hier umschauen -> https://asus-linux.org/
Danke für den Hinweis!

Ray519 schrieb:
Was an adaptiver Synchronisation mit dem Display ausgehandelt wird, sollte alleine eine Sache der ausgebenden GPU sein. Das klappt bei meinem Desktop zB wunderbar mit Control auf der RTX 30, via Hybrid an die UHD770 GPU und dann Adaptive Sync via DP zu meinem modernen G-Sync Monitor (HW-Modul, aber neu genug dass HDMI VRR / DP Adaptive Sync kompatibel).
Ja, ich denke das Problem bei Nvidia waren nur externe Monitore mit G-Sync Modul und ohne Adaptive-Sync support.

Dabei musste man logischerweise den Monitor direkt mit der Nvidia GPU verbinden, über eine Intel/AMD iGPU hat das nicht funktioniert.

Beim internen Notebook Display hat Nvidia wiederum schon immer auf eDP / Adaptive-Sync gesetzt, d.h. dort hatte man diese Problematik nie.
 
  • Gefällt mir
Reaktionen: Anzony und Leo.16
Wertzius schrieb:
Das dürfte eher daran liegen, dass 99% der Laptopdisplays nur mit 8Bit angesteuert werden
Hat aber mit Kalibrierung eigentlich nichts zu tun, oder wo siehst du den Zusammenhang?

Btw., eigentlich sind glaub sogar 6 Bit + Dithering typisch (8 Bit pro Kanal kommen rein, dann aber Umsetzung auf 6 + Dithering), nicht sicher ob das mittlerweile besser ist. Für Normalo-IPS-Panels vermutlich nicht.
 
Jan schrieb:
Hat das eigene Gaming-Notebook einen „MUX-Switch“ oder nutzt es Nvidia Advanced Optimus? Gut wäre es, denn sonst geht schnell viel Leistung verloren. ComputerBase erörtert die Hintergründe, liefert Benchmarks und erklärt, was Anwender tun können, deren Notebook nicht über diese Technik verfügt.

Zum Test: Gaming-Notebook-Benchmarks: Viel mehr FPS in Spielen durch einen MUX-Switch-Klick
Danke für den Artikel.

Hinzu kommt die Thematik, das einige Techniken und Features (z.B. DSR bzw. DLDSR) nicht genutzt werden können, wenn das Bild der dGPU per Optimus über die iGPU ausgegeben wird.
 
@R4Z3R Es ging ja um die Graustufenauflösung oder die eher nicht vorhandene und ob, wo und wie man etwas dagegen tun kann. Je nachdem an welcher GPU das Display hängt muss man im entsprechenden Treiber gewünschte Änderungen vornehmen, auch wenn eine andere GPU das Bild rendert.
 
  • Gefällt mir
Reaktionen: mm19
Pupp3tm4st3r schrieb:
Ich muss jetzt leider so doof fragen - womit hängt das aber zusammen, dass dann weniger FPS vorhanden sind? Gibt es ein Problem mit der Datenrate? Berechnet die dGPU dann weniger frames?
Topflappen schrieb:
Das frage ich mich auch,
Es steht ja eigentlich im Text des Artikels. Die Anbindung der dGPU an den Chipsatz/CPU ist dann der Falschenhals. Sowohl die Kommunikation unter den beiden Parteien muss dann über die PCIe-Schnittstelle gehen als auch die Bildausgabe. Und die braucht halt auch etwas Bandbreite und zwackt dann also was ab.

Deshalb ist der Performancegewinn bei PCIe 3.0 x8 auch so viel höher als bei PCIe 4.0x8, da bei PCIe 3.0 eh schon wenig absolute Bandbreite vorhanden ist.
Ergänzung ()

jabberwalky schrieb:
Auf sowas habe ich noch nie geachtet. Ich habe immer auf Optimus geachtet, aber MUX habe ich noch nie in den spec. gelesen (vielleicht übersehen?)
Naja... ist auch eher ein modernes Problem. Ich glaube die ersten Tests mit vielen Fragezeichen kamen so 2020 auf. Auch Computerbase hatte mal einen Laptoptest wo die Leistungsfähigkeit der dGPU stieg als man ein externes Display angeschlossen hat.
 
Ein Surface Book ist ja kein gaming Notebook, hat aber auch eine eigene Grafikkarte. Aber nur einen Anschluss für die Dockingstation. Weiß wer ob das Thema da bei Anschluß eines externen Monitors dann ebenfalls relevant ist? Bzw. wo ich suchen kann/muss und wie das dort genau heißt?
 
Contor schrieb:
Im Artikel wird "Nvidia Advanced Optimus" erwähnt in den Tests is aber davon nichts mehr zu sehen.
(zumdindest sind ja im test nur radeons verbaut)

Gibt es dafür einen Grund oder ist eben nur AMD davon betroffen weil eben Nvidia diese Technologie nutzt?
Im Test wurden nur AMD Produkte genutzt, weil die gerade zur Hand waren (mutmaßung).
Und ob Nvidia Advanced Optimus genutzt wird oder nicht ist Sache des Laptoperstellers. Es wird auch Laptops mit Nvidia dGPU geben, die das automatische Umschalten nicht beherschen.
 
jabberwalky schrieb:
@Jan: Gibt es eine andere Möglichkeit rauszufinden woran das Display hängt als der 3DMark?
Sollte sich daran erkennen lassen, welcher Treiber das Display verwaltet.

Wenn Display z.B. in den nVidia-Settings gelistet, dann ist es über die dGPU angebunden. Wenn nur in den Intel iGPU Settings, dann läuft das Bild über die iGPU, wie es berechnet wurde legt Optimus fest (GPU-Wahl).
 
Jan schrieb:
Die dGPU rendert das Spiel, schickt das Bild dann aber Uber die iGPU an das Display (die macht nichts), aber das kann Leistung kosten.
Hat man das Problem nicht bereits bei den Versuchen mit eGPU festgestellt? Da hat es ja auch schon einen Unterschied gemacht, ob man am Laptop spielt oder auf dem Monitor der an der eGPU hängt.
Das ist doch dasselbe Problem, nur dass es jetzt? eine Lösung für die interne Umsetzung innerhalb des Notebooks gibt.
Ist halt auch die Frage woher ich als Kunde nachher weiß, welche Notebooks ein Mux hat oder nicht. Ich finde ja nichtmal überall Aussagen zu der TDP
 
  • Gefällt mir
Reaktionen: mm19
R4Z3R schrieb:
Sollte sich daran erkennen lassen, welcher Treiber das Display verwaltet.

Wenn Display z.B. in den nVidia-Settings gelistet, dann ist es über die dGPU angebunden. Wenn nur in den Intel iGPU Settings, dann läuft das Bild über die iGPU, wie es berechnet wurde legt Optimus fest (GPU-Wahl).
Bei AMD sieht man das auch im Treibermenü unter den Display Settings.

Dort steht hinter jeder Display- Bezeichnung auch gleich mit welcher GPU es angebunden ist (also im Falle von AMD iGPU + dGPU).
 
Zurück
Oben