Gefrustet über Optimus und schrumpfender Leistungsindex

Juri-Bär schrieb:
"Ist die dedizierte Grafikkarte aktiv, schreibt sie die Bildinformationen in den Speicher der internen Grafikkarte, welche nur für die Ausgabe des Bildes zuständig ist."

Und was heist das ....

Das Fertige Bild aus der Geforce wird in den Bildspeicher der Intel geschrieben ... bei 1920 x 1080 bei 32 bit Farbtiefe = 8,1 MB ... wow ... das dauert sicher ewig .

Nur muss sie das ja machen da es nur einen Weg zum Monitor gibt ... daher wird alles in einen Bildspeicher geschrieben der dann die Ausgabe ansteuert.
 
xxMuahdibxx schrieb:
Das Fertige Bild aus der Geforce wird in den Bildspeicher der Intel geschrieben ... bei 1920 x 1080 bei 32 bit Farbtiefe = 8,1 MB ... wow ... das dauert sicher ewig .
Mir geht es ja nicht um die Dauer sondern um den in Beschlag genommenen Arbeitsspeicher. Etliche der 60 Bildchen, die bei vsync in der Sekunde ausgegeben werden müssen, werden ja wohl genau im Arbeitsspeicher zwischengespeichert werden müssen. Dieser Arbeitsspeicher wäre frei, wenn wie beim Desktop die dedizierte Grafik direkt mit der Bildausgabe kommunizierte.
 
So läuft Optimus aber nicht und kann es auch nicht laufen. Das ist keine Treibersache, das ist schon ein rein mechanische Sache bei Notebooks.

Der Monitor ist an einer GPU angeschossen. Und das ist die interne GPU. Genau aus dem Grund kann man sie ja auch nicht abschalten bei einem Notebook. Weil die iGPU immer für die Bilddarstellung zuständig ist. Möchtest Du es anders haben, so muss Du einen Desktop Rechner kaufen.
 
BlubbsDE schrieb:
So läuft Optimus aber nicht ...
(...)
Möchtest Du es anders haben, so muss Du einen Desktop Rechner kaufen.
Den Desktop-Rechner habe ich, mein Frust über die euphemisch Optimus genannte Lösung bleibt.
Der Einbau eines Hardware-Schalters, der die Videoausgänge wahlweise mit der integrierten oder dedizierten GPU beschickt, würde die Produktionskosten eines Notebooks sicherlich um keinen Dollar erhöhen.
 
kein Computer dieser Welt der eine Echtzeitanwendung laufen lässt berechnet schon 10 Bilder im Vorraus ... und das garantiert nicht bei Vsync.

Vsync heist am Ende Bild 1 wird so lange angezeigt bis Bild 2 fertig berechnet ist wenn Bild 2 Fertig löschen Bild 1 Bildspeicher und Bild 2 einfügen und anzeigen. Daraufhin Bild 3 berechnen ... Bild 2 wird dann so lange angezeigt bis bild 3 fertig ist.

Ohne Vsync ists noch einfacher ... da wird einfach jedes Bild zu der Zeit in den Speicher geschrieben wenn
es fertig ist ... somit entsteht ja das Tearing auf dem Monitor da der mitten im Bild1 auf einmal Bild 2 erhält.

Also je nach Auflösung werden da ein paar MB verbraucht .... WOW das in Zeiten von Gigabyte Arbeitsspeicher .
Selbst 4k braucht bei 3840 × 2160 x 32 bit Farbtiefe nicht mehr als 32 MB Speicher also maximal
2x da dann immer geswitcht werden kann von angezeigtem Bild zum neuem Bild und erst nach dem
erhalt der Info neues Bild ist da switcht die Grafikkarte um.

Technische Daten der GeForce 840M Datenleitung 64 Bit @ 2000 MHz
daher braucht die Grafikkarte ganz tolle 0,003 sekunden Netto um diese 32 MB zu übertragen WTF.
Also rein theoretisch könnte man damit 480 FPS einzeigen lassen .
( das ganze ohne Zeiten die einem Speicher sagen vergiss deine Daten und Positionierung wohin welche Daten kommen... wobei der Bildspeicher ja eh immer die gleiche Ausrichtung hat und nicht irgendwohin geschrieben wird. )

Daher braucht der Bildspeicher der igpu nicht mehr als die Auflösung x Farbtiefe an Speicher und das packen die Grafikkarten seit über einem Jahrzehnt.

Du denkst einfach in die falsche Richtung, und beschwerst dich über Windows als Zahlenhergeber, mehr nicht.
Das hilft null weiter in Sachen Verständniss dessen was wirklich passiert.


Und nen Hardwareschalter willst sicher du als einer der wenigen ... die meisten sind Froh das es so einfach funktioniert und man nicht umständlich umschalten muss ... was meinst du wie voll die Foren wären von Threads in denen es darum geht einem Laien zu erklären das er den Schalter hintem am Laptop drücken muss damit sein GPU Ausgang switcht ... wenn der Laptopbildschirm aus geht. Das macht tausend mal mehr Arbeit als das Kopieren von ein paar MB .
 
Zuletzt bearbeitet:
@Juri-Bär
Ein Hardware Schalter ist nahezu unmöglich unterzubringen. Und stell dir mal den Aufwand vor...
So ist nur die frage ob die dedizierte Karte das Bild berechnet und weiterleitet oder ob es direkt von der iGPU berechnet und ausgegeben wird

Und wo liegt dein Problem? Zu wenig Ram? Dann rüste auf und fertig
 
Zuletzt bearbeitet:
btw

http://de.wikipedia.org/wiki/Nvidia_Optimus

Ist die dedizierte Grafikkarte aktiv, schreibt sie die Bildinformationen in den Speicher der internen Grafikkarte, welche nur für die Ausgabe des Bildes zuständig ist. So kann zwischen den beiden Grafikkarten ohne Flackern umgeschaltet werden.

Solltest dir mal das Optimus White Paper anschauen .
 
xxMuahdibxx schrieb:
Vsync heist am Ende Bild 1 wird so lange angezeigt bis Bild 2 fertig berechnet ist wenn Bild 2 Fertig löschen Bild 1 Bildspeicher und Bild 2 einfügen und anzeigen. Daraufhin Bild 3 berechnen ... Bild 2 wird dann so lange angezeigt bis bild 3 fertig ist.
Naja, ich hatte eher gedacht, dass vsync dafür sorgt, dass statt der z.B. 85 errechneten Bilder nur 60 in der Sekunde ausgegeben werden, was schon wegen der Auswahl der anzuzeigenden Bilder eine Zwischenspeicherung mehrerer Frames unumgänglich macht. Aber ich habe nun wirklich nicht die tolle Ahnung von Grafikkarten.

Und bei vielen Bildern und hoher Auflösung scheint Optimus überfordert zu sein: http://www.pcper.com/reviews/Graphi...d-NVIDIA-Optimus-Issues-Haswell/DiRT-3-and-Cl.
Oder wie es in einem Forumsbeitrag heißt: "Try using the integrated GPU instead of the GT 750M.

I guess the frame buffer transfer Optimus does from the Discrete GPU to the Integrated GPU bottlenecks the performance of the game (they aren't designed for applications that have a fps so high)."
 
Zuletzt bearbeitet:
Tja man sollte sich schon informieren besonders wenn man dann mit Sachen um sich wirft.

Eine Grafikkarte berechnet immer das nächste Bild und nicht 10 Bilder im Vorraus ... wäre ja auch bescheiden wenn du die Maus von Bild 4 zu Bild 8 statts nach rechts nach links bewegst .

10 Bilder bei 60 FPS sind 0,1667 Sekunden ... das wäre selbst bei 4 Bilder immer noch 0,04667 Sekunden ... wenn man überlegt das schon der Ping von 100 auf 50 ms deutliche Vorteile bei Shootern bringen kann ist das ne Menge wenn dann die Grafikkarte noch den Falschen Imput nachgeht.
 
Ich kann mich irren aber ging es nicht vornehmlich darum, dass Speicher für Civ5 freigeschaufelt werden sollte, einem rundenbasierten Strategiespiel, und nicht einen Millisekundennachteil in First Person Shootern?

Jedenfalls Juri-Bär: Wie du siehst, wird der Grafikspeicher, in diesem speziellen Fall der RAM, für das nächste auszugebende Bild nicht gerade stark beansprucht, sondern fast gar nicht, sollten die Erklärungen hier stimmen. Laut dem Whitepaper scheint das zumindest der Fall zu sein. Was dann im Umkehrschluss heißen müsste, dass der Zugewinn dieses Speichers ein Tropfen auf den heißen Stein wäre, um das Swappen bei dir zu verhindern. Daher wirst du dir wahrscheinlich schlicht mehr RAM zulegen müssen.
 
Sicher ging es nicht um den Vorteil nur sein Denkansatz das die Grafikkarte mal so einfach 20 Bilder im Vorraus berechnet und zwischenspeichert bis sie gebraucht werden ist halt falsch.

Sowas passiert in den meisten Fernsehern wo dann Interpoliert und aufgehübscht wird nicht aber bei einer Grafikkarte ... die kennt maximal 2 Bilder ... eines das Fertig im Framebuffer liegt und das neue was sie berechnet ...

Wenn man im BIOS z.b. nicht einstellen kann das die iGPU weniger Speicher verbraucht so kann man an deren "Hunger" nichts änder ausser man kauft sich passenden neuen RAM der größer ist.
 
Ist die dedizierte Grafikkarte aktiv, schreibt sie die Bildinformationen in den Speicher der internen Grafikkarte, welche nur für die Ausgabe des Bildes zuständig ist. So kann zwischen den beiden Grafikkarten ohne Flackern umgeschaltet werden.

Ich glaube, das ist falsch.

Die GPU des Prozessors nutzt wohl den Graikspeicher der NVidia GPU. Denn Hauptspeicher wird für die Intel GPU offensichtlich nicht reserviert.
 
Bei mir sind gerade mal 185 MB für Hardware reserviert. Der Rest ist frei verfügbar.

Schaue ich jedoch z.B. mit der Lenovo Hardwareübersicht nach, dann steht da 2,06 GB Kartenspeicher bei der internen GPU.
 
RAM wird vom Intel Grafikchip nach Bedarf reserviert. Je nach Intel Grafik Chip Ausführung, gibt es Obergrenzen.
 
Also bei den White Papers ist es so das die iGPU den normalen RAM nutzt und die Nvidia den Grafikkarten RAM ..

Was die Lenovo Hardwareübersicht sagt kann einfach auch sein das er maximal 2,06 GB zuweisen würde es aber nicht tut ... da er es nicht braucht ... auch 185 MB für Hardware Reserviert sagt nicht viel aus ... Soundkarte z.b. nimmt da auch was weg.
 
Eine Grafikkarte braucht garantiert mehr als 185 MB RAM. Selbst wenn ich Spiele über die CPU-GPU Spiele, wird kein Systemspeicher gebraucht.
 
Jaja, da ist es egal, was man am System beobachtet. Was nicht sein darf, das ist auch nicht wahr...


Oder... Engstirnig.

Probiert es doch einfach aus oder redet Ihr nur theoretisch.
 
Dann beobachtest du falsch, zieh dir die Fach Publikation bezgl. Intel Grafik rein und gut ist. Haste was gelernt ist doch immer gut. Engstirnig kommst du rüber.
 
Zurück
Oben