Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia Turing im Notebook: Zwei RTX Super und Brücken-Chip für G-Sync und Optimus
Parallel zu Intels Vorstellung neuer mobiler H-Prozessoren entlässt auch Nvidia neue Technologien für Notebooks in den Markt. Neben GeForce RTX 2080 Super und 2070 Super sowie der mobilen GeForce GTX 1650 Ti betreffen sie insbesondere die Effizienz der Max-Q-Plattform. Erstmals verstehen sich G-Sync und Optimus – optional.
Der Trend geht also zu 240 Hz bis 300 Hz bei FullHD in Gaming Laptops.
Was ich bei meinem Aero 15 immer wieder sehe, wenn ich die Bildwiederholungsfrequenz runterschraube auf 60 Hz z.B. hält der Akku doch länger durch. Mit G-Sync könnte man doch jetzt eigentlich langsam den Schritt machen, die Frequenz sehr dynamisch zu gestalten.
Z.B. Browsen auf Desktop --> 144 Hz, Zocken --> 300 Hz. Einstellbar pro Anwendung oder Spiel.
Was noch besser wäre, wenn der Laptop erkennt ob überhaupt eine hohe Frequenz notwendig ist. Wird die Maus nicht bewegt und auf dem Monitor nichts bewegliches dargestellt, könnte man weit unter 60 Hz gehen und noch mehr Strom sparen. Vielleicht auch runter auf 1 Hz?
1. April war doch gestern? Optimus funktioniert immer noch nicht korrekt unter Windows 10. Es kommt zu sporadischen zufälligen kurzzeitigen 2-3 Sekunden an/aus/an/aus toggles der dGPU ohne Grund. Und das kann man NICHT abschalten oder beeinflussen. Das führt dann zB beim Dell XPS 15 dazu, das die Lüfter ständig anlaufen für 5 Sekunden für nichts, wenn man den Laptop am Strom betreibt. Weder Nvidia noch Dell sind daran interessiert daran mal was zu ändern.
Hatte zich fach bei Nvidia angefragt, ob die daran mal was optimieren wollen oder wenigstens ein Optimus off force switch einbauen könnten, kein Interesse. "Optimus entscheidet selber intelligent wann die Performance benötigt wird".
Dell versteht das Problem nicht, und "alles arbeitet wie es soll".
Bugs bei MS einreichen die dann mal da ankommen, wo sie sollten? Unmöglich.
@Eiswolf93 Intel hat diese Technologie mal vorgestellt. Für die Anwendung von deren iGPU mit Bildschirmen mit AdaptiveSync. Seitdem nichts mehr von gehört, vielleicht brauchen die dafür die Xe-Grafik. Edit: Hier der damalige Artikel.
Zum Artikel: Ich finde es interessant, dass seit einem Jahr AMD mit Software-Innovationen vorlegt. Erst Contrast-Adaptive Sharpening, jetzt Smartshift. Beides hat Nvidia innerhalb weniger Monate übernommen.
Ganz ehrlich, die GPUs sollten die Wattzahl im Namen tragen. Es ist als Kunde teilweise überhaupt nicht klar welche Leistungsklasse man kriegt, bzw. je nach Laptop kann eine 1660 Ti durchaus mal schneller sein als eine 2060.
Bei der 2070 mit ca. 10% mehr Shadern kann ich mir schon vorstellen das da was ankommt.
Bei der 2080 eher nicht. Das ist doch eher nur Kosmetik oder? oder kann die mehr wegen erhöhter Stromaufnahme, wenn das in einem Notebok überhaupt noch möglich ist?
Bei dem was Nvidia da treibt blickt man doch als IT-affiner Mensch schon nicht mehr durch, wie soll sich denn da irgendein Durchschnittskunde noch auskennen? Finde das wirklich mehr als schwach was da im mobilen Segment betrieben wird.
Ganz ehrlich, die GPUs sollten die Wattzahl im Namen tragen. Es ist als Kunde teilweise überhaupt nicht klar welche Leistungsklasse man kriegt, bzw. je nach Laptop kann eine 1660 Ti durchaus mal schneller sein als eine 2060.
Smartshift klingt für mich danach, dass die GPU immer profitieren kann, wenn sie es denn will. Die CPU von Haus aus.
Den Optimus-G-Sync Chip sehen wir vllt in der nächsten Generation auf der Platine. Denn diese Technologie macht nur Sinn und eine händische Implementierung durch den OEM Hersteller ist mehr als nervig für diesen.
Redical schrieb:
Bei dem was Nvidia da treibt blickt man doch als IT-affiner Mensch schon nicht mehr durch, wie soll sich denn da irgendein Durchschnittskunde noch auskennen? Finde das wirklich mehr als schwach was da im mobilen Segment betrieben wird.
Diese Smartshiftoption finde ich persönlich sehr interessant. Damit könnte man wirklich das max. aus beiden Welten holen. Manche Spiele setzen eben auf volle GPU und manche auf volle CPULast.
Die News finde ich auch wie immer super geschrieben. Aber ich finde es schwierig den Überblick zu behalten bei so vielen unterschiedlichen Ausführungen der selben Karten, sowie den neuen Funktionen die nicht bei jedem Produkt verfügbar sein werden. So muss man sich über zig Eigenschaften informieren und wie diese im gewünschten Produkt umgesetz wurden. Außerdem finde ich es irreführend, wenn das vermeintlich selbe Produkt (z.B. 2080) durch so gravierend unterschiedliche Leistungsaufnahmen zu entsprechenden Leistungsunterschieden neigt. Das ist zwar wohl schon länger ein Problem im mobilen Segement, ich kann mir aber trotzdem nicht vorstellen, dass das für die Kundenzufriedenheit förderlich ist.
Sehr sehr geil, insbesondere das Optimus Upgrade is definitiv Pflicht für mich.
Den Trend zu über 144hz seh ich persönlich (!) als unnötig, da für mich Laptops Geräte zum gelegentlichen Zoggn sind. Sprich 144hz, G-Sync Optimus, den AMD Renoir 4800HS und ner 2070 maxQ auf 15,4 Zoll wären Bombe. Ich mag das deswegen, weil die Leistung der GPU tendenziell reicht und über den niedrigeren Takt dann auch weniger Lautstärke zur Kühlung produziert. Klar, leise wird es nie, ne Turbine mag ich mir aber auch nicht antun. Dann lieber 2mm in der Höhe mehr und alles schick als slim mit Drosselung und Dröhnung....
Schenker (@XMG Support ) ließ im Thread zum 16 Kerner Laptop den Ausblick auf eher Q4 mit Renoir fallen, bin sehr gespannt. Eilt ja nix
Es war ja schon länger so das aufgrund der Kühlleistung und variabler Leistungsaufnahme bzw. Max-Q Varianten (von denen ich im allgemeinen ein Fan bin) sehr große Leistungsunterschiede gibt. Nicht sehr kundenfreundlich, jedoch nichts Neues im Notebook-Markt. Die neuen Features sind nett, hätten bei neuen Produkten aber auch gerne Pflicht sein können, hoffentlich sind die Hersteller da transparent, ob ihr Produkt diese bietet.
Der nächste größere Sprung kommt dann wahrscheinlich nächstes Jahr mit mobilen RTX 3000 und Navi 2X (wenn AMD mehr im mobilen GPU Segment tut).
Natürlich nicht, die können weiterhin große GPU-Namen bewerben.
Eigentlich wäre es eine schöne Idee, wenn Notebooks angeben würden welche GPU-TDP sie dauerhaft gewährleisten können. Von mir aus auch nur in einem Standardszenario.
Stand jetzt kann man nämlich auf den Modellnamen echt wenig geben. Viel wichtiger ist, ob das ein Max-Q Modell ist (eher langsamer) und wie sehr die GPU aufgrund mandelnder Kühlung runtertaktet.
Im Endeffekt sieht man es ja auch in euren Notebooktests ganz gut.
estros schrieb:
Denn mit Max-Q hast du wirklich geballte Leistung im Notebook, die win Gamer haben möchte.
Eh... eigentlich nicht. Max-Q Karten sind prinzipiell eher langsamer als das gleiche Modell als nicht Max-Q. Steht das Q nciht sogar für "quiet"? Hier mal ein Test in dem man sieht, dass 2060 ziemlich auf Augenhöhe mit einer 2070 Max-Q sein kann:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Bei dem was Nvidia da treibt blickt man doch als IT-affiner Mensch schon nicht mehr durch, wie soll sich denn da irgendein Durchschnittskunde noch auskennen? Finde das wirklich mehr als schwach was da im mobilen Segment betrieben wird.
Wie lange will Ngreedya noch die 2XXX Generation melken? Die 2XXX Generation kam Ende 2018 auf den Markt. Ich würde gerne eine neue Graka kaufen aber sicher nicht basierend auf einer 1,5 Jahre alten Architektur. Die "Super" Modelle sind doch auch nur ein Aufguss.