News Nvidia Turing im Notebook: Zwei RTX Super und Brücken-Chip für G-Sync und Optimus

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
15.270
  • Gefällt mir
Reaktionen: aid0nex
Der Trend geht also zu 240 Hz bis 300 Hz bei FullHD in Gaming Laptops.

Was ich bei meinem Aero 15 immer wieder sehe, wenn ich die Bildwiederholungsfrequenz runterschraube auf 60 Hz z.B. hält der Akku doch länger durch. Mit G-Sync könnte man doch jetzt eigentlich langsam den Schritt machen, die Frequenz sehr dynamisch zu gestalten.

Z.B. Browsen auf Desktop --> 144 Hz, Zocken --> 300 Hz. Einstellbar pro Anwendung oder Spiel.
Was noch besser wäre, wenn der Laptop erkennt ob überhaupt eine hohe Frequenz notwendig ist. Wird die Maus nicht bewegt und auf dem Monitor nichts bewegliches dargestellt, könnte man weit unter 60 Hz gehen und noch mehr Strom sparen. Vielleicht auch runter auf 1 Hz?

Hier sehe ich noch viel Potenzial.
 
  • Gefällt mir
Reaktionen: BReaK47, Hatch, aid0nex und 4 andere
1. April war doch gestern? Optimus funktioniert immer noch nicht korrekt unter Windows 10. Es kommt zu sporadischen zufälligen kurzzeitigen 2-3 Sekunden an/aus/an/aus toggles der dGPU ohne Grund. Und das kann man NICHT abschalten oder beeinflussen. Das führt dann zB beim Dell XPS 15 dazu, das die Lüfter ständig anlaufen für 5 Sekunden für nichts, wenn man den Laptop am Strom betreibt. Weder Nvidia noch Dell sind daran interessiert daran mal was zu ändern.

Hatte zich fach bei Nvidia angefragt, ob die daran mal was optimieren wollen oder wenigstens ein Optimus off force switch einbauen könnten, kein Interesse. "Optimus entscheidet selber intelligent wann die Performance benötigt wird".

Dell versteht das Problem nicht, und "alles arbeitet wie es soll".

Bugs bei MS einreichen die dann mal da ankommen, wo sie sollten? Unmöglich.
 
  • Gefällt mir
Reaktionen: aid0nex
@Eiswolf93 Intel hat diese Technologie mal vorgestellt. Für die Anwendung von deren iGPU mit Bildschirmen mit AdaptiveSync. Seitdem nichts mehr von gehört, vielleicht brauchen die dafür die Xe-Grafik. Edit: Hier der damalige Artikel.

Zum Artikel: Ich finde es interessant, dass seit einem Jahr AMD mit Software-Innovationen vorlegt. Erst Contrast-Adaptive Sharpening, jetzt Smartshift. Beides hat Nvidia innerhalb weniger Monate übernommen.
 
Ganz ehrlich, die GPUs sollten die Wattzahl im Namen tragen. Es ist als Kunde teilweise überhaupt nicht klar welche Leistungsklasse man kriegt, bzw. je nach Laptop kann eine 1660 Ti durchaus mal schneller sein als eine 2060.
 
  • Gefällt mir
Reaktionen: aid0nex, LukS und jabberwalky
Bei der 2070 mit ca. 10% mehr Shadern kann ich mir schon vorstellen das da was ankommt.
Bei der 2080 eher nicht. Das ist doch eher nur Kosmetik oder? oder kann die mehr wegen erhöhter Stromaufnahme, wenn das in einem Notebok überhaupt noch möglich ist?
 
  • Gefällt mir
Reaktionen: twoface88
Bei dem was Nvidia da treibt blickt man doch als IT-affiner Mensch schon nicht mehr durch, wie soll sich denn da irgendein Durchschnittskunde noch auskennen? Finde das wirklich mehr als schwach was da im mobilen Segment betrieben wird.
 
  • Gefällt mir
Reaktionen: twoface88 und Asghan
dr. lele schrieb:
Ganz ehrlich, die GPUs sollten die Wattzahl im Namen tragen. Es ist als Kunde teilweise überhaupt nicht klar welche Leistungsklasse man kriegt, bzw. je nach Laptop kann eine 1660 Ti durchaus mal schneller sein als eine 2060.

Ja, das ist aktuell ein Riesenproblem - nur nicht für die Hersteller.
 
  • Gefällt mir
Reaktionen: Cpt.Willard, twoface88 und SVΞN
Smartshift klingt für mich danach, dass die GPU immer profitieren kann, wenn sie es denn will. Die CPU von Haus aus.

Den Optimus-G-Sync Chip sehen wir vllt in der nächsten Generation auf der Platine. Denn diese Technologie macht nur Sinn und eine händische Implementierung durch den OEM Hersteller ist mehr als nervig für diesen.
Redical schrieb:
Bei dem was Nvidia da treibt blickt man doch als IT-affiner Mensch schon nicht mehr durch, wie soll sich denn da irgendein Durchschnittskunde noch auskennen? Finde das wirklich mehr als schwach was da im mobilen Segment betrieben wird.
Welche technischen Schwierigkeiten hast du denn? Die News ist echt gut geschrieben, um dies zu verstehen.
 
Diese Smartshiftoption finde ich persönlich sehr interessant. Damit könnte man wirklich das max. aus beiden Welten holen. Manche Spiele setzen eben auf volle GPU und manche auf volle CPULast.
 
Bin mit meiner 1070 Max Q voll zufrieden. Finde die Q Serien gut gelungen
 
  • Gefällt mir
Reaktionen: Bloodwalker
estros schrieb:
Welche technischen Schwierigkeiten hast du denn? Die News ist echt gut geschrieben, um dies zu verstehen.

Die News finde ich auch wie immer super geschrieben. Aber ich finde es schwierig den Überblick zu behalten bei so vielen unterschiedlichen Ausführungen der selben Karten, sowie den neuen Funktionen die nicht bei jedem Produkt verfügbar sein werden. So muss man sich über zig Eigenschaften informieren und wie diese im gewünschten Produkt umgesetz wurden. Außerdem finde ich es irreführend, wenn das vermeintlich selbe Produkt (z.B. 2080) durch so gravierend unterschiedliche Leistungsaufnahmen zu entsprechenden Leistungsunterschieden neigt. Das ist zwar wohl schon länger ein Problem im mobilen Segement, ich kann mir aber trotzdem nicht vorstellen, dass das für die Kundenzufriedenheit förderlich ist.
 
Sehr sehr geil, insbesondere das Optimus Upgrade is definitiv Pflicht für mich.

Den Trend zu über 144hz seh ich persönlich (!) als unnötig, da für mich Laptops Geräte zum gelegentlichen Zoggn sind. Sprich 144hz, G-Sync Optimus, den AMD Renoir 4800HS und ner 2070 maxQ auf 15,4 Zoll wären Bombe. Ich mag das deswegen, weil die Leistung der GPU tendenziell reicht und über den niedrigeren Takt dann auch weniger Lautstärke zur Kühlung produziert. Klar, leise wird es nie, ne Turbine mag ich mir aber auch nicht antun. Dann lieber 2mm in der Höhe mehr und alles schick als slim mit Drosselung und Dröhnung....

Schenker (@XMG Support ) ließ im Thread zum 16 Kerner Laptop den Ausblick auf eher Q4 mit Renoir fallen, bin sehr gespannt. Eilt ja nix :)
 
Es war ja schon länger so das aufgrund der Kühlleistung und variabler Leistungsaufnahme bzw. Max-Q Varianten (von denen ich im allgemeinen ein Fan bin) sehr große Leistungsunterschiede gibt. Nicht sehr kundenfreundlich, jedoch nichts Neues im Notebook-Markt. Die neuen Features sind nett, hätten bei neuen Produkten aber auch gerne Pflicht sein können, hoffentlich sind die Hersteller da transparent, ob ihr Produkt diese bietet.
Der nächste größere Sprung kommt dann wahrscheinlich nächstes Jahr mit mobilen RTX 3000 und Navi 2X (wenn AMD mehr im mobilen GPU Segment tut).
 
Hier stand nun wirklich Unsinn.
 
Zuletzt bearbeitet:
Jan schrieb:
nur nicht für die Hersteller

Natürlich nicht, die können weiterhin große GPU-Namen bewerben.

Eigentlich wäre es eine schöne Idee, wenn Notebooks angeben würden welche GPU-TDP sie dauerhaft gewährleisten können. Von mir aus auch nur in einem Standardszenario.

Stand jetzt kann man nämlich auf den Modellnamen echt wenig geben. Viel wichtiger ist, ob das ein Max-Q Modell ist (eher langsamer) und wie sehr die GPU aufgrund mandelnder Kühlung runtertaktet.

Im Endeffekt sieht man es ja auch in euren Notebooktests ganz gut.

estros schrieb:
Denn mit Max-Q hast du wirklich geballte Leistung im Notebook, die win Gamer haben möchte.
Eh... eigentlich nicht. Max-Q Karten sind prinzipiell eher langsamer als das gleiche Modell als nicht Max-Q. Steht das Q nciht sogar für "quiet"? Hier mal ein Test in dem man sieht, dass 2060 ziemlich auf Augenhöhe mit einer 2070 Max-Q sein kann:


Bei exakt gleichem Verbrauch sind die Max-Q Karten dann eventuell wieder schneller. Sind ja anscheinend besser gebinnte GPUs, die effzienter arbeiten.
 
Diese proprietäre Lösung seitens Nvidia „Dynamic Display Switch“ Chip auf dem PCB hätte man auch anders lösen können, immer diese Sonderwurst!

Will gar nicht wissen, wie teuer dieser Chip wieder ist!
 
dr. lele schrieb:
Eh... eigentlich nicht. Max-Q Karten sind prinzipiell eher langsamer als das gleiche Modell als nicht Max-Q. Steht das Q nciht sogar für "quiet"?
Stimmt, danke, das ist dann genau anders herum. Hab ich entsprechend rausgenommen.

Dann frage ich mich aber, warum Nv die Featues nur bei den Max-Q Produkten anbietet.:confused_alt:
 
Redical schrieb:
Bei dem was Nvidia da treibt blickt man doch als IT-affiner Mensch schon nicht mehr durch, wie soll sich denn da irgendein Durchschnittskunde noch auskennen? Finde das wirklich mehr als schwach was da im mobilen Segment betrieben wird.

gar nicht! Hier wird der Durchschnittsgedanke ausgenutzt. Je höher die Zahl, desto (signifikant) schneller (2060<2070 (Super)<2080 (Super)

Wer genauer hinschaut wird merken, dass es am meisten Sinn (was Performance, Thermal Throttling und Lautstärke angeht) entweder auf eine 2060 oder 2080 zurückgreift. Die 2070 macht hier einfach gar keinen Sinn.
Mehr dazu: https://www.computerbase.de/forum/threads/lenovo-gaming-notebook.1929698/#post-23840406
 
Wie lange will Ngreedya noch die 2XXX Generation melken? Die 2XXX Generation kam Ende 2018 auf den Markt. Ich würde gerne eine neue Graka kaufen aber sicher nicht basierend auf einer 1,5 Jahre alten Architektur. Die "Super" Modelle sind doch auch nur ein Aufguss.
 
  • Gefällt mir
Reaktionen: jabberwalky
Zurück
Oben