Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News RTX 4000 Laptop GPUs: Das sind RTX 4090, 4080, 4070, 4060 & 4050 für Notebooks
- Ersteller Jan
- Erstellt am
- Zur News: RTX 4000 Laptop GPUs: Das sind RTX 4090, 4080, 4070, 4060 & 4050 für Notebooks
- Registriert
- Apr. 2001
- Beiträge
- 16.206
Artikel-Update: Im Gespräch auf der CES hat Nvidia auf Nachfrage zu verstehen gegeben, dass Notebook-Hersteller auch weiterhin die Verlustleistung der konkret eingesetzten Laptop-GPU-Variante publizieren müssen, damit Kunden eine Chance haben, die Leistungsfähigkeit einschätzen zu können, denn allein der Blick auf die GPU-Bezeichnung reicht dafür nicht aus. ComputerBase wird das Thema im Auge behalten. Auch in der aktuellen Generation erfüllen viele OEMs diese Anforderung nicht.
Die wird auch ohne DLSS3 deutlich schneller sein.bartio schrieb:Soll das ein schlechter Scherz sein?
Wegen DLSS3 werden die zwar schneller sein, aber das ist schon mMn mau.
Waelder
Commander
- Registriert
- Juli 2012
- Beiträge
- 2.727
scheint als ob man versucht diesmal die Lücken ein wenig größer zu machen, gerade im Mittelfeld. Max betriebene GPUs der alten Generation überholten nicht zu selten das nächst höhere Modelle sofern dieses beim Stromhunger zu sehr beschnitten war. Von da her ein wenig überraschend das zB die 4070 bis auf 35W runter geht, kann es schnell wieder das Szenario geben...
TigersClaw
Lieutenant
- Registriert
- Okt. 2002
- Beiträge
- 707
Ich hätte gerne eine 4090 Notebook GPU als Desktop Karte. Ich möchte kein 450 Watt Monster im PC haben.
Es ist überhaupt nicht das Ziel von Nvidia das zu verhindern. Wozu? Je nach dem was der Käufer bereit ist zu zahlen, bekommt er eben eine höhere Effizienz. Gut für Nvidia, da sie in teureren Subnotebooks größere GPUs verkaufen können und gut für den Kunden, da die eine höhere Effizienz bekommen können, wenn er denn das zusätzliche Geld berappen will.Waelder schrieb:scheint als ob man versucht diesmal die Lücken ein wenig größer zu machen, gerade im Mittelfeld. Max betriebene GPUs der alten Generation überholten nicht zu selten das nächst höhere Modelle sofern dieses beim Stromhunger zu sehr beschnitten war. Von da her ein wenig überraschend das zB die 4070 bis auf 35W runter geht, kann es schnell wieder das Szenario geben...
Ergänzung ()
Kaufe dir eine 4080 und setzte die TDP auf 150W.TigersClaw schrieb:Ich hätte gerne eine 4090 Notebook GPU als Desktop Karte. Ich möchte kein 450 Watt Monster im PC haben.
Ansonsten hat das Desktop Pendant eine TDP von 320W und nicht 450W und bleibt sogar meist deutlich drunter.
Die Asus 4090 XG Mobile Auskopplung als externe GPU wird sicherlich soviel (oder mehr) kosten wie ne 4080. Von daher ist die Idee von @bensen schon nicht schlecht.TigersClaw schrieb:Ich hätte gerne eine 4090 Notebook GPU als Desktop Karte. Ich möchte kein 450 Watt Monster im PC haben.
- Registriert
- März 2009
- Beiträge
- 2.974
Solche ExternGPUs verhöckert man doch nich für das was sie in Wirklichkeit sind, sondern dafür was draufsteht plus Vergoldungszuschlag ^^
Günstiger wird man mit externen Gehäuse mit normaler Graka wegkommen....frage ist welche verbindung am Laptop die Übetragungsgeschwindigkeit schaffen soll....2x Thunderbolt 4 ?
Günstiger wird man mit externen Gehäuse mit normaler Graka wegkommen....frage ist welche verbindung am Laptop die Übetragungsgeschwindigkeit schaffen soll....2x Thunderbolt 4 ?
Die Lücke zwischen der 4080 und 4070 ist ja mal wieder riesig. Da passen noch locker zwei Modelle rein.
Way to go um die 4070 für teuer Geld abzusetzen, weil "ist ja nah dran an der 4080"?
Sieht für mich aus wie dieselbe Strategie welche sie im Desktopsegment verfolgen: Spitzenmodell (AD102) mit toller Leistung und trotz des hohen Preises noch vertretbarer P-/L anzubieten um nur wenig darunter quasi einen halbierten Chip mit massiv niedrigeren Fertigungskosten für ~20% weniger Geld anzubieten.
Der Sprung von 4080 mobile auf 4070 mobile wird durch das TDP-Chaos bei nVidia für ziemlich extreme Diskrepanzen sorgen...
Way to go um die 4070 für teuer Geld abzusetzen, weil "ist ja nah dran an der 4080"?
Sieht für mich aus wie dieselbe Strategie welche sie im Desktopsegment verfolgen: Spitzenmodell (AD102) mit toller Leistung und trotz des hohen Preises noch vertretbarer P-/L anzubieten um nur wenig darunter quasi einen halbierten Chip mit massiv niedrigeren Fertigungskosten für ~20% weniger Geld anzubieten.
Der Sprung von 4080 mobile auf 4070 mobile wird durch das TDP-Chaos bei nVidia für ziemlich extreme Diskrepanzen sorgen...
Dann kauf dir eine 4080 Desktop-Karte und stelle das Power Limit drastisch nach unten. Fertig.TigersClaw schrieb:Ich hätte gerne eine 4090 Notebook GPU als Desktop Karte. Ich möchte kein 450 Watt Monster im PC haben.
Btw: den Test zur 4090 hast du vollständig gelesen, ja?
Ergänzung ()
BTT: Notebook mit 4050 oder 4060 und ich habe für 5 Jahre ausgesorgt. Dazu ein i5-13500 oder ähnlich...
Was viele von ihnen weiterhin nicht tun.Jan schrieb:dass Notebook-Hersteller auch weiterhin die Verlustleistung der konkret eingesetzten Laptop-GPU-Variante publizieren müssen
Der Kunde kauft in vielen Fällen immer noch eine "Katze im Sack". Wenn er pfiffig ist, so sucht er vor dem Erwerb nach Reviews (wo auch nicht immer die TGP angegeben wird) und hofft, dass da etwas mehr Informationen zu den Spezifikationen/Leistung gibt.
Ihr könnt daher bei Nvidia mal nett nachfragen, wieso die Hersteller es trotzdem nicht tun?
Also die 4090 und die 4080 klingen schon lecker. Werden aber wohl zu teuer sein. Wenn es heißt, dass Laptops ab 2000$ (zzgl. tax) zu erwarten sind, dann werden die meisten wohl deutlich drüber liegen. Bei der 4090 sicher nicht unter 3000$. Also im Euroraum erwarte ich - zumindest erstmal - keine Geräte unter 2500€.
Die 4070 scheint mir echt am wenigsten interessant. Weniger Shader, weniger Bandbreite (hier muss man natürlich schauen, wie gut der Cache bei welcher Auflösung hilft), und vergleichbare Leistungsaufnahme.
Okay, Ada wird höher takten, aber ob es das wirklich wett macht? Vor allem in welchen Szenarien. QHD ist bei 3070 Laptops nicht selten gewesen. Also wie performt die 4070 bei FHD, QHD etc. Vor allem ohne FG, was ja wirklich nicht in jedem Spiel vorhanden ist und ja auch Nachteile hat - zumindest bisher. Ich persönlich hatte ja erwartet, dass meine 3070 wirklich abstinken wird nachdem, was 4090 und 4080 auf dem Desktop geliefert haben. Aktuell sehe ich da nur geringe Performance-Sprünge. Aber vielleicht täusche ich ja. Also natürlich erstmal Tests abwarten.
Die 4070 scheint mir echt am wenigsten interessant. Weniger Shader, weniger Bandbreite (hier muss man natürlich schauen, wie gut der Cache bei welcher Auflösung hilft), und vergleichbare Leistungsaufnahme.
Okay, Ada wird höher takten, aber ob es das wirklich wett macht? Vor allem in welchen Szenarien. QHD ist bei 3070 Laptops nicht selten gewesen. Also wie performt die 4070 bei FHD, QHD etc. Vor allem ohne FG, was ja wirklich nicht in jedem Spiel vorhanden ist und ja auch Nachteile hat - zumindest bisher. Ich persönlich hatte ja erwartet, dass meine 3070 wirklich abstinken wird nachdem, was 4090 und 4080 auf dem Desktop geliefert haben. Aktuell sehe ich da nur geringe Performance-Sprünge. Aber vielleicht täusche ich ja. Also natürlich erstmal Tests abwarten.
Waelder
Commander
- Registriert
- Juli 2012
- Beiträge
- 2.727
klar ist es gut für nvidia, ich schreib ja auch als Kundensicht. Ich bezweifel ziemlich stark das sich die Effizienz für viele rentiert wenn der höhere Preis gegenüber gestellt wird... da ist der primäre Gedanke bei Nvidia schon mehr teurere GPUs an den Mann zu bringen und nicht die Effizienzbensen schrieb:Es ist überhaupt nicht das Ziel von Nvidia das zu verhindern. Wozu? Je nach dem was der Käufer bereit ist zu zahlen, bekommt er eben eine höhere Effizienz. Gut für Nvidia, da sie in teureren Subnotebooks größere GPUs verkaufen können und gut für den Kunden, da die eine höhere Effizienz bekommen können, wenn er denn das zusätzliche Geld berappen will.
Ergänzung ()
Saint81
Lieutenant
- Registriert
- Feb. 2017
- Beiträge
- 614
Wenn es denn klar beworben würde, wäre ich bei dir. Wird es aber leider nicht. Es wird bewusst und in böswilliger Absicht verschleiert, das man an der Kühlung gespart hat und deswegen die Leistung drosselt.bensen schrieb:Für was? Völlig absurd. Man bekommt was beworben wird.
Wenn ich ein Auto verkaufe muss Verbrauch & Leistung angegeben werden.
Nicht irgendwo im Anhang A38, sondern direkt fett auf der ersten Seite neben der GPU Modellangabe.
Hatte ich erst vor nem halben Jahr bei Dell. Erst nach langem Support-Pingpong von Pre-Sales, zu Support zu Hardware-Kollegen weitergereicht worden, bis irgendwer mal ein Datenblatt aus der Ablage F gezogen hat, wo die TGP für den Precision 7670 gelistet war. Kein 0815 Endanwender macht sich die Mühe.
Zwischen "Hersteller sind verpflichtet" ohne Konsequenzen wenn sie es doch nicht tun und "Hersteller geben es wirklich an" ist bedauerlicherweise ein himmelweiter Unterschied.
Caramelito
Admiral
- Registriert
- Juni 2016
- Beiträge
- 8.963
Bisher war die GPU Leistung im Laptop OK - Die Unterschiede (bis auf den VRAM) aber sehr gering.
Sprich eine 3070 Ti mit 150W war in etwa so performant wie eine 3080 Ti 150W. +-5-10% je nach Taktgüte.
Das sollte diesmal anders sein, weil immer der größere Chip verbaut ist nehme ich an.
Gepaart mit der 4000er Effizienz kann man hier schon große Sprünge erwarten.
Die Lautstärke ist und bleibt aber ein Punkt bei den Geräten, der mich einfach nur nervt.
Hatte hier testweise diverse Geräte (MSI GE76 mit ner 3070ti, Razer 17 mit 3080ti, Asus G17 3070ti, Gigabyte Aorus 3080ti,..)
Wenn man max. Leistung wollte (150w GPU Leistungsmodus und CPU ohne viel Throttling) war das ohne Kopfhörer unaushaltbar (manche schlimmer als andere) - Mit Kopfhörern sollte es eine geschlossene Bauweise sein, und auch da hört man etwas raus..
Der "Kompromiss" war dann immer "Balanced" Mode .. GPU auf 130w runter, dann noch Undervolting, so dass die GPU 115w ca. verbraucht usw...aber dann kauft man mMn. kein Gerät mit max. Leistung um es dann nicht nutzen zu können, oder man genießt den Lärm wie am Flughafen.
Sprich eine 3070 Ti mit 150W war in etwa so performant wie eine 3080 Ti 150W. +-5-10% je nach Taktgüte.
Das sollte diesmal anders sein, weil immer der größere Chip verbaut ist nehme ich an.
Gepaart mit der 4000er Effizienz kann man hier schon große Sprünge erwarten.
Die Lautstärke ist und bleibt aber ein Punkt bei den Geräten, der mich einfach nur nervt.
Hatte hier testweise diverse Geräte (MSI GE76 mit ner 3070ti, Razer 17 mit 3080ti, Asus G17 3070ti, Gigabyte Aorus 3080ti,..)
Wenn man max. Leistung wollte (150w GPU Leistungsmodus und CPU ohne viel Throttling) war das ohne Kopfhörer unaushaltbar (manche schlimmer als andere) - Mit Kopfhörern sollte es eine geschlossene Bauweise sein, und auch da hört man etwas raus..
Der "Kompromiss" war dann immer "Balanced" Mode .. GPU auf 130w runter, dann noch Undervolting, so dass die GPU 115w ca. verbraucht usw...aber dann kauft man mMn. kein Gerät mit max. Leistung um es dann nicht nutzen zu können, oder man genießt den Lärm wie am Flughafen.
Und was bringt dir das? Hier tun alle so rum, als ob überall schon DLSS3.0 und FG integriert wären, man muss Leistung immer ohne diese Features beziffern und dahingehend ist das ganze Lineup für den Arsch (bis auf die 4090 Laptop, aber die säuft dir ohne die nötige Elektrische Leistung auch direkt ab...)bartio schrieb:Wegen DLSS3 werden die zwar schneller sein, aber das ist schon mMn mau.
Das kann ja der Kunde entscheiden. Er kann ja frei wählen. Wichtig ist, dass die TDP vernünftig deklariert wird.Waelder schrieb:klar ist es gut für nvidia, ich schreib ja auch als Kundensicht. Ich bezweifel ziemlich stark das sich die Effizienz für viele rentiert wenn der höhere Preis gegenüber gestellt wird...
Caramelito
Admiral
- Registriert
- Juni 2016
- Beiträge
- 8.963
Unti schrieb:Und was bringt dir das? Hier tun alle so rum, als ob überall schon DLSS3.0 und FG integriert wären, man muss Leistung immer ohne diese Features beziffern und dahingehend ist das ganze Lineup für den Arsch (bis auf die 4090 Laptop, aber die säuft dir ohne die nötige Elektrische Leistung auch direkt ab...)
Sehe ich nicht so.
Genau diese Features sind Vorteile einer RTX Karte.
DLSS 3 gibt es schon in ein paar Games (Witcher 3 RT, NFS Unbound, Flight Sim etc..) und es werden viele Games noch folgen - Bedenke, dass die neue GPU Gen. 2 Jahre am Markt "aktuell" bleibt.
Da kaufe ich lieber eine RTX 4000 und kann dann in gewissen Games das Feature aktivieren, als einfach pure Rasterizer Performance zu kaufen (welche ist denn überhaupt zu einem besseren Preis verfügbar? Ja genau, keine,..) und dann in Games wie Witcher 3 RT eben alle neuen Features abschalten müssen (wenn die einem wichtig sind).
Ergänzung ()
Waelder schrieb:klar ist es gut für nvidia, ich schreib ja auch als Kundensicht. Ich bezweifel ziemlich stark das sich die Effizienz für viele rentiert wenn der höhere Preis gegenüber gestellt wird...
Wieso immer nur so engstirnig alles mit den Kosten verbunden werden muss.
Ist dir also lieber, dass in deinem Gehäuse eine GPU mit 450w werkt, statt mit 300?
Die Wärme im Gehäuse, Wärme in deinem Arbeitszimmer/Büro, dadurch höhere Lautstärke aller Komponenten (Gehäuselüfter, CPU Lüfter,..) .. all das ist dir egal? Dann hut ab
Größtenteils wird es das schon. Mag aber durchaus Ausnahmen geben. Und das ist dann wirklich ein Problem.Saint81 schrieb:Wenn es denn klar beworben würde, wäre ich bei dir. Wird es aber leider nicht.
Bin ich so pauschal nicht bei dir. Es ist ja nicht so, das eine große Kühlung/ hohe TDP nur Vorteile hat. Für kompakte, leichte Geräte, ist eine niedrigere TDP sinnvoll. Deswegen finde ich die pauschale Kritik an einer TDP range falsch.Saint81 schrieb:Es wird bewusst und in böswilliger Absicht verschleiert, das man an der Kühlung gespart hat und deswegen die Leistung drosselt.
Natürlich gibt es auch diejenigen die in einen Klotz ne kümmerliche Kühlung verbauen.
Wo ist geregelt wo Verbrauch und Leistung angegeben werden muss?Saint81 schrieb:Wenn ich ein Auto verkaufe muss Verbrauch & Leistung angegeben werden.
Nicht irgendwo im Anhang A38, sondern direkt fett auf der ersten Seite neben der GPU Modellangabe.
Wünschenswert wäre es natürlich wenn die TDP direkt hinter der GPU genannt würde.
Mein Punkt ist, dass die Kritik an die Notebook-Hersteller gehen muss, nicht an Nvidia.
Und der Verbraucherschutz hat sicherlich keinen Handhabe gegenüber Nvidia.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 441
- Antworten
- 35
- Aufrufe
- 1.407
- Antworten
- 249
- Aufrufe
- 25.621
- Antworten
- 111
- Aufrufe
- 29.650
- Antworten
- 220
- Aufrufe
- 35.107