News GeForce RTX 4090: Nvidias neue schnellste GeForce* auch im Notebook

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.735
  • Gefällt mir
Reaktionen: Chesterfield
das ist Marketing ala Nvidia :D.
Nach dem 4080 12Gb fail trotzdem mal Laien "bewusst täuschen" indem man einfach mal eine kastrierte 4080 als 4090 deklariert. traurig... Nvidia könnte zumindest sowas wie ein RTX4090M(obile) draus machen um nicht bewusst der Täuschung bezichtigt zu werden
 
  • Gefällt mir
Reaktionen: xXBobbyXx, flo.murr, BVZTIII und 32 andere
Bittet testet diese im Vergleich zum Desktop 4070/4080 und dem Verbrauch.

Die Notebookchips wären auch geile Desktopkarten, weil guter Spot zwischen Leistung und Verbrauch.
 
  • Gefällt mir
Reaktionen: Headyus, Unioner86, 786mirko und 2 andere
Die Abstufungen sind schon wieder seltsam. Warum nennt man den 4080 Chip nicht einfach 4080 und den 4070 Chip 4070. Damit will Nvidia offensichtlich noch weiter den Gewinn maximieren. Aber es wird bestimmt genug Käufer geben von daher Wayne...
MFG Piet
 
  • Gefällt mir
Reaktionen: Onkel Föhn, aid0nex, drmaniac und 2 andere
Chesterfield schrieb:
Nach dem 4080 12Gb fail trotzdem mal Laien "bewusst täuschen" indem man einfach mal eine kastrierte 4080 als 4090 deklariert. traurig...
Der Formfaktor ist im Notebook entscheidend. Dort kann man keine 450 Watt GPU verbauen.
So sind natürlich auch die Namen andere.

Chesterfield schrieb:
Nvidia könnte zumindest sowas wie ein RTX4090M(obile) draus machen um nicht bewusst der Täuschung bezichtigt zu werden
Die Namen sind doch völlig egal. Was zählt ist das was ich dafür bekomme.
Sollte RTX 3090 (Ti) Leistung herauskommen, ist das für typische Notebookauflösungen absolut top.

PietVanOwl schrieb:
Die Abstufungen sind schon wieder seltsam. Warum nennt man den 4080 Chip nicht einfach 4080 und den 4070 Chip 4070.
Die Mehrleistung von 3070 zu 4070 sind auch locker mal 40%.
Von 2070 zu 3070 waren es auch nicht mehr.
 
  • Gefällt mir
Reaktionen: Unioner86
Ragnarök88 schrieb:
Die Mehrleistung von 3070 zu 4070 sind auch locker mal 40%.
Von 2070 zu 3070 waren es auch nicht mehr.
Kann gut sein, erklärt aber trotzdem nicht warum man den 4080 Chip nun plötzlich 4090 nennt. ;)
Ragnarök88 schrieb:
Dort kann man keine 450 Watt GPU verbauen.
Man kann aber eine 4090 auch mit 200W betreiben, oder eben den 80er Chip auch einfach 80er nennen.
MFG Piet
 
  • Gefällt mir
Reaktionen: wolve666, Onkel Föhn, nosound und 3 andere
Nuklon schrieb:
Die Notebookchips wären auch geile Desktopkarten, weil guter Spot zwischen Leistung und Verbrauch.
Limitiere deine Desktopkarte auf 150 Watt und fertig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unioner86, R4Z3R, stevefrogs und eine weitere Person
Chesterfield schrieb:
das ist Marketing ala Nvidia :D.
Nach dem 4080 12Gb fail trotzdem mal Laien "bewusst täuschen" indem man einfach mal eine kastrierte 4080 als 4090 deklariert. traurig... Nvidia könnte zumindest sowas wie ein RTX4090M(obile) draus machen um nicht bewusst der Täuschung bezichtigt zu werden
Der Käse existiert seit bald 10 Jahren im Notebook. Ist also ein alter Schuh.
Nvidia will hier nur mit dem namenskürzel klar machen, was high end u
Ist und was nicht.
Sie nehmen dann den effizientesten Chip, was ja logisch ist.
 
  • Gefällt mir
Reaktionen: Unioner86 und Slayn
Chesterfield schrieb:
Nach dem 4080 12Gb fail trotzdem mal Laien "bewusst täuschen" indem man einfach mal eine kastrierte 4080 als 4090 deklariert. traurig... Nvidia könnte zumindest sowas wie ein RTX4090M(obile) draus machen um nicht bewusst der Täuschung bezichtigt zu werden
Ferax schrieb:
Der Käse existiert seit bald 10 Jahren im Notebook. Ist also ein alter Schuh.
Nvidia will hier nur mit dem namenskürzel klar machen, was high end u
Ist und was nicht.
Sie nehmen dann den effizientesten Chip, was ja logisch ist.
Tatsächlich hat Nvidia die Strategie immer wieder gewechselt: Bis zu Pascal hatten die Mobile-Karten ein M als Suffix und anfangs stets sehr wenig mit den Desktopkarten zu tun (die 680m war zum Beispiel im Kern eine untertakte 670 Desktop) Über die Jahre hinweg näherten sich dort tatsächlich auch die Namen und Stats an. (also 980m und 980 Desktop trugen den gleichen Chip, gleich viel Speicher, die 980m war nur effizienter eingestellt) Bei Pascal ist Nvidia dann dazu über gegangen, Desktop- und Mobile-Karten deckungsgleich auszulegen. Das ist natürlich eine blöde Idee gewesen, denn damit bleibt Effizienz liegen. Mit Turing sind sie dann bei den gleichen Chips geblieben, haben aber die Effizienz getuned, bei Ampere hingegen zum alten System zurückgekehrt, nur ohne M im Namen. Und das ist der irreführenste Schritt überhaupt gewesen. Und ja, dafür sollten sie juristisch belangt werden.
 
  • Gefällt mir
Reaktionen: Headyus, Blumenwiese, Kommando und 7 andere
Ragnarök88 schrieb:
Die Namen sind doch völlig egal. Was zählt ist das was ich dafür bekomme.
Nein, ist es nicht. Das ist bewusste Täuschung von Käufern. Die Leute denken nur sie bekommen mehr Leistung die sie dann aber nicht haben. Wie oft habe ich es schon erlebt, dass die Leute denken, dass sie dieselbe Leistung im Notebook bekommen wie auf den Desktop. Und dann kommen fragen wie: "Wieso habe ich so wenig FPS, ich habe doch eine 3070." Nein, hasst du nicht, denn die 3070 Mobile GPU ist von der Leistung eher mit der 3060 Desktop zu vergleichen...
 
  • Gefällt mir
Reaktionen: Headyus, dermatu, Blumenwiese und 6 andere
Ist doch bei AMD nicht anders, eine 6800M ist ja auch deutlich schwächer als selbst eine 6700XT und eher auf dem Niveau einer 5700XT.

Es sind halt 2 Verschiedene Märkte, einmal Desktop und einmal Notebook und die Bezeichnungen erklären, wo man innerhalb dieses Marktes von der Performance her liegt.

Der einzige Kritikpunkt ist hier in der Tat das fehlende "M", was es ja vorher auch immer gab.
 
Chesterfield schrieb:
Nvidia könnte zumindest sowas wie ein RTX4090M(obile) draus machen um nicht bewusst der Täuschung bezichtigt zu werden
Vor allem war das viele Jahre lang Standard, dass die mobilen Grafikkarten mit gleichem Namen und M suffix eigentlich kleinere GPUs waren. Durch das Suffix war das aber klar erkennbar.

In der 1000 Serie hat NVIDIA dann ja echt die Desktop GPUs mit niedrigerer TDP verbaut, da kann man das Suffix ja auch weglassen. Aber jetzt sollte man es wieder einfuehren.
 
  • Gefällt mir
Reaktionen: dermatu, nosound, Schinken42 und 3 andere
@CDLABSRadonP...
Bei Pascal hatte, wenn mich mein Gedächtnis nicht total täuscht, die 1070 mobile sogar mehr Shader, um den höheren Takt der Desktopkarte zu kompensieren. Gerade bei Pascal waren Desktop und Laptop GPUs so nah beieinander, wie nie zuvor und auch nie danach.

Aber was auf jeden Fall stimmt ist, dass es eben auch davor immer eine x80 gegeben hat, obwohl nie der Top-Chip zum Einsatz kam. Und jetzt sind wir halt wieder genau da, wo wir vor Pascal schon waren. Mit dem kleinen aber feinen Unterschied, dass NVidia leider die Nomenklatur geändert hat. Mit GTXx80m war immer klar, dass das ein Laptop-Chip ist. Mit Pascal hat man das rausgenommen, weil ja recht vergleichbar und danach ist man nicht mehr zurück zum alten Schema. Da wurde dann nur nach Kritik aus der RTX30x0 eine RTX30x0 Laptop, was unabhängiger wirkt und halt nur nachgeschoben wurde.

Ich fürchte aber auch, dass wir die Top-Chips so schnell nicht wieder in einem Laptop sehen werden. Weder von AMD noch von NVidia. Vielleicht bei Intel, abhängig davon, was bei denen der Top-Chip ist. Aber in der Leistungsklasse der Top-Chips der Konkurrenz wird Intel was wohl auch nicht schaffen.

jo0 schrieb:
Nein, ist es nicht. Das ist bewusste Täuschung von Käufern. Die Leute denken nur sie bekommen mehr Leistung die sie dann aber nicht haben. Wie oft habe ich es schon erlebt, dass die Leute denken, dass sie dieselbe Leistung im Notebook bekommen wie auf den Desktop. Und dann kommen fragen wie: "Wieso habe ich so wenig FPS, ich habe doch eine 3070." Nein, hasst du nicht, denn die 3070 Mobile GPU ist von der Leistung eher mit der 3060 Desktop zu vergleichen...
Wer im Laptop insgesamt die gleich Leistung erwartet, wie im Desktop hat aber grundlegend einen Fehler gemacht. Bleibt ja dabei, dass man da auch von der gesamten Leistungsaufnahme limitiert ist. In aller Regel ist bei max. 250W Schluss. Viel öfter sogar irgendwo zwischen 180 und 220W. Und das eben für das gesamte System. Selbst mit identischem Chip wäre es nicht möglich die gleiche Leistung zu erhalten.

Und hey, ich bin Laptop-Fan und habe seit langem keinen Desktop mehr für den Alltag. Aber ich weiß auch, welche Kompromisse man mit einem Laptop eingeht.
 
  • Gefällt mir
Reaktionen: Kommando und drmaniac
bensen schrieb:
Limitierte deine Desktopkarte auf 150 Watt und fertig.
Wenn sie dann auch den Preis der Notebookkarte hätte, liebend gern.
Zieht man den Rest der Komponeten ab, sind die in meinen Augen nicht nur effizienter, kleiner sondern auch um etliches günstiger.
 
  • Gefällt mir
Reaktionen: dersuperpro1337
Chesterfield schrieb:
das ist Marketing ala Nvidia :D.
Nach dem 4080 12Gb fail trotzdem mal Laien "bewusst täuschen" indem man einfach mal eine kastrierte 4080 als 4090 deklariert. traurig... Nvidia könnte zumindest sowas wie ein RTX4090M(obile) draus machen um nicht bewusst der Täuschung bezichtigt zu werden

Sorry, aber hast du das auch zur 3080 mit 16GB Vram gesagt?

"Täuschung" in positiver Hinsicht? Nein? Dann bitte nicht heucheln nur weils NV ist :-)

---

Ich freue mich auf die neuen Notebooks. die GPUs sind effizienter (zumindest im Desktop), da erhoffe ich mir nochmal gute Sprünge, vor allem wenn sich DLSS 3.0 etabliert.

Hoffe auch auf gute AMD Lösungen - Bisher war das alles so "mau" im Notebook Bereich.

Hatte hier einen Asus G15 mit 6800m und einen G17 mit 3070ti.
Die NV war da deutlich angenehmer (vor allem mit DLSS), jedoch auf 8GB Vram beschnitten.
Die 3080 Ti Notebooks waren da ziemlich teuer... da ist so eine 12GB Variante im Laptop bald genau richtig.

Bin gespannt ... CPU seitig sollte sich nicht viel tun nehme ich an..12700h (Sweetspot?) Außer sie spendieren dem 13700h 2 P-Cores.

Ein AMD X3d im Laptop Bereich (nein nicht die Desktop Version in dicken XMG Geräten^^) wäre nice.
 
@Nuklon
Dann versuche Mal eine neue GPU für einen Laptop zu bekommen. Als es die noch gab, war man da für eine GTX1070 schnell bei 500-600€. Nur für die Grafikkarte
Oder schau dir jetzt den Aufpreis von RTX3070 auf RTX3080(Ti) an. Da sind auch viele 100€ dazwischen in den meisten Fällen. Die Laptop-Grafikkarten sind leider nicht wirklich günstig, auch wenn das im aktuellen Markt vielleicht so aussehen mag.

@Caramelito
Ja AMD muss im Laptop-Segment wieder aufholen. Ich kann mich wirklich nur an die HD7970m erinnern, die eine ernstzunehmende Konkurrenz für NVidia im Laptop war. Damals schneller und günstiger als die GTX680.
Die HD7970m fand ich auch in meinem Laptop super!
 
  • Gefällt mir
Reaktionen: Schinken42
Caramelito schrieb:
Sorry, aber hast du das auch zur 3080 mit 16GB Vram gesagt?

"Täuschung" in positiver Hinsicht? Nein? Dann bitte nicht heucheln nur weils NV ist :-)
Häh? Die 3080 16GiB für Mobile war eine Karte, die mit der eigentlichen 3080 nichts zu tun hatte. Sie nutzte den GA104-Chip der 3070 8GiB Desktop, an Stelle des GA102 von 3080 10GiB Desktop.
In positiver Hinsicht wurde da gar nichts getäuscht...
 
  • Gefällt mir
Reaktionen: wolve666, dersuperpro1337, BummlerD und 2 andere
@CDLABSRadonP... sehe es genauso. völlig aus dem zweckentrissener vergleich.
nvidia ist kein Wohltätigkeisverein, wenn sie "mehr" ram " verbauen, hat es einzig und allein marketing und Konkurrenz gründe. nicht aus Nächstenliebe
 
Ich vermute einen AD103-Vollausbau mit verringertem Takt als Flaggschiff. Alles darunter muss man wohl noch abwarten.
"Echte" RTX 4090-Leistung ist damit natürlich nicht zu erreichen, aber trotzdem werden High-End-Laptops so definitiv endgültig 4K-tauglich.
 
Zurück
Oben