Test Nvidia Laptop GPUs im Test: GeForce RTX 4050, 4060, 4070, 4080 und 4090 im Vergleich

Netter Test, aber es fehlt der Vergleich zur Vorgänger Generation.
3060 130W
3070 140W
3080 165W
(TI Modelle lass ich Mal aussen vor)
Und am besten auch noch die
6600M
6700M
6800M
Jeweils mit höchsten TDP
 
  • Gefällt mir
Reaktionen: ALPHA-S und jabberwalky
Da die laptops relativ hoch Takten kann man fasst diese auf die desktop varianten schließen.
Das pro ada ist sehr effizient das contra aber der preis vs der älteren gen ist P/L sogar 1-1
Was leistung angeht genau das wie vermuteten rtx4060 akä ad107 diese komt auch auf dem desktop genau so an 24sm 2,6ghz sollte die Untergrenze sein und bei maxed 140w liegen gerade mal 10,9tf und etwa 15% hinter der rtx3060ti
Wenn nvidia diese dann für 349€ bringt ist das OK aber ich ahne das es so nicht kommt. Oder nvidia wir den Takt auf 2,9ghz prügeln und die tbp auf 180w anheben = etwa 3060ti level mit dem selben preis also 439€
Wie man schön bei der laptop varianten sieht kann ada sehr effizient sein.
lediglich der preis isn problem.
 
Untergrund schrieb:
Die RTX 4070 ist wirklich sehr enttäuschend. Mein Lenovo Legion 7 mit RTX 3080 schafft 13.800 Punkte bei 3DMark, ist somit fast 10% schneller und hat 16 GB VRAM. Der hat mich 1.500€ gekostet. Für ein Leistungsplus müsste ich also zur RTX 4080 greifen. Das ist mir dann aber doch zu teuer.
Das wird die Lücke für AMD werden. 5-10% langsamer als eine 4080 aber zum Preis einer 4070.
 
Danke für den Beitrag aber
das Encoding (AV1/Farbtiefe....) für alle 40x0 gpus zzgl. eines Vergleichs zur Konkurenz fehlt mir nach wie vor.
Wäre nett wenn so etwas noch kommt.
 
@Ghostshield

Wie Jan schon schrieb, sie haben einfach keine mehr da.

Die werden meistens Leihweise zur Verfügung gestellt. Außerdem muss man sagen, dass die älteren Books mit anderen CPUs verbaut wurden und die CPUs ebenfalls einen großen Sprung nach vorne gemacht haben. Ein wirklich relevantes Ergebnis könnte man nur erreichen, wenn man die Books mit aktuellen CPUs neu bauen würden und auch GPUs nehmen, die nicht als letzte vom Band liefen.

Die letzten Chips haben sehr häufig eine bessere Qualität als die ersten und sind daher sparsamer im Verbrauch oder freigiebiger im Takt.

Der user will aber wissen, wie die neue Hardware im Vergleich zur alten Hardware ist, die er ja schon besitzt und ob sich ein Upgrade lohnt.

Das Fazit ist eindeutig und wird auch beim Desktop nicht anders sein. In der Mainstreamklasse lohnt sich ein upgrade von der 3k zur 4k Generation eher nicht.

Wenn der aktuelle 106er Chip heute aber plötzlich 30% mehr kostet, man aber den Preis nicht erhöhen kann, baut man den neuen 107er Chip ein und macht ihn leicht schneller als den alten 106er Chip.

Die reale Geschwindigkeit, die der user bekommt, stellt man über Speicherbandbreite, Speichermenge und GPU Rohleistung, welche man mit dem Takt gut skalieren kann, ein.

Wie vom Aktionär gewünscht (man kann auch mal auf Dividende verzichten, wenn man Marktanteile bekommen kann) und wie der user bezahlen kann.

Für die 2te Runde hat man noch ein leichtes Upgrade in der Hinterhand, da die Hardwarejunkies jährlich neuen Stoff brauchen.

mfg

p.s.

Und da man irgend wann den Überblick verliert und das ganze Spiel ja schon Jahrzehnte läuft, benutzt man irgend wann nur noch Zahlen und Nummern und keine Namen mehr und von Generation zu Generation ändert sich, ob der user z.B. einen 102er als xx80 verkauft bekommt, nur noch an den Kosten der Chips und der Situation des Marktes, der sich aus der Kaufkraft der Konsumenten und der Qualität der Marktteilnehmer ergibt.

The same procedure as every year. :evillol:
 
Zuletzt bearbeitet:
Gibt es so ein Diagramm eigentlich auch für Desktop GPUs? Wäre mal interessant zu wissen ab wann die GPU ihren Sweet Spot verlässt:
 

Anhänge

  • Screenshot_20230222-075210.png
    Screenshot_20230222-075210.png
    370,8 KB · Aufrufe: 251
Gut, dass ich aktuell keinen Bedarf habe. Die 4070 und kleiner finde ich eher enttäuschend im Vergleich zur letzten Generation.
4080 und 4090 sind große Sprünge und wirklich tolle Karten zu einem - leider - nicht so tollen Preis. Aber das ändert nichts daran, dass diese Karten ein Haben-Will Gefühl auslösen.

Die 4070, die so schnell ist wie eine 3070ti... das ist schon sehr schwach. Dann noch weiterhin mit 8GB VRAM... doppelt schwach.
Wenn ich heute preisbewusst einen neuen Gaming-Laptop brauchen würde, würde ich wohl weiterhin zu einem Modell mit 3070(ti) greifen.

Ich hoffe einfach, dass es nächste Generation dann auch weiter unten wieder größere Sprünge gibt. Denn dann wird auch für mich die Frage nach einem Nachfolger für meinen aktuellen wieder akut.
 
  • Gefällt mir
Reaktionen: JackTheRippchen
Ich muss ehrlich gestehen, bei den Tests für Notebooks falle ich aus allen Wolken und kann die Benchmarks so gut wie überhaupt nicht deuten. Es werden immer mehr Watt-Consumption-Angaben in Relevanz gesetzt, was es für mich schwierig macht, die Leistung zu kategorisieren.
Identisch leider auch bei den CPU Tests.
 
RTX 4050 mobile mit 6GB VRAM?! Gekauft! Zum Burzeltag oder Weihnachten gibt es für mich ein neues mobiles Endgerät mit so einer leistungsstarken GPU.
(Nein, das ist kein sarkastischer Kommentar. Das ist ernst gemeint!)
 
mgutt schrieb:
Wäre mal interessant zu wissen ab wann die GPU ihren

Sry, dass ich es so sagen muss. Desktop GPUs sind abgesehen von den 102ern noch nicht einmal Qualität B.

Bei Desktop GPUs ist die Streuung IMENS und da bekommst du das, was die silicon lottery dir beschert hat.

Aktuell kann man sagen, bis etwa 70 Watt, sind die Desktop Dinger noch gut "unten rum" und ab 300 Watt, wird es unvernünftig, oben rum.

Das man für 2mal mehr Verbrauch nicht 2mal mehr FPS bekommt, sollte klar sein, selbst im "sweetspot"

Wie schnell deine GPU dann in dem Bereich des Verbrauches, bei dem man die Kurve versucht so gut wie möglich zu glätten dann ist, kann dir aber kein Diagramm sagen.

Von 70 (eher 75) bis 300 Watt, ergibt es Sinn zu testen, bei den großen GPUs.

Einen 107er oder auch 106er mit 300 Watt zu befeuern, ist nutzlos. die 104er profitieren bis 300 Watt noch etwas, sind aber schon komplett im potentiellen Bereich der Kurve und ab 103er kann man auch mehr rein ballern. Vernünftig wird es aber trotzdem nicht mehr.

mfg

Die Zahlen ändern sich dann von Generation zu Generation nach oben oder unten, je nachdem was die Fertigung hergibt und die Ansprüche an Rechenleistung gerade sind.

p.s.

Mein RTX3060m bringt mit 97 Watt und 2200 Mhz z.B. 15 TFlop. Ich habe ein gutes Modell des 106er der Vorgängergeneration erwischt. Da kommen die meisten Desktop Karten nie im Leben hin, mit dem Verbrauch.
 
Zuletzt bearbeitet:
jabberwalky schrieb:
Das wird die Lücke für AMD werden. 5-10% langsamer als eine 4080 aber zum Preis einer 4070.
Falls AMD überhaupt was in der Klasse bringt.
Bisher haben sie bis zur 7700 vorgestellt, alles auf Navi33. Das wird nicht annähernd an eine 4080 rankommen.
Ob sie Navi 32 auch im mobile Bereich einsetzen? Wird sich noch zeigen müssen.
 
Zuletzt bearbeitet:
bensen schrieb:
Wird sich noch zeigen müssen.

Werden sie machen müssen.

Aktuell gehe ich beim 106er von über 3Ghz im Boost bei guten Chips aus, wenn die Treiber es dann zu lassen und der 104er wird wohl auch noch einmal 400 Mhz mehr aus spucken können, beim maximalen Verbrauch im Notebook.

Die Desktop Karten werden dann bei guten Exemplaren noch höhere Werte erreichen, bei deutlich höherem Verbrauch.

Ich finde den aktuellen Maximaltakt erstaunlich gering.

mfg
 
  • Gefällt mir
Reaktionen: DerRico
Untergrund schrieb:
Die RTX 4070 ist wirklich sehr enttäuschend. Mein Lenovo Legion 7 mit RTX 3080 schafft 13.800 Punkte bei 3DMark, ist somit fast 10% schneller und hat 16 GB VRAM. Der hat mich 1.500€ gekostet. Für ein Leistungsplus müsste ich also zur RTX 4080 greifen. Das ist mir dann aber doch zu teuer.

Sieh es positiv, so bleibt dein Gerät leistungsmäßig länger "aktuell". Ich habe mir auch erst vor ein paar Wochen einen Legion 7 mit RX 6850M XT im Sale geholt. Laptops mit ähnlicher Ausstattung und einer RTX 4070 sind noch deutlich teurer, aber nicht unbedingt schneller (RT außen vor). RTX 4080 wäre mir auch zu teuer.
 
  • Gefällt mir
Reaktionen: JackTheRippchen
Ram up selling auf die Spitze getrieben... Jetzt schränkt das sogar schon das eigentliche Anwendungsgebiet ein und liegt in der Regel nicht mehr auf der Höhe der internen Monitore (nativ) der Nbs. Perfekt da waren wir früher auch schon mal...

Ich versteh nicht wie man Nvidia für Fortschritt feiern kann aber gut...

Dazu eine Preissteigerung die zum Teil 100% bei den Nbs betrifft und das liegt sicher nicht am Herstellers. 12 Intel Gen und 3080 haben 2500€ gekostet.. Was schon zu Generation davor 600€ mehr war und nun sind wir also bei ~4000€.

Wenn man es rational betrachtet kann man die 4060 abschreiben weil die 6800 ebenbürtig ist und günstiger, eine generation älter. Die 4070 muss nun eigentlich nur von AMD mit dem diesjährigen Modell geschlagen werden und der Massenmarkt zeigt zu 100% zu AMD weil Nvidia nur das Enthusiasten Gebiet ( Geld egal) wegen Balken bedienen will.
 
  • Gefällt mir
Reaktionen: pilzsammler2002
Ab wann der swetspot weg ist genau bei 1,05v alles darüber wird zum Quadrat ineffizienter.
Nvidia gpu laufen oft um die 1,1v seit 2020
 
KlaasKersting schrieb:
Die 4050 ist der Einstieg ins moderne Featureset und bietet bei geringer Leistungsaufnahme genug Leistung für viele Kreativschaffende + die ganzen Encoding-Features und grundlegende CUDA-Beschleunigung in Anwendungen. FHD Gaming für im Hotel o.ä. geht auch klar.
Technisch ist sie ein guter Einstieg für die geannten Funktionen, aber die Bezeichnung ist wieder irreführend. Früher hatten solche Karten eine 30+/-5 hintendran und kein X (GT 1030, GT 730M, GT 425 M, etc.).
 
[wege]mini schrieb:
@Ghostshield

Wie Jan schon schrieb, sie haben einfach keine mehr da.

Die werden meistens Leihweise zur Verfügung gestellt. Außerdem muss man sagen, dass die älteren Books mit anderen CPUs verbaut wurden und die CPUs ebenfalls einen großen Sprung nach vorne gemacht haben. Ein wirklich relevantes Ergebnis könnte man nur erreichen, wenn man die Books mit aktuellen CPUs neu bauen würden und auch GPUs nehmen, die nicht als letzte vom Band liefen.

Das ist ja egal, da man ein Vergleich haben möchte.
Das alle die gleiche CPU haben müssen ist ja in den Fall egal.

Z.b. meine 3060 Laptop läuft bei 130W mit bis zu 2126 MHz, überwiegend mit über 2000Mhz.

Wenn ich jetzt 3840 @ 2100MHz vs 3072 @ 2600 MHz nehme, wer ist jetzt schneller?
Aufn Papier ist meine 3060 Laptop der 4060 überlegen.

Vergleichen kann ich es nicht mit den Tests hier, selbst wenn ich das idensche gerät hätte und auch den gleichen Benchmark nehme, ist der Wert hier immer deutlich anders.
Wie das kommt? Keine Ahnung.
 
Dann kann ich ja getrost bei meinem Lenovo Legion 5 Pro mit RTX 3060 (135 Watt) bleiben. Die leistet in Full HD super Arbeit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: vti
Ghostshield schrieb:
Das ist ja egal, da man ein Vergleich haben möchte.
Das alle die gleiche CPU haben müssen ist ja in den Fall egal...
NBC hat vor kurzem ein MSI Katana mit RTX 4060 getestet. Sie ordnet sich zwischen 3070 Laptop und 3070Ti Laptop jeweils mit schnellerem i7-12700H 6C/20T ein.

Testbedingungen Leistungsmodi Max Performance:
i7-13620H 6C/16T Alder-Lake 80W
RTX 4060 mit 105W

Vergleich mit 3060 Laptop (115W) und i5-12500H (Profil mit 80W PL1):
"Im Vergleich zur Nvidia GeForce RTX 3060 ist die RTX 4060, die hier maximal 105 Watt verbrauchen kann, rund 23 % schneller - die 3060, mit der wir vergleichen, konnte im Gigabyte G7 KE mit 115 Watt etwas mehr verbrauchen."
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Belter
Computerbase: Mit Raytracing ... in FHD ... in Spielen wie Doom Eternal und Spider-Man bleiben die 8 GB ein Manko. Noch stärker trifft das allerdings die Radeon RX 6800S, die unter Einsatz von Raytracing teils gnadenlos am Speicher verdurstet. Ebenso raus ist die GeForce RTX 4050 Laptop GPU mit 6 GB.
Ehrlich gesagt kann ich mir nicht vorstellen, dass die RTX 4050 Doom Eternal + Raytracing nicht packt. Wenn dort selbst mit einer Radeon 680m iGPU Raytracing aktivierbar ist bei 1080p und 50 fps liefert (wobei ich nicht weiss ob beim entsprechenden Youtube Test "Dynamic Resolution Scaling" aktiviert war).

Habt ihr das wirklich getestet mit der RTX 4050 oder habt ihr einfach gedacht die Karte packt das nicht, und es bleiben lassen? Weil einfach überhaupt keine Werte hinschreiben (nicht mal 10 fps) kommt mir komisch vor...

Nachtrag: Ok... ihr verwendet meist immer die Ultra-Maximal-Settings, und zusätzlich hat die RTX 4050 nur 35-45W zur Verfügung. Vielleicht liegt es an dieser Kombination. Aber es ist trotzdem schwer vorstellbar, dass da "überhaupt nix" geht.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: thuering
Zurück
Oben