Test RTX 3060 Laptop GPU im Test: Der kleinste Grafikchip lässt in 1080p kaum Wünsche offen

Laphonso schrieb:
Und nun sind wir bei Deinem Vorschlag, und wir haben die 3080M als Kompromiss.

Und das M "rettet" dann vor allen Mißverständnissen, die man hier befürchtet? Wäre nach der Kritik immer noch fraglich, denn dann heißt es, dass die Bezeichnung "3080" ja irreführt, findest Du nicht?

Denn das M steht wofür in Zahlen? 50% Desktop Leistung? Oder "kommt darauf an?"
Das M steht einfach für "Variante mit weniger CUDA cores und Speicher für den Einsatz in mobilen Geräten". Reicht doch. Mehr kann man halt eh nicht in einer solchen Bezeichnung unterbringen. :D

(Ich denke niemand würde fordern, dass die Typenbezeichnung komplette benchmarks ersetzt oder so xD )
 
  • Gefällt mir
Reaktionen: Laphonso und Mcr-King
Mcr-King schrieb:
Meine du kannst eine RTX3060m 130W kaufen die schneller ist als eine RTX3070m 80W und wenn der Hersteller es nicht angibt weist du dass auch nicht.

Leistungsrating Full HD (FPS)

RTX3060m 80W vs. RTX3070m 85W relative gleich. bei FHD.

Ja, sinnig ist das nicht, und die traurige Ironie ist doch, dass die User und Gamer, denen wir doch unterstellen, dass sie schon an der Einordnung der Kennzeichnung scheitern, doch noch weniger Leistungsdaten, frames und relative Performance einsortieren können.

Salopp gesagt: Die, denen wir unterstellen, dass sie da in eine potenzielle "Falle" laufen, merken es doch niemals ob Ihr Gamernotebook mit WoW dann in 55 fps läuft oder in 67 und ob das "gut" ist oder "mehr" fps sein müssten.
 
  • Gefällt mir
Reaktionen: Mcr-King und [wege]mini
Das mit dem "Augen auf beim Notebook-Kauf" is ob der schieren Masse ja eh seit jeher geboten, wobei der DurchschnittsDAU wohl ketzerisch gesagt nicht merkt, in welcher TGP er nun landen würde. Allein schon die Frage, ob die Kühlung überfordert ist und die CPU unter Last drosselt is jedesmal je nach Anfrage nen Marathon rauszufinden, da die OEMs zahlreiche Versionen auch nur eines einzelnen Laptops herstellen :freak:

@topic / Gerät
Schaut verdammt gut aus, das jetz noch ordentlich gekühlt in nem 15,x Zoll Gehäuse und ich könnt echt schwach werden, mein derzeitiges zu erneuern. Mit ordentlich gekühlt meine ich Silent/Lüfterstill im Office/idle und Lautstärke ohne Orkan im Gaming (es darf scho kühlen, aber man sollt sich noch unterhalten können und die Oberschenkel keine Verbrennungen 2. Grades haben). Btw Gehäuse
Keine Maßstäbe setzt das schlichte Core 17 bei Chassis, Display (FHD, 144 Hz), Tastatur und Touchpad, dafür bietet es die Leistung günstiger als die teureren Serien XMG Neo und XMG Pro.
Warum das Rad neu erfinden, wenns gut funktioniert? :)
Hm, jetz müsst nur noch die 3080Ti rauskommen, sonst wär fast meine Laptop GPU schneller als die verbaute Desktop 1080Ti ...
 
  • Gefällt mir
Reaktionen: Mcr-King
Laphonso schrieb:
merken es doch niemals ob Ihr Gamernotebook mit WoW dann in 55 fps läuft oder in 67 und ob das "gut" ist oder "mehr" fps sein müssten.
Ich weiß nicht, hier tauchen regelmäßig Typen auf die ihren Benchmark mit irgendwelchen Listen im Internet abgeglichen haben und meinen, ihr Prozessor müsste doch 11286 Wupermarkpunkte haben und nicht 11234.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gnasher, Mensor und Mcr-King
Laphonso schrieb:
Ihr Gamernotebook mit WoW dann in 55 fps läuft oder in 67

Hier muss man aber auch noch einmal erwähnen, dass in 1080p mit einem 10870H gegen einen 5800H getestet wurde. Beide hängen im CPU Limit und der 5800H ist nun einmal deutlich schneller.

In UHD ist die 85 Watt RTX3070m nur 10% langsamer, als die 130 Watt RTX3060m, trotz der "lahmen" CPU und schon die 95 Watt RTX3070m ist 4% schneller, als die 130 Watt RTX3060m.

Man muss die Zahlen auch richtig lesen.

mfg
 
  • Gefällt mir
Reaktionen: dalaidrama und Laphonso
[wege]mini schrieb:
Hier muss man aber auch noch einmal erwähnen, dass in 1080p mit einem 10870H gegen einen 5800H getestet wurde. Beide hängen im CPU Limit und der 5800H ist nun einmal deutlich schneller.

In UHD ist die 85 Watt RTX3070m nur 10% langsamer, als die 130 Watt RTX3060m, trotz der "lahmen" CPU und schon die 95 Watt RTX3070m ist 4% schneller, als die 130 Watt RTX3060m.

Man muss die Zahlen auch richtig lesen.

mfg

Trotzdem must du zugeben braucht es 28 Versionen von zwei GPUs warte "Achtundzwanzig".
Naja genau deswegen gibt es auch keine RTX30er Desktop GPUs. ;)
 
  • Gefällt mir
Reaktionen: Hatsune_Miku, Laphonso und PS828
ghecko schrieb:
Ich weiß nicht, hier tauchen regelmäßig irgendwelche Typen auf die ihren Benchmark mit irgendwelchen Listen im Internet abgeglichen haben und meinen, ihr Prozessor müsste doch 11286 Wupermarkpunkte haben und nicht 11234.
Das widerspricht dann aber der These, dass diese Gruppe "das Internet" nicht nutzen würde, um sich mit der (eigenen) Technik auseinanderzusetzen und Zahlen und Werte einzuordnen ;-)
Darauf wollte ich doch hinaus.
 
@Jan lässt sich der Unterschied in Cyberpunk eventuell durch die nur 6gb vram erklären?
 
Von der Namensgebung mal abgesehen - wieder nur 6GB. Mag ja sein, dass das für 1080p gerade noch so ausreicht, spätestens ab 1440p (und das Ding wird garantiert in Notebooks mit 1440p-Display landen) muss dann bei nicht wenigen Spielen die Texturauflösung reduziert werden. Heute schon.
 
  • Gefällt mir
Reaktionen: ghecko
VikingGe schrieb:
Von der Namensgebung mal abgesehen - wieder nur 6GB. Mag ja sein, dass das für 1080p gerade noch so ausreicht, spätestens ab 1440p (und das Ding wird garantiert in Notebooks mit 1440p-Display landen) muss dann bei nicht wenigen Spielen die Texturauflösung reduziert werden. Heute schon.

Die 3060 wird sogar in einem Gigabyte Aero 15 mit 4K-OLED-Display verbaut...

Die Texturen kann man dann wohl auf "Low" stellen.

Dabei fand ich, dass meine RTX 2060 mit 6GB im Laptop mit 1080p-Display eigentlich schon wenig VRAM hat - und das Gerät habe ich 2019 gekauft...
 
  • Gefällt mir
Reaktionen: VikingGe, eastcoast_pete und Mcr-King
Warum ich die Laptopgrafikkarten Tests liebe, ist eindeutig, weil dann der Test klare Schwächen einer Architektur sauber rausarbeitet. Im Desktopbereich öffnet man einfach das TDP Budget und es läuft schon.

Der Test zeigt doch ganz schonungslos, dass Ampere ist kein Fortschritt und NVIDIA hat dort auf das falsche Pony gesetzt.
 
  • Gefällt mir
Reaktionen: Mcr-King
Wenn da nicht noch was bei TdP mit entsprechenden besseren Kühlsystemen nachkommt, sind die mobilen 3070 und 3080 eher Prestigeobjekte. Ein deutlich belastbarerer Heatsink für die GraKa würde doch Sinn machen - zum Rechnen und Spielen werden doch die meisten das tun, was ich dann mit meinem (altersschwachen) Laptop mache - Netzteil und ran ans Netz. Und da können durchaus 200 Wh und mehr angelegt werden, wenn es die thermische Lösung denn packen würde. Ansonsten machen die mobilen 3070 und 3080 nicht soviel Sinn.
 
D708 schrieb:
Der Test zeigt doch ganz schonungslos, dass Ampere ist kein Fortschritt und NVIDIA hat dort auf das falsche Pony gesetzt.
Fürs gaming mag das teilweise stimmen. Die Rohleistung kommt einfach nicht an.

Aber umgedreht hat man sich im computing sauber aufgestellt und wirklich gute Verbesserungen eingebracht. Da gibt's auch mehr Geld^^
 
  • Gefällt mir
Reaktionen: D708 und Mcr-King
Laphonso schrieb:
Aber das ist mir ebenso zu pauschal wie Deine Unterstellung, dass man "nicht davon ausgehen" kann.

Jeder DAU hat Internet und Google.
Ich pauschalisiere garnicht. Deine Behauptung jeder der sich so ein Gerät kauft, wüsste was er kauft, ist schlichtweg Falsch. Du Argumentierst hier aus einer Bubble heraus.
 
  • Gefällt mir
Reaktionen: Mcr-King
PS828 schrieb:
Fürs gaming mag das teilweise stimmen. Die Rohleistung kommt einfach nicht an.

Aber umgedreht hat man sich im computing sauber aufgestellt und wirklich gute Verbesserungen eingebracht. Da gibt's auch mehr Geld^^

Ich glaube AMD ihr Plan auf zwei GPUs zusetzen ist genial da Gaming und Computing GPU doch sehr unterschiedlich sind mittlerweile.

Dazu Medium PCGH Test zeigt wie GPUs mit wenig und lahmen VRAM untergehen.
 
  • Gefällt mir
Reaktionen: PS828
Da ich noch eine 1070 Max-P habe, werde ich noch 2 Generationen warten und dann direkt auch auf DDR5 wechseln.
Davon ab hoffe ich, dass die Händler wegen erhöhter Rücksendequoten durch mangelnde Dokumentation Nvidia bzw. den Herstellern die Hölle heiß machen.
 
  • Gefällt mir
Reaktionen: Mcr-King
[wege]mini schrieb:
Wenn der Hersteller jedoch 130 Watt ermöglicht und dieses auch freigibt, ist die Kühlung dafür gebaut.
Die Realität sieht anders aus.
Da throttlen CPUs und GPUs bei kombinierter Last.
 
  • Gefällt mir
Reaktionen: Mcr-King
Die Bandbreite an TGPs ist schon enorm und vorallem nicht transparent ... ich liebäugel derzeit mit einem asus oder razor ... die aufpreise zum teureren chip sind enorm ... wenn einem das dann eine niedrige tgp zunichte macht ist es besonders ärgerlich ...
 
  • Gefällt mir
Reaktionen: Mcr-King
- Faxe - schrieb:
jeder der sich so ein Gerät kauft, wüsste was er kauft, ist schlichtweg Falsch.
Was für einen Quatsch unterstellst Du denn hier?
Vielleicht kannst Du genau den Satz zitieren, in dem ich das so gesagt habe ;)

Ich finde es immer phänomenal, dass man sich Argumente baut aus zusammenfantasierten Antworten, die andere gar nicht gegeben haben, damit das eigene Narrativ stimmt.
 
Zurück
Oben