News GeForce RTX 3080 Ti Laptop GPU: Mehr Shader, mehr Takt und mehr maximale TGP

MasterAK schrieb:
Ich bin mal gespannt, wann es Wakü fürs Notebook gibt. Zur Graka gibt es ja noch nen Prozessor zu kühlen.
Gab es schon - ich erinnere mich da an eine maximal exotische Lösung von Asus zu Zeiten der GTX 980, da wurde der Laptop an eine Dockingstation angeschlossen, in der sich Pumpe und Radiatoren befanden. Die musste man wiederum in einem separaten Reisekoffer mitführen. Natürlich sündteuer und wenig mehr als ein Marketingstunt, und: Dann war das Ding obendrein noch laut...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kenshin_01, NMA und MasterAK
@thiz: Du kennst die Lautstärke der Lüfter doch gar nicht.

Witzig sind in dem Zusammenhang auch immer "Tests", die negativ eingehen auf die ach so hohe Lautstärke, welche bei parallelem Einsatz von maximaler CPU-Last als auch GPU-Last ermittelt wird.

Also ein Szenario was in der Realität nicht auftritt.

Aber die hier vorgestellte Leistung ist nichts außergewöhnliches. Es gab schon früher Dual-980M-Notebooks. Und entsprechend ältere Varianten davor. Wer das mit seinem Slim-Razer-Turbinenlaptop vergleicht, vergleicht halt Äpfel mit Birnen. ;)
 
Chesterfield schrieb:
Vor allem die drosselung als auch die Betriebszeit unter Akku wird sicher nicht mehr der Rede wert sein.
Ich weiß nicht genau um welche Generation es war, aber sowohl Nvidia als auch Intel hatten reichlich Interesse daran die Leistung für einen verbesserten Verbrauch zu optimieren. (Bei den Laptops vorzüglich)
Seitdem AMD konkurrenzfähig geworden ist, waren alle Züge für mehr Leistung dann gerissen. Intel mit 250 TDP für Sekundenlast und Nvidia mit 450 TDP-GPU‘s sind dann halt nicht mehr dran interessiert Laptops auf Desktop-Niveau zu halten bzw. können es physikalisch nicht mehr halten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Wieviele Varianten wollt ihr denn noch machen?
nvidia: Ja!

Irgendwie ist die 3000er Serie für mich ein reiner Fail. Also klar können die Karten was, aber das meine ich nicht. Eher so die ganzen verschiedenen Modelle und Varianten, das Durcheinander bei der Speicher-Bestückung, das für Laien eher undurchschaubare Portfolio der mobilen Varianten mit identischen Namen, aber unterschiedlichen Leistungswerten (und der hohen Abweichung zu den Namenverwandten der Desktop Serie). Von der Verfügbarkeit fang ich lieber erst gar nicht an.
 
  • Gefällt mir
Reaktionen: CableGuy82, _Lukas_, Onkel Föhn und 3 andere
nebukadnezar.ll schrieb:
Hm, 200 Watt Grafikkarte fürs Laptop. Ein Nischen-nischenpeodukt? Also mir kommt das nicht aufn Schreibtisch.
Naja im Winter auf dem Balkon klasse 👍😉
 
  • Gefällt mir
Reaktionen: CableGuy82, Coeckchen und Onkel Föhn
derin schrieb:
Soviel Abwärme im Laptop werden keinen Spaß machen.

Hab meine 140 Watt 3070 im Legion 5 Pro per UV vom Takt und Spannung gedrosselt, damit ich unter 100 Watt lande, damit verliere ich weniger als 5% fps aber das Laptop hebt nicht ab :)
Also das würde mich ja mal interessieren, wie du das bewerkstelligst hast. 100 Watt sind mal eben 28 % weniger Verbrauch und du sagst sogar deiner verbraucht noch weniger, dass soll dann nur 5 % ausmachen? Kann ich mir irgendwie nicht vorstellen und nur so nebenbei, dass 5 Pro habe ich auch schon gehabt.
Precide schrieb:
Tja da wird es das leider nicht mehr geben. Da Dell die Area-51m auslaufen lässt, bleiben nur die x Modelle und die sind schon recht laut. Im Area-51m konnte man mit nem 10900k und einer 200 Watt 2080 Super schön im Silent Modus spielen und die Temps waren in Ordnung. Beim x17 geht das überhaupt nicht. Alles nur wegen dem dünnen Notebook Wahn.
MPQ schrieb:
Es ist so peinlich, dass man so weit weg ist von Desktop-Karten, weil man ohne 400W Verbrauch noch nicht Mal in älteren Games entspannt mal 4K spielen kann. Die aktuellen Grafikkarten sind direkt für den Müll produziert.

Welche mobile GK ist eig. aktuell so der sweet spot zwischen Verbrauch/Leistung?
Also ich kann mit meiner 3080 ohne Probleme The Witcher in 4k Spielen. Dabei habe ich so um die 80 fps mit allen Grafikeinstellungen auf max.

Bezüglich der Namensgebung.
Wie soll Nvidia das denn sonst machen? Man muss die Grafikkarten im Notebook einfach losgelöst außerhalb der Desktop Welt sehen. Die Namen waren doch immer dieselben wie im Desktop, außer das damals ein m davor stand. Verstehe nicht so ganz wieso immer so ein Aufhebens gemacht wird. Dass die im Notebook dieselbe oder ähnliche Leistung haben, ist ja erst seit 3 Generationen so. Vorher war der Unterschied immer so im Bereich von 20-50 %.
 
  • Gefällt mir
Reaktionen: CableGuy82
@loco28 @JetLaw
Hab das ganze per MSI Afterburner gemacht, die Vcore Kurve angehoben und einen entsprechenden Cutdown rein, damit er nicht höher taktet.

Hier sind meine Werte aus dem Horizon Zero Dawn Benchmark, bei meiner RTX 2080 war das in etwa gleich effektiv.
uv.png


Kleine Korrektur, hab ca. 10% fps verloren und meine max TDP is von 144 auf 95W runter.
CPU ist bei 15 Watt limitiert, da ich den Boost deaktivert habe.
 
  • Gefällt mir
Reaktionen: nazfalas, Kommando und Col. Jessep
Ist der GA103S Chip jetzt ein komplett neuer? Oder ist das nur eine Umbenennung? Im Desktop kommt doch nur 102 und 104 zum Einsatz oder?
 
  • Gefällt mir
Reaktionen: CableGuy82
JetLaw schrieb:
Also ich kann mit meiner 3080 ohne Probleme The Witcher in 4k Spielen. Dabei habe ich so um die 80 fps mit allen Grafikeinstellungen auf max.
Hast du mal den Stromverbrauch der Karte gemessen, während Du Witcher mit 80Fps in 4K spielst?
 
@JetLaw
da hast du recht vorher wurde auch nicht so ein wind drum gemacht.

Aber es werden im Notebook teilweise beschnittene chips wie den GA104 der eindeutig zur 3070 gehört als 3080 im Notebook verkauft. Als Nvidia sowas vor Pascal noch gemacht hat, haben sie zudem ein M dahinter gehabt (GTX 980M). Hier werden nunmal offensichtlich deutlich schlechtere Chips mit einem deutlich besseren Namen versehen.

Und deine 20-50% unterschied gibt es auch nicht mehr.
Es sind im Bestfall bei einer 3080 NB 160Watt vs 3080FE 60% Lesitungsunterschied. Wenn der Kunde dann noch das Pech hat und sich vorher nicht gründlich informiert hat, hat er eine 3080 mit 90 Watt. Dann liegen mehr als die doppelte Leistung gegenüber einer 3080 FE an.

Und das ist der Punkt kein M kein MaxQ kein garnichts mehr. Sorry aber sowas finde ich absolut nicht korrekt.
 
  • Gefällt mir
Reaktionen: [F]L4SH, nazfalas und Col. Jessep
CDLABSRadonP... schrieb:
Für den Notebookeinsatz wäre es viel sinnvoller, den GA102 der 3090 in den mobilen Markt zu bringen und diesen TDP-technisch hart zu deckeln.
Aber den kann man halt viel besser in der 3090 an der Leute bringen für 2,5-3k Euro aktuell? Und diese werden ja auch ausnahmslos leer gekauft. Daher wird daraus so schnell (leider) nichts. Technisch sinnvolle Produkte bringt die freie Marktwirtschaft leider nur dann, wenn diese auch den meisten Gewinn abwerfen.
 
  • Gefällt mir
Reaktionen: Pulsar77 und Col. Jessep
Ich warte auf ein reines AMD Laptop in meinem Preis Bereich.
 
derin schrieb:
Kleine Korrektur, hab ca. 10% fps verloren und meine max TDP is von 144 auf 95W runter.
Das kann schon eher sein. Bei unter 5 % müsstest du ja einen Wunderchip haben :D
MPQ schrieb:
Hast du mal den Stromverbrauch der Karte gemessen, während Du Witcher mit 80Fps in 4K spielst?
Ich meine so 140 - 150 Watt, will mich da jetzt aber nicht festlegen, weil ich es nicht mehr genau weiß. Kann es aktuell aber leider nicht nachprüfen, da ich das Spiel nicht installiert habe.

@Floppy5885 Jetzt mal ernsthaft, wer sich vor dem Kauf nicht informiert ist doch selber Schuld. Ich denke mal ein wenig Eigeninitiative kann man den Leuten schon abverlangen.
Das einzige was ich Nvidia vorwerfen würde, ist die Tatsache dass die Hersteller die TGP verschweigen konnten. Da hätte Nvidia direkt von Anfang sagen müssen, dass muss dazu geschrieben werden oder aber das überhaupt gar nicht erst so extrem zulassen.
Aber mal so als Gegenfrage, wie würdest du das denn machen?
Wenn ich ehrlich bin, würde ich das auch so machen. So sieht der Kunde gleich wie die Rangordnung bei den Grafikkarten ist, weil man die Reihenfolge aus dem Desktop schon kennt.
Das einzige dass ich anders gemacht hätte, wäre einmal wieder das m hinten dran und bei denen die wenig verbrauchen wie früher als Max Q. Nvidia schlägt da den falschen Weg ein und geht auf die Hersteller zu indem sie sagen, ihr könnt entscheiden was die verbrauchen dürfen und das auch noch völlig frei.
 
  • Gefällt mir
Reaktionen: derSafran und Renegade334
Vendetta192 schrieb:
gut, die Lautstärke vielleicht, aber da ich eh immer Kopfhörer aufhabe wenn ich zocke, ist das nur ein bedingtes Problem

Bei mir läuft über das Control Center eine Einstellung für "Stinos".

Ich hatte keinen Bock, irgend welche 3rd Party Tools zu verwenden, dafür ist die aktuelle Hardware zu gut.

Tj Max 95 Grad Celsius, GPU Target 87 Grad Celsius, TGP 100 Watt. Den Rest macht der sehr gut funktionierende Turbo.

Dann noch 145 Fps (das Display kann 144 Hz) eingestellt und lass die Bude arbeiten. Dann klappt das auch mit den Lüftern und wenn ich mal ausnahmsweise etwas zocke, was für diese Kiste nicht gedacht ist (AAA in 4K), dann gebe ich dem Teil mehr Strom und ärgere mich über hohen Lärm und immer noch "zu kleine" Fps.

btt:

Alles unter 200 Watt ist i.O. Über das Gewicht des Bombers und des Netzteils, hüllen wir dann den Mantel des Schweigens.

Ab 250 Watt gesamt, sind 2 NTs sogar "besser". Dann schleppt man aber ständig einen 11er Kasten Bier mit sich rum. Das muss man mögen.

mfg
 
  • Gefällt mir
Reaktionen: Vendetta192
Wenn mal nicht dieses o.ä. Modelle wieder komplett in Miningfarmen landen, wie schon zu tausenden geschehen. Von daher...alles relativ.
 
Da hat NV aber Glück das der Notebookmarkt auch Chips abnimmt die dafür der reinste overkill sind, so müssen sie nicht noch mehr Chips für den Desktopmarkt benutzen der schon massiv gesättigt ist.
 
  • Gefällt mir
Reaktionen: CableGuy82
Jethro schrieb:
so müssen sie nicht noch mehr Chips für den Desktopmarkt benutzen der schon massiv gesättigt ist.

Was würdest du denn machen?

Egal, was du für den Desktop an Gamer verkaufen willst, es gibt zu wenig. Und das könnten nur die gleichen Menschen beenden, die auch Gamer sind. Einfach aufhören, den (Krypto) Mist zu kaufen.

Menschen zu verärgern, die aber "wichtig" sind, geht gar nicht. Daher gab und gibt es bei Notebooks brauchbare Hardware zu guten Preisen. Teuer, aber nicht überteuert und vor allem frei, von Scalpern.

Jetzt noch zu argumentieren, dass der 103er ein schlechter 102er ist, der im Desktopmarkt nicht zu solch hohen Preisen in den Handel abgegeben werden könnte (der Handel ist Schuld an den Preisen), würde den Rahmen sprengen.

mfg
 
Und als nächstes die 3090 im Notebook?
Das wird spannend, aber hey: warum eigentlich nicht, dagegen bin ich nicht und würde das gerne sehen.

Wollte mir mit 40 ein Ferienhaus zulegen und da kommt so ein Monster gerade recht, obwohl ich da eher auf die 4000er Generation abwarte.

Tldr: leider geil 😉
 
  • Gefällt mir
Reaktionen: CableGuy82
TSMC oder gar nicht.
 
Schade, dass es keinen Desktop-Datenvergleich gibt.
So kann man sich die Leistung nur zusammenreimen.

Hatsune_Miku schrieb:
Diese Logik bei nvidia ist ich kann mich nur wiederholen bei den 30x0 modellen unter aller kanone. 3080/TI desktop 10/12GB aber mobil Varianten kommen mit 16GB.

Ich verstehe das gemecker bezüglich verbrauch nicht. ...

Schau dir mal die Daten an. Andere Shaderzahl, Speicheranbindung und "nur" GDDR6 Speicher.
Diese Teile haben mit den Desktop GPUs kaum etwas gemein.
 
Zuletzt bearbeitet:
Zurück
Oben