News Langsamerer Speicher: GeForce RTX 4070 mit GDDR6 statt GDDR6X gesichtet

Naja... Doof, dass die Grafikkarte unter dem quasi gleichen Namen auf den Markt kommt. Aber meine Güte, 20 statt 21GBit/s, am Ende hat der 20GBit/s-Speicher vielleicht sogar noch bessere Timings, wodurch am Ende ein Leistungsunterschied <5% auf der Uhr steht.

Wenn die Karte dafür ein wenig billiger wird?

Da hat NVidia wahrlich schon andere Böcke geschossen, GTX1060 3GB/5GB/6GB, die RTX3050 die es in X Varianten gibt... Oder halt auch die GTX970 (wobei das immernoch eine sehr gute Grafikkarte war!).

Simanova schrieb:
Mobile Chips die nichts mit Desktop Chips gemeinsam haben, usw.
Das war früher die Regel, dass die Mobile-GPU sich technisch und leistungsmäßig teils erheblich von den Desktop-Modellen unterschieden haben. Früher lag es einfach an den weniger ausgefeilten Kühlkonzepten. Heute an den relativ hohen TDPs der Desktop-Modelle.

Einzig während der 900er- und 1000er-Serie war es so, dass die Desktop-Modelle mit so verhältnismäßig geringen TDPs liefen, dass es möglich war, dass die Mobile-Ableger nahezu gleich schnell waren wie ihre Desktop-Pendants. Mal so als Beispiel: Die MSI GTX1080 Gaming X lief laut Geizhals mit 180W, mit ein wenig Binning und mehr Shadereinheiten im Austausch für weniger Takt hat man das bei etwas geringerer TDP damals problemlos bei gleicher Leistung im Notebook gekühlt bekommen. Hingegen erklärt sichs von selbst, dass bspw. die Leistung einer 4080 mit 320W TDP im Notebook auf keinem Wege erreicht werden kann.

Einzig kann man NVidia vorwerfen, dass dem Handel keine Vorgaben gemacht werden, die mobilen Ableger in den Shops auch dem offiziellen Namensschema entsprechend explizit als bspw. "RTX 4090 Laptop GPU" oder auch einfach wie früher bspw. als "RTX 4090M" zu bezeichnen. Zu oft findet man auch keine Angaben zum TDP-Budget (und wenn, dann oft nicht das des Normalmodus, sondern des Turbomodus, was keine Sau benutzen will, weil das Notebook dann wegfliegt...), und das kann zwischen den Notebooks teils so extrem abweichen, dass das kleinere Modell schneller oder gleich schnell sein kann.

Zu allem Übel kommt oben drauf, dass es NVidia in der 4000er-Generation mMn. mit dem Sparen am VRAM in Notebooks übertrieben hat. Dass die 4050 Laptop GPU als Einsteiger-dGPU nur 6GB VRAM hat, ok. Aber dass die 4060 Laptop GPU UND 4070 Laptop GPU beide nur 8GB VRAM bieten? Die 4070 deckt Notebooks bis etwa 2100€ ab, erst darüber gibts erste (noch lange nicht gute...) Geräte mit RTX4080. Und selbst die hat nur 12GB VRAM, was für 2100€+-Geräte traurig ist.
 
Zuletzt bearbeitet:
iGameKudan schrieb:
Zu allem Übel kommt oben drauf, dass es NVidia in der 4000er-Generation mMn. mit dem Sparen am VRAM in Notebooks übertrieben hat.
Die Namensgebung der mobilen GPUs ist halt Bullshit. Es gibt im Notebook keine 4090. Das ist eine 4080. Das zieht sich halt bis unten durch. Die 4080 im mobilen Sektor ist eher eine 4070 Ti. Die 4070 ist irgendein komischer Zwitter zwischen 4060 und 4070 (ist der AD106, aber mit den 64 ROPs der Desktop-4070, allerdings alle anderen Specs entsprechen der Desktop-4060 Ti). Also eher eine 4060 Ti...
Die mobile 4060 ist quasi 1-zu-1 von den Specs eine 4060-Desktop...
Und die 4050 gibt es im Desktop gar nicht.
Und daher kommen dann halt auch die RAM-Ausstattungen mit 16, 12, 8, 8 und 6 GB.

Klar. Jetzt kommt dann natürlich noch das kleinere Powerlimit dazu, wodurch eine mobile 4090 effektiv irgendwo zwischen 4070 und 4070 Super im Desktop liegt.

Und das muss man sich mal geben. Für 2000 Euro gibt es halt maximal eine 4070 im Notebook. Das ist ab er effektiv nur noch eine Desktop-4060 :x
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Anti-Monitor
@kachiri Wieso sollte es im Notebook keine 4090 geben? Wenn es das schnellste verfügbare Modell ist halte ich den Namen 4090 durchaus für gerechtfertigt. Es ist eben eine Notebook-GPU und keine für den Desktop.

Wiegesagt, früher war es ganz normal, dass sich die Desktop- und Notebook-GPUs technisch teils deutlich unterschieden haben. Heute aus anderen Gründen wie damals, sei mal dahingestellt.
 
Selbst wenn das Ding 4090M heißt, finde ich es halt irreführend, weil wir hier wie gesagt maximal irgendwo zwischen 4070 und 4070 Super rauskommen.
Wobei mir 4090M schon besser gefallen würde, als es aktuell ist. Aber 4070M wäre für mich am Ende genauer...

Durch die Modellnummer impliziert man, dass man irgendwie doch ähnliche Leistung mobil bekommen könnte, wie im Desktop.

Es würde niemanden wehtun, wenn es mobil halt nur 4070, 4060 und 4050 gibt.
 
  • Gefällt mir
Reaktionen: Anti-Monitor
  • Gefällt mir
Reaktionen: Zagrthos und SweetOhm
Wenn diese dann 100 Euro günstiger ist: warum nicht.
 
Shoryuken94 schrieb:
Aber hier wird sich ja gerne aufgeregt,
Eigene Erfahrungen sind wichtig :D

Aus meiner Sicht ist es auch wirklich bedeutungslos, wenn es sich um 5% handelt. Es wäre aber eine Frechheit, wenn man die Info nicht auf dem Karton beschrieben bekommen würde und wenn man dafür den gleichen Preis bezahlen müsste. Denn dann will mich die Firma bewusst gewollt hinters Licht führen.
 
  • Gefällt mir
Reaktionen: SweetOhm
LamaMitHut schrieb:
Also gibt es in dieser Generation die
4070 GDDR6
4070 GDDR6x
4070 super
4070 TI
4070 ti super.

Läuft
Yup, und sogar mit 3 verschiedenen Chips (AD 102/103/104) ... :freak:
Ergänzung ()

iGameKudan schrieb:
Wenn die Karte dafür ein wenig billiger wird?
Das glaube ich erst, wenn ich´s sehe ! :rolleyes:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin, Tidus2007, SP-937-215 und eine weitere Person
Alesis schrieb:
Es wäre aber eine Frechheit, wenn man die Info nicht auf dem Karton beschrieben bekommen würde und wenn man dafür den gleichen Preis bezahlen müsste. Denn dann will mich die Firma bewusst gewollt hinters Licht führen.
Es wäre mal interessant, ob NVidia die Vorgaben für Packungsdesign und die Texte macht oder ob die Hersteller diese selber bestimmen dürfen. Ich tippe zwar auf letzteres, aber das passt nicht in das hier gewünschte Bild, dass NVidia Schuld an der fehlenden Angabe für den Endkunden sein muss.

Galax, die in D anscheinend überhaupt nicht unter dem Namen vertrieben werden (sondenr wohl unter KFA2) bewirbt bisher auf seiner Seite alle RTX 4070 Varianten (inkl. der Girls-Edition) mit GDDR6X und 21 Gbps.
 
Rückläufer der Gddr6X Variante würde ich demnächst nicht mehr kaufen, da werden sicher einige tauschen wenn die sich so gar nicht unterscheiden. Die Karte hat vermutlich ihre Daseinsberechtigung, Nvidia bringt ja nicht auf gut Glück neue Varianten. Aber namentlich und möglichst auch optisch sollten sie dann schon eine Unterscheidung vornehmen.
 
gymfan schrieb:
aber das passt nicht in das hier gewünschte Bild, dass NVidia Schuld an der fehlenden Angabe für den Endkunden sein muss.
Welches gewünschte Bild? Es wird in der News behauptet, dass man die Info über den VRAM angeblich zukünftig nur in den Datenblätter sehen kann.
Bei der Gainward Ghost ist schon heute nur 12GB auf der Verpackung angegeben. Und wenn dann zukünftig 12GB GDDR6 verbaut werden und der gleiche Preis verlangt wird, dann will mich diese Firma hinters Licht führen. Dabei ist es doch völlig egal, was Nvidia meint und macht. Nicht jede Person muss so denken wie du.
Natürlich wird auf der Homepage dann GDDR6X angegeben. Um mich mach ich mir keine Sorgen. Zumal Geizhals generell einen Link zum Hersteller bietet. Und ich eben auch in Foren abhänge.
 
  • Gefällt mir
Reaktionen: SweetOhm und Anti-Monitor
"Der GDDR6-Speicher der neuen RTX-4070-Variante soll mit 20 Gbit/s kaum langsamer als der GDDR6X mit 21 Gbit/s der bisherigen RTX 4070 arbeiten."

Durch den hohen Vramtakt sind die Karten quasi gleichschnell. Da gibts nix zu messen. Die GDDR6 Karte ist durch den niedrigeren Verbrauch die bessere Karte dann.

Aber da wird nix unterschieden, da bin ich mir mittlerweile ziemlich sicher. Deshalb der hohe Ramtakt, damit sie quasi gleich sind.
Ich würde eine GDDR6 Karte wollen, wenn man die Wahl hätte. Wir müssen abwarten.

PCGH_Raff testet bestimmt eine, wenn er an eine ran kommt.
 
Zuletzt bearbeitet: (da fehlte ein e)
Würde mich nicht überraschen, wenn Nvidia hier den Preis trotzdem nicht senkt und das Downgrade so schlecht wie möglich sichtbar macht...

Am Ende macht es die Karte aber weder mehr noch weniger interessant, da der Preis selbst bei einer leichten Senkung aus meiner Sicht immer noch ein gutes Stück zu hoch ist.
 
  • Gefällt mir
Reaktionen: baskervil77 und SweetOhm
KenMasters schrieb:
und was willste stattdessen kaufen?
Seit Mittelklasse-GraKas mehr kosten als komplette Konsolen, spiele ich nur noch auf Konsole (PS4/5 und XBOX X und vermisse dennoch nix. Endlich kein Aufrüstwahn mehr nur wegen dem Zocken! Jetzt nutze ich ich u.a. NUCs als Rechner, die ich zehn Jahre und länger einsetzen kann. Unterm Strich habe ich in den letzten 10 Jahren somit viele tausend € gespart.
 
  • Gefällt mir
Reaktionen: SweetOhm und Anti-Monitor
Simanova schrieb:
Wenn die GPU in Summe gleich schnell ist, warum nicht. Steht ja auch auf der Packung drauf.
Wie geil wäre die Karte gewesen wenn sie zu Release mit doppelten gddr6 auf den markt gekommenen wäre. Da hätte man gut auf 5% sch...en können.

Und ja, ich sehe das auch so, wenn auf der Verpackung GDDR6 steht und man keine Tests auf CB ließt ist selber Schuld :D
Heute kann man sich mittlerweile gut informieren.
 
Zuletzt bearbeitet:
KenMasters schrieb:
und was willste stattdessen kaufen?
Es gibt noch einen anderen Hersteller mit: mehr VRAM, vergleichbarer Rasterperformance, deutlich besseren Linux Support und DP 2.1.

Komm aus deiner Bubble raus ;)
 
  • Gefällt mir
Reaktionen: JarlBallin, SweetOhm, SP-937-215 und eine weitere Person
Kosten senken, um den Preis zu halten... nice...
 
  • Gefällt mir
Reaktionen: JarlBallin, baskervil77 und SweetOhm
Legalev schrieb:
Nvidia ist der einzige GPU Hersteller?

Noch gar nicht gewusst.
Danke für die Info ........
Alle anderen bauen ja nur "Windows Beschleuniger Karten"
 
  • Gefällt mir
Reaktionen: JarlBallin, SP-937-215 und Legalev
Zurück
Oben