News Kritik zu groß?: Nvidia soll die RTX 4060 Ti nun doch auch mit 16 GB bringen

Ltcrusher schrieb:
auch Intel Battlemage abwarte, wird vom Preis und auch von den Benchmarks abhängen.
Battlemage bester Name nixdestotrotz ist mein lieblingsname Challenger D so witzig
 
  • Gefällt mir
Reaktionen: CiX
Intruder schrieb:
zum einen stellt sich hier die Frage, was bei dir "gerüstet für die Zukunft" bedeutet. Für mich bedeutet Zukunft irgendwas in 5 bis 10 Jahren. Vor 10 Jahren habe ich mich mit 4GB begnügt - 10 Jahre später sind es 24GB bei mir.

24GB ... sonst braucht man das nicht...
hmm...
Hatte bisher 2 Games, die haben sich auch den verfügbaren freien GPU Speicher unter den Nagel gerissen und mal eben bis zu 23GB vom Grafikspeicher mit Daten voll gestopft. Das war Sniper 5 wie auch Diablo 4 Beta.
Also wird es schon mal genutzt, wenns da ist.

24GB werden nur voll in Spielen, weil es Fehler in der Programmierung gab. Da würden auch 48GB voll laufen. Die letzten 6-8 Jahre waren 8GB Standard und ausreichend. Die nächsten 6-8 Jahre werden 16GB ausreichen. Bei FullHD wohl auch 12GB. Ändern könnte sich das, wenn Konsolen einen Sprung beim RAM machen würden. Dazu kommt das 16GB bei Nvidia "mehr" ist als 16GB bei AMD.
 
catch 22 schrieb:
Die bereits recht sparsamen 128Bit Speicherbandbreite, die bisher nur 4 Steine versorgen sollte, darf nun 8 Steine versorgen.
Ob das mal noch aufgeht?
Was soll da aufgehen? Beziehungsweise nicht.
 
Hominem schrieb:
Wird nicht passieren. Genauso wenig wie die 3070 16gb und 3080 20gb passiert sind.
Der Unterschied ist die Situation. Die 3000er Karten wurden verkauft wegen Mining, egal wieviel RAM und welche Leistung. Jetzt müssen die Hersteller wieder Argumente liefern.
 
Ayo34 schrieb:
24GB werden nur voll in Spielen, weil es Fehler in der Programmierung gab. Da würden auch 48GB voll laufen
na obs ein "Fehler" ist, würde ich nun nicht gleich behaupten.

1683636915587.png


Oder ist ganz Windows ein Fehler nur weil es auch Daten zwischenspeichert damit diese gleich vorliegen ohne erst geladen werden zu müssen?

Dann wäre jeglicher Cache ebenfalls ein Fehler
 
Grimba schrieb:
Die sind vermutlich auch nicht auf dein Mitleid angewiesen.
Trotzdem ist die 4070 besser
Ergänzung ()

Ayo34 schrieb:
Der Unterschied ist die Situation. Die 3000er Karten wurden verkauft wegen Mining, egal wieviel RAM und welche Leistung. Jetzt müssen die Hersteller wieder Argumente liefern.
Meinst 4070 ti haha super Argument
 
Experte18 schrieb:
Müssen sie auch nicht. Wollen wir Mal die Kirche im Dorf lassen. 12 GB sind völlig ausreichend in spielbaren Szenarien bis auf paar Ausnahmen.
Wir reden hier von Grafikkarten die zwischen 600 und 900€ liegen. Das waren vor dem ganzen Miningboom und selbst danach Preise für High End Karten mit denen man Jahre später noch immer alles auf MAX spielen konnte. Und nicht Preise für "ausreichend in spielbaren Szenarien bis auf paar Ausnahmen".
Für WQHD auf Max sind diese 600-900€ Karten in Form einer 4070(ti) 12GB DOA.
 
  • Gefällt mir
Reaktionen: C0rteX
Ayo34 schrieb:
Der Unterschied ist die Situation. Die 3000er Karten wurden verkauft wegen Mining, egal wieviel RAM und welche Leistung. Jetzt müssen die Hersteller wieder Argumente liefern.
Nvidia Karten werden so oder so verkauft komplett irrelevant was ist. Gäbe es keine rezession wären alle 4070 ausverkauft.

Bei Nvidias wachstum kann man nur den schluss ziehen das da alles prächtig verläuft eher prächtig mal 10.

Willst du mir sagen eine 3080 hätte es zu uvp geschafft in den regalen liegen zu bleiben wäre kein mining sturm enstanden? Die Karte wäre ein halbes jahr ausverkauft gewesen so oder so. das trifft auch auf die 3070 zu auch mit nur 8gb vram. 2080ti leistung 500€ ?da wurden hirne abgeschaltet. Der Ankerpreis hat funktioniert.

Das hat die 1080 auch nicht geschafft und die hat 850 plus gekostet am anfang.
 
Ja das passiert wenn man eine kostenoptimierte Platine entwirft.
Unflexibel und man kann nicht auf den Markt reagieren.
Dafür aber schön gewinnoptimiert.
16GB sind klar besser, bin gespannt was NVIDIA dafür mit 60-70% Bruttomarge verlangt.

So wird die 4070 natürlich noch viel unattraktiver.

Diese Gen ist meiner Meinung nach absolut Mist, abgesehen von der 4090 natürlich.

Ach es wäre inzwischen auch so langsam mal sinnvoll über 1.5GBit nachzudenken, statt nur 1 Gbit oder 2 Gbit.
Weil das wird einfach langsam Quatsch. Es kann wohl kaum teurer sein als eine Platine zu bauen die andauernd unbesetzte Plätze für den VRAM aufweist.
 
Hominem schrieb:
Nvidia Karten werden so oder so verkauft komplett irrelevant was ist. Gäbe es keine rezession wären alle 4070 ausverkauft.

Bei Nvidias wachstum kann man nur den schluss ziehen das da alles prächtig verläuft eher prächtig mal 10.

Willst du mir sagen eine 3080 hätte es zu uvp geschafft in den regalen liegen zu bleiben wäre kein mining sturm enstanden? Die Karte wäre ein halbes jahr ausverkauft gewesen so oder so. das trifft auch auf die 3070 zu auch mit nur 8gb vram. 2080ti leistung 500€ ?da wurden hirne abgeschaltet. Der Ankerpreis hat funktioniert.

Das hat die 1080 auch nicht geschafft und die hat 850 plus gekostet am anfang.

Wie kommst du darauf? Davor die 25 Jahre konnte man immer problemlos Grafikkarten kaufen und das Mining hat alles geändert, weil sofort jede Grafikkarte verkauft wurde um Geld zu verdienen. Natürlich wären 3070/80er Karten ganz normal zu kaufen gewesen ohne Mining und/oder Corona.
 
  • Gefällt mir
Reaktionen: Inxession und baizer
Dai6oro schrieb:
@cypeak

Nvidia ist doch nicht blöd, die hätten halt vorher dran denken können das Speicherinterface so zu gestalten dass man vernünftig austatten kann. Das Interface ist doch keine gottgegebene Größe. Nvidia will den Speicher knapp halten, das ist der Grund.
Ich wage sogar zu behaupten, sie haben daran gedacht und die Speicherinterfaces angepasst, um mit dem Speicher zu knausern.
Der AD103 entspricht von den SM her einem GA102 so wie dier AD104 einem GA103 entspricht. Die interne Konfiguration der GPC ist AFAIK nicht in allen Fällen gleich, weil bei Ampere beinahe jede GPU ein anderes Verhältnis an SM pro GPC hatte, bei Ada aber stets 12 SM pro GPC vorhanden sind, was vor allem die Anzahl an ROPs beeinflusst, z.B. bei der 4070Ti vs. 3080(Ti).
Ansonsten hat Nvidia aber stets das Speicherinterface gekürzt um 2-4 32Bit-Controller (bis heute ist unklar, ob der GA103 256 oder 320Bit hat). Das muss man dann durch schnelleren Speicher und den L2-Cache kompensieren, was bei der 4070Ti und 4070 nur bedingt klappt (gegenüber 3080 und 3080Ti).

Warum? So musste man von 3080(Ti) zu 4080 nur von 10/12GB auf 16GB und von 3070(Ti) zu 4070(Ti) nur von 8GB auf 12GB erhöhen, also jeweils nur 4GB statt 10/12GB bzw. 8GB mehr, das ganze auch noch mit weniger, dafür größeren Modulen (8x2GB statt 10-12x1GB bzw. 6x2GB statt 8x1GB) und damit weniger Mehrkosten.

Klar, das hat auch nachvollziehbare Gründe, weil ja die Produktionskosten der GPUs durch den Umstieg von Samsung zurück zu TSMC offenbar immens gestiegen sind und auch der GDDR6X-Speicher teuer sowie energiehungrig ist (trägt bestimmt auch zur gesteigerten Effizienz bei).

Aber da kann man, finde ich, recht gut sehen, dass Nvidia klar war, dass sie in dieser Generation mehr Speicher bieten müssen, aber dann doch bitte nicht soviel mehr.

Mit der 4060(Ti) haben sie sich jetzt selbst ins Knie geschossen, weil kein Mensch einen Rückschritt bei der Speichermenge gegenüber dem Vorgänger toll findet und dazu auch noch gerade jetzt Spiele erscheinen sind, die mit 8GB und RTX auch unterhalb von UHD Probleme machen. Dazu die gesalzenen Preise.

Ich weiss selbst nicht so recht, was ich machen soll. Ich mag Nvidia wegen solcher Praktiken nicht und finde, dass die Preistreiberei bekämpft gehört, aber dass AMD nicht rafft, dass man bei RTX mal in die Hufen kommen muss, find ich genauso blöd. Eine günstigere 4080 oder eine 4070Ti mit 24GB hätte ich bedenkenlos gekauft, aber so überlege ich hin und her zwischen 4070, 4070Ti, gebrauchter 3080 12GB, 3080Ti oder 3090.
Wenn die 7900XT noch etwas günstiger würde, wäre sie der Königsweg, weil sie die RTX-Performance der 4070Ti und deutlich mehr Rasterizerleistung für nur etwas mehr Geld bietet.
 
  • Gefällt mir
Reaktionen: NichtExpert
Ayo34 schrieb:
Wie kommst du darauf? Davor die 25 Jahre konnte man immer problemlos Grafikkarten kaufen und das Mining hat alles geändert, weil sofort jede Grafikkarte verkauft wurde um Geld zu verdienen. Natürlich wären 3070/80er Karten ganz normal zu kaufen gewesen ohne Mining und/oder Corona.
Vor 25 Jahren war Gaming nicht Mainstream. Dir ist schon klar das Gaming mehr Geld einspielt als die Film und Musik Industrie zusammen? Nein wären sie nicht.
 
TriceO schrieb:
Wenn AMD 16GB bei ihren 7600 Modellen brächte, würd ich das ja verstehen
Die 7600 ist aber nicht das Konkurrenzmodell zur 4060TI das ist die 7700/XT mit 12GB
Die 7600/XT wird mit der 4060 non Ti konkurieren.
 
Aus Gamer sicht natürlich absouluter Schwachsinn.. das ne 4070ti 12gb bekommt (wenn auch schnelleren) und die kleinere Karte 16gb.
Das zeigt einmal mehr das sich die RTX Karten immer mehr auch an creator, pros und miner richten, die auch mit den hohen Preisen nicht solche Kopfschmerzen haben.
Bin Mal gespannt wie lange der "Gamer" sich das gefallen lässt und Nvidia dann RTX 5060/70/80/90 und 5065/75/85/95 bringen. Um die Märkte seperat zu bedienen... Aber die 4070ti und 4070 erfreuen sich ja großer Beliebtheit unter den gamern... Haben eben alle noch genug Geld für Luxus über... Aber dann bei Lidl den billigsten fraß von misshandelten Tieren kaufen...😂
 
Also gibt's ne 4060ti 8 gb und eine mit 16 GB vram glaub mir die 4060ti wird bestimmt nahezu gleich h viel kosten wie die 4070 und Leute kaufen sie😂
 
ThirdLife schrieb:
Welche neuen Konsolen ? Es gibt keine neuen Konsolen.
Gemeint sind PS5 und Xbox Series X.

Früher waren PS4 (Non-Pro) und Co der kleinste gemeinsame Nenner, für den die Entwickler programmieren mussten. Die Versionen für PS4 Pro, PS5 und Xbox S/X waren dann aufgehübscht. (Ob es dann auf PS4 oÄ zuletzt gut lief ist wieder was Anderes.)

Nur inzwischen fallen die alten weg und es wird nur noch für PS5 und Xbox Series entwickelt. Entprechend macht sich niemand mehr um Ressourcenschonung Gedanken. Siehe zB Jedi Survivor. Da bekommst du dann nicht nur ein Spiel, dass auf Konsole eher so naja läuft, sondern dann entstehen so Schlagzeilen wie:

Pre-Launch 'Jedi: Survivor' Eats 21GB of VRAM, Struggles on RTX 4090
 
  • Gefällt mir
Reaktionen: C0rteX
Kritik wird Nvidia wohl recht egal sein. Das sieht man eigentlich in der kompletten Unternehmensgeschichte.

Habe zwar auch Nvidia aufgrund des damals besserem Produktes, aber von Nvidia fühle ich mich regelmäßig verarscht.
So als ob der Kunden eigentlich nur ein Spielball ist und nicht auf Augenhöhe.

Und ihre neue China Politik finde ich persönlich auch verwerflich. Klar, blablabla gewinnorientiert. Muss man aber wirklich jeden Gewinn mitnehmen?
 
TriceO schrieb:
Wenn AMD 16GB bei ihren 7600 Modellen brächte, würd ich das ja verstehen
Eher 7700/xt 16 gb vram
Ergänzung ()

TriceO schrieb:
Wenn AMD 16GB bei ihren 7600 Modellen brächte, würd ich das ja verstehen
Eher 7700/xt 16 gb vram
 
Ayo34 schrieb:
Dazu kommt das 16GB bei Nvidia "mehr" ist als 16GB bei AMD.
500MB-max 1,5 GB. Auch Nvidia kann nicht zaubern. Ist der Vram voll rettet auch ein besseres Speichermanagment nichts mehr.
 
Zurück
Oben