Battlemage bester Name nixdestotrotz ist mein lieblingsname Challenger D so witzigLtcrusher schrieb:auch Intel Battlemage abwarte, wird vom Preis und auch von den Benchmarks abhängen.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Kritik zu groß?: Nvidia soll die RTX 4060 Ti nun doch auch mit 16 GB bringen
- Ersteller Jan
- Erstellt am
- Zur News: Kritik zu groß?: Nvidia soll die RTX 4060 Ti nun doch auch mit 16 GB bringen
- Registriert
- Feb. 2019
- Beiträge
- 6.072
Intruder schrieb:zum einen stellt sich hier die Frage, was bei dir "gerüstet für die Zukunft" bedeutet. Für mich bedeutet Zukunft irgendwas in 5 bis 10 Jahren. Vor 10 Jahren habe ich mich mit 4GB begnügt - 10 Jahre später sind es 24GB bei mir.
24GB ... sonst braucht man das nicht...
hmm...
Hatte bisher 2 Games, die haben sich auch den verfügbaren freien GPU Speicher unter den Nagel gerissen und mal eben bis zu 23GB vom Grafikspeicher mit Daten voll gestopft. Das war Sniper 5 wie auch Diablo 4 Beta.
Also wird es schon mal genutzt, wenns da ist.
24GB werden nur voll in Spielen, weil es Fehler in der Programmierung gab. Da würden auch 48GB voll laufen. Die letzten 6-8 Jahre waren 8GB Standard und ausreichend. Die nächsten 6-8 Jahre werden 16GB ausreichen. Bei FullHD wohl auch 12GB. Ändern könnte sich das, wenn Konsolen einen Sprung beim RAM machen würden. Dazu kommt das 16GB bei Nvidia "mehr" ist als 16GB bei AMD.
Was soll da aufgehen? Beziehungsweise nicht.catch 22 schrieb:Die bereits recht sparsamen 128Bit Speicherbandbreite, die bisher nur 4 Steine versorgen sollte, darf nun 8 Steine versorgen.
Ob das mal noch aufgeht?
- Registriert
- Feb. 2019
- Beiträge
- 6.072
Der Unterschied ist die Situation. Die 3000er Karten wurden verkauft wegen Mining, egal wieviel RAM und welche Leistung. Jetzt müssen die Hersteller wieder Argumente liefern.Hominem schrieb:Wird nicht passieren. Genauso wenig wie die 3070 16gb und 3080 20gb passiert sind.
Intruder
Captain
- Registriert
- Juni 2011
- Beiträge
- 3.408
na obs ein "Fehler" ist, würde ich nun nicht gleich behaupten.Ayo34 schrieb:24GB werden nur voll in Spielen, weil es Fehler in der Programmierung gab. Da würden auch 48GB voll laufen
Oder ist ganz Windows ein Fehler nur weil es auch Daten zwischenspeichert damit diese gleich vorliegen ohne erst geladen werden zu müssen?
Dann wäre jeglicher Cache ebenfalls ein Fehler
Trotzdem ist die 4070 besserGrimba schrieb:Die sind vermutlich auch nicht auf dein Mitleid angewiesen.
Ergänzung ()
Meinst 4070 ti haha super ArgumentAyo34 schrieb:Der Unterschied ist die Situation. Die 3000er Karten wurden verkauft wegen Mining, egal wieviel RAM und welche Leistung. Jetzt müssen die Hersteller wieder Argumente liefern.
Wir reden hier von Grafikkarten die zwischen 600 und 900€ liegen. Das waren vor dem ganzen Miningboom und selbst danach Preise für High End Karten mit denen man Jahre später noch immer alles auf MAX spielen konnte. Und nicht Preise für "ausreichend in spielbaren Szenarien bis auf paar Ausnahmen".Experte18 schrieb:Müssen sie auch nicht. Wollen wir Mal die Kirche im Dorf lassen. 12 GB sind völlig ausreichend in spielbaren Szenarien bis auf paar Ausnahmen.
Für WQHD auf Max sind diese 600-900€ Karten in Form einer 4070(ti) 12GB DOA.
Dem habe ich weder widersprochen noch zugestimmt Ich wollte mehr auf die Sack-Reis-fällt-um Situation hinweisen.yamiimax schrieb:Trotzdem ist die 4070 besser
Hominem
Banned
- Registriert
- März 2023
- Beiträge
- 285
Nvidia Karten werden so oder so verkauft komplett irrelevant was ist. Gäbe es keine rezession wären alle 4070 ausverkauft.Ayo34 schrieb:Der Unterschied ist die Situation. Die 3000er Karten wurden verkauft wegen Mining, egal wieviel RAM und welche Leistung. Jetzt müssen die Hersteller wieder Argumente liefern.
Bei Nvidias wachstum kann man nur den schluss ziehen das da alles prächtig verläuft eher prächtig mal 10.
Willst du mir sagen eine 3080 hätte es zu uvp geschafft in den regalen liegen zu bleiben wäre kein mining sturm enstanden? Die Karte wäre ein halbes jahr ausverkauft gewesen so oder so. das trifft auch auf die 3070 zu auch mit nur 8gb vram. 2080ti leistung 500€ ?da wurden hirne abgeschaltet. Der Ankerpreis hat funktioniert.
Das hat die 1080 auch nicht geschafft und die hat 850 plus gekostet am anfang.
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- Beiträge
- 2.943
Ja das passiert wenn man eine kostenoptimierte Platine entwirft.
Unflexibel und man kann nicht auf den Markt reagieren.
Dafür aber schön gewinnoptimiert.
16GB sind klar besser, bin gespannt was NVIDIA dafür mit 60-70% Bruttomarge verlangt.
So wird die 4070 natürlich noch viel unattraktiver.
Diese Gen ist meiner Meinung nach absolut Mist, abgesehen von der 4090 natürlich.
Ach es wäre inzwischen auch so langsam mal sinnvoll über 1.5GBit nachzudenken, statt nur 1 Gbit oder 2 Gbit.
Weil das wird einfach langsam Quatsch. Es kann wohl kaum teurer sein als eine Platine zu bauen die andauernd unbesetzte Plätze für den VRAM aufweist.
Unflexibel und man kann nicht auf den Markt reagieren.
Dafür aber schön gewinnoptimiert.
16GB sind klar besser, bin gespannt was NVIDIA dafür mit 60-70% Bruttomarge verlangt.
So wird die 4070 natürlich noch viel unattraktiver.
Diese Gen ist meiner Meinung nach absolut Mist, abgesehen von der 4090 natürlich.
Ach es wäre inzwischen auch so langsam mal sinnvoll über 1.5GBit nachzudenken, statt nur 1 Gbit oder 2 Gbit.
Weil das wird einfach langsam Quatsch. Es kann wohl kaum teurer sein als eine Platine zu bauen die andauernd unbesetzte Plätze für den VRAM aufweist.
- Registriert
- Feb. 2019
- Beiträge
- 6.072
Hominem schrieb:Nvidia Karten werden so oder so verkauft komplett irrelevant was ist. Gäbe es keine rezession wären alle 4070 ausverkauft.
Bei Nvidias wachstum kann man nur den schluss ziehen das da alles prächtig verläuft eher prächtig mal 10.
Willst du mir sagen eine 3080 hätte es zu uvp geschafft in den regalen liegen zu bleiben wäre kein mining sturm enstanden? Die Karte wäre ein halbes jahr ausverkauft gewesen so oder so. das trifft auch auf die 3070 zu auch mit nur 8gb vram. 2080ti leistung 500€ ?da wurden hirne abgeschaltet. Der Ankerpreis hat funktioniert.
Das hat die 1080 auch nicht geschafft und die hat 850 plus gekostet am anfang.
Wie kommst du darauf? Davor die 25 Jahre konnte man immer problemlos Grafikkarten kaufen und das Mining hat alles geändert, weil sofort jede Grafikkarte verkauft wurde um Geld zu verdienen. Natürlich wären 3070/80er Karten ganz normal zu kaufen gewesen ohne Mining und/oder Corona.
Ich wage sogar zu behaupten, sie haben daran gedacht und die Speicherinterfaces angepasst, um mit dem Speicher zu knausern.Dai6oro schrieb:@cypeak
Nvidia ist doch nicht blöd, die hätten halt vorher dran denken können das Speicherinterface so zu gestalten dass man vernünftig austatten kann. Das Interface ist doch keine gottgegebene Größe. Nvidia will den Speicher knapp halten, das ist der Grund.
Der AD103 entspricht von den SM her einem GA102 so wie dier AD104 einem GA103 entspricht. Die interne Konfiguration der GPC ist AFAIK nicht in allen Fällen gleich, weil bei Ampere beinahe jede GPU ein anderes Verhältnis an SM pro GPC hatte, bei Ada aber stets 12 SM pro GPC vorhanden sind, was vor allem die Anzahl an ROPs beeinflusst, z.B. bei der 4070Ti vs. 3080(Ti).
Ansonsten hat Nvidia aber stets das Speicherinterface gekürzt um 2-4 32Bit-Controller (bis heute ist unklar, ob der GA103 256 oder 320Bit hat). Das muss man dann durch schnelleren Speicher und den L2-Cache kompensieren, was bei der 4070Ti und 4070 nur bedingt klappt (gegenüber 3080 und 3080Ti).
Warum? So musste man von 3080(Ti) zu 4080 nur von 10/12GB auf 16GB und von 3070(Ti) zu 4070(Ti) nur von 8GB auf 12GB erhöhen, also jeweils nur 4GB statt 10/12GB bzw. 8GB mehr, das ganze auch noch mit weniger, dafür größeren Modulen (8x2GB statt 10-12x1GB bzw. 6x2GB statt 8x1GB) und damit weniger Mehrkosten.
Klar, das hat auch nachvollziehbare Gründe, weil ja die Produktionskosten der GPUs durch den Umstieg von Samsung zurück zu TSMC offenbar immens gestiegen sind und auch der GDDR6X-Speicher teuer sowie energiehungrig ist (trägt bestimmt auch zur gesteigerten Effizienz bei).
Aber da kann man, finde ich, recht gut sehen, dass Nvidia klar war, dass sie in dieser Generation mehr Speicher bieten müssen, aber dann doch bitte nicht soviel mehr.
Mit der 4060(Ti) haben sie sich jetzt selbst ins Knie geschossen, weil kein Mensch einen Rückschritt bei der Speichermenge gegenüber dem Vorgänger toll findet und dazu auch noch gerade jetzt Spiele erscheinen sind, die mit 8GB und RTX auch unterhalb von UHD Probleme machen. Dazu die gesalzenen Preise.
Ich weiss selbst nicht so recht, was ich machen soll. Ich mag Nvidia wegen solcher Praktiken nicht und finde, dass die Preistreiberei bekämpft gehört, aber dass AMD nicht rafft, dass man bei RTX mal in die Hufen kommen muss, find ich genauso blöd. Eine günstigere 4080 oder eine 4070Ti mit 24GB hätte ich bedenkenlos gekauft, aber so überlege ich hin und her zwischen 4070, 4070Ti, gebrauchter 3080 12GB, 3080Ti oder 3090.
Wenn die 7900XT noch etwas günstiger würde, wäre sie der Königsweg, weil sie die RTX-Performance der 4070Ti und deutlich mehr Rasterizerleistung für nur etwas mehr Geld bietet.
Hominem
Banned
- Registriert
- März 2023
- Beiträge
- 285
Vor 25 Jahren war Gaming nicht Mainstream. Dir ist schon klar das Gaming mehr Geld einspielt als die Film und Musik Industrie zusammen? Nein wären sie nicht.Ayo34 schrieb:Wie kommst du darauf? Davor die 25 Jahre konnte man immer problemlos Grafikkarten kaufen und das Mining hat alles geändert, weil sofort jede Grafikkarte verkauft wurde um Geld zu verdienen. Natürlich wären 3070/80er Karten ganz normal zu kaufen gewesen ohne Mining und/oder Corona.
H
HierGibtsNichts
Gast
Die 7600 ist aber nicht das Konkurrenzmodell zur 4060TI das ist die 7700/XT mit 12GBTriceO schrieb:Wenn AMD 16GB bei ihren 7600 Modellen brächte, würd ich das ja verstehen
Die 7600/XT wird mit der 4060 non Ti konkurieren.
fairhext
Lt. Commander
- Registriert
- Jan. 2022
- Beiträge
- 1.644
Aus Gamer sicht natürlich absouluter Schwachsinn.. das ne 4070ti 12gb bekommt (wenn auch schnelleren) und die kleinere Karte 16gb.
Das zeigt einmal mehr das sich die RTX Karten immer mehr auch an creator, pros und miner richten, die auch mit den hohen Preisen nicht solche Kopfschmerzen haben.
Bin Mal gespannt wie lange der "Gamer" sich das gefallen lässt und Nvidia dann RTX 5060/70/80/90 und 5065/75/85/95 bringen. Um die Märkte seperat zu bedienen... Aber die 4070ti und 4070 erfreuen sich ja großer Beliebtheit unter den gamern... Haben eben alle noch genug Geld für Luxus über... Aber dann bei Lidl den billigsten fraß von misshandelten Tieren kaufen...😂
Das zeigt einmal mehr das sich die RTX Karten immer mehr auch an creator, pros und miner richten, die auch mit den hohen Preisen nicht solche Kopfschmerzen haben.
Bin Mal gespannt wie lange der "Gamer" sich das gefallen lässt und Nvidia dann RTX 5060/70/80/90 und 5065/75/85/95 bringen. Um die Märkte seperat zu bedienen... Aber die 4070ti und 4070 erfreuen sich ja großer Beliebtheit unter den gamern... Haben eben alle noch genug Geld für Luxus über... Aber dann bei Lidl den billigsten fraß von misshandelten Tieren kaufen...😂
Gemeint sind PS5 und Xbox Series X.ThirdLife schrieb:Welche neuen Konsolen ? Es gibt keine neuen Konsolen.
Früher waren PS4 (Non-Pro) und Co der kleinste gemeinsame Nenner, für den die Entwickler programmieren mussten. Die Versionen für PS4 Pro, PS5 und Xbox S/X waren dann aufgehübscht. (Ob es dann auf PS4 oÄ zuletzt gut lief ist wieder was Anderes.)
Nur inzwischen fallen die alten weg und es wird nur noch für PS5 und Xbox Series entwickelt. Entprechend macht sich niemand mehr um Ressourcenschonung Gedanken. Siehe zB Jedi Survivor. Da bekommst du dann nicht nur ein Spiel, dass auf Konsole eher so naja läuft, sondern dann entstehen so Schlagzeilen wie:
Pre-Launch 'Jedi: Survivor' Eats 21GB of VRAM, Struggles on RTX 4090
mcdexter
Lieutenant
- Registriert
- Apr. 2017
- Beiträge
- 842
Kritik wird Nvidia wohl recht egal sein. Das sieht man eigentlich in der kompletten Unternehmensgeschichte.
Habe zwar auch Nvidia aufgrund des damals besserem Produktes, aber von Nvidia fühle ich mich regelmäßig verarscht.
So als ob der Kunden eigentlich nur ein Spielball ist und nicht auf Augenhöhe.
Und ihre neue China Politik finde ich persönlich auch verwerflich. Klar, blablabla gewinnorientiert. Muss man aber wirklich jeden Gewinn mitnehmen?
Habe zwar auch Nvidia aufgrund des damals besserem Produktes, aber von Nvidia fühle ich mich regelmäßig verarscht.
So als ob der Kunden eigentlich nur ein Spielball ist und nicht auf Augenhöhe.
Und ihre neue China Politik finde ich persönlich auch verwerflich. Klar, blablabla gewinnorientiert. Muss man aber wirklich jeden Gewinn mitnehmen?
Eher 7700/xt 16 gb vramTriceO schrieb:Wenn AMD 16GB bei ihren 7600 Modellen brächte, würd ich das ja verstehen
Ergänzung ()
Eher 7700/xt 16 gb vramTriceO schrieb:Wenn AMD 16GB bei ihren 7600 Modellen brächte, würd ich das ja verstehen
H
HierGibtsNichts
Gast
500MB-max 1,5 GB. Auch Nvidia kann nicht zaubern. Ist der Vram voll rettet auch ein besseres Speichermanagment nichts mehr.Ayo34 schrieb:Dazu kommt das 16GB bei Nvidia "mehr" ist als 16GB bei AMD.
Ähnliche Themen
- Antworten
- 16
- Aufrufe
- 633
- Antworten
- 34
- Aufrufe
- 1.679
- Antworten
- 11
- Aufrufe
- 798
- Antworten
- 150
- Aufrufe
- 15.821
- Antworten
- 141
- Aufrufe
- 14.800