News Kritik zu groß?: Nvidia soll die RTX 4060 Ti nun doch auch mit 16 GB bringen

ThirdLife schrieb:
Also ich hatte eine 3080 Ti mit 12GB VRAM bis Ende 22 und in keinem EINZIGEN Spiel auch nur im Ansatz Probleme. Aber jetzt auf einmal hat jeder in allem ein Problem ? What ? 😂
Warum denn so provokant und angriffig?

Die Fakten - und damit die Diskussionsgrundlage - sind doch bei der 4070ti / 80 12 GB:
Preise 899 Euro UND zum Zeitpunkt des Erscheinens der 12GB-Karten ist bereits bekannt, dass diese Speichermenge in bestimmten Spielen im Verhältnis zur Rohleistung die optische Qualität negativ beeinflussen kann. Die Karte bleibt zwei Jahre im Verkauf und wird dann mal mindestens zwei Jahre vom Nutzer als Karte zumindest mal in der von NV vorgegebenem Leistungsklasse (1440P) genutzt. Da ist heute absehbar, dass der Speicher für viele AAA-Spiele zu klein sein wird.
Das wissen wir aus echten Tests, wo der Bench nicht nur 4 Minuten läuft, wir wissen das von Entwicklern (MLID) und wir wissen, dass die von NV beworbenen Features RT und FG richtig viel Speicher fressen. Die Idee "wenn mir der Speicher ausgeht und die Karte dann langsamer wird nutze ich FG" läuft nämlich nicht.

Bei der 80ti war das bei Erscheinen anders. Da war klar, dass die annähernd gleich schnelle 80er 10GB ein Problem mit dem SPeicher kriegen würde und die 80ti bzw. 80 12GB waren dann die sinnvolleren Karten. Und natürlich hat der Speicher bis heute in der Regel gereicht, gibt ja auch kein FG und die Spiele haben bei Erscheinen weniger RT und vor allem weniger Speicher genutzt.

Welche Spiele man spielt, wie hoch das Texturlevel sein muss, wann Ruckler und Pop-Ins nerven ist sehr individuell. Du spielst LW-Simulator oder HL in +480FPS? 4060ti 8GB ist eine geile Karte dafür!

Wer aber 899€ für eine Karte ausgibt, darf aber wohl erwarten, dass sie bis zum Erscheinen der Nachfolgegeneration alle AAA-Spiele ohne künstliches Speicherbottleneck schafft.

Der Wertreiber bei der Grafikkarte ist nämlich die GPU-Roheistung, also der GPU-Chip selber - der kostet in Herstellung und Entwicklung am meisten, dafür zahle ich das viele Geld, für dessen Leistungsklasse. Der Speicher ist eine im Verhältnis sehr günstige Komponente. Wenn der Output der Karte künstlich (absichtlich) durch zu wenig Speicher beschränkt wird, obwohl es den im Vergleich zu GPU fast gratis gibt, ist das einfach ein schlechtes Design und wenn man böse sein will geplante Obsoleszenz.

Warum kaufen 3070-Käufer ggf. eine 4070 neu? Weil die so viel schneller ist, oder weil die 3070er, die bei Erscheinen genug Rohleistung für 4k hatte (gleich schnell wie die 2080ti) nur noch bestenfalls FHD ruckelfrei darstellen kann bei neuesten AAA-Titeln?

Das Argument, dass die Programmierer alles Deppen sind und zu faul zum optimieren greift da imho auch zu kurz. Ich kaufe Hardware, um eine bestimmte Anwendung zu nutzen und wenn meine neue Karte die Anwendung "AAA-Spiel in 1440P" nicht sauber darstellen kann, ist sie einfach nicht gut.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TumorTorben, rumpel01 und C0rteX
BDR529 schrieb:
Weil eine 4060 Ti auch gerade so sehr von 16GB VRAM profitieren würde.

Was ein Schwachsinn.

Wieso profitiert man mit einer 4060 nicht von höher aufgelösten Texturen?
 
  • Gefällt mir
Reaktionen: DerRico
Simanova schrieb:
128bit Bus bleibt? Na da bin ich ja mal gespannt.
Ja klar, sonst bräuchte man ja einen neuen Chip. Und den entwickelt man nicht mal eben in ein paar Monaten.
 
ThirdLife schrieb:
Aber wäre eine 6800 nicht der Gegenpart zu einer 3080 und eine 6800 XT zur 3080 Ti, genauso wie eine 6900XT zur 3090 Ti steht ?
Nein, die gab es bei Erscheinen noch nicht.

Die 6800 ging bei etwas höherem Preis in Konkurrenz zur 3070 und war minimal langsamer damals (heute umgekehrt wegen RAM) und die 6800xt war zum niedrigeren Preis und mit weniger Leistung die Konkurrenz zur 3080.
Die 6900xt war zwischen 3080 und 3090 und brachte 90% der 3090er Leistung für 66% des Preises. Die 3090ti kam über ein Jahr später und spielte preislich und von der Leistung her noch weiter oben.
 
MelbarKasom schrieb:
Ich rede von Verbrauch, nicht von Effizienz.
Ähm ja - und die nvidia Karten verbrauchen bei gleicher Leistung eben weniger als AMD oder Intel. Und bei mehr Leistung sogar weniger als ihre Vorgängergeneration. Es gibt sicher vieles zu mäkeln an den Karten - der Verbrauch ist es sicher nicht!
 
Was ist mit meiner 4080 12 GB? Gibt's da auch ein Update auf 24 GB? Müssen 4070 TI Nutzer dann vielleicht einen Aufpreis von 100 Euro bezahlen um die Karte mit der 24 GB Version zu tauschen?

In unrealistischen Szenarios wird die 4060 TI dann meine 4070 TI Bügeln.
 
  • Gefällt mir
Reaktionen: InsideInfinity
HardcoreGaymer schrieb:
Ich würde es feiern, wenn es zukünftig nur noch 3 Modelle einer Grafik-Generation geben würde: Low, Mid und High. Das wird "langsam" unüberschaubar.
Ich würde mir für die kommende Generation an Karten die Zeiten zurückwünschen, wo es wieder eine gewisse sinnvolle Varietät nach unten gäbe. Früher gab es mal Karten wie ne 8400 oder 8500 GT, die waren für die Einstiegsklasse erschwinglich und auch dafür in Ordnung. Oder die GTX 750 Ti, die war gefühlt über Jahre am Markt etabliert und günstig.

MelbarKasom schrieb:
Hab kein Mitleid mit Konsumenten der 4000er Serie (explizit 4070). Jeder kauf adelt die Geschäftspolitik dieses Ladens und schädigt damit auch alle anderen grundsätzlich interessierten Konsumenten.
Welche Wahl hat man denn, wenn man leistungsstarke Karten will? AMD? Da muss ich grad mal laut lachen. Hatte früher immer mal ab und an zu ATI Karten gegriffen, aber das ist schon locker 10, 15 Jahre her.

Mit der RX 400er bzw. 500er Reihe war man dann vor wenigen Jahren mal wieder perfekt in der Einstiegs- und unteren Mittelklasse unterwegs, aber das Feld scheint aufgegeben worden zu sein.
 
  • Gefällt mir
Reaktionen: Intruder
Neodar schrieb:
Wer sich angesichts dieser Nachrichten für 600€+ jetzt eine 12GB Karte kauft, die die Leistung einer RTX 3080 hat, welche spätestens in WQHD auch schon an ihren nur 10GB verhungert (ja, ich weiß, es gibt auch eine 12GB Version), der hat doch den Schuss nicht gehört.
Das stimmt halt einfach nicht. Die 3080 kommt nach wie vor in den allermeisten Fällen auch in UHD mit ihren 10 GB aus. Klick.

Abseits dessen: Ich bin wirklich amüsiert von diesem Thread. Unter unserer 4060-Ti-Gerüchte-News finden sich hunderte Kommentare, in denen die 8 GB moniert werden. Und unter dieser News ist der Tenor nun: "Das braucht man doch nicht, das ist zu viel, aber was ist denn mit 4070". Meckern um des Meckerns Willen, ganz ehrlich.

Ja, klar, freilich: Der 4070 hätten 16 GB auch gut gestanden, aber das geht halt mit deren Interface nicht und 24 GB bleiben eben dem Topmodell vorbehalten. Natürlich hätte man das ganze Ada-Lineup in dieser Hinsicht von Beginn an anders konfigurieren können, hat man aber nicht.

Und der Knackpunkt ist: 12 GB reichen für 99,9 % der Spiele in WQHD und 99 Prozent der Spiele in UHD aus, selbst wenn man alle Regler nach rechts schiebt. Dass daraus binnen der nächsten Jahre nur 50 Prozent werden wage ich zu bezweifeln, solange es keine Next-Gen-Konsolen gibt.

8 GB wiederum reichen schon jetzt nicht mehr immer für Full HD aus, geschweige denn WQHD oder gar UHD in den nächsten Jahren. Beim Grafikspeicher ist's eben oft ein einfaches "reicht" oder "reicht nicht". Und 12 GB reichen bei der 4070 eher als 8 GB bei der 4060 Ti.

Insofern: Ja, ich verstehe 4070-Käufer, die dann in einigen Monaten ein wenig neidisch auf den Speicherausbau der 4060 Ti schielen. Aber abseits des GPU-Z-Screenshots wird sich das in der absehbaren Zukunft doch ohnehin nicht bemerkbar machen. Und ohnehin: Das sind alles Gerüchte. Erstmal abwarten.
 
  • Gefällt mir
Reaktionen: ComputerJunge, ZeusTheGod, Wan900 und 3 andere
ruthi91 schrieb:
Aber 16GB GDDR6 an 128bit passt grundsätzlich, schau dir mal die Anzahl der Shader an in der 4000er Generation.
Die 4060 hat nur ein Viertel der 4090, wird auch ein Viertel der Speicherbandbreite kein Problem sein.
Ich denke das auch. NV hat ja den Cache massiv erhöht, wie AMD bei der 6000ern. Damit wird die Bandbreite weniger relevant.
Speicher OC hat bei den bisherigen Adas kaum etwas gebracht, obwohl bei allen das Verhältnis von Bandbreiten zu Rohleistung massiv gesunken ist, selbst bei der vielgelobten 4090.

Ob der Cache dann irgendwann - wie bei der 6600xt - irgendwann an seine Grenzen kommt, da er mit der Chipgrösse mitschrumpft, weiss man bei der 4060ti noch nicht.
 
danyundsahne schrieb:
Ist doch schon das komplette RTX30 Lineup Quatsch gewesen, was NV VRAM-technisch abgezogen hat.
Das gibt es schon viel länger so und war eigentlich die Regel, dass AMD mehr VRAM verbaut hat und die Karten nach längerer Zeit (wegen dem Speicher?) noch mehr spielbar war!
HD 6970 2GB > GTX 480/580 1,5GB
HD 7970 3GB > GTX 680 2GB
RX 480/580 8GB > GTX 1060
R9 290 >GTX 780 TI 3GB
RX 5700 8GB > RTX 3060
 
  • Gefällt mir
Reaktionen: danyundsahne
Denkt ihr die ist schneller als meine 3080 mit 10GB RAM?
 
Vitche schrieb:
Und der Knackpunkt ist: 12 GB reichen für 100 % der Spiele in WQHD und 99 Prozent der Spiele in UHD aus, selbst wenn man alle Regler nach rechts schiebt. Dass daraus binnen der nächsten Jahre nur 50 Prozent werden wage ich zu bezweifeln, solange es keine Next-Gen-Konsolen gibt.

DANKE, endlich jemand der Ahnung hat ! Dem stimme ich zu 100% zu
 
  • Gefällt mir
Reaktionen: Wan900
ThirdLife schrieb:
Okay, was bringt es denn dann ? Es reden doch alle von VRAM und Langlebigkeit. Du selbst ja auch. Müsste es dann hier nicht auch der Langlebigkeit dienen ?
Wenn die GPU selbst entsprechend hohe Leistung hat, dann ist die Karte ja auch langlebiger.
Eine RTX 4070(Ti) hat durchaus eine Leistung, mit der man einige Jahre gut spielen können wird. Es hakt also nicht unbedingt an den FPS und man muss die Details mit ziemlicher Sicherheit in 1-2 Jahren auch nicht auf Low oder maximal mittel herunterdrehen um noch flüssig spielen zu können.
Aber der Speicher wird einem in so manchem Spiel definitiv ausgehen. Und dann muss man die Texturdetails reduzieren, oder die Auflösung runterschrauben usw. um den Speicherbedarf zu verringern.

Auf entsprechend schwächere Karten unnötig viel Speicher raufzuklatschen, ist natürlich im Umkehrschluss totaler Quatsch.
Genau das tut NVidia hier aber einmal mehr. Und genau da liegt halt die Kritik begründet.

Ist doch nun wahrlich nicht so schwer zu verstehen, oder?
 
  • Gefällt mir
Reaktionen: ThirdLife und C0rteX
Und weder 4070 noch 4070 Ti gibt es mit 16 GB?
Glaube ich nicht.
 
DerRico schrieb:
Warum denn so provokant und angriffig?
Vielleicht weil ihr nur immer schwarz oder weiß seht?
DerRico schrieb:
Ich kaufe Hardware, um eine bestimmte Anwendung zu nutzen und wenn meine neue Karte die Anwendung "AAA-Spiel in 1440P" nicht sauber darstellen kann, ist sie einfach nicht gut.
Dann hätte ich meine RX 6800 auch nicht kaufen dürfen...da war von Anfang an nix mit max drin.
...wenn wir von AMD max reden, ohne Raytracing, dann sollte man auch das VRam Problem in der Auflösung stecken lassen.
 
Vitche schrieb:
Das stimmt halt einfach nicht. Die 3080 kommt nach wie vor in den allermeisten Fällen auch in UHD mit ihren 10 GB aus. Klick.
NOCH!
Wir sprechen hier aber verdammt nochmal über Karten, die gerade erst kürzlich in den Verkauf gingen und für die Zukunft gekauft werden.
In 1-2 Jahren sieht der Speicherbedarf doch mit Sicherheit nochmal anders aus als aktuell. Weniger wird es definitiv nicht werden.
Also kauft man sich doch jetzt nicht für 600-900€ eine Grafikkarte, die auf absehbare Zeit höchstwahrscheinlich mit einem zu geringen Speicher zu kämpfen haben wird.

Und wie du ja selbst sagst, sind die 10GB lediglich in "den allermeisten Fällen" ausreichend. Aber eben nicht in allen. Das wird sich in den kommenden Spieletiteln noch ausweiten.

Es ist einfach "unklug", für so viel Geld eine bereits jetzt beim Speicher auf Kante genähte Karte zu kaufen.
 
  • Gefällt mir
Reaktionen: anarchie99, AI94 und C0rteX
Inxession schrieb:
Aber gut ... es ist nVidia.
Das Schlimme daran ist, das es trotzdem noch massig Käufer gibt für diesen HW-Fail.
tja... die einen sprechen so über nvidia, die anderen sprechen genauso über AMD. Ich kann dem Gebashe eh nichts abgewinnen.

Ich hatte Nvidia Karten - eine im Desktop und eine des selben Typs im Notebook - beide aufgrund identischen Mängeln verreckt (GPU Chip hat wohl aufgrund zu viel Hitze kalte Lötstellen bekommen - ich war kein Einzelfall) und ich hatte die Nase voll und bin zu ATI (nun AMD) gewechselt. Hatte 3 ATI Karten zeitgleich in 3 Systemen im Einsatz, einer wurde so gut wie nie gebraucht und läuft heute als W2K8R2 Server - inkl. der GPU und die anderen beiden Karten sind beide kurz nach Ablauf der Garantie im Sommer mit Grafikfehler (Streifen, Pixel) drauf gegangen. Hatte Nase voll von so nen Mist und bin zu Nvidia gewechselt (1x GTX 980 SLI + 1x GTX 970) sowohl die GTX 970 wie eine GTX 980 aus dem SLI System laufen Stand heute noch immer und weil die Dinger seit 10 Jahren ohne Probleme und Macken liefen, habe ich dankend wieder diesen W-Fail gekauft.

Was man hat, weiß man. Was ich allerdings bei AMD bekomme und was mich da erwartet, weiß ich nicht.
Also bleibe ich erst mal bei deinem besagtem HW-Fail und warte bis ich nach über 10 Jahren mal wieder auf die Nase falle 🤷‍♂️🙂

Ich hatte schon massig Intel/AMD - Matrox/S3/weiß der Geier noch alles/ATI/Nvidia gehabt. Irgendwo hat jedes System so seine Schwachstellen. Ich schätze mal das Milliarden von Menschen mit AMD Systemen noch nie in ihrem Leben Probleme hatten, das die 100% fehlerfrei perfekt laufen.
Die letzten 3 AMD Systeme, die ich hatte, haben mich regelmäßig mit BSODs, Freezes und andere Dinge genervt. Ich habe es nicht auf die Reihe bekommen diese Dinger stabil zum Laufen zu bewegen.
Erst, als ich durch Zufall einige Sockel 775er Boards in die Finger bekam und ich damit herum teste, war mir klar das ich zurück zu Intel sollte und die ganzen Sockel 775er Systeme, die ich mir aufbaute, sind noch heute im Einsatz was man von den AMD Systemen nicht sagen kann und dann hatte ich über 10 Jahre Sockel 1150 mit dem Xeon E3-1230 v3, der noch heute einwandfrei läuft und mit dem hatte ich, bis auf das Problem vom GTX 980 SLI System und dem anfänglich zu wenig Arbeitsspeicher nie großartig Probleme gehabt. Von Windows 7 nach Windows 8, 8.1 zu Windows 10 = perfekt. Konnte mich nie beklagen.

Und so wurde es wieder ein Intel System. Warum? Zufriedenheit würde ich sagen. Bleibe bei dem womit du die wenigsten Probleme und Sorgen hattest.

Was ich damit sagen möchte ist, das man sowohl mit AMD wie auch mit Intel auf die "Fresse" fliegen kann. Jedes System hat seine Vor- und Nachteile. Natürlich hat auch jeder von uns seine Vorlieben. So what?
Wie bei Autos. Der eine steht auf Mercedes, der nächste auf BMW und ein anderer tippt sich auf die Stirn und schwört auf Audi und dann kommt einer daher, lacht sich über die 3 Deppen kaputt, setzt sich in seinen 2 Jahre jungen geleasten Dacia und freut sich über 5€ monatliche Kosten für die Rappelkiste auf Rädern.

Jeder so, wie er mag und vor allem sich auch leisten kann.
 
Nvidia muss halt nun den Shitstorm ausshalten, und eingestehen, daß es ein Fehler war, daß man halt in den letzten Jahren, nur die TOP GKs mit ausreichend Speicher bestückt hat.

Wobei 8 GB schon vor mehr als 5 Jahren Standard war, und absolut absehbar war, das das in Zukunft nicht reichen wird (Richtung 4k geguckt), weil jetzt halt wahrscheinlich die 4070/ti Benutzer die A-Karte gezogen haben, da ne 4060ti mit 16GB die bessere Alternative ist.

Und an die, die hier rummaulen das ne 4060 zu schwach für 16 GB ist, das ist ersten nur der Neid, und zweitens wird es wahrscheinlich ne 8 und ne teurere 16 GB Variante geben, die man ja beide nicht kaufen muss.

Und zusätzlich angemerkt ist das ne Einsteigerkarte für 500€!!!!!
Der Preiswahnsinn ist zwar etwas abgeflacht, aber wenn ich ne komplette aktuelle 4k fähige Konsole für weniger € bekomme als ne Einsteiger GK, dann halt immer noch viel viel zu hoch.
 
Wie viele hier gegen die Karte schießen. Es ist doch leider so, dass die xx60 Reihe die Mainstream Karte des normalen Konsumenten ist. Viele scheinen zu vergessen, dass nicht alle bereit sind, so viel Geld zu bezahlen. Ich hätte es auch lieber, wenn die besseren Karten auch mindestens so viel Speicher als die schwächere Karte hätte, aber so ist es leider jetzt nicht, und war es auch zur 3000-Serie nicht.
Aus der Sicht finde ich es also berechtigt, der Mainstream Karte so einen Bonus zu geben.

Auch das die Laien hereingelegt werden kann ich nicht verstehen. Zum einen sollte man als Laie schon mal gar nicht so eine Grafikkarte, oder generell für so viel Geld, kaufen, sondern Berichte, Videos sehen oder sich von einem MM-MA z.B. beraten lassen.

Also mein erster Gedanke war "GEIL!".
 
Zurück
Oben