News Kritik zu groß?: Nvidia soll die RTX 4060 Ti nun doch auch mit 16 GB bringen

Ja klar 16 gb vram voll machen wie das?
 
Hominem schrieb:
Vor 25 Jahren war Gaming nicht Mainstream. Dir ist schon klar das Gaming mehr Geld einspielt als die Film und Musik Industrie zusammen? Nein wären sie nicht.

Ich verstehe nicht den Zusammenhang? Man hat immer soviele (oder mehr) Grafikkarten gebaut wie nachgefragt wurden. Mehr Nachfrage, mehr Grafikkarten. Das konnte aber nicht mit der Mining Nachfrage skalieren, weil eben jede Grafikkarte direkt gekauft wurde.

Smartphones kannst du doch auch ganz normal kaufen und das ist auch ein sehr großer Markt? Unterschied, Mining auf dem Smartphone hat keinen Sinn ergeben.
 
kiraschiro schrieb:
nVidia greift sicherlich auf günstigere Pipelines zurück, deswegen sind 16 GB VRAM hier günstiger zu verbauen.
Aber Leistungstechnisch, macht das wenig Sinn..
Die 4070Ti würde davon mehr profitieren.
Hä, was für günstigere Pipelines? Hast du Quellen? Bei der 4070ti würde es kein Sinn machen, weil es mit den interface nicht möglich ist.
 
yamiimax schrieb:
Eher 7700/xt 16 gb vram
War nur ein Beispiel dafür, dass ich spontane Panik in der Nvidia-Chefetage und Redesigns eher nachvollziehen könnte, wenn völlig überraschend AMD mit viel mehr VRAM käme.
 
TriceO schrieb:
Gemeint sind PS5 und Xbox Series X.

Früher waren PS4 (Non-Pro) und Co der kleinste gemeinsame Nenner, für den die Entwickler programmieren mussten. Die Versionen für PS4 Pro, PS5 und Xbox S/X waren dann aufgehübscht. (Ob es dann auf PS4 oÄ zuletzt gut lief ist wieder was Anderes.)

Nur inzwischen fallen die alten weg und es wird nur noch für PS5 und Xbox Series entwickelt. Entprechend macht sich niemand mehr um Ressourcenschonung Gedanken. Siehe zB Jedi Survivor. Da bekommst du dann nicht nur ein Spiel, dass auf Konsole eher so naja läuft, sondern dann entstehen so Schlagzeilen wie:

Pre-Launch 'Jedi: Survivor' Eats 21GB of VRAM, Struggles on RTX 4090
Hogwarts Legacy läuft auf der PS4 und hat die gleiche, schlechte Optimierung.
 
Hominem schrieb:
Amd ist fast von der Bildfläche der Diskreten Grafikkarten verschwunden.
Ziemliche unsachliche Fantasie Vorstellung an den Fakten vorbei und auch die restliche Argumentation ist teils aus dem Kontext gerissen und absichtlich stark negativ dargestellt damit es der eigenen Wunschvorstellung entspricht.
Man kann es selbst mit dem Fanboy sein übertreiben.
 
  • Gefällt mir
Reaktionen: anarchie99, M@tze und C0rteX
Easy1991 schrieb:
Hä, was für günstigere Pipelines? Hast du Quellen? Bei der 4070ti würde es kein Sinn machen, weil es mit den interface nicht möglich ist.
Die günstigeren Pipelines waren auf die 4060Ti bezogen.
Nicht auf die 4070Ti.

Und nein, ich habe keine Quellen, ist nur eine Theorie.
 
SilverShadow schrieb:
läuft auf der PS4 und hat die gleiche, schlechte Optimierung.
Hogwarts soll ja im Verhältnis angeblich recht gut auf der alten PS4 laufen. Hätte man ja sogar mit schlimmerem rechnen können.

Denk an Cyperpunk, wie toll (mies) das anfangs auf der alten PS4 lief. Da war PS4 aber auch die verschlechtbesserte Fassung der Pro, damit es irgendwie läuft. Wenn ich das richtig mitbekommen hatte.
 
Zuletzt bearbeitet: (Sätze umgestellt.)
Ayo34 schrieb:
Ich verstehe nicht den Zusammenhang? Man hat immer soviele (oder mehr) Grafikkarten gebaut wie nachgefragt wurden. Mehr Nachfrage, mehr Grafikkarten. Das konnte aber nicht mit der Mining Nachfrage skalieren, weil eben jede Grafikkarte direkt gekauft wurde.

Smartphones kannst du doch auch ganz normal kaufen und das ist auch ein sehr großer Markt? Unterschied, Mining auf dem Smartphone hat keinen Sinn ergeben.
Wie viele Nvidia launches hast du bitte erlebt? War doch immer alles monatelang vergriffen und mondpreise bis es sich stabilisiert hat.
 
Können die 16 GB überhaupt schnell genug gefüllt und gelesen werde (mit 128 Bit nur halbe Speicherbandbreite gegenüber der 4080), damit die 16 GB in der Realität Sinn machen?
 
  • Gefällt mir
Reaktionen: cypeak
die chip-designs bzw. deren grundspecs werden relativ früh im entwicklungsprozess festgelegt und das mit dem "blick in die glaskugel" ca. 2-3 jahre im voraus. da kann man sich schon irren was die nachfrage oder anforderungen betrifft.

man bedenke dass der trend zum schmaleren speicherinterface in kombination mit großem internem cache relativ neu ist.
amd nutzt infinity cache meines wissens erst seit der rdna2 generation. nvidia in dieser form erst seit ada.
damit meine ich nicht L2 cache im allgemeinen, sondern den mehr als nur 2-6mb großen L2 cache der entsprechend auch flott angebunden ist.

GA102 (3080/3090) hatte 6MB L2 chache bei einem 384bit SI und 760-1080 GB/s bandbreite
AD102 (4090) und AD103 (4080) arbeiten mit 96MB respektive 64MB L2 cache - die 4080 mit einem 256bit interface mit 716GB/s bandbreite.

was bei den großen ada karten noch ganz gut skaliert, macht nvidia im portfolio darunter zunerhmend probleme. so mein eindruck...
 
  • Gefällt mir
Reaktionen: DerRico
TriceO schrieb:
Vielleicht kommt ja noch eine 4070 Super oder ein Ti Refresh, der dann auf dem AD103 Chip der 4080 aufbaut und dann 16GB VRAM kann. Hieße aber, dass sie zuviele AD103 Chips rumliegen haben.

Dürften wohl eher die 4080 Preise sinken, als dass sie die 4080-Chips als 4070 verjubeln.
Refresh-Karten sind bei Nvidia nach der neuesten Politik mit das schlimmste was man sich als Kunde anlachen kann. Da zahlt man nach einem Jahr für eine Superkarte der 4070 dann 700€+ und ein Jahr später kommt die 5000er Serie, warscheinlich wieder mit einer Technik, die dann die 4000er Karten nicht beherrschen. Bestes Beispiel ist aktuell DLSS3?und Frame Generation.

Früher gab es das höchstens mal wenn eine neue DIRECTX Version raus kam und jetzt wird es mit jeder neuen Generation bei Nvidia gemacht.
 
  • Gefällt mir
Reaktionen: TriceO
Ich hätte da eine Lösung. Den Chip der 4070 Karte für die 4060 nehmen. Den Chip von der 4080 für die 4070 und schon passt der Speicherausbau !:)

Ansonsten wer hätte es gedacht das 8 Gb einfach zuwenig sind.
 
  • Gefällt mir
Reaktionen: DerRico
Taurus104 schrieb:
Ziemliche unsachliche Fantasie Vorstellung an den Fakten vorbei und auch die restliche Argumentation ist teils aus dem Kontext gerissen und absichtlich stark negativ dargestellt damit es der eigenen Wunschvorstellung entspricht.
Man kann es selbst mit dem Fanboy sein übertreiben.
Ziemlicher harter Fakt sieh dir die Zahlen an. Sind für jeden frei einsehbar

Aber das man bei CB bei nennung von Fakten als Fanboy hingestellt wird als Erwachsener ist an peinlichkeit eh nicht mehr zu überbieten. Ich wäre für ein Bann wer sich so verhält. 0 Toleranz Politik.

Vielleicht muss man sich dann solchen schwachsinn wie von dir nicht mehr geben.
 
Hominem schrieb:
Wie viele Nvidia launches hast du bitte erlebt? War doch immer alles monatelang vergriffen und mondpreise bis es sich stabilisiert hat.

Ziemlich viele (~ seit 1995 oder so) und eigentlich konnte man immer zur UVP gut kaufen (vor Mining). Danach sind die Preis dann zur nächsten Generation hin immer deutlich unter UVP gefallen. Kann mich an keinen Zeitpunkt erinnern wo ich eine Grafikkarte kaufen wollte und keine bekommen habe. Ich habe auch nie eine Grafikkarte für über UVP gekauft.

Welche Grafikkarten hast du nicht bekommen bevor der Miningboom gestartet ist?
 
  • Gefällt mir
Reaktionen: Dai6oro

DerRico schrieb:
NV hat ja den Cache massiv erhöht, wie AMD bei der 6000ern. Damit wird die Bandbreite weniger relevant.a
Massiv würde ich das auch nicht bezeichnen.
40 MB Level 2 Cache bei den 4070er. Zudem reden wir bei Nvidia Level 2 Cache und bei AMDs Infinity Cache von Level 3 mit integriertem L2 Cache. L2 Cache hat kaum positive Auswirkungen auf die Bandbreite bzw. das Speicherinterface.
Ergänzung ()

danyundsahne schrieb:
AMD müssten bei der RX7600 nun reagieren, das stimmt.
Muss AMD nicht. Denn der Konkurrent zur 4060 Ti ist nicht die 7600/XT sondern die 7700/XT.
 
  • Gefällt mir
Reaktionen: Dai6oro, danyundsahne und blackiwid
IronAngel schrieb:
Ansonsten wer hätte es gedacht das 8 Gb einfach zuwenig sind.
Ich denke, da kann man sich drauf einigen, egal auf welcher "Seite" (wenn es sowas hier geben sollte) man steht: Implizit gibt NV damit zu, dass die 60ti 8GB ein scheiss Move war. Egal wie man das bezeichnen will.

Bei den 12GB-Karten sehe ich persönlich das genau so aber ich verstehe auch die ein bisschen, die das jetzt noch verteidigen mit dem Argument "reicht noch" oder "reicht mir auch in 2 Jahren noch". Ist okay, kann man so sehen.

8GB kann man nicht mehr als okay sehen, in keinem Szenario. Daher hoffe ich, dass auch AMD von der idiotischen Bestückung der kolpotierten 7600 Abstand nimmt. Nicht einmal für unter 300€ ist das ein Kauf,

Bei der 6600er für 200€ kann man das noch akzeptieren - ist eine alte Karte für viel weniger Geld und als die kam, war das voll in Ordnung.
Bei der 7600 kommt ja dann das "Killerfeature" FSR 3 und das frisst wieder massig Speicher - da weiss man jetzt schon, dass das auf der Karte mit 8GB tot ist.
 
  • Gefällt mir
Reaktionen: AI94
Ja damit schießt sich Nvidia selbst ins Bein, versteh ich das richtig das Nvidia das ja geheim halten wollte aber es jetzt irgendwie raus gerutscht ist, würde Sinn machen, denn wenn das jetzt klar wird, verärgert man 90% der 4070 Kunden, die sich eine Karte gekauft haben die mittelfristig wahrscheinlich hinter dieser einbrechen wird, die 4060ti soll ja auch ordentlich GPU Leistung bringen, das ist ja keine Lowend Karte und natürlich kann man die auch in meisten Titeln easy auf 1440p benutzen alle andere ist Wunschdenken von 4070 Kunden. Kann hier und da auch mal schneller die GPU bremsen sicher, aber das als pauschale Aussage zu tätigen halte ich für Absurd. Klar Nvidia kann die Kunden auch nochmal verarschen in dem man künstlich die Speicherbandbreite auf Zeitlupenniveau reduziert, aber dann hat man noch mehr verärgerte Kunden dann ist halt jeder verarscht der irgend eine Karte von denen gekauft hat, vielleicht ist das ja das Ziel das alle gleich stark sich verarscht fühlen :D.

Aber ja erstens fühlen sich die 4070(ti) Kunden verarscht, auch die Aussage das 8gb / 12gb genug sind daran glaubt jetzt nicht mal Nvidia, und ja wenn Nvidia eingesteht das bei ner reinen Fullhd Karte 8gb nicht genug sind, geben sie implizit auch zu das 12gb bei einer primär 1440p Karte vermutlich auch nicht gut genug sind, wobei ich die These das man mit ner 600 Euro (4070) und noch viel schlimmer ner 870 Euro (4070 Ti) Karte nur maximal 1440p spielen darf und alles darüber ein riesen Glücksspiel wird, auch fuer absurde Ansprüche an so teure Karten finde, bei den Preisen darf man die Karten sehr wohl auch an 4k messen und spätestens da sind 12gb ein Witz.

Aber ja zweitens werden dann die Verkäufe der 4060 Gen auch bis zum Release der 16gb Variante sehr schleicht sein, aber das währen sie vermutlich so oder so :D

Vermutlich wird AMD vor der 16gb Variante eben ne 7700 XT für höchstens 4060ti Niveau releasen oder wenn dann minimal teuer mit 12gb VRAM und wenn sie wollen können sie die 16gb Variante mit 24gb VRAM kontern dann :D aber vermute ist nicht nötig da wird dann die billigere 12gb 7700 XT von unten und die teurere 7800XT mit mehr Leistung die gut in Schach halten.

Ja deren 7600 reihe wird auch nur 8gb haben, aber eben zu niedrigen Preisen von daher kann man mindestens 1 halbe Leistungsklasse abziehen, das wäre im Vergleich zu Nvidia ne Art RTX 4055 oder so und da sind 8gb für 270-350 Euro (zum start und dann recht schnell unter 300) schon ok und da kann sich der sonst 4060/ti geneigte Kunde sehr wohl bei der 7600 XT umschauen. War ja auch so bei 7900 XTX die hat nur mit der 4080 konkurriert und diese preislich unterboten, ob die 7700 XT das auch beides gleichzeitig schaffen werden wir sehen, wenn ja wäre es ne Katastrophe für Nvidia denn ein paar Euro Preisunterschied bei den teuren Karten macht nicht so viel aus, bei den billigeren sind die Kunden deutlich Preissensitiver aber selbst wenn nur ungefähr gleich teuer wie die 8gb Varianten ist doch auch VRAM stärker limitiert als bei ner 4080 selbst bei 4k, wobei da das gejammer auch los gehen wird.

Zumal nicht vergessen die 7700XT 12gb wird dann immer noch 192bit Speicherinterface haben also auch damit ist das die bessere Preis/Leistung wie selbst die 16gb ti 4060, es ist einfach das rundere Produkt billiger als 4070 höhere Speicherbandbreite vermutlich sogar billiger als die 4060 ti (16gb).

Ich behaupte einfach mal das die 7700 Gen von AMD die komplette Mittelklasse von Nvidia an die Wand stellt, und fuer Leute die das zu teuer ist wird AMD alle Nividia Mittelklasse Karten mit ihrer 7600 Gen unterbieten.

Oh boy Nvidia steckt jetzt in ner Sackgasse und nicht mal die Fanboys die schreien VRAM Mangel ist nie ein Problem, faellt Nvidia selbst nun in den Rücken, das ist schon fast nimmer witzig.

Der einzige Move den sie jetzt noch machen koennten der nicht in nem Disaster/ Blamage enden wuerde fuer Nvidia waere die Karte jetzt fuer 100 Euro billiger releasen also maximal 300 fuer die 4060 und 350 fuer die 4060 ti, aber das wird nicht passieren da machen sie sich ihre aufgebaute Apple Marke kaputt und deren primaere Zielgruppe sind ja Rechenzentren nicht Gamer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: C0rteX
Zurück
Oben