News Kritik zu groß?: Nvidia soll die RTX 4060 Ti nun doch auch mit 16 GB bringen

blackiwid schrieb:
Selbst dann haben die Konsolen noch directaccess artige Technologie das ist besser als RAM.
[....]
Der Vergleich hinkt.

Auf der Konsole gibt es kein Ultra++/RT++ in den Grafikeinstellungen. Konsole läuft auf hoch bis sehr hoch, mit teilweise selten aber dennoch anzutreffen mittel. Kein Ultra und schon gar nicht RT Ultra & Co.

Für einen Vergleich musst den PC dann auch auf hoch bis sehr hoch stellen.
 
Piecemaker schrieb:
Auf der Konsole gibt es kein Ultra++/RT++ in den Grafikeinstellungen. Konsole läuft auf hoch bis sehr hoch, mit teilweise selten aber dennoch anzutreffen mittel. Kein Ultra und schon gar nicht RT Ultra & Co.
Hogwards Legacy laeuft sehr wohl auf Ultra mit RT, halt mit 30fps aber das weitgehend stabil und dank Freesync und Single Player reicht das auch.
 
Ich denke die Karte wird nicht unbedingt für Spieler entwickelt...
Die Karte wird extrem interessant für KI Anwendungen, Nvidia weiß das auch ganz genau. Mit Cuda + 16gb vram lässt sich schon viel anfangen... Besonders wenn die Karte noch halbwegs günstig ist im Vergleich zu den high-end Karten. Ist eine absolute Marktlücke und gleichzeitig ein netter Service an die Kunden. Sehr schade für alle, die deswegen eine teure Karte gekauft haben.
 
Ich warte dann doch besser auf die 4050 mit 32 GB am 64 bit Bus.
 
  • Gefällt mir
Reaktionen: anarchie99 und InsideInfinity
Piecemaker schrieb:
Nvidias move ist schon nachvollziehbar.

Speicheranbindung:
  • RTX 4060/Ti = 128 Bit
  • RTX 3060/TI = 192 Bit
  • RTX 3070 = 256 Bit
  • RTX 3080 = 384 Bit/320Bit
Das Problem ist, das die 8GB VRam nur mit 128Bit angeschlossen sind und die last sowie new Gen haben beide GDDR6/X. Wenn ein Spiel ins VRam Limit läuft, dann bestimmt die Speicherbandbreite wie es weiter geht.

Eine 4060/Ti ist mit 8 GB VRam schon jetzt mit einigen AAA+ Titel in 1080p am Limit. Dort entstehen lange Nachladeruckler oder permanent unzureichende FPS. Da kauft sich der Kunde dann die 450€ Grafikkarte, will Hogwarts, TLOU, RE 4 Remake, Calisto Protokoll etc spielen und es ruckelt direkt. Verkauft sich dann auch nicht so gut :)

Die 16GB VRam mussten halt kommen, um die 128Bit Anbindung zu umgehen.



Das kommt drauf an.

Für die 250€ Aufpreis erhöhst du nur den VRam. Die RTX 3070 bietet vergleichbare Performance zur 4060 Ti. Da würde ich eher 350€ drauf legen und dafür dann RX 6950 XT holen. Dann hast du auf RTX 3090 Performance Niveau geupgradet.


Nein. Bloß nicht machen!

Das ist dann Paypal Friends und du erhältst keine Grafikkarte. RTX 3090 liegt bei ~700€ gebraucht, wenn du gut bist bekommst du eine gute für 650€. Die 300€ & Co Angebote sind allesamt fake. Auf EK verkaufen DIY Leute, die wissen was ihre HW wert ist.



Was stirbt sind realistische Deadlines und vernünftiger Code auf guter Engine. Aber es gibt sie noch. RTX 3070 + 5900X mit 60-70FPS in 1440p und 7GB VRam Verbrauch in alles Ultra + RT Ultra:





Und das sind keine pre-rendert Cutszenes, das ist ingame. Aber ohne RT weil Konsole. Auf dem PC sieht das alles noch besser aus, weil EpicRT++. So hätte auch ein Jedi Survivor werden können.

Auch wenn ich grundsätzlich der Meinung bin das mehr Optimierung für den PC passieren muss, um den Hardwarehunger nicht völlig eskalieren zu lassen, muss man beim Beispiel Gardians of the Galaxy die Art des Spiels berücksichtigen. Es handelt sich nicht um ein Spiel mit einer Open world. Hier gibt es höchstens kleinere Areale und Schlauchlevel. Füge dem ganzen größere Level hinzu und der Speicherverbrauch entwickelt sich auch in eine ganz andere Richtung. Doom Eternal finde ich da sogar noch beeindruckender. Das Spiel läuft wirklich wie auf Schienen. Aber auch da handelt es sich nicht um eine Open world.

Sobald umfangreiches Streaming im Spiel ist, steigen die Anforderungen doch schon erheblich.

Ist überhaupt jemand ein weiteres Spiel, welches mit direct storage kommt bekannt? Ein Entwickler bei MLID meinte letztens, dass es in der Branche eigentlich kaum einer möchte. Nvidia hätte es wohl auch nur, weil die Konsolen etwas in der Art haben. Außerdem soll es wohl auch Probleme verursachen und nicht nur lösen.
 
Na alleine schon dieser move von NVIDIA zeigt doch, das die Community im Internet nicht zu unterschätzen ist.
 
  • Gefällt mir
Reaktionen: Eller
Piecemaker schrieb:
Nvidia hat zwar Konkurrenz, aber trifft die falschen Entscheidungen für die Zukunft ihrer Marke.

Nvidia ist seit RTX 2080/2070 schon bekannt für teuer und wenig VRam. Aber das ging damals noch. Mit der 3000er Reihe sind sie halt einen Schritt zu weit gegangen, aber hätten jetzt mit 4000 den Kopf aus der Schlinge ziehen können. Das haben sie mit 4070 12GB VRam & jetzt 4060 8GB VRam nicht getan.


Der dimishing return Effekt wird jetzt größer als mit noch der 3000er Reihe (8-10GB Debakel). Die 8 - 12GB der 4000er Reihe werden den Leuten jetzt schneller um die Ohren fliegen. Die 8GB einer RTX 2080/2070 waren wenig, konnten einen aber zuverlässlich 5 Jahre bis heute begleiten. Die 8GB VRam einer 4060/Ti sind ab Kauf schon obsolet, und die 12GB der 4070 bestimmt nicht erst in 5 Jahren sondern in 2. Dazu haben die Leute mehr gezahlt.

Die Marke Nvidia präsentiert sich gerade in teuer bei gleichzeitig wenig(er) Leistung/Langlebigkeit. Das geht nicht gut, weil das dann kein Premium Produkt mehr ist. Und das merken oder werden die Kunden verstärkt merken.

Nur dadurch kann AMD in den Markt drängen. Stell dir mal alle RTX Nvidia Grafikkarten mit doppeltem VRam vor (+gleiche Speicheranbindung wie last Gen), zum gleichen aktuellen Preis. Ein DIY Bauer würde das Wort "Radeon" nur mal am Rande erwähnen. Gleiche bei Intel. Jahrelang nichts gemacht und jetzt kann man sich zwischen Intel & Ryzen logisch entscheiden. Die Grenze zwischen besser und schlechter verwischt.

Nvidia macht gerade Platz. Deren Strategie wird so nicht aufgehen.

Ich stimme zu. Man sieht ja an Intel was ihnen die falsche Marktstrategie eingebracht hat. Als AMD nicht konkurrenzfähig war, haben sie sich lange ausgeruht und jedes Jahr einen 4 Kerner mit 5 Prozent mehr Leistung gebracht. Zusätzlich noch das Desaster mit dem neuen Fertigungsverfahren. Zumindest der Stillstand bei den Kernen und Leistung wurde aufgrund von Gier verursacht. So hat man einen mächtigen Vorsprung abgegeben und kann jetzt immernoch nicht so kosteneffizient wie AMD produzieren.

Das selbe versucht AMD mit chiplets und Caches bei GPUs. Allerdings spielt hier noch der gut 1 Jahr Rückstand in Sachen Software mit rein. Bei Raytracing haben sie mit der 7000er ja eher aufgeholt und der Sprung für Nvidia war gefühlt nicht mehr so groß. Die 10 bis 15 Prozent wären mir egal, solange ich dafür 10 bis 15 Prozent mehr Rasterleistung erhalte. Und ja, in wirklich üblen RT Szenarien sind sie noch weiter weg, aber das sind bisher doch eher Machbarkeitsstudien. Bis wir flächendeckend dieses Level erreichen vergehen noch 5 bis 10 Jahre und wir brauchen noch wesentlich schnellere Hardware.

Nvidia hat genug Argumente für ihre Produkte, wenn man sie denn anständig designen würde. Aber die Motivation die Marge halten zu wollen, gepaart mit Upselling und geplanter Obsoleszenz funktioniert so einfach nicht. Der Bogen wurde überspannt und die meisten Gamer akzeptieren das einfach nicht mehr.
 
Zuletzt bearbeitet von einem Moderator:
DerRico schrieb:
Oder stirbt das PC-Gaming, weil es keinen technischen Fortschritt mehr gibt weil alles auf 5 Jahre alter Hardware in 1440p 60FPS laufen muss und in 8Gb passen ;)?
Na sicherlich nicht... Denk mal an die Kosten. Eine Konsole kostet 500-600€ und reicht für 5-8 Jahre ! Am PC willst du doch den Leuten nicht zumuten alle 2 Jahre neue PCs im Wert von 1500€ kaufen zu müssen ?! DAS ist vollkommen unverhältnismäßig.

Technischen Fortschritt gibts sowieso nicht da die meisten Games sich an die jeweilige Konsolengeneration binden, was es aber gibt und das in den letzten 2 Jahren immer häufiger ist kompeltt fehlende Optimierung und Polishing von Spielen weil die Publisher sich nunmal die paar Millionen für richtiges vernünftiges durchtesten von PC Versionen Ihrer Spiele auf hunderten von Konfigurationen (mindestens dutzenden) und daraufhin das optimieren Ihrer Produkte auf diese Konfigurationen ganz einfach sparen. Es ist Fakt das die meisten Publisher ihre QA Abteilungen entweder komplett eingestampft haben als Corona anfing oder auf ein absolutes Minimum reduzierten (aufgrund von Home-Office überall auf der Welt war es ein leichtes dies durchzusetzten ohne negativen Backlash). Und nun kommen genau diese Spiele die in den letzten 3 Jahren entwickelt, aber kaum bis garnicht getestet wurden auf den Markt und wie man sieht sind sie allesamt in einem Katastrophalem Zustand.

Egal welches Spiel das dieses Jahr released wurde ich nun nenne, alle waren sie bei Release in nem tragischen Zustand.

Hogwarts Legacy lief beim Kollegen der nen 5950x hat mit 64gb ram und ner 4090er grottenschlecht bei Release, davon hab ich mich selbst überzeugen können. Es droppte unter 60fps regelmäßig, zog 23gb ram und zusätzlich 17+gb vram (wie gesagt wurde Hogwarts nen Monat nach Release gut gefixed, womit aber nur an der Oberfläche der Optimierung gekratzt wurde).

The Last of US kam in nem tragischen Zustand auf den Markt (wurde aber auch mittlerweile recht gut gefixed)

Star Wars JEdi Survivor sehen wir aktuell in was für einem Zustand es erschien

RedFall ist der Witz des Jahrzehnts, nicht nur technisch da es nen Singlethread limit hat das die Framerate in die 30er droppen lässt, dabie aber grottenschlecht aussieht. Komplett leere Stadt mit schlechter Grafik und die Framerate dropt in die 30er selbst auf den besten CPUs des Marktes ohne das die GPU überhaupt genutzt wird... Zusätzlich dazu ist es Inhaltlich in einem erbärmlichen Zustand, das ist kaum ein Spiel, es ist ein Witz. Grottiges gameplay, es wirkt wie nen prototyp eines Spiels.

Ähnliches gilt für letztes Jahr wo auch einige Spiele in nem tragischen Zustand released wurden. Elden Ring ist nen gutes Beispiel. Grafisch ziemlich schlecht aber zieht alles tot. Da braucht man doch für 1440p ne 3080er damit man überhaupt die 60fps halten kann, sorry aber bei dieser Grafik die locker aus dem Jahr 2015/2016 stammen könnte ist das nicht zu rechtfertigen

So ein Shadow of the Tomb Raider und auch schon Rise of the tomb Raider sehen meilenweit besser aus und laufen mit dreifacher Performance, wieso??, weil damals eben noch optimiert wurde im gegensatz zu heutzutage !

edit: ich nenne auch gerne weitere Beispiele die keine vollkommenen tragödien waren aber auch schlecht. Returnal z.b. funktionierte mit Raytracing kaum und ruckelte sich bei den Leuten einen ab. Auch ohne Raytracing wars nen ticken ruckelig, aber dennoch liefs ganz gut auf meine 980ti also will ich das nicht zu sehr kritisieren, jedoch einmal anmerken da es dieses Jahr released wurde.

Ein weiteres gutes Beispiel ist aber Resident Evil 4. Es sieht kaum besser aus als Resident Evil 3 Remake, zieht aber das doppelte bis dreifache an Leistung. Als ich es auf meiner 980ti testete war ich schockiert wie Resident Evil 3 locker 60fps maximiert hinbekam, 4 aber grade so mit 30 lief und teilweise in die 20er droppte. Grafik war kaum besser als bei 3 und rechtfertigt mit sicherheit nicht die verdoppelten Anfoderungen. Gleiches gilt für dne VRAM Verbrauch, der ebenfalls komplett ausgeartet ist bei Resident Evil 4, ohne das die Texturen wirklich besser aussahen als bei Resident Evil 2 und 3 ! für verdoppelten Vram Verbrauch sollte man doch erwarten das die Texturen MEILENWEIT besser aussehen, aber nein, der Vram verdoppelte sich nur aufgrund fehlender Optimierung nicht aufgrund von deutlich besseren Texturen
 
Zuletzt bearbeitet:
Solange die PC-Spieler immer weiter fleißig höhere Taktfrequenzen, mehr Kerne, mehr Speicher, dickere Grafikkarten einbauen macht es für die Unternehmen auch keinen Sinn sich mit Optimierung zu beschäftigen.
 
Genügend VRAM ist wichtig, aber ohne eine ausreichend starte GPU dahinter bringt dieser relativ wenig. Die GPU ächzt bei 100% Auslastung und liefert dennoch nicht die erhoffte Leistung, während 1/3 des VRAMs ungenutzt bleibt.
Intel hat seiner Arc A770 16GB VRAM und eine 256-bit Speicheranbindung spendiert. An sich löblich, nur verfügt die GPU nicht über die Leistung, um z.B. Spiele mit (sehr) hohen Einstellungen in WQHD flüssig (immer) darzustellen. Da bringt der viele Speicher nichts. Oder fährt ein Auto schneller, nur weil der Tank doppelt so groß ist, der Motor aber schon bei 130 km/h kämpft? Schade, denn in der Beziehung ist die A770 16GB ein deutlich "runderes" Produkt.
 
Frisch ne 4070Ti gekauft und jetzt das :) Mein Profilbild wird meinen Selbstempfinden angepasst.
Die Karte wird mir vermutlich dennoch für die nächsten x Jahre ausreichen. Ich komme von ner 1060 6gb auf FullHD und bin jetzt mit der 4070ti auf WQHD unterwegs. Habe auch kein Problem damit die Regler anständig zu nutzen wenn es soweit sein sollte. Die meisten Games die ich aktuell Zocke sind noch n gutes Stück unter den 10GB Vram.
Aber wie viele Vorredner schon sagten. Evtl kommt dann Ende des Jahres ne 4070super oder whatever mit Speicherausbau. Hat einfach einen Beigeschmack
 
  • Gefällt mir
Reaktionen: C0rteX, Gsonz und rumpel01
Na mal schauen was Nvidia für die 8GB Karte will und dann für die 16GB als Upgrade.
Mit Blick auf die 4080, 4070 Ti und 4070 würde ich schätzen: beide werden deutlich zu teuer werden... Aber weil günstiger als die 4080 werden sie sich am Ende sicher doch noch verkaufen.

Dass bei den 60er Karten das Mehr an Speicher natürlich nicht unbedingt so sinnvoll ist, ist natürlich noch ne andere Seite. Für Nvidia macht es aber Sinn: das Mehr an Speicher und Modellen sieht im Marketing "immer gut aus".
 
Pr0krastinat0r schrieb:
Intel hat seiner Arc A770 16GB VRAM und eine 256-bit Speicheranbindung spendiert. An sich löblich, nur verfügt die GPU nicht über die Leistung, um z.B. Spiele mit (sehr) hohen Einstellungen in WQHD flüssig (immer) darzustellen.
Das ist insofern interessant, weil gerade der Arc die 16GB in vielen Szenarien sehr gut tun: https://www.pcgameshardware.de/Inte...A770-8GB-vs-16GB-Benchmark-Test-1414980/2/#a4
Weniger Speicher schränkt einfach (unnötigerweise, da Speicher selbst kein großer Kostentreiber ist,) ein. Anders gesagt: über den fragwürdigen Speicherausbau der 3070(ti) würde heute kein Mensch reden, wenn es nicht in (zu vielen) Zusammenhängen einfach den entscheidenden Bremsklotz darstellen würde. Und das ist einfach schade, weil es sonst eine gute Karte war und noch wäre!
 
  • Gefällt mir
Reaktionen: C0rteX
Meine GTX 1080 will eeeendlich in den verdienten Ruhestand! Ich will einfach nur eine Karte für FHD 60FPS mit maximal 200W Verbrauch, bezahlbar, mehr Leistung und Effizienz als meine Pascal Karte und natürlich mit mehr Speicher - am besten verdoppelt. Dann lese ich voller Freude dass die 4060 Ti genau das sein könnte, muss dann aber feststellen dass meine neue Karte dann einen halb so breiten BUS wie meine alte hätte. :freak: Danke für gar nix. Dann dreht die 1080 halt noch eine weitere Runde...
 
was nutzt dein breiter Bus, wenn dein VRAM nicht schnell genug liefert?
Andersherum: es gehen auch 128 Bit wenn der VRAM dahinter schnell ist.
 
Fighter1993 schrieb:
AMD müsste was DLSS/FSR angeht vor nvidia sein und Raytracing gleich. Was meinste wie schnell Nvidia handeln würde 😄
Ich glaube, das wird nicht passieren. Nvidia hat sehr viele Ressourcen in Raytracing gesteckt. Laut Aussage von Nvidia gab es 10 Jahre Entwicklung, um den Turing Chip zu verwirklichen, damit Raytracing möglich ist in Echtzeit in 3D Spiele.
Nvidia war da eh schon lange dran an Raytracing. Schon damals zur GTX 690 hat Nvidia darüber geredet und auch eine kleine Techdemo auf der GTX 690 gezeigt, mit Echtzeit Raytracing.
 
aid0nex schrieb:
Meine GTX 1080 will eeeendlich in den verdienten Ruhestand! Ich will einfach nur eine Karte für FHD 60FPS mit maximal 200W Verbrauch, bezahlbar, mehr Leistung und Effizienz als meine Pascal Karte und natürlich mit mehr Speicher
Da passt eine 4070 doch wunderbar? Wenn du die ganze Zeit mit 8GB klargekommen bist werden dir die 12GB für Full HD 60fps locker reichen.
 
  • Gefällt mir
Reaktionen: msv und thuering

"RTX 4060 Ti nun doch auch mit 16 GB"

und die 4050 bitte mit 12 GB :-)
Im Ernst, Leistung wohl etwa auf 3060-Niveau bei ~40% weniger Strom - käme mir gerade Recht.
Ergänzung ()

aLanaMiau schrieb:
Die Karte wird extrem interessant für KI Anwendungen, Nvidia weiß das auch ganz genau. Mit Cuda + 16gb vram lässt sich schon viel anfangen...
Bei welchen Anwendungen denn?
 
Zuletzt bearbeitet:
Dawhite schrieb:
Frisch ne 4070Ti gekauft und jetzt das :) Mein Profilbild wird meinen Selbstempfinden angepasst.
Die Karte wird mir vermutlich dennoch für die nächsten x Jahre ausreichen. Ich komme von ner 1060 6gb auf FullHD und bin jetzt mit der 4070ti auf WQHD unterwegs. Habe auch kein Problem damit die Regler anständig zu nutzen wenn es soweit sein sollte. Die meisten Games die ich aktuell Zocke sind noch n gutes Stück unter den 10GB Vram.
Aber wie viele Vorredner schon sagten. Evtl kommt dann Ende des Jahres ne 4070super oder whatever mit Speicherausbau. Hat einfach einen Beigeschmack
Hab auch so langsam bzw. nicht so langsam sondern wirklich das Gefühl, das NVIDIA seine Kunden jedes Jahr auf's Neue verarscht, um es mal treffend zu formulieren.
Immer dieses VRAM auf Kante genäht, ggf. Karten später mit mehr VRAM nachgeschoben und den Käufern der größeren Modelle dann noch "In Your Face" ne 3060 mit 12GB vor den Latz gehauen etc...
... jetzt auch wieder auf Kante genäht bis zur 4070 Ti und wenn nun auch wieder ne kleinere Karte kommt mit mehr VRAM als die großen Modelle - dann sollte man sofern sich das nächste Gen wiederholt, keine, aber auch keine der bezüglich VRAM auf Kante genähten Grakas mehr kaufen. Die scheinen es anders ja nicht zu blicken.
Bin kein Fan-Boy irgendeines Grakaherstellers, mal vorab, ich persönlich bzw. für mich waren die NVIDIA-Karten immer die unterm Strich besseren Karten - dennoch inzwischen, geht mir das so auf den Senkel, das mir der Puls steigt wenn ich NVIDIA in Verbindung mit dem Wort VRAM bzw. zu wenig VRAM bei x y Karte lese.
Kanns nimmer hören bzw. lesen.

Im Gegenteil ich hoffte und wünschte mir für diese Generation schon, das AMD voll gleichziehen kann.
Dann sähe das mit dem hohen Träppchen anders aus denke ich - da wären Ruck Zuck 16GB verbaut gewesen.
 
Zurück
Oben