News Nvidia zur GeForce RTX 4060: Grafikkarte bringt 13 mal mehr Leistung* und „Less Power“

wahli schrieb:
Eine schöne 200 Euro Karte...moment, die kostet ja deutlich mehr. Eigentlich sollte der Markt alles von selbst regeln, aber irgendwie klappt das nicht.

Wär auch für 250€ UVP schön.

Das Problem ist dass Nvidia schon für die Chips soviel von den Partnern will dass diese nicht weiter mit dem Preis runter können.

Und Nvidia fährt halt den Kurs die Preise hoch zu halten und bleibt im Zweifelsfall lieber auf den Karten sitzen bzw nimmt in Kauf dass die Partner oder Händler drauf sitzen bleiben.

Leider versucht auch AMD da mitzunaschen statt massiv Preisdruck zu machen um Marktanteile zu gewinnen.

Je nachdem wie das KI Geschäft läuft wird das mit der nächsten Gen besser oder halt nicht.
 
Pelzi schrieb:
Aber entgegen deiner Aussagge: Für vergleichbare Leistung und Qualität braucht man mit DLSS 3 weniger Speicher als wenn man das ganze nativ rendert.

Man merkt an der Aussage, dass Du NV voll auf den Marketingleim gegangen bist ;-).

Ja, natürlich braucht ein hochskaliertes Bild, das in niedrigerer Auflösung gerendert wurde weniger Speicher.

Das hat aber mit DLSS3 (also DLSS2x + FG) nichts zu tun: Jede 3060 oder Amperekarte kann das auch. Vorteil der 4060 = 0. Mann kann auf beiden Karten auch FSR nehmen wenn das zur Verfügung steht.
Die 4060 ist auch hier natürlich im Nachteil, denn bei der 3060 kann man - wenn genug Rohleistung da ist - zumindest FHD hochskalieren, was dann schon ganz gut aussieht in der Regel. Die 8GB schafft bei neueren Spielen trotz ggf. minimal mehr Rohleistung schon aufgrund des Speichers genau das nicht, da muss ich 720P oder sonst einen Schrott hochskalieren, bei dem auch DLSS nicht mehr gut aussieht. Nativ - wenn DLSS mal schlecht umgesetzt ist - wird der ganz ordentliche Kern ja ohnehin vom Speicher gebremst.

Das Einzige was die 4060 ggü. der 3060 mehr kann ist (weil NV das so will) FG. Und das kann ich dann auf 720P draufsetzen und hochskalieren - wenn das der grosse Vorteil sein soll, ist eine PS5 wirklich die bessere Variante.
 
C0rteX schrieb:
@wtfNow

Dann ist ja gut. Ich hätte bei Last of US und Diablo 4 die 4070 ti direkt zurück geschickt. 900 tacken und dann an Tag 1 schon solche Kompromisse machen. Da bin ich persönlich raus. Wenn du nicht so oft zockst, warum dann ständig neue Karten kaufen?
Ich spiele nebenbei sowohl TLOU als auch D4. Beides mit DLSS@Qualität und sehe keine VRAM Einschränkungen/Kompromisse, maximal beim Teleportieren in eine andere Region, da braucht es 1-2 Sekunden bevor es sich fängt aber das war dann auch wirklich alles, das kann ich aushalten:D
Mit regelmäßigen Mittelklasse Karten komme ich finanziell und performancetechnisch ziemlich gut weg, mit rechtzeitigen Verkauf der alten Karte zahle ich nur wenig für die neue Generation drauf.
Diese Generation ist bei mir jetzt kostentechnisch eine Ausnahme. Wenn das so weitergeht dann werde ich Streaming oder Konsole in Erwägung ziehen.
 
DerRico schrieb:
Das hat aber mit DLSS3 (also DLSS2x + FG) nichts zu tun
DLSS2.x gibt es schon länger nicht mehr
https://www.techpowerup.com/download/nvidia-dlss-dll/
DerRico schrieb:
Und das kann ich dann auf 720P draufsetzen und hochskalieren - wenn das der grosse Vorteil sein soll, ist eine PS5 wirklich die bessere Variante.
Naja ich spiele gerade FF16 auf der PS5 und um dort 60FPS zu haben, nutzt diese auch feste 720p während der Kämpfe und außerhalb von Kämpfen liegt die Auflösung dynamisch zwischen 720p und 1080p bei meist 45-55FPS.
 
Ein leistungsstarker und sparsamer Grafikchip.
Dumme Polemik ala "GT 1030 Nachfolger" könnt ihr euch sonstwo hinschieben.
 
  • Gefällt mir
Reaktionen: Hafiss und franzerich
Upscaling im allgemeinen verringert den Speicherverbrauch. Frame Generation erhöht ihn, weil mehrere frames vorgehalten und miteinander verrechnet werden. Dazu gibt es 30 Nachweise.

Nvidia selbst sorgt da öfter für Missverständnisse. Die benutzen nicht frame Generation sondern DLSS 3 als marketingnamen für die zusätzlichen frames. Im Prinzip kann jede RTX DLSS 3, aber nur die RTX 40 Karten können Frame Generation.
 
  • Gefällt mir
Reaktionen: McTheRipper und Taxxor
C0rteX schrieb:
@Killerattacks

Als ich das gelesen habe bin ich auch vor lachen fast vom Stuhl gefallen. In 4 Jahre packt die Karte vielleicht noch 30 fps 720p in niedrigen Einstellungen bei neuen Games. 🤣
Und sieht dabei dann besser aus als aktuelle high Games. (ok überspitzt da 720p ansich nicht schön sein kann)
WAs viele vergessen ist. dass wenn ich jetzt mit einer 8gb vram karte sehr hohe oder ultra Texturen nutze, diese Qualität auch in 4 Jahren noch habe, nur ist die Einstellung in den optionen dann nur noch "medium". Die Weitsicht, partikel, schatten RT und co. entwickeln sich ja immer weiter, Aber wenn ich nicht immer alle games im aktuellen maximum mit 4k oder 8k zocken muss und das am besten mit 200fps, komme ich gut zurecht.

Ich zocke aktuell grade wieder Fallou 4 (ohne mods) und die Grafik ist für mich ausreichend um Spass zu haben. 60fps gelockt , max details 1440p. Daher hängt viel auch immer von den eigenen Ansprüchen ab. Bis glaube 2022 im CPU Chart hat der 7700k von Intel, als alter 4 kerner immer 60fps bei den Perzentilen geschafft, also als minimum im damals aktuellen Parkour und das ist somit ausreichend, wenn jemand sowiso bei 60fps lockt, da er auch keine high end karte besitzt. Und ich behaupte hier jetzt mal, dass die 4060 in niedrig und 720fps in 4 Jahren 60 fps schafft, Ausnahme ein absoluter portkrüppel. Vermutlich sogar in 1080p und medium dank DLSS und FG.
 
Die vierte mit der ersten Generation vergleichen und sich drüber wie blöde freuen, dass die vierte schneller ist, ist schon ein wenig traurig.
 
  • Gefällt mir
Reaktionen: McTheRipper
cruscz schrieb:
Als nächstes kontert AMD dann mit Leistungsprüngen von vielen Tausenden Prozent, weil sie die RX7700 in Relation zur ATI Rage Pro setzen…

Schon mal überlegt, dass Nvidia schaut, welche Grafikkarten gerade am meisten bei Steam und Co. in den Rechnern stecken und dann sehr viele Leute mit einer 1060 sehen?

Da führt die 1060 mit der 1650 noch weit das Feld an. Allgemein die die 1000er Serie einfach überwiegend noch verbaut...
 
@wtfNow

Interessant, weil die Testergebnisse in 4 k immer von Nachladerucklern und 16 GB VRAM sprechen. Meine eigenen Erfahrungen sind da auch eher bei 16 GB, sonst wird ausgelagert. Das kann ja nicht an dem 1 GB besseren Speicherverwaltung liegen, wobei nvidia ja gerne Mal Details ausblendet, um den VRAM Mangel zu kaschieren. Da hat man dann PS 3 Texturen wie bei Hogwarts.

Vielleicht bist du bei Diablo noch nicht so weit. irgendwann in Akt 2 gingen die ruckler auf ultra los und wurden immer schlimmer. Reiten hat dann den Rest gegeben. Spielst du mit ultra Texturen? Die wären für mich Pflicht so kurz nach Release der Karte für 900 Euro und dem optischen Unterschied.

Mittelklasse ist 4060 und 4060 ti. Vielleicht noch die 4070, wenn man den Preis ausklammert. 4070 ti ist das nicht mehr. Wird in allen Tests immer so betitelt.
 
Zuletzt bearbeitet von einem Moderator:
cruscz schrieb:
Was Intel wohl bei der 15. Core Generation im Vergleich zum Pentium II rausgeholt bekommt? Vor allem, wenn sie den x64 emulieren lassen…
Aber dann auch die AVX-Performance von beiden vergleichen. Das macht Nvidia ja im Prinzip auch, indem sie für die GTX 1060 deren Raytracing-Performance als Vergleichsbasis nehmen. Also die Performance nochmal künstlich drücken, mit einem Feature, für das die Karte keine dedizierte Recheneinheiten hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cruscz
Taxxor schrieb:
spiele gerade FF16 auf der PS5 und um dort 60FPS zu haben, nutzt diese auch feste 720p während der Kämpfe und außerhalb von Kämpfen liegt die Auflösung dynamisch zwischen 720p und 1080p bei meist 45-55FPS.

Wenn das auf der PS5/Konsole schon so grenzwertig laeuft, dann kann man sich ja fuer die PC Version auf einen Hardwarefresser einstellen, so dass WQHD dann evt. schon untere Oberklasse (RTX 4070 (12GB) bzw. RX 6800XT (16GB)) per Hardwareempfehlungen (um es halbwegs fluessig in hoeher er Aufloesung spielen zu koennen) benoetigen duerfte.

Ein moeglicher Konkurrent als "Hardwarekiller" zu Immortals of Aveum koennte FF XVI dann schon in der PC Version werden, aber warten wir die Umsetzung ab.
 
Chismon schrieb:
Wenn das auf der PS5/Konsole schon so grenzwertig laeuft,
Das größte Problem ist dort halt auch, dass sie anscheinend FSR 1.0 nutzen, zusammen mit recht schlechtem TAA, was man auch deutlich sieht.

Am PC wird man das Problem nicht haben, weil man FSR2/DLSS nutzen kann, das entspricht bei WQHD ja auch nur 960p, wird aber deutlich besser aussehen als auf der PS5 aktuell.

Zudem dauert es ja noch mindestens 1,5 Jahre bis es auf dem PC erscheinen wird, bis dahin ist auch eine 5060 draußen^^
 
Zuletzt bearbeitet:
NV hält seine Kundschaft echt für dumm :mad:
Der ganze Auftritt ist ja an Peinlichkeit kaum noch zu überbieten. Hoffentlich geht die Serie baden und die Hersteller (betrifft leider im großen Maße auch AMD) bekommen endlich den Pushback für ihre "neue Innovation", den sie verdienen. Dann können sie sich wenigstens weiter über den fiesen rückläufigen IT-Markt beschweren, an dem sie selbst ja so unschuldig sind (Anm.: wer Ironie findet, darf sie behalten. ;))
 
thuering schrieb:
Dumme Polemik ala "GT 1030 Nachfolger" könnt ihr euch sonstwo hinschieben.
Absolut! Die Qualität einer Grafikkarte ist immer nur und ausschliesslich an der Güte und Sparsamkeit des Chips festzumachen!

Randthemen wir Speicherausstattung, Positionierung im Markt, Preis oder Fortschritte ggü. der Vorgängerposition sind vollkommen nebensächlich und gehören nicht angeschaut, wenn der Chip an sich ordentlich ist!
Ergänzung ()

Taxxor schrieb:
DLSS2.x gibt es schon länger nicht mehr
Schöner Strohmann. Da viele Leute Schwierigkeiten haben die Dinge auseinanderzuhalten und NV die Themen im Marketing auch sauber verschwurbelt, hilft die klare und vereinfachende Darstellung mit der Unterscheidung der einzelnen Komponenten sehr.
Genau darum ging es hier: "Pelzi" behauptet, DLSS 3 führt zu mehr Leistung bei geringerem Speicherbedarf, was ein Vorteil der 4060 ggü. der 3060 ist. Das stimmt eben so nicht, man muss die einzelnen Features sauber trennen um zu verstehen, welches was macht und welche Auswirkung das hat. Welche Features beherrscht ADA tatsächlich zusätzlich zu AMP und wie wirkt sich das auf die Performance und den Speicherbedarf aus?

Das mag dem Einen oder Anderen kleinlich erscheinen, aber wenn man das hier nicht diskutieren kann, wo dann?

Dazu HWL:
Einige Nutzer sind von der Vielfalt der Möglichkeiten in den Einstellungen zur DLSS überfordert oder sehen Abhängigkeiten, wo es eigentlich keine gibt. DLSS 3 besteht aus dem AI-Upscaler in Form von DLSS 2. Die Frame Generation und Reflex sind optionale Funktionen, die man auch wieder deaktivieren kann. Man kann die Frame Generation aber auch verwenden, ohne das DLSS zu aktivieren und auch Reflex ist ohne DLSS und Frame Generation zu aktivieren, wenn das Spiel die Reflex-API denn verwendet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adnigcx, bad_sign, BOBderBAGGER und eine weitere Person
DerRico schrieb:
man muss die einzelnen Features sauber trennen
Genau das hast du aber nicht getan.
Die Trennung lautet Super Resolution und Frame Generation, beide Techniken sind aktuell in Version 3.x vorhanden.

Nach deiner oben genannten Definition von DLSS3(DLSS2x + FG) müsste man sagen, dass Ampere kein DLSS3 unterstützt, was falsch ist. Es unterstützt DLSS3, nur eben kein FG.


DLSS 3 besteht aus dem AI-Upscaler in Form von DLSS 2.
Ich weiß nicht, von wann diese aussage stammt, aber sie ist seit Februar 2023 eben auch falsch.

Genau weil auch hier auf CB oft immer noch DLSS3 mit Frame Generation gleichgesetzt wird und wenn ein Spiel keine FG unterstützt, dann wird es immer noch DLSS2 genannt, haben Leute Schwierigkeiten, die Dinge auseinanderzuhalten bzw sehen Unterscheidungen wo eigentlich keine sind.

Denn ein Spiel kann durchaus DLSS3 haben, ohne Frame Generation zu bieten, eben weil der Super Resolution Part aktuell auch die Version 3.1 besitzt.
Dadurch, dass hier aber oft DLSS3 mit FG gleichgesetzt wird, entsteht die Verwirrung
 
Zuletzt bearbeitet:
thuering schrieb:
Ein leistungsstarker und sparsamer Grafikchip.
Dumme Polemik ala "GT 1030 Nachfolger" könnt ihr euch sonstwo hinschieben.
Ich kenne niemanden, der an der Architektur der aktuellen Generation etwas auszusetzen hat. Das hat aber nichts damit zu tun, was Nvidia am Ende daraus macht bei der finalen Karte, wo es ja um die Chipgröße in Verbindung mit Speicher etc. geht.

Und bei den politischen Entscheidungen was auf den Markt gebracht wird darf man nunmal auch polemisch werden. Und das müsstest du eigentlich selbst sehen, wenn du den Chip so lobst, wie er aber hier in einen wackligen Holzkäfig gezwängt wird.
 
  • Gefällt mir
Reaktionen: Revan1710 und DerRico
thuering schrieb:
Ein leistungsstarker und sparsamer Grafikchip.
Dumme Polemik ala "GT 1030 Nachfolger" könnt ihr euch sonstwo hinschieben.
Leistungsstark, ich lach mich tot, ein schlechter Witz ist Ding, mehr nicht.
Bis auf nutzlosen geringeren Stromverbrauch der vielleicht für eine absolute Minderheit ganz nett ist absolut kein Fortschritt zum Vorgänger.
Ohne Frame Generation hätte das Teil praktisch keine Existenzberechtigung gegenüber der 3060 12GB.
 
Taxxor schrieb:
Am PC wird man das Problem nicht haben, weil man FSR2/DLSS nutzen kann, das entspricht bei WQHD ja auch nur 960p, wird aber deutlich besser aussehen als auf der PS5 aktuell.

Zudem dauert es ja noch mindestens 1,5 Jahre bis es auf dem PC erscheinen wird, bis dahin ist auch eine 5060 draußen^^

Ja gut, FSR2/DLSS 2.X waere natuerlich ein Vorteil, aber soweit ich mich erinnern kann war das letzte Final Fantasy auf dem PC (FF XV, wie gut das Remake von FF VII laeuft, habe ich mir noch nicht angesehen, zumal das auch ein teurer Mehrteilerspass sein duerfte ... ich seh gerade ganz anstaendig aber fuer damalige Verhaeltnisse schon anspruchsvoll/fordernd) auch ziemlich durchwachsen umgesetzt und wurde schon mitgeteilt, dass die PC Verison noch mindestens 1,5 Jahre brauchen wird?

Ob eine RTX 5060 (mit voraussichtlich maximal 12GB VRAM) das dann noch wird (fluessig) packen koennen (in WQHD, wo jetzt schon 12 GB oft die Grenze sind)?

Unter einer RTX 5070 (mit voraussichtlich 16GB) duerfte bei nVidias kommendem (Blackwell?) dGPU Angebot die Karten sowieso nicht mehr interessant sein, das ist ja jetzt bei Ada Lovelace auch schon der Fall (mit Ausnahme der RTX 4090 m.E. eine ziemlich grosse Enttaeuschung), wobei ich glaube, dass die RTX 5000er Karten deutlich runder und insgesamt interessanter ausfallen duerften, aber warten wir's ab (mir alleine wegen FF XVI/eines Spiels eine neue Grafikkarte zu kaufen, kaeme sowieso nicht in Frage und ein Upgrade muesste sich dann schon wirklich leistungs- und featuretechnisch fuer mich lohnen und 20GB Speicherausbau sollten es schon mindestens dann sein).
 
Zurück
Oben