News Nvidia zur GeForce RTX 4060: Grafikkarte bringt 13 mal mehr Leistung* und „Less Power“

ChrisMK72 schrieb:
Und bitte bei allen 4000ern mit DLSS3 nicht mehr auf die FPS schauen. Die kann man nicht mehr vergleichen, bzw. auch nicht mehr zu einem Leistungsvergleich heranziehen. Wäre in etwa so, als wenn man eine 1060 nimmt und einfach mal 50 fps "dazurechnet".
Natürlich kann man das vergleichen - wenn man Leistung und Qualität mit/ohne DLSS deutlich gegenüber stellt. Also nicht (nur) 1060 ohne gegen 4060 mit. Das klappt natürlich nicht. Dennoch kann man natürlich 4060 mit DLSS gegen 4060 ohne DLSS zeigen. Muss dann jeder selber wissen, ob das für ihn passt.
 
Fallout667 schrieb:
Aber 20-30% mehr bei gleicher UVP zur 3060 mit FG und DLSS3 sind jetzt auch nicht so mies wie es hier dargestellt wird.
doch.
ich finde es echt nervig dass die wahre leistungsfähigkeit der gpu's inzwischen mehr und mehr durch das "hineinnehmen" von dlss und frame generetion verschleiert wird!
diese techniken sind mal als "rettungsanker" in den fällen vorgesehen gewesen, in denen man nicht auf wirklich spielbare frames kommt und so diesen boost durch upsampling bekommt um doch noch spielen zu können - aber nun wird das so verkauft als ob dlss das entscheidende feature ist....,
 
  • Gefällt mir
Reaktionen: Oudenstekelig, Kommando, McTheRipper und 8 andere
MrHeisenberg schrieb:
Naja, sie sind echt? Es gibt keine "Fake Frames". Entweder läuft das Spiel mit x FPS oder eben nicht.
Die Karte kann denselben Bildinhalt auch zehnmal häufiger an den Monitor senden, dann hast Du "echte" FPS-Zahlen.
Allerdings, Beispiel Online-Shooter, ist eigentlich nur wichtig dass die Karte in möglichst kurzen Abständen die vom Server kommenden Informationen in Bilder umrechnet. Das kann DLSS nur zum Teil (nämlich der Teil welcher einfach in einer niedrigeren Auflösung rendert und das Ganze dann "aufhübscht").
Diese "KI"-Zwischenbilder sind definitiv fake. Merkt man auch daran dass dies die Funktion ist welche im Zweifelsfall zu Artefakten führt.
 
  • Gefällt mir
Reaktionen: McTheRipper, LTCMike, Scheinriese und 3 andere
MrHeisenberg schrieb:
Ob die Karte sie nun mit roher Power oder durch technische Tricks erzeugt, spielt für den Endanwender keine Rolle.
Oh doch. Was passiert denn wenn du davon noch 1000 fps dazurechnest ? Standbild ? Dazu dann noch mit Bildfehlern ? Wie das keine Rolle spielen soll, weiß ich nicht.
(edit: das is DLSS3)
 
Zuletzt bearbeitet:
conglom-o schrieb:
Dennoch kann man natürlich 4060 mit DLSS gegen 4060 ohne DLSS zeigen. Muss dann jeder selber wissen, ob das für ihn passt.
Wenn DLSS DLSS wäre. DLSS2 is aber nicht DLSS3.
 
  • Gefällt mir
Reaktionen: McTheRipper und Gortha
Deswegen ja immer deutlich dazu schreiben, was man testet und auch am besten mit Bild / Video. Nicht nur irgendwelche Balken.
 
cypeak schrieb:
diese techniken sind mal als "rettungsanker" in den fällen vorgesehen gewesen, in denen man nicht auf wirklich spielbare frames kommt
Klingt vielleicht etwas negativ.
Ich würde es als Bonus bezeichnen. Schön wenn es funktioniert, dann habe ich einen Mehrwert. Aber man kann sich nicht darauf verlassen, insofern sollte man die Leistungsfähigkeit anhand der Leistung bewerten auf die man sich verlassen kann.

P.S.: wenn nVidia argumentieren würde, ihre Karten sind teurer weil sie Boni wie DLSS können, würde ich das völlig akzeptieren. Dann geht es eben um die Höhe des Aufpreises den man gewillt ist zu bezahlen.
Aber hier nutzt nVidia die Technik um billige Karten virtuell in Leistungs-(und Preis-)regionen zu hieven in denen sie nichts verloren haben. Der Chip der 4060 Ti wäre früher eine 4050 gewesen, die 4060 hat ja nochmal einen ganz anderen, kleineren Chip... nämlich eher sowas wie entry level gaming für Notebooks. Und bei Notebooks sehe ich auch definitiv einen Nutzen für DLSS, da die Beschränkungen bez. Temperatur und Strom dort ganz anders greifen.
 
  • Gefällt mir
Reaktionen: TheBear1517, cypeak und mibbio
Bei der 4060 Ti war ich wegerm Speicher schon sehr abgeneigt, denn die Karte hat im Prinzip auch Leistung für 1440p und muss da dann immer über die zu kleine Anbindung das Umverlagern anfangen, was für den Preis ein Witz ist. Da helfen auch die ganzen Softwaretricks nicht.
Bei der 4060 stören mich die 8GB weniger, weil es eben vom Gefühl mehr um eine 4050 geht und da ist das für FullHD und den Leistungsanspruch in Ordnung. Die Kosten sind halt einfach 50 EUR zu hoch angesetzt, richtig umbenannt, dann wäre die Karte mit der Effizienz wirklich sinnvoll.

Das bleibt am Ende bei der Generation für mich über: Ein großer Schritt nach vorne bei der Effizienz, ein noch größerer bei den Tricksereien, um das gleiche Steigerungsbild zu zeigen wie bei bisherigen Generationswechseln, die eigentlich nicht gegeben sind. Dazu die Preisanpassung nicht mehr nach reiner Leistung, sondern nach möglichen Raytracing-Frames mit all den angesprochenen Tricksereien. Traumhaft.
 
conglom-o schrieb:
Deswegen ja immer deutlich dazu schreiben, was man testet und auch am besten mit Bild / Video.
Und DLSS3 gar nicht. Das braucht man nicht testen. Sonst schreibe ich demnächst n Sternchen hinter ner 1050 und behaupte einfach das wären jetzt 150 FPS mehr.
 
Zuletzt bearbeitet:
TenDance schrieb:
Die Karte kann denselben Bildinhalt auch zehnmal häufiger an den Monitor senden, dann hast Du "echte" FPS-Zahlen.
Es ist aber nicht 10x der selbe Bildinhalt? 10x das gleiche Bild zu senden würde in Standbildern resultieren und genau das macht DLSS3 nun mal nicht.

ChrisMK72 schrieb:
Oh doch. Was passiert denn wenn du davon noch 1000 fps dazurechnest ? Standbild ? Dazu dann noch mit Bildfehlern ? Wie das keine Rolle spielen soll, weiß ich nicht.
Kurze Frage: Hast du überhaupt eine DLSS3 fähige Karte oder hatest du nur?
Es werden auch nicht FPS dazugerechnet sondern Frames und wie die generiert werden, spielt für dich keine Rolle.
 
  • Gefällt mir
Reaktionen: bardh und Tornavida
latiose88 schrieb:
Zumindest bin ich von hohen Auflösung geheilt. Reichte mir schon die ganze Jahren.
Magst du mir das mal ein wenig näher erklären? Was war so schlimm an den hohen Auflösungen gewesen?
Ich persönlich würde sehr gerne Richtung 21:9 gehen allerdings wäre mir eigentlich eine Auflösung höher als UWQHD sehr willkommen.
latiose88 schrieb:
An die full hd habe ich mich super schnell dran gewöhnt aber nie an die höheren.
Naja die FHD habe ich gefühlt schon immer gehabt. 4K sieht toll aus, viel schärfer... allerdings bekomme ich nicht mehr Content auf den Bildschirm. Hört sich vielleicht doof an...
Ich habe schon sehr früh mit PC Gaming angefangen. Da gab es dann auch zu 486er Zeiten Auflösungen von 320x240. Irgendwann die Steigerung 640x480 und man konnte viel mehr vom Game sehen. Das Bild wurde nicht nur besser sondern alles "kleiner" und mehr von der Umgebung wurde sichtbar und von meinem Gefühl her wurde das bis FHD auch so weiter geführt.

Wenn ich mir nun FHD mit 4K vergleiche, dann ist zwar alles schärfer aber ich sehe nicht mehr Content rechts/links/über mir/unter mir, wie ich es mir wünschen würde. Also bleibt mir doch eigentlich nur der Schritt zu 21:9 oder gar 32:9 Auflösungen.
Woran das wohl gelegen hat, gewiss nicht nur an die gründe die ich so kenne bzw mir bekannt sind.
würde mich riesig freuen, wenn du mir da einige Infos mehr zu geben könntest bevor ich noch was falsches kaufe 😊
 
MrHeisenberg schrieb:
Es werden auch nicht FPS dazugerechnet sondern Frames und wie die generiert werden, spielt für dich keine Rolle.
Hast du überhaupt eine Ahnung wovon du redest ?
Spielt keine Rolle, wie die berechnet werden ?
Und was ist mit den unterschiedlichen Ergebnissen, je nachdem wie die berechnet werden und auf welche Art ?

Natürlich spielt das eine Rolle.

Wie kann man sagen, das spielt keine Rolle !? Eigentlich nur, wenn man keinen Plan davon hat. Hast dich wohl genauso blenden lassen, wie's mir scheint.
Na herzlichen GW.

Bin mal frühstücken.

PS: Kannst ja weiter fest dran glauben, dass DLSS3 fps gleichwertige fps wie herkömmliche sind. Spielt ja für dich keine Rolle. Ach ... ich meinte "Frames" ;)
Also mal solche, mal solche, die in den fps dann zusammengefügt werden, zu ner tollen Zahl.

Viel Spaß noch !
 
  • Gefällt mir
Reaktionen: McTheRipper, Scheinriese, Ganjafield und eine weitere Person
ChrisMK72 schrieb:
Natürlich spielt das eine Rolle.
Erkläre mir doch mal, weshalb das eine Rolle spielt?
Wie die Karte das Bild rendert, spielt keine Rolle.

ChrisMK72 schrieb:
PS: Kannst ja weiter fest dran glauben, dass DLSS3 fps gleichwertige fps wie herkömmliche sind. Spielt ja für dich keine Rolle. Ach ... ich meinte "Frames" ;)
Also mal solche, mal solche, die in den fps dann zusammengefügt werden, zu ner tollen Zahl.
Im Gegensatz zu dir besitze ich eine solche Karte, habe damit meine eigenen Erfahrungen gesammelt und ich kann dir sagen, dass ich DLSS und FG nicht mehr missen möchte. Das ist ein absoluter Gamechanger.

Ich habe mit DLSS + FG idR. bessere Latenzen als jeder AMD User, der Verbrauch sinkt massiv, das Bild wird zu 99% sauber geglättet und der Raum heizt sich im Sommer nicht so auf. Warum sollte man das verteufeln?!
Ich habe fast nur Vorteile und die von dir und einigen anderen ansgeprochenen Artefakte sind Ausnahmen. Die Regel ist ein klares sauberes Bild und hohe FPS.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bardh und Tornavida
TenDance schrieb:
Diese "KI"-Zwischenbilder sind definitiv fake. Merkt man auch daran dass dies die Funktion ist welche im Zweifelsfall zu Artefakten führt.

Artefakte sollten kein nennenswertes Problem sein. DLSS3 hat Zugriff auf die Geometriedaten, ein Fernseher dagegen muss Überlagerungen bewegter Objekte aus einer Folge von 2D-Bildern erraten, und selbst das gelingt meist erstaunlich gut.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
JMP $FCE2 schrieb:
Artefakte sollten kein nennenswertes Problem sein.
Sind sie je nach Titel und ausgangs FPS aber, und wenn das Framepacing aufgrund des Speichers schlecht ist macht FG es auch nicht besser. Allgemein finde ich die Diskussion um FG sowieso unsinnig wenn's ganze 15(?) Games gibt die es überhaupt beherrschen.
 
  • Gefällt mir
Reaktionen: McTheRipper
ChrisMK72 schrieb:
Und DLSS3 gar nicht.
Wenn FSR 3 mal aufschlägt darf dann auch nicht getestet werden? Da es anscheinend über die Treiberebene läuft werden Nvidia Besitzer wohl ebenso in die Röhre schauen wie AMD Nutzer bei DLSS.
Meine RX 6800/FSR3 (wenn sie es denn nutzen kann) macht dann wohl eine RTX 3080 so ziemlich nass.
Ist das eventuell mit ein Grund warum DLSS3 nicht berücksichtigt werden darf/soll?
FSR3/DLSS3 ist deswegen ja nicht verschwunden und Besitzer solcher Karten werden es auch nutzen wenn es einen Vorteil bringt...ob es jetzt deine/meine Karte kann oder nicht.

BOBderBAGGER schrieb:
Allgemein finde ich die Diskussion um FG sowieso unsinnig wenn's ganze 15(?) Games gibt die es überhaupt beherrschen.
Und es kommen zukünftig keine mehr dazu?
 
Frage mich bei einigen Postern hier ob sie nicht vielleicht doch mehr Nvidia-Aktien als Grafikkarten besitzen und deshalb so energisch versuchen das Narrativ und Stimmungsbild zu beeinflussen.
 
  • Gefällt mir
Reaktionen: JJJT, M11E, McTheRipper und 7 andere
Zurück
Oben