News Nvidia zur GeForce RTX 4060: Grafikkarte bringt 13 mal mehr Leistung* und „Less Power“

Tornavida schrieb:
Was zählt ist das Endergebnis, Fake hin oder her ; ich sage lieber Vorsprung durch Technik. Muss man nicht immer wieder aufwärmen das Thema nur weil wieder NV Vorreiter in Sachen Technik ist und Das auch bezahlt haben möchte. Unter Anderem stehen auch deshalb NV Aktien dort wo sie stehen ;)
Genau, glaubst du das?
Lederjacke geht es nur ums Geld und das heisst aktuell KI! Wenn du dich auch nur 1 Minute hinsetzt und googelst, dann wüsstest du es besser.
 
  • Gefällt mir
Reaktionen: Alphanerd und adnigcx
Syrato schrieb:
DLSS 3.0 hat für einige Spiele Vorteile, ich sehe den Mehrwert aber nicht. Diese mehr FPS reagieren nicht auf die Maus
Das merkst du nicht. Es fühlt sich trotzdem flüssiger an und das ist ein Fakt, welcher durch unabhänige Tests und Erfahrungen der Nutzer widersgespiegelt wird. Etwas Gegenteiliges zu behaupten ist keine Meinung.

Syrato schrieb:
Können falsche Inhalte liefern usw. usf..
Warum zieht ihr euch so sehr an den Ausnahmen/Artefakten hoch? Das ist nicht die Regel, sondern die Ausnahme! Rastergrafik ist auch ohne DLSS schon fehlerbehaftet. Nach der Logik dürftest du gar nichts spielen.

Wir haben früher auf dem Gameboy in grüner Pixelgrafik Pokemon und Zelda gespielt. Da kam niemand auf die Idee zu sagen: "Das ist scheiße, pixelig und unrealistisch!". Wir haben es einfach gespielt und genossen.

In 1% der Frames kann hier und da mal was aufblitzen oder ein Fehler erscheinen, welchen ich in Standbildern mit der Lupe suchen muss! Die anderen Frames sind idR. aber sauber und nur weil es nich zu 100% perfekt ist, die Technik gleich abzulehnen, ist sinnfrei.

Vorteile von DLSS + FG:
  • Mehr FPS
  • Geringerer Stromverbrauch
  • Geringere Abwärme
  • Geglättete Kanten bzw. sauberes/weicheres Bild
  • Umgehung des CPU Bottlenecks
Nachteile:
  • In Ausnahmefällen können kleinere Bildfehler auftreten
Es gibt keine sinnhafte Begründung das abzulehnen, egal wie sehr sich hier einige dagegen sträuben. Die Vorteile überwiegen massiv!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: axi, Fallout667, Buggs001 und 4 andere
Boar ist das abartig und widerlich. NV kauft sich also über die Hofschranzen den ersten Eindruck. Wer da mit macht hat eigentlich komplett fertig. Die Jauchengrube des "Journalisten" hat noch nie mehr gestunken.
 
  • Gefällt mir
Reaktionen: Oudenstekelig, M11E, vti und eine weitere Person
Ich habe gestern in der Unreal Engine 5 Electric Dreams demo die Ultra Settings mit meiner RTX4080 in 4K getestet.
Zur Info, die Ultra Settings sind über den "Epic" Settings und eigentlich nicht zum spielen gedacht. Die brauchen auch doppelt so viel Leistung wie Epic!

Jedenfalls kommt damit meine 4080 auf einstellige FPS. Mit DLSS Quality immerhin auf 15 FPS.
Und jetzt kommts. Frame Generation macht daraus tatsächlich 30 FPS, die nicht von echten 30 FPS unterscheidbar sind.

Ich war echt baff. Normalerweise sieht man in vielen Spielen, dass sich Frame Generation ab 40 nativen FPS oder weniger nicht mehr ganz sauber anfühlt und man vermehrt Artefakte sieht. 30 FPS mit Frame Generation auf 60 FPS verdoppelt sehen zumindest in Cyberpunk nicht mehr ganz so flüssig aus, wie echte 60 FPS.

Aber nicht so mit der UE5. Selbst bei 15 nativen FPS bricht Frame Generation nicht zusammen.

Scheinbar hat Nvidia in den letzten Monaten also nochmal ordentlich an Frame Generation geschraubt oder die qualität ist dank Nvidias implementierung in der UE5 so gut.

Jedenfalls zeigt das extrem eindrucksvoll, was möglich ist.
Auch hinsichtlich Latenz ist es mit Frame Generation in der UE5 in dem 15->30 FPS Beispiel gefühlt sogar besser als ohne.


Kann also gut sein, dass in Zukunft bzw. in wenigen Jahren tatsächlich gar keine "guten" Framerates mehr notwendig sind, um aus flüssig noch flüssiger zu machen.
Dann taugt Frame Generation wohl auch, um aus unspielbar spielbar zu machen.

Gerade wenn man ne GPU sehr lange behalten möchte könnte das sich echt zum absoluten Killerfeature mausern. mehr noch als das upscaling.
 
  • Gefällt mir
Reaktionen: Buggs001
MrHeisenberg schrieb:
Es gibt keine sinnhafte Begründung das abzulehnen, egal wie sehr sich hier einige dagegen sträuben.

Ich würde behaupten es gibt da eine einfache und durchaus stichhaltige Begründung das abzulehnen.
Ich bin eigentlich jeder Technologie offen und hätte Lust DLSS3 auszuprobieren aber es gibt bei mir zwei Gründe das nicht zu tun.
1. Mir sind die Ada Karten zu teuer wobei ich bei der 4060 dann zugeschlagen hätte aber nicht mit dem 128bit Bus
2. Ich habe keine Spiele die DLSS3 können also warum sollte ich auf Tests schauen die nur das testen

Solange Spiele rauskommen die diese Technologien nicht unterstützen wäre es verarsche Test mit DLSS3 zu machen so wie Nvidia es möchte
 
  • Gefällt mir
Reaktionen: simosh und vti
IliadZenith schrieb:
Danke, alle dieser Youtube Experten erstmal geblockt
Gibt's da irgendwo ne Liste? Würde mich anschließen :D
 
Isolak schrieb:
1. Mir sind die Ada Karten zu teuer wobei ich bei der 4060 dann zugeschlagen hätte aber nicht mit dem 128bit Bus
Das hat mit DLSS aber nichts zutun. Die Karte wäre auch ohne DLSS so teuer und hätte nur einen 128 Bit Bus.

Isolak schrieb:
2. Ich habe keine Spiele die DLSS3 können also warum sollte ich auf Tests schauen die nur das testen
Naja, das ist ja keine Ablehnung. Dir ist es schlichtweg erstmal egal, weil du dafür keinen Anwendungsfall hast.
Syrato und Chris verbreiten hier aber Unwahrheiten, weil sie eine persönliche Ablehnung gegen DLSS/FG haben.
 
MrHeisenberg schrieb:
Das merkst du nicht. Es fühlt sich trotzdem flüssiger an und das ist ein Fakt, welcher durch unabhänige Tests und Erfahrungen der Nutzer widersgespiegelt wird. Etwas Gegenteiliges zu behaupten ist keine Meinung.
ICH habe es getestet und für MICH fühlt es sich in Shooter total falsch an. Du kannst gerne sagen, dass das in unabhängigen Tests so ist (verlink doch bitte mal einen), aber wenn es für MICH nicht passt ist das halt so.
Z.B. in MSFS2020 kann es helfen und wenn man mit DLSS 3.0 die FPS in einen angenehmen Bereich hochheben kann.
 
MrHeisenberg schrieb:
Nachteile:
  • In Ausnahmefällen können kleinere Bildfehler auftreten
Auf die man sich dann stürzen kann...wie hier beim CB-Screen zu Hogwarts mit FG.
HogwartsLegacy CB.png

Allerdings habe ich das zu keiner Zeit nachstellen können...ob in der Bewegung vorwärts oder seitlich...ob mit viel Kraut oder wenig Kraut
FG+.pngFG.png

FG verhilft mir auf alle Fälle zu einer kühlen Karte mit wenig Verbrauch. Und solange ich, ohne sichtlichen optischen Abstrich, eine Nutzen daraus ziehen kann...
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Syrato schrieb:
ICH habe es getestet und für MICH fühlt es sich in Shooter total falsch an.
Wie kann es sich falsch anfühlen, wenn du keinen Nachteil dadurch hast, sondern nur Vorteile?
Erkläre mir das doch mal logisch nachvollziehbar.
Mal abgesehen davon: Welcher Shooter bietet denn FG? Ich wüsste keinen.

Syrato schrieb:
Du kannst gerne sagen, dass das in unabhängigen Tests so ist (verlink doch bitte mal einen), aber wenn es für MICH nicht passt ist das halt so.
https://www.pcgameshardware.de/Deep...-277618/News/DLSS-3-Frame-Generation-1406136/
Entweder merkte man keinen Unterschied oder DLSS 3 wurde als besser empfunden.

Weiterer Test:
https://www.pcgameshardware.de/Cybe...uenstliche-Bilder-Interpolation-1412549/2/#a3
 
Zuletzt bearbeitet:
@Syrato

Ich kenn mich bei Shootern nicht aus, zocke nur mal zwischendurch BF2042 ,COD MW. Welcher Shooter braucht bzw. bietet FG wo eine 4090 nativ bzw. mit FRS oder DLSS nicht reicht, sodass man noch FG einschaltet oder einschalten muss ?
 
MrHeisenberg schrieb:
Wie kann es sich falsch anfühlen, wenn du keinen Nachteil dadurch hast, sondern nur Vorteile?
Erkläre mir das doch mal logisch nachvollziehbar.
Wenn ich bei 144HZ DLSS 3.0 aktiviere, dann reagiert alles wie gewohnt. Wenn ich aber DLSS 3.0 aktiviere und von 40 auf 60 FPS zu kommen, reagieren die Spiele nicht haargenau auf die Eingabe.
Ergänzung ()

Tornavida schrieb:
@Syrato

Ich kenn mich bei Shootern nicht aus, zocke nur mal zwischendurch BF2042 ,COD MW. Welcher Shooter braucht bzw. bietet FG wo eine 4090 nativ bzw. mit FRS oder DLSS nicht reicht, sodass man noch FG einschaltet oder einschalten muss ?
Bei meinem System nicht, aber ich wollte es mal testen.
 
Syrato schrieb:
Wenn ich bei 144HZ DLSS 3.0 aktiviere, dann reagiert alles wie gewohnt. Wenn ich aber DLSS 3.0 aktiviere und von 40 auf 60 FPS zu kommen, reagieren die Spiele nicht haargenau auf die Eingabe.
Ohne DLSS hättest du aber nur 40 FPS. Wenn das Spiel also mit 60 FPS (DLSS3) nicht haargenau auf die Eingabe reagiert, ist das bei 40 FPS ohne DLSS3 auch schon der Fall. Es wird dadurch also nicht schlechter und ich glaube dir nicht, dass du ~8 ms Unterschied rein bei der Latenz bemerken würdest. Das tun nicht mal E-Sports Progamer wie Shroud.
 
Zuletzt bearbeitet:
Syrato schrieb:
ICH habe es getestet und für MICH fühlt es sich in Shooter total falsch an.


Bei meinem System nicht, aber ich wollte es mal testen.

? Welches Spiel ?

Edit:

Auf eine einfache Frage schickst du folgende PN an mich. Ja, das ist vielleicht unhöflich zu zitieren, aber der Inhalt deiner PN m.E. ebenfalls. In eine Diskussion hast du dich selbst eingebracht . Entweder führst du Diese objektiv und bringst Fakten oder lässt es sein. "Keine Zeit und keine Lust, ist halt so" unsw. sind keine Basis dafür.

"Wir haben mehrere Spiele getestet u.a. Darktide und Microsoft Flight Simulator.

Aber das ist mir jetzt auch egal. Ich habe keine Zeit und Lust, mich immer und immer wieder, über das Selbe zu sprechen.
Wenn einige Personen unbedingt ein Unternehmen verteidigen und hochloben möchten, ok.
Aber bitte ohne mich.

Freundliche Grüsse Syrato"

Ich habe nicht nach wir und u.a. gefragt sondern bezugnehmend auf deine Aussagen welchen Shooter du speziell meinst und idealerweise auch mit welcher GPU du getestet hast. Es sind auch nicht "einige Personen" ,die ein Unternehmen verteidigen und hochloben wo du dagegen anscheinend dich berufen fühlst anzukämpfen, sondern ich, der dir eine einfache Frage gestellt hat.

Ich habe mal nach Darktide gegoogelt, einen anderen Shooter hast du ja nicht genannt, und die Hits auf der ersten Seite waren grösstenteils gespickt mit Inhalten zu technischen Problemen. Weiter Lust das zu vertiefen und ob und wie Darktide FG unterstützt etc. hatte ich dann nach deiner PN auch nicht mehr.

Möchtest du darauf nochmals eingehen und die Frage beantworten oder sollen wir es bei keine Zeit und Lust sowie ist halt so belassen ?

Mich hätte halt interessiert welche ADA in welchem Shooter a. nur 40FPS erreicht und b. dann daraus mit FG nicht reaktive 60FPS macht, sodass man 40FPS ohne FG reaktiver empfindet. An Dem was @MrHeisenberg sagt ist auch was dran ob man Latenzen dieser Grössenordnung wahrnehmen kann und das persönliche Gameplay so stark beeinflusst, dass es ein Spiel unspielbar macht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrHeisenberg
Meine 3090 hat kein FG. Hätte sie es, fände ich es gut. Dann würde ich statt auf 100 auf 144 fps locken. Und weniger verbrauchen. Hab sie eh nur wegen des VRAM.

Die 4090 kann das.

Aber egal wie, darum geht's hier doch gar nicht. Es geht um die Hans-Wurst-Karte 4060, mit der nVidia sich wieder über alle lustig macht indem absurde Preise für einen Speicherkrüppel verlangt werden. Und ja, inzwischen macht das auch schon in FHD-Probleme.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Wenn ich mir ansehe, was Nvidia mit den 4000er Karten unterhalb der 4090 gemacht hat, fürchte ich mich schon ein wenig vor dem, was aus den kommenden Grafikkarten Generationen wird.
 
@Tornavida ja, natürlich ist die effizienz ein faktor - aber allein wenn man in der leistungsklasse einer 9600xt oder einer entsprechenden nvidia gpu untwegs ist, dann ist eindeutlig leistung der trumpf gewesen, über den die entscheidung gefällt wurde.
allein der umstieg von einer 6900xt zu einer ada karte wird man über den stromverbrauch auf jahre nicht finanziell reinbekommen, selbst mit 40ct/kwh nicht...das ist aber auch nicht das thema.
der rest ist subjektives empfinden...

wenn man schon gpu's vergleicht, dann bitte auch unter gleichen bedingungen - also auf gleicher auflösung mit gleichen settings und gleichem featureset - eine gtx1060 anzuführen und dann mit dlss und fg ins (marketing-)feld zu ziehen ist einfach unseriös.
dlss mag ein antrainiertes upsampling sein, aber es ist immernoch ein upsampling bei dem mit niedrigeren auflösungen gerendert wird. ich finde das sollte immer klar kommuniziert sein, auch wenn nvidia die unterschiede hier am liebsten verwischen wollen würde.
da sind dann 50-60w weniger verbrauch ziemlich egal und sicherlich nicht "kriegsentscheidend".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: M11E
[wege]mini schrieb:
Aber bei Nvidia arbeiten Goldgräber. :evillol:

Wortspiele sind die besten (mMn nach) und in wenigen Stunden, werden wir alle ein wenig klüger sein, als vor wenigen Stunden. Das ist zwar immer der Fall (sollte so sein), aber wenn wir im Bereich von Spekulatius sind, sollten wir doch wenigstens warten, bis der fertig gebackene Keks für alle auf dem Tisch liegt.
Na, Dickmoves kann man auch als solche betiteln. Einer gefügigen Riege an Werbeträgern aka Tech-Youtubern, die wahrscheinlich schon mit einer OS-Installation an die Grenzen ihrer kognitiven Fähigkeiten stoßen, das NDA zu lockern um Gefälligkeits-Previews zu bekommen ist schon arg shady würde ich mal sagen.
Ich sehe den Schritt unabhängig vom Produkt, ist und bleibt asi.
Zumal man ja bei Leuten wie Igor keine Ausnahme macht, hat wohl seine Gründe wieso niemand der Influencer mit einem Multimeter umgehen kann ;)
 
  • Gefällt mir
Reaktionen: msv und [wege]mini
Muss man sich mal auf der Zunge zergehen lassen.
Nvidia holt eine 7 Jahre alte Grafikkarte aus ihrem Sortiment und stellt diese als Vergleich dar zur 4060.
Sind das neue Marketingmaschen? Die Balken wären noch länger und größer, wenn Nvidia noch Kepler aus der Mottenkiste holt, so als Vergleich für die 4060.
Merken wohl selbst, was ein Murks diese 4060 ist. Ansonsten kann man sich solche hanebüchen Vergleiche sparen.
 
  • Gefällt mir
Reaktionen: vti, FrankN84, DerFahnder und 3 andere
Zurück
Oben