News Verfügbarkeit der RTX 4080: Der UVP wird inzwischen konsequent unterboten

klar könnte man so machen, aber ich bin ja selber mitunter der gleiche "Depp" am besten alles an Reglern nach rechts und alles andere ist nichts wert :p:daumen:

wobei mir für viele unverständlich 60 fps immer noch für alles reichen, ganz einfach aus dem Grund weil ich noch nie nen Monitor mit mehr Hz ausprobiert habe, werd ich auch die nächste Zeit erstmal ganz sicher noch nicht machen - mir reicht schon das ich von FHD gleich auf 4k umgestiegen bin und nicht den Zwischenschrit mit WHQD gemacht habe.

Da könnte man noch schön einiges an Leistung sparen und wäre nicht immer noch so ein bisschen im Zugzwang mehr Leistung zu brauchen um den Monitor vernünftig befeuern zu können.

und da hoffe ich eben immer noch das ich für Raster mit RDNA3 doch recht nahe an die 4090 rankomme aber doch gut 700-800 Euro im Vergleich einsparen kann.

Man wird sehen ....
 
ilovebytes schrieb:
wobei mir für viele unverständlich 60 fps immer noch für alles reichen, ganz einfach aus dem Grund weil ich noch nie nen Monitor mit mehr Hz ausprobiert habe, werd ich auch die nächste Zeit erstmal ganz sicher noch nicht machen - mir reicht schon das ich von FHD gleich auf 4k umgestiegen bin und nicht den Zwischenschrit mit WHQD gemacht habe.
Hmm, ich habe auch noch nie einen Monitor mit mehr als 60Hz ausprobiert und trotzdem stelle ich lieber Details/die Auflösung runter um mit 70-90 FPS zu spielen. Erhöht bei schnelleren Spielen bei mir spürbar das Spielerlebnis
 
ilovebytes schrieb:
weil ich noch nie nen Monitor mit mehr Hz ausprobiert habe
Ich habe den LG 48GQ900 Oled gaming monitor vor kurzem gekauft. Probier den besser gar nicht erst aus, sonst willst deinen jetzigen nicht mehr sehen :)
 
ja das meine ich ja damit das ich sicher erstmal keinen Monitor mit mehr Hz ausprobiere, weil dann bin ich versaut und dann muss ich das mit allen Konsequenzen haben :p

weil von 4k zurück auf whqd (dafür mehr Hz ) ging auch nicht, das sieht dann alles irgendwie matschig (überspitzt gesagt) aus im Vergleich zu 4K

@KitKat::new()
ja bei nem Rennspiel/Simulator bin ich bei dir da sind 90+fps einfach viel flüssiger zu spielen als 60, für Shooter gilt das sicher auch, aber da bin ich sowieso nicht der Fan von (zumindest nicht von solchen competitiven Sachen)

und für alles andere sind bei mir fixe 55 Fps eingestellt und den Rest regelt der Freesync Monitor- da kommt man selbst bei aktuellen Spielen mit einer auf 200 Watt gedrosselten 6900XT ganz gut hin (anders ertrage ich die Laustärke meiner Amd Ref Karte nicht)

wenn ich aktuell schon ne gute custom 6900xt hätte würde ich mir über die neuen Karten gar keine Gedanken machen, aber ich möchte es einfach wieder leiser und das klappt mit der zwar stark verbesserten Ref der 6900xt nicht wirklich, den im Vergleich zu den guten customs ist die einfach immer noch laut.

ich könnte natürlich auch auf ne Custom 6900xt wechseln, aber wenn schon wechseln dann doch gleich richtig auf die neue Gen, ausser der Preis ist auch da komplett abgehoben und liegt über 1500 dafür ist der Leidensdruck doch wesentlich zu gering- denn im Grunde geht ja das meiste locker mit der 6900xt auch in 4k nur leiser dürfte sie dabei sein :daumen:
 
ilovebytes schrieb:
ja das meine ich ja damit das ich sicher erstmal keinen Monitor mit mehr Hz ausprobiere, weil dann bin ich versaut und dann muss ich das mit allen Konsequenzen haben :p

Zu spät - 120 Hz konnte schon mein Röhrenmonitor :D

Und Quake 3 mit 60 Hz war dann auch dermaßen unterirdisch, dass ich die Röhre erst 2009 gegen den ersten 120 Hz-Flachbildschirm ausgetauscht habe.

4k habe ich noch nicht ausprobiert, und werde es auch bei den Preisen sicher nicht tun.
 
JMP $FCE2 schrieb:
4k habe ich noch nicht ausprobiert, und werde es auch bei den Preisen sicher nicht tun.
Immerhin ist 4k Gaming jetzt perfekt, die Monitore sind genial und GPUs wie die RTX4000 schaffen es diese adäquat auszulasten. Ich war 2015 eindeutig zu früh dran mit 4k
 
ilovebytes schrieb:
in Verbindung mit der durch Nvidia mehrfahch gedrosselten Produktionsmenge ist das in der Tat für mich ein Indiz das sich die Ware dann nicht mehr sehr gut verkauft.
Ich denke Nvidia will die 4090 gar nicht zu dem Preis verkaufen, die Fertigung ist wesentlich teurer als bei der 4080 die sie am liebsten zum fast gleichen Preis verkaufen würden, nur fallen die wenigsten darauf rein und lassen sie in den Regalen stehen.
 
Ich glaube kaum, dass man Röhre mit LCD vergleichen kann, denn selbst die einfachen 75 Hertz-Röhren waren doch Welten hübscher als LCD´s, aber vielleicht ist es nur eine Subjektive Ansichtsache, so eine "schöne" Darstellung wie auf ner Röhre (zum Schluß 19" 100hz) hab ich bei noch keinem LCD gesehen.
Ich werde im nächsten Jahr auch mal auf 144/165hz WQHD gehen (max 27") und schauen, wie das Feeling bei mir ist. Wenn man sich das woanders anschaut, ist es ja nicht das gleiche.

Ob man dann andere bezahlbare Karten bekommt (sofern die kleine 3060ti nimmer reicht), wird man sehen, aber kein Game der Welt würde mich zu 2K bringen :D

P.S. alles über 27/32" wäre bei mir eh raus, da ich nur am Schreibtisch sitze und hier der Abstand max 50-60cm beträgt...
 
ilovebytes schrieb:
in Verbindung mit der durch Nvidia mehrfahch gedrosselten Produktionsmenge

Gibt es dazu überhaupt irgendeine offizielle Quelle? Ich hab den letzten Earnings Call gehört und kann mich an so eine Andeutung oder Aussauge nicht erinnern.
 
ilovebytes schrieb:
wobei mir für viele unverständlich 60 fps immer noch für alles reichen, ganz einfach aus dem Grund weil ich noch nie nen Monitor mit mehr Hz ausprobiert habe, werd ich auch die nächste Zeit erstmal ganz sicher noch nicht machen
Aus eigener Erfahrung kann ich dir sagen: Sobald du deutlich über 60fps spielst willst du nie wieder zurück. Am Anfang wirst du dir denken "Hm, sooo groß ist der Unterschied jetzt aber auch nicht", und dann gehst du zurück zu 60hz und denkst du schaust auf 30hz. Kein Witz. Once seen you can't unsee it.
Beim Streitthema fps vs. Auflösung würde ich sagen dass hohe fps mir wichtiger sind als Auflösung. Nun habe ich Glück fps und Auflösung zu haben, aber wenn ich mich zb zwischen 4k@60 oder 1440p@120/144 entscheiden müsste dann würde ich letzteres immer bevorzugen. Schlicht deswegen, weil die Spiele in Bewegung viel besser aussehen in der niedrigeren Auflösung aber höheren fps als in einer höheren Auflösung aber niedriger fps. Die Texturdetails während der Bewegung in hohen fps bleiben schärfer, eben weil das Bild doppelt so schnell (im idealfall) refreshed wird wenns vorbeizieht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gaspedal
ja das ist mir klar ist ja mit 4K seit 3-4 Jahren genauso - den Monitor hätte ich mir damals nie kaufen dürfen, seitdem ist alles anderes (für mich) irgendwie matschig :D

@Oneplusfan
ich meine es war Jensen selber der das zumindest einmal in einem Interview erwähnt hat, kann mich aber auch irren und es war ein anderer Mitarbeiter.

Es war aber auch direkt hier in einem Thema der Redaktion mal zu lesen.
 
Ich hab hier in der Schweiz auch so einen Spezialisten gesehen, der will ne 4080 Strix für 1980 loswerden. Viel Glück dabei wenn man eine 4090 für 2k kriegt. 😆

Hab ihn gefragt ob er das auch bedacht hat. Er war sich sicher dass er sie loswird. Ich bin mir da nicht sicher.🤷‍♂️
 
Samuelz schrieb:
Na ob die +25% im Raster und +50 in RT einer 4080, es bei CP77 nun herausreißen werden für dich? Ich wage es ja zu bezweifeln.
Du meinst also ich habe mit einer RTX4080 + DLSS3 keine Vorteile gegenüber einer 6900 XT FSR2.0 in Cyberpunk auf Anschlag mit Raytracing?

Die 6900XT schafft nämlich keine stabilen 30FPS und 60 sollten es schon sein...
 
BaseX9 schrieb:
Du meinst also ich habe mit einer RTX4080 + DLSS3 keine Vorteile gegenüber einer 6900 XT FSR2.0 in Cyberpunk auf Anschlag mit Raytracing?

Die 6900XT schafft nämlich keine stabilen 30FPS und 60 sollten es schon sein...
Wenn man auf Bildartefakte und erhöhten Input Lag, was nicht zur "Flüssigkeit" des Bildes passt, scharf ist, sicherlich. Vor allem wenn man dann irgendwann mal in neuen AAA Spiel irgendwo bei 30-60FPS rauskommt, und grade meint, so jetzt schalte ich mal FG ein -> noch mehr Artefakte Soße, da niedrige Input Frameraten noch anfälliger für Artefakte sind, als bei nativen 100 FPS+

digitalfoundry-nvidia0ri2z.png


digitalfoundry-nvidia0kf5v.png


Quelle:
 
BaseX9 schrieb:
Du meinst also ich habe mit einer RTX4080 + DLSS3 keine Vorteile gegenüber einer 6900 XT FSR2.0 in Cyberpunk auf Anschlag mit Raytracing?

Die 6900XT schafft nämlich keine stabilen 30FPS und 60 sollten es schon sein...
Doch, die Frage ist halt wieviel ist einem die Karte wert und wofür hast du sie bekommen. Für 1000, ok, für 15-1700 ? No way, dann lieber gleich oben ins Regal greifen.

Letztlich skaliert der Preis hier in dem speziellen Game auch fast 1:1. Eine 6900 kriegt man dieser Tage um die 700 Steine, wenn sie dann halb so schnell ist, geht das schon irgendwie klar.
Ergänzung ()

Samuelz schrieb:
DLSS3 keine Vorteile gegenüber einer 6900 XT FSR2.0 in Cyberpunk auf Anschlag mit Raytracing?

Die 6900XT schafft nämlich keine stabilen 30FPS und 60 sollten es schon sein.
Wenn man auf Bildartefakte und erhöhten Input Lag, was nicht zur "Flüssigkeit" des Bildes passt, scharf ist, sicherlich. Vor allem wenn man dann irgendwann mal in neuen AAA Spiel irgendwo bei 30-60FPS rauskommt, und grade meint, so jetzt schalte ich mal FG ein -> noch mehr Artefakte Soße, da niedrige Input Frameraten noch anfälliger für Artefakte sind, als bei nativen 100 FPS+
Leider stimmt deine Schlussfolgerung so nicht ganz.

Dieser Test, wie auch in sämtlichen anderen (auch LTT zB) können die Leute so gut wie gar nicht unterscheiden zwischen DLSS3 und Native. Und was das Lag angeht, so empfanden eigentlich alle Leute DLSS3 als "more responsive".

Die höhere Bildrate täuscht über vieles hinweg. Artefakte in Standbildern suchen ist hier nicht die Kunst, sondern es bewegt zu erkennen. Und wenn man 50FPS auf 100 hochskaliert bezweifle ich mal stark, dass deine Augen da jedes noch so kleine Artefakt wahrnehmen können, schon gar nicht während du aktiv am Zocken bist und nicht am pixel peepen 2cm vor dem Bildschirm.

Wars nicht auch LTT die sogar als Extremszenario 25p oder 30p hochskaliert haben mit DLSS3 ? Haben die Leute nicht wirklich gemerkt. Augen sind halt trügerisch, darum funktioniert "Magie" ja auch so gut bei uns. :D
 
  • Gefällt mir
Reaktionen: th3o
ThirdLife schrieb:
Die höhere Bildrate täuscht über vieles hinweg. Artefakte in Standbildern suchen ist hier nicht die Kunst, sondern es bewegt zu erkennen. Und wenn man 50FPS auf 100 hochskaliert bezweifle ich mal stark, dass deine Augen da jedes noch so kleine Artefakt wahrnehmen können, schon gar nicht während du aktiv am Zocken bist und nicht am pixel peepen 2cm vor dem Bildschirm.

Wars nicht auch LTT die sogar als Extremszenario 25p oder 30p hochskaliert haben mit DLSS3 ? Haben die Leute nicht wirklich gemerkt. Augen sind halt trügerisch, darum funktioniert "Magie" ja auch so gut bei uns. :D
Die höhere Bildrate ist aber Fake. Der Input Lag ist der gleiche von ursprünglichen Ausgangs Bildrate. Also toll fühlt sich das gesehene in der Hand mit der Maus schon mal nicht an. Und natürlich erkennt man die Artefakte bei genauen hinsehen, ich bin 31 Jahre alt, habe keine Brille. Nicht immer von sich auf andere schließen.
 
Dann werden sich wohl die anderen alle irren und deine Adleraugen entlarven einfach alles. Ich würde ja sagen du Glücklicher, aber irgendwie ist das dann wohl sehr unbefriedigend ständig Fehler in allem zu sehen. :daumen:

Wenn du davon sprichst dass es sich nicht toll anfühlt, dann hast du auch direkt eine 4090 geholt oder mindestens eine 4080 um das zu testen ?
 
Samuelz schrieb:
Wenn man auf Bildartefakte und erhöhten Input Lag, was nicht zur "Flüssigkeit" des Bildes passt, scharf ist, sicherlich. Vor allem wenn man dann irgendwann mal in neuen AAA Spiel irgendwo bei 30-60FPS rauskommt, und grade meint, so jetzt schalte ich mal FG ein -> noch mehr Artefakte Soße, da niedrige Input Frameraten noch anfälliger für Artefakte sind, als bei nativen 100 FPS+

Anhang anzeigen 1292083

Anhang anzeigen 1292084

Quelle:
diese artefakte sind beim normalen spielen sogut wie nicht wahrnehmbar. deswegen muss DF ja auch pausieren um die überhaupt zeigen zu können und die meisten artefakte gibts auch nur beim allerersten frame eines szenen- oder kamerawechsels. dein gehirn ist dafür im grunde zu lahm um das bei der normalen spielgeschwindigkeit überhaupt zu registrieren.
fazit: die artefakte-kiste wird von den gegnern nvidias oder überhaupt dieser technologie viel zu heiß gekocht.
Ergänzung ()

Samuelz schrieb:
Die höhere Bildrate ist aber Fake.
Ist sie nicht, es gibt diese Frames tatsächlich, das ist nicht einfach nur eine höhere Zahl ohne Auswirkung.
Dass der Input lag gleich bleibt ist was anderes, das ändert an der wahrgenommen Flüssigkeit dank DLSS3 nichts. Wenn du ohne DLSS3 60fps hast und mit dann 90fps hast, dann sind da wirklich 30 mehr fps auf deinem Bildschirm. Nur dein Mausklick wird als ein 60fps Befehl gedeutet statt 90. Aber ja, ich bin sicher du kannst 0.02 Sekunden extra-Verzögerung wahrnehmen vom Moment des Klickens bis das aufm Schirm reagiert.
 
th3o schrieb:
diese artefakte sind beim normalen spielen sogut wie nicht wahrnehmbar. deswegen muss DF ja auch pausieren um die überhaupt zeigen zu können und die meisten artefakte gibts auch nur beim allerersten frame eines szenen- oder kamerawechsels. dein gehirn ist dafür im grunde zu lahm um das bei der normalen spielgeschwindigkeit überhaupt zu registrieren....
Da werden wir nicht auf einen gemeinsamen Nenner kommen, ich sage dir, man sieht die Artefakte sehr wohl, z.B. ist ein Worst Case jeder Szenen/Kamera wechsel. Und natürlich sind künstlich erzeugende zwischen Frames der "KI" Fake Frames/FPS. Was denn sonst? Lächerlich hoch zehn.
 
Zurück
Oben