Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail
Was haltet ihr von dem was in diesem Video gesagt wird?
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Misdemeanor
Lieutenant Pro
- Registriert
- Mai 2009
- Beiträge
- 558
Das Phänomen ist nach der Pandemie deutlich geworden, nicht nur in Korea btw., und sorgt für einige Probleme der jetzt heranwachsenden Generation: einerseits war/ist es fehlendes Tageslicht, andererseits ein zu hoher Anteil von blauem Licht und als Drittes kommt hinzu, dass insbesondere Kinder zu lange zu fokussiert auf Bildschirme (oder Bücher) geschaut haben. Myopie heißt das und bedeutet nichts anderes als Kurzsichtigkeit. Lichtmangel = Hemmung der Eigenproduktion von Dopamin = ausbleibendes "Ausbremsen" des Längenwachstums der Augen. Rotlicht hilft dagegen bei/gegen AMD ... und ich meine nicht den Chip-Hersteller. 👓Apocalypse schrieb:Zumindest suggeriert das die Epidemie an Kurzsichtigkeit in Südkorea, ganze ohne excessive Screentime, aber sehr, sehr viel Bücher lernen drinnen mit künstlichem Licht. Genauer steht vorallem ein hoher Rotlichtanteil bei der Innenbeleuchtung im Verdachte sich negativ auszuwirken ... zumindest tut es das im Experiment bei Schweinen.
Meine Eltern haben immer gesagt, von zu vielem TV schauen bekäme man viereckige Augen. Wie recht sie hatten ... NOT. 🤭
@Misdemeanor , dass haben sie zu mir auch immer Gesagt. 
Angenommen AMD würde jetzt doch noch überraschen und ein gutes FSR 4 bringen und für unter der 5090 richtige alternativen bringen. Was könnte NVidia kurzfristig noch ändern um zu kontern?

Angenommen AMD würde jetzt doch noch überraschen und ein gutes FSR 4 bringen und für unter der 5090 richtige alternativen bringen. Was könnte NVidia kurzfristig noch ändern um zu kontern?
Ccey
Ensign
- Registriert
- Jan. 2024
- Beiträge
- 213
Das würde mich auch interessieren.cdt9890 schrieb:Ist eigentlich mit Tests zu 5080/5090 vor dem 30.01. zu rechnen oder sind Tests unter NDA-Verschluss bis dahin? Weiß jemand Genaueres?
War es nicht bei den 4000er super Karten das ein Tag davor das Embargo endete und alle ihre Tests rausgehauen haben 🤔
- Registriert
- Sep. 2020
- Beiträge
- 753
@Ccey so in etwa, bei den letzten Hardware Releases gab es die ersten Tests typischerweise 1 Tag vorher.
Ggfs. ist mit Abstufungen zu Rechnen, so ein Szenario ist auch schon häufig gewesen:
Ggfs. ist mit Abstufungen zu Rechnen, so ein Szenario ist auch schon häufig gewesen:
- Release-Datum "-1 Tag" = Test der FE
- Release-Datum = Test der ersten Customs
- Die Tests der Custom können sich dann aber auch über Wochen ziehen, je nachdem wie die Redaktionen bestückt werden. Aber es ist nicht untypisch das es ein paar Wochen dauert bis man von jedem Hersteller einen aussagekräftigen Test verfügbar hat. Da muss man dann auch ein bisschen im Netz suchen, Videocardz hat oft eine Review-Übersicht, Techpowerup hat typischerweise die meisten Tests insgesamt. Computerbase, HWLUXX und PCGH zusammen haben oft auch eine gute Varianz an Modellen...
Zuletzt bearbeitet:
Das ist schon sehr interessant und macht Lust auf die FE...
Kurzfristig kann man immer den Preis anpassen. Alles andere würde Aufwand bedeuten und längeren Vorlauf brauchenCabranium schrieb:Was könnte NVidia kurzfristig noch ändern um zu kontern?
Musste Nvidia groß was bei der 4000er gegen die 7000er bringen um zu kontern? Ne, die haben die 4080 günstiger gemacht, das wars. Nvidia wird sich trotzdem besser verkaufen, die 5080 oder 5070 wird höchstens 50 dollar günstiger.Cabranium schrieb:@Misdemeanor , dass haben sie zu mir auch immer Gesagt.
Angenommen AMD würde jetzt doch noch überraschen und ein gutes FSR 4 bringen und für unter der 5090 richtige alternativen bringen. Was könnte NVidia kurzfristig noch ändern um zu kontern?
Ich glaube man muss sich von der Vorstellung verabschieden, dass interpolierte Frames einfach zwischen realen Frames eingefügt werden. Dass wäre in dem Szenario mit 43 auf 60 Hz auch nicht möglich ohne 16,6 ms zu unterschreiten. Das Flip Meetering wird eher erlauben, dass die Ausgabe immer mit 16,6 ms erfolgen kann. Das kann dann dazu führen, dass in diesem Szenario kein einziger nativer Frame mehr ausgegeben wird sondern nur noch interpolierte, die das Timing einhalten.Rockbreak schrieb:Sagen wir wir haben wie oben im Beispiel 43 fps in der einen Sekunde im Spiel, als Primzahl hat 43 keinen natürlichen Teiler außer sich selbst und 1, fügt Blackwell Flip Metering dann einmal nach dem 7ten, dann nach dem 15ten oder 23ten echten Frame einen generierten ein?
60 FG Frames ohne einen einzigen nativen Frame? Das wäre Ghosting und Bildqualität aus der HölleNolag schrieb:Das kann dann dazu führen, dass in diesem Szenario kein einziger nativer Frame mehr ausgegeben wird sondern nur noch interpolierte, die das Timing einhalten.
@Rockbreak Der native Frame ist ja da, er dann kann eben nur häufig nicht angezeigt werden. Wenn ich bei 43 fps Frame Times von 16.6 ms treffen will, dann kann ich einen interpolierten Frame bei 16,6ms einfügen, muss dann aber den nativen Frame 7 ms später auslassen und einen inpolierten Frame 9ms später einfügen. Der interpolierte Frame basiert ja wieder auf 2 nativen Frames. Der zu interpolierende Abstand variert dann ja auch. Je kürzer die zeitliche Abweichung zu den nativen Frames ist, desto besser das Ergebnis. Das ist ja nicht wie inkrementelle Kompression wo das Ergebnis immer weiter degradiert bis der nächste I-Frame kommt.
@Nolag Wenn Nvidia so viel AI hat und alles so clever mittlerweile ist, wieso kann diese AI nicht berechnen wie viele Frames pro Sekunde gerade nativ gerendert werden können, die Anzahl der interpolierten Frames und die Abstände zwischen den nativen Frames dadurch anpassen und bei 43 nativen Frames dann eben so viele einfügen bis man leicht über das Framelimit kommt und die restlichen wenigen Frames die über das Frame Limit dann drüber sind dann einfach verwerfen. Dann würde man ein gutes Ergebnis bekommen und maximal nur 3-4 native und ein paar interpolierte Frames verlieren.
Wie soll das mathematisch möglich sein? Versuche mal irgendwo in den 23,2 ms bei 43fps einen Frame einzufügen ohne die 16,6ms deutlich zu unterschreiten.Rockbreak schrieb:bei 43 nativen Frames dann eben so viele einfügen bis man leicht über das Framelimit
@Nolag Prediction. Die AI merkt "Aha die letzte Sekunde wurden 43 Frames generiert, also fügt es in der nächste Sekunde nach jedem zweiten Frame einen FG Frame ein, was dann 21 FG Frames plus der 43 sind, kommst du auf 64 Frames, alle Frames darüber werden verworfen. Weiß nicht was du da mit deinem ms Timing da für ein Problem hast. Ist letztendlich auch nicht viel anders wie Nvidia Fast Synch, nur dass du eben FG Frames verwendest um über die Refreshrate des Monitors zu kommen.
Man kann bei 43 fps, was eine Frame Time von ca. 23,26 ms bedeutet, nicht einfach einen Frame einfügen, weil man dann Tearing bekommt. Es ist dabei egal ob du das nur nach jedem zweiten machst, weil du immer weniger als 16,6ms erhälst und damit Tearing. Wenn einem Tearing egal ist, dann kann man natürlich Frames einfügen wann man möchte.Rockbreak schrieb:Die AI merkt "Aha die letzte Sekunde wurden 43 Frames generiert, also fügt es in der nächste Sekunde nach jedem zweiten Frame einen FG Frame ein, was dann 21 FG Frames plus der 43 sind,
Ich behaupte ja nicht, dass Frame Generation bei 43 fps auf einem 60Hz Monitor Sinn macht, aber ich habe mir dieses Szenario auch nicht ausgedacht. Frame Generation macht eigentlich nur dann wirklich Sinn, wenn der Monitor eine adaptive Wiederholrate unterstützt, die ein Vielfaches der Ausgangsbildrate ist.
@Nolag Du verstehst einfach nicht worauf ich hinaus will. Es gibt hier mit dem was ich sage in Verbindung mit Reflex 2 kein Frame Timing von 23.26ms und auch kein Tearing
Reflex 2 Frame Warp takes this concept from research to reality. As a frame is being rendered by the GPU, the CPU calculates the camera position of the next frame in the pipeline, based on the latest mouse or controller input. Frame Warp samples the new camera position from the CPU, and warps the frame just rendered by the GPU to this newer camera position. The warp is conducted as late as possible, just before the rendered frame is sent to the display, ensuring the most recent mouse input is reflected on screen.
When Frame Warp shifts the game pixels, small holes in the image are created where the change in camera position reveals new parts of the game scene. Through our research, NVIDIA has developed a latency-optimized predictive rendering algorithm that uses camera, color and depth data from prior frames to in-paint these holes accurately. Players see the rendered frame with an updated camera perspective and without holes, reducing latency for any actions that shift the in-game camera.
Reflex 2 Frame Warp takes this concept from research to reality. As a frame is being rendered by the GPU, the CPU calculates the camera position of the next frame in the pipeline, based on the latest mouse or controller input. Frame Warp samples the new camera position from the CPU, and warps the frame just rendered by the GPU to this newer camera position. The warp is conducted as late as possible, just before the rendered frame is sent to the display, ensuring the most recent mouse input is reflected on screen.
When Frame Warp shifts the game pixels, small holes in the image are created where the change in camera position reveals new parts of the game scene. Through our research, NVIDIA has developed a latency-optimized predictive rendering algorithm that uses camera, color and depth data from prior frames to in-paint these holes accurately. Players see the rendered frame with an updated camera perspective and without holes, reducing latency for any actions that shift the in-game camera.
Bei meiner Methode hält man die Timings auch ganz einfach ein benötigt dafür keinen Frame Warp. Die Artefakte dürften durch die Frame Warp Extrapolation auch noch schlimmer sein als durch Interpolation. Ich glaube auch nicht, dass Frame Warp im Zusammenhang mit FG verfügbar sein wird. Die Idee von Frame Warp ist ja die Latenz durch Extrapolation des vorherigen Frames auf ein Minimum zu senken. Das macht eigentlich nur bei eSports Titeln Sinn, wo die Bildrate eh schon hoch genug ist und es nur noch um die Reduzierung der Latenz geht. Da kann man dann auch die Warp Artefakte hinnehmen, wenn es einem einen Vorteil bringt. Daher ist die Unterstützung für Frame Warp ja auch aktuell nur für 2 Games angekündigt.Rockbreak schrieb:Du verstehst einfach nicht worauf ich hinaus will. Es gibt hier mit dem was ich sage in Verbindung mit Reflex 2 kein Frame Timing von 23.26ms und auch kein Tearing
Ähnliche Themen
- Antworten
- 592
- Aufrufe
- 52.088
- Antworten
- 210
- Aufrufe
- 19.180
- Antworten
- 4.927
- Aufrufe
- 396.868
- Antworten
- 37
- Aufrufe
- 3.684
- Antworten
- 391
- Aufrufe
- 34.067