Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestNvidia GeForce RTX 5090 im Test: DLSS 4 MFG trifft 575 Watt im 2-Slot-Format
Wenn du mit der doppelten Auflösung des Auges darstellst, dann fasst dein Auge zwei benachbarte Pixel in jeder Richtung zu einem zusammen. Das ist also genau das Prinzip, was ich meine, nur dass bei mir der Monitor das macht. Mag sein, dass ich was nicht erwähnt habe: Selbstverständlich muss die Pixeldichte des Monitors so hoch sein, dass das Auge keine Pixel mehr erkennt.
Gähn , boah schon wieder das Vram Gelaber... Wenn der Vram nicht reicht, dann kauft man sich eben Eine mit mehr ,ganz einfach. Immer diese Geringverdiener ,die immer ganz oben mitspielen wollen für nen Fuffi für die nächsten 5 Jahre am besten.
Wenn du mit der doppelten Auflösung des Auges darstellst, dann fasst dein Auge zwei benachbarte Pixel in jeder Richtung zu einem zusammen. Das ist also genau das Prinzip, was ich meine, nur dass bei mir der Monitor das macht. Mag sein, dass ich was nicht erwähnt habe: Selbstverständlich muss die Pixeldichte des Monitors so hoch sein, dass das Auge keine Pixel mehr erkennt.
Ja, das ist aber nicht der Fall. Bei weitem nicht.
Es geht nur darum, dass Nyquist kein geeignetes Argument dafür ist, dass ein OGSS mit doppelter Auflösung pro Achse "ein perfekt Anti-Aliastes Bild" erzeugt. Das tut es nämlich nicht.
Ein Unordered Grid wäre schon mal besser. Und mehr als 4x (was einer Verdopplung jeder Achse entspricht) wäre auch nicht schlecht.
Und deswegen kann DLAA/DLSS bei wenig bewegten Bildern auch klar besser sein als OGSS.
Du hast gerade gesagt, dass die 5080 jetzt schon zu wenig VRAM hat. Also stimmt das so nicht, ok. Aber für die Zukunft kaufen funktioniert nicht. Du weisst nicht was als nächstes kommt oder welches Feature das nächste Big Thing wird. Dann sitzt du da mit deiner 5090 und eine 6070Ti für 800 Euro läuft Kreise drum rum. Denk mal an den Moment als die 3000er Karten aufgeschlagen sind. In 2 Jahren kann viel oder gar nichts passieren. Kaufe für das was du jetzt brauchst. Den 32GB VRAM wirst du auch nicht brauchen, bis wir da angekommen sind, dass der wirklich benötigt wird, wirste die Karte eh ersetzt haben, weil die Rohleistung nicht mehr ausreicht.
Sicherlich nicht. Keiner wird ein Game bringen, dass 24 oder 32GB voraussetzen wird, einfach weil wir hier von einem Marktanteil von vielleicht 2% sprechen. Klar kann man sicherlich 16GB VRAM an die Grenze bringen, aber ist das sinnvoll oder nur machbar? Und vor allem passiert das wirklich innerhalb der nächsten 1-2 Jahre oder ist das ein Thema für die nächste oder gar Übernächste Generation an GPUs? In vielen, wenn nicht sogar allen, PC Spielen gibts da so Regler, die können wahrhaftig nach links rutschen. Aber am Ende muss du entscheiden ob du wirklich 1200 Euro mehr ausgeben möchtest, nur um das im Härtefall nicht tun zu müssen.
Aber um den Kreis zu schließen: Ich dich nicht mehr in die Kategorie "normaler Gamer" stecken. Du willst ja dann das Geld ausgeben, ein Kosten/Nutzen-Faktor interessiert dich da eher weniger. Also genau diese Art von Gamer, die die Lederjacke in seiner Präsentation angesprochen hat. Das ist jetzt nicht despektierlich gemeint, jedem das Seine. Aber man kann nicht Luxus wollen und sich gleichzeitig darüber echauffieren, dass dort auch Luxuspreise aufgerufen werden.
Wenn das stimmen sollte wäre ich mit der 5089 zufrieden, so würde man durch MFG eine deutlich höhere Leistung haben als die 4090 nur mit FG und das wäre top
„denn die Geforce RTX 5080 kommt nicht an ihr vorbei und fädelt sich rund 2 Prozent hinter ihr ein. Schaut man da nun mit etwas Abstand drauf, könnte man sagen, das ist recht treffsicher, die gleiche Performance und von Nvidia so gewollt.“
Ok, du hast mit deiner Aussage Recht, wenn 1 nicht die Hälfte von 2 ist. Ich hab Recht, wenn 2 das Doppelte von 1 ist. Wer von uns holt den Taschenrechner raus und kontrolliert es?
Offensichtlich nicht verstanden. Das Abtasttheorem ist nur ein notwendiges Kriterium. Also wenn du nicht mit doppelter Frequenz abtastest, dann ist es unmöglich das originale Signal eindeutig zu Rekonstruieren. Darüber ob es Hinreichend ist, dass OGSSAA das dann auch schafft ist, wird nichts gesagt.
Und es ist auch lediglich in der Theorie mit doppelter Abtastfrequenz möglich, wenn du das abgetastete Signal mit der sinc Funktion faltest, die hat aber leider eine unendliche Ausdehnung und unendlich Speicher hat der PC normalerweise nicht zur Verfügung. Deswegen kommen im 1D-Fall Fensterfunktionen (z.B. Hamming Window) zum Einsatz, die dann gut genug ans echte Ergebnis rankommen. Aber genug OT zu Digitaler Signalverarbeitung.
Für meine Zwecke würde ich eher nach einer Karte schauen die meine Bedürfnisse sowohl in 4k als auch in wqhd abdecken und da müsste es glaube ich keine 5090 sein.
Vielleicht reicht auch eine 5080 aus.
Sagen wir mal so, mit der 4090 + 13900K (plus Wakü, 5 M.2 SSDs und 2 SATA SSDs) komm ich mit einem 850W Netzteil hin, dass nie mehr als 700W abgeben musste. Beim Zocken komm ich max. auf 630W. (Ich krieg die Werte vom digitalen Netzteil selbst angezeigt).
Das kann man mal hochrechnen. Ein 1000W Netzteil reicht.