L
Laggy.NET
Gast
iron_monkey schrieb:Soso,
DLSS ist also "besser" als das Rohmaterial... dieser Logik nach, braucht man bei genügend KI nicht mal mehr so hohe Ausgangsauflösungen... wann ist Schluss, wenn das Ursprungsmaterial nur noch aus 1x1 Pixel besteht? oder wie ist da die Abgrenzung?
Man muss sich das mal auf der Zunge zehrgehen lassen... da wird in nem Computerforum tatsächlich behauptet, nVidia kann nicht vorhandene Informationen herzaubern und diese übertreffen sogar die Qualität der echten Informationen?
Das kann dein Hirn doch auch... Und das ist auch nix anderes, als ein "Rechner".
Wenn du ein Bild ohne AntiAliasing vorgesetzt bekommst, kannst du dir vorstellen, wie es mit AA aussieht. Du könntest das sogar selbst am Rechner zeichnen bzw. bearbeiten, wenn du genug Zeit hättest. Und du brauchst dafür keine weiteren Informationen. Du kannst auch selbst entrauschen. Du erkennst in nem Bild rauschen und kannst dir genau vorstellen, wie es ohne aussieht. Und wenn du die Zeit hättest, könntest du theoretisch in Paint jedes einzelne Rausch-Korn mit der korrekten Farbe ersetzen.
Du kannst dir, wenn du ne Bildergallerie mit vielen Hochauflösenden, ähnlichen Bildern hast auch vorstellen, wie ein Bild aussehen muss, das in dieser Galerie nur in niedrigerer Auflösung vorliegt usw.
Aufgrund von Erfahrungswerten kann man sehr wohl sagen, wie etwas auszusehen hat, ohne dass man sich weitere Infos aus dem Rohmaterial holen müsste. Nvidia macht da praktisch nix andres. Und Nvidia sind ja nicht die ersten oder einzigen, die Bilder mit neuronalen Netzen skalieren oder erstellen... Daran wurde schon viele Jahre geforscht.
Zuletzt bearbeitet von einem Moderator: