News RTX Video Super Resolution: Nvidia skaliert Videos in Chrome in Echtzeit auf 4K

DayvanCowboy schrieb:
Das ist die selbe Milchmädchenrechnung wie damals als es hiess, MP3 128 kbit(s klingt so gut wie CD
nein das ist einfach faktisch die maximale auflösung vom auge auf einer bestimmten distanz
Stefan1200 schrieb:
Vorausgesetzt man zahlt dafür zusätzlich Geld, damit man 1080i50 bei den privaten TV Sendern bekommt. Sonst hat man ja sogar nur 720p (öffentlich rechtliche TV Sender) oder 576i (Private TV Sender, SD).

Ein guter Deinterlacer im Fernseher kann aus 1080i50 problemlos ein "quasi 1080p25" machen, wenn das Quellmaterial eh nicht mehr als 25 Bilder pro Sekunde hat (zum Beispiel die meisten Serien, Shows oder Filme). Sportübertragungen sind eigentlich das einzige Problem für das Interlace Verfahren.
die bitrate is absoluter müll aber, mit rtx upscaling wär das alles viel schöner
 
Virtramp schrieb:
nein das ist einfach faktisch die maximale auflösung vom auge auf einer bestimmten distanz
Das menschliche Auge (oder Ohr) so zu quantisieren ist einfach quatsch, das hatten wir in der Vergangenheit schon öfters, als ob die auch alle gleich/identisch wären. Ich höre z.B. einen deutlichen unterschied zwischen 16bit/44.1 khz und 24bit/96 khz....
 
In Sachen Dynamik, also den Bits, lasse ich mir das ja eingehen. Aber ich bezweifle, dass Du Töne oberhalb von 22.5kHz wahrnehmen kannst....

Und somit lässt es sich eben doch quantisieren. Es gibt Wahrnehmungsschwellen bei derer Überschreitung kein Nutzen mehr für den User erkennbar ist. Das auch ganz objektiv.
 
  • Gefällt mir
Reaktionen: up.whatever, Mimir und Xes
DayvanCowboy schrieb:
Wahrscheinlich hast du da Recht, es müsste evtl. einen neuen Begriff geben um von der schon recht alten klassischen "Interpolation" abzugrenzen...
Ich weiß nicht, wie sinnvoll das ist. Wenn es eine Interpolation ist, dann sollte man es ja auch so nennen. Mit welcher Technik diese Interpolation genau erzielt wird, ist ja vom Begriff unabhängig. Ein neuer Begriff würde es nur noch weiter verwischen und zu Marketing missbraucht werden. Der Begriff "KI" ist ja schon recht... unpräzise.

Shrekmachine schrieb:
Wenn man aus existierenden Daten Erkenntnisse zieht, die aus der Verschränkung der getrennt vorliegenden Ursprungsdaten, nennt man das vereinfacht auch Data Mining
Data Mining wird eher im Zusammenhang mit großen Datensätzen verwendet. Die Datensätze hier sind ja doch eher klein, vermutlich werden hier einfach die umliegenden Frames benutzt. Also eine Raum-Zeit-Interpolation, wenn man das so nennen möchte.

Shrekmachine schrieb:
Ist in meinen Augen aber alles Haarspalterei. Wir sind hier nicht in einem Wissenschaftsforum.
Nö, aber in einem Enthusiastenforum. :) Da darf man doch mal sich auch detaillierter austauschen.
 
haimarik schrieb:
Data Mining wird eher im Zusammenhang mit großen Datensätzen verwendet. Die Datensätze hier sind ja doch eher klein, [...]
Geht eher darum, dass alle Informationen schon vorliegen, aber durch das "verschränken" der Daten neue Erkenntnisse/Zwischenbilder generiert werden.
haimarik schrieb:
Nö, aber in einem Enthusiastenforum. :) Da darf man doch mal sich auch detaillierter austauschen.
Absolut! Bin ich voll bei Dir.
 
Warum könnt ihr nicht alle erstmal abwarten? So richtig in Aktion wirds ja wohl noch kaum einer gesehen haben, und Werbevideos und was von denn zu halten ist kenne wir ja wohl hier alle zur Genüge.

Es kann super werden, oder auch eher so meeeh. So ganz wissen werden wirs wohl erst wenns komplett erschienen ist.

Ich bilde mir eine Meinung wenn ichs probiert habe, zu dem ist es ja eh noch für umme, zumindest für NVIDIA Nutzer. AMD wird wohl wie üblich iwann nachziehen, da hätte ich bei denen keine Bedenken.
Könnte man, wenn man böse sein wollte, als regelmässigen Ideenklau werten=). Aber nix für ungut, ich finds
spitze dass das von denen gemacht, und so allgemin zugängnlich wird.

Selber erfinden wäre mal nett, dann sehen wir, ob das nächste Mal auch "Die Idee" von AMD frei ist=).
Ne vil. doch lieber so wie immer, dann bräuchte man ja 2 verschiedene GPU´s lol. Lieber nicht.

Grüsse.
 
Am meisten Sinn macht es wahrscheinlich für Porno, seien wir ehrlich.
 
Looniversity schrieb:
Höhere Qualität... Diese Lüge lebt immer weiter. Uprising bleibt upscaling, die Qualität wird nicht besser nur weil es nicht mehr interpolieren heißt, will man Information, die nicht da ist, nicht generieren kann.
Die Infos werden von der KI berechnet. Schau dir auf YT mal alte Serien an die hochskaliert wurden.

Die Skalierung fügt sogar Details ein.
 
  • Gefällt mir
Reaktionen: Relict und painomatic
Looniversity schrieb:
Höhere Qualität... Diese Lüge lebt immer weiter. Uprising bleibt upscaling, die Qualität wird nicht besser nur weil es nicht mehr interpolieren heißt, will man Information, die nicht da ist, nicht generieren kann.
Das stimmt grundsätzlich nur beim reinen Upscaling und nicht bei Super Resolution / Reconstructing Methoden, welche zusätzliche Informationen zum Beispiel aus der temporären Ebene erzeugen (oder diese bei DLSS 1 anhand einer Objekterkennung etc "erträumen"). Sorry aber nach knapp vier Jahren DLSS finde ich erschreckend wie viele hier immer noch nicht wissen wie die Technik funktioniert.
 
  • Gefällt mir
Reaktionen: painomatic
Interessant wäre Features noch mehr, wenn es auch Livestreams hochskalieren könnte auf Nutzerseite, wo die Quelle 1080p oder noch niedriger ausgibt. Videos sind halt nett aber hoffentlich nur der Anfang.
 
Wow, mein 4k Fernseher kann auch in Echtzeit skalieren. Ist da etwa eine RTX drin ?
 
Was soll das?
Ok es ist ein Video, aber von einer Gaming Szene auf die die NVidia KI millionenfach trainiert wurde.
Macht für mich erst Sinn, wenn es mit "normalem" Videomaterial auch gut funktioniert.
Das wird es aber vermutlich lange nicht so gut.

Ich bin aber schon hellhörig, das z.B. Ada Frame Generation ja auch für Videos nutzbar sein soll.
Mich interessieren dann aber eher Auflösungen von 7680x7680 für meine 8K 3D 360° Videos. Die gibt es bisher nur in 30fps.
Bestimmt geht die Spec aber wieder nur bis 8K 2D, wenn es überhaupt jemals in die Praxis umgesetzt wird.
Ergänzung ()

cruse schrieb:
Wenn das auch bei Amazon Prime und netflix funktioniert bin ich sehr begeistert
Und dann gepflegt mit 200-300W PC Power den 20W TV Stick ersetzen ;-)
 
Jetzt neu: Gaming Stromverbrauch beim YT Videos schauen
Ergänzung ()

mxpower schrieb:
Wow, mein 4k Fernseher kann auch in Echtzeit skalieren. Ist da etwa eine RTX drin ?
Da wird nicht skaliert. Darum geht es nicht. Noch mal den Artikel lesen
 
MCCornholio schrieb:
Jetzt neu: Gaming Stromverbrauch beim YT Videos schauen
Ergänzung ()


Da wird nicht skaliert. Darum geht es nicht. Noch mal den Artikel lesen
Dann lies Du mindestens mal die Überschrift:

RTX Video Super Resolution: Nvidia skaliert Videos ...​

 
Es ist halt faktisch falsch von Skalierung zu sprechen. Das steht dann auch im Artikel.
Es geht hier darum das dies mittels neuronaler KI Unterstützung passiert (also mit künstlich hergerechneten Bildern die neu erzeugt werden) und eben nicht mittels "einfachem" hochskalieren von niedrig aufgelösten Videos.
 
MCCornholio schrieb:
mittels neuronaler KI Unterstützung
Warum Technik, so gut sie sein mag, auf ein solches Podest heben? Das heißt gar nichts, außer, dass Marketing das Label "KI" dran geklebt hat.

Das ist lineare Algebra und Analysis, und eine gute Dosis cleverer Informatik um es performant umzusetzen. Intelligent sind die Menschen, die das entwickelt haben, nicht die "KI". Die tut nur was der Code sagt und ist so intelligent wie ein altes Autoradio.
 
Looniversity schrieb:
Warum Technik, so gut sie sein mag, auf ein solches Podest heben?
Wie funktioniert denn die Technik genau und warum sollte man nicht hervorheben, dass sie offensichtlich überlegen ist?

Wie würdest Du denn das Training der KI und des anschließende Auflösen dieser mit einem "starren" Algorithmus auf effektivem Wege erreichen?

Looniversity schrieb:
Das heißt gar nichts, außer, dass Marketing das Label "KI" dran geklebt hat.
Das eine hat mit dem anderen nichts zu tun. Was im Code passiert und was das Marketing daraus macht sind zweierlei Geschichten.

Looniversity schrieb:
Das ist lineare Algebra und Analysis, und eine gute Dosis cleverer Informatik um es performant umzusetzen.
Dann erklär doch mal genau, wie das z.B. in Sachen Superresolution funktioniert und wie das (z.B. DLSS) mit Deinen "einfachen Mitteln" zu bewerkstelligen ist. Den Ansatz mit starren Algorithmen verfolgt AMD mit FSR und man kann sehen, dass die Technik unterlegen ist.

Looniversity schrieb:
Intelligent sind die Menschen, die das entwickelt haben, nicht die "KI". Die tut nur was der Code sagt und ist so intelligent wie ein altes Autoradio.
Dann erkläre mal detailiert, warum das so ist. Was die KI tut, welchen Anteil daran der Code hat und welche Alternative Du exakt vorschlägst.

Warum ich so genau nachhake?
Aufgrund Deiner Aussagen beschleicht mich das Gefühl, dass Du nicht so tief im Thema KI drin bist und Du deshalb mal so die allgemeine negative Pauschalbewertungen- und Aussagen in den Raum wirfst, die man auch in anderen Foren in der Bubble bzw. dem Meinugsverstärker so findet.

Wenn man nämlich erkennen kann, dass Du in der Materie bewandert bist, dann ändert sich die Diskussionsgrundlage durchgängig und auch die Basis auf die sich Deine Bewertung eventuell stützt.
Dann kann man fachlich eine Ebene tiefer gehen und eine gewinnbringende und wirklich interessante Diskussion draus machen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: painomatic und haimarik
Zurück
Oben