News RTX Video Super Resolution: Nvidia skaliert Videos in Chrome in Echtzeit auf 4K

Und genau das ist das wachsende Problem von AMD. Der Konkurrent ist halt nicht nur der marktführende Hardwarehersteller, sondern mittlerweile auch ein sehr heftiger Softwarehersteller.
Das wird in Zukunft nicht leichter werden für AMD 😶
 
  • Gefällt mir
Reaktionen: lokii, Mumbira, Sherman789 und 13 andere
Das sieht tatsächlich nach einem nützlichen Feature aus. Ich bin mal gespannt ob AMD eine eigene Alternative dazu entwickeln wird.
MFG Piet
 
  • Gefällt mir
Reaktionen: Samuelz
Oggy666 schrieb:
ASO! JA! Die Monitore mit ihren monsterauflösungen können ja kein PAL-Video oder kleiner vernünftig darstellen...
Was für ein Boomercringe. Wer braucht heute noch PAL-Video? Das ist ein sehr interessantes Feature mMn, grade wenn man zu wenig Bandbreite hat, oder YouTube irgendwann kein 4k mehr kostenlos ausliefern will, etc
 
  • Gefällt mir
Reaktionen: Mumbira, Kaulin, mdPlusPlus und 9 andere
Interessant, dass sich nach all den Jahren der Verfügbarkeit hier immernoch dier Quatsch hält, dass die aktuell eingesetzte KI irgendwas dazuerfindet oder mit nicht vorhandenen Informationen arbeitet.

Da merkt man wieder- Wenn man dem Stammtisch und der Nachplappergemeinde einmal freien Lauf lässt, verfestigen sich je nach Strömung die Unwahrheiten ziemlich robust.

Oggy666 schrieb:
da braucht's dann schon "KI-Upscaling"... was für ein Müll 🤪
...genau wie dieser DLSS-Mist - sowas braucht kein Mensch bitte...

@Oggy666
Dann erklär doch mal bitte "warum" DLSS & co. oder jetzt diese Technik hier GENAU Mist sein soll? Welche substanziellen Nachteile erhältst Du dadurch?

Und bitte erkläre mir, wie DLSS & co. funktionieren, welchen Anteil daran die künstliche Intelligenz hat, welche Vorteile man sich durch den Einsatz der KI verspricht und wie das Inferencing bei bei RTX Super Resolution aussieht.

Wir sind ja hier schließlich in einem Forum, in welchem man Diskutiert und auch einen gewissen Informationsgewinn erzielen will. Für Platitünden und aktuelle Gefühlsregungen hat man ja Twitter erfunden.
 
  • Gefällt mir
Reaktionen: LDNV, Mumbira, brauna1 und 25 andere
@PietVanOwl
Davon gehe ich aus. Wahrscheinlich ist dort ähnliches bereits in Entwicklung (oder man wird nun hastig damit beginnen).
Es würde mich nicht überraschen, wenn man es einige Wochen später ankündigt und ein halbes Jahr später veröffentlicht. Qualitativ wird es wahrscheinlich nicht genauso gut sein anfänglich, dafür wird es auch für andere Browser integrierbar aufgrund eines offenen Standards.

Reine Spekulation.



Wenn das Ergebnis optisch besser aussieht als das Quellmaterial wäre das ein tolles Feature - ich bin gespannt. Anfangs war ich von DLSS nicht überzeugt, mittlerweile nutze ich es sehr gerne. Der Umstieg vom UWQHD Monitor auf einen UHD hat dies allerdings begünstigt, auf dem UHD wirkt DLSS Qualität deutlich besser als bei geringerer nativer Auflösung.


@.Sentinel.
Mein Tipp: Solche Beiträge sollte einfach jeder ignorieren - sie sind keine Reaktion wert. Jedes Mal, wenn jemand schreibt "...braucht kein Mensch" disqualifiziert dies den Schreiber für sämtliche Diskussion, da sie hinter irgendwelchen Gedankenschranken sitzen und sich für den Mittelpunkt der Welt halten - da helfen auch keine Argumente. Es gibt noch keine KI, die komische Forenbeiträge aufwertet.
 
  • Gefällt mir
Reaktionen: LDNV, Mumbira, GenjuroKibagami und 10 andere
Bulletchief schrieb:
Und genau das ist das wachsende Problem von AMD. Der Konkurrent ist halt nicht nur der marktführende Hardwarehersteller, sondern mittlerweile auch ein sehr heftiger Softwarehersteller.
Das wird in Zukunft nicht leichter werden für AMD 😶
Genau das übersehen viele.

Vermutlich betrachten die meisten Nutzer einen Großteil von Nvidias Features und Software-Vorteilen als überflüssig, aber je mehr sie davon haben, desto wahrscheinlicher wird es, dass mindestens eins davon doch relevant für dich wird.

  • besseres RT.
  • DLSS + Frame Generation.
  • bessere Leistung in den ganzen DX9/DX11 E-Sports Games, die nach wie vor mehr Spieler haben als fast jedes AAA Game.
  • Nvidia Reflex.
  • Nvidia Broadcast.
  • Breiter unterstütztes und qualitativ überlegenes Encoding mit Nvenc.
  • CUDA, OptiX + allgemein viel besserer Support in Anwendungen. Oft werden AMD Karten erst Monate später unterstützt und die Performance ist nicht vergleichbar oder instabil/buggy.
  • usw.

Nvidia hat durchaus auch Vorteile über die Jahre verloren, man denke an natives G-Sync, was mehr oder weniger im Sterben liegt und kaum noch Sinn ergibt, PhysX oder HairWorks, aber dafür kamen eben auch neue Features hinzu.
 
  • Gefällt mir
Reaktionen: LDNV, Eisenoxid, Mumbira und 10 andere
TøxicGhøst schrieb:
Topaz Video AI ist mega lahm.
Bringt aber bisher die mit Abstand besten Ergebnisse.
Alles andere was ich an Video-Upscalern , die ich bisher gesehen habe, hat nur sehr wenig an der Qualität verbessert. Ich bin echt gespannt ob das mit Nvidias eigener Lösung hier deutlich besser wird.

Looniversity schrieb:
Man kann Bilder perfekt "skalieren", aber das ist dann zwangsläufig der gleiche Aufwand für DLSS etc wie es direkt so zu rendern (man hätte nur eine ganz andere Renderpipeline). Alles andere kann nicht das gleiche Ergebnis liefern.
Es muss auch gar nicht das exakt gleiche Ergebnis liefern:
Was am Ende zählt ist das Bild, was beim User auf dem Monitor angezeigt wird. Hier kann Ki Bildgenerierung potentiell sogar besser als nativ sein/werden, wenn das Spiel beispielsweise nur lowres Texturen anbietet, welche die Ki in höherer Qualität generiert/verbessert und zeigt. Gleiches gilt für feine Details welche die Ki selbst mit einer niedrigen Grundauflösung in besserer Qualität erstellen kann, als sie in einer nativen, höheren Auflösung dargestellt werden würden.

Dass dies Stand heute, wo die Technologie noch mehr oder weniger in den Kinderschuhen steckt, noch nicht perfekt funktioniert sollte klar sein. Aber nach allem was wir schon heute sehen konnten, (und wie verhältnismäßig effizient das sogar schon läuft), sollte es auch klar sein, dass Ki-Bildgenerierung + niedrigere Grundauflösung der Berechnung in nativer Auflösung zukünftig immer näher kommen wird und in bestimmten Szenarien sogar bessere Ergebnisse erzielen kann.
 
  • Gefällt mir
Reaktionen: LDNV, lokii, TøxicGhøst und eine weitere Person
Bei Twitch sinds eher Artefakte als Unschärfe..
Hätte ich nicht bereits grün verbaut, würde ich spätestens für RTX Video Super Resolution zu grün wechseln.
 
  • Gefällt mir
Reaktionen: Lübke82
GM206 schrieb:
Unscharfe Textur und Ghosting. :volllol:
Ein Ansatz zu diskutieren. Sehr gut.

1. Zu den Texturen aus dem Entwicklerguide von nVidia:
1673079190199.png


Die Formel:
Mip bias = Native bias + Log2(Render Res/Native Res)

Bedeutet so viel als dass die Texturen unbehandelt durch den Algorithmus geschleust werden sollen.
Somit liegt es nicht an DLSS, wenn Unschärfen bezüglich von Texturen entstehen, sondern am Entwickler, der DLSS nicht korrekt integriert bzw. die obenstehende Formel nicht berücksichtigt.

2. Ghosting
Auch hierzu gibt es eine ausführliche Troubleshooting Sektion im Entwicklerguide.
Ghosting bei DLSS und FSR findet vornehmlich statt, wenn man Objekte auf dem Screen nicht sauber berechnet und mit irgendwelchen Tricks ohne Tiefeninformation (z- buffer) oder Motionvektoren versieht.

Auch hier liegt eine Fehldarstellung nicht an der Technik selbst, sondern an der Integration.

Somit hast Du letztendlich nur die möglichen Folgen einer Fehlintegration der Technik aufgezählt, nicht jedoch die Nachteile der Technik selbst.

Dadurch kann ich z.B. schon valide Nachteile erkennen, auch wenn sie nicht den User betreffen:.
-Und zwar z.B. dass die korrekte Implementation Sorgfalt erfordert.
-Und zweitens z.B. dass man, wenn man diese Technik einsetzen möchte, möglichst auf 2D Screenspace- Pfuschereien bei der Entwicklung des Titels verzichten sollte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mumbira, cruse, Master_Chief_87 und 8 andere
Looniversity schrieb:
Höhere Qualität... Diese Lüge lebt immer weiter. Uprising bleibt upscaling, die Qualität wird nicht besser nur weil es nicht mehr interpolieren heißt, will man Information, die nicht da ist, nicht generieren kann.
Wenn das Ergebnis auf nem 4k Monitor am Ende besser aussieht, ist mir egal welchen Namen die dem Kind geben.
 
  • Gefällt mir
Reaktionen: Mumbira, Sherman789, Ragnarök88 und 8 andere
Copy&paste AMD wird mal wieder mit copy&paste nachziehen und dafür gefeiert. NVIDIA kriegt dann eins auf Maul. Wie immer rettet am Ende AMD die Welt vor bösem grün.
 
  • Gefällt mir
Reaktionen: Mumbira, Ragnarök88 und Khalinor
Ich finde es voll KNORKE und das Video "spricht" Bände ... :daumen:

MfG Föhn.
 
  • Gefällt mir
Reaktionen: Bert
ragnarok666 schrieb:
Fuer Echtzeit-Upscaleing kenne und verwende ich Anime4K, was mit Animationsinhalten sehr gute Ergebnisse liefert.
Funktioniert das nur bei lokalen Videodateien oder auch über den Browser?
 
mattberlin schrieb:
Am Ende zählt doch, wie es der Nutzer wahrnimmt, egal ob fake oder nicht
Ja, logisch. Auch "echtes" Rendering ist ja am Ende des Tages "nur" ein Fake-Bild, wenn auch ein extrem ausgefeiltes. Das ist auch nichts schlechtes, sondern eine Notwendigkeit.

Mich stört hier einerseits das Marketing, das suggeriert, man könnte mit weniger Rechenaufwand aus altem Bildmaterial viel mehr rausholen als drin ist (man kann Pixel berechnen, aber nicht das, was der Kamerasensor dort nicht gesehen hat), und andererseits, dass es Menschen gibt, die das als Tatsache glauben und weiter verbreiten.

Letzteres heißt explizit nicht, dass Mensch Ergebnisse von Upscaling nicht gut/ausreichend/präferierbar finden dürfte - das ist jedem selbst überlassen und Geschmackssache. Wer gerne mit DLSS spielt und das vergnüglicher findet als nativ oder mit geringerer Auflösung - bitteschön, um so besser! Die Diskussion über die Wahl für/wider Upscaling sollte bloß bewusst und ehrlich stattfinden, und nicht so tun, als könnten mathematisch unmögliche Ergebnisse erzielt werden. Allzu oft habe ich den Eindruck, dass die Farbe des Herstellers wichtiger ist als die Möglichkeiten und Limitierungen der Technik. Das ist alles.
k0ntr schrieb:
höhere vorgetäuschte qualität :D
Ja, aber unironisch. Wie gesagt - das ist erstmal nichts schlechtes, ein gerendertes Spiel oder natives Filmmaterial ist ebenso Make-Believe, allenfalls in einer anderen Geschmacksrichtung als Upscaling. Bloß wird gerade Upscaling als allzu leistungsfähig dargestellt (vielleicht weil es ein shiny new toy ist?) und, anstatt es kritisch zu hinterfragen und entsprechend zu würdigen, mit überschwänglichem Technik-Enthusiasmus gegen jeden Hinweis auf Fähigkeiten und Grenzen verteidigt.

(Randnotiz: Als ob die GPU-Hersteller die Nutzer als Marketingmenschen bräuchten, das können die auch selbst sehr gut. Aber das ist ein anderes Thema.)
 
Wie immer ist die erste Reaktion einer gefühlten Mehrheit grundsätzlich negativ... Muss wohl erst extra Geld kosten? RT wurde auch verrissen, heute geht es nicht mehr ohne.
Ich finde die Idee grundsätzlich gut, und bin mir sicher, dass es mehr Vorteile hat. Hoffentlich läuft das vollständig lokal ab. Braucht keiner wissen, was man alles anschaut :D
 
  • Gefällt mir
Reaktionen: Ragnarök88 und Khalinor
Looniversity schrieb:
Mich stört hier einerseits das Marketing, das suggeriert, man könnte mit weniger Rechenaufwand aus altem Bildmaterial viel mehr rausholen als drin ist
Im Gegenteil- Man wirbt ja damit, dass durch die RTX Karten endlich die Rechenleistung da ist, das ganze ordentlich in realtime laufen zu lassen.
Looniversity schrieb:
(man kann Pixel berechnen, aber nicht das, was der Kamerasensor dort nicht gesehen hat), und andererseits, dass es Menschen gibt, die das als Tatsache glauben und weiter verbreiten.
Da der Kamerasensor in zwei darauffolgenden Bildern aber mehr Information erfassen kann, kann man diese Information bei Filmen verwenden, um die Bilder gegenseitig zu ergänzen.

Looniversity schrieb:
Letzteres heißt explizit nicht, dass Mensch Ergebnisse von Upscaling nicht gut/ausreichend/präferierbar finden dürfte - das ist jedem selbst überlassen und Geschmackssache.
Es gibt objektiv dem Punkt an dem es eben keine Geschmackssache mehr ist. Enthält das hochgerechnete Bild mehr bzw. korrektere Information als das Ursprungsbild, ist es grundsätzlich als überlegen anzusehen.
Looniversity schrieb:
Wer gerne mit DLSS spielt und das vergnüglicher findet als nativ oder mit geringerer Auflösung - bitteschön, um so besser!
Auch hier- Welche Nachteile entstehen durch DLSS und welche Vorteile stehen dem gegnüber.
Looniversity schrieb:
Die Diskussion über die Wahl für/wider Upscaling sollte bloß bewusst und ehrlich stattfinden, und nicht so tun, als könnten mathematisch unmögliche Ergebnisse erzielt werden.
Auf welche mathematischen Ergebnisse beziehst Du Dich hier?

Looniversity schrieb:
Allzu oft habe ich den Eindruck, dass die Farbe des Herstellers wichtiger ist als die Möglichkeiten und Limitierungen der Technik. Das ist alles.
Da stimme ich uneingeschränkt zu.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ragnarök88, MoinWoll und Shrekmachine
Meine Empfehlung alte unscharfe Nokia Alben mit ieinem Google Pixel bearbeiten lassen. RTX Video Super Resolution wird vermutlich ähnlich spektakulär. Zauberei
 
  • Gefällt mir
Reaktionen: hanjef
Zurück
Oben