Test Nvidia Broadcast 2.0 im Test: Die neue KI-Studio-Sprachaufnahme ausprobiert

Erinnert mich an alte Versprechen. Scheint heute mit dem Hinweis auf KI immer noch zu funktionieren. ^^
1000003746.jpg
 
  • Gefällt mir
Reaktionen: FR3DI, Onkelpappe, SVΞN und eine weitere Person
Hört sich definitiv stark anders an. Die Frage ist auch wie gut der Raum ist, richtige Störgeräusche hat man ja auch ohne KI nicht gehört.

Was mich da eher stört, man hat überhaupt keine Einstellungen und man muss später mit dem Ergebnis leben. Heißt eigentlich, wäre es ja viel besser die Original-Aufnahme einfach später zu bearbeiten.

Dann kann man auch die ganzen Effekte / KI-Effekte noch anwenden, aber eben gezielt. Adobe hat auch einen KI-Sprachverbesserer, aber da kann man alles möglich einstellen und z.B. auch die Unterstützung von 1-10. Heißt bei 8 geht es eher in Roboterhafte, Stufe 4 kann aber ein Improvement bringen, wo die eigene Stimme nicht verschwindet.

-> Anwendungszweck? Eigentlich dadurch "LIVE-Sachen", aber gerade da sagt ja Nvidia, dass man nicht viel Last haben darf, also z.B. keine Spiele. Wenn man aber etwas für später aufnimmt, dann kann man auch später nachbearbeiten und den Effekt drauflegen. Übrigens dann auch mit jeder Hardware, weil es einfach etwas länger dauern kann.
 
Audiotests sollten immer blind stattfinden, da man hier schon vorab eine Meinung hat, insbesondere, wenn der Text dazu die Meinung schon impliziert und eine Marke im Spiel ist.

Ich finde das Ergebnis durchwachsen, denke aber dass das Feature eben nicht dafür da ist quasi Studio-Qualität in Studio-Qualität™ zu wandeln. Eure Quellen, egal welche Stimme oder welches Mikrofon, sind ja dennoch schon sehr hochwertig, ich kenne da aus meinen Teams-Sitzungen und Discord-Sessions ganz anderes.

Es wäre für mich definitiv kein Kaufgrund, da würde ich das Geld eher in eine sehr gute Aufnahmeausstattung stecken, wenn das mein Feld wäre. Für den normalen Chat tut das Broadcast Noise Removal noch immer einen guten Job, knirschende Kartoffelchips, die mechanische Tastatur oder die Mikroschalter der Maus sind damit erst mal aus jedem Chat verbannt.

Schöne wäre, wenn NVIDIA Broadcast ein Modul für eigene VST Plugins einbinden würde, da wäre mehr möglich :)

Eventuell solltet ihr das noch mal unter richtig schlechten Bedingungen testen, offenes Fenster mit Verkehrslärm, Vogelgezwitscher und spielende Kinder im Park oder so und schauen ob dann immer noch diese seichte KI faltenfrei gebügelte "Studio" Konserve bei rauskommt.

Danke für den Test.
 
Klingt ähnlich wie das enhanced Speech von Adobe. Zur Restauration wirklich ekelhafter Audio-Files kann man das schon mal mit reinmischen, aber so solo und live, wie es hier verwendet wurde imho völlig unbrauchbar. Man hört die KI und den Müll, den sie teilweise anstellt einfach alle paar Sekunden raus. Damit das brauchbar sein kann, brauchts mehr Einstellungsmöglichkeiten. Dann ist es aber auch nur zu empfehlen, wenn man den Nachhall im Raum nicht in den Griff bekommen darf/will und Geld für nen 50€ USB-Mikrofon fehlt, welches natürlich auch von "High-End Studio" meilenweit entfernt ist, aber trotzdem besser als die KI-Hilfe. Im Test mit dem Rode wäre ersteres (der Raum) das Problem (Klingt als wäre er nen halben Meter weit weg, aber wahrscheinlich ist einfach der Raum zu kahl).
 
bei der nativen Aufnahme sind viel mehr "Schmatz"(?)-Geräusche als sonst im Podcast enthalten.
Werden die normalerweise von Broadcast 1.x gefiltert?

Die Stimme + Broadcast 2.0 in hört sich "professioneller" an, ich kann aber nicht einschätzen, ob die merkwürdige "Melodie" gegen Ende vom Sprecher kommt oder von der AI erfunden wurde.

Hilfreich zum vergleichen wäre es gewesen, die gleiche Aufnahme zeitgleich mit 2 Mikrophonen zu machen, oder die native Aufnahme postum durch Nvidia Studio zu schicken, damit man den Output zweier identischer Inputs vergleichen kann.
 
  • Gefällt mir
Reaktionen: Spawn182 und Xidus
Ich finde bei dem Hörbeispiel das native um welten besser um ehrlich zu sein. Das ist keine Verbesserung das hört sich sogar schlechter an.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und rhewa
Hört sich knödelig an. Da gibt es noch viel Bedarf an Verbesserungen.
 
  • Gefällt mir
Reaktionen: OpenSystemFan
Ich glaube es wäre interessant gewesen die Aufnahmen in Räumen zu vollziehen die akkustisch einfach mies sind.
 
Hört sich mit meinem Audio Technica AT2035 an einem Volt 1 Interface absolut scheiße an.
 
Bei der günstigen Aufnahmetechnik finde ich es besser. Bei den anderen lohnt es sich nicht wirklich. Es ist zwar anders aber nicht unbedingt besser. Die sind aber auch schon gut.

Mich würde eher interessieren wie es sich anhört wenn es Störgeräusche gibt, z.B:
  • TV im Hintergrund
  • Staubsauger nebenann
  • Baustelle draußen
  • Ventilator auf dem Tisch
  • Tippgeräusche (nebenbei Text auf Tastatur schreiben)
  • Stuhl knarrt und quietscht wenn sich der Sprecher bewegt
 
  • Gefällt mir
Reaktionen: Nahkampfschaf, Das MatZe und Xidus
Das meiner Meinung nach einzige brauchbare neue Feature in Broadcast 2.0 ist die neue künstliche Belichtung der Webcam. Aber nur dieser eine Effekt benötigt auf meiner RTX 4070 Ti knapp 300 Watt zusätzlich zu den beiden anderen Effekten (ich nutze Broadcast für die Webcam schon seit Jahren, bisher halt nur die "Auto Zoom" und "Hintergrund ersetzen" Funktion). Da verzichte ich doch lieber :D
 
  • Gefällt mir
Reaktionen: fox40phil
Das beste an dem Artikel ist der Hinweis auf das 44€ Mikro. Endlich habe ich mal ein vernünftiges Zuhause, danke :D
 
Frage mich eher wofür die Masse so was braucht, ich jedenfalls nicht. Besonders Ausgegoren hört sich das nicht an.
 
Quidproquo77 schrieb:
Hört sich knödelig an.
knödelig ist das Wort, nach dem man immer verzweifelt sucht. Danke!
 
  • Gefällt mir
Reaktionen: Nahkampfschaf
Find die Broadcast Aufnahmen klingen deutlich besser und professioneller. Die könnte ich mir in einem Podcast gut vorstellen. Die nativen Aufnahmen hingegen klingen sehr... amateurhaft, und irgendwie nach typischer Voicechat-Qualität.
 
  • Gefällt mir
Reaktionen: EMkaEL
Sweepi schrieb:
bei der nativen Aufnahme sind viel mehr "Schmatz"(?)-Geräusche als sonst im Podcast enthalten.
Werden die normalerweise von Broadcast 1.x gefiltert?
Mein Tipp wäre:
Kaffee.

Also ganz ohne Witz.
Es wird vor Vorträgen, Podcasts und ähnlichem davon abgeraten, Kaffee zu trinken, da der Schmatzgeräusche begünstigt. Was hier für nen kurzen Test vermutlich ziemlich irrelevant war/ist. :D


S.Kara schrieb:
Mich würde eher interessieren wie es sich anhört wenn es Störgeräusche gibt, z.B:
  • TV im Hintergrund
  • Staubsauger nebenann
  • Baustelle draußen
  • Ventilator auf dem Tisch
  • Tippgeräusche (nebenbei Text auf Tastatur schreiben)
  • Stuhl knarrt und quietscht wenn sich der Sprecher bewegt
This.

@Vitche ich würde auch vermuten, dass eure Umgebung zu clean war und man deshalb - so finde ich - in allen drei Varianten eine sehr gute Sprachverständlichkeit in der Rohfassung hat. Insofern bietet das Nvidia KI-Gedöns hier keinen Mehrwert, die Sprache hört sich einfach nur anders an.
Spannend wird's, wenn die Distanz zwischen Sprecher und Mikrofon (zu) groß wird, ergo der SNR immer schlechter durch ganz natürlichen Raumhall oder eben bedingt durch äußere Störeinflüsse wie oben von @S.Kara geschildert.
Vielleicht sogar noch ergänzt durch schwierigere Faktoren wie spielende Kinder oder gar andere Personen im gleichen Raum, die auch sprechen.
 
  • Gefällt mir
Reaktionen: Nahkampfschaf
Finde die Rauschünderückung jetzt nicht sehr berauschend (höhö). Ein gut eingerichtetes Shotgun mic ist da wahrscheinlich viel besser.
 
Ich mische Dialog für Synchron/TV/Film/Spiele. Hier ein kleiner Versuch was auf die Schnelle jemand vom Fach hiermit machen würde.

Audio Anhang ist Opus 64kbit/Kanal - 201 kByte und geht aus dem Beispiel des günstigen Ansteckmikrofons hervor. Es wurde versucht es in etwa gleich laut wie das Original zu gestalten um einen guten Vergleich herstellen zu können.

Ich finde dieses NVidia Broadcast 2 ist ein Fortschritt aber noch nicht ausgereift. Besser als es nicht zu haben mit kleinen Schönheitsfehlern, und wenn ich ehrlich sein soll auch etwas anspruchsvoll was die Resourcen angeht.

Meine Methode ist auch nicht ganz ohne. Allerdings schluckt das ganze etwa 35% eines 5950X CPU Kerns, was wohl etwas effizienter ist.

Ich bin gespannt auf die nächste Version, denn schlechter wird es meistens nicht.
 

Anhänge

Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Der Nachbar, Das MatZe und Nahkampfschaf
Zurück
Oben