News RTX Voice Beta: Nvidia filtert Geräusche per GPU und Deep Learning

Aha, also eine Filterung nach der Aufnahme.
 
@SV3N
Phear reicht ;)

Ich habe es seit gestern in Benutzung und es funktioniert wirklich schon gut. Die Stimme klingt minimal dumpfer, aber es wird wirklich komplett die Tastatur rausgefiltert. Also ohne zu reden hört man die Tastatur gar nicht mehr. Selbst wenn man bewusst auf die Tasten hämmert.
Hier hat es auch jemand mit einem Staubsauger getestet ;)
 
  • Gefällt mir
Reaktionen: CMDCake, teivos, EMkaEL und 11 andere
Warum wird TeamSpeak nicht mit aufgelistet? Obwohl es glaube nicht mal nötig sein wird. TeamSpeak filtert sowieso schon fast perfekt alles raus. Da kann Discord nicht mit halten.
 
  • Gefällt mir
Reaktionen: Layer8 und GINAC
seas888 schrieb:
Mich würde interessieren wieviel leistung das kostet. Ein Test wäre hier echt super!
CS:Go ist jetzt nicht wirklich herausfordernd. Aber in 3440*1440 mit maximalen Details kann die RTX 2080 Ti problemlos das Spiel rendern als auch auf den Tensor Cores mit voller Last Folding @ Home betreiben. Spaßeshalber lief Folding@Home auch noch mit voller Last auf der Hälfte der 12 Ryzen 3900X Cores.

Da selbst ein Airpod Geräuschunterdrückung betreiben kann, dürfte der Leistungsverlust auf einer RTX Grafikkarte unmerklich sein.
 
Akkulaus schrieb:
TeamSpeak filtert sowieso schon fast perfekt alles raus.

Da haben wir scheinbar verschiedene Versionen. Laute Tastaturen, Störgeräusche vom Handy, Mutti, die zum essen ruft, kommt meiner Erfahrung nach alles durch.
 
  • Gefällt mir
Reaktionen: Devorra, Cool Master, s0UL1 und 9 andere
Akkulaus schrieb:
Warum wird TeamSpeak nicht mit aufgelistet? Obwohl es glaube nicht mal nötig sein wird. TeamSpeak filtert sowieso schon fast perfekt alles raus. Da kann Discord nicht mit halten.


das neue "KRISP" in Discord funktioniert eigentlich ziemlich gut
 
  • Gefällt mir
Reaktionen: Ko3nich
Kann ich so was von gebrauchen. Hab's sofort installiert. Danke @SV3N für den Artikel.
 
  • Gefällt mir
Reaktionen: SVΞN
Hmpf, da hat man sich arrangiert, die Unikonferenzen nächste Woche mit dem Laptop zu machen, und dann bringt NV solch Feature raus.

Coole Sache.
 
Die meisten guten Headset Micros haben das Feature doch standardmäßig in der Hardware und bei Teamspeak, Discord usw. kann man das auch Software Seitig schon seit Dekaden einstellen....usw.
 
Aufgenommene und Wiedergegebene? Also auch wenn Jemand anderes nen Schrott Mikro hat oder mit Lautsprechern spielt? Das wäre ja der absolute Wahnsinn. Wie oft schon hab ich andere ermahnt, dass sie ins Mikro atmen oder man ihre Tastatur wieder hört, etc... nur damit es 10 Minuten später wieder anfängt. Gibt Leute mit denen ich gar nicht mehr spielen will nur wegen sowas.
(Aufgenommen ist mir egal, mein Setup ist in der Hinsicht schon top, aber auch erst nach stundenlangem Positionieren und Einstellen)
 
  • Gefällt mir
Reaktionen: CMDCake und alkaAdeluxx
dienst schrieb:
Cool, könnt ihr das Mal testen? 🙂

Ich glaube, dass das in der Beta noch zu früh kommt. Später könnte das aber durchaus interessant werden.
 
  • Gefällt mir
Reaktionen: dienst
Warum hat eigentlich noch keiner was mit Gegenschall im Rechnergehäuse gemacht?
Fände ich sinnvoller. :D
 
Ich habs gerade bei mir ausprobiert (RTX 2070 Super; Beyerdynamic MMX300, Soundblaster AE-7) und funktioniert echt sehr gut: Stimme bleibt sehr authentisch (nicht dumpf) und auch Stögeräusche wie Wind/Pusten auf das Mikrofon sind fast nicht mehr zu hören. Es lassen sich auch alle anderen Tonquellen-Filtern, sodass auch beim schauen von Videos und Co. die Stimmen herausfiltern lassen.
 
Botcruscher schrieb:
Vor allem existieren im Homeoffice sonst keine Störgeräusche. Das "Mama gib mir mal die Buntstifte" meiner Kollegin bekommt die Software zu 100% nicht weg.

Keine Störgeräusche im Homeoffice? Hängt wohl sehr von der situation ab. ich teile mir mit meinem Freund beispielsweise ein Büro im Homeoffice. Da hat die Idee schon einiges an potential.

Enurian schrieb:
Nette Idee für Discord & Co, aber der Einsatzort Homeoffice ist doch an den Haaren herbeigezogen. Eine Gaminggrafikkarte im Arbeitsgerät dürfte wohl die absolute Ausnahme sein.

Es muss ja keine Gamergrafikkarte sein, sondern eine Grafikkarte mit Tensorcores. Diese werden nach und nach auf allen Grafikkarten verfügbar sein. Wir stehen hier ja noch am Anfang. Aber im Homoffice ist das auch nicht abwegig. Ich kann zu hause Remote von meinem privaten rechner aus arbeiten, mein freund macht das auch so. Ansonsten hat mein Firmennotebook eine Quadro Grafikkarte verbaut und auch in der Quadro Serie bekommen alle Chips nach und nach die tensor cores.

Botcruscher schrieb:
Überhaupt etwas können außer RT ist der Punkt. Die Dinger fressen dir gut Chipfläche die dich kostet aber sonst sind sie nutzlos.

Nutzlos? Nur weil du damit nichts anfangen kannst? Kenne ein Zwei Entwickler aus der DL Szene die sich ziemlich über Ihre Turing Grafikkarte freuen. Genau hier liegt eines der größten Zukünftigen Felder in Wirtschaft und Technik. Kann man als nutzlos ansehen, zeugt aber nicht gerade von Weitblick. Ist lustig, wenn man sich mal alte News und Kommentare zu Nvidia anschaut.

Vor 10 Jahren haben alle darüber gemeckert, dass Nvidia sich bei den GPUs so stark auf den Computebereich konzentriert. Das bringt doch nichts, sie sollen sich rein auf Gamer konzentrieren, ansonsten sind die in ein paar jahren Pleite. Cuda braucht doch keiner... Tja und nun ist Cuda ein Branchenstandard geworden, GPU Computing ist einer der wichtigsten Schlüssel in Wissenschaft, Technik und Forschung und es hat sich ein Milliardenmarkt daraus ergeben.

Ja beim daddeln nützen dir die Tensor Cores aktuell noch nicht so viel, wobei sich das ja mit der neuen DLSS Version auch geändert hat. Und was man bis jetzt gesehen hat ist ziemlich vielversprechend. Teilweise liefert DLSS ein besseres Bild, als die native Auflösung. Wenn man dem ganzen noch ein wenig Entwicklungszeit gibt, könnte das Feature für viele nahezu unverzichtbar sein.

Aber so ist das auf CB immer bei einer neuen Technik. Braucht keiner, zu teuer, ist nicht von AMD... immer das gleiche.
 
  • Gefällt mir
Reaktionen: CMDCake, e_Lap, Andybmf und 10 andere
Es gibt auch ein SDK, mit dem es zukünftig möglich sein soll, aufgenommene Audiospuren nachträglich zu filtern.

Wie oft hat man bei Außenaufnahmen Störgeräusche durch Wind, Fahrzeuge usw. in der Spur? Wenn das gut funktioniert, ist die Funktion alles andere als eine bloße Spielerei.
 
Ohne mich weiter einlesen zu wollen:
Wird das Audiosignal von der Soundkarte an die GraKa geschickt, dort gefiltert und dann an die Empfänger geschickt?

Wie gut ist der Sound der Grafikkarte direkt? Die wollen ja immer Soundtreiber installieren.

Hab mich damit noch gar nicht beschäftigt.
 
Ich nehme doch mal an, dass auch wirklich die GPU genutzt wird. GPUs können aber keinen "Sound" wie du es dir jetzt wahrscheinlich vorstellst. Digitale Signale können nicht einfach so auf Lautsprechern ohne Wandlung ausgegeben werden. Und digitale Signale sind Qualitativ immer gleich, egal auf welchem Gerät diese sich befinden. Erst bei/nach der Wandlung in Analoge Signale gibt es Qualitätsunterschiede, die von dem Konverter, Kabel, Umwelteinflüsse, etc... abhängen.

Anstatt, dass das Audiosignal nun über die CPU geht, geht es halt über GPU (oder teils CPU, teils GPU) und dann anschließend zur Soundkarte oder ähnlichem zur Wandlung.
 
Zurück
Oben