News Nvidia RTX Voice: Sehr gute Ergebnisse, aber es reicht auch GeForce GTX

Phobos1083 schrieb:
Die beste Geräuschunterdrückung in TS/Discord & co wäre simples "Push to Talk".
Aber da den meisten dieses zu mühsam (lel) ist, brauchen sie eben ein trainiertes RTX Voice, was natürlich Leistung kostet.
Muss ich nicht verstehen, wobei.... Ich profitiere als Verfechter des Push to Talk davon ja auch....
Push to talk ist für mich z.B. nix, wenn ich beim gemütlichen zocken mit meinem Kollegen quatschen will dann will ich nicht nonstop die Taste drücken müssen. Vondaher ist RTX Voice doch ne tolle Alternative. Ich hab ein Steelseries Arctis Pro was gut eingestellt und wenn man dann z.B. noch Teamspeak und Discord gescheit einstellt gibts auch keine Probleme mit VA :-P

Aber ja du hast das kriegen leider viele nicht richtig hin. Denen könnte RTX Voice helfen :-)
 
Herdware schrieb:
Das klingt für mich zunächst durchaus nach einer logischen Erklärung dafür, dass die AI-basierte Software nur auf RTX-Karten laufen könnte. Dass das nicht zutrifft, ist also doch eine gewisse Überraschung.

Der Wortlaut ist hier wichtig:

Nvidia hat die der Software zugrunde liegenden Algorithmen per Deep Learning trainiert und [...]

Man kann es also so lesen, dass die Algorithmen zwar mit "Deep Learning" optimiert wurde, selbst aber nicht zwangsläufig eine Soft-/Hardware Optimierung dafür voraussetzt.

Plus, "Deep Learning" läuft ja normal auch auf jeder GPU/CPU, wieso sollte es also nicht auf älteren GPUs funktionieren? Klar wird da die fehlende Optimierung für etwas weniger Effizienz sorgen aber bei der Menge an Daten, die durch deine Stimme anfallen, musste es am Ende ja zu einem hier dokumentierten Resultat kommen.
 
Da hat das Marketing wieder zugeschlagen. Genau wie bei physx damals. Es war mal kein Problem eine amd Karte für die Grafik und eine NV für Physik zu nutzen bis die "Treiberkeule" kam.
 
  • Gefällt mir
Reaktionen: Looniversity
Die Idee ist super, das Ergebnis der samples von CB auch.
Der einzige Haken daran ist, dass die meisten Leute zu Hause mit dem Laptop arbeiten, von dem Chef noch schnell und billig 10 Stück beim Versand/Systemhaus bekommen konnte. Da ist nix mit RTX, mit irgendeinem dedizierten Grafikchip hat man da schon "Glück". Die Leute, die Leistung brauchen, sind in der Masse des Büroalltags echt überschaubar.

Bright0001 schrieb:
Die Leute sitzen in Massen im Home Office und arbeiten Remote, man bringt ein Feature das wunderbar auf CUDA-Karten funktioniert und - oh schreck - es läuft nur auf RTX Karten? Und warum, weil "DiE GaMIng PeRforMaNce" nicht gut genug ist? Wers glaubt.
 
Vitche schrieb:
Hast du: Bei ANC weiß das unterdrückende Gerät ja ganz genau, was nicht unterdrückt werden soll, weil es die entsprechenden Geräusche selbst erzeugt. ...

Ah, danke. Ja so macht das dann auch für mich Sinn
 
DonDonat schrieb:
Man kann es also so lesen, dass die Algorithmen zwar mit "Deep Learning" optimiert wurde, selbst aber nicht zwangsläufig eine Soft-/Hardware Optimierung dafür voraussetzt.

Wenn ich das nicht falsch verstanden habe, ist das bei DLSS auch so. Auch da wird das eigentliche AI-Training für die Spiele in Nvidias-Rechenzentren gemacht und diese Daten dann in den Treibern implemetiert. Trotzdem werden wohl noch zusätzlich die Tensor-Cores der Turing-GPUs benötigt, im diese vorab angelernte AI lokal anzuwenden.

Es hätte also auch bei dieser Voice-Anwendung so laufen können, aber scheinbar geht es in dem Fall auch ganz ohne Tensor-Cores beim Anwender.
 
Deep Learning ist im Wesentlichen auch nur lineare Algebra und Analysis, und nicht schwarze Magie. Je mehr, desto besser. Das Ergebnis des Trainings gibt dann einen Filter, den man auch auf normaler Hardware laufen lassen kann. Die Trainingsbibliotheken können (sollten) aber sehr groß sein. Je nach dem wie der Filter dann aussieht kann der auch auf einer CPU sehr gut laufen oder trotzdem echt unhandlich sein, wenn er nicht auf den Tensorcores läuft. Manches kann man auch anpassen/portieren, aber das ist eklige Arbeit.

DonDonat schrieb:
Man kann es also so lesen, dass die Algorithmen zwar mit "Deep Learning" optimiert wurde, selbst aber nicht zwangsläufig eine Soft-/Hardware Optimierung dafür voraussetzt.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Phobos1083 schrieb:
Die beste Geräuschunterdrückung in TS/Discord & co wäre simples "Push to Talk".

Na klar und die "beste" Art seinen Weg zu finden ist mit Landkarte, die beste Art Fotos zu machen ist eine Analogkamera und überhaupt macht Software alles schlechter.

Schon einmal darüber nachgedacht, dass deine Störgeräusche auch aufgenommen werden, wenn du eine Taste drückst? Voice-Activation funktioniert schon seit 20 Jahren vollkommen in Ordnung, sofern im Hintergrund nicht der Zirkus oder eine Baustelle ist. Und für zweiteres gibt es nun auch noch RTX Voice.
 
SV3N schrieb:
Ich glaube auch nicht, dass da wirklich irgendein Fallback aktiv wird. So wie sich die Sache zur Zeit darstellt, läuft RTX Voice immer auf den gewöhnlichen Shadereinheiten.

Ich bin da auch eher ein Freund der "Vorsicht", als dass ich bei einer Beta gleich so gegen den Hersteller schießen würde.

Warum das so ist? -> Was vielleicht viele hier nicht wissen/wussten (wurde in diesem Thread auch schon agesprochen) ist, dass NVIDIA auch bei Controls erster DLSS Implementation eine Beta aktiv hatten. Da wurde das gesamte DLSS Softwareemuliert.
Erst mit der endgültigen Version DLSS2.0 wurde bei Control die Hardwarebeschleunigung aktiviert, was teils zu hohen Geschwindigkeitszuwächsen oder wahlweise deutlich besserer Qualität geführt hat.

Ebenso kann es sich bei RTX Voice um einen Testballon der grundsätzlichen Funktionalität handeln, bevor man auf die Hardwarebeschleunigte wechselt.

Grundsätzlich muss sich aber hier eine gewisse Klientel mal vor Augen führen, dass es im Bereich Computer grundsätzlich erstmal NICHTS gibt, dass auf CISC- Systemen nicht irgendwie softwareemuliert lauffähig zu kriegen wäre. Das gilt ebenso für Aufgaben für die Shader/Cuda- Cores.

Nur weil eine Funktion XY nicht für eine spezielle Hardware vorgesehen ist, heisst es nicht, dass diese nicht auf dieser laufen würde.
Es kann vielerlei Gründe haben, warum man eine Software nicht auf irgendwelchen Systemen zulässt.

Auch eine Marktsegmentierung ist dabei ein valider Grund, um einer Generation Vorteile bzw. Alleinstellungsmerkmale zu schaffen, die den Absatz steigern.
Das ist auch nichts schlimmes, denn so funktioniert Wirtschaft seit eh und je.

Solange die "Final" nicht verfügbar ist und hier nur über die Motivationslage des Herstellers gestritten wird, ist es nicht mehr als ein "Sturm im Wasserglas".

Juts my 2 cents
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, Oneplusfan, captain kirk und 4 andere
Als zweit karte einfach ne GT1030 und darauf RTX Voice laufen lassen.

Würde das funktionieren oder wird immer die primary GPU angesprochen?
 
  • Gefällt mir
Reaktionen: Xes
Hat sich mal jemand die Mühe gemacht das Tool mit einer GTX 1080Ti zu testen, ob der Leistungsabfall dann immer noch 10-13% betrifft? An und für sich finde ich die Filterfunktion schon ganz nett, aber ich bin absolut nicht gewillt, dauerhaft -10% Performance in WQHD bzw. UHD intensiven Spielen in Kauf zu nehmen. Ich hoffe das feature unterstützt auch TS3 irgendwann.
 
  • Gefällt mir
Reaktionen: Althir81
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: USB-Kabeljau und captain kirk
Phear schrieb:
Hat es hier jemand mal mit Division 2 und einer RTX 2070 getestet? Bei einem Kumpel wirkt es dann so als wenn die Performance nicht mehr ausreicht. Die Stimme ist zwischendrin kratzend oder es entstehen kurze Lücken. Bisher nur bei Division 2 aufgefallen. Vermutung liegt darin, dass es zu anspruchsvoll ist. Mit meiner RTX 2080 konnte ich das nicht reproduzieren.

Ich habe RTX Voice parallel zu V-Ray Next GPU benutzt und während des Rendervorgangs kommt dann nur noch "Robotvoice" an.
V-Ray Next nutzt halt alles was es kriegen kann, da rennen meine beiden 2080 Ti RTX am Anschlag. RTX Voice scheint sich nicht zu priorisieren, was ja eigentlich ganz angenehm ist. Dennoch habe ich leicht erhöhte Renderzeiten bei aktiviertem RTXV.

Häschen schrieb:
Als zweit karte einfach ne GT1030 und darauf RTX Voice laufen lassen.

Würde das funktionieren oder wird immer die primary GPU angesprochen?

Da beim Start von RTXV meine zweite GPU hochtaktet, könnte es sein, dass RTX Voice sich diese schnappt um die erste zu entlasten. Das würde auch die nicht vorhandenen Performance-Einbrüche in vielen Spielen bei mir erklären.

Wenn hier jemand erklärt, wie ich Nsight dazu bringe mir die Metrics von RTXV anzuzeigen, gehe ich der Sache gerne weiter nach :)
 
Zuletzt bearbeitet:
Phobos1083 schrieb:
Die beste Geräuschunterdrückung in TS/Discord & co wäre simples "Push to Talk".
Aber da den meisten dieses zu mühsam (lel) ist, brauchen sie eben ein trainiertes RTX Voice, was natürlich Leistung kostet.

Ist faktisch das schlimmste was es gibt dieses Push to Talk. Je nach Spiel muss ich schon gefühlt 100000 Tasten gleichzeitig drücken um Skills etc rauszuhauen. Dann noch Push to Talk? Nene, das benutzen berechtigerweise nur die wenigsten Leute.
 
Der Unterschied zwischen den beiden Grafikkarten ist dabei viel zu gering, als dass über einen Wechsel von der Berechnung über die Tensor-Cores hin zu den als Fallback dienenden ALUs spekuliert werden könnte.
Wer weiß. Vielleicht sind die Tensor Cores hier aber auch gar nicht so viel performanter als die CUDA Cores.
Es ist auch wichtig zu wissen, dass die restliche Pipeline blockiert ist und nicht wieterarbeiten kann, während die Berechnungen auf den Tensor Cores durchgeführt werden. Es ist also nicht so, als ob die Parallel ablaufen, bloß weil die Kerne zusätzlich auf der Karte sind.
Etwas Performance geht sicherlich auch durch den Context Switch zwischen Tensor Core und CUDA Cores wieder flöten. Für so leichtgewichtige Aufgaben wie Rauschunterdrückung lohnen die sich daher vielleicht gar nicht so sehr.
 
Sun_set_1 schrieb:
2. Die Software dann nur noch auf RTX läuft, während hingegen klar bewiesen ist, dass dafür keine besondere Hardware nötig ist. Und der Rest des Forum Dir gegenüber Recht hatte?
Es könnte sein dass der Beta Status nur heißt, dass man erstmal den Algorithmus testet und das erstmal auf den normalen ALUs und später wenn es läuft auf die ungenutzten Tensor Kerne umsetzt um eben keinen Leistungsverluste zu haben.
Hier kann dann Nvidia entscheiden ob man es dann bei RTX only belässt oder sich noch eine Lösung für Cuda anbietet.
 
  • Gefällt mir
Reaktionen: captain kirk, KenshiHH und .Sentinel.
SavageSkull schrieb:
Hatte es gestern nicht mehr geschafft zu testen. Nimmt das Kopplung und Musik von meinen Boxen raus, wenn ich mit dem Tisch Mikrofon aufzeichne? Die Discord Beta Filterung bekommt das leider nicht wirklich hin.

Joa sollte problemlos funktionieren.
 
  • Gefällt mir
Reaktionen: SavageSkull
Häschen schrieb:
Als zweit karte einfach ne GT1030 und darauf RTX Voice laufen lassen.

Würde das funktionieren oder wird immer die primary GPU angesprochen?
Das wäre durchaus interessant, gerade auch für die AMD-Nutzer.
Generell: Wieviel Leistung brauch es denn mindestens?
Irgendwo im Keller liegt glaube ich noch eine GT 630 rum, die wird vermutlich nicht reichen oder? :D
 
Phobos1083 schrieb:
Die beste Geräuschunterdrückung in TS/Discord & co wäre simples "Push to Talk".
In den meisten Spielen ist mir das zu anstrengend, zumindest mit der Tastatur. Ich habe mir daher inzwischen ein mit dem Fuß betätigbaren Schalter dafür besorgt, das geht deutlich besser. Das da kaum jemand Lust zu hat finde ich aber nachvollziehbar.

RTX Voice wäre besonders in beruflichen Telkos super. Da gibt’s dann Kollegen die nicht mal dran denken bei den im Hintergrund schreienden Kindern ihr Mikro Stumm zu schalten, wenn sie gerade nichts zu sagen haben. Push to Talk werden die ganz sicher nicht machen.
 
Bccc1 schrieb:
Da gibt’s dann Kollegen die nicht mal dran denken bei den im Hintergrund schreienden Kindern ihr Mikro Stumm zu schalten, wenn sie gerade nichts zu sagen haben. Push to Talk werden die ganz sicher nicht machen.
Ich frag mich gerade ob der Algorithmus ,bei längerer Inaktivität der primären Stimme, durch sprechende Kinder im Hintergrund nicht auch durcheinander käme, oder ob er ein einmal getraktes Stimmmuster voraussetzt, um es konstant durchzuleiten

cruse schrieb:
omfg ist das krank, wird instant installiert

edit: hier noch krasser: https://twitter.com/Barnacules/status/1252893926979022851
Laubbläser ... mal sehen wann der erste ne Jetturbine testet :freaky:
 
Zuletzt bearbeitet:
Zurück
Oben