News Nvidia RTX Voice: Sehr gute Ergebnisse, aber es reicht auch GeForce GTX

captain kirk schrieb:
tut mir leid ich lese da immer noch nix davon das sie ältere Karten explizit ausschließen für das Tool, so wie das einige schon wieder hindrehen möchten

Nur das diese Beta erstmal vorrangig für die RTX Karten freigegeben ist

entweder ist da Jemandes zu großer Aluhut über die Brille gerutscht ,oder er ist des Englischen nicht mächtig soll ja vorkommen :D
Zeig einer den Passus ,wo sie darlegen das die finale Software nur auf RTX läuft, oder lasst einfach das Einwerfen von Halbwahrheiten so einfach ist das

Wir werden sehen. Wenn es sich nach der BETA nicht bessert und oder RTX exclusiv bleibt, verbleibe ich bei einer Aussage die dir geläufig sein sollte: Es ist tot Jim!

@Chillaholic: Warum so negativ? Wenn es nicht Nvidia wird, liefert vll. mal AMD. Ein völlig roter PC wäre mal ein Novum für mich (zu mindestens seit A64 Zeiten.).
 
captain kirk schrieb:
Sie nennen es auch RTX Raytracing ,und trotzdem läuft es ebenso auf Pascal
Raytracing im Sinne von DXR-Raytracing läuft auf Pascal aber eben im Fallback-Modus über die CUDA-Cores, sprich die normalen ALUs / Shader der Grafikkarte, die auch sonst alles grafische berechnen. Das führt zu massiven Leistungsverlusten und macht die Technik auf besagten Karten quasi nicht nutzbar. Auf Turing-RTX-Karten läuft Raytracing stattdessen über die dedizierten RT-Kerne, die eben eine Besonderheit der Karten sind. Das kostet zwar immer noch viel Performance, der Unterschied zu Pascal (oder anderen älteren Architekturen) ist aber immens. Und all das darfst du nicht mit anderen Raytracing-Techniken verwechseln, die nicht DXR bedingen, weil sie von vorneherein nur (mehr oder minder) softwarebeschleunigt sind.

Wenn Nvidia nun eine neue Software "RTX xyz" nennt, dann impliziert das allein durch den Namen schon, dass diese Software Nutzen aus der den RTX-Karten exklusiven Hardware zieht. In diesem Fall dann eben nicht aus den RT-Cores, sondern aus den auf Deep Learning ausgelegten Tensor-Cores. Das macht sie aber augenscheinlich nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 416c, mm19, McFritte und 10 andere
@Pionier: Alexa leck mich am Arsch!

Bin gerade dabei die Mozilla Firefox Telemetrie zu bändigen - aber anderers Thema, warum ist NVIDIA gerade jetzt so sehr an unseren Verbindungen interessiert? Ich finde den vorhandenen Standart im heutigen Berufsaltag ausrreichend.
 
Zuletzt bearbeitet von einem Moderator:
captain kirk schrieb:
Ich sag doch man erkennt die Irrationalen ,schon immer daran ,das sie mit dem immer gleichen Kamellen ,um die Ecke gedampft kommen
Diggi was für Kamellen? Wenn du einem Bekannten 300 Euro leist, er sie dir aber nie zurück gibt und sich mit Lügen rausredet, würdest du ihm dann nochmal Geld in die Hand drücken? Das ist buchstäblich erst zwei Generationen her, wie kann man solches Verhalten ignorieren/rechtfertigen? HashtagGrüneScheuklappen

captain kirk schrieb:
na da haste jetzt aber einen aufgetischt , ein Konzern der monetäre Interessen hat ,seine Produkte zu verkaufen
Das Problem sind nicht monetäre Interessen, sondern die Mittel und Wege, um diese Interessen durchzusetzen. Schnelle/Effiziente/Innovative Hardware zu einem guten Preis? Gerne! Künstliche Obsoleszenz und direktes ins Gesicht lügen? Not so much.

Ich mein du hast den Thread doch verfolgt, die von Nv ausgegebene Begründung, warum es nur auf RTX laufen können sollte, ist eine reine Lüge. Was verteidigst du hier noch? Was redest du von alten Kamellen? Du hast hier ein ofenfrisches Beispiel von Nvidias Geschäftsgebaren. Das einzig Irrationale in dieser Situation wäre diese Lügen auch noch zu verteidigen, nun..
 
  • Gefällt mir
Reaktionen: 416c, ohman, WodkaGin und 5 andere
Vitche schrieb:
Wenn Nvidia nun eine neue Software "RTX xyz" nennt, dann impliziert das allein durch den Namen schon, dass diese Software Nutzen aus der den RTX-Karten exklusiven Hardware zieht. Das macht sie aber augenscheinlich nicht.
because its Beta Status ???
Vielleicht hat man ja erstmal generell das neuronale Netz fertig trainiert, und macht die weiter Umsetzung Schritt für Schritt
DLSS war auch nicht gleich auf den Punkt, und das hatte bereits den finalen Status

Bright0001 schrieb:
Ich mein du hast den Thread doch verfolgt, die von Nv ausgegebene Begründung, warum es nur auf RTX laufen können sollte, ist eine reine Lüge.
Die einzige Lüge ist eine auf diese Beta Software festgelegte Definition , als allgemeingültig hinzustellen, und dem Konzern perfide die Worte im Mund zu verdrehen!
Weil man sich wieder nen Skandal basteln möchte;)
 
Zuletzt bearbeitet:
@Der Wagen Du bist reichlich spät ins Rennen eingestiegen. Aber das ist nun nicht mehr wichtig, denn es ist jetzt ganz egal, was die anderen hier sagen. Es steht fest: Du bist der glückliche Gewinner des größten Aluhutes dieses Threads. Glückwunsch!
 
  • Gefällt mir
Reaktionen: K3ks und Der Wagen
Nach einigen Tests, bin ich noch immer von der Filterleistung begeistert, wobei ich auch nicht ausschließen möchte, dass dies mit anderen guten Filtern auch ohne den Einsatz einer GPU zu bewerkstelligen ist.

Das Klicken der Cherry MX Tastatur, laut im Hintergrund laufende Musik, Klopfen auf den Tisch usw. werden nahezu perfekt herausfiltert*, während ich rede sogar perfekt.
Es findet eine leichte Reduktion der Sprachqualität statt, welche ich aber sobald ich in TS und Co. die Filter bemühe auch bemerke. Ohne RTX Voice wäre es unter der Geräuschkulisse unerträglich im Chat zu sein.

*Wenn ich eine Weile nicht spreche, versucht sich RTXV z.B. auf die Vocals in der Musik einzupegeln :)

Ich nutze RTX Voice zusammen mit Teamspeak, wobei ich in TS sämtliche Filter deaktiviere. Als CPU kommt ein 18 Kerner zum Einsatz und GPU-seitig nutze ich ein dual RTX 2080 Ti Setup.

RTX Voice startet mit rund 1MB im Speicher und bläht sich bei Nutzung über einige Zeit auf maximal ca. 1,2GB auf, der Speicherbedarf fällt aber auch immer wieder ab. Ich habe 64GB Ram, insofern stört mich das nicht. Ob es sich auf Systemen mit wenig Arbeitsspeicher anders verhält kann ich nicht feststellen.

Smagjus schrieb:
Wenn man das Feature aktiviert hat, soll die GPU wohl im 3D-Takt festhängen. Kann das jemand bestätigen?

Sobald ich RTX Voice einschalte taktet auch meine zweite GPU aus dem Idle auf 1350MHz hoch und der Verbrauch dieser steigt auf rund 60 Watt. Das ist zwar weit unter 3D Last, aber dennoch nicht schön. Im Idle bewegt sich die zweite GPU sonst mit rund 400 MHz und knapp 10 Watt.

Zum Testen habe ich VRay Next GPU herangezogen, da dies auch zu 100% die RT Cores mitbenutzt. Ein Beispielrendering hat mit aktiviertem RTXV 175,2 Sekunden gedauert, ohne lande ich bei 170,65 Sekunden plus minus Messtoleranz.
Während des Rendervorgangs produziert RTXV ein "Robotvoice". VRay scheint sich da auf höchste Priorität zu setzen und nicht mehr genug Rechenzyklen für RTXV übrig zulassen.
Beim Standalone VRay Benchmark (dieser nutzt meines Wissens nach noch keine RT Cores) kommt es nicht zum Robotvoice und es ist auch keine Differenz bei den Zeiten zwischen RTXV on und off feststellbar.

In Control habe ich lustigerweise ein komplett anderes Bild, dort steigt meine Framerate bei aktiviertem RTXV um 10% ;) Unter Division 2 kann ich nach mehren Durchläufen keinerlei Performance-Unterschiede feststellen.

Am Ende ist also das Bild im Bezug auf Leistungshunger durchwachsen , die Qualität der Filterung jedoch nicht zu leugnen und eher beeindruckend - es gibt keinen Grund mehr die laufende Musik im Chat auszuschalten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mm19, USB-Kabeljau, dr. lele und 3 andere
Smagjus schrieb:
Wenn man das Feature aktiviert hat, soll die GPU wohl im 3D-Takt festhängen. Kann das jemand bestätigen?

Jupp, kann ich bestätigen, weshalb ich den Filter auch erstmal nicht mehr verwende bis das gefixt wurde, bzw. diesen nur aktiviere wenn ich Voice nutze.
 
  • Gefällt mir
Reaktionen: Smagjus
captain kirk schrieb:
Die einzige Lüge ist eine auf diese Beta Software festgelegte Definition , als allgemeingültig hinzustellen, und dem Konzern perfide die Worte im Mund zu verdrehen!
Weil man sich wieder nen Skandal basteln möchte;)
Und weiter? Was genau ändert der Beta-Tag? Und was genau soll sich ändern, wenn dieser verschwindet (außer vielleicht dass Nvidias Aussage zur Wahrheit wird, weil sie den "Bug" mit den <RTX-Karten rausgepatcht haben)? Außerdem ist es in dieser Konstellation halt Fakt, man wollte nicht dass Leute mit älteren Karten in den Genuss des Features kommen, einfach weil man die Karten schneller altern lassen will. Anzunehmen, dass das nur am Beta-Zustand liegt, ist (sehr fantasievolles!) Wunschdenken.

Ich mein, auch letztens persönlich betroffen gewesen: Da wurde G-Sync Funktionalität auf den C9 OLED von LG gebracht... aber nur für RTX-Karten und die 1660. War das Feature da auch Beta? Oder gabs da auch irgendwelche AI/Tensor/etc. Cores, die das für altere Karten unmöglich machten?

Es ist einfach ein sehr arschiges Unternehmen, kannste drehen wie du willst. :p
 
Also für irgendwelche qulifizierten Aussagen fehlen mir irgendwie noch Daten. Unterscheidet sich die Qualität von Pascal zu Turing? Was passiert, wenn DLSS gleichzeitig verwendet wird? Können noch andere Spiele getestet werden? Gibt es schon ein offizielles Statement seitens Nvidia?

Auch verstehe ich nicht ganz, warum man Nvidia einen Strick draus drehen will. Immerhin ist das Feature kostenlos. Sie hätten es genauso gut so einführen können, dass es ausschließlich aus Turing Karten läuft.
Für die Behauptung, dass die Tensor Cores nicht verwendet werden, gibt es keine Beweise, da würde ich auf noch auf Tests warten.

Bright0001 schrieb:
man wollte nicht dass Leute mit älteren Karten in den Genuss des Features kommen, einfach weil man die Karten schneller altern lassen will.

Ja, wäre besser gewesen, sie hätten das Feature gar nicht eingeführt, weil du persönlich niemandem was gönnen willst/was dagegen hast, dass andere profitieren.

Regst du dich beim Autokauf auch so auf, wenn BMW den gleichen Motor per Software kastriert um das Modell mit mehr Leistung teuerer zu verkaufen?

Oder dass Tesla mehr Motorleistung/Autopilot per Software (gegen Aufpreis) freischalten kann?

Sind das auch arschige Unternehmen? Weil Entwicklungen sollte man ALLE für Lau bekommen?

Dir wird hier nichts weggenommen, genau genommen hast du eigentlich kein Recht dich über die Sache aufzuregen.

Und die Vergleiche mit der 970 sind sowieso konplett Banane. Nicht alles was hinkt ist ein Vergleich (Hint: Bei der 970 hatte man einen finanziellen Schaden und zudem wurden falsche technische Spezifikationen angegeben).

Übrigens: Wenn Nvidia schreibt, RTX sei eine Voraussetzung für das Feature, heißt das nicht, dass es nicht auch auf anderen Karten laufen könnte. Das gibt der Satz nicht her.
Wenn Nvidia nur die RTX Karten validiert hat, dann tun sie gut daran, diese Karten auch vorrauszusetzen. Ist so ähnlich wie bei GSync Compatible.
 
  • Gefällt mir
Reaktionen: KlaraElfer und captain kirk
Vitche schrieb:
Wenn Nvidia nun eine neue Software "RTX xyz" nennt, dann impliziert das allein durch den Namen schon, dass diese Software Nutzen aus der den RTX-Karten exklusiven Hardware zieht. Das macht sie aber augenscheinlich nicht.

Völlig richtig und bei dem geringen Leistungsunterschied zwischen einer RTX 2060 und einer GTX 1060 ist davon auszugehen, dass RTX Voice gar nicht auf den Tensor-Kernen läuft, sondern wie auf der getesteten GTX auf den gewöhnlichen ALUs.

Ich glaube auch nicht, dass da wirklich irgendein Fallback aktiv wird. So wie sich die Sache zur Zeit darstellt, läuft RTX Voice immer auf den gewöhnlichen Shadereinheiten.

Ich bin mal gespannt, wie sich die Sache schlussendlich entwickelt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: McFritte, USB-Kabeljau, WodkaGin und 6 andere
captain kirk schrieb:
because its Beta Status ???
Vielleicht hat man ja erstmal generell das neuronale Netz fertig trainiert, und macht die weiter Umsetzung Schritt für Schritt
DLSS war auch nicht gleich auf den Punkt, und das hatte bereits den finalen Status


Willst Du damit jetzt ernsthaft sagen, die Software heißt grad RTX weil sie im Beta-Status ist und aktuell nur darauf supported ist?

Du bist der Ansicht, dass nach verlassen des Beta Status diese Software auf allen Karten läuft und dann GeForce Noise genannt wird?

Weil wenn nicht beides eintritt, gibt’s zwei Möglichkeiten:

1. Die Software läuft überall heißt aber weiterhin RTX Noise. Dann hat @Vitche völlig Recht, der Name wäre falsch suggestiv.

2. Die Software dann nur noch auf RTX läuft, während hingegen klar bewiesen ist, dass dafür keine besondere Hardware nötig ist. Und der Rest des Forum Dir gegenüber Recht hatte?

Nur, wenn beides Eintritt (sie bennnen die Software nach der Beta um und sie läuft auf allen Karten) hättest Du argumentativ Recht.

Du warst kurz davor die Punkte hier zu vermischen, daher dachte ich, ich drösel das an der Stelle mal kurz auf und frag verbindlich nach.

Daher die Frage, ob ich das so richtig verstanden habe.
 
  • Gefällt mir
Reaktionen: Colindo
SV3N schrieb:
dass RTX Voice gar nicht auf den dedizierten RT-Kernen läuft
Auf den RT Kernen läuft das so oder so nicht. Wenn dann auf den Tensor Cores.

SV3N schrieb:
So wie sich die Sache zur Zeit darstellt, läuft RTX Voice immer auf den gewöhnlichen Shadereinheiten.
Das könnte man evtl. ziemlich einfach im Task Manager sehen. Wobei ich nicht weiß, ob RT- und Tensor-Cores dort mit zur GPU Auslastung gerechnet werden.
Wenn dort nun aber trotz aktivem RTX Voice die Auslastung auf 0 bleibt, dann kann man davon ausgehen, dass die Tensor-Cores für die Berechnung genutzt werden.
 
  • Gefällt mir
Reaktionen: SVΞN
benneq schrieb:
Wenn dort nun aber trotz aktivem RTX Voice die Auslastung auf 0 bleibt, dann kann man davon ausgehen, dass die Tensor-Cores für die Berechnung genutzt werden.

Wenn dem so wäre müsste der FPS Einbruch bei Spielen zwischen RTX und GTX logischer Weise ungleich größer sein, da nach deiner Theorie bereits Last auf den Shader-Kernen der GTX wäre, die bei RTX nicht beansprucht würden.

Ist er aber nicht. Beide verlieren prozentual gleich viel. Siehe Update.
 
Danke @benneq wurde korrigiert.

Schlussendlich ist RTX Voice selbst in der Beta schon ein cooles Feature und hat mir auf meiner RTX 2070 Super sehr gut gefallen.

Nvidia würde aber gut daran tun, es am Ende offiziell auch für GeForce GTX freizugeben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TechFA, USB-Kabeljau, cruse und eine weitere Person
Oneplusfan schrieb:
weil du persönlich niemandem was gönnen willst/was dagegen hast, dass andere profitieren.
Ich brauch gar nicht fragen woraus ihr euch die Argumente zieht, ich kanns auch so von hier riechen.

Oneplusfan schrieb:
Regst du dich beim Autokauf auch so auf, wenn BMW den gleichen Motor per Software kastriert um das Modell mit mehr Leistung teuerer zu verkaufen? ...
Oder dass Tesla mehr Motorleistung/Autopilot per Software (gegen Aufpreis) freischalten kann?
Ich ztitiere mal dich selbst:
Oneplusfan schrieb:
Nicht alles was hinkt ist ein Vergleich
(Übrigens sehr gescheiter Satz, hab ich so noch nie gehört!)

Oneplusfan schrieb:
Dir wird hier nichts weggenommen, genau genommen hast du eigentlich kein Recht dich über die Sache aufzuregen.
Also erstensmal ist es durchaus üblich anzunehmen, dass eine Grafikkarte über einen längeren Zeitraum mit Treibern und Weiterentwicklungen versorgt wird, zumindest soweit die Hardware das hergibt. Mir deiner Argumentation wäre es ja ausreichend einmal ne Grafikkarte mit Treiber-Version X.Y auszuliefern und adieu - wer mehr will muss blechen. Aber das wäre sicherlich auch begrüßenswert, scheinbar diskutiere ich hier ja mit Lobby-Gruppen und nicht mit Endverbrauchern.

Zudem wird mir durchaus etwas weg genommen, denn wenn man z.B. eine Grafikkarte künstlich in ihren potentiellen Möglichkeiten limitiert, dann sinkt der relative Wert meiner Hardware, da mit neuen Features auf neuerer Hardware ja der Referenzwert angehoben wird - ich mein, dass ist der ganze Sinn der Sache.

Oneplusfan schrieb:
Und die Vergleiche mit der 970 sind sowieso konplett Banane. Nicht alles was hinkt ist ein Vergleich (Hint: Bei der 970 hatte man einen finanziellen Schaden und zudem wurden falsche technische Spezifikationen angegeben).
Ich gebe dir da Recht, denn es war ja auch gar kein Vergleich, sondern nur eine Anekdote, wie Nvidia Kunden beschissen hat. Aber für dich wohl auch nur Schnee von gestern, richtig?

Oneplusfan schrieb:
Übrigens: Wenn Nvidia schreibt, RTX sei eine Voraussetzung für das Feature, heißt das nicht, dass es nicht auch auf anderen Karten laufen könnte. Das gibt der Satz nicht her.
Wenn für die Achterbahnfahrt 1,5m Körpergröße Voraussetzung ist, sind wir uns dann einig, dass keine Leute <1,5m mitfahren können, oder gibt das der Satz auch nicht her?

Und es ist eben Nvidia. Wie das Beispiel mit dem C9 zeigen sollte, hat das ganze Geblubber keine fachlichen Gründe sondern nur monetäre, und ich aus der Sicht eines Verbrauchers darf ich mich über solche Kundenunfreundlichkeit durchaus beschweren - und auch postulieren, dass ein Unternehmen das seine Kunden zur Not auch mal belügt und hauptsächlich melken will - arschig ist. Über die nachgelagerten Probleme von geplanter Obsoleszenz und Wegwerfgesellschaft fang ich gar nicht erst an.

P.S.: Die Automobilindustrie ist in Fragen der Moral, Kundenfreundlichkeit und Wahrheitstreue vielleicht nicht die beste Wahl für ein Gegenbeispiel.
 
  • Gefällt mir
Reaktionen: McFritte und cbmik
Sun_set_1 schrieb:
Wenn dem so wäre müsste der FPS Einbruch bei Spielen zwischen RTX und GTX logischer Weise größer sein, da nach der Theorie bereits Last auf den Shader-Kernen der GTX wäre.
"müsste"... Wir wissen doch überhaupt nicht, was unter der Haube von RTX Voice passiert. Vielleicht ist die Qualität bei Verwendung der Tensor-Cores minimal besser und frisst trotz optimierter Kerne dann genau so viel von der GPU-Gesamtleistung wie bei der Verwendung der CUDA Cores auf einer GTX Karte.
Möglicherweise gibt's dieses CUDA-Core-Fallback auch, um nebenbei ungestört DLSS genießen zu können, ohne noch stärkere FPS Einbrüche durch die doppelte Verwendung der Tensor-Cores. Wer weiß.

Sun_set_1 schrieb:
Beide verlieren prozentual gleich viel. Siehe Update.
Und was sagt das nun aus? Nichts. Zum einen sind die relativen Performanceunterschiede beider getesteten Karten unterschiedlich groß: 1% vs 2%, bzw. 12% vs. 17%. Und dann kommt noch dazu, dass eine RTX 2060 ganze 70% mehr CUDA Cores als eine GTX 1060 hat, dazu noch mehr und schnelleren RAM mit breiterer Anbindung, ein höheres Power Limit und eine (hoffentlich) bessere Architektur - also grob die doppelte Rohleistung.
Wir wissen jetzt also, dass zwei unterschiedliche GPUs unterschiedliche Ergebnisse liefern. Wer hätte das bloß gedacht. Den Grund dafür kennen wir aber trotzdem nicht.

Noch mal zum Thema Task Manager und Auslastung - einfaches Ausschlussprinzip:
Fakt ist bisher, dass auf GTX Karten die GPU Auslastung im Task Manager steigt, wenn RTX Voice aktiviert ist. Wenn das bei RTX Karten nicht passiert, dann könnte man davon ausgehen, dass die Berechnung auf den Tensor-Cores läuft, weil bei Auslastung der CUDA Cores ja sonst die GPU Auslastung im Task Manager sichtbar wäre.
Wenn die Auslastung allerdings auch bei RTX Karten ansteigt, weiß man trotzdem nichts genaues. Dann wäre es immer noch möglich, dass die Auslastung der Tensor-Cores mit in die Gesamtauslastung der GPU einberechnet wird.
Ich konnte bisher nichts im Netz dazu finden, ob man die Auslastung der RT- und Tensor-Cores irgendwo gesondert auslesen kann. Oder ob sie einfach in die Gesamtauslastung der GPU mit einberechnet werden.
 
Zuletzt bearbeitet:
Lasst das arme Kind schreien... nicht schön. Aber sehr realistisch. Tolle Technik.
 
Zurück
Oben