News AMD Radeon: Besseres TrueAudio Next 1.2 zieht mit Steam Audio gleich

@0xffffffff

Sehe ich genauso mit dem proprietären Zeug, TAN ist allerdings nicht wirklich proprietär, der Source Code liegt offen auf GitHub. Und ich vermute mal auch, andere Hersteller können den Support in ihre Hardware verbauen wenn sie wollen (?) (woran Nvidia genauso wie bei FreeSync und Co nicht mal im Traum daran denken würde *hust*).

Eine native Hardwarebeschleunigung ist trotzdem was feines da es einfach sehr viel effizienter arbeitet und man keine Ressourcen verschwendet. Man sollte immer Ressourcen sparen wann geht, aber vielleicht sehe ich "Effizenz-Bitch" das auch nur so :D

Ich vermisse immer noch die Zeiten von EAX und Co, das war großartig! :)
 
ich finde den Ansatz von AMD gut. Wenn eh nicht alle CUs ausgelastet werden können, können sie doch auch anderweitig beschäftigt werden. Bessere Ausnutzung vorhandener Ressourcen, als unnötig andere Ressourcen in Form der CPU in Anspruch zu nehmen.
 
Naja mit Dolby Atmos sollte, wenn die Spiele es richtig implementieren, sich der Sound doch sehr gut berechnen lassen um ortung und räumliches Erlebnis ideal zu realisieren. Dass dazu eine Grafikkarte genutzt werden muss bezweifle ich fast irgendwo. Das Bottleneck ist ja sehr viel öfter die GPU als die CPU heutzutage, warum dann der GPU noch mehr zumuten?

Ich bin da aber bei @0xffffffff, was bringt es wenn am ende ein prinzipiell sehr gutes Signal aus der Anlage/Kopfhörern kommt, wenn diese Baumarkt-Qualität haben. um vor allem mit Kopfhörern ideale Ergebnisse zu erzielen, glaube ich wären aber die meisten User überfordert, technisch wie auch finanziell. Die wenigsten kaufen sich überhaupt Kopfhörer bei denen es nachvollziehbar wäre nochmal eine Investition für HRTF-Equipment auf sich zu nehmen...
 
Klingt ein wenig wie THX 2.0 und Freesync in einem.
Beides derzeit noch Recht "probitäre" Hardwarestandards, diese sich nicht durch die dahinterliegende Technik durchsetzen werden, sondern einzig auf der Gunst von Soft und Hardwareanbietern Leben oder enden werden wird.
 
Knito schrieb:
Ich hab die Ära EAX von Anfang bis Ende mitgemacht. Heute wird sowas problemlos über die entsprechende Middle-Ware in den Engines in Software berechnet (inklusive aller EAX-Effektkopien).
TrueAudio ist reinstes Marketing. Sound-Berechnung auf einer modernen CPU kostet Performance im Promillebereich, egal wie rechenintesiv der Reverb ist. Die CUs können NICHTS was nicht auch Software in x86 erledigen kann, ohne zusätzlichen Programmieraufwand.

Dem kann ich mich nur anschließen. Damals war ein Pentium 200mmx eben total überfordert mit sound und grafik und AI. Heute kann man den sound auf einer Core im 1% Bereich berechnen lassen. Die Zeiten für extra Hardware für Sound ist eben vorbei... Ein einfacher DAC reicht aus... DSP? Heute alles in Software.... Wieso die jetzt Shader benutzen? Ist halt Hip!
 
Sehe den praktischen Nutzen auch nicht so ganz. In 95% aller Gamingrechner ist die GPU der limitierende Faktor. Warum man darein jetzt die Audioberechnung auslagert...?

In Zeiten wo Low level APIs aufkommen und Hexacore Modelle im Mainstream angekommen sind, ist der reale Nutzen eher nicht gegeben. Bei der Audioausstattung der meisten Spielerechner wird das ganze wohl eh recht egal sein.

Ich habe bisher kaum ein Spiel gespielt, was meinen 6 Kerner voll ausgelastet hat (FarCry 5 hat bisher mit Abstand am meisten last verursacht). Bei den meisten wird aber die GPU wohl die meiste Zeit am Anschlag sein (besonders in zeiten von 144 HZ WQHD und UHD Monitoren)

Es macht Sinn dinge auf die GPU auszulagern, die dadurch massiv beschleunigt werden. Z.B. KI oder Physik Berechnungen. Relativ einfache Soundberechnungen laufen aber auch ohne Leistungseinbußen super auf der CPU. Nur weils gerade Trend ist, muss man nicht alles auf die GPU auslagern.

Für manche reinen High End Soundanwendungen ist es vielleicht spannend, aber auch da dürfte wohl jede mittelklasse CPU heute mehr als ausreichen.
 
Zuletzt bearbeitet:
Shoryuken94 schrieb:
Sehe den praktischen Nutzen auch nicht so ganz. In 95% aller Gamingrechner ist die GPU der limitierende Faktor. Warum man darein jetzt die Audioberechnung auslagert...?

Ich bin da jetzt nicht so ganz auf der Höhe, aber ist beispielsweise Vega nicht so eine Art Allrounder? Wenn jetzt genau die Einheiten im (ich sag mal im "Gaming-Modus") brach vor sich hingammeln, dann macht das doch schon wieder Sinn. So ist man in der Lage den Chip besser auszulasten.
 
Meine persönliche Beobachtung ist, das der Sound in den meisten Games, der Grafik weit hinterher hinkt.

Sogar bei Millionen schweren Top Games, wie GTA 5, klingen Stimmen tot komprimiert, Hall und sonstige Raumeinflüsse auf den Ton Künstlich und Stümperhaft.

Richtig enttäuscht war ich dann bei Farcry 5, stehen da Leute in einem weitläufigen Areal mit Steinigen Wänden, und der Hall klingt als stünden sie in einem kahlen Wohnzimmer das mit laminat oder Fliesen bepflastert ist.

Auch hab ich bei dem einen oder anderen Game bemerkt das Sounds aussetzen wenn sehr viele Geräusche gleichzeitig abgespielt werden, auch das kenne ich von Unreal Tournament so nicht, zumindest nach einer angepassten config und EAX mit der damaligen Soundblaster unter XP.

Wenn ich da an einige Games von früher mit EAX Support denke, wo die Umgebung realistisch auf die Geräusche wie Schüsse reagiert hat, dann finde ich die aktuelle Entwicklung durchaus ärgerlich.
 
Jepp, ist echt schade. Aber das selbe Thema haben wir ja auch mit Physikberechnung. Wenn man überlegt wie alt HL2 ist und damals eigentlich jeder davon geträumt hat das man sowas mal in jedem Spiel hat... und was ist jetzt? Pustekuchen. Das einzige Spiel in den letzten Jahren dass da rankommt ist ausgerechnet Zelda.
 
Thomaswww schrieb:
Eine soundblaster live konnte die Echtzeit Berechnung von zb. Echos in spielen in Echtzeit mit 128 Spuren. Im Jahr 1999. heute brauch man für das gleiche eine 500 Euro gpu mit super fancy Schnittstellen. Wird zwar von keinem Spiel Unterstützt. Sieht aber toll auf dem Papier aus und ein paar Entwickler bei amd können sich gegenseitig auf die Schulter klopfen.

Im Jahre 2025 will uns dann die Industrie weiß machen dass man Echos in spielen nur noch in der Cloud berechnen kann. Jede Wette.

und was hat jetzt die 128-spur hallberechnung einer soundblaster karte von 1999 mit trueaudio zu tun? hier geht es darum klangquellen in einem dreidimensionalen raum mit faltungshall zu berechnen, das ist nen ganz anderes kaliber als dieser pseudosynthetische mist von frueher...

https://de.wikipedia.org/wiki/Faltungshall
 
Zurück
Oben