News Linux-News der Woche: RTX 5090 mit massiver Compute-Performance

Die Trennung von Compositor und Window manager war DER Vorteil von X-Windows, den man nun aufgegeben hat, um dieselben Probleme bei nicht reagierenden Fenstern zu ernten wie auf anderen Systemen.
 
  • Gefällt mir
Reaktionen: Kuristina
@Spock37
Aber die Vorteil von Wayland siehst du nicht? Z. B. dass nicht mehr jedes Programm wie ein Keylogger agieren kann?

X11 war für seine Zeit gut, aber heute ist es einfach überholt. Man hätte eigentlich schon vor 20-30 Jahren einen Ersatz bringen müssen (der mittlerweile auch durch ein, zwei Nachfolger ersetzt wurde).
 
Weitere Verbesserungen durch das Update hat das AV1 De- und Encoding erfahren.
Wie gut sind diese Verbesserungen? Hat da jemand Erfahrung? Ganz konkret gefragt, kann man damit 4k Videos ruckelfrei dekodieren und abspielen?
 
Die Grafikkarten müssen es (AV1) erstmal unterstützten. Das können nur die neuesten bei AMD.
Bei Intel wiederum deutlich mehr ... und bei nVidia - k.A.
 
nn|none schrieb:
Hat da jemand Erfahrung?
Hab zwar eine B580 hier, bin aber noch nicht dazu gekommen das mal auszutesten
Intel hatte aber in der Regel ganz gute HW-Codecs verbaut.
Cr4y schrieb:
Der Link zu nvidia ist dann das Upscaling, oder wie?
So kann man es ausdrücken, ja
 
nn|none schrieb:
kann man damit 4k Videos ruckelfrei dekodieren und abspielen?
Schon lange. Intel und AMD unterstützen das über VAAPI und Nvidia durch NVDEC oder VDPAU auf Hardware, die AV1-Decoding bietet.
Hier meine Rembrandt APU mit RDNA2:
[ghecko@newtp ~]$ vainfo
Trying display: wayland
Trying display: x11
vainfo: VA-API version: 1.22 (libva 2.22.0)
vainfo: Driver version: Mesa Gallium driver 24.3.4-arch1.1 for AMD Radeon Graphics (radeonsi, rembrandt, LLVM 19.1.7, DRM 3.59, 6.12.10-arch1-1)
vainfo: Supported profile and entrypoints
VAProfileH264ConstrainedBaseline: VAEntrypointVLD
VAProfileH264ConstrainedBaseline: VAEntrypointEncSlice
VAProfileH264Main : VAEntrypointVLD
VAProfileH264Main : VAEntrypointEncSlice
VAProfileH264High : VAEntrypointVLD
VAProfileH264High : VAEntrypointEncSlice
VAProfileHEVCMain : VAEntrypointVLD
VAProfileHEVCMain : VAEntrypointEncSlice
VAProfileHEVCMain10 : VAEntrypointVLD
VAProfileHEVCMain10 : VAEntrypointEncSlice
VAProfileJPEGBaseline : VAEntrypointVLD
VAProfileVP9Profile0 : VAEntrypointVLD
VAProfileVP9Profile2 : VAEntrypointVLD
VAProfileAV1Profile0 : VAEntrypointVLD
VAProfileNone : VAEntrypointVideoProc
Damit schaue ich seit jeher ruckelfrei AV1 4K/60Hz.
Alles von AMD ab RDNA2, alles von Nvidia ab RTX3000 und alles von Intel ab Gen12 Xe kann AV1 in 4K unter Linux decodieren, bei den dGPUs sowieso.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ILoveShooter132, iron_monkey, dafReak und 2 andere
Würde mich ja interessieren, wie Battlemage nun abschneidet, unter Linux.
Sowohl selbstständig, als auch im Vergleich mit Windows.
 
  • Gefällt mir
Reaktionen: ILoveShooter132 und LamaTux
Kaito Kariheddo schrieb:
@Cr4y Bestes Beispiel UE5 mit Lumen und Nanite. Wenn man das ausreizt, kann das schon sehr gut aussehen. Allerdings hat zum Beispiel Nanite eine Grundlast. Problematisch ist also, wenn auf die Features zurückgegriffen wird, aber nicht das Maximum aus der Grafik rausgeholt wird. Dann hat man höhere Systemanforderungen für ein Dateillevel, wie es auch schon auf der UE4 möglich war und das auch noch mit mehr Performance. Im Grunde ist UE5 eine 720p Engine bei Spielen. Von der abnehmenden Bildqualität will ich gar nicht erst anfangen, weil Upsampling-Vergleiche oft mit TAA vergleichen, was halt an sich schon bescheiden aussieht, aber teilweise essenziell für Engines wie UE geworden ist.
Es hat auch eine andere Seite der Medaille, erst durch HighFidelityUpsampling ist Bildqualität als eines der drei Bestandteile von Optik (neben Grafik und Stilistik) wieder in den Blick der Massen und auch der Devs (sei es Hardware-, Treiber- oder Gamedevs) gerückt worden. Und zwar, weil statt einer gesteigerten Bildqualität bei gleicher Ausgangsauflösung eben umgekehrt auch die Ausgangsauflösung auch immer weiter gesenkt werden kann. Diese Option stand in der Vergangenheit schlicht und ergreifend nicht zur Verfügung; qualitative Verbesserungen beim (SS)AA, beim AF, beim Setzen des LOD-BIAS und so weiter konnten eben nicht auch statt dessen in mehr Performance umgemünzt werden. Somit bestand auch nur selten bei den Devs ein Bedürfnis, etwas zu verbessern.

Jetzt hingegen besteht dieses Bedürfnis permanent. Wer das beste HighFidelityUpscaling hat, hat sowohl die beste Performance, als auch die beste Bildqualität.
 
  • Gefällt mir
Reaktionen: ILoveShooter132
Und wenn man jedwedes Upscaling als störend für die 👀 empfindet? 😉
 
  • Gefällt mir
Reaktionen: C4rp3di3m und iron_monkey
HardRockDude schrieb:
Nicht nur das. Manchmal denke ich, dass die aktuellen Preise der Grafikkarten absichtlich "angepasst" sind - und zwar insoweit, als dass Hinz und Kunz sich nicht ohne Weiteres daheim mit KI beschäftigen können. Was ich damit meine ist Folgendes:
Für das Kreieren von Bildern/Videos/Texten wird GPU-Leistung benötigt. Natürlich geht das bereits mit relativ kleinen KI-Modellen, aber gute Qualität verlangt massiv Leistung. Vielleicht ist das Verteuern der Karten also ein Weg, richtig guten Deep Fakes solange aus dem Weg zu gehen, bis man halbwegs Kontrollroutinen in den Markt eingebaut hat. Ansonsten hätten wir heute schon viel krassere Probleme (sozial und politisch), als wir uns vorstellen könnten.
(Dass man auf anderen Wegen als die eigene Hardware an GPU-Leistung kommt, ist mir klar. Aber das erfordert eben weitere Schritte, die bereits erste Hindernisse für den unbedarften Laien darstellen können.)
Mich wundert aber, das Hinz und Kunz mittlerweile damit zuge*chissen werden und von Nvidia bereits auf den 40er Karten wohl gar ein eigenes Sprachmodell laufen lassen können.. oder mindestens mit den 50ern. Die von dir überlegte Hemmschwelle scheint mir maximal auf dem Papier, aber langfristig sieht das so aus, als ob jedem Hinz und Kunz überall Ki- aufgezwängt wird, selbst wenn er garkein Interesse daran hätte sowas zu nutzen - weil auch nicht jeder kreativ ist.
Das da bereits jetzt schon eine relativ große Grauzone herrscht was Recht angeht, gibtdann eher zu Denken, weil die Entwicklung so schnell geht, das wir in vermutlich 2-3 Jahren mit jeglicher Opensource-Lösungen in 1-Click-Verfahren schon rein technisch auf dem Niveau von Hollywood sind, wenn das so weiter geht.
 
  • Gefällt mir
Reaktionen: ILoveShooter132, HardRockDude und CDLABSRadonP...
0x8100 schrieb:

"You Deer" lol
 
  • Gefällt mir
Reaktionen: Saint81
Kaito Kariheddo schrieb:
Ironischerweise hatte ja Nvidia den Weg geebnet dafür, dass gefühlt kaum noch Optimierungen bei Spielen stattfinden
Gefühlt. Wird immer wieder behauptet, aber Belege habe ich noch keine gesehen. Tatsache ist eher das Gegenteil. Heutige Spiele laufen selbst auf uralt Hardware noch spielbar. Da wird so lange optimiert, damit selbst 12 Jahre alte GPUs in dem neuen Assassins Creed mittels Software RT laufen. Werden alte Zöpfe abgeschnitten wird großflächig gejammert.
 
HardRockDude schrieb:
Nicht nur das. Manchmal denke ich, dass die aktuellen Preise der Grafikkarten absichtlich "angepasst" sind
Solang die Kundschaft Preisflexibilität zeigt wird das genutzt.

Und über die KI-Fähigkeiten der Endkundenkarten macht sich Nividia nur insofern Gedanken, dass es keinen wirtschaftlichen Weg geben darf, dass der Endkundenkram den professionellen Lösungen auch nur im Promillebereich Konkurrenz macht.
Und KI-Generatoren, die könntest du eh nicht einsetzen, wenn du nicht irgendwoher ein gescheites, trainiertes NN bekommen kannst. Würde man begrenzen wollen dann über die Zugänglichkeit entsprechender Datensätze. Selber trainieren ist mit dem Endkundenkram eh aussichtslos.
 
  • Gefällt mir
Reaktionen: HardRockDude
Kaito Kariheddo schrieb:
Bestes Beispiel UE5 mit Lumen und Nanite. Wenn man das ausreizt, kann das schon sehr gut aussehen.
Das muss man nicht ausreizen, das sieht aus dem Stand gut aus und es gibt wenig vergleichbares.
Kaito Kariheddo schrieb:
Problematisch ist also, wenn auf die Features zurückgegriffen wird, aber nicht das Maximum aus der Grafik rausgeholt wird.
Das lohnt sich nur ab einer gewissen Komplexität und skaliert dann viel besser.
Kann man einfach abschalten als Entwickler.
Kaito Kariheddo schrieb:
Dann hat man höhere Systemanforderungen für ein Dateillevel, wie es auch schon auf der UE4 möglich war und das auch noch mit mehr Performance.
Das ist nicht wirklich korrekt so. Entwickelst du mit der UE5/UE4? Ich glaube kaum, sonst würdest du so etwas nie sagen.
Kaito Kariheddo schrieb:
Im Grunde ist UE5 eine 720p Engine bei Spielen.
Wie kommst du zu diesem Schluss? Die UE5 ist auch nicht pauschal hungriger wie die UE4. Das sieht man vor allem dann wenn Spiele auf die UE5 portiert werden. Wie etwa Manor Lords. Gibt zahlreiche DEV Blogs, Vorträge, Online-Seminare die mit diesen Verschwörungstheorien aufräumen. Wurde schon x-fach verlinkt. Aber es fruchtet nicht.
Kaito Kariheddo schrieb:
Von der abnehmenden Bildqualität will ich gar nicht erst anfangen, weil Upsampling-Vergleiche oft mit TAA vergleichen, was halt an sich schon bescheiden aussieht, aber teilweise essenziell für Engines wie UE geworden ist.
Die Bildqualität und Effizienz ist durch Verfahren wie TAA massiv gestiegen. MSAA kostet ein vielfaches der Leistung und sieht schlechter aus. Paulanergarten. DLSS/TSR/FSR sind Verfahren die auf TAA aufbauen und um ein vielfaches mehr leisten als die alten Verfahren. Das "Optimerungsproblem" der UE5 oder jeder anderen Engine/Spiel ist nichts weiter wie ein Zusammenprallen von Erwartungen und Realität. Und die UE5 ist sicher nicht für abnehmende Qualität verantwortlich, sondern für mehr Weitsicht und weniger aggressives LoD.

Vielleicht erst einmal mit den Grundlagen beschäftigen und danach mosern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CDLABSRadonP...
ghecko schrieb:
Wer sich für den BC-250 interessiert:
Ach mist.
Die Idee dahinter eine PS5 APU sonst nutzen zu können ist schon ziemlich interessant.
Aber wenn der GDDR nur mit 450mhz läuft wegen BIOS Limits dann ist des schade.

Die dinger fressen unter last doch auch 200W und sind für 130$ nicht gerade günstig zu haben.
Screenshot_2025-01-27-00-08-58-86_3aea4af51f236e4932235fdada7d1643.jpg

Von den tollen 16GB memory bleiben nur 8gb übrig weil die Fix auf CPU/CPU aufgeteilt werden müssen.

Einzig praktischen Anwendungsfall der mir gerade in den Sinn kommt ist wenn man es in so klein benötigt als Gaming Emulator. Anstatt ein Laptop Frankenstein mod.
 
Haldi schrieb:
Die Idee dahinter eine PS5 APU sonst nutzen zu können ist schon ziemlich interessant.
Ja, gegen eine voll funktionsfähige PS5-APU auf einem UEFI-Board mit vollem Funktionsumfang hätte ich jetzt auch nichts einzuwenden.
An der Firmware von dem Ding kann man sicher mit genug Zeit und Wissen einiges drehen, aber da verschwende ich meine Zeit aktuell lieber anders und warte auf Halo.
 
Quidproquo77 schrieb:
Das ist nicht wirklich korrekt so. Entwickelst du mit der UE5/UE4? Ich glaube kaum, sonst würdest du so etwas nie sagen.
Ich kann mir einfach Days Gone und Silent Hill 2 anschauen.
Quidproquo77 schrieb:
Wurde schon x-fach verlinkt. Aber es fruchtet nicht.
Doch klar, mir sind auch einige der Beiträge bekannt. Aber schau dir doch einfach mal die großen Titel an welche auf UE5 setzen, da graust es mir wenn ich daran denke, welche Spiele noch kommen sollen.
Quidproquo77 schrieb:
Das sieht man vor allem dann wenn Spiele auf die UE5 portiert werden. Wie etwa Manor Lords.
Indie-Spiele in UE(5) sind oft klasse, da hab ich selten Performance-Probleme. Aber bei AAA-Produktionen wird es oft zur 720p Diashow und dann oft ohne wirklichen Fortschritt in der Bildqualität.
Glaub ab UE 5.3 ist Upsampling standardmäßig aktiv.
Quidproquo77 schrieb:
Heutige Spiele laufen selbst auf uralt Hardware noch spielbar.
Ja das stimmt, die RX480 / GTX1060-Generation war wohl die langlebigste ever. Problem ist eher, Vergleich mal Grafik und Performance von einem Star Wars Outlaws mit nem Far Cry 5.

Generell sind Titel, welche als aktuell best-aussehend gelten, auch ohne Upsampling gut spielbar.
 
  • Gefällt mir
Reaktionen: ILoveShooter132, Termy und dafReak
Neodar schrieb:
Die RTX 5090 ist auch wirklich nur für Compute Anwendungen wirklich sinnvoll. Als Gaming GPU mit dem massiven Stromverbrauch
Der „massive Stromverbrauch“ der sich in gigantischen 3,7 Cent pro Stunde Mehrkosten niederschlägt, sofern nicht bereits eine PV Anlage installiert ist? :p

Das ist doch ein Witz bei dem Anschaffungspreis - zum Glück fährst du kein Fahrzeug, das würde dich wundern was selbst das sparsamste E-Auto in einer Stunde kostet … über welche Beträge sich manche Gedanken machen … bei einer 100€ Grafikkarte in Ordnung, aber 3,7 Cent bei über 2.000€ Anschaffungspreis und das bei den wenigen Stunden die man als berufstätiger Mensch zum Zocken kommt - das interessiert doch keinen wirklichen potentiellen Kunden :rolleyes:

Die Abwärme wird bei Käufern mit wenig m2 eher das Problem sein - aber du sprichst ja wirklich vom Stromverbrauch :p
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zarlak
ghecko schrieb:
Das ist relativ. 🙃
ghecko schrieb:
alles von Nvidia ab RTX3000
Da liegt bei mir derzeit das Problem. Meine alte RTX2060S kann das noch nicht. Daher überlege ich für den Medien-PC eine Karte zu kaufen, die das kann. Irgendwie hab ich aber keinen Bock, Nvidia mehr Geld in den Rachen zu werfen als unbedingt nötig.

Von daher, danke! Die Info ist enorm hilfreich.
 
Zurück
Oben