Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsLinux-News der Woche: RTX 5090 mit massiver Compute-Performance
Die RTX 5090 hat sich einer Reihe von Benchmarks unter Linux gestellt. Nicht Spiele, sondern Compute stand im Vordergrund. Für Intels Battlemage-Grafikkarten gibt es nun auch hardwarebeschleunigtes Encoding. AMD bringt einen eigenen Referenz-Desktop für das freie Betriebssystem und exotische Mining-Hardware kann nun auch Spiele.
Die RTX 5090 ist auch wirklich nur für Compute Anwendungen wirklich sinnvoll. Als Gaming GPU mit dem massiven Stromverbrauch und dennoch nur eher wenig Mehrleistung zu 4090 ist das Ding bei einem Anschaffungspreis von 2300€+ einfach nicht sinnvoll.
Der GPU-Compute-Test bei Phoronix ist übrigens einer der wenigen, der zeigen kann, dass in Blackwell Potential schlummert: https://www.phoronix.com/review/nvidia-geforce-rtx5090-linux
Wahrscheinlich hat Nvidia diese Generation (und den GB202 im Speziellen) halt auch hart darauf ausgelegt, nur für Consumerkarten zweitverwertet zu werden und in erster Linie eine "günstige" Ergänzung des professionellen Portfolios nach unten zu bieten.
Kann ein Experte abschätzen, was das bringen könnte hinsichtlich Performance in Anwendungen (z.B. Davinci Resolve) und Spielen:
"AMD entwickelt eigenen Wayland-Compositor"?
@Cr4y Nicht viel, denke ich. Ist halt ein weston testing space von AMD bevor es upstreamed wird.
Weson wird aber kaum von den meisten Desktops genutzt.
Die RTX 5090 ist auch wirklich nur für Compute Anwendungen wirklich sinnvoll. Als Gaming GPU mit dem massiven Stromverbrauch und dennoch nur eher wenig Mehrleistung zu 4090 ist das Ding bei einem Anschaffungspreis von 2300€+ einfach nicht sinnvoll.
Glaube wirklich die 5070ti mit 16GB für 879€ ist die sinnvollste Gamingkarte im 4k Bereich. Hat alle neue Funktionen, die 16GB reichen (mir) bisher in jedem Spiel mehr als aus und der Aufpreis zur 5090 ist einfach enorm.
Bin aber auch überzeugt, dass eine 4080ti mit 24GB (3GB Chips anstelle von 2GB Chips) kommen wird.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
"Auch könnte das Ganze in Zukunft die Plattform für AMDs eigene Software Werkzeuge stellen, wozu unter anderem Profiling und Performance Tweaker zählen und entscheidend für 3D-Spiele und Multimedia sein könnte"
Wäre natürlich top wenn das noch dieses Jahr vor dem offiziellen Win 10 Aus etwas werden würde, momentan fehlt es noch an Möglichkeiten die ganzen Treiberseitigen Einstellungen die man in Windows hat, auch unter Linux zu nutzen.
Nicht nur das. Manchmal denke ich, dass die aktuellen Preise der Grafikkarten absichtlich "angepasst" sind - und zwar insoweit, als dass Hinz und Kunz sich nicht ohne Weiteres daheim mit KI beschäftigen können. Was ich damit meine ist Folgendes:
Für das Kreieren von Bildern/Videos/Texten wird GPU-Leistung benötigt. Natürlich geht das bereits mit relativ kleinen KI-Modellen, aber gute Qualität verlangt massiv Leistung. Vielleicht ist das Verteuern der Karten also ein Weg, richtig guten Deep Fakes solange aus dem Weg zu gehen, bis man halbwegs Kontrollroutinen in den Markt eingebaut hat. Ansonsten hätten wir heute schon viel krassere Probleme (sozial und politisch), als wir uns vorstellen könnten.
(Dass man auf anderen Wegen als die eigene Hardware an GPU-Leistung kommt, ist mir klar. Aber das erfordert eben weitere Schritte, die bereits erste Hindernisse für den unbedarften Laien darstellen können.)
"42% Mehrleistungen in Anwendungen" - das ist halt auch der aktuelle Fokus. Siehe auch AMD mit Zen 5.
Im Gaming würden wir wahrscheinlich viel stärker davon profitieren, wenn mal wieder ordentlich optimiert würde als einfach mehr TFlops für noch mehr Geld einzukaufen.
@Cr4y Bestes Beispiel UE5 mit Lumen und Nanite. Wenn man das ausreizt, kann das schon sehr gut aussehen. Allerdings hat zum Beispiel Nanite eine Grundlast. Problematisch ist also, wenn auf die Features zurückgegriffen wird, aber nicht das Maximum aus der Grafik rausgeholt wird. Dann hat man höhere Systemanforderungen für ein Dateillevel, wie es auch schon auf der UE4 möglich war und das auch noch mit mehr Performance. Im Grunde ist UE5 eine 720p Engine bei Spielen. Von der abnehmenden Bildqualität will ich gar nicht erst anfangen, weil Upsampling-Vergleiche oft mit TAA vergleichen, was halt an sich schon bescheiden aussieht, aber teilweise essenziell für Engines wie UE geworden ist.