News Linux-News der Woche: RTX 5090 mit massiver Compute-Performance

Kaito Kariheddo

Redakteur
Teammitglied
Registriert
Dez. 2021
Beiträge
683
Die RTX 5090 hat sich einer Reihe von Benchmarks unter Linux gestellt. Nicht Spiele, sondern Compute stand im Vordergrund. Für Intels Battlemage-Grafikkarten gibt es nun auch hardwarebeschleunigtes Encoding. AMD bringt einen eigenen Referenz-Desktop für das freie Betriebssystem und exotische Mining-Hardware kann nun auch Spiele.

Zur News: Linux-News der Woche: RTX 5090 mit massiver Compute-Performance
 
  • Gefällt mir
Reaktionen: Strikerking, ErbarmeHesse, K3ks und 27 andere
Die RTX 5090 ist auch wirklich nur für Compute Anwendungen wirklich sinnvoll. Als Gaming GPU mit dem massiven Stromverbrauch und dennoch nur eher wenig Mehrleistung zu 4090 ist das Ding bei einem Anschaffungspreis von 2300€+ einfach nicht sinnvoll.
 
  • Gefällt mir
Reaktionen: Zockmock, harrysun, Mar1u5 und 22 andere
Habe es schon an anderer Stelle geschrieben:
CDLABSRadonP... schrieb:
Der GPU-Compute-Test bei Phoronix ist übrigens einer der wenigen, der zeigen kann, dass in Blackwell Potential schlummert:
https://www.phoronix.com/review/nvidia-geforce-rtx5090-linux
Wahrscheinlich hat Nvidia diese Generation (und den GB202 im Speziellen) halt auch hart darauf ausgelegt, nur für Consumerkarten zweitverwertet zu werden und in erster Linie eine "günstige" Ergänzung des professionellen Portfolios nach unten zu bieten.
 
  • Gefällt mir
Reaktionen: Saint81, Zockmock, Petr88 und 5 andere
Die RTX 5090 hat sich einer Rehe von Benchmarks unter Linux gestellt.
1737901501768.png

ok... :)
 
  • Gefällt mir
Reaktionen: Saint81, Zockmock, Mar1u5 und 36 andere
Kann ein Experte abschätzen, was das bringen könnte hinsichtlich Performance in Anwendungen (z.B. Davinci Resolve) und Spielen:
"AMD entwickelt eigenen Wayland-Compositor"?
 
@Cr4y Nicht viel, denke ich. Ist halt ein weston testing space von AMD bevor es upstreamed wird.
Weson wird aber kaum von den meisten Desktops genutzt.
 
Weston ist ein Referenz-Compositor! Der ist nur da das die anderen abschauen können.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Neodar schrieb:
Die RTX 5090 ist auch wirklich nur für Compute Anwendungen wirklich sinnvoll. Als Gaming GPU mit dem massiven Stromverbrauch und dennoch nur eher wenig Mehrleistung zu 4090 ist das Ding bei einem Anschaffungspreis von 2300€+ einfach nicht sinnvoll.

Glaube wirklich die 5070ti mit 16GB für 879€ ist die sinnvollste Gamingkarte im 4k Bereich. Hat alle neue Funktionen, die 16GB reichen (mir) bisher in jedem Spiel mehr als aus und der Aufpreis zur 5090 ist einfach enorm.

Bin aber auch überzeugt, dass eine 4080ti mit 24GB (3GB Chips anstelle von 2GB Chips) kommen wird.
 
  • Gefällt mir
Reaktionen: Mar1u5
  • Gefällt mir
Reaktionen: iron_monkey
Wer sich für den BC-250 interessiert:

So kommt man dann doch an seine PS3-Games auf einer PS5 :D
 
  • Gefällt mir
Reaktionen: C4rp3di3m, Randnotiz, Haldi und 4 andere
ACS klingt interessant und könnte die Grundlage eines VR-fähigen Wayland-Compositors werden. Das würde sich Valve sicher wünschen. Und ich auch. ;)
 
  • Gefällt mir
Reaktionen: Saint81, Randnotiz und netzgestaltung
"Auch könnte das Ganze in Zukunft die Plattform für AMDs eigene Software Werkzeuge stellen, wozu unter anderem Profiling und Performance Tweaker zählen und entscheidend für 3D-Spiele und Multimedia sein könnte"

Wäre natürlich top wenn das noch dieses Jahr vor dem offiziellen Win 10 Aus etwas werden würde, momentan fehlt es noch an Möglichkeiten die ganzen Treiberseitigen Einstellungen die man in Windows hat, auch unter Linux zu nutzen.
 
  • Gefällt mir
Reaktionen: rzweinig und Tanzmusikus
CDLABSRadonP... schrieb:
Habe es schon an anderer Stelle geschrieben:
Nicht nur das. Manchmal denke ich, dass die aktuellen Preise der Grafikkarten absichtlich "angepasst" sind - und zwar insoweit, als dass Hinz und Kunz sich nicht ohne Weiteres daheim mit KI beschäftigen können. Was ich damit meine ist Folgendes:
Für das Kreieren von Bildern/Videos/Texten wird GPU-Leistung benötigt. Natürlich geht das bereits mit relativ kleinen KI-Modellen, aber gute Qualität verlangt massiv Leistung. Vielleicht ist das Verteuern der Karten also ein Weg, richtig guten Deep Fakes solange aus dem Weg zu gehen, bis man halbwegs Kontrollroutinen in den Markt eingebaut hat. Ansonsten hätten wir heute schon viel krassere Probleme (sozial und politisch), als wir uns vorstellen könnten.
(Dass man auf anderen Wegen als die eigene Hardware an GPU-Leistung kommt, ist mir klar. Aber das erfordert eben weitere Schritte, die bereits erste Hindernisse für den unbedarften Laien darstellen können.)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tera_Nemesis und floTTes
"42% Mehrleistungen in Anwendungen" - das ist halt auch der aktuelle Fokus. Siehe auch AMD mit Zen 5.

Im Gaming würden wir wahrscheinlich viel stärker davon profitieren, wenn mal wieder ordentlich optimiert würde als einfach mehr TFlops für noch mehr Geld einzukaufen.
 
  • Gefällt mir
Reaktionen: Taikaschi, Tera_Nemesis, fox40phil und 2 andere
Kaito Kariheddo schrieb:
dass gefühlt kaum noch Optimierungen bei Spielen stattfinden
Also die "Optimierungen" der Games bezüglich des VRAM Verbrauches haben sie schon voran getrieben :D
 
  • Gefällt mir
Reaktionen: Termy, iron_monkey, bad_sign und eine weitere Person
@Cr4y Bestes Beispiel UE5 mit Lumen und Nanite. Wenn man das ausreizt, kann das schon sehr gut aussehen. Allerdings hat zum Beispiel Nanite eine Grundlast. Problematisch ist also, wenn auf die Features zurückgegriffen wird, aber nicht das Maximum aus der Grafik rausgeholt wird. Dann hat man höhere Systemanforderungen für ein Dateillevel, wie es auch schon auf der UE4 möglich war und das auch noch mit mehr Performance. Im Grunde ist UE5 eine 720p Engine bei Spielen. Von der abnehmenden Bildqualität will ich gar nicht erst anfangen, weil Upsampling-Vergleiche oft mit TAA vergleichen, was halt an sich schon bescheiden aussieht, aber teilweise essenziell für Engines wie UE geworden ist.
 
  • Gefällt mir
Reaktionen: BlueBringer, Termy, metoer und 8 andere
Zurück
Oben