News Linux-News der Woche: RTX 5090 mit massiver Compute-Performance

nn|none schrieb:
Irgendwie hab ich aber keinen Bock, Nvidia mehr Geld in den Rachen zu werfen als unbedingt nötig.
Also wenn es nur um Decode und Encode geht, dann ist Intel und Linux eine gute Kombination. Wenn Gaming dazu kommt, dann macht man mit AMD nichts verkehrt. Intel hat bei der 3D Leistung unter Linux leider noch nicht zu den Mitbewerbern aufgeschlossen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Termy, frazzlerunning, dafReak und eine weitere Person
Haldi schrieb:
Einzig praktischen Anwendungsfall der mir gerade in den Sinn kommt ist wenn man es in so klein benötigt als Gaming Emulator. Anstatt ein Laptop Frankenstein mod.
Mir würde tatsächlich noch der Betrieb eines Kleinservers in dem Sinn kommen, auch wenn es da an der Stromaufnahme scheitert, wenn mein altes N3150 Board vom DIY-NAS schon weniger frisst und heutzutage wohl noch besser ist, wenn ich das Geld für ein N100 Board in die Hand nehmen würde.
 
Krik schrieb:
@Spock37
Aber die Vorteil von Wayland siehst du nicht? Z. B. dass nicht mehr jedes Programm wie ein Keylogger agieren kann?

X11 war für seine Zeit gut, aber heute ist es einfach überholt. Man hätte eigentlich schon vor 20-30 Jahren einen Ersatz bringen müssen (der mittlerweile auch durch ein, zwei Nachfolger ersetzt wurde).
Funktioniert Waylands überhaupt mit Nvidia Treibern? Das läuft bei mir überhaupt nicht, bin da gezwungen X11 zu verwenden oder ich deinstalliere den Nvidia Treiber wieder.
 
Neodar schrieb:
Die RTX 5090 ist auch wirklich nur für Compute Anwendungen wirklich sinnvoll. Als Gaming GPU mit dem massiven Stromverbrauch und dennoch nur eher wenig Mehrleistung zu 4090 ist das Ding bei einem Anschaffungspreis von 2300€+ einfach nicht sinnvoll.

Insofern man eine RTX4090 hat, stimme ich dir zu. Bei einem Neukauf würde ich jedoch schon über eine 5090 nachdenken :)
 
@PrimeskyLP
Mangels Nvidia-GPU kann ich das nicht beantworten.
Soweit ich weiß, läuft es wohl insgesamt, kann aber bei dem Einen oder Anderen Problemen machen. Deswegen sagt heißt es häufig auch grob, dass AMD + Linux besser funktioniert als Nvidia + Linux.
 
PrimeskyLP schrieb:
Funktioniert Waylands überhaupt mit Nvidia Treibern? Das läuft bei mir überhaupt nicht, bin da gezwungen X11 zu verwenden oder ich deinstalliere den Nvidia Treiber wieder.
Wayland läuft schon seit längerer Zeit (555 Treiber+) ohne wirkliche Probleme mit Nvidia.
 
@Wau Kp was ich da falsch mache aber bei mir läuft da garnichts mit Wayland. Das ist bei mir nur Schwarzbild für paar sekunden bis mich das wieder zum Loginscreen schmeißt. Mit X11 funkt aber alles (mehr oder weniger).
 
Tanzmusikus schrieb:
Und wenn man jedwedes Upscaling als störend für die 👀 empfindet? 😉
  1. Für die Augen? Eher für das Gehirn, Nocebo-Effekt und so...
  2. Die Algorithmen funktionieren auch prinzipiell mit Skalierungsfaktoren von 100% und (wenn man es freischaltet bzw. per klassischem Downsampling hacked) höher.
 
1. Störend im Sinne von Artefakten, unsauberem Bild usw. - hat also nix mit deinen Vermutungen zu tun.
2. Bei meiner Auflösung (UW-FHD) machen Upscaler (für mich) kein gutes Bild. Dann lieber 'n paar FPS weniger. Dank FreeSync Premium ist das sogar bei unter 48 FPS ansehnlich. Meist stelle ich aber die Grafik-Regler runter.

Für Downscaling/-sampling hat meine Grafikkarte i.d.R. zu wenig Leistung. Für Pong würde es reichen. :D
 
Ein neues Valve Headset mit einem VR-fähigen Steamdeck unter Linux, per WiFi 7 verbunden.
Das wäre so viel geiler als alles was sie in absehbarer Zeit in Standalone-Headsets quetschen könnten.
@Krik volle Zustimmung!
 
  • Gefällt mir
Reaktionen: Krik
CDLABSRadonP... schrieb:
Für die Augen? Eher für das Gehirn, Nocebo-Effekt und so...
Ich hatte FSR in Satisfactory lange versucht eingeschalten zu behalten... Wegen der Partikel-Effekte (Staub im Wüstenwind, Sporen im Wald, Blätter usw.) und der Bewegung auf Laufbändern und von Maschinen hatte ich damit keine tolle Optik. Sah aus wie Ghosting.
Ja, Kantenflimmern war weg, aber da hab ich lieber Kantenflimmern ohne FSR als diese Ghosting-Effekte mit FSR.

Auch wenn ich jetzt auf 60-100Fps runter bin, statt den dann eher konstanten 100-120.

@PrimeskyLP Debian scheint noch Treiber 535 zu empfehlen für Deb12. Ich nehme an, das ist bekannt.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Kaito Kariheddo schrieb:
Ich kann mir einfach Days Gone und Silent Hill 2 anschauen.
Mit was hast du dir das angeschaut? Nvidia Nsight?
Damit könnte man durchaus die Effizienz und die Algorithmen der Implementierung ohne Zugriff auf den Quellcode einschätzen und eine qualitative Aussage treffen. So schaust du dir einfach nur die Spiele an, ohne Hintergrundinformationen einzuholen. Und selbst bei bloßem anschauen, müsste erkennbar sein, warum Days Gone niedrigere Anforderungen haben muss.

Bessere globale Beleuchtung, Software Lumen, höherwertige Reflektionen, mehr Geometrie, Meshes, Details. Damit wäre die unterschiedliche Performance zu Silent Hill bereits erklärt. Und wenn dann noch HW Raytracing dazukommt, muss man glaube ich nicht weiter diskutieren. Days Gone verfügt nur über eine veraltete Umgebungsverdeckung.

Days Gone hatte schon zum Release keine besondere Grafik. Die Performance war aber gut.
https://www.computerbase.de/artikel..._mit_unreal_engine_4_und_ausschliesslich_dx11
Kaito Kariheddo schrieb:
Aber schau dir doch einfach mal die großen Titel an welche auf UE5 setzen, da graust es mir wenn ich daran denke, welche Spiele noch kommen sollen.
Mit "schau dir mal an" kann ich absolut nichts anfangen.
Kaito Kariheddo schrieb:
Aber bei AAA-Produktionen wird es oft zur 720p Diashow und dann oft ohne wirklichen Fortschritt in der Bildqualität.
Mit Bildqualität kann ich etwas anfangen. Du kannst gerne mittels Querverweis eine vergleichbare Beleuchtungsqualität wie mit ausgefahrenem Lumen in anderen Spielen zu niedrigeren Performancekosten suchen und präsentieren. Da bleibt nur Hardware Raytracing, was ähnlich viel kostet, wenn nicht mehr.
Kaito Kariheddo schrieb:
Problem ist eher, Vergleich mal Grafik und Performance von einem Star Wars Outlaws mit nem Far Cry 5.
Können wir gerne machen. Far Cry 5 hat dagegen nicht ansatzweise eine Chance.
Star Wars Outlaws ist im übrigen auch keine UE5.
 
Kaito Kariheddo schrieb:
Ironischerweise hatte ja Nvidia den Weg geebnet dafür, dass gefühlt kaum noch Optimierungen bei Spielen stattfinden
Leistungssteigerungen durch jede neue GPU-Gen können dazu verleiten, bei der Entwicklung faul zu sein. Niemand wirft Nvidia aber vor, dass die RTX 4090 zu stark sei oder dass der Kauf einer solcher GPU das Faul sein fördert. Die Einführung von Upscaling entspricht in der GPU Geschichte, als gäbe zwei Performance-Boosts in einer Generation. Das ist also nur ein Einmal-Effekt.

Abgesehen davon, sind Grafikpresets nicht gottgegeben. Das was früher nativ mit dem Label "Ultra" war, ist dann einfach jetzt "Medium" (wenn du weiterhin nativ spielen willst). Wenn der Entwickler will, dass das Spiel als "optimiert" in der Presse erscheint, stellt er alles runter und gibt dem ganzen dem Label "Ultra Maximum". Meistens sind die Unterschiede nicht wirklich wahrnehmbar. Bestes Beispiel ist Stalker mit dem True Epic Mod, dass Settings in der Config einfach nur hochsetzt, die der Entwickler wohl nicht für sinnvoll hielt. Aber technisch ist es jederzeit möglich, RTX 4090/5090/6090 in die Knie zu zwingen.
 
Zurück
Oben