Kommentar Kommentar: Spielen auf Linux – warum eigentlich nicht?

freak01 schrieb:
@ghecko:

wenn man berücksichtigt, dass die GPU recht hoch takten muss und eine gewisse Auslastung mit z.B. vdpau hat,

sollte man den erhöhten Stromverbrauch hier nicht aus den Augen lassen


das könnte durchaus, wie Zehkul erwähnte, im Vergleich zur CPU ineffizienter sein
1. VDPAU hat nichts mit der GPU zu tun und lastet diese auch nicht aus.

2. Ich beobachte den GPU takt sehr genau, wenn ich solche Versuche durchführe, und der bleibt reproduzierbar konstant. Der Hardwaredecoder hat eine gewisse Rohleistung, die ihm die Decodierung von bestimmten Codecs in bestimmten Auflösungen durch ein logik-gatter erlaubt. Alles, ALLES was dieses logik-gatter in Software emuliert (Softwaredecoding), braucht in der der Software zugrunde liegenden Logik einen expotenzielle Anzahl an Schaltzyklen, also entweder mehr Gatter oder höhere Frequenzen. Hardwaredecoding ist die effizienteste Art, Datenströme umzuwandeln. Software ist flexibler, aber verbraucht ungleich mehr Rechenzeit und muss ebenfalls auf Hardware ausgeführt werden. Hardwaredecoding ist IMMER effizienter, wenn man es richtig implementiert.

Nvidia, AMD und Intel haben für das Decodieren von Videos einen separierten Teil in der GPU. Und nur der wird beim Decodieren ausgelastet. Das Solche Formate über Shader decodiert werden ist ein Irrglaube.
GPU-computing oder Encoding, das wird über die Shader realisiert.
Wer unter Linux eine Nvidia-karte hat und den proprietären Treiber verwendet, kann gerne mal den Manager öffnen und sich wundern, warum die GPU und der Videoprozessor separat ausgeführt sind und deren Auslastung voneinander völlig unabhängig ist.

Zehkul schrieb:
Eben. Die meisten schauen nur auf den CPU Takt, die wenigsten auf den GPU Takt und praktisch niemand hat tatsächlich ein Messgerät zwischen PC und Steckdose hängen, um nachzuschauen, wie viel die Kiste nun tatsächlich zieht. Da liegt der Hund begraben.
Meiner Argumentation liegt die komplette Kette zugrunde. Ich habe mehrere Geräte, deren Auslastung und Stromverbrauch auf diese Weise überprüft. Überall war Hardwaredecoding effizienter, je höher der Decodieraufwand, desto mehr.
 
Zuletzt bearbeitet:
Ich kann viele Gründe nennen, warum nicht. Bei einem muß mir erst mal jemand die Frage beantworten: Unter welchem Linux?

Bei jedem neuen Release einer Distribution immer wieder die gleiche Katastrophen, was alles wieder nicht geht. Während ich als beruflicher IT-ler dafür ja entsprechend bezahlt werde, mich tagtäglich in allen Konstellationen mit diversen Distributionen rumzuärgern, möchte ich privat so was überhaupt nicht auf der Kiste haben. Ich frage mich dann, was dann Laien damit anfangen sollen... :rolleyes:

Für so was müßten sich eine Menge Firmen entsprechend gut absprechen, damit es eine Linux-Distribution gibt, die für alle angebotenen Spiel und für die meisten Hardware tauglich ist. Wir sehen ja jeden Tag schon im professionelle Umfeld, was "Standard" bedeutet. Gar nichts! So was kann leider nur funktionieren, wenn einer es in der Hand hat, und entsprechend durchdrückt. So was gibt es schon, in Form von Apple, MS und Co. Alles andere ist zum Scheitern verurteilt.

Spielen auf Linux mit der entsprechenden Qualität eines AppleOS oder Windows wird vermutlich auf ewig ein feuchter Traum der Linuxer bleiben. Für einige wenige Spiele und Bereiche mag es hinhauen (z.B. Emulatoren), aber es wird ohne entsprechende Power keine Marktdurchdringung bekommen.
 
Zuletzt bearbeitet:
Ich finde das mit den Upgrade Problemen übertrieben. Bei mir war das eine Kleinigkeit mit den Import kwallet was nicht sauber war und damit hatte sich das. So katastrophal ist es nie.
 
Einerseits ist es die unglaubliche Flexibilität von Linux, die für seine Verbreitung auf unterschiedlichsten Geräten und Architekturen verantwortlich ist, andererseits bemängeln sogenannte Fachkräfte die Diversität, die ein logisches Ergebnis dieser Verbreitung ist? Gäbe es nur das eine, ultimative Linux für alle müssten wir diese Diskussion hier überhaupt nicht führen, denn es hätte sich nie bis zu diesem Punkt durchgesetzt. Davon abgesehen unterliegen die Kernkomponenten, die die Funktionen bereitstellen, einer bemerkenswerten Kontinuität im Angesicht der Verbreitung. Es gibt nicht das eine Linux sondern für jeden das passende. Ist doch gut?
 
Jesterfox schrieb:
@blackiwid: ich glaube du unterschätzt wie viele Leute das Feature nutzen. ich bin im Soundkarten-Bereich des Forums hier recht aktiv und da schlagen auch immer wieder Leute auf die sich wunder dass das Feature bei ner Soundkarte plötzlich nicht geht obwohl es der "billige" OnBoard kann (ist nämlich soweit Realtek exklusiv). Hauptanwendung ist den Frontanschluss für ein Headset zu nehmen über das nur der Sprachchat läuft während das restliche Audio über die Boxen läuft.

Man kann das auch mit einer Fiio E10K. Vorne den Kopfhörer anschließen und hinten die Anlage.;)

Man kann den Kopfhörer sogar lauter oder leise drehen und auch die Anlage wenn man wie ich noch einen Lautstärkeregler dazwischen hat, der man mag es kaum glauben den Klang nicht verschlechtert.^^

Muss den Kabel krieg auf meinem Tisch irgendwann mal beseitigen, bzw. kürzere Cinch Kabel nehmen, der von Klinke auf Cinch ist ja schon mal nur 30 cm lang.:D

20151016_225107.jpg
 
Die Diversität hat halt Vor- und Nachteile. Für den Anwedener kann es gut sein wenn er die Auswahl hat, aber es ist auch ein Problem wenn man sich mit anderen unt4erhält... "wie das mit Ubuntu geht weiß ich nicht ich hab Red Hat"... Windows lebt auch davon das es jeder kennt und evtl. weiterhelfen kann.

Ein weiteres Problem entsteht für die Softwareentwickler die sich nicht wirklich auf einen Standard verlassen können... ha, LSB existiert, bin mir aber nicht sicher in wie weit das ausreichend ist. Aktuell hab ich z.B. das Problem das ich für bestimmte Anwendungen (ja, .NET Framework und Kestrel ;-) auf meinem Ubuntu 14.04 die libuv händisch installieren muss weil sie nicht im Repository ist (zumindest nicht in einer Version die aktuell genug ist)... nicht schön so am Paketmanager vorbei arbeiten zu müssen.


@O-Saft-Killer: ja, mit 2 getrennten Audio-Devices geht's natürlich. Aber wozu was zusätzlich kaufen wenn der Realtek an sich ausreichen könnte?

Natürlich ist das auch ein Problem von Realtek wenn die keine passenden Treiber liefern. Den Anwender ist das aber eher egal wer Schuld ist. Er will das es geht ;-)
 
Weder unter Manjaro, noch unter Suse oder aktuell Ubuntu hatte ich Probleme meine Spiele unter Linux zu spielen. Von daher verstehe ich gerade nicht wirklich was einige meinen mit der Behauptung es würde an einem Standard für Linux fehlen um dort spielen zu können.

​Habt ihr das überhaupt mal probiert in letzter Zeit?
 
ghecko schrieb:
Meiner Argumentation liegt die komplette Kette zugrunde. Ich habe mehrere Geräte, deren Auslastung und Stromverbrauch auf diese Weise überprüft. Überall war Hardwaredecoding effizienter, je höher der Decodieraufwand, desto mehr.

Heißt eben auch im Umkehrschluss, dass es umso ineffizienter wird, je geringer der Dekodieraufwand ist – und die wenigsten Leute schauen 4k Material, sondern 480p-1080p. Die Situationen, in denen es ineffizienter als auf der CPU ist, gibt es. Es ist wie gesagt auch schlicht eine unnötige Fehlerquelle, weshalb es nicht standardmäßig aktiviert wird, und der Gewinn ist recht minimal. 20W Unterschied hatte einer in #mpv mal gemessen – mit einem 4k Clip. (Der Hardwaredecoding ist Betrug Satz stammt übrigens vom mpv Dev :p) Laut CB Test verbrauchen Karten wie die 390X satte 75 Watt mehr bei Bluray Wiedergabe im Vergleich zum Idle, da muss die CPU schon ordentlich etwas fressen, damit das ineffizienter wird als die GPU.

Und auch wenn nicht – wem 20 Watt so viel wert sind, der tut besser daran, ein paar Lampen auszumachen. :)
 
Zehkul schrieb:
Und auch wenn nicht – wem 20 Watt so viel wert sind, der tut besser daran, ein paar Lampen auszumachen. :)

ja der Stromverbrauch mag jeh nach cpu typ und Aufloesung nicht so gross sein, aber jeh nach geraet wird der Luefter laut und man nutzt seine CPU vielleicht auch im Hintergrund odeer nebenbei gerne fuer was anderes ohne das er staendig zu 90% aus geelastet ist.
Ergänzung ()

Jesterfox schrieb:
@O-Saft-Killer: ja, mit 2 getrennten Audio-Devices geht's natürlich. Aber wozu was zusätzlich kaufen wenn der Realtek an sich ausreichen könnte?

Wie wir von dell gelernt haben kostet nen extra Windows 70 Euro aufpreis, dafuer ist doch locker ne usb soundkarte drin?

NACHTRAG:

auch wenn ich zugegebenermasen die Loesung auch nicht so richtig verstehe scheint es prinzipiel zu gehen:

http://mailman.alsa-project.org/pipermail/alsa-devel/2012-August/053945.html

muesstest wohl das realtek modul bearbeiten und kompilieren, wahrscheinlich brauchst da nen komplett eigenen kernel kompiliret, das lohnt wohl nicht, daher wohl doch besser ne 2. usb soundkarte ,stressfreier :)
 
Zuletzt bearbeitet:
Ich finde die ganze Sache übrigens eher problematisch. Natürlich ist es schön wenn Linux mehr Beachtung bekommt...

...aber will man wirklich DAUs & User wie "wenn da Spiele & Officesoftware laufen, dann wechsel ich" in der Community haben?

Das ist ein stark zweischneidiges Schwert. Mit hoher Userzahl wird es mehr Malware geben, mehr Optimierungen für die DAUs, mehr Probleme, usw.

Zumindest teilweise finde ich es gar nicht so schlecht, dass die große Masse bei Windows bleibt...ich mag mein Debian so, wie es jetzt ist ;)
 
Zuletzt bearbeitet:
Zehkul schrieb:
Heißt eben auch im Umkehrschluss, dass es umso ineffizienter wird, je geringer der Dekodieraufwand ist – und die wenigsten Leute schauen 4k Material, sondern 480p-1080p. Die Situationen, in denen es ineffizienter als auf der CPU ist, gibt es. Es ist wie gesagt auch schlicht eine unnötige Fehlerquelle, weshalb es nicht standardmäßig aktiviert wird, und der Gewinn ist recht minimal. 20W Unterschied hatte einer in #mpv mal gemessen – mit einem 4k Clip. (Der Hardwaredecoding ist Betrug Satz stammt übrigens vom mpv Dev :p) Laut CB Test verbrauchen Karten wie die 390X satte 75 Watt mehr bei Bluray Wiedergabe im Vergleich zum Idle, da muss die CPU schon ordentlich etwas fressen, damit das ineffizienter wird als die GPU.

Und auch wenn nicht – wem 20 Watt so viel wert sind, der tut besser daran, ein paar Lampen auszumachen. :)
Ich habe bis auf eine HD6540 keine Hardware von AMD, also kann ich nur für Intel/Nvidia sprechen, aber das Wiedergeben einer verschlüsselten BD halte ich nicht für repräsentativ um die Leistungsfähigkeit und den Energieverbrauch beim decodieren von Videos zu messen.

Developer reden gern schlecht über Dinge, die sie nicht mögen. Wenn er Softwaredecoding favorisiert weil er über dessen Implementation mehr Kontrolle hat, wird er wohl nicht die Vorteile von Hardwaredecoding predigen.

Hier an meinem Laptop (intel GPU) ist Hardwaredecoding IMMER effizienter. Egal ob 480p oder 1080p. Nur je höher die Bitrate und das Profil, desto größer ist der Unterschied. Das bekomme ich mit kühlen Fingern belohnt. Und das ein oder andere Video schafft selbst ein 2x1,8Ghz Ivy mit SMT nicht in Echtzeit per Software ohne framedrops. Per Hardware schon.
 
Zuletzt bearbeitet:
@ascer: die DAUs sind weniger das Problem, es sind eher die Leute die mit den DAUs nicht klar kommen ;-) Ein Grund weshalb ich eigentlich eher BSD mag. Der Umgang mit den Leuten ist da irgendwie besser (gilt allgemein je exotischer das System ist)

Ja, das ganze mag sich durchaus etwas bedingen weil die exotischen Systeme weniger DAUs haben die was fragen... aber man kann doch einfach auch mal die Füße still halten wenn man nichts sinnvolles beitragen will... oder nicht?
 
ascer schrieb:
Zumindest teilweise finde ich es gar nicht so schlecht, dass die große Masse bei Windows bleibt...ich mag mein Debian so, wie es jetzt ist ;)

Naja das ist relativ, nur weil es vielleicht irgendwann ein MS Office fuer Linux gaebe, mal angenommen, heisst das ja nicht das es debian vor installiert :)

Denke die normalen Linuxe werden nicht viel anders werden, aber es kommen neue dazu, siehe Steamos, Android hat ja auch den GNU/Linux Desktop nicht geaendert.

Naja nehmen wir mal Ubuntu Touch aussen vor, das ja eher zu so ne art alternativer Launcher fuer Android verkommen.
 
ghecko schrieb:
Ich habe bis auf eine HD6540 keine Hardware von AMD, also kann ich nur für Intel/Nvidia sprechen, aber das Wiedergeben einer verschlüsselten BD halte ich nicht für repräsentativ um die Leistungsfähigkeit und den Energieverbrauch beim decodieren von Videos zu messen.

Die Verschlüsselung dürfte da keinen Unterschied machen.

Und ja, Laptops sind natürlich eine andere Geschichte. Da ist der Stromverbrauch deutlich wichtiger.
 
Jesterfox schrieb:
@O-Saft-Killer: ja, mit 2 getrennten Audio-Devices geht's natürlich. Aber wozu was zusätzlich kaufen wenn der Realtek an sich ausreichen könnte?

Natürlich ist das auch ein Problem von Realtek wenn die keine passenden Treiber liefern. Den Anwender ist das aber eher egal wer Schuld ist. Er will das es geht ;-)

Stimmt natürlich, aber "ausreichen" ist bei mir immer so eine Sache.:D

Klar für den User der sich nicht immer das beste holen muss geht das sicher klar. Irgendwie auch verständlich das sich daher über schlechten Treibersupport aufgeregt wird, irgendwie aber auch unlogisch das Features nicht eingebaut werden, wäre ja alles gute Werbung für Realtek.
 
Hehe, die Realtek Chips können verdammt gut sein wenn man sie lässt. Der ALC 892 meines Intel DH77EB der eigentlich eher zum Durchschnitt zählt bringt bis auf die fehlende Ausgangsleistung (kein KHV) meine Essence ganz schön zum schwitzen ;-)
 
Zehkul schrieb:
Die Verschlüsselung dürfte da keinen Unterschied machen.

Und ja, Laptops sind natürlich eine andere Geschichte. Da ist der Stromverbrauch deutlich wichtiger.
Unbedingt ist die Verschlüsselung zu erwähnen, die decodierung führen entsprechende Programme nämlich in Software aus, weswegen die Wiedergabe einer BD immer zu einer höheren Auslastung führt als nur das Abspielen des Videos ohne Verschlüsselung. Da kann der Hardwaredecoder noch so effizient sein, wenn sein Rohmaterial erst aus Datensalat mühsam in der CPU entschlüsselt werden muss, ist der Vorteil zum Fenster raus.
Von dem Stromverbrauch der Laufwerksmechanik mal ganz abgesehen.
 
Zuletzt bearbeitet:
blackiwid schrieb:
Naja das ist relativ, nur weil es vielleicht irgendwann ein MS Office fuer Linux gaebe, mal angenommen, heisst das ja nicht das es debian vor installiert :)

Denke die normalen Linuxe werden nicht viel anders werden, aber es kommen neue dazu, siehe Steamos, Android hat ja auch den GNU/Linux Desktop nicht geaendert.

Das stimmt. Mir macht dann aber eben auch eher Sorge, dass große Firmen mit viel Einfluss einsteigen und z.B. bestimmte Kerneländerungen versuchen zu "erzwingen", um eben ihren Profit zu steigern. Oder das Software eben nicht mehr security, privacy und performance sondern stets nur auf usability für Einsteiger optimiert wird.



Jesterfox schrieb:
@ascer: die DAUs sind weniger das Problem, es sind eher die Leute die mit den DAUs nicht klar kommen ;-) Ein Grund weshalb ich eigentlich eher BSD mag. Der Umgang mit den Leuten ist da irgendwie besser (gilt allgemein je exotischer das System ist)

Ja, das ganze mag sich durchaus etwas bedingen weil die exotischen Systeme weniger DAUs haben die was fragen... aber man kann doch einfach auch mal die Füße still halten wenn man nichts sinnvolles beitragen will... oder nicht?

Versteh mich nicht falsch: Ich habe kein Problem damit jemandem etwas zu erklären, ich bin selbst häufig auf stackoverflow & askubuntu sowie Unix & Linux unterwegs (und sicherlich nicht ständig als Antwortender^^).

Die Problematik die ich dabei sehe ist eher die Folgende: viele DAUs sind wenig bis gar nicht bereit, sich selbstständig mit der Materie auseinander zu setzen. Es wird quasi erwartet, dass einem alles vorgekaut und so einfach wie möglich gemacht wird. Deshalb gehen ja auch Apple & Windows genau diesen Weg. "Klickibunti" und möglichst easy, egal ob das security, privacy oder performance issues bedeutet.

Wenn nun aber eben die Publizität von Linux steigt, hat das nicht nur positive Folgen, sondern es werden auch Stimmen laut werden, die Einfachheit, Einstiegsfreundlichkeit und mehr GUIs fordern. Einhergehend mit gesteigerter Publizität werden die Systeme attraktiver für Malware-Entwickler. Es werden mehr "Hobbyprogrammierer" halbfertige Software mit suboptimaler Sicherheit schreiben. In Foren werden häufiger "beratungsresistente" und Google-Verweigerer auftauchen.

Wie du ja schon sagst: je kleiner und exotischer die Community, desto freundlicher & angenehmer die Atmosphäre. Mit großem Wachstum steigt einfach die Wahrscheinlichkeit, auf exorbitante Trottel zu treffen, exponentiell ^^
 
Naja, aber da wäre doch genau die Diversität von Linux ein Vorteil... man kanalisiert die "DAUs" auf bestimmte Distries und GUIs und hat abseits davon seine Ruhe. Denn wenn Linux für die Allgemeinheit ein Erfolg sein will/soll muss es darauf abgestimmte Systeme geben. Anders geht es nicht.
 
ghecko schrieb:
Unbedingt ist die Verschlüsselung zu erwähnen, die decodierung führen entsprechende Programme nämlich in Software aus

Echt? Ich dachte die Hardware ist extra mitverdongelt, zumindest wurde das gerne auch als Grund gegen Open Source Treiber davon genannt. :p
Und ich sehe ehrlich gesagt auch nicht, wo reine Präsentation mit billigem bilinearen Upscale so viel Leistung kosten sollte. Da würde die Grafikkarte doch bei jeder Mausbewegung hochtakten.
 
Zurück
Oben