News Linux Kernel 6.14: NTSYNC, AMD-NPU-Support und Optimierungen für RX 9000
Woher hast du diese Zahl? Bin gerade überrascht dass es soviele sind. Persönlich trage ich mittlerweile ja zur Mac Statistik bei, gezockt wird aber mit Linux.blackiwid schrieb:Nunja bei 8,3% Linux Nutzern auf der Seite darf man das schon fast erwarten
satansbraten330
Cadet 4th Year
- Registriert
- Juli 2019
- Beiträge
- 75
Ich frei mich auf den neuen Kernel, hab mir vor einer Woche meine RX 9070 XT eingebaut und war eh schon begeistert, wie rund die lief.
Kann nur noch besser werden
Kann nur noch besser werden

0x8100
Fleet Admiral
- Registriert
- Okt. 2015
- Beiträge
- 10.091
https://www.computerbase.de/artikel/in-eigener-sache/hardware-software-umfrage-2024.90750/Brrr schrieb:Woher hast du diese Zahl?
Hyourinmaru
Lt. Commander
- Registriert
- Feb. 2010
- Beiträge
- 1.244
Der große Leistungszwachs in Spielen mit NTSync betrifft ja vorrangig nur Wine Vanilla, welches ja kein ESync und FSync bietet, in Verbindung mit Lutris kann ESync und FSync dann benutzt werden. Proton hingegen hat FSync ja bereits integriert, also dürfte der Leistungssprung mit NTSync wohl eher verhalten ausfallen.
Für viele meiner Spiele in Lutris benutze ich GE-Proton, um das in Lutris inkludierte UMU benutzen zu können. Da GE-Proton ja auch Valve's Proton aufsetzt, hat dieses ja höchstwahrscheinlich auch FSync inkludiert, d.h. dass auch mit GE-Proton kein deutlicher Leistungszuwachs mit NTSync erwartet werden kann, richtig?
Für viele meiner Spiele in Lutris benutze ich GE-Proton, um das in Lutris inkludierte UMU benutzen zu können. Da GE-Proton ja auch Valve's Proton aufsetzt, hat dieses ja höchstwahrscheinlich auch FSync inkludiert, d.h. dass auch mit GE-Proton kein deutlicher Leistungszuwachs mit NTSync erwartet werden kann, richtig?
Zuletzt bearbeitet:
netzgestaltung
Captain
- Registriert
- Jan. 2020
- Beiträge
- 3.803
Wär gut, wenn das gleich hier: https://www.computerbase.de/artikel/gaming/atomfall-benchmark-test.91943/ mitgetestet und angegeben wäre - kann ja auch später mit Update hinzugefügt werden...
Piktogramm
Admiral
- Registriert
- Okt. 2008
- Beiträge
- 9.455
@Rockhound
Solang das kein Notebook mit damaligem Intel Atom ist, kannst du da alles drauf werfen. Ubuntu als Einstieg und weiter Unterstützung geht komplett klar.
Solang das kein Notebook mit damaligem Intel Atom ist, kannst du da alles drauf werfen. Ubuntu als Einstieg und weiter Unterstützung geht komplett klar.
- Registriert
- Dez. 2021
- Beiträge
- 718
@netzgestaltung ist in Arbeit

Tenferenzu
Vice Admiral Pro
- Registriert
- Okt. 2017
- Beiträge
- 6.590
Mich würden ja Benches zu den NPUs interessieren. Bei Phoronix gibt's ja regelmäßig die Address of the Union Ansprache als Benchmark für die whisper Modelle. Da sollte man mal die NPUs drauf loslassen und nicht nur die neuen dicken GPUs 

Kurzer Zusatz zu 6.14. Unter arch hat mit 'linux-mainline' endlich vollen Support for Rocm (AMD Vulkan cumputing) für das GPD Duo (AMD HX370) erhalten. Mit dem 6.13 (mainline als auch arch-eigene Kernel) stürzte z.b. ollama regelmäßig ab, wenn es GPU computing nutzen wollte.
Mit 6.14 rennts.
Regards, Bigfoot29
Mit 6.14 rennts.
Regards, Bigfoot29
Garmor
Commander
- Registriert
- Mai 2021
- Beiträge
- 2.263
Was sind die Tokenraten? 🤔Bigfoot29 schrieb:ollama
Und die NPU nimmt Ollama auch noch nicht mit?
Genereller Zusatz: unter 6.14 arbeitet auch KVM deutlich sauberer. Vorher gab es bei häufigem VM-switch gelegentlich crashes. Die sind jetzt alle weg.
@Garmor : da ich das nur mal ausprobieren wollte, hab ich schlicht ollama aus dem arch Linux repo installiert. Wie bekomme ich denn die Token-rate raus?
Regards, bigfoot29
@Garmor : da ich das nur mal ausprobieren wollte, hab ich schlicht ollama aus dem arch Linux repo installiert. Wie bekomme ich denn die Token-rate raus?
Regards, bigfoot29
Garmor
Commander
- Registriert
- Mai 2021
- Beiträge
- 2.263
Ich habe bisher auch immer nur LM Studio verwendet, wo einem das direkt in der GUI angezeigt wird. Ollama kann man wohl mit der OptionBigfoot29 schrieb:Wie bekomme ich denn die Token-rate raus?
--verbose
starten, um zusätzliche Statistiken wie die Tokenrate zu bekommen: https://github.com/ollama/ollama/issues/1806 (In der zweiten Antwort ist auch ein Beispiel.)Dann kann ich folgende Resultate anbieten:
Konditionen:
Während das zwar irgendwie sinnvoll aussieht, hier noch ein Datensatz, der einen anderen String zeigt:
So wirklich aussagekräftig ist das also nicht. Denn die prompt eval rate schwankt doch heftig.
Regards, Bigfoot29
PS: Ggf. gehen wir damit gerade auch ein wenig OT. ^^
Edit und Nachtrag: Die Ausgabe scheint dennoch CPU-limitiert. Denn 1 Kern läuft trotz GPU-Nutzung bei Bearbeitung der Anfrage auf Volllast.
Konditionen:
Code:
AMDGPU: HSA_OVERRIDE_GFX_VERSION=11.0.2 ollama serve
HX370 : ollama serve
calling function:
ollama run gemma --verbose
>>> What is your purpose?
My purpose is to assist and empower users through conversational interaction. I can help with various tasks such as:
* Answering questions and providing information
* Generating creative content and ideas
* Translating languages
* Summarizing text and data
* Solving problems and completing tasks
I strive to provide helpful, informative, and engaging responses to your queries.
Code:
AMDGPU cpupower frequency-set -g performance:
total duration: 7.860785249s
load duration: 19.131697ms
prompt eval count: 27 token(s)
prompt eval duration: 30.013009ms
prompt eval rate: 899.61 tokens/s
eval count: 125 token(s)
eval duration: 7.810893663s
eval rate: 16.00 tokens/s
AMDGPU:
total duration: 8.362714049s
load duration: 30.351891ms
prompt eval count: 27 token(s)
prompt eval duration: 3.026115ms
prompt eval rate: 8922.33 tokens/s
eval count: 135 token(s)
eval duration: 8.328781723s
eval rate: 16.21 tokens/s
HX370 CPU pupower frequency-set -g performance:
total duration: 5.015335804s
load duration: 22.904079ms
prompt eval count: 27 token(s)
prompt eval duration: 73.800005ms
prompt eval rate: 365.85 tokens/s
eval count: 71 token(s)
eval duration: 4.918050839s
eval rate: 14.44 tokens/s
HX370 CPU:
total duration: 7.616286228s
load duration: 27.803274ms
prompt eval count: 27 token(s)
prompt eval duration: 540.567041ms
prompt eval rate: 49.95 tokens/s
eval count: 100 token(s)
eval duration: 7.046952189s
eval rate: 14.19 tokens/s
Während das zwar irgendwie sinnvoll aussieht, hier noch ein Datensatz, der einen anderen String zeigt:
Code:
HSA_OVERRIDE_GFX_VERSION=11.0.2 ollama serve
ollama run gemma --verbose
>>> Hello
Hello! 👋 It's great to hear from you. What can I do for you today? 😊
total duration: 1.43893466s
load duration: 27.650777ms
prompt eval count: 23 token(s)
prompt eval duration: 43.116724ms
prompt eval rate: 533.44 tokens/s
eval count: 22 token(s)
eval duration: 1.366604232s
eval rate: 16.10 tokens/s
So wirklich aussagekräftig ist das also nicht. Denn die prompt eval rate schwankt doch heftig.
Regards, Bigfoot29
PS: Ggf. gehen wir damit gerade auch ein wenig OT. ^^
Edit und Nachtrag: Die Ausgabe scheint dennoch CPU-limitiert. Denn 1 Kern läuft trotz GPU-Nutzung bei Bearbeitung der Anfrage auf Volllast.
Zuletzt bearbeitet:
(Hinweis auf CPU-Limitierung hinzugefügt)
Ähnliche Themen
- Antworten
- 72
- Aufrufe
- 9.012