News Benchmarks unter Linux: Meteor Lake enttäuscht bei CPU und begeistert bei GPU

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.347
  • Gefällt mir
Reaktionen: flo.murr, Krazee, aid0nex und 20 andere
Sehr schick. Ich fühle mich manchmal echt schlecht wenn ich hier Benchmarks von anderen Seiten verlinke, aber ihr könnt euch halt auch nicht vierteilen und alles Abdecken.

Schön das ihr so offiziell die Arbeit von Michael auf diese Art würdigt, er freut sich sicher über den Traffic.
 
  • Gefällt mir
Reaktionen: flo.murr, aid0nex, Rickmer und 23 andere
Ein knappes Jahr später und gerade mal 8% Vorsprung bei der GPU ...
Zudem ist der CPU Teil ehrlich gesagt eher enttäuschend aber nun gut, warten wir mal die kommende "neue" MicroArch von Intel ab, vllt sind sie dann wieder auf Augenhöhe oder aber AMD hat bei CPU und GPU nochmal ordentlich nach gelegt und ist bei beidem wieder vorne ...
Wenigstens bleibt es spannend, denke aber das die gute GPU Leistung am Ende wieder an den Treibern scheitern wird sofern Intel da nicht extrem am Ball bleibt aber haben wir mal noch ein wenig Geduld.
 
Einerseits tasächlich überraschend, dass die GPU mal bei Intel schneller ist. Auf der anderen Seite, machen wir uns nichts vor, die integrierten GPUs allgemein sind doch allesamt zu schwachbrüstig für aufwändiges 3D. Alle Gaming Notebooks kommen mit einer dedizierten GPU daher. Wozu also viel Aufwand in die Entwicklung der GPU stecken? Solange die Office und Filme abspielen kan, reicht das doch aus. Dann lieber Featuresets, damit sowas die Decodierung und / oder das ein oder andere Photoshopset beschleunigt wird.
Ich behaupte mal, dass 90% der verkauften Notebooks keine große GPU Leistung brauchen.
 
  • Gefällt mir
Reaktionen: MalWiederIch, G00fY und Phoenixxl
War das unter Windows nicht genauso? Nur der Titel war anders 😉
 
  • Gefällt mir
Reaktionen: blackiwid, MuhKalb, G00fY und eine weitere Person
Bei all den Problemen ist es schon verwunderlich, dass man die CPU überhaupt noch rausgebracht hat.
Bei so viel Verspätung und Fertigungsproblemen hätte man das lieber gleich ganz sein lassen sollen.
Die CPU ist doch völlig uninteressant.
Will man CPU-Leistung, kauft man AMD.
Will man Grafikleistung, kauft man trotzdem AMD, weil man das große Mehr an CPU Leistung letzendlich irgendwann immer brauchen wird, sei es heute oder morgen.
Am Ende schmeißt doch jeder seine Hardware weg, weil das Betriebssystem zu lahmarschig geworden ist.
Interessant wird die integrierte Grafik erst bei der nächsten Generation von AMD, wenn da massiv mehr EInheiten verbaut werden, um selbst kleine dedizierte Einheiten komplett ersetzen zu können, um somit günstige Gamingrechner basteln zu können.
Letztlich wird Intel nur über den (sehr niedrigen) Preis punkten können, so wie bei den Grafikkarten auch.
Die Arcs wurden damals als Angriff auf die 30er Flotte gebaut, versagten dann aber völlig und mussten billig abverkauft werden.
Wenn man sich deren dicke und fette Technik anschaut, hätten die eigentlich locker eine 3070 schlagen müssen.
Verlieren aber stellenweise gegen eine RX 6600 und sind kaum besser als eine 3050 und fressen dabei massiv Strom. Und weil man zudem zu spät war, werden die jetzt von der 40er Gen quasi in die Tonne getreten.
bis zu 3-4fache Leistung und Effizienz sind definitiv eine total vernichtende Vergleichsbewertung.
Auch im Desktopbereich sind bis zu 3fache Efffizienz der X3D alle schon in diversen Spielen sind absolut katastrophal für Intel.
Ob ich nun ca. 70 oder satte 210 Watt bei Cyberpunk udn Co benötige, ist bei den Strompreisen (Anhebungen nächsten Jahr Stadtwerke +32%) udn der nötigen Wärmeabführung (Hitze, Lautstärke, Netzteil, Zusatzlüfter/starke 360er Wasserkühlung) auf keinen Fall man wegzudiskutieren.
Und dann kommt die Antwort in Form von so einem halbfertigen Krüppel-Meteor-Lake?
Viel zu spät, wieder ein riesiges Taktproblem wie vor ein paar Jahren bei der Einführung von 10nm, auch kein Desktop-Produkt.
Was soll das?
Können die denn absolut nichts mehr? Außer großspurige Ankündigen von Ex-Koduri udn Pat, die dann eh nicht eintreffen?
Ach ja, Fake-Benches, die die Wahrheit verzerren, siehe Fake-5Ghz-Allcore-28-Core-Server-CPU, CPU-Vergleichstest mit schlechterer Kühlung und Nachteilen beim RAM für die Konkurrenz, grotesk anmutende Werbung mit Ladezeiten von lächerlichen Worddokumenten, absichtliches Schlechtmachen von erst Apple und dann AMD mit nicht unbedingt wahren Dingen bzw. für sich hingedrehte Sachlagen (Trump lässt grüßen), etc etc etc..
Wenn man all das nötig hat, dann weiß man sich einfach nicht mehr anders zu helfen.
Die können es nicht mehr und haben auch noch selber ihren Ruf völlig zerstört.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mu_fi, eXe777, peru3232 und eine weitere Person
Wurde der CPU-Test ohne den Vorgänger gemacht?
 
idiotischer vergleich, sorry. Der Intel Laptop hat 7500MT/s und der AMD im vergleich nur 5600MT/s. Außerdem boostet der Intel rauf bis über 100W und die verwendeten Benchmarks sind soweit ich das sehe reine theoretische Tests (Superposition, 3DMark, usw.) wo Intel sicher fleißig optimiert hat. In real world Gaming Benchmarks sieht es GARANTIERT umgekehrt aus.

Aber lustig finde ich, dass AMD trotz 2000Mt/s weniger, bei der CPU 20% schneller ist.

BTW, die Timings / RAM config von diesem Framework 13 Laptop auf AMD SEite sind ziemlich grausam:
"16 GB ADATA DDR5-5600, 46-45-45-90, Dual-Channel"
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Drystanz, Deinorius, aid0nex und 16 andere
BxBender schrieb:
.
Interessant wird die integrierte Grafik erst bei der nächsten Generation von AMD, wenn da massiv mehr EInheiten verbaut werden, um selbst kleine dedizierte Einheiten komplett ersetzen zu können, um somit günstige Gamingrechner basteln zu können.
Schön wäre es, aber bisher verhungert jeder GPU-Ausbau am schmalen Speicherinterface. Vielleicht wird es mit CAMM2 besser, oder AMD verlötet ebenso LPDDR5x direkt auf die CPU (zumindest bei ausgewählten CPUs). Hatte Intel letztens nicht auch erst eine LPDDR5X-CPU angekündigt?
 
Mhalekith schrieb:
Einerseits tasächlich überraschend, dass die GPU mal bei Intel schneller ist.
überrascht überhaupt nicht wenn du dir die TDP, den verwendeten Speicher und die ganzen theoretischen Tests anschaust ;)
 
  • Gefällt mir
Reaktionen: Deinorius, Ja_Ge, eXe777 und 5 andere
Meteor Lake kann in keiner Situation so effizient wie ein Ryzen 7840hs sein. Alleiner der technische unterschied und den sehr hohen Boost.
7nm vs 4nm
28-115W vs 35-54W

Und gamers Nexus hat ein schönes Video zu FPS/Performance per Watt AMD vs Intel
 
  • Gefällt mir
Reaktionen: Deinorius, aid0nex, E2K3 und 10 andere
MichaG schrieb:
gleichen 28-Watt-Klasse verglichen
äh nein. sorry. der intel boostet auf über 100W rauf.

"The Intel Core Ultra 7 155H is a 16-core / 22-thread processor comprised of 6 P cores, 8 E cores, and 2 low-power efficient cores. The P cores top out at 4.8GHz, there is 24MB of Intel Smart Cache, a 28 Watt base power rating, 115W maximum turbo power rating, and 65W maximum assured power rating."

vs AMD: "
and a default TDP of 28 Watts while having a configurable TDP from 15 to 30 Watts"

Hier wurden Äpfel mit Zitronen verglichen.
 
  • Gefällt mir
Reaktionen: suessi22, Ja_Ge, eXe777 und 8 andere
NEO83 schrieb:
Ein knappes Jahr später und gerade mal 8% Vorsprung bei der GPU ...

Kein knappes Jahr später, Hawk Point kommt doch erst noch mit genau der gleichen GPU Performance. Nur bei der KI legt AMD drauf.


Calid schrieb:
äh nein. sorry. der intel boostet auf über 100W rauf.

"The Intel Core Ultra 7 155H is a 16-core / 22-thread processor comprised of 6 P cores, 8 E cores, and 2 low-power efficient cores. The P cores top out at 4.8GHz, there is 24MB of Intel Smart Cache, a 28 Watt base power rating, 115W maximum turbo power rating, and 65W maximum assured power rating."

vs AMD: "
and a default TDP of 28 Watts while having a configurable TDP from 15 to 30 Watts"

Hier wurden Äpfel mit Zitronen verglichen.


Das ist Unfug, die Leistungsaufnahme vom Intel ist hier sogar geringer gewesen. Hast du den Test nicht richtig gelesen? Es gibt zu einigen Benchmarks Angaben.

For the initial integrated graphics benchmarks run, here is a look at the SoC power consumption over the entire span of tests conducted. The Core Ultra 7 155H on average was consuming 24 Watts to the Ryzen 7 7840U at a 25.8 Watt average. The peak consumption was also lower for Meteor Lake on the Acer Swift Go 14 with a 43.5 Watt peak compared to 51 Watts on the Framework 13. Not only was the Core Ultra 7 155H pulling slightly less power but it was a big upgrade over the Alder Lake MSI EVO laptop with the Core i7 1280P having a 36 Watt average and 67 Watt peak.

Was Du zitierst sind die theoretischen Maximalwerte, die überhaupt nicht relevant sind. Jedes Notebook ist individuell. Wenn es der OEM so will, läuft das Teil nur mit maximal 15 Watt, daher muss man jedes Notebook immer einzeln betrachten. Die theoretischen Maximalwerte sind völlig irrelevant hierbei.
 
  • Gefällt mir
Reaktionen: Drystanz, Deinorius, Bhaal3010 und 9 andere
ghecko schrieb:
aber ihr könnt euch halt auch nicht vierteilen und alles Abdecken.
Das versucht CB schon seit langem nicht mehr, von daher keine Sorge. Es werden hier nur noch die klickstarten Sachen wie CPU/GPU/Ram/SSD getestet und natürlich wichtige und wertvolle Dinge wie Powerstations und Balkonkraftwerke.
Tests von Netzteilen in 2023: 1!
Der letzte Test von klassischen Soundboxen für den PC: 2015
Die letzten Luft- oder AiO Kühler wurden 2021 geprüft.
 
  • Gefällt mir
Reaktionen: hantolo, Exfiltratior, icetom und 11 andere
wers glaubt.... ich glaub eher die haben da a bissi sch**** gemessen. wer viel misst, misst mist ;)
 
Calid schrieb:
äh nein. sorry. der intel boostet auf über 100W rauf.

"The Intel Core Ultra 7 155H is a 16-core / 22-thread processor comprised of 6 P cores, 8 E cores, and 2 low-power efficient cores. The P cores top out at 4.8GHz, there is 24MB of Intel Smart Cache, a 28 Watt base power rating, 115W maximum turbo power rating, and 65W maximum assured power rating."

vs AMD: "
and a default TDP of 28 Watts while having a configurable TDP from 15 to 30 Watts"

Hier wurden Äpfel mit Zitronen verglichen.
Es wurde ja auch der tatsächliche Verbrauch für die jeweiligen Tests gemessen. In den GPU Tests war Intel sparsamer bzw. effizienter.
Was ein Leistungsunterschied macht, ist wie du es schon angesprochen hast der LPDDRX 7500 RAM zu DDR 5600. Kann mir gut vorstellen, das die beiden IGPU gleich auf liegen, wenn gleicher RAM genutzt wird.
Die Intel iGPU ist, was die Hardware Encoder/Decoder besser als die AMD iGPU.
 
  • Gefällt mir
Reaktionen: Drystanz, Deinorius, Bhaal3010 und 3 andere
@Calid
Zum jeweiligen Benchmark ist doch immer der Verbrauch mit angegeben. Peak als auch Durchschnitt. Da sieht man, das der Intel im Mittel meist bei 35W liegt... Peak hin oder her.

Phoronix geht sogar so weit die verbrauchte Energie in Joule anzugeben. Quasi Verbrauch in Watt multipliziert mit der Benchmarkdauer. Damit hast du den besten Vergleich überhaupt, weil diese Angabe direkt mit der Akkulaufzeit skaliert. Wenn man sich dann die Benchmarks anschaut, ist der AMD Cpu seitig meist schneller UND sparsamer als der Intel. Aber das liegt ausdrücklich nicht an den 100W Peaks.

Einfach mal als Beispiel einen Benchmark zufällig rausgezogen:

32W bei beiden Cpus an Durchschnittsverbrauch, aber der Intel läuft signifikant länger. Ergebnis sind 10000 vs. 15000J Energieverbrauch zu Gunsten des AMD. Sprich der Intel braucht in diesem Benchmark +50% Energie.

1703143995466.png
 
  • Gefällt mir
Reaktionen: Deinorius, Bhaal3010, Rickmer und 18 andere
NameHere schrieb:
Was ein Leistungsunterschied macht, ist wie du es schon angesprochen hast der LPDDRX 7500 RAM zu DDR 5600. Kann mir gut vorstellen, das die beiden IGPU gleich auf liegen, wenn gleicher RAM genutzt wird.
Die Intel iGPU ist, was die Hardware Encoder/Decoder besser als die AMD iGPU.


Nein der Abstand ist mit 28% zu groß, mehr als 5-10% sind im Durchschnitt nicht zu erwarten zwischen 5600 und 7500. Der 155H verliert im timespy auf 5600 etwa 8%.
 
Calid schrieb:
wers glaubt.... ich glaub eher die haben da a bissi sch**** gemessen. wer viel misst, misst mist ;)
Wieso sollte man das nicht glauben? Phoronix ist durchaus etabliert als DIE Institution für Linux-Tests. Und die Ergebnisse sind ja auch nicht so viel anders als der Tenor von praktisch allen anderen Tests, die ich so gesehen habe.
 
  • Gefällt mir
Reaktionen: Bhaal3010, aLanaMiau, stevefrogs und 5 andere
Zurück
Oben