Ned Flanders schrieb:
Wenn AMD da jetzt auch hingeht, auch wenn es nur die spitzen SKU ist, wäre das imho keine gute Sache, die Spirale wird sich nur weiter drehen... siehe GPUs.
Das ist auch meine Befürchtung und das ist schade. Man muss aber auch sagen, dass "wir" - allgemein gesprochen, also bitte nicht angesprochen fühlen im speziellen - daran auch nicht unschuldig sind.
Wir neigen zu oft dazu, dass wir uns von langen Balken und Awards doch blenden lassen. Für viele ist es nicht entscheidend, wie eine CPU, besser ein Hersteller sein Ergebnis erreicht, sondern oft nur, dass er ein gewisses Ergebnis erreicht hat.
Dazu kann Intel aber auch AMD und NVIDIA damit dann oft auch sehr wirksam werben. "Wir haben die schnellste CPU in allen Lebenslagen."*
*Ja, die CPU, die du hier im rechner kaufst ist nicht die schnellst, dass die schnellste CPU auch quasi den 5-fachen Energiehunger hatte, das erwähnen wir hier auch nicht, nicht zu vergessen, dass die Kühlung hier, selbst wenn das eigentlich die schnellste CPU wäre, das überhaupt nicht schaft.
Wer ließt denn das Kleingedruckte hinter dem Sternchen? Genau so verhält es sich mit den Testergebnissen.
Wir setzten aber allgemein in dem Bereich einer unguten Entwicklung auf - nicht nur im PC-Bereich. Bei Automobilen ist es ja genauso und da wird auch auf eine ähnlich Art agumentiert wie dann hier: Ja, die CPU/GPU sind viel effizienter als vorher. Stimmt, das ist nicht falsch, aber der absolute Verbrauch steigt halt auch an und letzteres ist nicht unbedingt positiv zu bewerten. Muss aber jeder für sich selbst entscheiden.
hahaqp schrieb:
Hier im Forum herrscht im Bezug aufs Gaming eh eine faszinierende "Geilheit" auf CPUs.
Na ja, allgemein ist die Geilheit hier auf gewisse Sachen faszinierend, was Gaming angeht. Da wird dann teilweise auch wegen 10 FPS schon eine neue CPU geholt und Co, weil man ja statt 150 ebene 160 FPS braucht - was dann nicht mal mehr 10 % aus macht.
Luxamman schrieb:
Finds da eher schade, dass die CPUs im Gegensatz zu ARM und eben Apple einfach noch mehr Strom verbrauchen müssen, um weiter Leistung zu bieten. Zumindest wirkt es oft so.
Der Hunger nach mehr Rechenleistung ist hier der entscheidende Punkt und vor diesem Hunger ist auch ARM, RISC-V und jede andere Architektur nicht gefeit. Apple hat aktuell den "Luxus" dass sie sich etwas außerhalb der Konkurrenz bewegen. Intel, AMD, NVIDIA und viele anbieter haben den Luxus nicht.
Dazu werden die Zyklen zwischen den einzelnen Fertigungen immer länger und auch Taktgewinne sind in der Form auch nicht mehr so vorhanden wie früher. Auch die Spannungen können teilweise garnicht mehr so drastisch reduziert werden wie früher.
Schau dir mal die Entwicklungsschritte in den 90er an: Pentium 2, 1997 0,35 µm, 2,8 V. 1998 0,25 µm 2,0 V. Man hat damals es sogar fertig gebracht, dass das neuste schnelle Modell weniger TDP hatte, als das schnellste Modell davor und man trotzdem sogar noch mehr Leistung brachte. (300 MHz bei 43 W TDP gegen 450 W bei 27 W TDP).
Wirklich "böse" war damals eher der Pentium 4, aber auch da war es so, dass man oft schon gut schneller war bei weniger Leistungsaufnahme, wenn dann ein Node-Sprung kam. Es kam Mitte der 90er quasi jedes Jahr ein neuer Node und dann zumindest - bis 2014 - jedes 2 Jahr ein neuer. Wie lange hing Hintel jetzt auf ihren 14nm fest?Jetzt endlich auf ihrem 10nm/Intel 7. Intel 4 wird kommen, aber wann. TSMC hängt aktuell ein Stückweit auch bei N5/N4 und das nun seit 2020 und N3 wird auch erst 2023 wirklich anlaufen.
Die Abstände zwischen den neuen Nodes werden eher noch zunehmen, als abnehmen. Was passiert denn bei Apple, wenn TSMC wirklich N3 vielleicht sogar bis 2026 "nutzen" müssen, weil sie nicht voran kommen? Was macht dann Apple wegen der Leistung?
Apple hat aktuell NOCH den Luxus, dass ihr ARM-Design sehr gut ist, aber die Konkurrenz schläft nicht und anders als so mancher Journalist, denke ich persönlich nicht, dass Apple "noch" Jahre voraus ist, sondern das Intel, AMD, NVIDIA und ebenso Qualcom und Co sehr genau wissen, was sie tun müssen um aufzuholen und sie werden immer näher kommen.
ETI1120 schrieb:
Aber bei Apple vs AMD/Intel nur den Verbrauch zu vergleichen und dabei zu ignorieren was Apple an Die-Fläche aufwendet, ist nicht sinnvoll.
Na ja, ich hab dazu schon mal was geschrieben und andere auch.
Ja, der M1 Pro/Max/Ultra sind sehr groß und auch größer als ein 12900K oder Zen3 und vermutlich auch größer als Zen4 dann, aber der Vergleich funktioniert so nicht, weil im M1 bereits eine CPU mit 1024 Shader sitzt und im M1 Pro mit 2048 - Mittelklasse-GPU - während Max und Ultra mit 4096 und ganzen 8192 Shadern quasi im Highend-Bereich mitspielen.
M1 kommt auf 16 Milliarden Transistoren, der Ryzen 5900HX kommt auf 10 Milliarden. Hier hat man zumindest "ungefähre" Eckdaten, teilweise abgleichen. Beide haben 8-Kerne, beide haben ein Speicherinterface mit 128 Bit, beide sind, was den Cache angeht vergleichbar. Der 5900 HX kommt mit seiner Vega 8 auf ca. 512 Shader, also halbsoviele Shader - und hat keine dedizierte NPU mit 16 Kernen.
Der Ryzen 6900HS kommt auf knapp 13 Milliarden Transistoren für immer noch 8 Kerne und nun 768 Shader und die Eckdaten passen immer noch.
Selbst wenn man jetzt ein Teil der Schaltungen den RT-Kernen und Co zu schreibt und ebenso den notwendige Schaltungen um die Effizient zu steigern, weil man ja Bereiche abklemmt usw: Apple wird für ihre Kerne und die Leistung die diese bringen können, nicht wirklich wahnsinnig viel mehr Transistoren benötigen wie AMD oder Intel.
Der Verweis auf die Die-Fläche oder Anzahl der Transistoren ist zwar schön und gut, aber der Hinweis ist eigentlich nichts weiter als eine Nebelbombe, denn der die bei M1 über alle Klassen hinweg ist teilweise gigantisch, aber es ist ja nicht nur eine CPU, sondern eben ein SoC, der es je nach Ausbaustufe nicht nur mit einer großen CPU aufnimmt, sondern auch mit einer großen Grafikkarte.
ETI1120 schrieb:
Auch sollte man berücksichtigen, dass Apple einen Node weiter ist.
Ja, sie sind ein Node weiter, aber auch dafür habe ich entsprechende Rechnungne angestellt und je nach Szenario das man anlegt und mit den Werten mit denen man dann rechnet, würden selbst ein Zen3 und AlderLake in N5 nicht wirklich mit halten können - wir wollen aber nicht verschweigen, dass in anderen Ausgangslagen AlderLake und Zen 3 auch besser da stehen.
Beide Argumente von dir kann man als
Red Herring bezeichnen, weil nur der Verweis auf diese Tatsachen primär ablenkend sind.