Der aktuelle Apple M1 bietet mit 8 Grafikkernen ca. 2,6 tflops (FP32) an Grafikleistung. Wenn die zukünftigen 16 und 32 Grafikkerne auch nur annähernd linear skalieren, dann wären das bei 16 Grafikkernen ca. 5,2 tflops (FP32) und bei 32 Grafikkernen ca. 10,4 tflops (FP32). Letzteres hätte knapp die Leistung einer GeForce RTX 3060 Mobile (10,94 tflops). Für den 2. Wurf von Apple wäre das schon eine beachtliche Steigerung.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Apple Silicon „M2“: Die nächsten M-SoC sollen bis zu 32+8+128 Kerne besitzen
- Ersteller SVΞN
- Erstellt am
- Zur News: Apple Silicon „M2“: Die nächsten M-SoC sollen bis zu 32+8+128 Kerne besitzen
R
retireduser
Gast
Kann mich nicht erinnern, dass die Prozessoren bei Apple ein Problem gemacht hätten. Eher macht der Akku, die Tastatur oder ein USB Port die Grätsche als dass bei dem Prozessor etwas "verschleißt". Die niedrige Betriebstemperatur spricht auch für sich.MasterAK schrieb:Wird Apple dann das neue Intel? Riesige monolithische Dies mit entsprechender hoher Fehleranfälligkeit? 🤔
Während Intel CPUs unter Last mal über 100°C erreichen und entsprechend abkühlen um wieder durchzuheizen ist der M1 beim passiv gekühlten MBA bei max. 80°C.
tidus1979
Captain
- Registriert
- Aug. 2016
- Beiträge
- 3.446
Wenn es ein 14er mit 8gb Ram und 256GB Speicher geben sollte, dann ja. Ich denke aber, die 14er werden mit 16, 512 anfangen. Macht mehr Sinn im Lineup. Einstieg die 13er und High End die 14er.Teralios schrieb:Denke eher, dass sie 1600 - 1800 anfangen, das 13er ging ja auch von 2000 - Intel Start - auf knapp 1300 runter.
T
Teralios
Gast
Ja und nein. Das Prolem ist, dass Intel auch dank der CISC-Architektur von IA32/x86 gewisse Probleme nicht mehr umgehen kann.estros schrieb:Intel hat es jahrelang verpennt, einen SoC zu bringen.
Sie haben es ja mehrfach versucht mit den damaligen Atom-Kernen entsprechende SmartPhone-SoCs zu entwickeln, aber heutige Atom-Kerne können mit den neuen Performance-Kernen der ARM-Welt nur noch bedingt mithalten
Auch wenn man manches bei x86 kaschieren kann, man darf nicht vergessen, dass die Architektur aus einer Zeit stammt, in der man durchaus darum bemüht war aus Kosteneffizienz gewisse Aspekte anders zu gestalten, als zum Beispiel schon 5 Jahre später, weil dann die Transistoren nicht mehr so weh getan haben.
Die theoretische Rechenleistung skaliert linear mit der Anzahl steigender ALUs und dem steigenden Takt.Scie schrieb:Wenn die zukünftigen 16 und 32 Grafikkerne auch nur annähernd linear skalieren, dann wären das bei 16 Grafikkernen ca. 5,2 tflops (FP32) und bei 32 Grafikkernen ca. 10,4 tflops (FP32).
Die Frage am Ende ist nur, ob man diese Rechenleistung dann am Ende auch auf die Straße bringt.
Die FLOPS(max) sind in dem Fall irrelevant. Entscheidend ist, dass genug Threads und genug Werte pro Thread vorhanden ist, damit die ALUs ausgelastet werden.Scie schrieb:Letzteres hätte knapp die Leistung einer GeForce RTX 3060 Mobile (10,94 tflops).
Da Apple aber mit Metal auch eine entsprechende API anbietet, auf die die Spieleentwickler hin entwickeln müssten, wird das durchaus werden.
ThePlayer
Captain
- Registriert
- Aug. 2011
- Beiträge
- 3.184
Wäre das traurig wenn nicht. Ich bin aber schon gespannt was AMD und Intel als Kontor bringen. Über die M1 wird ja teils so berichtet als wenn Intel und AMD zu blöd wären um auch Leistung und Energieeffizienz zu bringen.knoxxi schrieb:Das wird schon ordentlich was aufs Display zaubern und auch in punkto Effizienz alle Intel MBP verblassen lassen.
T
Teralios
Gast
Intel und AMd sind dafür nicht zu blöd, die Rezepte des M1 sind recht einfach.ThePlayer schrieb:Über die M1 wird ja teils so berichtet als wenn Intel und AMD zu blöd wären um auch Leistung und Energieeffizienz zu bringen.
Das Problem hier ist alleine die IA32/x86-Architektur und die Altlasten, die damit verbunden sind bisheute, sowie Designentscheidungen in den 70er, die teilweise in einen krassen Gegensatz zu den Entscheidungen stehen, die man dann in den 80er treffen konnte, weil die Fertigung immer besser wurde.
Nilpferde können sehr schnell rennen. 🤷🏼♂️Protogonos schrieb:Nein wie man sieht geht Apple sehr clever vor und strategisch, das kann man nicht mit Intel vergleichen das ist wie als wenn man ein Rennpferd mit einem Nilpferd vergleicht
Aber wahrscheinlich nicht lang genug^^
Magellan
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 22.524
Wenn man bedenkt wie der M1 die Konkurrenz schon in Alltagsleistung und Effizienz distanziert und sieht wie "einfach" Apple hier scheinbar hochskalieren kann dann wird das wirklich heftig für die gesammelte x86 Konkurrenz.
Imho wird auf längere Sicht jeder der hier zu lange den ARM Zug verpennt aus dem Massenmarkt verdrängt werden - das ist jetzt nicht nur an Apple festgemacht sondern an den allgemeinen Bewegungen hin zu ARM seitens Cloud Anbietern, diversen Chip/Hardware Herstellern usw.
Imho wird auf längere Sicht jeder der hier zu lange den ARM Zug verpennt aus dem Massenmarkt verdrängt werden - das ist jetzt nicht nur an Apple festgemacht sondern an den allgemeinen Bewegungen hin zu ARM seitens Cloud Anbietern, diversen Chip/Hardware Herstellern usw.
T
Teralios
Gast
Früher oder später könnte es durchaus dazu kommen. Noch ist aber recht viel Arbeit im Softwarestack zu ARM zubewältigen, damit ARM wirklich über alle Bereiche hinweg eine Alternative wird.Magellan schrieb:Imho wird auf längere Sicht jeder der hier zu lange den ARM Zug verpennt aus dem Massenmarkt verdrängt werden
Der Wechsel von Apple von x86 zu ARM ist da durchaus ein Beschleuniger, die Frage nur, in wie weit ARM selbst auch bereit ist entsprechende Highperformance-Bibliotheken für C, C++ usw. zur Verfügung zu stellen.
nuke-guy
Ensign
- Registriert
- Okt. 2009
- Beiträge
- 208
Hier werden wieder Äpfel und Birnen verglichen. Apple und Intel sind von Grund auf verschieden aufgebaut. Ersterer entwickelt primär Software und passt seine Hardware an die vorhandene Software an (ähnlich Tesla, der sein Auto um seine Software rumgebaut hat) während Intel Hardware entwickelt. Apple hat den Vorteil, dass sie ihr eigenes OS auf die Architektur ihrer Wahl hochoptimieren können. Intel (+ AMD) liefern Hardware, die auf zig Hardware- und Softwarekombos laufen und mit weiteren Geräten kommunzieren können. In meiner eigenen kleinen Welt komme ich im Labor mit meinen Messgeräten keinen Meter weit. Klar, Tellerrand und so, aber sobald Software ausserhalb des Apple Ökosystems benötigt wird ist Schluss.
Solange das Dekstop OS Nr. 1 nicht eine gescheite Lösung liefert, um auf entsprechenden SoCs ohne grossen Aufwand alles mitnehmen zu können, werden wir x86-64 brauchen. Selbes Spiel mit der Spielbranche und Architektur der Konsolen.
Und trotzdem, schön zu sehen, was gehen kann
Solange das Dekstop OS Nr. 1 nicht eine gescheite Lösung liefert, um auf entsprechenden SoCs ohne grossen Aufwand alles mitnehmen zu können, werden wir x86-64 brauchen. Selbes Spiel mit der Spielbranche und Architektur der Konsolen.
Und trotzdem, schön zu sehen, was gehen kann
NJay
Rear Admiral
- Registriert
- Aug. 2013
- Beiträge
- 5.884
Ehm... was? Schon mal was von Rendering und Videoschnitt gehoert?SANDTIGER schrieb:Ich prangere jetzt schonmal die vielen Kerne Kundenverarsche an .
Da niemals alle Gleichzeitig in Betrieb sein können und somit Ressourcenverschwendung sind
Mister79
Banned
- Registriert
- Apr. 2008
- Beiträge
- 4.489
beercarrier schrieb:Wenn es Spiele für MacOS gäbe - vielleicht.
Gibt es doch. Dazu das kommende XCloud im Game Pass auch auf iOS und Mac OS. Zwar über den Browser aber wen soll es jucken.
SANDTIGER schrieb:Ich prangere jetzt schonmal die vielen Kerne Kundenverarsche an .
Da niemals alle Gleichzeitig in Betrieb sein können und somit Ressourcenverschwendung sind
Ich prangere jetzt schon mal den absoluten Bullshit aus deinem Beitrag an.
Warum sollten nicht alle gleichzeitig im Betrieb sein können? So soll das Problem sein? Die Frage ist, müssen die das überhaupt?
Ich bin jetzt absolut kein Experte im Bereich CPU und da haben 95 Prozent der Leute hier auf CB einen Vorsprung zu mir. Dennoch scheint es mir so zu sein als wären die Kerne zwischen High und Low Performance Kerne unterteilt. Kerne A für z.B. Hintergrundprozesse und sonstiges, B für diverse andere Operationen usw.
Was spricht jetzt dagegen, dass Low und High Kerne gleichzeitig arbeiten und unterschiedliche Aufgaben erledigen?
Würde mich interessieren wie dein Beitrag ausgesehen hätte wenn Google, Android, CPU in dem Beitrag gestanden hätte oder Windows 10 und Microsoft baut die Killer CPU für sein Windows mit der Angabe an Kernen. Reines Bashing von Dir.
B
B3nutzer
Gast
Man kann hier stundenlang über die theoretischen Unterschiede von x86 und ARM diskutieren und über Dinge die bei X86 möglich sind und bei ARM vielleicht nicht, genauso kann man über Optimierung diskutieren und ob der Vergleich Fair ist.
Fakt ist aber folgendes: Auf YouTube gibt es zig Videos bei denen Endanwender die Performance in alltäglichen Aufgaben und Anwendungen vergleichen.
Darunter nicht nur Videoencoding, was ja durch einen dedizierten Encoding Chip beschleunigt werden kann (vergleich daher wenig sinnvoll), nein, auch universelle Aufgaben wie Software Compiling, Cinebench oder sonstige Rechenaufgaben innerhalb von Programmen, die viel Zeit brauchen.
Das Fazit ist immer das gleiche. In den meisten Fällen ist der M1 erheblich schneller als ein deutlich teureres Intel Notebook, er verbraucht nur nen Bruchteil so viel Storm dabei und wird passiv gekühlt.
Dabei ist es quasi egal, ob man jetzt ein Intel Windows Notebook oder ein Intel Macbook nutzt. Der M1 (der auch in einem fuckin iPad (!) steckt) zieht praktisch alles ab. Völlig anderes Level.
Wenn Apple jetzt mit den großen Chips in die Vollen geht, dann wird das im Notebook Markt ein ziemliches Blutbad. Oh boy...
Fakt ist aber folgendes: Auf YouTube gibt es zig Videos bei denen Endanwender die Performance in alltäglichen Aufgaben und Anwendungen vergleichen.
Darunter nicht nur Videoencoding, was ja durch einen dedizierten Encoding Chip beschleunigt werden kann (vergleich daher wenig sinnvoll), nein, auch universelle Aufgaben wie Software Compiling, Cinebench oder sonstige Rechenaufgaben innerhalb von Programmen, die viel Zeit brauchen.
Das Fazit ist immer das gleiche. In den meisten Fällen ist der M1 erheblich schneller als ein deutlich teureres Intel Notebook, er verbraucht nur nen Bruchteil so viel Storm dabei und wird passiv gekühlt.
Dabei ist es quasi egal, ob man jetzt ein Intel Windows Notebook oder ein Intel Macbook nutzt. Der M1 (der auch in einem fuckin iPad (!) steckt) zieht praktisch alles ab. Völlig anderes Level.
Wenn Apple jetzt mit den großen Chips in die Vollen geht, dann wird das im Notebook Markt ein ziemliches Blutbad. Oh boy...
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.896
Teralios schrieb:Das Problem hier ist alleine die IA32/x86-Architektur und die Altlasten, die damit verbunden sind bisheute, sowie Designentscheidungen in den 70er
Die echten Altlasten beschränken sich doch eigentlich nur auf den vorgeschalteten Decoder, der seit den PentiumPro-Zeiten die x86-Befehle in MicroOps aufteilt. Überall sonst dürfte die Entwicklung der x86-CPUs grundsätzlich ähnlich dynamisch verlaufen sein, wie bei der ursprünglich ja auch aus den 80ern stammenden ARM-Architektur.
Intern hat eine aktuelle x86-CPU nur noch herzlich wenig mit einem 8086/8088 aus den 70ern gemein.
Was die x86-CPUs in den letzten Jahren vor allem zurückgehalten hat, ist wahrscheinlich die fehlende Konkurrenz im PC-Segment und mangelnde Fexibilität, bzw. zu wenig Ehrgeiz auch Speziallösungen abseits der "Stangenware" anzubieten. Intel und AMD produzieren fast ausschließlich Standard-CPUs, mit denen sie einen möglichst breiten Markt abdecken wollen. Maßgeschneiderte Spezialisten, wie z.B. die SoCs in den aktuellen Konsolen, sind die Ausnahme.
Indem Apple sich von x86 getrennt hat, sind sie jetzt völlig frei, selbst eigene SoCs genau nach ihren Anforderungen und Wünschen zu gestalten. Sie müssen nicht extra bei Intel (oder potentiell AMD) darum bitten, doch etwas in der einen oder anderen Richtung zu entwickeln.
Das schmälert aber natürlich nicht Apples ehrgeizige Ambitionen, was das Skalieren und die Integration ihrer SoCs angeht. Was das angeht stellen sie fast alles in den Schatten, was Intel und AMD in den letzten Jahrzehnten auch nur versucht haben.
(Vielleicht abgesehen von einigen großen x86-High-End-Server-CPUs, die aber vor allem nur durch immer mehr Cores und breites I/O glänzen, während Apple gleich GPU, RAM und diverse spezielle Funktionseinheiten mit in den Topf wirft.)
Zuletzt bearbeitet:
ThePlayer
Captain
- Registriert
- Aug. 2011
- Beiträge
- 3.184
Das ist mir alles bewusst.Teralios schrieb:Intel und AMd sind dafür nicht zu blöd, die Rezepte des M1 sind recht einfach.
Das Problem hier ist alleine die IA32/x86-Architektur und die Altlasten, die damit verbunden sind bisheute, sowie Designentscheidungen in den 70er, die teilweise in einen krassen Gegensatz zu den Entscheidungen stehen, die man dann in den 80er treffen konnte, weil die Fertigung immer besser wurde.
Ich meinte damit vor allem auch die Kommentare zu den M1 und M2 News. Diese lesen sich ja oft so als ob bei Apple die Genies sitzen würden. Und der Rest zu blöd wäre.
Ja richtig und du glaubst alle 168 Kerne können gleichzeitig das Video Rendern oder nur 32 oder 8 oder nur die 128 ?NJay schrieb:Ehm... was? Schon mal was von Rendering und Videoschnitt gehoert?
beercarrier
Lt. Commander
- Registriert
- Feb. 2018
- Beiträge
- 1.304
Sagen wir einfach das Linux bei Spielen einen besseren Support hat als MacOS. Zur Effizienz, ARM Designs haben durchaus Einschränkungen, wenn man allerdings die Designs selbst entwickelt und Firmware nur für ein, ok zwei, OS schreibt und optimiert und das OS in allem an die Eigenheiten der Hardware, welche man in- und auswendig kennt, und der Firmware anpasst, ist das sicherlich beeindruckend, aber eben auch nicht unerklärlich. Und Apple skaliert jetzt eben seine Chips nach oben.Teralios schrieb:Gibt ein paar, aber Spiele sind ganz sicher nicht dafür notwendig, dass ein Gerät gut ballert.
In Sache Effizienz lassen fast alle modernen ARM-Designs Intel veblassen. :
Nur Apple ist keine offene Plattform, man macht sich da böse abhängig. Vorwärts- und Rückwärtskompatiblität prey to Apple. Manche tun das auch einfach so.
x64 hat zwei konkurrenzfähige Marktteilnehmer und einen dritten (und einen vierten wenn man chinesische Lizenznehmer mitzählt) der die Bodensuppe löffelt.
Die Befugnisse die Apple durch das Aufstellen seiner Hausregeln hat übertreffen die eines Datenschutzbeauftragten um Welten. Und viele Konsumenten und Entwickler feiern das auch noch.
Benji18
Rear Admiral
- Registriert
- Jan. 2005
- Beiträge
- 5.373
Plumpsklo schrieb:Das wird richtig ballern Leute, das sag ich euch.
od. auch nicht ^^
ARM wird das selbe Thema haben wie auch x86 wenn es in die jeweiligen Leistungsregionen kommt wird der Stromverbrauch auch deutlich steigen.
Intel prüft ja den Big/Little Ansatz ja auch also Performance Kerne gepaart mit "low power" Kernen den ARM schon länger verfolgt.
Mal schauen was diese bringt.
Sephiroth51
Lt. Commander
- Registriert
- Mai 2009
- Beiträge
- 1.670
Mal schauen wie lange es sich AMD/Intel es noch antun mit x86er zu fahren es würde mich nicht wundern wenn die x86er Architektur in den nächsten Jahren langsam aber sicher ein Ende findet.
puri
Vice Admiral
- Registriert
- Apr. 2011
- Beiträge
- 6.439
Wow - erinnert mich an die ersten Power-PC-Macs 1994, ich hatte die Ehre damals auf so einem mit Pagemaker zu arbeiten. Sauschnell - aber auch arschteuer (ich erinnere mich an 8000 DM, und meiner war nicht das Spitzenmodell..). Da war Intel gerade mal beim Pentium 60..
Ähnliche Themen
- Antworten
- 114
- Aufrufe
- 33.582
H