News Nur im Geekbench: Apples A12X fast so schnell wie Intels Core i9-8950HK

ZeXes schrieb:
Weiß man, wie es mit der Kühlung dieser iPads aussieht? Vaper Chamber, oder wie darf man sich das vorstellen?

Bei den 2017er iPad Pro ist der SoC direkt unter dem Apfelsymbol auf der Rückseite untergebracht, hat also nach allen Seiten viel Alu, das die Wärme abtransportieren kann; der Akku ist deshalb zweigeteilt. Beim neuen wird es kaum anders aussehen.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
Rickmer schrieb:
Adobe will nächstes Jahr vollwertiges Photoshop auf iOS veröffentlichen... mal schauen, ob Premiere dann auch irgendwann den Sprung macht.

Wobei Premiere relativ unspektakulär sein dürfte. Die SoCs haben natürlich Hardware Encoder und Decoder für H.264 und H.265. So ein 4K Video lässt sich daher selbst auf nem iPhone sehr schnell rendern. Sieh iMovie.

Man könnte natürlich zum Benchmarken auf reines CPU Encoding setzen, aber im Endeffekt ist das halt ziemlicher Quatsch, wenn ich schon hochoptimierte Hardwareeinheiten dafür habe. Intel hat ja auch Quick Sync oder nutzt AVX für bestimmte Berechnungen. Sind ja in dem Sinne dann auch "hardwareeinheiten" die Spezielle dinge beschleunigen... Die Frage ist halt auch hier wieder. Was will man vergleichen und was sagt mir das dann....
 
Eusterw schrieb:
Ich verstehe nicht, warum man das nicht glauben kann. Alle meine Apple Geräte laufen flüssiger als meine Windows Geräte. Sie bauen Websites flüssiger auf, konvertieren Videos schneller, usw..

Vielleicht ist die Hardware in deinen Windows Geräten eine andere? SSD vs HDD zum Beispiel. Habe leider kaum was anderes gefunden als die beiden:



Mir ist "flüssig" auf Windows weder auf meinem Surface noch auf dem Heimrechner kaum "bewusst", da öffnet der Kram fast sofort, sodass Ich nicht einmal die Zeit habe, mich auf die Animationen zu konzentrieren :D

Eusterw schrieb:
Warum ist es unvorstellbar, das eine wenige Jahre alte Apple Architektur ähnlich schnell ist wie eine 40 Jahre alte X86 Architektur???

Hat eigentlich nix mit vorstellen zu tun. X86 ist nunmal deutlich mächtiger bei Multitasking als jede ARM Plattform. iOS oder Android schmeißen ja schon bei einer App (Chrome, Safari) bei sagen wir mal 20 Tabs einige Seiten aus dem Speicher. Passiert selbst bei einem 15 Jahre alten, deutlich langsameren Rechner mit 4GB RAM nicht. iOS hält das Multitasking durch seine Beschränkung künstlich auf 2 Apps (+ eins als Minifenster höchstens noch) und Samsungs Dex kommt bei mehr als 4 Apps schon ins Schwitzen, bei Windows (oder macOS) lässte halt einfach mal 14 laufen inkl. Heavy Loads wie das Entpacken großer Dateiarchive, rendern eines Videos oder laufen lassen eines Spiels im Hintergrund und surfst bedenkenlos weiter.
 
  • Gefällt mir
Reaktionen: grossernagus, Shine2004, Rambo5018 und eine weitere Person
  • Gefällt mir
Reaktionen: mRcL und Steini1990
Ihr könnt mir sagen was ihr wollt, aber die Apple eigenen Rechenwerke wissen durchaus zu beeindrucken. Würde mich nicht wundern wenn nach weiteren ein-zwei Generationen die Intel CPUs im MacBook, IMac und Co rausfliegen.
 
Steini1990 schrieb:
Ganz einfach weil es komplett unrealistisch ist, dass eine CPU die nur ein paar Watt zieht, mit einer CPU gleichzieht die über 100W aus der Dose ziehen kann. So effizient ist der ARM Befehlssatz nun auch wieder nicht.
Möglich ist das schon. Aber eben nicht allumfassend. Asic Miner sind auch viel effizienter. Aber eben nur in einer Sache. Und mag sein, dass der A12 eine vergleichbare Grafikleistung zu einer XBox OneS hinbekommt, aber es werden keine 1zu1 Ports darauf laufen.
 
fdsonne schrieb:
Die OneS hat um die 1,4TFlop/s reine FP32 Leistung, wenn ich das nicht gerade durcheinander schmeiße.
Der A12X kommt wahrscheinlich auf >1,2TFlop/s FP32. Der A10 lag glaube ich schon bei ca. der Hälfte... Ist jetzt nicht unbedingt so die "Kunst". Verglichen mit aber bspw. ner aktuellen HighEnd GPU sind das halt auch nur Peanuts. Die ist nämlich Faktor 10 schneller.
(...)
Eine High-End GPU ist zwar um Faktor 100 Schneller dafür brauch die auch locker das 70 fache an Strom.
 
  • Gefällt mir
Reaktionen: cruse
pgene schrieb:
Ihr könnt mir sagen was ihr wollt, aber die Apple eigenen Rechenwerke wissen durchaus zu beeindrucken. Würde mich nicht wundern wenn nach weiteren ein-zwei Generationen die Intel CPUs im MacBook, IMac und Co rausfliegen.
Wenn Apple es schaffen würde, ihre komplette Desktop-Suite mit allen Funktionen und Konzepten auf ARM zu bringen und dass schneller als die Lösung mit x86 ist.
Mit dem iPad und deren "Wer braucht schon einen Laptop" Kampangne zeigt Apple aber deutlich, dass ARM eher in den Tablets und Telefonen bleibt und die Laptops in Ruhe lässt
 
Apple wird 100%ig in Zukunft auf ARM setzen. Sie haben offenkundig richtig gute Leute in der Hardwareabteilung. Bei der Software ist alles für die Nutzung vorbereitet. Swift und Metal, nun zögerlich die ersten Apps auf macOS angepasst, der T2 Chip in den Macs übernimmt nun die Encodierung. Die haben eine klare Vision bei Apple.
 
  • Gefällt mir
Reaktionen: tomasvittek
SlaterTh90 schrieb:
Windows steht da als einziges OS vor großen Problemen. Linux kann Recht schnell auf Arm adaptiert werden (da wo es nicht schon lange passiert ist) weil vieles Open source ist, alles was auf Linux basiert ebenfalls.
Apple hat so viel macht über deren Ecosystem, wenn die wollen passiert der Wechsel innerhalb eines Jahres. Gab's ja schonmal von PowerPC auf x86.
Nur Microsoft muss sich mit Emulatoren behelfen....

Windows 10 läuft NATIV auf ARM (auch in 64Bit) und das war schon mit Windows 8 der Fall oder meinst du was anderes? Siehe z.B. die neuen Always On mit Snapdragon 850.
Das verbleibende (große, aber lösbares) Problem sind die dritt Hersteller Programme die nicht für ARM kompiliert sind.
Das hier eine Emlulation funktioniert ist ja gut aber nur eine Brücke bis die Applikationen auch als ARM Version vorhanden sind.
 
D708 schrieb:
Wie toll ARM ist, hat man im Server Bereich gesehen. Da hat man ARM auch einen Siegeszug vorausgesagt. Die damalige reine 64 Bit Architektur von Intel ist auch krachend gescheitert.

das lag aber nicht nur an Intel sondern schlicht und einfach daran das die Entwickler zu faul od. die Entwicklung zu kostspielig war das ganze zu portieren und das ordentlich. Dann kam AMD mit der AMD64 was eine erweiterung des 32Bit Systems darstellt und somit abwärtskompatibel war.

Hier war das Problem.

zurück zum Topic
Tja was jim Keller anfasst wird wohl zu gold, der Apple ARM stammt ja aus seiner feder. Es ist beeindruckend wie man auf vielleicht 5Watt so ne Leistung rausdrückt echt beachtlich.

Für Leute die sagen ja aber was kostet die Xbox man bedenke diese braucht auch deutlich mehr saft als das ipad ;-) —> kleiner effizienter daher auch teurer (gut sind halt „Apple preise“ .... aber die Entwicklungskosten muss man auch reinholen).
 
Hayda Ministral schrieb:
Für mich ein Zeichen dass sie nicht mehr mit tatsächlicher Leistung überzeugen können, denn ansonsten würden sie sowas wie IPC, Taktfrequenzen und TDP benennen.

Wie genau soll Apple die IPC angeben? "Unser neuer i9 hat xy IPC" habe ich von Intel noch nie gehört.

Bezüglich der Taktfrequenz: Was bringt einem der Takt, den man sowieso nicht direkt mit anderen Prozessoren vergleichen kann? Mein 1,6 GHz Atom Netbook war damals auch um Welten langsamer als ein 1,6 GHz Celeron M Prozessor, der noch ein paar Jahre älter war. Und AMDs FX 9590 mit 5 GHz konnte auch nur so gerade mit einem i5 mit deutlich weniger Takt mithalten. Und seit Coffee Lake gibt Intel die Taktfrequenzen für mehrere Kerne im Turbo auch nicht mehr an. Zudem ist der Maximaltakt in einigen mobilen Geräten sowieso nur Wunschdenken.

Und was die TDP angeht: Die ist nicht mal bei AMD und Intel einheitlich definiert. Zudem hat die TDP nichts mit dem realen Stromverbrauch unter Nutzung des Turbos zu tun. Und mir persönlich ist die TDP ehrlich gesagt völlig egal. Was zählt ist, dass die CPU kühlbar ist und dass der reale Verbrauch nicht komplett durch die Decke geht.

Und die technischen Daten sind bei einer CPU schön für ein Quartett. Was für den Nutzer am Ende zählt ist, was wirklich an subjektiver Leistung ankommt. Und da ist die Aussage "90% mehr Mehrkern-Leistung" die sich in halbierten Wartezeiten äußert (bei den Dingen die nicht sowieso quasi instantan sind) am sinnvollsten.
Ergänzung ()

just_fre@kin schrieb:
Sobald Apple das erste Macbook mit iOS und Apple ARM-Kernen raushaut, ist es nur eine Frage der Zeit, bis alle anderen nachziehen.

Gerüchten zufolge soll es 2020 oder 2021 soweit sein. Ich bin mal gespannt. Aber wenn Apple die Performance Zuwächse von ~Faktor 2 alle 2 Jahre halten kann, ist es sicher nur noch eine Frage der Zeit.

Und Apple hat die Architektur der Macs schon 2x gewechselt. Erst von Motorola zu IBM PowerPC (um 1992 oder sowas) und dann 2006 zu Intel. So gesehen wäre es Apple durchaus zuzutrauen, dass es ein drittes mal klappen dürfte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mRcL und tomasvittek
Ghostshield schrieb:
Eine High-End GPU ist zwar um Faktor 100 Schneller dafür brauch die auch locker das 70 fache an Strom.
Eher umgekehrt (bezogen auf die Effizienz). Davon ausgehend, dass die GPU im A12X ca. 6-8 Watt benötigt, liegt eine High-End Grafikkarte mit ca. 250 Watt bei etwa dem 30 bis 40-fachen Stromverbrauch, wohingegen die Leistung (ca. 1,2 TFlops vs. 12 TFlops) gerade einmal um etwa das 10-fache steigt, bei gleichem Herstellungsverfahren ca. das 20-fache. Somit sind die mobilen Ableger etwa doppelt so effizient, was auch durchaus realistisch ist, wenn man die hohen Taktraten der Desktop-GPUs beachtet.
 
  • Gefällt mir
Reaktionen: Dezor und Benji18
Mal was anderes.

Sollte das IPad wirklich Grafisch Richtung xbox one s ziehen können wäre es doch schlau von Microsoft ihre Xbox Plattform da rüber zu ziehen.

Stellt euch mal vor die würden Forza Motorsports 7 mit 30 FPS bei 720p+ da drauf zum laufen bringen.
DAS würde erstmal den kompletten mobile Markt auf den Kopf stellen...
 
  • Gefällt mir
Reaktionen: fdsonne
BTICronox schrieb:
Hat eigentlich nix mit vorstellen zu tun. X86 ist nunmal deutlich mächtiger bei Multitasking als jede ARM Plattform. iOS oder Android schmeißen ja schon bei einer App (Chrome, Safari) bei sagen wir mal 20 Tabs einige Seiten aus dem Speicher.

Das ist das Problem.
Wenn ich beim iPad mit 10 Tabs surfe, dann zur Dropbox und Adobe Reader im SplitView zurückkehre, wird doch einfach mal Dropbox und der Reader neu geöffnet. Beim Reader habe ich dann nicht mal mein zuletzt geöffnetes Dokument vor mir, sondern eine Liste der zuletzt geöffneten. Dann darf ich mir aussuchen, welche ich denn öffnen möchte...
Wenn mein Laptop sich so verhalten würde, dann könnte ich damit unmöglich arbeiten, da ist ständig alles mögliche geöffnet und es wird auch nichts geschlossen, wenn ich von einem Programm ins andere wechsle.
 
  • Gefällt mir
Reaktionen: grossernagus, or2k und BVZTIII
Steini1990 schrieb:
dann würde das bedeuten das alle ander GPU Hersteller bisher nur in der Nase gebohrt haben,
qualcomm, Samsung und hisilicon bohren aber grad in der nase, jedenfalls cpu technisch.
geekbench mag wie schon geschrieben nicht der tollste Benchmark sein, aber die werte weisen in eine grobe Richtung. das ist kein orakel wie zu Babylons Zeiten.
neofelis schrieb:
Fragt sich nur wie lange. In diesem superschlanken Gehäuse ist der Chip nach zwei Minuten im Temperaturlimit und wird gedrosselt auf unterirdische Leistung.
ja klar, aber der chip lässt sich auch in "ordentliche" Gehäuse einbauen.

@ Windows on arm
man muss sich einfach mal die geekbench Ergebnisse anschauen:
845 mit win: https://winfuture.de/news,103389.html
845 "ohne win": https://winfuture.de/news,102487.html#sci1522134048,826,801,18211
btw das 2. ist sogar niedriger getaktet...
also mir kommt das auch noch emuliert vor und nicht nativ


@spinthemaster
das liegt aber eher am ram ....
oder hast du beim pc auch für jeden tab ne extra cpu ?
 
Zuletzt bearbeitet:
cruse schrieb:
@spinthemaster
das liegt aber eher am ram ....
oder hast du beim pc auch für jeden tab ne extra cpu ?

Jeder Tab wird zumindest in einem eigenen Prozess ausgeführt.

Es geht nicht nur um Tabs. Ich hab momentan am Laptop fünf PDF Dokumente geöffnet, Outlook, mehrere Browser mit insgesamt über 100 Tabs, verschiedene andere Programm und ich wechsele zwischen allen Anwendungen munter hin und her ohne dass da irgend etwas passiert und ich ohne Pause oder so etwas weiter arbeiten kann.

Das ist mit iOS oder Android unmöglich.
 
  • Gefällt mir
Reaktionen: grossernagus
Wie hier schon mehrfach erwähnt, unrealistischer Benchmark und zudem nicht auf allen Plattformen gleichermaßen angepasst.

Benchmarks sind für sich meist schon recht theoretisch, aber das hier ist wirklich ein Witz.
Tatsächlich denken wegen solcher News immer wieder Leute, ein Iphone sei heutzutage schon schneller als ein konventioneller PC, was einfach totaler Quatsch ist.

Klar ist es beeindruckend, was auch Apple da rein packen kann. Fakt ist aber nach wie vor, die Dinger sind auf Stromsparen optimiert und können selbst die Leistung in Benchmarks nur für eine gewisse Zeit einhalten. Zumindest bei Samsung ist mir bekannt, dass die das keine 10-15 Minuten über einen Benchmark hinweg durchhalten, was einfach jenseits irgendeiner Praxis am PC und dem typischen Anwendungsgebieten liegt.
Wenn man die wirkliche Rohleistung anschaut und auch was eine wirklich starke CPU und oder GPU auch an Verlustleistung hat, sieht man erst wie riesig der Unterschied wirklich ist.

Fakt ist aber auch, in den letzten 10 Jahren wurde viel mehr in den mobilen Bereich investiert, als sonstwo.
Ich sehe da Intel als Hauptschuldigen, im Desktop keine Innovationen voran gebracht, im mobilen Sektor oft nix gerissen, trotz des hohen Potentials und dem Background der Firma. Was hier von einigen gesagt wurde, stimmt und stimmt gleichzeitig auch wieder nicht. Klar haben die in der Nase gebohrt und wie schon erwähnt, im mobilen Sektor wurden Milliarden investiert, dennoch wird der mobile Bereich schon durch die eingeschränkte Größe immer hinter einem Desktop her hinken, da gibt es einfach physikalische Grenzen.
Der Unterschied ist heutzutage einfach auch, die Software hat genauso wie die Hardware enorme Fortschritte gemacht.

Was ich damit sagen will:
Wenn ich heute für einen Pentium 4 ein angepasstes Android erstellen könnte, welches nur darauf optimiert ist, würde selbst diese CPU immer noch heute als Düsenflieger da stehen, da irgendwelche mobilen Stromspar Quad und Octa Cores zwar technisch viele Spielereien haben, aber die Rohleistung selbst eines alten Pentium immer noch enorm ist, genauso wie eben die Verlustleistung. Hier wird einfach immer wieder die Software vergessen. Es ist nun mal Fakt, dass ich heute mit so einer CPU kaum noch was Anfangen kann, im Gegenzug selbst eine popelige mobile CPU enorm von einem stark angepassten OS profitiert. Für mich ist das gerade Apple das beste Beispiel, da ist die Software meist sogar besser als die Hardware.

Jedenfalls wird es so oder so noch sehr lange so bleiben, dass klassische PCs von Ihrer Leistungsfähigkeit und der Verwendung meilenweit vor mobilen Geräten liegen, lediglich Notebooks haben da inzwischen ein beachtliches Niveau, erreicht wenn man das mal mit früher vergleicht. Da ändern auch irgendwelche Docking-Ports und Fähigkeiten einen klassischen Desktop darzustellen für Smartphones wenig. Das ist alles nur für Anwender spannend, die sowieso keine Leistung benötigen. Für mich ist selbst ein Standrechner nach wie vor unersätzlich, da selbst dieser für mich teilweise zu langsam ist. Jeder der etwas im Prof-Bereich macht und sei es nur Videoschnitt, Konvertierung, etc.. weiß, was ich meine.
 
Julz2k schrieb:
War schon vor Jahren klar, das ARM die Zukunft ist auch im Dekstopbereich.

Ach so, deswegen setzen Intel und AMD auch seit Jahren schon erfolgreich auf ARM Designs bei ihren Desktop, notebook und Server Prozessoren
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: smart-

Ähnliche Themen

Zurück
Oben