News Apple Silicon: Premiere Pro, Premiere Rush und Audition für das M1-SoC

Fleischmann schrieb:
Nein, abolut nicht. Bei einem wissenschaftlichen Vergleich zweier CPUs mit unterschiedlichem Befehlssatz/Architektur ist es grundlegend wichtig, dass beide die gleiche Strukturgröße der Transistoren besitzen. Alles andere wäre doch unlogisch.
Dann ist aber auch der "5 statt 14nm" Vergleich Käse, weil seit Jahren die Hersteller ja recht kreativ & eigenwillig dabei sind, wie sie ihre Strukturgröße messen.

Damit man über die wirkliche Strukturgröße überhaupt eine Aussage treffen kann, müsste man erstmal einheitlich messen. Aktuell ist die Strukturgröße ja mehr ein Proxy für die Prozess / Fab Generation, aber nicht für die tatsächliche, physikalische Größe.
Ergänzung ()

Fleischmann schrieb:
Bei den Benchmarks ist doch auch der nativ x86 ausgeführte dabei, oder irre ich mich?
Naja, es ging ja um Rosetta gg. Intel. Und da wird halt bei Rosetta der Intel auf ARM emuliert - und ist teilweise schneller als Intel nativ.
 
  • Gefällt mir
Reaktionen: Gizzmow, kryzs und Kalsarikännit
Autokiller677 schrieb:
Dann ist aber auch der "5 statt 14nm" Vergleich Käse, weil seit Jahren die Hersteller ja recht kreativ & eigenwillig dabei sind...
Das muss natürlich beachtet werden. Ich dachte mal gelesen zu haben, dass ein Intel 10nm etwa einem TSMC 7nm entspricht.
 
Akronos schrieb:
Ich bin durch den Umstieg auf M1 gleich von Adobe zu Affinity geflüchtet und habs bis dato nicht bereut. Preismässig sowieso nicht ;)

Ich habe mir echt vorgenommen, die Affinity Apps mal auszuprobieren. Aber wenn ich an die ganze Einarbeitungszeit denke und an den Aufwand, meine Indesign Vorlagen zu konvertieren und meine Lightroom Kataloge, dann wird mir schwarz vor Augen :(
 
C9hris schrieb:
So krass viel schneller ist der M1 Prozessor auch nicht

In Workflows, wo der M1 seine Stärken voll ausspielen kann, rotzt der M1 den Mitbewerb regelrecht weg.

FCP in Apple-affinen Codecs wie HEVC ist so ein Beispiel. Da gibts Szenarien, wo der M1 - lüfterlos - das 16'' MBP abräumt, das beim selben Task laut wie eine 747 wird, heiß wie eine Herdplatte und ein Vielfaches an Strom aus der Dose saugt.

Und das ist der Einsteiger-Chipsatz, mehr oder weniger die öffentliche Beta. Für die großen Geräte wirds in absehbarer Zeit eine Performance-Version geben, die dann auch mehr Wärme produzieren wird, gleichzeitig aber mehr Leistung abrufen kann und auch bei I/O weniger beschnitten ist.
 
  • Gefällt mir
Reaktionen: tomasvittek und foo_1337
Alleine die Tatsache, dass das ding bei Teams, Slack & Co Videocalls kalt bleibt, ist schon sehr viel wert :)
 
  • Gefällt mir
Reaktionen: tomasvittek, Bart1, coxon und 2 andere
M.Ing schrieb:
Stimmt, was fällt einem gewinnorientierten Unternehmen ein, nicht für ein Schweinegeld eine Plattform zu supporten, die im absoluten Marktanteil niedrige einstellige Prozentwerte hat und in der "relevanten Zielgruppe" (hier das übliche "Kreative haben Macs"-Gesabbel einfügen) vermutlich auf keine 100 Kunden kommen würde, die für die CC auf Linux bezahlen.

Noch dazu, wo du auf Linux nicht nur das Hardware-Chaos von Windows hast (das ist ja bei Macs überschaubar), sondern zusätzlich jeder Hobbybastler seinen eigenen Kernel bastelt und dann den Support vollsülzt, wenn was nicht läuft.

Schöner hätte ich es nicht sagen können. 👍🏻
 
Fleischmann schrieb:
Nein, abolut nicht. Bei einem wissenschaftlichen Vergleich zweier CPUs mit unterschiedlichem Befehlssatz/Architektur ist es grundlegend wichtig, dass beide die gleiche Strukturgröße der Transistoren besitzen. Alles andere wäre doch unlogisch.
Seh ich ganz anders.
Man darf genau das vergleichen, was da ist. Wenn Intel eben nur 14nm hat (und paar 4-Kern Notebook Chips in 10nm), dann kann man auch genau die zum Vergleich ranziehen. Intel's Versagen sollte kein Freifahrtschein sein, sie aus vergleichen rauszunehmen

Im Endeffekt ist es komplett furz-egal, ob es unterschiedliche Architekturen sind, Strukturbreiten, oder sonst was.
Wenn die Geräte mit beiden Chips im endeffekt das gleiche erledigen sollen, sind sie 100% vergleichbar.
Beispiel: 2020 Macbook Pro mit Intel Prozessor vs. 2020 Macbook Pro mit M1 Prozessor.
Der Kunde würde auf beiden Premiere Pro installieren, und nutzen. Und da zählt nur, wo es schneller ist, wo der Akku länger hält, welches leiser bleibt etc.
 
  • Gefällt mir
Reaktionen: end0fseven, 42ndgoose, Redragonzensor und 10 andere
Entweder Apple überschüttet die Entwickler mit Geld oder sie haben echt hohe Gewinne durch die Applenutzer, was ich bei der prozentual geringen Verbreitung schwer glauben kann.
 
Eorzorian schrieb:
geringen Verbreitung schwer glauben kann.
Schau mal die Verbreitung in den USA an. Zudem musst du die Verbreitung in der jeweiligen Zielgruppe sehen.
Und nein, die Entwickler sehen von Apple keinen Cent. Wieso auch?
 
Fleischmann schrieb:
Bei einem wissenschaftlichen Vergleich zweier CPUs mit unterschiedlichem Befehlssatz/Architektur ist es grundlegend wichtig, dass beide die gleiche Strukturgröße der Transistoren besitzen.
Achso ja dann her mit dem Intel 5nm... ach da war was...
Dann eben den Apple in 14nm.. gibts nicht, hmm..


Dann sollte man doch vergleichen, was es momentan auf dem Markt gibt. Schon ergibt es einen Sinn.

Ich kann jetzt auch die effizienteste 3µm CPU herausbringen, die alle anderen alten 3µm CPUs in den Schatten stellen würden. Klassenbester. Würde das jemanden interessieren?
Nein. Man vergleicht das, was State-of-the-art am Markt zu haben ist. Nur weil Intel nun beim 14nm+++++ angekommen ist (der lt. Marketingmaterial ja trotzdem irgendwie super ist) und es nicht kleiner schaffen konnte, heißt es doch nicht, dass alle auf Intel warten müssen.
 
  • Gefällt mir
Reaktionen: conspectumortis, Kalsarikännit und foo_1337
Eorzorian schrieb:
Entweder Apple überschüttet die Entwickler mit Geld
Nachdem Apple weder für Product Placement in Filmen zahlt, noch bei Samples für Fachmedien etc. besonders großzügig ist, schätze ich mal: Nein.

Eorzorian schrieb:
sie haben echt hohe Gewinne durch die Applenutzer

Der Marktanteil ist nicht so unerheblich, und Dinge wie die Adobe Suite laufen vermutlich (prozentuell) auf mehr Macs als auf Windows-Maschinen.

Außerdem bleibt Adobe ja nix anderes übrig: Serif mit ihren (exzellenten UND günstigen) Grafikprogrammen quasi an Tag 1 M1-Ready, bei Videoschnitt Apple an Tag 1 M1-Ready, Davinci schon in einer Public Beta und auch Logic gibts schon für den M1 (wobei Audio wegen den Myriaden an Plug-Ins und co. vermutlich der Sektor ist, der am längsten für den Wechsel braucht). Die müssen mitziehen, sonst überlegen sich noch mehr User, ob es nicht doch eine Alternative zur CC gibt.
 
  • Gefällt mir
Reaktionen: Cruentatus
Adobe Premiere läuft aber noch nicht so rund bei Sony A7s iii footage da müssen sie noch einiges Optimieren.
 
In 2-3 Jahren sind dann auch alle Probleme der Übergangszeit behoben, vor allem, was PlugIns und Stabilität angeht und die meisten Pro-Apps aus dem Beta-Stadium raus, dann kann man sich die Nachfolger der M1 mal angucken und AMD, Intel und Gerüchten zufolge Microsoft haben dann genügend Zeit, entweder selbst ein ARM Pendant zu entwickeln, welches auf ein BIgLittle-Prinzip aufgebaute Struktur nun mal besser die Effizienz managen kann.
Intels größtes Problem ist nun mal, dass sie die Strukturbreite nicht kleiner bekommen haben, dadurch kam ihre Architektur einfach an Limits, welche AMD und jetzt auch Apple nicht haben.
So viel Panik muss also sowohl AMD als auch Intel gar nicht haben, bis die Prosumer umsteigen dauert es noch ewig und die Casuals hat man schon seit einigen Jahren mit den MacBook Usern teilen müssen, diese gehen aber auch nicht auf Benchmark Zahlen ab, sondern kaufen im Media Markt das erste Gerät welches da steht.
Ich würde eh frühestens zugreifen, wenn Apple eine eigen GPU entwickelt hat, wodurch sich Cinema 4D, Blender, Premiere Pro und After Effects noch mal deutlich beschleunigen lassen und ein echter Unterschied zu den "nicht Pro" Geräten vorhanden ist.
Spannend finde ich die Entwicklung allemal, Apple hat vorgelegt, in den nächsten Jahren ziehen die Anderen nun nach.
 
  • Gefällt mir
Reaktionen: end0fseven
M.Ing schrieb:
Back to topic: Apple schafft scheinbar das (wieder mal), was Microsoft mit dem Surface RT und mit dem Surface Pro X gleich zweimal vergeigt hat - anständiger Support für ARM sowohl auf 1st-Party-Ebene, als auch von Drittfirmen...
Wobei man auch fairerweise dazu sagen muss, die Nutzer eines MacBooks unterscheiden sich ganz massiv zu einem durchschnittlichen Nutzer von MSWindowsHardware.
Ist halt ein Problem für MS, wenn man von dem Surface X mehr erwartet als es leisten kann. Man probiert sehr schnell Dinge außerhalb des UseCase aus und stellt fest, läuft bekackt.
Bin mal gespannt, wenn die Dinger auf den Markt kommen und Software drauf laufen soll, die seit 3-4 Jahren kein Update mehr bekommen hat oder bekommen werden. Da wird auch so einiges bei sein, was laufen wird wie ein Sack Nüsse. Auch auf dem Surface Pro X liefen manche Spiele extrem gut.
Aber das Ganze stört auch keinen Macintosh Nutzer, die sind dran gewöhnt, dass es nicht alles gibt. Weil man es auch nicht vermisst. Das muss man Apple immer lassen, die Usererfahrungen sind immer gut.

Apple hat auch den Riesen Vorteil so Firmen wie Adobe automatisch mit unter Druck zu setzen. Adobe hat jetzt 2 Möglichkeit,
entweder die pfeifen auf ihre Apple Kunden
Oder
die geben sich jetzt richtig Mühe und „programmieren um“.

Dazu muss man auch immer nachvollziehen, dass Programmierer im Grunde ziemlich faule Menschen sind. Solange die immer schlechter werdende Software ohne Optimierungen durch eine bessere Hardware aufgefangen wird, braucht man nicht zu Optimieren.
Was da noch für uralter Code mitgeschleift wird, bei dem keiner weiß, ob man die wirklich noch braucht, mag dich niemand vorstellen.
Wenn man das auf MS extrapoliert, sagt sich der Kunde/Verkäufer, „scheiss drauf, andere Hardware“.
MS hat sich dadurch ein Riesen Ei gelegt, aber ist auch deshalb bis heute Marktführer.
 
  • Gefällt mir
Reaktionen: Cruentatus und chartmix
Fleischmann schrieb:
Eine 5nm CPU gegen eine 12 Monate alte 14nm CPU? Da hätte ich aber angesichts der Benchmarks mehr erwartet.
Öhm, was hat denn jetzt die Strukturbreite mit der Performance zu tun? :) Hierbei gehts um x86 VS. ARM CPUs, und das ist schon ein krasser Sprung für die ARM Architektur. ^^
 
  • Gefällt mir
Reaktionen: 42ndgoose
D708 schrieb:
Wobei man auch fairerweise dazu sagen muss, die Nutzer eines MacBooks unterscheiden sich ganz massiv zu einem durchschnittlichen Nutzer von MSWindowsHardware.
Richtig: Der typische Nutzer eines Macbooks erwartet, dass das Ding einfach funktioniert.
D708 schrieb:
Bin mal gespannt, wenn die Dinger auf den Markt kommen
Die Dinger = was?

D708 schrieb:
Aber das Ganze stört auch keinen Macintosh Nutzer, die sind dran gewöhnt, dass es nicht alles gibt.
Nein, die sind daran gewöhnt, dass das Geraffel einfach funktioniert, ohne wenn und aber. Und genau deshalb sind
D708 schrieb:
die Usererfahrungen sind immer gut.
Klar wird es Dinge geben, die ein Umsteiger von Windows zum Mac erstmal vermissen wird. Umgekehrt ist es aber genau so.
 
  • Gefällt mir
Reaktionen: Augen1337 und Blade_user
C9hris schrieb:
So krass viel schneller ist der M1 Prozessor auch nicht

Ich kann dir sagen, die Benchmarks erzählen nur die halbe Geschichte. Mit dem Ding zu arbeiten fühlt sich einfach wie ein enormer Sprung an. Nicht nur ist alles schnell und snappy, vor allem ist beeindruckend, dass das Ding fast nie auch nur warm wird, dementsprechend der Lüfter sehr selten anspringt und die Akkulaufzeit exzellent ist. Also wirklich exzellent. Wenn man dann noch hardwarebeschleunigte Workflows hat, wirkt das Ding wie aus der Zukunft. Ok, ich habe keinen Laptop mit aktuellem Ryzen hier zum Vergleich, nur ein Thinkpad T490 mit i5-8365U und 16gb Ram. Aber das Ding verhält sich zum M1 Mac gefühlt wie ein alter, lauter, beige-farbener Tower mit Pentium 4 zu einem einem modernen Desktop mit Mehrkerner.
 
  • Gefällt mir
Reaktionen: end0fseven, Bart1 und Darkseth88
Es ist mir natürlich durchaus klar, dass die Linux-Fans dies nicht hören wollen, doch die Wahrheit ist, Linux war/ist/und wird es wohl noch lange sein, der absolute Müll als Desktop.
Die Streuung der Distributionen ist die Hauptursache. Was ist Linux? Ein Kernel auf dem sich jeder frei austoben kann wie er möchte. Das ist für Computer-Freaks vielleicht ganz interessant und spannend den Kernen eigenständig kompilieren zu können und zu dürfen. Doch den Otto-Normalverbraucher interessiert das nicht und schon gar nicht über den Terminal irgendwelche fancy-Befehle eingeben zu müssen um die Apps zu installieren. Es gibt nicht DIE Standard Linux-Distribution und somit ergibt es eine natürliche Inkonsistenz für die Entwickler mit der sich niemand so richtig befassen möchte.
Gnome, KDE, xface, Unity und weiß der Geier. Niemand will so eine Scheisse haben.
Bei Microsoft haben wir schlicht, Windows XP, 7, 8, 10. Mit der Fähigkeit den Hintergrund verändern zu können und that's mostly it.
Alles andere ist gleich und jeder kommt damit bestens zu recht. Selbiges gilt für Apple und OSX. Keine fancy 100 Variationen von ein und demselben.
Und solange dies nicht begriffen wird (und das tut es scheinbar seit Jahrzehnten nicht) wird Linux keine Verbreitung finden und demnach nie für Unternehmen wie Adobe von Bedeutung sein.
 
  • Gefällt mir
Reaktionen: Schnatterente, Bart1, sebbolein und eine weitere Person
Zurück
Oben