News macOS 14.6: MacBook Pro mit M3 erhält Support für zwei externe Monitore

CDLABSRadonP... schrieb:
Sie haben das, was ohnehin bei ihnen rumlag, weiterverwendet.
Das ist aber Kaffesatzleserei oder? Woher weißt du denn, dass sie nur für das iPad entwickelt haben und dann spontan den selben Chip für ihre kleinsten Notebooks nehmen.

Ist es nicht viel wahrscheinlicher das eine so große und erfolgreiche Firma das einfach von Anfang an durchplant? Sie wissen was sie gerne verkaufen möchten, sie wissen welche Features ihnen dafür wichtig sind und dann suchen sie sich bestimmte Kompromisse / Schnittmengen heraus, die am meisten Geld sparen.

Das Problem ist da mehr die Einstellung, dass Apple Kunden halt keinen vernünftigen Docking-Support brauchen und schon eh nicht viele externe Monitore an ihren Notebooks anschließen wollen. Und da hatten sie ja auch recht. Und ob sie MST haben oder nicht ist eine weitere sehr spannende Frage. Vor ihren eigenen Chips hatten sowohl Intel, Nvidia als auch AMD Chips vollen MST Support. Apple hat den nur im OS geblockt / nicht implementiert. Haben sie jetzt die Möglichkeit ihrer Custom Chips genutzt und den Kram in Hardware komplett weggelassen? Oder sind die so krank, dass sie Hardware Support einbauen, für etwas dass sie in Software blockieren? Beides seltsame Entscheidungen.

Wenn man den Industriestandard MST nicht bieten will, kann man das natürlich nutzen um ein wenig mehr Hardware zu sparen. Gerade wenn manche Display-Engines nur an ganz bestimmte Ausgänge gehen. Aber je flexibler man die DP Verbindungen routen kann, desto weniger spart man in Hardware MST wegzulassen.

Auf der anderen Seite haben sie das ja laut dem Asahi Entwickler mit dem Routing der 2. Display Engine im M2 non-Pro ja exakt so gemacht. Und dann in Software zurück gehalten (selbst wenn sie so geschlampt haben, dass sie 1 Generation gebraucht haben um das der Software beizubringen, war es ja absolut für das Macbook Pro zurückgehalten). Warum Apple MST so boykottiert weiß auch nur Apple. Je mehr der Rest der Welt auf Docking setzt und MST in jedem kleinen billo USB-C Hub einführt, desto mehr Apple Kunden werden überrascht in die Wand rennen, weil Apple Geräte hier den Industriestandard immer noch nicht können. Entweder lenkt Apple irgendwann ein oder sie machen es mit voller Absicht, um ihre Kunden zu trainieren, dass sie in einer ganz anderen Welt leben und auf nichts vertrauen können, das kein Apple Logo drauf hat...
 
  • Gefällt mir
Reaktionen: trb85 und iSight2TheBlind
Ray519 schrieb:
Die gleiche Quelle die im M3 Pro 4 Display Engines und im M3 Pro Max 6 8(!) Engines findet (nach allen Infos die ich finden kann, können die CPUs aber nur 3/5 Displays), die nebenbei ein völlig anderes Layout haben als die Display Engine im M3? Und die Display-Engines, die laut der Quelle immer Paarweise auftreten sind auch nicht voll symmetrisch?
Laut mehreren Foren hat er mit der Aussage 4 und 8 definitiv einen Fehler in seinem Video gemacht. Es müssten 2 und 4 sein. Der Diplsaycontroller für das interne Display sitzt offensichtlich woanders wird aber generell nie in irgendeinem Die Shot, egal welche Prozessor Generation, explizit hervorgehoben.
Somit wären es 1+1, 1+2 , und 1+4.

Gibt ja auch andere die zu älteren M-Serien Die Shots gemacht haben bei denen kommt man zum selben Schluss: Die Display Engines sind relativ groß im Vergleich zu z.B. den P-Cores. Damit war es dann jetzt auch für mich weil mir deine passiv aggresive von oben herab abwertende Art überhaupt nicht gefällt. Du darfst gerne glauben was du möchtest :-)
 
Ray519 schrieb:
Das ist aber Kaffesatzleserei oder? Woher weißt du denn, dass sie nur für das iPad entwickelt haben und dann spontan den selben Chip für ihre kleinsten Notebooks nehmen.

Ist es nicht viel wahrscheinlicher das eine so große und erfolgreiche Firma das einfach von Anfang an durchplant? Sie wissen was sie gerne verkaufen möchten, sie wissen welche Features ihnen dafür wichtig sind und dann suchen sie sich bestimmte Kompromisse / Schnittmengen heraus, die am meisten Geld sparen.
Nein, ich sehe da nichts spontanes drinnen. Ich sehe da typisches, gekonntes Apple-Marketing drinnen:
CDLABSRadonP... schrieb:
Der M1 ist in erster Linie ein umbenannter A14X. Apple hat alles richtig gemacht, indem sie ihn erst in die Macs und dann in das iPadPro gebracht haben; deshalb haben die Magazine nicht davon gesprochen, dass Macs jetzt iPadPro-Prozessoren nutzen, sondern iPadPros nun sogar Mac-Prozessoren erhalten.
CDLABSRadonP... schrieb:
Es war lange absehbar, dass sie daraus irgendwann auch größere Chips bauen würden. Sie haben sich für einzelne iPad-Chips drangetastet und auch der M1 und M2 sind ja eher iPad-Pro-Chips als MacBook-Chips. (die Apple AX-Serie an Chips wurde ja eingestellt, der M1 war quasi der A14X)
 
Atnam schrieb:
Es müssten 2 und 4 sein.
Das ist Wunschdenken. Denn dann hätte der M3 non-Pro nur 1 Display anstatt der 2 die er in der Praxis hat. Der M3 Pro hätte nur 2 anstatt der 3 die Apple bewirbt. Und der M3 Max könnte nicht die 5 Displays gleichzeitig ansteuern die er laut Apple kann.

Ohne weitere Gründe, warum gerade dass die Display Engines sein sollen ist es einfach absolut unglaubwürdig.

Atnam schrieb:
Der Diplsaycontroller für das interne Display sitzt offensichtlich woanders wird aber generell nie in irgendeinem Die Shot, egal welche Prozessor Generation, explizit hervorgehoben.
Und das würde ja dem Fakt widersprechen um den es hier in der News geht. Das Apple jetzt den M3 non-Pro erlaubt schlicht 2 gleichwertige externe Displays anzutreiben. Da passt was nicht.

Und wie gesagt, ich bräuchte entweder Gründe, was die Display-Engines alles für unübliche Funktionen übernehmen, dass sie so groß sind, oder es ist einfach pur geraten und man sollte keine Argumente darauf aufbauen.

Edit:
Das ganze macht vor den Desktop Implementierungen auch keinen Sinn. Der Mac Studio wird schlicht mit 5 Displays beworben. Da gibt es kein internes Display das anders behandelt werden könnte.
 
-Overlord- schrieb:
Deswegen nutze ich noch mein Mac Book Pro von 2015 - 2 externe + interner = 3 Bildschirme :)
Die MacBook Pros mit mindestens Mx Pro Prozessor können seit jeher 2 externe Bildschirme ansteuern. Jetzt übertreib mal nicht. Mein MBP mit M1 Pro von 2021 kann es jedenfalls und ist auch so kommuniziert.

1722348024319.png


JonaK schrieb:
Ich verstehe den Artikel nicht ganz.

Mit meinem M1 Pro kann ich schon immer 2 Displays ansteuern und das Display am Macbook verwenden, wenn diese im Dock richtig Konfiguriert waren: Einer per HDMI, einer per USB-C (am Dock)
Kann nicht sein, die M1 können nur einen externen Bildschirm ansteuern. Mit Dock geht es nur per DisplayLink, daher auch nicht nativ. Hier gibt es eine gute Erklärung zu DisplayLink am Mac.
Ein Mx Pro oder Max kann dagegen 2 externe wie oben beschrieben.
DonDonat schrieb:
An dem Ganzen sieht man aber wieder gut, wer Apples Zielgruppe ist und mit "Pro" haben die nichts zu tun
Als Pro-Nutzer nimmt man ein Gerät mit Mx Pro oder Max Chip.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iSight2TheBlind
Shottie schrieb:
Puh wirklich inovativ, was andere Geräte seit Jahren ohne Problem können. Ich finde es immer wieder erstaunlic, wie Apple es schafft, dass als große Inovation zu verkaufen.
Niemand hat es als Innovation verkauft. Der einzige der das behauptet bist du?
DonDonat schrieb:
An dem Ganzen sieht man aber wieder gut, wer Apples Zielgruppe ist und mit "Pro" haben die nichts zu tun ;)
Also ist man nur ein "Pro-Nutzer" wenn man min. 6 Bildschirme an seine mobile Workingstation anhängt? Ich bin Software-Entwickler und egal ob zuhause, unterwegs oder im Büro mehr als ein Bildschirm hängt nie an meinen Notebooks (egal ob am Macbook Pro, oder an meinem Linux Nerd Thinkpad).
 
  • Gefällt mir
Reaktionen: iSight2TheBlind und pseudopseudonym
Ray519 schrieb:
Das ist Wunschdenken. Denn dann hätte der M3 non-Pro nur 1 Display anstatt der 2 die er in der Praxis hat. Der M3 Pro hätte nur 2 anstatt der 3 die Apple bewirbt. Und der M3 Max könnte nicht die 5 Displays gleichzeitig ansteuern die er laut Apple kann.
Lies den Absatz doch wenigstens zu Ende bevor du zu irgendwelchen Schlüssen kommst du ich so nie geschrieben habe...
Ray519 schrieb:
Das ganze macht vor den Desktop Implementierungen auch keinen Sinn. Der Mac Studio wird schlicht mit 5 Displays beworben. Da gibt es kein internes Display das anders behandelt werden könnte.
Oder aber sie haben Softwareseitig eine Möglichkeit gefunden den Controller für das interne Display auch für externe Displays zu verwenden.
 
Atnam schrieb:
Oder aber sie haben Softwareseitig eine Möglichkeit gefunden den Controller für das interne Display auch für externe Displays zu verwenden.
Wenn man denkt, dass da so etwas magisch passieren kann, weiß man nicht genug da drüber um solche Behauptungen aufzustellen.

Wenn die 2./3./5. Display Pipe genutzt werden kann wie die anderen und die gleichen Fähigkeiten wie die anderen hat, wie soll sie dann auf magische Art und Weise nicht auffindbar sein im Die-Shot und völlig anders aussehen, gerade wenn die Display Engines doch so groß sein sollen (weil sie so energiesparend sein sollen. Gilt das dann für das integrierte Display gerade nicht?).

Das ist sowas von ungewöhnlich, dass das nur mit einer soliden Begründung glaubwürdig sein kann. Und nur mit der Hand zu wedeln macht hier keinen Sinn und liefert Null Begründungen, warum die Glaubwürdigkeit der High Yield Quelle nicht vollständig untergraben ist.
Ergänzung ()

Uhh, und damit haben wir auch die Antworten ob der M3 Pro und M3 Max auch die Display Pipefür das integrierte Display für externe nutzen könnten. Denn das geht im Mac mini und Mac Studio jeweils.
 
Zuletzt bearbeitet:
Lol. So eine basic function ging vorher nicht?!
 
Ray519 schrieb:
Wenn man denkt, dass da so etwas magisch passieren kann, weiß man nicht genug da drüber um solche Behauptungen aufzustellen.
Ich weiß jetzt nicht was ein Workarround in der Firmware oder MacOS jetzt mit Magie zu tun hat. Warum sollte das nicht gehen?

Nur mal zum Thema Leistung der Display Engine.
Beim M3 Max ist folgendes dazu angegeben:

Hardware beschleunigtes H.264, HEVC, ProRes und ProRes RAW
Engine zum Decodieren von Video
Zwei Engines zum Codieren von Video
Zwei Engines zum Codieren und Decodieren von ProRes
AV1 Decodierung

Läuft sowas normalerweise nicht immer über die GPU ? Da kenne ich mich tatsächlich nicht so gut aus. Mein Laienverständnis wäre z.B. das die externen Displays über die Display Engines laufen, das interne Display aber über die GPU. Warum sollte man die GPU Seite nicht auch einfach auf ein externes Display umleiten können?
 
@Atnam Das was du da auflistest ist die Media-Engine, nicht die Display-Engine. Das hat nichts mit der Ausgabe zu tun, sondern mit den Hardware-En/Decodern für den Videoschnitt. Und bei den M-CPUs sind ja CPU und GPU in einem Paket, da gibts keine extra GPU. Ausser ich verstehe deinen Post gerade falsch
 
Lord Gammlig schrieb:
Das was du da auflistest ist die Media-Engine, nicht die Display-Engine.
Hast natürlich recht. My bad !
Lord Gammlig schrieb:
Und bei den M-CPUs sind ja CPU und GPU in einem Paket, da gibts keine extra GPU. Ausser ich verstehe deinen Post gerade falsch
Ne ich meine auch keine extra GPU aber in dem Soc sind ja CPU e-cores, CPU p-cores und GPU cores.
 
Atnam schrieb:
Läuft sowas normalerweise nicht immer über die GPU ? Da kenne ich mich tatsächlich nicht so gut aus. Mein Laienverständnis wäre z.B. das die externen Displays über die Display Engines laufen, das interne Display aber über die GPU. Warum sollte man die GPU Seite nicht auch einfach auf ein externes Display umleiten können?
Nein, ganz und gar nicht.
Klassischerweise hat eine GPU einen generischen Compute-Teil der einfach nur auf dem RAM der GPU arbeitet, dann den Ausgabe Teil ("Display Engine"), der vom RAM an alle Arten von Bildausgängen geht. Und typischerweise ein oder mehrere weitere Hardwarebeschleuniger die auch nur auf dem RAM Inhalt arbeiten.

Bei einer modernen dGPU ist das was du so mindestens auf dem Chip finden würdest. Aber bei SoCs / APUs, wo das mit der CPU gemischt wird, ist das auch flexibler. Der RAM ist ja auch geteilt. Und jeglicher Hardwarebeschleuniger der nur auf dem RAM Inhalt arbeitet kann großteilig unabhängig vom Rest an den Speicher angebunden werden. Intel zB hat bei Meteor Lake mit mehreren Tiles das aufgeteilt. Die Display Engine / Pipes sind dabei mit dem Memory Controller im zentralen Tile. GPU Compute und Media Engine(s) sind auf dem GPU Compute Tile und Phys für die Ausgabe des Bildes (via Ports) sind (mindestens großteilig) im IO Tile. Also es muss nicht alles so zusammenhängen wie wir das von klassischen dGPUs gewohnt sind.

Zu dem was die Display-Engine / Pipes normalerweise tun:
Ein Bildschirm hat Timings. So zB ein 4K60 Display nach CVT-RB Timingstandard hat 4000 Pixel pro Zeile und 2222 Zeilen. Die zusätzlichen Zeilen und Spalten sind "Blanks" die dafür da sind um das Timing für den Monitor sicherzustellen. Die Display-Pipe muss die Daten für jede Zeile rechtzeitig aus dem RAM erhalten. Evtl Konvertierungen durchführen zwischen Farbräumen und Formaten (RGB vs YCbCr, Chroma Subsampling, SDR nach HDR, Farbprofile die auf alle Pixel angewendet werden etc, Dithering). Und dann die Pixel der Reihe nach mit den korrekten Timings ausgeben. Und modernerweise (mit TB oder verschiedenen Möglichkeiten für Stecker-Standards) auch getrennt von wie die Signale physikalisch ausgegeben werden. Seit wir DSC haben, findet die DSC Kompression auch dort statt.

Die Display Pipes machen also vergleichsweise relativ wenig. Sie müssen am ehesten rechtzeitig die Speicherinhalte anfordern und evtl. in einer "Warteschlange" aufbewahren, bis sie wirklich gebraucht werden. Hauptsächlich Dinge pro Pixel verarbeiten (DSC ist ein wenig aufwendiger) und für die Timings permanent im Auge behalten bei welchem Pixel die Ausgabe aktuell ist (also wie viel der Pixel in der aktuellen Zeile wurden schon ausgegeben, in welcher Zeile ist die aktuelle Ausgabe und das vergleichen mit der Zeilen/Spaltennummer ab der das Bild/die Blanks/ Metadaten wie Audio anfängt etc.).

Deshalb würde ich von Display Pipes nicht erwarten, dass die sich groß oder überhaupt unterscheiden je nach max. Auflösung. Das ist nur ein einziger Zähler den dass beeinflusst. Das wichtigste dabei ist der Durchsatz, wie viele Pixel/sec die Pipeline verarbeiten kann. Und wie wir aus den Specs von Apple lesen können, ist da eher die Gesamtbandbreite aller Pipelines die alle gleichezeitig Daten aus dem Speicher brauchen limitierend (deshalb sehen wir so Dinge wie 2x 6K60 + 1x 4K60 oder alternativ 1x 6K60 + 1x 4K144. Das scheitert an der gesamten Datenmenge pro Sekunde die der Speichercontroller zuverlässig garantieren muss und eher nicht eine Limitierung der einzelnen Pipelines.

Hier könnte höchstens, wie wir am Beispiel Intel sehen können, mehrere Pipelines kombiniert werden, weil wir eh nicht alle Pipelines mit je ihrer maximalen Datenrate gleichzeitig betreiben können (wegen Limits auf die Summe aller). So sagt Intel zB dass sie 2 Pipelines kombinieren um 8K60 zu erreichen, was sie eh nur für 1 Display garantieren. Sie sagen leider nicht genau wie das im Detail umgesetzt wird. Ich würde hier darauf tippen, dass das hauptsächlich DSC betrifft und zB sowas macht, wie die Pixel-Zeilen werden abwechselnd von den 2 Pipelines geliefert, damit jede nur maximal den halben Durchsatz schaffen muss (und dementsprechend in Taktfrequenz oder Breite der Anbindung an den Speicher) nicht so breit sein muss.

Da wir, wenn wir Mac mini, Mac Studio und die Macbooks mit jeweils gleichem Prozessor vergleichen sehen können, das Apple alle Display Pipes auch für die externen Ausgänge nutzen kann (Mac Studio hat zB 1 TB Ausgang mehr als das Macbook mit M3 Max) gibt es keinen sinnvollen Grund warum das integrierte Display eine andere Implementierung haben sollte. Früher gab es da mit eDP noch Gründe, weil die Technik die in Adaptive Sync und DSC gemündet sind, dort angefangen haben um Leitungen und Strom zu sparen. Aber das können wir und auch Apple mittlerweile auf allen Anschlüssen. Ist also sowieso von jeder Display Pipe gefordert und kein Grund mehr warum man andere Hardware für das integrierte Display braucht.

Edit: und um die Software zu addressieren: die Software konfiguriert nur die Display Pipes. Danach arbeiten die autonom. Und die Software konfiguriert auch vorab wo die Outputstreams der Pipes hin geroutet werden (also zu welchem Port: eDP, HDMI, nativer DP output X für DP Alt mode, USB4-DP-In Adapter X). Und diese Verbindungen sind entweder in Hardware möglich oder eben ganz und gar nicht. Und das findet nach der Pipe statt und beeinflusst erstmal nicht, was die Pipeline selbst können muss. Außer evtl. sowas wie diese Pipeline kann ausschließlich zu diesem, langsamen Port gehen und deshalb muss sie nicht so schnell arbeiten können oder kann Features weglassen. Aber beim IC Floorplanning ist bald die größte Ersparnis in Entwicklungszeit, wenn du ein Modul designen kannst, dass du einfach gespiegelt, gedreht wiederverwenden kannst. Äußerst relevant für die GPU und CPU Cores zB. Dass du also anstatt das selbe Modul einfach 3 Mal zu verbauen eines 5% runter dummst, muss sich richtig auszahlen in Stromverbrauch oder Platzverbrauch, sonst lohnt das eher nicht und macht alles unnötig komplizierter.

Edit2: Wenn Apple natürlich ganz unkonventionell ist und die Display Engines viel mehr können als üblich, dann könnte das auch erklären, warum sie um Welten größer sein sollten als bei anderen Herstellern. Aber davon habe ich noch nichts gehört. Deshalb bleibe ich da eher konservativ und sage, solange die Anzahl der Einheiten noch nicht mal passt, ist das wahrscheinlich falsch und wird mit anderen Einheiten verwechselt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ComputerJunge, gaelic und Atnam
Das hat jetzt aber wirklich lange gedauert. Hatte das M3 Air die Funktion nicht schon ab März?
 
kachiri schrieb:
Doch. Es ist eine technische Einschränkung. Die Lösung ist, dass das fest verbaute Display quasi inaktiv sein muss. Der Prozessor bzw. der Controller kann nur zwei Ausgaben ansteuern.
Nochmal, technische Einschränkungen lassen sie NIE per Softwareupdate lösen.
Ich wiederhole auch gerne nochmal meine Aussage, andere günstigere, Notebooks schaffen keine 2x2K auch mit ausgeschaltetem eigenen Display.

Weiß auch garnicht was hier für riesen Diskusionen entstehen, klar hätte das von anfang an so sein sollen aber Apple hat es gemerkt und ein Update gebracht. Problem gelöst, wozu sich noch aufrgen.
 
Apple brauchte einfach nur ein Feature für das M3-Air, dass es vom M2-Air etwas mehr abhebt :D
Deswegen kam das Feature auch nicht direkt mit dem M3-Pro :P
 
elefant schrieb:
Nochmal, technische Einschränkungen lassen sie NIE per Softwareupdate lösen.
Ich würde sagen du meinst "Hardware Einschränkungen". Weil Software Einschränkungen kann man auch als "technisch" sehen.
elefant schrieb:
andere günstigere, Notebooks schaffen keine 2x2K auch mit ausgeschaltetem eigenen Display.
Und nur um das nochmal zu erwähnen, alle Intel Core CPUs ab 11th gen können 4 Monitore und garantieren 4x 4K60 zu können. Aber wenn ein besonders verkrüppeltes Gerät halt einzig und allein einen lahmen HDMI Port hat, dann scheitert man daran das entsprechend anzuschließen. Aber den Tausch, das integrierte Display abzuschalten um eine weitere Pipeline frei zu machen, liegt außerhalb von Atom CPUs scchon länger bei 4 Displays in der Intel/AMD Welt. Und davor waren es 3 Displays. So gesehen hat Apple hier einen Rückschritt gemacht. Aber auf der anderen Seite auch abgestimmt für ihre kleinste Produktserie. Auf eine Weise wie es sich für Intel offensichtlich nicht lohnt an dieser Hardware zu sparen. Aber dennoch eine vergleichsweise extrem magere IO Ausstattung für die CPU und GPU Leistung die sie verbaut haben. Und so einfach eine ungewöhnliche Kombination verglichen mit der nicht-Apple Welt.
 
  • Gefällt mir
Reaktionen: trb85
gr3if schrieb:
Sieht aktuell künstlich aus. Ansonsten könnte ein Air das auch. Ob dabei Thunderbolt oder DisplayPort over usb c gesprochen wird ist erstmal egal für das prinzieplle funktionieren.
Dass air m3 konnte das seit, Release :)
 
kim88 schrieb:
Also ist man nur ein "Pro-Nutzer" wenn man min. 6 Bildschirme an seine mobile Workingstation anhängt?
Es gibt nen massiven Unterschied zwischen "man kann exakt EINEN Bildschirm anstecken" und deinem übertriebenem "min. 6" ;)

Wie üblich sind das aber kleine aber feine Unterschiede für die man die Rose-Rote Brille absetzen und sich anschauen wer die meisten Mac (Pros) kauft und wer nicht. Und Spoiler, wie von mir faktisch richtig geschrieben ist die Zielgruppe von "Pro" Geräten eben schon seit langem keine "Pros" mehr. Egal ob iPhone "Pro", Mac "Pro" oder noch besser das iPad "Pro", Apple hat das "Pro" Geschäft lange aufgegeben und lebt von Consumer Business.

Aber auch abseits der reinen Verkäufe, die klar eine Sprache sprechen, kannst du diesen Trend ausgezeichnet an >X Punkten sehen: Mangel an Wartbarkeit, Mangel an wirklicher Pro Hardware, Mangel an Interface Eingängen, Mangel an Pro Möglichkeiten in Software, Mangel an Erweiterbarkeit...

Und dass du Software Engineer bist ist schön und gut, du bist aber kein Audio-Engineer (womit ich hier einfach mal Aufnahme, Mixing, Mastering usw. zusammenfasse), Video-Produzent, 2D/3D Artist... Und nur weil du Software Engineer bist, heißt dass auch noch lange nicht, dass andere Software Engineere nicht doch normal 2 Monitore nutzen, was bei M3 nun eine Weile nicht möglich war, und dann auch nur möglich sein wird weil das interne Display deaktiviert wird wenn man den übrigen Kommentaren hier glauben darf.

Und dann waren wir noch nicht mal an dem Punkt, dass die meisten Software Entwickler Windows Geräte nutzen die bisher keine solche künstlichen Limitierungen unterliegen und oft deutlich besser im Bereich Interfaces sowie verfügbarer Software sowie Integration sind...


Wie aber vorher von mir geschrieben, ist besser spät als nie hier definitiv der Fall, da es sicher doch ein paar Leute gibt, die sich über 2 Monitore freuen würden, was deiner Argumentation nach weil du selbst nur einen Monitor nutzt sicher auch niemand anders tun wird ;)
 
  • Gefällt mir
Reaktionen: gaelic
Es wird sich wohl mit dem M4 ändern, da beim iPad Pro M4 einiges geändert wurde.

 
Zurück
Oben