In vielerlei Hinsicht wird die Software nicht zu Ende gedacht sein.
Rotationen kann man immer noch mit den Händen machen.
Jede Stifteingabe ist eine Ebene. Will man diese verändern, trägt man das Material ab oder grundiert.
Optional wäre Blättern möglich.
Ein Bild mit digitalen Ölfarben wäre dreidimensional geschichtet.
Bis das Display intelligent genug ist, wenn man durch einen Strohhalm auf den Bilschirm bläst und Farben verlaufen oder Ebenen durchgedrückt werden, wird noch viel Zeit vergehen. Ganz zu Schweigen mit halben Kartoffeln zu stempeln. Die analoge Welt ist viel komplexer, toleriert aber auch weniger Fehler, die so eine digitale Leinwand zum Undo/Redo Wunder machen würde.
Die Frage ist wie weit sich die Software und Hardwareentwickler an der natürlichen Werkzeugen orientieren.
Diesen Fehlgriff hat das Thema schon mit der Tastatur, obwohl man den Stift als Eingabe hat.
Also sollten Handschrift in ihren Buchstaben erkannt werden, radiert, formatiert, manipuliert. Das setzt intelligente Software voraus, ohne Tippex typische Korrekturen, aber durchaus mit einem digitalen Zeitverlauf der ursprünglichen Daten.
Was bei Handschrift scheitert, ist bei komplexen zeichnungen längst gescheitert.
Würde man das Tablet daher für Produktentwicklung einsetzen, könnten durch intelligente Software schon physikalische Materialeigenschaften bei der Eingabe berücksichtigt werden. Wenn man also etwas für den 3D Drucker modelliert.
Was hat Dell hier also vorgestellt?