Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsDetails zur Apple Vision Pro: Technische Daten, Vorbestellung & Betrieb in Deutschland
ich glaub er meint eher: wenn man die Vision Pro als RECHNER verwendet, "Spacial computer", also die Videobearbeitung auf der Vision Pro..
Kein Notebook
dann muss man - ohne schnelle SChnittstelle - für vernünftiges Arbeiten wohl die DAten auf die Brille schieben..
und das könnte etwas dauern..
meine Insta360 One RS 1-inch 360 edition z.b. erzeugt - Videos gestiched - H2.64 Codec -->
für 1h Video ca. 110GB Filegröße
die muss dann erst mal übertragen werden..
exportiert man die Videos als ProRes422 hingegen für die Weiterbearbeitung wirds richtig bitter:
das sind bei 1h Video dann nämlich gleich mal ca. 500GB
und die musst du dann - traust du dem Wlan keine vernünftige VErbindung zu - erst mal auf die Brille schieben
Achso, ich war jetzt eher bei den Anwendungen an sich, wegen den optischen Vergleichen zum Pro XDR Display.
Nur weil etwas technisch geht bedeutet dass nicht dass der Workflow stimmen muss. Wer solche Videos dreht überträgt hoffentlich nicht die ganze Zeit Daten hin und her, sondern filmt z.B. direkt mit seinem iPhone auf eine SSD, und schließt dann die SSD an den Mac an und arbeitet direkt weiter ohne Daten zu kopieren. Und wer in der Bubble lebt, wird nicht wirklich nur ein iPhone und nur eine Vision Pro haben in den 1 TB Ausführungen, hier x-tausend drauf zahlen, dann aber aus Prinzip zu geizig sein für einen Mac Mini für 700€ als Server/Workstation. Das Ökosystem ist die Stärke, wenn ich keine Geräte habe, habe ich auch kein Ökosystem.
Da die Vision Pro als Client mit einem Mac als Server funktioniert, müssen auch keine Daten auf die Brille. Ein Thunderbolt Kabel ist halt nicht ohne für ein Gerät dass man am Kopf trägt. Hätte die Vision Pro einen Thunderbolt, und ein iPhone auch, wie stellt man sich das vor? Man lässt die Geräte 20 Minuten lang 100GB an Daten übertragen während sie am Tisch liegen, oder hat die ganze Zeit eine SSD am VR-Headset runterhängen? Und wenn man fertig ist mit dem schneiden, liegt die Vision Pro auf dem Tisch, weil man 20 Minuten das Video auf Youtube hochlädt? Das klingt so als ob ich mir ein Mac Mini vors Gesicht schnalle, dass ich dann aber 50% der Zeit auf den Tisch lege weil es arbeiten muss.
Sorry, aber ohne auf einzelne Beispiele einzugehen, was verstehst du unter einer 'Rechnerstruktur'? Gerade mein(e) Desktop(s) hat/haben terrabyteweise Speicher zur Verfügung, bis hin zu NAS im Keller. Da ist mir praktisch alles immer zu langsam .
Wir haben das wohl verschiedene Ansprüche.
Ergänzung ()
Kraeuterbutter schrieb:
klar... Thunderbolt oder zumindest USB-C wäre fein gewesen
Eben. Ich wollte auch nur mein Unverständnis ausdrücken, so eine Schnittstelle wegzulassen, wenn man sie 'technisch' quasi schon hat (eigene TB3 Lösung mit dem m2). Man fragt sich einfach, was Apple sich dabei denkt. Die Kosten können es wohl kaum sein, speziell wenn man bedenkt, dass man an einer TB/USB-C Buchse auch gleich Strom zuführen hätte können.
Sorry, aber ohne auf einzelne Beispiele einzugehen, was verstehst du unter einer 'Rechnerstruktur'? Gerade mein(e) Desktop(s) hat/haben terrabyteweise Speicher zur Verfügung, bis hin zu NAS im Keller. Da ist mir praktisch alles immer zu langsam .
Wir haben das wohl verschiedene Ansprüche.
ich glaub du missverstehst nr-Thunder
mit "insbesondere der Desktop ist so statisch, dass er keine 100MB/s braucht, sondern eigentlich 100 Mbps reichen" meinte er, dass dir das Notebook/REchner/Server die Rechenarbeit für den Videoschnitt übernimmt,
und nur die Daten für die Darstellung des Desktops auf die Brille gestreamed werden..
hier reichen in der Regel weniger als 100mBit/sec (also ~10 Megabyte/sec) aus
gut.. wenn man im Videoschnitt zwischendurchmal ein 4k-Video in voller Qualität sehen wollte, fullscreen - um Details genau zu sehen, wären dann wohl unter Umständen Abstriche nötig, ein Qualitätsverlust gegeben
netflix streamed glaub ich ihr 4k mit nur 15-20mbit
allerdings wird das nicht live encoded, sondern schon vorher - kann also mehr ZEit und REchenleistung für höhere Qualität bei geringer Datenbandbreite reingesteckt werden
@Luthredon Eine Datenschnittstelle an nem Headset ist halt kacke, weil die dann auch genutzt werden könnte...
Ich krieg schon Kopfschmerzen wenn meine Quest 3 mit nem viel zu kurzen Kabel für Sidequest am PC hängt, aber das dauert überschaubar lang. Wenn jemand jetzt seinen Videoschnitt in der Brille auf per Thunderboltkabel angeschlossenen SSDs erledigt, dann ist das ein teurer Unfall, der nur darauf warten zu passieren.
@Luthredon der eine Beitrag von mir ging nur über die Bildübertragung, die Bits und Bytes sind die der Koprimierung, nicht Filetransfer. Sprich das kabellos durchaus in der Lage ist ein einwandfreies Desktopbild zu projizieren, die Vision Pro sowieso weil das Bild mit den Daten vom Mac auf der Brille neu gerendert wird, statt komprimiert an die Brille zu gehen wie es sonst beim Desktopspiegeln üblich ist. Aber davon hast du ja nicht geredet, war daher Off-Topic meinerseits.
Was die Datenstrukturen angeht, völlig legitim maximale Datenraten zu benötigen bei großen Datenmengen, aber ich sehe nicht ganz wie ein Thunderbolt an einem Gesichts-PC eine Lösung für etwas sein soll. Man hat ein NAS mit 20 TB, 2,5 Gbps LAN kann man da gut noch zum lokalen PC/Server bekommen, mittlerweile gibt es auch schon erste Geräte die 10Gbps LAN können. Aber wie soll da jetzt ein beweglicher Gesichts-PC mit Thunderbolt gut zusammenspielen? Erstens Thunderbolt Kabel sind dick und kurz (max 3m Länge bei Kupfer), zweitens USB-C Anschlüsse sind empfindlich, zweimal falsch gewackelt und man hat sich den USB-Anschluss an der 4000€ Brille kaputt gemacht. Kabeldefekt ist auch bei anderen VR Headsets einer der Hauptausfallgründe. Aber nehmen wir an es ist ein unzerstörbarer Panzeranschluss mit Kabel, die Vision Pro hat nur 512GB, nur einen 2 Stunden Akku, der M2 ist permanent zu 50% damit beschäftigt das 2x 3k@90Hz + Passthrough zu rendern, und hat weniger Kühlfläche als ein iPad. Verschwendung, aus Prinzip das Konzept der Workstation zu streichen, und alles auf der Brille tun zu wollen, und am Ende renderst du etwas oder lädst auf Youtube hoch, und die Brille liegt auf dem Tisch, nicht auf dem Gesicht.
Statt also die Vision Pro über eine Thunderbolt-Dockingstation mit Festplatten/NAS etc in Verbindung zu setzen, kann man auch einfach einen Mac Mini als "Wifi-Dockingstation" benutzen. Am Mac Mini passiert die ganze Arbeit, alles ist mit High-Speed kabelgebunden (der Mac Mini hat 10Gbps-Lan), stationär, keine Kabel/Anschlüsse gehen kaputt, die Vision Pro ist ein Client oder Peripherie-Gerät, blöd gesagt auf einer Stufe mit Maus+Tastatur+Monitor. Statt +200€ für den Thunderbolt Hub zahlt man 700€ für den Mac Mini, dafür hat man dann aber einen gescheiten Workflow, weil eine stationäre Workstation dafür gemacht ist. Ein Gesichts-PC wird nicht mit einem Thunderbolt zur produktiven Workstation, und das nicht mal unbedingt weil ein Prozessor oder ein Kabel zu langsam ist, sondern das ganze drum herum (wie kann ich effektiv und schnell arbeiten).
Kraeuterbutter schrieb:
das muss sich wohl erst noch rausstellen, was "Spacial-Computing" wirklich ist...
Naja, wenn ich darauf angewiesen bin immer am festen Kabel zu hängen, ist es wenig mobil, ob eine Vision Pro jetzt weniger sperrig ist als ein Laptop mit zwei mobilen Displays im Rucksack, wenn der Außendienstler im Hotel produktiv sein möchte, eher weniger. Wo solche Geräte Vorteile haben ist wenn ich wirklich mobil bin und nicht auf komplizierte Inputs angewiesen.
Mensch beim joggen für eine Stunde, transparentes AR-Glass als Client mit Smartphone als Server. ,,Chat GPT, schreibe eine E-mail mit ...". "spiele ein Video ab" etc. Kochen/Putzen/Wäsche sind Dinge wo ich über mehrere Stunden einen digitalen Input haben könnte mit leichter Interaktion, mir aber ein Smartphone/Laptop/Workstation wenig bringt. Es muss ja nicht immer zur Verblödung des Geistes sein, nehmen wir mal an ich könnte Sprachen lernen beim sauber machen über Sprachsteuerung mit visuellen Cues. Ich höre gerne Sprachen-Lern-CDs im Auto aber so komplett ohne Bild ist es schwierig, ist eher Unterhaltung wie ein Podcast. Fitness Coaching mit AR Sportbrille, Apple Watch misst den Puls, ein digitaler Dwayne the Rock Avatar feuert einen an. Ist dann aber eher etwas für den Formfaktor Xreal Air Ultra 2.
@Luthredon der eine Beitrag von mir ging nur über die Bildübertragung, die Bits und Bytes sind die der Koprimierung, nicht Filetransfer. Sprich das kabellos durchaus in der Lage ist ein einwandfreies Desktopbild zu projizieren, die Vision Pro sowieso weil das Bild mit den Daten vom Mac auf der Brille neu gerendert wird, statt komprimiert an die Brille zu gehen wie es sonst beim Desktopspiegeln üblich ist.
wie würde das beim Beispiel Videoschnitt passieren ?
ich kann Mausbewegungen übertragen (X/Y-Koordinaten), statt das Bild des Mauszeigers...
ich kann FEnster verschieben und die Position mitteilen statt 1,5 Millionen Pixel xmal pro Sekunde upzudaten, zu komprimieren etc...
klar.. im Prinzip das, was wir seit 30 Jahren beim Computerspielen kennen (Lan-Parties)
da werden auch nur die Positionen der Gegner etc. übermittelt.. gerendert wird jeweils am Gerät dann
aber wie wäre das beim Videoschnitt?
zumindest die Vorschaubilder müsste man ja doch übertragen, wenn man am Server ein Video schneidet...
ansonsten könnte ich ja erst den ganzen Videoschnitt direkt allein auf der Brille machen (mit Vorschaudateien die klein Rechenlast erzeugen) und erst wenn Video fertig ist quasi die Projektdatei ("das hast du zu tun") an den Server schicken, der es dann final in 4k oder 8k oder what ever rendert
nr-Thunder schrieb:
die Vision Pro hat nur 512GB, nur einen 2 Stunden Akku,
2 TB
Akku ist wurscht: Videoschnitt macht man dann vielleicht doch nicht in der U-Bahn.. also vielleicht doch eine Steckdose wo in der Nähe..
ich arbeite ja mit der Quest3 - und meist häng ich mich freiwillig ans Kabel..
a) eben wegen Akku, sonst hälst sie kein 8h durch
b) wegen der Latenz (Mauszeiger bei Immersed.. profitiert von USB-Verbindung.. über WLAN, auch wenns optimal läuft - fühlt es sich bei der Maus doch bisschen an als würde man an einem 30Hz-Screen sitzen... also mit USB ists flüssiger)
heute nen Bericht gesehen von jemanden der seit Erscheinen der Brille täglich ca 8h mit der Vision Pro arbeitet
zwischen durch mal wo hingehen: geht... aber sobald man wieder stationär sitzt muss man halt dann anhängen, damit es weiter geht, man über den Tag kommt
aber kann man sich daran gewöhnen..
wir haben Jahrelang mit nem 5m/6m Kabel VR-Spiele mit viel rumgefuchtel und Roomscale gespielt..
im Vergleich dazu ist das Kabel der Vision Pro ja näher beim komplett kabellosen Headset
und Videoschnitt wird man ja eher im Sitzen/liegen machen - nicht während man wo rumläuft
nr-Thunder schrieb:
der M2 ist permanent zu 50% damit beschäftigt das 2x 3k@90Hz + Passthrough zu rendern, und hat weniger Kühlfläche als ein iPad.
Quest3: 10Watt Leistung für ALLES...
wohingegen man am heimrechner allein der Grafikkarte und den Cuda-Cores gleich mal 100-200 oder noch mehr Watt zubilligt
Ergänzung ()
ad: am Kabel hängen..
ich frag mich ob da noch jemand beim Akku nachlegen wird...
nen Quest3-Akku mit 19Wh soll was um 69g wiegen
nen Vision Pro-Akku mit aufgedruckten 36Wh (von den Zellen her ists nominal glaub ich etwas über 40Wh)-Akku hingegen - mit Gehäuse - 353 Gramm
klar: Gehäuse..
aber muss da Alu sein? muss das aus den vollen gefräst sein?
laut i-Fixit wiegen die Akkuzellen an sich nur die Hälfte, ca. 180g
also ich seh nicht, warum man da nicht noch von third-party vielleicht nen Akku mit 50g-100g mehr, in Plastik und dafür 4-5h Laufzeit bekommen sollen könnte...
10 Gramm / Wh ist halt wirklich heftig viel..
das wären 10kg pro kWh an Akku..
ein Pedelec-Akku mit 700Wh würde so 7kg wiegen
nen Tesla-Akku knapp ne Tonne
Der Cache ist doch viel kleiner, ist auch auf dem Mac direkt nicht anders. Nehmen wir an du hast ein 100GB Video über 1 Stunde, und jetzt fügst du "live" in Final Cut einen Filter hinzu der das Bild kalt macht. Solange du es nicht endgültig kompilierst, wird die Datei nicht verändert, sondern es werden nur z.B. 10 Sekunden geladen in den Ram, und darauf dann der Filter angewendet, und wenn das Video dann spielt fortgeschrieben. Auch am Mac, wenn du Live das Video bearbeitest und dann an einer Stelle 5 Minuten weiter springst, braucht Final Cut Pro auch ein paar Sekunden zum buffern, bis es weiter geht.
100.000 MB/h = 27,7 MB/s = 222 Mbit/s, mit einem Buffer von 10 Sekunden 277 MB im Ram zu cachen ist was anderes wie VR Gaming, wo man von Frame zu Frame die Datenrate braucht. In einer Sekunde sind es mal 100 Mbit/s im Schnitt, in der anderen mal 600 Mbit/s, nichts was ein 5GHz Wifi an die Grenzen bringt. Und es gibt sicher noch weitere smarte Tricks, um die Datenlast zu verringern. Sollte es ein Video sein das 500GB/h hat, ja dann wird entweder das Buffern länger dauern, oder der Stream alle x-Sekunden stocken, ist aber auch etwas dass man von jedem Computer kennt, nur da eben dann meist weil das Processing zu langsam ist.
Kraeuterbutter schrieb:
ich frag mich ob da noch jemand beim Akku nachlegen wird...
Wird monetarisiert. Apple lässt sich den 35,9 Wh Akku (13V 6A 3166mAh) vergoldet bezahlen. Die 27.000 Mah Akkus die man noch ins Flugzeug mitnehmen darf, entsprechen circa 100 Wh. 200€ für eine Kapazität die einer 9.000 mAh Powerbank entspricht, jo da sind doch 400€ für eine "20.000 mAh" Powerbank locker drin.
Am besten wäre es noch, wenn Apple irgendeinen Sicherheitscheck einbaut, damit nur "Apple verified" Powerbanken funktionieren, dann zahlst du statt 200€ von Apple nur 150€ wenn du eine von Belkin kaufst. Da macht man dann lieber etwas energetisch blödes, wie die Vision Pro Powerbank mit einer weiteren Powerbank zu laden, Ladeverlust lässt grüßen. Der Fairness halber, dass gleiche passiert bei einer Quest 3, aber es ist technisch dämlich wenn der Akku ausgelagert wurde und sich tauschen lassen würde gegen einen größeren.
Wie schon gesagt, habe ich wenig Erfahrung mit 3D-Brillen. Insofern kann ich über störende Kabel an den Dingern wenig sagen, finde es aber superinteressant was ich hier alles lerne . Aber diese 'Datenübertragungsproblematik' verfolgt mich im Apple Universum nun schon länger und nachdem Apple mit der VP gefühlt wieder alle Szenarien bemüht, die ich mit iPhone und iPad schon hinter mir habe, fragte ich mich eben, warum dieses 'kein-ordentliches-Interface-Problem' schon wieder auftaucht.
Beispiele: mein 2018er iPad-Pro war gut zu gebrauchen, auch 4K Videos von einem Quadcopter vorzusortieren. Da fallen nach einem 'Flugtag' aber gern mal ein paar hundert GB an, aber selbst die USB-C Schnittstelle an dem iPad war nervig langsam dafür - von drahtlos gar nicht zu reden. Erst das m1/m2 iPad mit TB3 Schnittstelle UND einer leider teuren ext. TB-SSD erlauben erträgliches Arbeiten. Wer mal Videos importiert und später z.B. Lumafusion Projektdateien wieder exportieren und auf einen Desktop übertragen wollte, weiß von was ich rede.
Ein anderes Beispiel ist das iPhone. Ich hab noch ein 14er, das aber auch schon ganz hervorragende Movies produziert. Dabei fallen allerdings gute 5 GB / Minute an. Dafür gönnt man sich natürlich auch ein bisschen mehr Speicher, um dann festzustellen, dass es tatsächlich etliche STUNDEN dauern kann, ein Video auf den Rechner zu bekommen. Für mich ist das ein k.o.-Kriterium für ein Tool. Apple scheint die Problematik für echte Workflows komplett zu ignorieren - naja bis jetzt, wo langsam doch schnelle Schnittstellen Einzug halten.
Wegen all dem habe ich die Brille halt gleich kritisch im Blick in Bezug auf diese Problematik. Ja, es ist sehr cool, quasi einen m2-Mac auf der Nase zu haben und mehrere große Monitore gleich mit dabei. Aber ohne vernünftiges Datenhandling ists für mich doch nur ein nettes Spielzeug. Und ja, es ist die allererste Version, trotzdem ist so eine Schnittstelle kein Hexenwerk.
@Luthredon Wenn man den Gedanken verfolgt, ein Gerät für sich zu benutzen, dann wäre ein Thunderbolt hilfreich. Der Quadrocopter, der sich aktuell mit dem iPad verbindet, wird sich wohl kaum mit dem iPad zum speichern des Filmmaterials, und mit der Vision Pro als Monitor verbinden lassen. Also müsste die Vision Pro das Bild bekommen und auch gleichzeitig das Filmmaterial speichern, am besten auf eine externe TB-SSD.
Aber das Ding ist, Apple, Meta etc wollen nicht dass man mit einer VR-Brille rausgeht, sonst hätte man das Guardiansystem anders designt, ist ein zu großes Sicherheitsrisiko. Abgesehen davon, leg sie einmal mit den Linsen nach oben in der Sonne ab für 10 Sekunden, und die Sonne hat dir die Linsen wie mit einem Laser frittiert. Die ganze Werbung zeigt bewusst nur Leute innerhalb von 4 Wänden. Apple kann die Vision pro vermarkten wie sie wollen, ohne einen Mac kann sie fast gar nichts, für mich nur ein Zubehör, dass daher eh als Schaltzentrale nicht taugt.
Dass aber iPad und iPhone zu lange beschnitten waren, das war mies von Apple, insbesondere seit es ProRes kann.
Ein wirklicher „deep dive“ mit viel Nerd-Faktor gibts jetzt auch bei der Freakshow. Zwar ohne Bild, aber imho fürs Podcast Format (sehr) gut anschaulich aufbereitet. Absolute Hörempfehlung, gefühlt wird jedes Detail abgedeckt. https://freakshow.fm/fs275-scheinriesenfenster
die 2TB waren dann wohl (vorerst) doch nur Gerüchteküche
nr-Thunder schrieb:
Der Cache ist doch viel kleiner, ist auch auf dem Mac direkt nicht anders. Nehmen wir an du hast ein 100GB Video über 1 Stunde, und jetzt fügst du "live" in Final Cut einen Filter hinzu der das Bild kalt macht. Solange du es nicht endgültig kompilierst, wird die Datei nicht verändert, sondern es werden nur z.B. 10 Sekunden geladen in den Ram, und darauf dann der Filter angewendet, und wenn das Video dann spielt fortgeschrieben. Auch am Mac, wenn du Live das Video bearbeitest und dann an einer Stelle 5 Minuten weiter springst, braucht Final Cut Pro auch ein paar Sekunden zum buffern, bis es weiter geht.
das heißt ich muss dann beim Rumspringen in der Timeline ständig warten?
hmm...
aber verstehe langsam was du meinst
schlussendlich - wenn ich das ganze Video beim Schnitt durchgehe (mehrfach) muss ich trotzdem das ganze Video rüberübertragen.. (vielleicht mehrfach - aber das wäre ja egal, ist ja lokal)
nr-Thunder schrieb:
Wird monetarisiert. Apple lässt sich den 35,9 Wh Akku (13V 6A 3166mAh) vergoldet bezahlen.
@Luthredon Wenn man den Gedanken verfolgt, ein Gerät für sich zu benutzen, dann wäre ein Thunderbolt hilfreich. Der Quadrocopter, der sich aktuell mit dem iPad verbindet, wird sich wohl kaum mit dem iPad zum speichern des Filmmaterials, und mit der Vision Pro als Monitor verbinden lassen. Also müsste die Vision Pro das Bild bekommen und auch gleichzeitig das Filmmaterial speichern, am besten auf eine externe TB-SSD.
was schade ist..
gibt schon paar Video da drausen, wo leute ihre DJI-Drohnen mit der Apple Vision Pro benutzen, und dank großem FOV, verankertem "Anzeigemonitor" in riesig in MR und der Farben etc. der Vision Pro:
wird von großartigem Ergebnis berichtet, sogar von der besten Möglichkeit eine DJI-Drohne zu fliegen
Ein wirklicher „deep dive“ mit viel Nerd-Faktor gibts jetzt auch bei der Freakshow. Zwar ohne Bild, aber imho fürs Podcast Format (sehr) gut anschaulich aufbereitet. Absolute Hörempfehlung, gefühlt wird jedes Detail abgedeckt. https://freakshow.fm/fs275-scheinriesenfenster
Danke für den Tip.
Über den Podcast Freakshow bin ich mal vor längerer Zeit gestolpert, aber nie wirklich gehört.
Was ich gut finde ist, dass sie sich wirklich viel Zeit für das Thema nehmen.
Schlussendlich kommen sie aber auch zum Fazit: zu teuer, keine Usecase für das man die VP benötigt, zu unflexibel, zu viel Aufwand für die Benutzung usw.
Was auch sehr interessant an der VP zu sehen ist ist die Tatsache, dass Apple ein Produkt herausgebracht hat, das viele Menschen dazu bewegt (für Apple) zu überlegen, für was das Teil eigentlich Sinn macht.
Nach der langen Entwicklungszeit und keinem "echten" Usecase, den Apple dabei gefunden hat, zerbrechen sich nun ganz viele Köpfe die selbigen.
Und gerade bei Freakshow kommen sie auf die Idee, dass die VP für irgendeine Art von 3D Kreation gut sein könnte, aber ich bin der Meinung, dass dafür die Steuerung zu unpräzise ist.
Nicht ohne Grund nutzen wir alle an PC für produktive Arbeit Eingabegeräte, die zig Jahrzehnte alt sind und bis heute nicht ersetzt wurden: Maus und Tastatur!
Nicht ohne Grund haben auch viele Hersteller von "einfachen" VR-Brillen die Entwicklung gestoppt, da sich die Teile nur an wenige Freaks verkauft haben, welches es mal ausprobiert und dann verkauft oder in der Schublade liegen haben.
Ich würde mir Half Life Alyx auch mal anschauen, ich würde mir auch mit der VP mal die Möglichkeiten anschauen, aber dafür Geld bezahlen? Nope! Der Kosten-Nutzen-Faktor ist einfach zu schlecht.
Es gab bisher kein Apple Geräte, wo sich so viele Leute gefragt haben, wozu man das benötigt.
Spätestens nach einigen Monaten hat bei Smartphones den Sinn erkannt, genau so bei Tablets oder auch bei Smartwatches. Und gerade bei den eben genannten Geräten hat Apple bei ihren Varianten dieser Geräteklassen die Vorteile und die Usecases hervorgehoben.
Es nützt nichts: das Teil ist überflüssig und in dieser oder ähnlicher Form floppt es.
PS: Aber wenn man sich mal die MWC 24 in Barcelona anschaut und neben den Standardprodukten solch ein Lenovo Notebook mit durchsichtigem Display (Lenovo weiß auch nicht wozu und zeigt diesen Prototypen, weil es geht) oder ein Motorola-Handy sieht, welches man um das Handgelenk biegen (mit all den Nachteilen) kann, dann sieht man, dass auch andere Hersteller keine sinnvollen Ideen haben.
Alle wirklich sinnvollen Produkte gibt es und sind fertig entwickelt.
Neue Märkte wie Quadkopter als Flugtaxis (jetzt unabhängig von Computern & Co.) sind super interessant, aber da ist dann die Physik und Sicherheit der Gegener, weshalb das nicht in der Masse möglich ist.
Und wie groß war der Hype um Autonomes Fahren? All die Pläne über selbstfahrende Autos sind geplatzt, weil das reale Leben/Verkehr halt nicht 100% vorhersehbar ist und zu viele Unvorhersehbarkeiten passieren können, bei denen man denken oder sich mal mit Handzeichen verständigen muss, was eine Maschine nicht kann. Was übriggeblieben ist sind etwas bessere Spurhalteassisten mit Kollisionserkennung, die es schon lange gibt.
Es gab bisher kein Apple Geräte, wo sich so viele Leute gefragt haben, wozu man das benötigt.
Spätestens nach einigen Monaten hat bei Smartphones den Sinn erkannt, genau so bei Tablets oder auch bei Smartwatches. Und gerade bei den eben genannten Geräten hat Apple bei ihren Varianten dieser Geräteklassen die Vorteile und die Usecases hervorgehoben.
Ich frage mich echt in welcher Realität du lebst, es kann nicht diese sein...
Das iPhone erschien mit 2G Datenverbindung, ohne GPS, ohne Appstore, ohne Copy&Paste, Multitasking oder überhaupt irgendetwas.
Für verdammt viel Geld!
Es wurde ausgelacht, von vielen!
Und es konnte weniger als die Konkurrenz - deren Geräte bedienten sich zwar eher wie Windows 3.11, aber sie konnten mehr.
Das iPad: Nur ein großer iPod Touch! Verkaufszahlen gering, weil anders als beim iPhone der Preis eben nicht vom Provider subventioniert wird sondern man das Teil selbst bezahlen muss.
Meine Eltern haben zwei iPads und nutzen nur noch die, anstelle des mittlerweile komplett ignorierten Notebooks.
Aber hätten sie sich selber ein iPad gekauft? Nie im Leben! Die kamen als Geschenke von mir, weil Technologie für 400€ pro Stück halt bei vielen doch nur optional ist, da wäre es eher weiterhin das echt nicht tolle Notebook geblieben.
Apple Watch: Man hört auch heute, fast 9 Jahre nach Einführung, ständig Kommentare, dass die Akkulaufzeit ja viel viel viel zu gering sei und die Leute kaufen sich lieber für 40€ nur einen Schrittzähler der einmal vibriert wenn eine Nachricht reinkommt, als eine Apple Watch für 300 bis 800+ Euro.
Weil sie den Sinn in der Apple Watch nicht sehen.
Auch wirklich sehr gute Produkte, die ihren Preis definitiv wert sind, haben in der Vergangenheit oder sogar noch heute den Vorwurf bekommen, dass sie sinnlos und überteuert seien.
Das ändert sich dann frühestens, wenn man dann doch mal eines hat.
Siehe auch: Du!
"VR Brillen für Freaks, würdest gerne mal HL Alyx probieren, aber ey, echt nicht für das Geld"
Die Leute geben 500€ für einen etwas niceren Gaming-Monitor statt dem ollen FullHD-24zöller für nen Hunni aus, weil sie eine Vorstellung haben was sie da erwartet - mehr vom Gleichen.
Für die 299€ einer Quest 2 und besonders die 550€ einer Quest 3 bekämen sie dagegen ein ganz anderes, neues Erlebnis, welches so durch nichts ersetzbar ist.
Damit kann man so so so viel mehr machen als mit einem einfach besseren Monitor - unter anderem ersetzt es einen Monitor!
Und eine Staffelei, eine Reise, den Einberufungsbescheid zur Bundeswehr, das Kampfflugzeug, Sturmgewehr und den Panzer, den Kauf von Puzzles oder Haustieren...
Wenn man den Gedanken verfolgt, ein Gerät für sich zu benutzen, dann wäre ein Thunderbolt hilfreich. Der Quadrocopter, der sich aktuell mit dem iPad verbindet, wird sich wohl kaum mit dem iPad zum speichern des Filmmaterials, und mit der Vision Pro als Monitor verbinden lassen. Also müsste die Vision Pro das Bild bekommen und auch gleichzeitig das Filmmaterial speichern, am besten auf eine externe TB-SSD.
Ja, so ähnlich . Ich hab mich vielleicht zu ungenau ausgedrückt, aber ich kann gern mal meinen Workflow kurz beschreiben. Copter kommt mit mehr oder weniger gefüllten 256GB Karte rein. Die Übertragung von der Karte ist natürlich auch eher langsam. Ich persönlich nehm die Karte raus und lese sie mit einem schnellen Card-Reader ins iPad ein. Dort hab ich so ca. 400-450GB frei. Das dauert, ist aber nicht zu ändern. Nun aber kommt die schnelle Schnittstelle ins Spiel. Wenn die Daten übertragen sind, steck ich eine 2TB TB3 SSD an das iPad und speichere das Material dort. Die SSD ist via TB3 auch so schnell, dass man sie zum Editieren direkt verwenden kann. Lumafusion z.B. beherrscht das auch, d.h. die Schnipsel können auf der SSD bleiben und man merkt keine nennenswerte Verzögerung bei der Bearbeitung. Rohschnitte kann man da auch gleich wieder flott dorthin exportieren. Diese Arbeitsweise würde ich eben auch von der VP erwarten und das erscheint mir rein drahtlos, selbst wenn es grundsätzlich funkionieren würde, sinnlos.
Apple kann die Vision pro vermarkten wie sie wollen, ohne einen Mac kann sie fast gar nichts, für mich nur ein Zubehör, dass daher eh als Schaltzentrale nicht taugt.
So sehe ich es momentan auch, dann ist aber die Hardware zu aufwändig und zu teuer - zumindest was die Rechenpower angeht. Ob jetzt die ganzen tollen Displays SO viel kosten müssen, weiß ich nicht, habe aber Zweifel. Und den 'Schischi' mit dem Außendisplay hab ich eh nie verstanden.
Dass aber iPad und iPhone zu lange beschnitten waren, das war mies von Apple, insbesondere seit es ProRes kann.
Da rennst du bei mir offene Türen ein. Ich bin da mit meinem m-iPad sicher auch das letzte Mal auf Apple reingefallen. Jedesmal wurde versprochen, dass sich diese Geräteklasse mehr an Notebooks annähert und jedesmal waren es nur Bull. Ich frage mich heute noch, wozu es ein 'iPadOS' gebraucht hat, wenn es quasi ein iOS geblieben ist. Wie gesagt, ich nutze mein iPad ganz erfolgreich, weil ich einfach mache was geht. Wenn ich aber dran denke, was wirklich möglich wäre, bin ich sauer .
@hurzpfurz
1. Rückgabequote nicht ungewöhnlich
2. Wahrscheinlich höhere Verkaufszahlen in diesem Jahr als von Apple erwartet (von 150k bis 200k auf 200k bis 250k
Das steht so in der News...
Was nicht drin steht, aber auch so ist:
Kack die Wand an, die Nachfrage ist kaum vier Wochen nach der zweiwöchigen Vorbestellphase gesunken?
Echt? Wie kann das denn sein?!?!?!
Da haben echt alle die die Brille unbedingt haben wollen sie vor nicht mal einem Monat bereits vorbestellt und jetzt, wo man sie regulär kaufen kann sind die Verkaufszahlen/die Nachfrage geringer als in dieser Phase der frontloaded Verkäufe, wo fucking ALLE die die Brille haben wollten zugegriffen haben und jetzt erstmal nur noch die eine kaufen die die Vorbestellphase verpennt haben???
Wie kann das denn SEIN???
Eigentlich ist jede Nachfrage GERADE ein Zeichen dafür, dass sie irgendwen vom Kauf überzeugt hat, der das nicht bereits vor fast einem dreiviertel Jahr zur Vorstellung war...
Es steht vor allem auch in der Analyse von Ming-Chi Kuo - aber nur dort, da Apple sich ja gar nicht geäußert hat -, dass die 'völlig gewöhnliche Rücklaufquote' von 1% fast ausschließlich auf 'Einrichtungsschwierigkeiten', also den User, zurückzuführen sei. Gründe wie 'Erwartungen nicht erfüllt', 'mir wird beim Benutzen schlecht', 'das Ding ist zu schwer und wird zu warm' oder Ähnliches gabs gar nicht ... es ist tatsächlich nur ein neuer Fall von 'you're holding it wrong' . Gottseidank.