Samsung TV 2023: Alle Neo QLED-, QLED- und Crystal UHD-Fernseher im Detail
Mar 07, 2023American war gut nach Atlanta, aber nicht ganz so gut wie Delta Coming Home (Reisebericht)
Mar 09, 2023Lohnt sich die Premium Economy von Delta Air Lines zwischen New York und London?
Mar 11, 2023i5LED ernennt Lynn Wang zur globalen Leiterin der Geschäftsentwicklung für dvLED Company
Mar 13, 2023Der Maschinenstar Bert Kreischer über seine unwahrscheinliche Reise auf die Leinwand
Mar 15, 2023Apple Vision
Es ist wirklich einer der besten Produktnamen in der Geschichte von Apple: Vision ist eine Beschreibung eines Produkts, es ist ein Anspruch für einen Anwendungsfall und es ist eine Kritik an der Art von Gesellschaft, die wir aufbauen, und steht mehr als jeder andere hinter der Führungsrolle von Apple anders.
Ich spreche natürlich von Apples neuem Mixed-Reality-Headset, das gestern auf der WWDC angekündigt wurde, mit einem geplanten Versanddatum Anfang 2024 und einem Preis von 3.499 US-Dollar. Ich hatte das Glück, einen Apple Vision im Rahmen einer kontrollierten Demo zu verwenden – was sicherlich ein wichtiger Salzkorn ist – und ich fand die Erfahrung außergewöhnlich.
Es ist viel besser, als ich erwartet hatte, und ich hatte hohe Erwartungen.
– Ben Thompson (@benthompson) 6. Juni 2023
Die hohen Erwartungen resultierten nicht nur aus der Tatsache, dass dieses Produkt von Apple, dem unbestritten besten Hardwarehersteller der Welt, gebaut wurde, sondern auch, weil ich im Gegensatz zu vielen anderen relativ optimistisch in Bezug auf VR bin. Was mich überrascht hat, ist, dass Apple meine Erwartungen in beiden Punkten übertroffen hat: Die Hardware und das Erlebnis waren besser, als ich es für möglich gehalten hätte, und das Potenzial für Vision ist größer, als ich erwartet hatte. Die gesellschaftlichen Auswirkungen sind jedoch viel komplizierter.
Seit ich über den Weltraum schreibe, habe ich die Unterschiede zwischen VR (Virtual Reality) und AR (Augmented Reality) hervorgehoben. Aus einem Update von 2016:
Ich halte es für sinnvoll, zwischen virtueller und erweiterter Realität zu unterscheiden. Schauen Sie sich nur die Namen an: Bei „virtueller“ Realität geht es um eine immersive Erfahrung, die völlig losgelöst von der aktuellen Realität ist, während es bei „erweiterter“ Realität darum geht, die Realität, in der man sich bereits befindet, zu erweitern. Dies ist mehr als eine semantische Unterscheidung verschiedener Headset-Typen: Sie können nahezu die gesamte Verbrauchertechnologie entlang dieser Achse unterteilen. In Filmen und Videospielen geht es um unterschiedliche Realitäten; Bei Produktivitätssoftware und Geräten wie Smartphones geht es darum, die Gegenwart zu erweitern. Kein Wunder also, dass alle großen Virtual-Reality-Ankündigungen voraussichtlich einen Bezug zu Videospielen und Filmen haben werden.
Interessanter ist die Augmentation: In den meisten Fällen scheinen Augmentationsprodukte am besten als Speichen um eine Nabe geeignet zu sein; Das Infotainmentsystem eines Autos beispielsweise ist in hohem Maße ein Gerät, das sich auf die aktuelle Realität der Fahrzeuginsassen konzentriert, und wie die Ankündigung von Ford zeigt, liegt die Zukunft hier darin, das Smartphone unterzubringen. Mit Uhren und Wearables im Allgemeinen ist es, zumindest im Moment, das Gleiche.
Ich hebe diesen Timing-Bezug hervor, weil es wichtig ist, sich daran zu erinnern, dass Smartphones ursprünglich als Speiche rund um den PC-Hub konzipiert waren; Es stellte sich jedoch heraus, dass Smartphones aufgrund ihrer Mobilität – da sie an mehr Orten nützlich sind und somit mehr Erfahrungen ermöglichen können – den PC als Hub verdrängt haben. Wenn ich also über die Frage nachdenke, was das Smartphone verdrängen könnte, ist meiner Meinung nach das, was wir heute unter einer „Speiche“ verstehen, ein guter Ausgangspunkt. Und ich füge hinzu, das ist der Grund, warum sich Plattformunternehmen wie Microsoft und Google auf Augmented statt Virtual Reality konzentriert haben und warum der mysteriöse Magic Leap bis heute weit über eine Milliarde Dollar eingesammelt hat; immer in Ihrer Sicht ist noch überzeugender als immer in Ihrer Tasche (wie immer an Ihrem Handgelenk).
Ich werde später auf den letzten Absatz zurückkommen; Ich glaube nicht, dass es ganz richtig ist, auch weil Apple Vision zeigt, dass der erste Teil des Auszugs auch nicht richtig war. Apple Vision ist technisch gesehen ein VR-Gerät, das erfahrungsgemäß ein AR-Gerät ist, und es ist eine dieser Lösungen, die, wenn man sie erst einmal erlebt hat, so offensichtlich die richtige Implementierung ist, dass man kaum glauben kann, dass es jemals einen anderen möglichen Ansatz für das allgemeine Konzept gegeben hat von computergesteuerten Brillen.
Diese Realität – Wortspiel beabsichtigt – wird Ihnen in dem Moment bewusst, in dem Sie mit der Einrichtung des Geräts fertig sind. Dazu gehört nicht nur das Anbringen des Headsets an Ihrem Kopf und das Hinzufügen eines Satzes verschreibungspflichtiger Linsen, falls nötig, sondern auch das Einrichten des Eye-Trackings (worauf ich später noch näher eingehen werde). in einem Moment). Sobald Sie durch diese Hürden gesprungen sind, sind Sie plötzlich wieder da, wo Sie angefangen haben: Sie betrachten den Raum, in dem Sie sich befinden, mit erschreckend voller Wiedergabetreue.
Was passiert, ist, dass Apple Vision einige seiner 12 Kameras nutzt, um die Außenwelt einzufangen und sie auf den briefmarkengroßen Bildschirmen vor Ihren Augen anzuzeigen, so dass Sie das Gefühl haben, eine Schutzbrille zu tragen: Sie schauen durch etwas hindurch, das zwar nicht völlig klar ist, aber dennoch eine ausreichend hohe Auflösung und Geschwindigkeit aufweist, sodass kein Grund zu der Annahme besteht, dass es nicht real ist.
Die Geschwindigkeit ist entscheidend: Apple gibt an, dass die Schwelle, ab der Ihr Gehirn irgendeine Art von Verzögerung bei dem bemerkt, was Sie sehen und was Ihr Körper von Ihnen erwartet (was bekannte VR-Probleme wie Reisekrankheit verursacht), bei 12 Millisekunden liegt Die visuelle Pipeline von Vision zeigt Ihren Augen in maximal 12 Millisekunden an, was sie sieht. Dies ist besonders bemerkenswert, da die Zeit, die der Bildsensor zum Erfassen und Verarbeiten des Gesehenen benötigt, etwa 7 bis 8 Millisekunden beträgt, was bedeutet, dass der Vision das erfasste Bild aufnimmt, verarbeitet und anzeigt in etwa 4 Millisekunden vor Ihren Augen.
Dies ist wirklich etwas, was nur Apple tun könnte, denn diese Geschwindigkeit ist eine Funktion von zwei Dingen: erstens dem von Apple entwickelten R1-Prozessor (Apple hat auch einen Teil des Bildsensors entworfen) und zweitens der Integration mit Apples Software. Hier erklärt Mike Rockwell, der die Entwicklung des Headsets leitete, „visionOS“:
Keine dieser fortschrittlichen Technologien könnte ohne ein leistungsstarkes Betriebssystem namens „visionOS“ zum Leben erweckt werden. Es basiert auf der Grundlage jahrzehntelanger technischer Innovationen in macOS, iOS und iPad OS. Zu dieser Grundlage haben wir eine Vielzahl neuer Funktionen hinzugefügt, um die Anforderungen an die geringe Latenz des Spatial Computing zu unterstützen, wie z. B. eine neue Echtzeit-Ausführungs-Engine, die leistungskritische Arbeitslasten garantiert, eine dynamisch optimierte Rendering-Pipeline, die maximale Bildqualität genau dort liefert, wo Sie sind Die Augen suchen nach jedem einzelnen Frame, einer einzigartigen Multi-App-3D-Engine, die es ermöglicht, verschiedene Apps gleichzeitig in derselben Simulation auszuführen, und, was noch wichtiger ist, den vorhandenen Anwendungs-Frameworks, die wir erweitert haben, um räumliche Erlebnisse nativ zu unterstützen. visionOS ist das erste Betriebssystem, das von Grund auf für räumliches Computing entwickelt wurde.
Der Schlüsselteil hier ist die „Echtzeit-Ausführungs-Engine“; „Echtzeit“ ist nicht nur eine Beschreibung der Erfahrung bei der Verwendung von Vision Pro: Es ist ein Kunstbegriff für eine andere Art der Datenverarbeitung. So definiert Wikipedia ein Echtzeitbetriebssystem:
Ein Echtzeitbetriebssystem (RTOS) ist ein Betriebssystem (OS) für Echtzeit-Computing-Anwendungen, das Daten und Ereignisse verarbeitet, die kritisch definierte Zeitbeschränkungen haben. Ein RTOS unterscheidet sich von einem Time-Sharing-Betriebssystem wie Unix, das die gemeinsame Nutzung von Systemressourcen mit einem Scheduler, Datenpuffern oder einer festen Aufgabenpriorisierung in einer Multitasking- oder Multiprogramming-Umgebung verwaltet. Anforderungen an die Bearbeitungszeit müssen vollständig verstanden und festgelegt werden und dürfen nicht nur auf ein Minimum beschränkt werden. Die gesamte Verarbeitung muss innerhalb der definierten Einschränkungen erfolgen. Echtzeitbetriebssysteme sind ereignisgesteuert und präventiv, was bedeutet, dass das Betriebssystem die relevante Priorität konkurrierender Aufgaben überwachen und Änderungen an der Aufgabenpriorität vornehmen kann. Ereignisgesteuerte Systeme wechseln zwischen Aufgaben basierend auf ihren Prioritäten, während Time-Sharing-Systeme die Aufgaben basierend auf Taktunterbrechungen wechseln.
Echtzeitbetriebssysteme werden in eingebetteten Systemen für Anwendungen mit kritischer Funktionalität verwendet, wie zum Beispiel ein Auto: Es ist in Ordnung, ein Infotainmentsystem zu haben, das manchmal hängen bleibt oder sogar abstürzt, im Austausch für mehr Flexibilität und Leistungsfähigkeit, aber die Software ist das eigentlich Wer das Fahrzeug bedient, muss zuverlässig und stets schnell sein. Dies ist im Großen und Ganzen eine Möglichkeit, über die Funktionsweise von visionOS nachzudenken: Während es sich bei der Benutzererfahrung um ein Time-Sharing-Betriebssystem handelt, das tatsächlich eine Variante von iOS ist und auf dem M2-Chip läuft, gibt es ein Subsystem, das hauptsächlich das Betriebssystem betreibt R1-Chip, der in Echtzeit arbeitet; Das bedeutet, dass selbst wenn visionOS hängen bleibt oder abstürzt, die Außenwelt immer noch innerhalb dieser magischen 12 Millisekunden gerendert wird.
Dies ist selbstverständlich die bislang bedeutungsvollste Manifestation der Fähigkeit von Apple, Hardware und Software zu integrieren: Während sich diese Integration zuvor bei einem Smartphone in einem besseren Benutzererlebnis oder bei einem Smartphone in einer scheinbar unmöglichen Kombination aus Leistung und Effizienz manifestierte Im Fall von Apple Silicon-Laptops ermöglicht diese Integration in diesem Fall die Verschmelzung von VR und AR in einer einzigen Vision.
In den Anfangsjahren der Digitalkameras gab es eine Trennung zwischen vollständig digitalen Consumer-Kameras und High-End-Kameras, die über einen digitalen Sensor hinter einem herkömmlichen Reflexspiegel verfügten, der das tatsächliche Licht auf einen optischen Sucher leitete. Im Jahr 2008 brachte Panasonic dann die G1 auf den Markt, die erste spiegellose Kamera mit Wechselobjektivsystem. Die G1 hatte einen Sucher, aber der Sucher war tatsächlich ein Bildschirm.
Dieses System wurde anfangs von den meisten High-End-Kamerabenutzern abgelehnt: Sicher, ein spiegelloses System ermöglichte ein einfacheres und kleineres Design, aber ein Bildschirm war auf keinen Fall mit dem tatsächlichen Blick durch das Objektiv der Kamera vergleichbar Das könnte man mit einem Reflexspiegel machen. Doch heute sind fast alle Kameras auf dem Markt, auch professionelle Kameras, spiegellos: Diese winzigen Bildschirme wurden nicht nur viel besser, heller und schneller, sondern brachten auch viele eigene Vorteile mit sich, darunter die Möglichkeit, genau zu sehen, wie ein Foto aussehen würde, bevor Sie es aufnehmen.
Spiegellose Kameras waren genau das, was mir in den Sinn kam, als das Vision Pro den oben erwähnten Standardbildschirm anzeigte, auf dem ich mühelos meine Umgebung sehen konnte. Das Sichtfeld war an den Rändern etwas eingeschränkt, aber als ich tatsächlich den Anwendungsstarter aufrief, eine App verwendete oder ein Video ansah, war das Sichtfeld im Vergleich zu einem AR-Erlebnis wie einer Hololens geradezu astronomisch. Mit anderen Worten: Indem das Erlebnis vollständig digitalisiert wird, bietet der Vision Pro ein tatsächlich nützliches AR-Erlebnis, das die immer noch enormen technischen Herausforderungen, denen echte AR gegenübersteht, irrelevant erscheinen lässt.
Der Vorteil liegt in der Möglichkeit, digitale Erlebnisse dann in Ihre reale Umgebung einzubinden: Dazu können Produktivitätsanwendungen, Fotos und Filme, Telefonkonferenzen und alles andere gehören, was Entwickler sich sonst noch einfallen lassen, und alles kann genutzt werden, ohne den Sinn zu verlieren des Ortes in der realen Welt. Um nur ein kleines Beispiel zu nennen: Während ich Vision Pro benutzte, summte mein Telefon ständig mit Benachrichtigungen; Ich habe einfach das Telefon aus der Tasche genommen, das Kontrollzentrum geöffnet und den Anrufschutz aktiviert. Was nur im Nachhinein bemerkenswert war, ist, dass ich das alles tat, während ich in der virtuellen Realität technisch gesehen von der Welt abgeschottet war, meine Erfahrung aber darin bestand, einfach auf das Telefon in meiner Hand zu blicken, ohne überhaupt darüber nachzudenken.
Alles digital zu machen, zahlt sich auch auf andere Weise aus; Die Demo beinhaltete dieses Dinosaurier-Erlebnis, bei dem der Dinosaurier den Raum zu betreten scheint:
Der Grund dafür ist, dass der Raum zwar real wirkt, aber tatsächlich digital gerendert wird.
Es bleibt abzuwarten, wie gut dieses Erlebnis auch umgekehrt funktioniert: Das Vision Pro verfügt über „EyeSight“, den Namen von Apple für das nach vorne gerichtete Display, das Ihre Augen den Menschen um Sie herum zeigt. EyeSight war nicht Teil der Demo, daher bleibt abzuwarten, ob es so gruselig ist, wie es scheint: Das Ziel ist jedoch dasselbe: ein Gefühl für den Platz in der realen Welt zu bewahren, nicht durch scheinbares Lösen -unmögliche physikalische Probleme, aber indem man einfach alles digital macht.
Dass die Augen des Benutzers auf der Außenseite des Vision Pro angezeigt werden können, ist wohl ein Nebenprodukt der Technologie, die der Benutzeroberfläche des Vision Pro zugrunde liegt: Was Sie sehen, wird vom Vision Pro verfolgt und wann Sie Maßnahmen ergreifen möchten Bei dem, was Sie gerade betrachten, berühren Sie einfach Ihre Finger. Bemerkenswert ist, dass Ihre Finger nicht in den Weltraum gestreckt werden müssen: Während ich das Vision Pro benutzte, lagen meine Hände einfach in meinem Schoß und ihre Bewegung wurde von den Kameras des Vision Pro verfolgt.
Es ist erstaunlich, wie gut das funktioniert und wie natürlich es sich anfühlt. Besonders überraschend ist die hohe Auflösung dieser Benutzeroberfläche. Schauen Sie sich diesen Ausschnitt eines Standbilds aus der Präsentation von Apple an:
Über die Leiste am unteren Rand von „Fotos“ können Sie Fotos „greifen“, um sie (im wahrsten Sinne des Wortes) an eine beliebige Stelle zu verschieben. Der kleine Kreis neben der Leiste dient zum Schließen der App. Auf der linken Seite befinden sich verschiedene Menüelemente, die nur für Fotos gelten. Das Besondere daran ist, wie klein sie sind: Es handelt sich nicht um eine Benutzeroberfläche wie iOS oder iPadOS, die für große, stumpfe Finger geeignet ist; Vielmehr ist das Eye-Tracking von visionOS so genau, dass es das genaue Benutzeroberflächenelement, das Sie gerade betrachten, leicht abgrenzen kann, was Sie wiederum durch einfaches Berühren Ihrer Finger aneinander auslösen. Es ist außergewöhnlich und funktioniert außerordentlich gut.
Natürlich können Sie auch eine Tastatur und ein Trackpad verwenden, die über Bluetooth verbunden sind, und Sie können auch einen Mac in den Vision Pro projizieren; In der Vollversion des obigen Screenshots ist links neben Fotos ein Mac mit Final Cut Pro zu sehen:
Ich hatte keine Gelegenheit, die Mac-Projektion auszuprobieren, aber ehrlich gesagt, obwohl ich in dieser Keynote am meisten von dieser Funktion begeistert war, hat die native Benutzeroberfläche so gut funktioniert, dass ich vermute, dass ich lieber native Apps verwenden werde, selbst wenn das so ist Apps gibt es auch für den Mac.
Ein unglaubliches Produkt ist eine Sache; Die Frage, die sich jedoch jeder stellt, ist, wofür genau das nützlich ist? Wer hat in seinem Leben noch Platz für ein weiteres Gerät, insbesondere für eines, das 3.499 US-Dollar kostet?
Diese Frage ist für den Erfolg eines Produkts oft wichtiger als die Qualität des Produkts selbst. Apples eigene Geschichte neuer Produkte ist ein hervorragendes Beispiel:
Mittlerweile nutzen wir alle Laptops und Smartphones. Jeder nutzt einen Laptop und/oder ein Smartphone. Und in letzter Zeit stellt sich die Frage: Gibt es in der Mitte Platz für eine dritte Gerätekategorie? Etwas, das zwischen einem Laptop und einem Smartphone liegt. Und natürlich beschäftigen wir uns auch schon seit Jahren mit dieser Frage. Die Messlatte liegt ziemlich hoch. Um eine neue Gerätekategorie zu schaffen, müssen diese Geräte einige wichtige Aufgaben weitaus besser erfüllen. Sie müssen einige wirklich wichtige Dinge viel besser können, besser als ein Laptop, besser als ein Smartphone.
Jobs zählte dann eine Reihe von Dingen auf, in denen das iPad seiner Meinung nach besser sein könnte, darunter Surfen im Internet, E-Mails senden, Fotos ansehen, Videos ansehen, Musik hören, Spiele spielen und E-Books lesen.
Tatsächlich ist die einzige dieser Kategorien, die sich wirklich durchgesetzt hat, das Ansehen von Videos, insbesondere Streaming-Dienste. Das ist sicherlich ein ziemlich bedeutender Anwendungsfall, und das iPad ist ein erfolgreiches Produkt (und eines, dessen potenzielle Anwendungsfälle durch den Apple Pencil dramatisch erweitert wurden), das fast so viel Umsatz macht wie der Mac, obwohl es das Tablet dominiert Markt in viel größerem Umfang als der Mac den PC-Markt. Gleichzeitig ähnelt es nicht dem iPhone, was Sinn macht: Das iPad ist eine nette Ergänzung zur eigenen Gerätesammlung, wohingegen ein iPhone unerlässlich ist.
Die Kritiker haben Recht, dass dies am Anfang die Herausforderung für Apple Vision sein wird: Viele Frühkäufer werden sich wahrscheinlich für den Neuheitswert interessieren oder Apple-Superfans sein, und es ist berechtigt, sich zu fragen, ob der Vision Pro der beste der Welt werden könnte teures Papiergewicht. So verwenden Sie eine aktualisierte Version der Jobs-Folie:
Kein Wunder, dass Apple Berichten zufolge seine Verkaufsschätzungen auf weniger als eine Million Geräte gesenkt hat.
Wie ich oben erwähnt habe, bin ich hinsichtlich VR relativ optimistisch, auch weil ich glaube, dass der überzeugendste Anwendungsfall die Arbeit ist. Erstens: Wenn ein Gerät jemanden tatsächlich produktiver macht, ist es viel einfacher, die Kosten zu rechtfertigen. Zweitens ist es zwar ein Hindernis, tatsächlich ein Headset aufzusetzen – um auf meine VR/AR-Einführung weiter oben zurückzukommen: Ein Headset ist ein Zielgerät – aber die Arbeit ist ein Ziel. Ich habe in einem weiteren Update im Zusammenhang mit Metas Horizon Workrooms geschrieben:
Der Zweck der Berufung auf die durch COVID hervorgerufenen Veränderungen bestand jedoch darin, darauf hinzuweisen, dass Arbeit ein Ziel ist, und zwar ein Ziel, das einen großen Teil unserer Zeit in Anspruch nimmt. Als ich 2018 diesen skeptischen Artikel schrieb, war der Arbeitsplatz für die überwiegende Mehrheit der Menschen natürlich ein physischer Ort; Plötzlich ist es jedoch insbesondere für Millionen von Angestellten ein virtueller Raum. Und wenn die Arbeit bereits ein virtueller Raum ist, dann erscheint die virtuelle Realität plötzlich viel fesselnder. Mit anderen Worten könnte die virtuelle Realität viel wichtiger sein als bisher angenommen, da der Vektor, über den sie allgegenwärtig werden wird, nicht der Verbraucherbereich (und Spiele), sondern der Unternehmensbereich, insbesondere Meetings, ist.
Apple hat Meetings im Vision Pro besprochen, einschließlich eines Frameworks für Personas – ihr Wort für Avatare – das für Facetime verwendet wird und in kommende Zoom-, Teams- und Webex-Apps integriert wird. Viel überzeugender finde ich jedoch die einfache Verwendung eines Vision Pro anstelle eines Mac (oder in Verbindung mit einem, indem der Bildschirm projiziert wird).
Auf die Gefahr hin, meine eigenen Erfahrungen zu sehr zu indizieren, bin ich ein großer Fan von mehreren Monitoren: Ich habe vier an meinem Schreibtisch und es ist frustrierend, gerade unterwegs zu sein und dies auf einem Laptop-Bildschirm zu tippen. Ich würde auf jeden Fall dafür bezahlen, dass ein Gerät einen riesigen Arbeitsbereich bietet, den ich überall hin mitnehmen kann, und obwohl ich mir mein Urteil vorbehalte, bis ich tatsächlich einen Vision Pro verwende, könnte ich mir vorstellen, dass es auch auf meinem Schreibtisch besser ist.
Ich habe das mit dem Quest versucht, aber die Bildschirmauflösung ist zu niedrig, um bequem zu funktionieren, die Benutzeroberfläche ist etwas klobig und das Eintauchen ist zu vollständig: Es ist schwierig, damit überhaupt Kaffee zu trinken. Oh, und die Akkulaufzeit ist bei weitem nicht gut genug. Vision Pro löst jedoch all diese Probleme: Die Auflösung ist ausgezeichnet, ich habe bereits von der Benutzeroberfläche geschwärmt und – was entscheidend ist – man kann immer noch um sich herum sehen und mit Objekten und Personen interagieren. Darüber hinaus ist hier die Lösung mit externem Akku von Vorteil, da Sie den Akku einfach an ein Ladegerät anschließen und das Headset den ganzen Tag verwenden können (und Sie werden nicht unter Reisekrankheit leiden, sofern Apples Echtzeitwiedergabe hält). ).1
Auch hier bin ich aufgrund meiner Vorhersage und meines persönlichen Arbeitsablaufs bereits voreingenommen, aber wenn der Vision Pro ein Erfolg wird, denke ich, dass ein wichtiger Teil seines Marktes zunächst neben einem Mac verwendet werden wird, und zwar als Es entsteht ein natives App-Ökosystem, das anstelle eines solchen genutzt werden kann.
Um es noch deutlicher auszudrücken: Ich vermute, dass der Vision Pro die Zukunft des Mac ist.
Die größere Chance für Vision Pro besteht darin, auf das iPad umzusteigen und zum ultimativen Konsumgerät zu werden:
In der Keynote wurde das Filmerlebnis des Vision Pro hervorgehoben, das hervorragend und fesselnd ist. Natürlich ist es am Ende nicht viel anders, als wenn man in einem dunklen Raum einen hervorragenden Fernseher hat.
Viel überzeugender war eine Reihe immersiver Videoerlebnisse, die Apple in der Keynote nicht zeigte. Am auffälligsten war für mich, wenig überraschend, der Sport. Es gab einen Clip eines NBA-Basketballspiels, der unglaublich realistisch war: Der Spielclip wurde von der Grundlinie aus gedreht, und für jemanden, der das Glück hatte, am Spielfeldrand zu sitzen, fühlte es sich genauso an, und das muss man sagen, sogar noch viel mehr immersiver als ähnliche Erlebnisse auf der Quest.
Es stellt sich heraus, dass ein Grund für das Eintauchen darin liegt, dass Apple tatsächlich seine eigenen Kameras entwickelt hat, um das Spiel mit seinem neuen Apple Immersive Video Format aufzunehmen. Das Unternehmen äußerte sich ziemlich zurückhaltend darüber, wie es diese Kameras und ihr Format breiter verfügbar machen wollte, aber ich meine es völlig ernst, wenn ich sage, dass ich der NBA Tausende von Dollar zahlen würde, um einen Saisonpass zu bekommen, mit dem sie auf diese Weise aufgezeichnete Spiele ansehen kann. Ja, das ist eine verrückte Aussage, aber Sitzplätze am Spielfeldrand kosten so viel oder mehr, und dieser 10-Sekunden-Clip kam der Realität erschreckend nahe.
Das Faszinierende ist, dass ein solcher Saisonpass meiner Meinung nach ganz anders aussehen sollte als eine herkömmliche Fernsehübertragung, mit seinen vielen Kameraperspektiven, Ansagern, Anzeigetafeln usw. Ich würde nichts davon wollen: wenn ich will Um den Spielstand zu sehen, kann ich einfach auf die Anzeigetafel schauen, als ob ich im Stadion wäre; Für den Ton sorgen das Publikum und der PA-Ansager. Anders ausgedrückt: Das Apple Immersive Video Format gibt einem in einem viel größeren Ausmaß, als ich es für möglich gehalten hätte, wirklich das Gefühl, an einem anderen Ort zu sein.
Auch hier handelte es sich jedoch um einen 10-Sekunden-Clip (es gab noch einen anderen für ein Baseballspiel, der vom Unterstand der Heimmannschaft aus aufgenommen wurde und ebenso fesselnd war). Es gibt ein großes Henne-Ei-Problem bei der Produktion von Inhalten, die dieses Erlebnis tatsächlich bieten, weshalb sich die Keynote wahrscheinlich hauptsächlich auf 2D-Videos konzentrierte. Das bedeutet im weiteren Sinne, dass es schwieriger ist, den Kauf eines Vision Pro für Konsumzwecke zu rechtfertigen. Die Erfahrung ist jedoch so überzeugend, dass ich vermute, dass dieses Problem irgendwann gelöst sein wird und der adressierbare Markt dann nicht nur der Mac, sondern auch das iPad ist.
Was in dieser Vision übrig bleibt, ist das iPhone: Ich denke, dass Smartphones die Spitze in Sachen Computer sind, das heißt, dass das Vision Pro überall dort Sinn macht, wo das iPhone keinen Sinn macht.
Ich weiß, wie absurd positiv und optimistisch dieser Artikel über den Vision Pro ist, aber es fühlt sich wirklich wie die Zukunft an. Diese Zukunft wird jedoch Zeit brauchen: Ich vermute, dass es zu einer langsamen Verbrennung kommen wird, insbesondere wenn es darum geht, Produktkategorien wie den Mac oder insbesondere das iPad zu ersetzen.
Darüber hinaus bin ich noch nicht einmal auf eine der Funktionen eingegangen, die Apple am meisten anpreist, nämlich die Fähigkeit des Vision Pro, „Bilder“ – eigentlich Erinnerungen – von Momenten in der Zeit aufzunehmen und sie auf eine Weise wiederzugeben, die sich unglaublich anfühlt intim und lebendig.
Eines der Probleme ist die Tatsache, dass das Aufzeichnen dieser Erinnerungen zunächst das Tragen des Vision Pro erfordert, was wirklich umständlich sein wird! Schauen Sie sich dieses Video von der Geburtstagsfeier eines Mädchens an:
Es wird ziemlich seltsam wirken, wenn Papa ein Headset trägt, während seine Tochter Geburtstagskerzen ausbläst; Möglicherweise wird dieses Problem durch eine separate Reihe eigenständiger Kameras behoben, die Fotos im Apple Immersive Video Format aufnehmen. Mit anderen Worten lässt sich sagen, dass es sich hierbei um ein kleines Henne-Ei-Problem handelt.
Viel auffälliger war jedoch, wie der Konsum dieses Videos in der Keynote dargestellt wurde:
Beachten Sie das leere Haus: Was ist mit den Kindern passiert? Tatsächlich ist Apple bei der Zusammenfassung der Keynote tatsächlich auf diesen Clip zurückgekommen, und die Zeile „zum Wiedererleben von Erinnerungen“ kam mir unglaublich traurig vor:
Ich bin ehrlich: Für mich sah es aus wie ein geschiedener Vater, allein zu Hause mit seinem Vision Pro, vielleicht weil seine Frau darüber irritiert war, wie sehr er sich in seiner eigenen virtuellen Erfahrung verlor. Das verleiht Apples stolzer Aussage, dass das Vision Pro „das fortschrittlichste persönliche Elektronikgerät aller Zeiten“ sei, sicherlich eine andere Note.
Tatsächlich ist dies, noch mehr als das iPhone, der wahre Personal Computer. Ja, es gibt Möglichkeiten wie Mixed Reality und EyeSight, um mit Ihren Mitmenschen zu interagieren, aber letztendlich ist Vision Pro ein einsames Erlebnis.
Das ist jedoch der Trend: Langjährige Leser wissen, dass ich mich schon lange darüber beklagt habe, dass es der Desktop-Computer war, der „Personal“-Computer getauft wurde, da das iPhone viel persönlicher ist, aber jetzt ist sogar das iPhone in den Schatten gestellt . Der Technologiebogen, der größtenteils von Apple angeführt wird, zielt auf immer persönlichere Erfahrungen ab, und ich bin mir nicht sicher, ob es ein Zufall ist, dass dieser Trend gleichzeitig mit einem gesellschaftsweiten Trend weg von der Familiengründung hin zu Familiengründungen stattfindet Zunahme der Einsamkeit.
Ich möchte anmerken, dass hier die interessantesten Vergleiche zu Metas Quest-Bemühungen liegen. Die unglückliche Realität für Meta ist, dass sie in puncto Hardware völlig unterlegen zu sein scheinen. Ja, Apple arbeitet mit einem 7-fachen Preisvorteil, der sicherlich zu Dingen wie einer überlegenen Auflösung beiträgt, aber dieser Teil der tiefen Integration zwischen Apples eigenem Chip und seinem maßgeschneiderten Betriebssystem wird für ein Unternehmen, das das schafft, nur sehr schwer zu reproduzieren sein hat sich (richtigerweise) für ein Android-basiertes Betriebssystem und einen von Qualcomm entwickelten Chip entschieden.
Auffälliger ist jedoch das Ausmaß, in dem Apple sich auf ein persönliches Computererlebnis konzentriert, während sich Meta erwartungsgemäß auf soziale Netzwerke konzentriert. Ich glaube zwar, dass Präsenz eine reale Sache ist und unglaublich überzeugend, aber Präsenz zu erreichen hängt davon ab, dass Ihr Netzwerk auch über VR-Geräte verfügt, was das Erreichen von Metas Zielen umso schwieriger macht. Apple hingegen kümmert sich nicht einmal um Präsenz: Sogar die Facetime-Integration erfolgte mit einem Avatar in einem Fenster, der darauf hindeutet, dass man getrennt ist, während Meta möchte, dass man sich wie zusammen fühlt.
Mit anderen Worten, es gibt tatsächlich einen Grund zur Hoffnung, dass Meta gewinnen könnte: Es scheint, als könnten wir alle mehr Verbundenheit und weniger Isolation mit unglaublichen immersiven Erlebnissen gebrauchen, um den Schmerz der Einsamkeit zu lindern. Man fragt sich jedoch, ob Meta tatsächlich nicht nur in Bezug auf die Hardware, sondern auch in Bezug auf den allgemeinen Trend der Gesellschaft gegen Apple kämpft. Anders ausgedrückt: Der Optimismus gegenüber dem Vision Pro könnte in Wirklichkeit darauf zurückzuführen sein, dass wir pessimistisch über unsere Fähigkeit sind, sinnvolle Kontakte zu knüpfen.
Sie können auch einen Quest verwenden, der an das Stromnetz angeschlossen ist, dieser ist jedoch nicht so konzipiert, dass ein Kabel im rechten Winkel herausragt ↩