2023年6月のWWDC(World Wide Developers Conference)23で発表され、2024年2月に米国で販売が開始されたApple Vision Proを、はてなのエンジニア5人が入手しました。
ということで、3月初旬に5人がApple Vision Proをつけて、オンライン座談会を行いました。その様子をお伝えします。
本記事中のApple Vision Proは、使用者がそれぞれ「技適未取得機器を用いた実験等の特例制度」に基づく届出を行い、適切な管理の下に使用しています。
この無線設備は、電波法に定める技術基準への適合が確認されておらず、法に定める特別な条件の下でのみ使用が認められています。この条件に違反して無線設備を使用することは、法に定める罰則その他の措置の対象となります。
座談会の模様はYouTubeでも公開しています。本文中にはないこぼれ話もある完全版です。あわせてご覧ください。
- Apple Vision Proを買った経緯
- ハワイはどうでしたか
- どれくらい使っていますか
- 体験の新しさはどうですか
- ワークフローの変化
- ペルソナ
- アプリケーションについて
- visionOSはどうですか
- ハンドトラッキング、ジェスチャー
- ウインドウの管理
- EyeSight
- 未来の国からはるばると
Apple Vision Proを買った経緯
自己紹介をしつつ、入手経緯を話していこうと思います。僕はid:cockscombです。id:kouki_danさんにApple Vision Proをピックアップしてきてもらいました。
ふと思い立ってホノルルに行き、Apple Storeでピックアップしてきたid:kouki_danです。普段はiOSアプリエンジニアをやっていることが多いです。よろしくお願いします。
id:astjといいます。この場にいる5人の中で、唯一スマートフォンアプリをまともに書けないエンジニアです。
経緯は、会社でid:kouki_danさんのApple Vision Proを触らせてもらったときに、これはすごいから俺も手にしないといけないな、と感動して、それで買ってきました。だからid:kouki_danさんより1週間遅れくらいですよね。そのとき一緒に行ったのが、次のid:yutailang0119さんです。
id:yutailang0119です。id:astjさんに連れて行かれる形でハワイまで買いに行ってきました。
元々買うつもりはあったんだけど、まさかこのタイミングになるとは思っていなかったです。自分を含めてみんなAppleファンボーイズで、当然買うつもりはあったんですが、まさかこういう経験をするとは。
id:ikesyoです。id:yutailang0119とid:kouki_danと同じチームでiOSアプリを書いています。自分もいつか買いたいとは思っていて、でも矯正レンズの問題とかもあるので、日本発売を待とうと思っていたんですが……。先に買ったid:kouki_danさんやid:cockscombさんが触っているのを見て、羨ましくなってしまって。
そのタイミングでid:astjさんとid:yutailang0119さんがハワイに行くとなって、急いでコンタクトレンズを作って、ピックアップをお願いして手に入れました。昨日の夜に受け取ったばかりで、まだ不慣れな状態です。
ハワイはどうでしたか
全員一泊三日で行きました。あのね、一泊三日は単純に疲れるというのが一番の感想ではないかな。
わかるな〜。飛行機にずっと座りっぱなしで辛いんですよね。
ハワイに24時間もいなかったですからね。
特に一泊三日で行こうと思うと、行きがしんどいんですよね。日本の夜に出て、飛行機に7時間乗って、向こうの朝に着くっていう感じになるんです。そうすると飛行機に乗っている数時間でちゃんと寝ないと、睡眠時間が足りないんですね。そこからもう1日始まるから。
ホテルはそんなに高い感じじゃないと思いますけど、ご飯とかは高そう。
そうですね、物価が基本的にそもそも高いですし。そこから逆算すると、ホテルは安かったという気持ちになりますね。物価からの相対感では。
でもいいですね。かけがえのない思い出のような感じがします。
全員アラモアナ(注:ホノルルのショッピングモール、アラモアナセンターのこと。Apple Storeがある)に行きましたよね。ハワイの、ホノルルの空港(注:ダニエル・K・イノウエ国際空港)から近いApple Storeだったんだけど、すぐ横がビーチなんです。その美しいハワイのビーチを尻目に、俺たちは弾丸で高級ヘッドセットを買いに来ている。そういうかけがえのない思い出という感じでした。
普通の人とはついでが逆なんだよね。
ハワイ弾丸ツアーの様子はそれぞれブログにも書いています
どれくらい使っていますか
id:kouki_danさんは買いに行ったのが2週間ちょっと前ですが、その後どうですか。使っていますか。
めっちゃ使ってますよ。できるだけこの新しいインターフェースに体を慣らして行きたいと思っています。そのためにはたくさん使うしかないと思っているので、仕事中もずっとヘッドセットをつけているように心がけています。
えー、1日に8時間ぐらいですか。
いや、でもそんなつけてないかも。5時間くらいかな。
それでも5時間もつけていられるのは、タフな側なんじゃないですか。
id:astjさんやid:yutailang0119さんはどうですか。
僕も仕事中に被っていることもあるんですが、この中ではひ弱な方のようで、1時間を超えてくると目の疲れを感じがちです。それくらいのサイクルで被ったり外したりして向き合っています。よく考えると、そもそもコンタクトをつけていると目がシュパシュパしがちなので、それもあるのかなと思います。
僕もこのApple Vision Proのインターフェースの感じとかに興味があって被っていて、Macと接続してMacのトラックパッドとかをユニバーサルコントロール(注:同じApple IDでログインした複数のMacやiPadが近くにあるとき、ひとつのトラックパッドやキーボードで複数の端末を操作できる機能)で使っていると、まだカーソルを動かす方が体に馴染んでいると思ってしまいますね。視線で操作するのは、特にブラウザだと、まだ難しい。でもこのまま続けていけば体に馴染んで、もうトラックパッドとかは使えなくなるはずだから、もうちょっとだと思っています。
僕は仕事中はつけてないですね。ここにいるみんな目が悪いからメガネかコンタクトだと思うんですが、自分は朝にコンタクトをつけるのがめんどくさいというのもあります。仕事が終わってから遊んだり、自分が作ってるアプリを動かしてみたり、というときはコンタクトもせずに使っているときがあります。極限までウインドウを近づければ、目が悪くてもなんとか見える。仕事中はつけてないですが、プライベートタイムで遊んでいる感じですね。
確かにコンタクトの問題はありますね。僕らみんなメガネだったわけじゃないですか。
Apple Vision Pro自体は、専用の矯正レンズを装着することで、裸眼でも本来は使えるものなんです。でも我々みたいにアメリカのApple Storeのピックアップで買おうと思うと、矯正レンズが注文できないので(注:Apple Vision Pro用のZEISS Optical Insertsは配送のみ受け付けている)。みんな諦めて、普段はメガネの人たちもコンタクトレンズをつけてかぶっている。あるいはid:yutailang0119さんみたいに、至近距離に近づけて我慢している。
僕はApple Vision Proが発表された瞬間、もうこれはコンタクトが必要だと思って、1年前から準備していました。
すごいですね。
僕やid:cockscombさんは、このためにコンタクトを作りに眼科に行きましたよね。id:yutailang0119さんにピックアップをお願いしたその週末に、近所の眼科で処方箋をもらって、コンタクトを買いに行きました。
今までコンタクトが怖いと言っていた人たちの考え方を変えさせるほどの力があるのかもしれない。
Appleにはそれくらいの力がありますよ。僕も時計が嫌いだったけど、Apple Watchが発売してからつけるようになったし。
id:cockscombさんはどうですか。日頃Apple Vision Proを使っていますか。
一応大体毎日つけています。僕は目は平気で、コンタクトでも全く疲れない。でもだんだん肩が凝ってきて、それで外します。それでも仕事中などで集中していたら気にならないので、何時間もつけてる日もあります。あとは夜にNetflixとかを見るときに使ったりもします。
何かのタイミングでid:cockscombさんとミーティングで一緒になると、ほぼ常につけている気がする。
面白がってつけているときもあります。このミーティングにはつけていったほうが面白いな、という風に。
肩が凝るといえば、Apple Vision Proは長いことつけているにはどうしても重いですよね。
昨日初めてつけて、しっかり重いと感じましたね。
重いのはそうですね。全員重さを感じていると思う。それでも、個人差もありますが、数時間ぐらいはつけていられるのかな。
体験の新しさはどうですか
id:ikesyoさんはまだ触り始めたばかりですけど、他の4人はもう結構触っているから、例えば空間の感じがすごいとか、そういうプリミティブな喜びというか驚きみたいな話を通り過ぎてしまっている気がする。
冷静になると、めちゃくちゃすごい。今Google Meetのウインドウが浮かんでいて、同時にパソコンの画面も見ているんですが、パソコンの方を見てる間は、ちゃんとGoogle Meetのウインドウの方からみんなの声が聞こえます。空間オーディオがめちゃくちゃよくできている。
最初は、音の出ているウインドウを遠くの方に置くと、音が出る方向が変わるみたいなことに気づいていなかったんです。でもあるときやってみたら、遠くのほうから音がして、めっちゃびっくりしてしまった。
反響も違いますよね。Environments(注:Apple Vision Proで空間を現実のものから置き換える機能)の有効・無効で、反響の感じが変わります。部屋の様子をセンサーで見て反響効果を変えているのでしょうか。
アイトラッキングは、ちゃんと作ってあるアプリだといいんですが、Safariとかでは難しい場合があります。
そうですね。選択できるものが多いというか、密集してると選びづらい。アプリでも、iPadアプリが使えるようになっているけれど、ホバーエフェクトがなくてイマイチちゃんと選択できているのかがわからないケースもあったり。
僕は、アプリは基本的に画面を触っています。
あー、なるほど。近づけたら触れるんだ。
あとはバーチャルキーボードも、あのキーボードをタップするのは難しいと思いました。
そうですね。ユニバーサルコントロールを使っているとき、文字入力をMacのキーボードからできるので、最高だと感じます。
ホバーエフェクトがないと分かりにくいというのは、マウスポインターが見えない状態でマウスで操作してるようなイメージです。スマートフォンとかタブレットだったらタッチする指が直接見えているし、マウスとかトラックパッドだったらカーソルが出ていてわかりやすかったんです。それがApple Vision Proだと、大まかには自分の視線の方向にカーソルがあるわけですが、実際にどこにあるかはUIパーツのホバーエフェクトでしかわからない。ホバーの変化の見づらいUIではすごく難しい。紛らわしいくらい近くに、ボタンをいっぱい並べないでほしいとは思います。
WWDC23で、ボタンは60ポイントの大きさが必要とか、ホバーエフェクトがすごく重要だという話をしてたと思います。でも去年それを見ていたときは、ああそうなんや、くらいで実感できていなかったですね。実際に触ると、これは絶対に必要っていう最低ラインだったと感じました。
その辺は、iPadOSがマウスとかトラックパッドに対応したときに、ホバーエフェクトが出るようになったという流れがありました。それにちゃんと対応しておけば、iPadアプリが使いやすくなるので、必ずしもApple Vision Pro対応だと思わずに、そういう体験をちゃんと提供しておくのが大事だと思いました。
標準のボタンとかを使っている限りはホバーエフェクトはきれいに動くので、カスタムコントロールを自分で作ったときにちゃんと対応する感じですね。
我々も視線での操作に慣れてないから、頭ごと動かしちゃっているところがある。
空間トラッキングがしっかりしているおかげで頭を動かせるというところもあると思います。空間トラッキングの精度が低いと、頭を動かしても思ったように視界が動かないから、酔ってしまうとかが起きると思う。こうやって空間に浮かんでいるウインドウがARとしてしっかりしていて、現実の空間に固定できているから、頭を動かしときにすごく自然で、本当にそこに存在しているという体験ができていると思いますね。
でもこれは話だけ聞いても伝わらないような気がする。ぜひ、ぜひあなたの目で確かめてください。
不思議な体験なんですよね。でもあまりにも普通に見えて、その不思議さに気づかないかもしれない。
最初にヘッドセットをかぶった時、カメラで撮影された現実の光景が出てくるんです。めっちゃ普通だから、ぼんやりしたすりガラス越しですよって言われたら、納得してしまうと思う。よく見ると、解像度がちょっと低いとか、カメラを通してるゆえの違いがあるんですけど。最初にかぶった瞬間は、普通じゃん、って思う。
ワークフローの変化
実際に起きていることと主観的に受ける感じが一致しなくなっていますね。
実際にこれでワークフローが変わったりしましたか。僕はApple Vision Pro越しにパソコンを使っているだけなんですが。
パソコンを使っているだけですね。でも、元々シングルディスプレイ派だったんですが、空間が使えるのにもったいないと思って、いろんなアプリを周りに並べて仕事をするようになりました。
どんなアプリを置いていますか。
メールと、カレンダーとSlackと、そういうちょっとした便利系のツール。
Slackとかはいいかもしれないですね。いつも視野に入ってると便利。
立ち歩くと自席にウインドウを置いてっちゃうじゃん。
視界に対してじゃなくて、実空間に対してウインドウの位置が固定されているから、人間が動くとウインドウが置き去りになるんですよね。
ペルソナ
ペルソナ(注:Apple Vision Proで予め撮影して作成した自身の3Dモデルをモーフィングして、自身のアバターとして使う機能)は、最初は不気味かなと思ったけど、慣れてくると特に気にならないですね。
意外と自分だなって感じがする。
まばたきしているし、視線も動くし。
本物ではないというのは当然思うけど、本物ではないなりにも、ああ、あの人ねって。人間らしきものがしゃべってる姿として別に違和感がないのがすごいですね。
これまだベータなんですよね。
これを話しているタイミングではまだvisionOSの1.1が出ていないので(注:2024/3/8にリリースされた)、みんな1.0.いくつを使っているんですが。1.1で改善されるという話も出ていますね。
でも今の時点でもそんなに変ではない。とにかく口が動くのがすごい。
口の動きが自然ですね。
カメラはヘッドセットの周りについてないはずですが、それでも普通に口の感じが再現されています。
ハンドトラッキングのために真下を向いたカメラがあって、それが口の動きまで捉えているんでしょうね。
アプリケーションについて
ちょっと話を巻き戻すけれど、Apple Vision Proで何をやるかっていうコンテンツの部分は、全然まだ出てきていないですよね。だって、デベロッパキットとかはあったけど、やっと実機が出てきたばかりだから。
動画の視聴にはめちゃくちゃいいです。スピーカーがいいから、音も迫力あるし、空間オーディオもすごいし。
僕は3Dで猫の写真をめちゃくちゃ撮っています。お子さんの写真とかもぜひ。
写真といえば、普通の写真でもApple Vision Proで見るととてもよく見えますね。大きく印刷した写真みたいな感じで見れて、非常に迫力がありますね。
パノラマ写真をちょっと見てみたけど、ちゃんと広げるとEnvironmentsみたいに自分の周りを囲う感じで見れるので、かなり迫力ありましたね。
ハワイのApple StoreでApple Vision Proのデモをしてもらえるんですが、そこで写真がパノラマだとこう見えるんだよ、みたいなことをやってくれるんです。そのデモを見た瞬間に、今までパノラマ写真を撮ってこなかったことを後悔しました。
ちょうど鴨川をパノラマで撮った写真があったので、それを広げてみたら、本当に自分が鴨川の河川敷にいるように感じられるくらいで、これはすごいと思いました。
やっぱりパノラマを撮っていきましょう。
遅い。いや、今からでも遅くないですね。
今からでも、どんどん街へ撮影に繰り出す。
そういうコンテンツを見るような用途にはだいぶ便利です。反対に、まだ入力が難しいというのもあるのかもしれませんが。あとは、Google MeetとかFaceTimeとか、そういうコミュニケーション用途も意外と悪くない感じがします。実在感があって、パソコンから飛び出しているように感じられる。
ここでは5人がApple Vision Proを持っているから100%カバーしていますが、普通の人は持っていないから。ふたりでコミュニケーションするためには100万円かかる。
visionOSはどうですか
さっきもvisionOS 1.1の話をしましたが、ハードウェア的には今の時点での極限っていう感じです。ソフトウェアも良くできてるとは思う。例えばiPadのアプリが一通り動いて、ウインドウの表示もきれいです。とはいえ、まだソフトウェア的にはできることがありそうですが。
ありそうですね。
我々からすると、何よりIMEという気もします(注: Apple Vision Proはまだアメリカでのみ販売されており、ユーザーインターフェースも文字の入力も英語にしか対応していない)。IMEって、日本語IMEが単に入っていないんじゃなくて、IMEの仕組み自体がまだないんですか。
サードパーティ向けのIMEのAPIは今は有効になっていないですね。Appleはたぶんサードパーティ向けとは違うAPIでIMEを作っているでしょうけど、それはどうかは知りません。
日本語入力があったとしても、文字入力をこのキーボードでスムーズにできるかっていうと、まだ怪しいと思っています。人差し指しかキーボードの入力に使えないじゃないですか。5本の指が使えるようになってほしいですね。
コンテンツを見るのに偏るみたいな話がちょっとあったけど、結局そこですよね。入力デバイスの都合でプロダクティブな用途はまだ難しい。
でも日本語入力だったら、フリック入力ができれば、空間をシュッ、シュッとすれば入力できるわけでしょう。できるのかな。
それか、もう音声入力をするかですね。
ただ普通にMagic KeyboardとかをBluetoothでつなげてもいいので、無理しないでもいいかもしれません。
ハンドトラッキング、ジェスチャー
ハンドトラッキングは、今はイマーシブな、完全なアプリじゃないとハンドトラッキングのAPIは触れないんですよね。だから普通のアプリは標準的なジェスチャーだけを使えると思うんですが、それがもうちょっと使いやすくなるといいんですかね。
もちろん、完全なハンドトラッキングでアプリを触りたいわけじゃないですか。粘土をこねるように3Dモデリングしたいわけでしょう。
Safariを使っていても、ブラウザバックとかは普通にジェスチャーでやりたいと思うけど、それは今できないんですか。
できないですね。2本の指で空を切ったらバックジェスチャーになってほしいですよね。
Macのトラックパッドジェスチャー的なことを空間でそのままやりたいですね。
Appleは技術的にはそういうのも実装できそうですけど、でも誤爆が起きて難しいのかな。つまむジェスチャーでさえ誤爆する時があります。
どの操作にせよ、視線を合わせた後、実際につまむその瞬間までちゃんと見ていないといけない。一瞬視線をずらしてしまって、思ったのと違う要素をタップしたりとかが起きがちだと思う。
自身の体をちゃんとコントロールできていないですよ。
こんなに視線に対して真摯に向き合ったことがなかったから。
ウインドウの管理
ウインドウのマネジメントについて、もうちょっと何か機能がほしい気がします。
確かに、ウインドウを掴んで動かす体験は面白さがマックスなんだけど。
ウインドウを壁に貼り付けたいですね。今はウインドウが壁を貫通するじゃないですか。別に貫通しても見えるけど、でも変な感じがする。
だからウィジェットがほしいです。ウィジェットを壁に貼り付けておきたいと思っていて、時計とか。
確かに、さっき僕もこの空間に浮かんでいるといいものを考えていたけど、時計がほしいと思う。
Apple Watchを腕につけているのに?
まあ見えるけど、がんばって見るみたいな感じですよね。
僕は大体、Macの右上の時計を見ています。
それもわかります。結局、Macのディスプレイとして使っている。
EyeSight
Macのディスプレイとして使うのは、大きく画面を表示できるから、いいじゃんとは思います。がんばって使い道を探した結果そうなってるっていう側面もあると思うけど。
それを移動先とかでも使えるのはメリットかもしれないですね。
あと使ってみて分かってきたのは、外で仕事をしてると顕著ですが、会社内でも、画面の中身をあまり見られたくない時に都合がいいと思います。Apple Vision Proに画面を映していると外から画面が見えないので。
自分にしか見えないというのは新鮮な体験ですね。
逆に外から見ると、僕らは空気を眺めている状態です。
そういう不気味さに対してのAppleの回答がEyeSight(注:Apple Vision Proの外向きのディスプレイに使用者の目を表示する機能)なわけですけれど、どうでしょうか。
おもしろいとは思うけど、あれで何か解決できているイメージでもないですね。どうなのかな。あれでも目が見えてるといいのかな。
家に小さい子供がいますが、子どもは僕がApple Vision Proをつけていても気にならないようで、それはEyeSightの効果なのかもしれないです。
未来の国からはるばると
さて、なんとなくまとめの雰囲気に入っていきます。Apple的にはこれで未来の体験という(注:Appleがプレスリリースで「コンピュータの歴史にとって新たな時代の幕開け」と表現していることを受けて)わけですが、未来に来てどうですか。
マジで、これだけ未来に来てしまった感じがする。トータルとして未来の暮らしが来ているっていうより、ドラえもんがポケットから1個だけ未来のグッズを出して渡してくれた、みたいな状態だと思っています。
過去にタイムスリップして、携帯電話を持ってきたんだけど電波がない、みたいなイメージ。
最初のiPhoneの頃に言われてたようなのに比べると、だいぶ素晴らしい体験と思います。
コピペができないみたいなね。
そういう揶揄されていたことがあると思うんですが、Apple Vision Proについて言われているのは値段だけだと思う。実際に持っていて体験した側だから、ポジショントークでもあると思うんですが、別にこの値段でも買った価値があるとは思うくらいには、いい体験をしている。
値段だけって言われても、その値段が問題なんだよという感じかもしれませんけどね。まあでも、ちょっと早めに未来に来れるなら安いと思います。
買わない理由が値段だったら買えってやつです。いいこと言うでしょう。
未来の感想というか、おそらくこのインターフェースが10年後は当たり前になっているはず。デベロッパーとしては、新しいインターフェースに適応したアプリケーションが作れないといけないわけなので、一刻も早くこのインターフェースに慣れるのが大切ですね。
向学心ですね。でも確かに、小さなスマートフォンを触って操作するというのは、2007年からやっていることです。今は2024年だから、もう17年経つ。つまり10年後には27年経っているわけだから、ずっと同じというわけにはいきませんね。
ここまで話してきた中でも、まだコンテンツの消費とかディスプレイとしての用途が強そうです。入力のしづらさとかの話もありますが、Appleが空間コンピューティングと謳っているのに対して、コンピューターとしての性格がまだちょっと弱いとは思います。そこをOSのアップデートや入力方法の進歩でどうなるのか期待したい。iPadでもSwift Playgroundでコーディングができるようになったわけですが、MacではなくApple Vision Proと入力用のキーボードがあれば多少は仕事できるとなったら、非常に便利ですよね。
「scratch the surface」と言って、表面をなでただけ、という表現をすることがあります。僕たちもまだ、空間コンピューティングの可能性について、その表面をなぞっているだけなんだと思います。
まだ動物が海にしかいないような時代に、最初に陸に上がった動物のような気持ちで、我々はApple Vision Proと過ごしています。海の生き物からすれば、何やってんだあいつら、って感じかもしれない。でもいずれは陸の生き物がどんどん増えていくわけです。我々はアプリを作ったりもできますし、次のWWDC24でもいろんな発表があろうし、楽しみが続きますね。
というところで、今日は座談会ということで、お互いのペルソナを見ながら1時間ほどお話ししました。
▼ iOS、Androidアプリエンジニア職 転職・中途採用 - 採用情報
▼ iOS、Androidアプリエンジニア職の新卒採用 - 採用情報