アップルのARグラス「Vision Pro」でスマホの次がハッキリ見えた! 「WWDC23」特集 第18回
初めてiPhoneを触り、タッチパネルで操作したとき以来の感動
2023年06月08日 11時30分更新
アップルが発表した空間コンピュータ「Apple Vision Pro」を試す機会を得た。ハッキリ言って、これまで試してきたヘッドマウントディスプレイ端末と比べて、圧倒的に優れた性能を実感できた。値段が大きく違うということで、当然ではあるが、Apple Vision Proの高解像度な映像表現、没入感のあるオーディオ、直感的な操作性、装着感は、どのライバルメーカーも太刀打ちできないのではないか。
ひとことでApple Vision Proを表現するとすれば、アップルがこれまで培ってきた「技術の集大成」といえるだろう。
初めてiPhoneを触りタッチパネルで操作したとき以来の感動
Apple Vision Proで個人的に驚いたのが操作性。Apple Vision Proをかぶると目の前にアプリのアイコンが表示されるのだが、起動したいアイコンを見るだけで、アイコンが反応し、親指と人差し指を軽くつまむとアプリが起動するようになっている。
この手のユーザーインターフェースはうまく作動せず、イライラさせられることがほとんどだが、Apple Vision Proはビックリするぐらいスムーズに反応してくれる。
アップルは視線入力という全く新しい操作性をつくりあげてしまった。この感動は、初めてiPhoneを触り、タッチパネルで操作したとき以来のものだったりもする。
アップルが、パーソナルコンピューターとしてマウスで動かすMac、モバイルコンピュータとして指で操作するiPhoneを作った。そして、Apple Vision Proは「空間コンピューター」として、視線で操作するというユーザーインターフェースを確立しようとしている。まさにApple Vision Proはコンピューターの世代を変えるインパクトがある。
Apple Vision Proでさらに驚くのが映像表現だ。メタバース端末にありがちなジャギーやメッシュ感は皆無だ。まるでiPhoneで写真を見るぐらいの解像感でコンテンツが楽しめる。
部屋など実空間の様子がカメラで撮影され、目の前のディスプレイに表示されている。これが実に自然でリアリティがある。
部屋を空間としてキッチリ捉えるのは、LiDARなどのセンサーなのだろう。アップルではiPad ProでLiDARを搭載してきたこともあり、空間認識にノウハウがあるはずだ。もちろん、iPhoneのカメラで培った機械学習によって、実空間を正確に撮影する技術もありそうだ。
こうしたカメラやセンサーから入ってきた情報は、アップル独自開発のR1チップで処理される。
超低遅延での処理が可能であるため、カメラで撮影した実空間の映像をディスプレイに表示しても、ズレがなく、全く酔わない。
実際、実空間とディスプレイの表示にズレは全くなく、机と椅子の狭い間もぶつかることなく難なく歩けた。周りにあるものを取ったりするのも普段通りだ。
また、Apple Vision ProにはM2チップも入っている。M2チップはMacに向けたチップだが、高性能でありながら低消費電力、しかもあまり熱を発生しないということで、ヘッドマウントディスプレイには最適なチップと言えそうだ。
iPhoneのためにAシリーズチップを作り、その技術力をベースにしてMシリーズチップを開発。今度はApple Vision Proに横展開するという離れ業は、他社には真似できない。他社はヘッドマウントディスプレイ向けのプラットフォームやハードウェアは作れても、それに最適なチップまで手がけるというのは相当、無理がある。
このあたり、垂直統合で差別化してきたアップルに相当なアドバンテージがあるといえそうだ。
ディスプレイに関しても、切手代のサイズで4K相当のものが2枚入っているという。実際の納入メーカーは明らかにされていないが、アップルと仲の良い会社と見られている。こうした最先端の技術が詰まった部材を調達できるのも、アップルがiPhoneという膨大な発注量がある製品を扱っているからに他ならない。
からの記事と詳細 ( アップルがこれまで培ってきた「技術の集大成」Apple Vision Pro(石川温) (1/2) - ASCII.jp )
https://ift.tt/ZaQmvkh
No comments:
Post a Comment