WWDC17でARKitを発表したApple、AR/VRへ本格参入
Appleは、開発者カンファレンスWWDC2017において、iOS11の新機能のひとつである「ARKit」を発表した。
概要は、下記Apple社の日本語ページでも紹介されている。
https://www.apple.com/jp/ios/ios-11-preview/
国内におけるAR創世記からARアプリ開発を行っている立場から、今回の発表について順を追ってレビューしてみたい。
まずは英文のみ公開されているデベロッパページの和訳から。
—————————————————————————————-
ARKitの搭載 (→オリジナル英文:Introducing ARKit)
iOS 11は、iPhone/iPadにおける比類なきAR体験を簡単に開発できる新しいフレームワークARKitを搭載します。
デジタルオブジェクトと、あなたの周囲環境の情報をブレンドすることで、ARKitは画面を超え、まったく新しい形で現実世界から自由にインタラクトすることが可能になります。
→「iOSのための拡張現実、ARKitのご紹介」(WWDC17より)
概要
視覚慣性オドメトリ
ARKitは、周囲を正確にトラッキングするために、視覚慣性オドメトリ(VIO)技術を利用しています。VIOは、カメラセンサーデータをCoreMotionデータと融合させ、これら2つの入力で、端末は追加キャリブレーションを必要とせずに、室内での動きを高精度で検出することが可能となります。
シーン把握および光量算定
ARKitを使って、iPhone/iPadは、いまカメラビューで映し出されたシーンを分析し、室内にある水平面を検出することが可能です。
ARKitは、テーブルのような水平面を検出することができます。また同様に、比較的小さい特徴点上にオブジェクトを追尾して配置することができます。
さらにARKitは、カメラセンサーを使用してシーン内で利用可能な総光量を算定し、補正した光量をバーチャルオブジェクトに適用します。
高性能ハードウェアとレンダリング最適化
ARKitはApple A9およびA10プロセッサ上で動作します。これらのプロセッサが迅速なシーン把握を可能とする革新的なパフォーマンスをご提供するため、現実世界のシーン上に精細かつ魅力にあふれたバーチャルコンテンツを構築することが可能となります。
これらARKitの優れた機能は、Metal、SceneKitやUnity・Unrealエンジンのようなサードパーティツールでご利用いただけます。
(https://developer.apple.com/arkit/より引用)
—————————————————————————————-
…と、まぁ、こういった具合の説明がされている。Youtubeで「apple, arkit, Unity」などの単語を入力して検索すると、公開中のベータ版SDKを使用して世界中のappleデベロッパ達が開発したデモの動画が、すでに多数アップされている。
いかがだろうか。ProjectTangoのような特別なデバイスやハードを必要とせず、iPhone本体のみで周囲空間を正確に認識し、指定した空間上にARが非常にスムーズに描画されていることが動画からもよく分かる。
「すでに所有されているものを含め数億台のiPhoneやiPadにiOS11を搭載することで、たった一晩で、世界最大のARプラットフォームとなる」と、Appleのティム・クックCEOがWWDC17のキーノートで発表したが、その後の同イベントでの取り上げ方から判断しても、少なくともAppleがARに対して本気で取り組み始めたことは確かだ。
ポケモンGOのヒットで、やっと一般への認知度が浸透した感があるAR(拡張現実)ではあるが、ARが実生活に浸透したとはとても言い難い。VRがもてはやされている昨今では、メディアでの露出も減っている。
にも関わらず、Appleの他にもGoogle、Microsoft、Facebookなど世界をリードするIT巨大企業が、こぞって今後ARへ注力していく方針を明言し、すでに大きな投資を行っている。VRのように専用の機器を必要とせず、スマートフォンさえあれば手軽に実現することができるARこそが、将来的にIT業界にさらに革新をもたらす可能性を確信しているとも考えられる。
まずは、AppleのARKitの発表がARを取り巻く環境をどのように変えていくのか、注目していきたい。
弊社でも、ARKitを使用したデモ開発を計画中。今後、開発者のつぶやきと共にご報告していくので、お楽しみに。。。
(Cole!Cole!管理人S)