グーグル、カメラに映る物を説明できる次世代AIアシスタント「Project Astra」

AIとARが結びつこうとしている。Googleは米国時間5月14日に開催した開発者向けイベント「Google I/O」で、新たなAIプロジェクト「Project Astra」を発表した。これはカメラの映像をスキャンして、常に周囲の状況を理解する技術で、次世代のスマートグラスやAIデバイスが目指す先の可能性を示しているように見える。

Googleは、Project Astraが「AIアシスタントの未来」であり、日常生活を助ける万能AIエージェントだと語った。目指しているのは、タイムラグなしに会話ができるエージェントだ。筆者はAIを搭載した「Ray-Ban Metaスマートグラス」を使ったことがあるが、見えているものについて質問したあと、答えが返ってくるまでに数秒はかかっていた。Googleが見せたProject Astraのデモでは、スマートフォンのカメラで常に周囲を撮影しながらユーザーが何かを尋ねると、ほとんど瞬時に反応が返ってきていた。

最近のAIガジェット(「rabbit R1」、Humaneの「Ai Pin」、Ray-Ban Metaスマートグラスなど)は、カメラで周囲を撮影して内蔵のAIで分析し、答えを返す機能を持っているが、通常はかなり処理が遅く、機能も限られている。Googleが示したAstraのデモは、それよりもはるかにキビキビと動作しているように見えた。

Googleは、スマートグラスでProject Astraが動いているところまでデモンストレーションしてみせ、さらなるウェアラブルAI製品の登場を示唆した。

Googleがすでにサムスン電子やQualcommと複合現実(MR)プラットフォームの開発に取り組んでいることを考えれば、カメラ付きのAIスマートグラスも開発しているのかもしれない。MetaのMark Zuckerberg氏やAndrew Bosworth氏が何年も前から述べているように、未来のXRデバイスを実現するために今欠けているのはAIだ。Googleも、この分野に参入する準備が整っているようだ。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

© 朝日インタラクティブ株式会社