カメラで捉えた内容を読み上げる機能や表情でカーソル操作――グーグルが最新アクセシビリティ機能を発表

by 島田 純

グーグル(Google)は、世界各地でアクセシビリティを考える取り組み「Global Accessibility Awareness Day」にあわせて、Googleの製品やプラットフォームにおける、アクセスビリティ機能を紹介した。

カメラに映る内容を読み上げる「Lookout」に新機能

目の不自由な方や視力の弱い方が、触覚フィードバックと音声フィードバックを使用してAndroidデバイスの操作を支援する「Talkback」に、GoogleのAI「Gemini」の機能を統合した。

カメラに映る内容を音声で読み上げすることで、視覚障がい者や、弱視の人をサポートする「Lookout」では、β版として提供される「探索」モードで、座席、テーブル、浴室など7つのカテゴリーからアイテムを選ぶと、座席やテーブルまでの方向と距離を通知する機能が追加された。

このほか、2024年の初めにはAIが生成した画像説明の読み上げが英語で利用可能となった。

「Look to Speak」で自由入力が可能に

プリセットされたフレーズや、カスタマイズしたフレーズを目の動きで選んで読み上げることでコミュニケーションする「Look to Speak」アプリでは、自由に文字入力するテキストフリーモードに対応した。このモードでは、絵文字、記号、写真を選択してより豊かな音声表現が可能となる。

表情やジェスチャーでカーソルを操作する「Project Gameface」

Googleは、2023年にハンズフリーのPC向けゲーミングマウス「Project Gameface」をオープンソースでリリースした。

今週より、開発者はGithub経由でAndroidデバイス向けの「Project Gameface」にアクセスできる。

Android向けの「Google MediaPipe」を使うと、ユーザーの顔の表情やジェスチャーの大きさ、カーソル速度などの情報をカスタマイズ可能なアプリケーションを開発できる。

Googleが公開したデモでは、表情や顔の動きでAndroidスマートフォンを操作し、メッセージを送受信したり、電話をかけたりする様子が確認できる。

Googleマップの改善

地図・ナビアプリの「Googleマップ」では、視覚障がい者向けに、AndroidとiOSの両方で、「Lens in Maps」の詳細な音声とスクリーンリーダー機能を、サポートされているすべての言語で提供している。

「Lens in Maps」のスクリーンリーダー機能を使うと、ATM、レストラン、交通機関の駅など周囲の場所と名前とカテゴリおよび対象の場所との距離が読み上げられるため、すぐに方向を確認してどこに向かうかを決定できる。

また、歩いていてスマートフォンを見ることが難しい場合でも、音声ガイダンスが詳細な案内を読み上げることで、正しい方向に進んでいるとき、交通量の多い交差点を渡っているとき、または間違った方向に進んでいる場合に、ルートを変更するときなどに通知する。

Googleマップには、既に5000万カ所以上のアクセシビリティ情報がり、地図上の車いすアイコンは、車いすでアクセスできる入口がある場所を示す。概要タブを開くと、車いすで使えるトイレ、駐車場、座席に関する情報の詳細が表示される。

車いすアイコンは、AndroidとiOS向けの「Googleマップ」に提供されていたが、現在はデスクトップ向けの「Googleマップ」にも提供されている。

「Project Relate」の機能強化

言語障がいを持つ人が他者と便利にコミュニケーションを取ったり、Googleアシスタントを利用する「Project Relate」では、カスタムカードを使って言語モデルに教えるフレーズをカスタマイズし、話者にとって重要な言葉をモデルが理解できるようになる。

また、Googleドキュメントのメモのように、テキストを選択して他のアプリケーションからカスタムカードとしてフレーズをインポートする機能も追加された。

サウンド通知では、ドアホンが鳴る、火災報知器が鳴るなど、家庭内で音が発生すると、プッシュ通知やカメラのフラッシュ、バイブなどでユーザーに警告する。サウンド通知は、ユーザーからのフィードバックに基づいて改善されたという。

© 株式会社インプレス