Metaは、グローバルアクセシビリティアウェアネスデーでRay-Ban Metaスマートメガネの重要なAI駆動型の強化を発表しました。同社は、メタAIを介してより詳細な環境オーディオの説明を展開し、メタAIが活動している18か国すべてに開発された機能である「ボランティアを呼び出す」サービスを拡大しています。これらの更新は、グラスのオンボードカメラとAIを活用して視覚世界を解釈および明確にすることにより、より大きな独立性を促進し、重要なナビゲーションサポートを提供するように設計されています。 AIに、より豊かでコンテキストを意識した周囲の説明を提供し、基本的なオブジェクトの識別を超えてより全体的な理解に移行します。新たな機能は、今後数週間にわたって米国とカナダで展開され、より広範な国際的な展開が予想されます。 Meta AIアプリのアクセシビリティ設定を介してアクティブ化されたこの機能により、システムはコンテキストの理解を深めることで視覚シーンを処理および解釈できます。 

メタは、AIがウォーターサイドパークを説明できることを説明することでこれを示し、「手入れの行き届いた」草の多い地域のような微妙な詳細に注目し、それによってナビゲーションと状況認識にとってより包括的な理解を提供します。最初に米国とカナダで発売されましたが、メタは、この強化された記述能力が将来追加の市場に拡大することを確認しました。目の組織は、大きな拡張のために設定されています。 2024年11月から限られた展開になっていたメタは、今月後半にメタAIがサポートされる18か国すべてで発売されると発表しました。このサービスは、Ray-Ban Metaスマートメガネの着用者を800万人以上の目撃者ボランティアの広範なネットワークに接続します。

メタに「私の目になる」ように依頼するなど、シンプルな音声コマンドを使用することで、ユーザーはメガネのカメラからライブビデオフィードを開始できます。これにより、ボランティアは、製品ラベルの読み取りやアイテムの識別からなじみのない場所のナビゲーションまで、さまざまな日常のタスクに口頭のガイダンスを提供できます。新しいメタAIアプリは、メガネとそのAI機能の中央制御システムとして機能し、以前のメタビューソフトウェアを置き換えました。

ライブ言語翻訳のグローバルな可用性や「ルックアンドアスク」AIなど、これらのより専門的なアシスト機能の方法を開始するなど、基本的なAI機能。ユーザーが視野についてAIを照会できるようにする「ルックアンド質問」機能は、より詳細な説明のために強化されたコアコンポーネントです。 METAは、これらの継続的な開発を、より直感的でパーソナライズされたAIアシスタントを作成するためのより広範な戦略の一環として特徴づけています。現在の発表はアクセシビリティの利点に焦点を当てていますが、スマートメガネに関するより広範な会話がプライバシーへの影響にますます触れています。

たとえば、ハーバード大学の学生によるデモンストレーションは、スマートメガネが一般の顔認識ツールと潜在的に組み合わされる可能性があることを示しました。メタは、メタの将来の繰り返しへのフェイアル認識の統合を調査したと伝えられています。ターゲット=”_ blank”> cnbc 、「人々がこのテクノロジーを望んでいない場合、それを提供する必要はない」と述べています。彼は、「製品はどちらの方法でも大丈夫だろう」と付け加えたが、「人々が快適なものであれば、そこに素晴らしいユースケースがある」と付け加えた。これらの進行中の対話は、ウェアラブルAIの提供物が成熟しているため、技術の進歩とユーザーの信頼のバランスをとるメタの取り組みを強調しています。

Categories: IT Info