Googleは、永続的な自動メモリでGemini AIアシスタントをアップグレードし、過去の会話から学習してよりパーソナライズされた応答を提供できるようにしています。この更新は、絶え間ないリマインダーを必要とせずにユーザーの好みを理解する、より強力で積極的なアシスタントを作成することを目的としています。
プライバシーの懸念に対処するために、同時に「一時的なチャット」を開始します。この動きは、デフォルトでコアメモリ機能を有効にしますが、クリアユーザーコントロールを提供し、AI ARMSレースをエスカレートします。 src=”https://winbuzzer.com/wp-content/uploads/2024/08/google-gemini-custom-gems.jpg”>
geminiは記憶を取得しますhref=”https://blog.google/products/gemini/temporary-chats-privacy-contols/”target=”_ blank”> Googleの最新のアップデート Geminiがユーザーと相互作用する方法を根本的に変え、I/O会議で概説されたビジョンを満たす方法を満たします。デフォルトで有効になっている新しいメモリ機能により、アシスタントは過去のチャットからの重要な詳細と好みを時間の経過とともに自動的に再現できます。現在、ジェミニは有機的に学ぶように設計されており、会話は、すでにスピードを上げているパートナーと協力しているかのように、より自然でコンテキストを意識するように感じます。 GeminiアプリのシニアディレクターであるMichael Siliskiによると、目標は「Geminiアプリが過去のチャットを参照して好みを学ぶことができるようにすることを保証することです。 href=”https://support.google.com/gemini?p=past_chat_avail”ターゲット=”_ blank”> 2.5フラッシュモデルに拡大する前に、特定の国の2.5 Proモデルで最初に使用できます。ユーザーは、「個人的なコンテキスト」メニューで設定の下でコントロールを見つけることができます。
新しいプライバシーツールは、エスケープハッチを提供します
新しいメモリの「オンバイデフォルト」の性質を相殺するため、Googleはユーザーにデータを提供するように設計された新しいユーザーコントロールのスイートでアップデートをバンドルしました。これらの中で最も重要なのは、「一時的なチャット」です。この機能は、ユーザーが将来の相互作用に影響を与えることなく、ユーザーが個人的な質問を探求したり、通常のスタイルの外でアイデアをブレインストーミングしたい瞬間に理想的です。
href=”https://support.google.com/gemini/answer/13666746″ターゲット=”_ blank”>最近のチャットリストまたは述べられている 時間。”ユーザーはメモリ機能を無効にするか、保存されたデータを管理する の設定を通していつでも、 geminiアプリハブ。 AIアシスタントを不可欠にするためにハイテクの巨人の間でエスカレートする戦いで、2025年に持続的なコンテキスト認識の記憶が重要な戦場として浮上しています。機能は現在、テーブルステークス機能になり、Googleの「常にオン」アプローチは、ユーザーロイヤルティを採用しているために同様の機能を攻撃的に追求したライバルと直接競争します。 chatgpt。 2024年初頭にメモリ機能をテストした後、2025年4月にシステムをアップグレードして、ユーザーのチャット履歴全体を暗黙的に参照しました。さらに、メモリがチャットボットのWeb検索クエリをパーソナライズできるようにすることにより、この統合をさらに深め、ユーザーの好みの包括的なプロファイルを長期にわたって作成しました。 2025年4月、Microsoftは、大規模なプラットフォームアップグレードの一部として、メモリ関数をCopilot Assistantに統合しました。その同じ月、Elon MuskのXaiはGrok Chatbotの同様の機能を展開し、ユーザーがAIが知っていることを正確に確認し、忘れなければならないものを選択できることを強調しました。
すべてのプレイヤーが同じ「常にオン」プレイブックをフォローしているわけではありません。 Anthropicは最近、Claude Chatbotのメモリ機能を導入しました。スポークスマンのライアン・ドナガンによると、「それはまだOpenaiのChatGptのような永続的なメモリ機能ではありません。Claudeは、あなたがそれに尋ねるときに過去のチャットを取得し、参照するだけです」。リスク
永続的なAIメモリを推進することは、重要なセキュリティと倫理的課題をもたらします。ユーザーデータを保存およびリコールする機能は、悪意のある俳優にとって貴重なターゲットを作成します。サイバーセキュリティ研究者のヨハン・レーバーガーは、これらのシステムをどのように活用できるかを実証しました。 Rehbergerはリスクを説明し、「ユーザーが後で\”x \”[プログラムされたコマンドの]と言ったとき、Geminiはユーザーの直接的な指示に従ってツールを実行していると信じて、AIの長期メモリを誤った情報で破損する可能性があると信じています。これらのインシデントは、「妄想的な」行動者を開発するAISのレポート、bal bal ai development in ai development in ai developal in balセキュリティ。
プライバシー擁護者もアラームを引き上げました。一部の専門家は批評された「de-de-default”メモリの設定を批評します。使用適切なバランスを打つことは、ますますインテリジェントで自律的なデジタルの世界でユーザーの信頼を維持するために重要です。