Google は月曜日、AI を活用したサイバーセキュリティへの大規模な取り組みを開始し、デジタル防御を自動化するための 3 つの新しい取り組みを発表しました。
主なツールは、ソフトウェアのバグを独自に見つけて修正する新しい AI エージェントである CodeMender です。
セキュリティ コミュニティの支援を得るために、Google はまた、最大 30,000 ドルの報酬を提供する新しい AI バグ報奨金プログラムを開始しました。こうした取り組みは、AI を利用してサイバー脅威と戦う Google の戦略の一環です。同社は、更新された Secure AI フレームワークもリリースしています。
この動きは、防御目的での AI の使用が大幅に増加していることを示しています。これは、最近現実世界のエクスプロイトを阻止した AI である Big Sleep などのツールを使用した Google のこれまでの成果に基づいています。
基本的な戦略は、防御側に決定的な利点を生み出すことです。
CodeMender: 自律防御のための AI エージェント
今回の発表の目玉は、CodeMender です。ソフトウェアの脆弱性にパッチを適用するように設計された自律エージェント。
Google の高度な Gemini Deep Think モデルを活用し、複雑なコードを推論してセキュリティを特定して修正できます。
CodeMender は、新しいバグにパッチを適用する事後対応と、コードを書き換えて脆弱性のクラス全体を排除するプロアクティブの両方を実行します。
そのプロセスには、深い根本原因分析と、修正をレビューする専門の「批評」エージェントを使用した独自の自己検証システムが含まれます。
開発中に、エージェントはすでに 72 件のセキュリティ修正をオープンソースに提出しました。
注目すべきケースの 1 つは、libwebp ライブラリにセキュリティ アノテーションを適用し、2023 年以降のゼロクリック iOS エクスプロイトを防止する可能性がある修正です。
AI セキュリティ研究を奨励するための新しいバグ報奨金
Google は、社内の取り組みを強化するために、専用の AI 脆弱性報奨プログラム (VRP) を開始します。
このプログラムは、世界中のセキュリティ研究コミュニティが AI 製品の影響の大きい欠陥を発見して報告するよう奨励することを目的としており、最高報奨金は 30,000 ドルに達します。
新しい VRP では、AI 関連の問題を報告するためのルールが統合され、明確化されています。これには、プロンプト インジェクションやデータ引き出しなどのセキュリティ エクスプロイトが明示的に含まれています。
ただし、有害なコンテンツの生成に関連する問題は除外されており、Google は製品内のフィードバック ツールを介してユーザーに報告するようユーザーに指示しています。
これにより、AI 関連のバグに対して、すでに 43 万ドル以上を研究者に支払っている。このプログラムは歓迎すべきステップですが、一部の批評家は、最も複雑な AI の脆弱性についてエリート研究者を惹きつけるには最高額が低すぎるのではないかと示唆しています。
プロアクティブな AI 防御エコシステムの構築
Google の発表の 3 番目の要素は、Secure AI Framework (SAIF) 2.0 のリリースです。
この更新バージョンでは、セキュリティ保護の管理に関する新しいガイダンスが提供されます。
これらの取り組みは、AI 主導のサイバー攻撃の高まりに直接対応するものです。 NTT データのような企業が指摘しているように、従来のセキュリティ ツールは対応に追いつくのに苦労しています。
NTT データのシートル メータ氏は以前、「断片化したセキュリティ ツールでは今日の自動攻撃に追いつけない」と述べました。
Google の戦略は、以前の AI セキュリティ プロジェクトの成功を基礎に構築することです。たとえば、同社の Big Sleep エージェントは、2024 年後半に SQLite で最初のバグを発見してから、2025 年半ばに悪用される前に、重大な脅威を積極的に無力化するまでに進化しました。
SAIF などのフレームワークをオープンソース化し、CodeMender などの自律ツールを開発することで、Google は自社製品だけでなく、より広範なソフトウェア エコシステムのセキュリティを確保することを目指しています。
この包括的なアプローチは、 これは、サイバーセキュリティのバランスを防御側に有利に傾けるという同社の長期的な取り組みを強調しています。