Google DeepMind は最近、Optimization by PROmpting (OPRO) という AI 応答を促す画期的な方法を発表しました。この方法では、大規模言語モデル (LLM) をオプティマイザーとして利用し、AI モデルが特定のタスクの解決に最も近いプロンプトを見つけるまでさまざまなプロンプトを試行することで機能します。この技術は研究論文で説明されています。人間が通常入力によって行う試行錯誤のプロセスを自動化します。 p>

正式な数学的定義に依存する従来の方法とは異なり、OPRO は最適化タスクを自然言語で定義します。研究者らは、「最適化問題を正式に定義する代わりに…最適化問題を自然言語で記述し、問題の説明と以前に見つかった解決策に基づいて新しい解決策を反復的に生成するように LLM に指示します。」この適応性により、LLM は次のような課題に取り組むことができます。問題の説明を調整したり、特定の指示を追加したりするだけで、さまざまな問題に対応できます。

OPRO の動作方法

OPRO プロセスは「メタプロンプト」から始まります。 「入力」には、タスクの自然言語による説明、問題の例、プロンプト指示のプレースホルダー、および対応する解決策が含まれます。最適化が進むにつれて、LLM はメタプロンプトの問題の説明と以前の解決策に基づいて、候補となる解決策を生成します。

これらの候補は評価され、品質スコアが割り当てられ、最適なソリューションがメタ プロンプトに統合され、後続のソリューション生成のコンテキストが強化されます。この反復メカニズムは、モデルが優れたソリューションを提案しなくなるまで継続します。研究者らは、LLM の自然言語を理解する能力を強調し、ユーザーが正式な仕様なしで最適化タスクを明確に表現できるようにしました。

OPRO の有効性を確認するために、研究者らは、線形回帰や移動などの有名な数学的最適化の課題で OPRO をテストしました。店員の問題。結果は有望で、LLM はメタプロンプトで提供された以前の最適化軌跡に基づいて最適化の方向を正確に把握しました。

AI 自動プロンプトが画期的な理由

さらに、実験により、迅速なエンジニアリングがモデルの出力に大きな影響を与える可能性があることが明らかになりました。たとえば、「ステップごとに考えてみましょう」というフレーズをプロンプトに追加すると、モデルが問題に対処するために必要なステップを説明するようになり、多くの場合、精度の向上につながります。

ただし、次の点に注意することが重要です。 LLM の応答はプロンプトの形式に大きく影響され、同様のプロンプトでも異なる結果が生じる可能性があります。

自動プロンプトを実行できる AI は、ユーザーに利点をもたらすと同時に、LLM にも次の利点をもたらします。

効率の向上: 自動プロンプトは、必要な手動入力と介入の量を削減することで、AI システムの効率を向上させるのに役立ちます。たとえば、プロンプトを自動的に生成できる AI システムは、人間のユーザーが明示的な指示を提供する必要性。精度の向上: AI 自動プロンプトは、より多くのコンテキストと情報を AI システムに提供することで、AI システムの精度の向上にも役立ちます。たとえば、次のような AI システムです。タスクについての自身の理解に基づいてプロンプトを生成できる AI システムは、明示的な指示に従うことしかできない AI システムよりも間違いを犯す可能性が低くなります。 バイアスの軽減: 自動プロンプトを表示できる LLM は、より多様な入力を AI システムに提供することで、AI システムのバイアスを軽減するのにも役立ちます。たとえば、タスクについての自身の理解に基づいてプロンプトを生成できる AI システムは、特定の種類のデータや例に偏る可能性が低くなります。

Categories: IT Info