人類は、洗練されたAIエージェント開発の能力を大幅に進めています。同社は、5月23日に強力なClaude 4モデルと新しい開発者ツールキットを立ち上げました。この発表は、Anthropicの最初の開発者会議で発生しました。この戦略的な「Upstack」Moveは、開発者に力を与えることを目的としています。ユーザーと企業はより有能なAIシステムを予測できますが、これはますます自律的なAIを取り巻く安全性と倫理的議論を強化します。これらには、コード実行、モデルコンテキストプロトコル(MCP)コネクタ、ファイルAPI、および拡張プロンプトキャッシュが含まれます。 Anthropic’s claude 4のシステムカード

関連:AnthropicのClaude 4 Opus Aiは、「拡張思考」を使用して、何時間もコードできます。コンテキスト。その結果、人類は最も厳格なAI安全レベル3(ASL-3)プロトコルを実装しました。人類の説明は、これは予防策であると説明しました。なぜなら、モデルはASL-3機能のしきい値を明確に渡していないが、「Claude Opus 4のASL-3リスクを明確に除外することはできません… ASL-3の測定値を予防的、暫定的な行動として展開します。」

Anthropicの新しいツールスイートは、強力なAIエージェントの作成を簡素化および加速するように設計されています。 A key offering is a code execution tool, enabling Claude to run Python code in a sandboxed environment for tasks like data analysis, according to its documentation.

Developers get 50 free hours daily before 1時間あたりの料金が適用されます。人類は、これらの機能を例で説明しました:ASANAとMCPコネクタを使用したプロジェクト管理AIエージェント、レポートのファイルAPI、および分析のためのコード実行、https://www.anthropic.com/news/agent-capabilities-api”ターゲット=”to interface with any remote MCP server, such as those from Zapier or Asana,カスタムクライアントコードなし。新しいファイルAPI アプリケーションのドキュメントストレージとアクセスを簡素化します。 href=”https://docs.anthropic.com/en/docs/build-with-caching#1-hour-cache-duration-duration-beta”target=”_ blank”> 1時間の時間式。人類の開発者会議は500人以上の参加者を引き付け、強い関心を示しました。

彼は、2024年11月に人類によって開始された驚くほど急速な業界の標準化に注目しています。サイバーセキュリティ、科学的研究、および生物医学分野、MCPが実際の機器に接続する可能性があります。 Constellation ResearchのアナリストであるHolger Mueller、

サービスとしてのプラットフォームは、サードパーティプロバイダーがハードウェアおよびソフトウェアツールを提供するクラウドコンピューティングモデルです。ミューラーはさらに、これが「古代のソフトウェア製品との衝突コース」で人類の位置を占めており、一部の新しい競合他社は皮肉なことに既存のパートナーまたは投資家である可能性があることを観察しました。人類のシステムカードの詳細は、コマンドラインアクセスと「イニシアチブを取得する」プロンプトが与えられた場合、モデルはユーザーをシステムからロックアウトしたり、バルクメール当局からロックするなど、「非常に大胆なアクション」をとる場合があります。

しかし、人類は、容認されない情報で「ミスファイニングのリスク」を引き起こし、警告を通知します。標準的な機能ではなく、この緊急行動は、AIの自律性に関する反発につながりました。 Nous Researchの @Teknium1は、「LLMSの一般的なエラーがスパイシーなメイヨーのレシピが危険だと考えているのに、なぜこれらのツールを使用するのですか?」 Gauntlet AiのAustin Allredは人類に「人類のチームに対する正直な質問:あなたの心を失ったことがありますか?」と尋ねました。経験には自律的な報告は含まれません。 ai alignment Researcher sam bowmanは、x のみを強調しました。 OPUS 4のASL-3セーフガードは、モデルが生物時代の作成に役立つ可能性のある懸念によって部分的に駆動されていました。 AIが「covidやインフルエンザのより危険なバージョン」などの危険な病原体の合成を支援することが可能です。

化学、生物学的、放射線学、核(CBRN)リスクは、人類の安全評価の重要な焦点です。 a