openaiは、a では、新しいモデルの微調整されたキャパリティに関する報告の欠如が、潜在的な財務を促進することを少し隔離します。 Openaiと他のAI企業は、モデルの最悪のリスクを過小評価していることを意味する可能性があります。」別の批評では、一般に公開された最終コードではなく、以前のモデルバージョンまたは「チェックポイント」をテストすることが含まれます。 「あなたが評価したものとは異なるモデルをリリースするのは悪い習慣です」と元Openaiの技術スタッフは、Ft。

Openaiがその慣行を擁護し、自動化を通じて得られた効率を引用し、その方法に自信を表明することを引用しました。同社は、チェックポイントは最終リリースと「基本的に同一」であり、特に壊滅的なリスクについては、モデルが徹底的にテストされていると述べた。 Openaiの安全システムの責任者であるJohannes Heideckeは、「私たちがどれだけ速く移動し、どれだけ徹底しているかについてのバランスが良いと主張しています。」

最近、同社は dictionary Learning を使用して今月初めに潜在的な能力の課題を承認することにもかかわらず、Openaiの急速な発展は続きます。