OpenAI 宣佈在其董事會內成立安全委員會,以監督其生成式 AI 系統的安全性。此舉恰逢該公司確認正在訓練其下一個人工智慧模型,該模型可能是 GPT-5。委員會包括OpenAI 執行長Sam Altman、董事會成員Bret Taylor、Adam D’Angelo 和Nicole Seligman,以及首席科學家Jakub Pachocki 和安全主管Matt Knight。該委員會也將諮詢外部安全專家。根據 OpenAI 的部落格文章,該委員會的首要任務是審查並在未來90 天內改善公司的安全協議。在此期間結束時,委員會將向全體董事會提出建議,然後全體董事會將審查並公開分享所採取措施的最新情況。 >

該委員會成立之前,有報告指出OpenAI 在5 月初解散了其超級對齊團隊。超級對齊團隊最初成立的目的是探索維持人類對生成人工智慧系統的控制的方法,特別是那些未來可能超越人類智慧的系統。-content/uploads/2023/02/openai-logo.png”>

在同一篇部落格文章中,OpenAI 確認已開始訓練其下一個主要人工智慧模型,預計將命名為 GPT-5。該公司表示,該模型旨在提升實現通用人工智慧(AGI)道路上的能力。 OpenAI 強調了在這個關鍵時刻就這些系統的安全性進行「激烈辯論」的重要性。增強版本,其特點更真實的語音互動。

Categories: IT Info