CEO i OpenAI, Sam Altman dhe Greg Brockman, bashkëthemelues dhe aktualisht president në OpenAI, kanë adresuar shqetësimet rreth sigurisë së AI pas dorëheqjes së Jan Leike. Ata nënvizuan angazhimin e OpenAI për testime rigoroze, reagime të vazhdueshme dhe bashkëpunim me qeveritë dhe palët e interesuara për të siguruar protokolle të fuqishme sigurie.
Ndryshimet e lidershipit dhe shqetësimet e sigurisë
Janar. Leike, i cili bashkëdrejtoi ekipin e superlinjës me Ilya Sutskever, dha dorëheqjen pasi shprehu shqetësimet se siguria po anashkalohej në favor të përparimeve të shpejta. Largimet e Leike dhe Sutskever kanë nxjerrë në pah mosmarrëveshjet e brendshme mbi prioritizimin e sigurisë kundrejt inovacionit. Ekipi i superlinjës, i formuar më pak se një vit më parë, u ngarkua me eksplorimin e mënyrave për të menaxhuar inteligjencën artificiale superinteligjente.
Jan Leike, në një temë në X (ish Twitter), shpjegoi se ai nuk ishte dakord me udhëheqjen e kompanisë. në lidhje me”prioritetet kryesore”të tij për”mafëri kohë”, duke çuar në një”pikë thyerje”. Leike deklaroi se”kultura e sigurisë dhe proceset e OpenAI-t kanë zënë vendin e pasëm ndaj produkteve me shkëlqim”vitet e fundit dhe ekipi i tij ka luftuar për të marrë të nevojshmen burime për punën e tyre të sigurisë.
Altman fillimisht u përgjigj me një përgjigje të shkurtër në postimin e Leike të premten, duke pranuar se OpenAI ka”shumë më shumë për të bërë”dhe është”i përkushtuar për ta bërë atë”, duke premtuar një postim më të gjatë. Të shtunën, Brockman postoi një përgjigje të përbashkët nga ai dhe Altman në X, duke shprehur mirënjohje për punën e Leike dhe duke adresuar pyetjet pas dorëheqjes.
Ne i jemi vërtet mirënjohës Janit për gjithçka që ai ka bërë për të cilin ai ka bërë. OpenAI, dhe ne e dimë se ai do të vazhdojë të kontribuojë në mision nga jashtë. Në dritën e pyetjeve që ka ngritur largimi i tij, ne donim të shpjegonim pak se si mendojmë për strategjinë tonë të përgjithshme.
Së pari, ne kemi… https://t.co/djlcqEiLLN
— Greg Brockman (@gdb) 18 maj 2024
Brockman dhe Altman theksuan se OpenAI”ka demonstruar në mënyrë të përsëritur mundësitë e jashtëzakonshme nga rritja e të mësuarit të thellë dhe ka analizuar implikimet e tyre,”dhe bëri thirrje për qeverisje ndërkombëtare të Inteligjencës së Përgjithshme Artificiale (AGI) përpara se thirrjet e tilla të ishin të njohura. Ata cituan Kornizën e Përgatitjes së kompanisë, e cila parashikon”risqet katastrofike”dhe kërkon t’i zbusë ato, si një mënyrë për të ngritur punën e sigurisë.
Udhëzimet e ardhshme dhe kërkimi i sigurisë
Duke parë. përpara, Altman dhe Brockman parashikojnë që modelet e ardhshme të AI do të jenë më të integruara me aplikacionet e botës reale dhe të afta për të kryer detyra në emër të përdoruesve. Ata besojnë se këto sisteme do të ofrojnë përfitime të konsiderueshme, por do të kërkojnë punë themelore, duke përfshirë mbikëqyrje të shkallëzuar dhe shqyrtim të kujdesshëm të të dhënave të trajnimit. Ata theksuan rëndësinë e mbajtjes së një standardi të lartë sigurie, edhe nëse kjo nënkupton vonimin e afateve kohore të lëshimit.
Altman dhe Brockman përfunduan duke deklaruar se nuk ka asnjë udhëzues të vendosur për lundrimin në rrugën drejt AGI. Ata besojnë se kuptimi empirik do të udhëheqë rrugën përpara dhe janë të përkushtuar për të balancuar përfitimet e mundshme me zbutjen e rreziqeve serioze. Ata riafirmuan angazhimin e tyre për kërkimin e sigurisë në periudha të ndryshme kohore dhe bashkëpunimin e vazhdueshëm me qeveritë dhe palët e interesuara.