Ilya Sutskever, co-fondateur d’OpenAI, a présenté hier une présentation stimulante à NeurIPS 2024, offrant une vision de l’intelligence artificielle qui allie des promesses remarquables à une profonde incertitude.

NeurIPS 2024, ou la trente-huitième conférence annuelle sur les systèmes de traitement de l’information neuronale, est l’une des conférences les plus importantes et les plus influentes. dans les domaines de l’intelligence artificielle et de l’apprentissage automatique. L’événement aura lieu du 10 au 15 décembre 2024 au Vancouver Convention Centre, à Vancouver, au Canada.

Au cours de sa présentation, Sutskever a décrit l’émergence éventuelle d’une IA superintelligente, des systèmes capables de raisonner, d’imprévisibilité, et la conscience de soi – et les dilemmes éthiques que ces progrès pourraient poser.

À la tête de Safe Superintelligence Inc. ( SSI) après son départ d’OpenAI en mai, Sutskever pense que la simple mise à l’échelle des modèles n’est peut-être plus la solution pour faire progresser l’intelligence artificielle.

S’adressant à un public de chercheurs et de leaders de l’industrie, Sutskever a souligné que l’IA superintelligente représenterait une rupture fondamentale par rapport aux systèmes actuels. Si l’IA actuelle excelle dans les tâches nécessitant la reconnaissance de formes et l’intuition, elle ne parvient pas à raisonner, un processus cognitif qui nécessite la compréhension et la synthèse d’informations complexes.

« Plus un système raisonne, plus il devient imprévisible », a expliqué Sutskever, soulignant un défi majeur dans le développement futur de l’IA.

Il a prédit que le raisonnement, l’imprévisibilité et même le soi-même La prise de conscience définirait la prochaine génération de systèmes d’IA. Contrairement aux modèles actuels, qu’il a décrits comme « très légèrement agents », les systèmes superintelligents seront véritablement autonomes.

« À terme, tôt ou tard, ces systèmes deviendront réellement agents », a-t-il déclaré, suggérant que ce changement pourrait fondamentalement remodeler la manière dont l’IA interagit avec le monde.

La route vers la superintelligence : revisiter l’évolution de l’IA

Pour comprendre le saut vers la superintelligence, Sutskever a revisité les principales étapes du développement de l’IA. Il a commencé par réfléchir aux premiers succès. des réseaux LSTM (Long Short-Term Memory), un élément essentiel de l’apprentissage automatique dans les années 2000

« Les LSTM étaient essentiellement un ResNet tourné à 90° », a-t-il plaisanté, faisant référence à la conception en couches de ces réseaux neuronaux. Bien qu’efficaces pour conserver les informations séquentielles, les LSTM ont eu des difficultés en termes d’évolutivité et d’efficacité, limitant leur applicabilité à des ensembles de données plus volumineux et à des tâches plus complexes.

La percée est venue avec Transformers, qui a remplacé les LSTM comme architecture de choix pour de nombreuses IA avancées. systèmes. Contrairement à leurs prédécesseurs, les Transformers pouvaient traiter simultanément de grandes quantités de données, permettant des progrès significatifs dans des domaines tels que le traitement du langage naturel et la reconnaissance d’images.

Ces innovations ont ouvert la voie à des modèles comme la série GPT d’OpenAI, qui exploitent les Transformers pour générer du texte de type humain et effectuer des tâches sophistiquées.

Sutskever a attribué une grande partie de ces progrès à l’adoption de lois de mise à l’échelle : le principe selon lequel des modèles plus grands formés sur des ensembles de données plus grands donnent de meilleures performances.”Si vous disposez d’un très grand ensemble de données et que vous entraînez un très grand réseau neuronal, le succès est garanti”, a-t-il déclaré, soulignant la force motrice derrière le travail d’OpenAI.

Pourtant, il a averti que la mise à l’échelle a ses limites.:”Nous avons atteint le pic de données. Il n’y a qu’un seul Internet.”

Auparavant partisan de l’augmentation de la taille des modèles pour obtenir de meilleurs résultats, le point de vue de Sutskever a changé suite à la prise de conscience par l’industrie que la mise à l’échelle s’accompagne de rendements décroissants. « Les années 2010 étaient l’ère de la mise à l’échelle, maintenant nous sommes de retour à l’ère de l’émerveillement et de la découverte. Tout le monde recherche la prochaine chose”, a récemment fait remarquer Sutskever, soulignant que”la mise à l’échelle de la bonne chose est plus importante que jamais”.

Ce goulot d’étranglement a incité les chercheurs à explorer des stratégies alternatives, y compris les données synthétiques. Les données synthétiques, générées pour imiter les informations du monde réel, offrent un moyen de former des systèmes d’IA sans s’appuyer sur des ensembles de données de haute qualité de plus en plus rares.

Cependant, Sutskever a reconnu que les données synthétiques comportent leurs propres défis, notant: « Comprendre ce que signifient les données synthétiques et comment les utiliser est un grand défi. »

[contenu intégré]

Construire des systèmes de raisonnement : les obstacles techniques à venir

L’un des thèmes centraux de l’exposé de Sutskever était le défi de construire des systèmes d’IA capables d’un véritable raisonnement, comme le nouveau système d’OpenAi. Modèles o1. Les modèles actuels comme GPT-4o s’appuient sur des corrélations statistiques et la reconnaissance de formes pour résoudre les problèmes, mais le raisonnement exige une compréhension plus nuancée du contexte, de la causalité et de la logique.

« Les systèmes de raisonnement sont imprévisibles parce qu’ils fonctionnent. au-delà de l’intuition”, a expliqué Sutskever. Cette imprévisibilité, bien qu’elle soit une caractéristique de l’intelligence, rend également ces systèmes difficiles à contrôler et à tester.

Les exigences informatiques du raisonnement ajoutent un autre niveau de complexité. Contrairement aux tâches plus simples, qui peuvent être parallélisées et optimisées pour plus de rapidité, le raisonnement implique des processus qui nécessitent une intégration sur plusieurs couches d’informations.

Ces processus consomment beaucoup plus de ressources, ce qui fait de l’évolutivité un problème persistant. Sutskever a souligné que la résolution de ces défis sera essentielle pour réaliser le potentiel de l’IA superintelligente.

Malgré ces obstacles, il reste optimiste quant à la trajectoire du domaine. « Nous faisons tous ces progrès. C’est stupéfiant”, a-t-il déclaré, soulignant l’évolution rapide des capacités de l’IA au cours de la dernière décennie. Ses remarques reflétaient à la fois l’enthousiasme et la prudence qui caractérisent le développement des systèmes de raisonnement.

Implications éthiques de IA superintelligente : droits, coexistence et responsabilité

Alors que Sutskever passait des avancées techniques à des implications plus larges, il s’est plongé dans l’un des sujets les plus controversés de l’intelligence artificielle : le traitement éthique des systèmes autonomes. Il a émis l’hypothèse qu’à mesure que l’IA superintelligente mûrit, elle pourrait exiger une reconnaissance et une coexistence aux côtés de l’humanité.

“Ce n’est pas une mauvaise issue si les IA veulent coexister avec nous et avoir des droits”, a-t-il déclaré. » a déclaré, présentant une vision provocatrice de l’IA comme plus qu’un simple outil ou une technologie.

Les remarques de Sutskever s’alignent sur les débats émergents autour de la gouvernance et de l’éthique de l’IA, où les chercheurs considèrent de plus en plus les droits et les responsabilités des personnes intelligentes. systèmes. Même si l’idée d’accorder des droits à l’IA peut paraître spéculative, elle soulève des questions pratiques sur la responsabilité et l’action.

Si un système peut raisonner, apprendre et s’adapter de manière indépendante, qui est responsable de ses actions ? Ces questions, a suggéré Sutskever, mettent en évidence la nécessité d’un nouveau cadre éthique adapté aux capacités de l’IA superintelligente.

Au cours de la séance de questions-réponses, un membre de l’auditoire a demandé comment l’humanité pourrait inciter l’IA à agir d’une manière qui s’aligne avec valeurs humaines. La réponse de Sutskever reflète à la fois la complexité du problème et l’incertitude inhérente à l’avenir de l’IA.

“Les structures d’incitation que nous créons façonneront la manière dont ces systèmes évolueront”, a-t-il déclaré, mais il a rapidement ajouté:”Je ne me sens pas en confiance pour répondre à des questions comme celle-ci, car les choses sont incroyablement imprévisibles.”

Le défi des hallucinations et des résultats peu fiables

L’un des obstacles pratiques au développement de l’IA est le phénomène des hallucinations : des résultats inexacts, illogiques ou complètement fabriqué. Bien que les systèmes d’IA actuels soient sujets à de telles erreurs, Sutskever a fait valoir que les capacités de raisonnement pourraient réduire considérablement leur apparition.

“Il est hautement plausible que les futurs modèles corrigent automatiquement leurs hallucinations grâce au raisonnement”, a-t-il déclaré, comparant ce processus à la fonction de correction automatique des traitements de texte modernes.

Cette capacité permettrait aux systèmes d’IA pour reconnaître les incohérences dans leurs réponses et affiner leurs résultats en temps réel. Par exemple, une IA basée sur le raisonnement utilisée dans la recherche juridique pourrait identifier les divergences dans les citations de la jurisprudence ou les lacunes logiques dans les arguments, ce qui en ferait une solution. les résultats sont beaucoup plus fiables.

Cependant, Sutskever a reconnu les difficultés techniques liées à la construction de tels systèmes. « En passant, je ne dis pas comment. cela arrivera”, a-t-il fait remarquer, soulignant l’incertitude entourant ce développement.

Réguler l’IA superintelligente : l’effort mondial

Les réflexions de Sutskever sur le La nature imprévisible de l’IA superintelligente a souligné l’urgence des cadres réglementaires. Partout dans le monde, les décideurs politiques se demandent comment gérer le développement de l’IA de manière à équilibrer innovation et sécurité.

La loi sur l’IA de l’Union européenne, par exemple, vise à établir des lignes directrices claires pour l’utilisation de l’IA, en se concentrant sur des applications à haut risque telles que la reconnaissance faciale et la prise de décision autonome.

Aux États-Unis, les législateurs étudient des mesures similaires, en particulier dans des secteurs critiques comme la santé et la finance. « Sans cadres clairs, le rythme rapide du développement pourrait avoir des conséquences imprévues », a prévenu Sutskever, soulignant l’importance d’une gouvernance proactive.

Les organisations internationales, dont l’OCDE, ont également contribué au paysage réglementaire en publiant des principes pour une IA digne de confiance. Ces initiatives visent à garantir l’équité, la responsabilité et la transparence dans les systèmes d’IA, reflétant un consensus mondial sur la nécessité d’une surveillance.

Mais, comme l’a souligné Sutskever, il est difficile de réglementer les systèmes. sont intrinsèquement imprévisibles ajoute une couche de complexité à ces efforts.

« Les gens ont l’impression que les « agents » sont l’avenir », a-t-il déclaré, faisant référence à l’autonomie croissante des systèmes d’IA avancés. Veiller à ce que ces agents d’IA, comme ceux de la nouvelle plate-forme Agentspace de Google, agissent de manière sûre et conforme aux valeurs sociétales nécessitera non seulement de l’innovation technique, mais également des cadres juridiques et éthiques solides.

Préparer pour l’impact sociétal des systèmes autonomes

L’intégration de l’IA superintelligente dans la société aura des implications considérables, remodelant les industries, la gouvernance et même l’identité humaine. Des systèmes autonomes capables de raisonner et de prendre des décisions pourraient révolutionner des domaines tels que la santé, les transports et les sciences de l’environnement, offrant des avantages sans précédent.

Par exemple, les diagnostics médicaux basés sur l’IA pourraient analyser les données des patients avec une précision inégalée, permettant ainsi de détection des maladies et amélioration des résultats. De même, les véhicules autonomes dotés de capacités de raisonnement pourraient s’adapter à des scénarios de circulation complexes, améliorant ainsi la sécurité et l’efficacité.

Dans le domaine des sciences de l’environnement, l’IA pourrait traiter des ensembles de données massifs pour modéliser le changement climatique avec une plus grande précision, fournissant ainsi des informations exploitables aux décideurs politiques mondiaux.

Cependant, les avantages sociétaux de l’IA superintelligente comportent des risques. À mesure que ces systèmes gagneront en autonomie, ils remettront en question les normes existantes de responsabilité et de contrôle. Qui est responsable lorsqu’un véhicule autonome provoque un accident ou lorsqu’un système médical basé sur le raisonnement pose un diagnostic erroné ?

Sutskever a souligné que répondre à ces questions nécessitera une collaboration interdisciplinaire.”Nous devrons faire face à des systèmes d’IA incroyablement imprévisibles”, a-t-il prévenu, soulignant l’importance de la vigilance à mesure que ces technologies évoluent.

Les implications philosophiques : intelligence, autonomie et rôle de l’humanité

L’essor de l’IA superintelligente pose de profondes questions sur l’identité humaine et la nature de l’intelligence. Alors que ces systèmes dépassent les capacités humaines en matière de raisonnement, d’adaptabilité et de créativité, ils peuvent remettre en question des solutions de longue date. hypothèses sur ce qui distingue l’humanité.

Sutskever a suggéré que la conscience de soi, souvent considérée comme une caractéristique de la conscience, pourrait émerger naturellement dans les systèmes d’IA avancés: « Lorsque le raisonnement, la conscience de soi devient une partie du modèle mondial d’un système.. C’est utile”, a-t-il déclaré, laissant entendre que de tels systèmes développeraient une compréhension d’eux-mêmes en tant qu’entités au sein d’un environnement plus large.

Ce changement soulève des questions existentielles. Qu’est-ce que cela signifie pour les humains de coexister avec des machines non seulement intelligentes mais aussi autonomes ? À mesure que les systèmes d’IA assument des rôles de plus en plus complexes dans la société, ils pourraient redéfinir notre compréhension du renseignement et de l’action.

Historiquement, les humains ont été la référence en matière d’excellence cognitive, mais l’avènement des machines à raisonner pourrait conduire à une définition plus large et plus inclusive de l’intelligence.

Sutskever a reconnu que ces questions philosophiques s’étendent au-delà considérations techniques. « Il est également impossible de prédire l’avenir. En réalité, toutes sortes de choses sont possibles”, a-t-il fait remarquer, soulignant l’incertitude entourant l’impact à long terme de l’IA.

Ses commentaires reflètent une prise de conscience croissante que le développement de l’IA superintelligente n’est pas seulement une entreprise technologique mais aussi un défi culturel et philosophique profond.

Réimaginer les rôles humains dans un monde piloté par l’IA

L’intégration de l’IA superintelligente va inévitablement remodeler structures sociétales, de l’éducation et de l’emploi à la gouvernance et à la créativité. À mesure que ces systèmes assument des rôles traditionnellement réservés aux humains, ils nous obligeront à reconsidérer ce que signifie contribuer de manière significative à la société.

Par exemple, dans le domaine créatif. Dans certaines industries, les systèmes d’IA génèrent déjà de l’art, de la musique et de la littérature. Même si ces résultats imitent souvent la créativité humaine, l’IA superintelligente pourrait repousser les limites du possible, créant des formes d’expression entièrement nouvelles. éducation, basée sur l’IA les tuteurs pourraient personnaliser les expériences d’apprentissage, en adaptant le contenu aux besoins individuels d’une manière que les enseignants humains ne peuvent pas faire.

Pourtant, ces progrès soulèvent également des inquiétudes en matière de déplacement et d’inégalité. Si l’IA superintelligente peut surpasser les humains dans un large éventail de tâches, quels rôles resteront uniquement humains ?

Sutskever a suggéré que l’adaptabilité de l’humanité serait mise à l’épreuve dans cette nouvelle ère, mais il s’est abstenu de proposer des réponses faciles. Au lieu de cela, il a encouragé la réflexion et le dialogue, déclarant: « À mesure que ces systèmes évoluent, nous devrons repenser tout ce que nous savons sur le travail, la créativité et l’intelligence. »

Implications plus larges pour l’éthique et la gouvernance.

À mesure que les systèmes d’IA deviennent plus autonomes, ils remettront en question les normes existantes en matière de responsabilité et de gouvernance. Cependant, il a également souligné l’importance de créer des cadres solides pour guider le développement et le déploiement de systèmes superintelligents. a reconnu le difficulté de réguler des systèmes qui sont intrinsèquement imprévisibles.

“L’imprévisibilité des systèmes de raisonnement rend difficile la création de règles définitives”, a-t-il déclaré, exhortant les chercheurs et les décideurs politiques à collaborer sur des approches flexibles et adaptatives.

Une solution potentielle consiste à aligner le comportement de l’IA sur les valeurs humaines via des structures d’incitation. En concevant soigneusement les objectifs et les paramètres des systèmes autonomes, les développeurs pourraient garantir que l’IA agit d’une manière qui profite à la société. Cependant, Sutskever a admis que cette tâche était très complexe.

“Je ne me sens pas en mesure de proposer des réponses définitives parce que les choses sont incroyablement imprévisibles”, a-t-il déclaré lors de la séance de questions-réponses, reflétant les défis liés à l’équilibre entre l’innovation et les considérations éthiques.

Une nouvelle ère pour l’humanité et l’IA

L’avènement de l’IA superintelligente n’est pas simplement une étape technologique ; elle marque le début d’une nouvelle ère pour l’humanité dans laquelle les machines assument des rôles qui étaient autrefois. autrefois considéré comme uniquement humain, ils nous obligeront à confronter notre propre identité et notre propre objectif.

La présentation de Sutskever à NeurIPS 2024 a servi à la fois de célébration des réalisations de l’IA et d’appel à l’action pour que les chercheurs, les décideurs politiques et le public s’engagent dans l’éthique. et les questions sociétales qui nous attendent.

« Nous faisons tous ces progrès, c’est stupéfiant », a-t-il déclaré, réfléchissant aux progrès rapides de la dernière décennie. Pourtant, ses mots d’adieu rappellent les incertitudes qui accompagnent de tels changements transformateurs :”Toutes sortes de choses sont possibles.”

Categories: IT Info