OpenAI a mis à jour son modèle GPT-4O, améliorant sa capacité à gérer les requêtes liées aux STEM, à interpréter les données visuelles et à intégrer des connaissances plus récentes dans ses réponses.
La dernière mise à jour étend les données de formation du modèle de novembre 2023 à juin 2024, ce qui lui permet de traiter une gamme plus large de sujets actuels avec une plus grande précision. Parallèlement à ces progrès techniques, OpenAI a ajusté le style de conversation du modèle en augmentant son utilisation des emojis dans les interactions occasionnelles.
liées: ex-openai en matière de sécurité Steven Adler prévient de «terrification» Risques dans le développement rapide de l’IA
openai dit que GPT-4o démontre désormais des performances plus fortes sur les repères IA multimodaux tels que MathVista et MMMU, qui testent la capacité d’un modèle à comprendre et à analyser à la fois du texte et des images.
Selon OpenAI, le modèle raffiné fournit «des informations plus riches et des conseils plus précis» lors de l’évaluation du contenu visuel, ce qui le rend plus efficace pour les utilisateurs travaillant avec des diagrammes complexes, des schémas techniques et des visualisations de données.
Les améliorations améliorent également la fiabilité de GPT-4O dans les champs STEM, un domaine où les modèles d’IA ont historiquement fait face à des défis, en particulier avec la résolution de problèmes complexes. Mieux raisonnement conceptuel et compétence technique. pour les résultats Web.
Améliorations des connaissances STEM et du raisonnement logique
GPT-4O offre désormais des réponses plus précises aux requêtes techniques en mathématiques, physique, ingénierie, et codage. La mise à jour améliore la capacité du modèle à traiter la logique structurée et les calculs numériques, les domaines où les itérations précédentes ont parfois produit des résultats incorrects.
Openai a souligné ces améliorations dans son annonce, déclarant: «Le GPT-4O est désormais meilleur en mathématiques, en sciences et en problèmes liés au codage, avec des gains sur les étions académiques comme le GPQA et les mathématiques. Son score amélioré sur MMLU-une référence complète de la compréhension du langage, de la largeur des connaissances et du raisonnement-reflète sa capacité à résoudre des problèmes plus complexes dans les domaines.”
Ces mises à niveau des développeurs, des chercheurs et des étudiants qui comptent sur La résolution de problèmes assistée par AI, en particulier dans les domaines nécessitant une précision telle que le calcul avancé, les algorithmes d’apprentissage automatique et les simulations scientifiques. sont au cœur des domaines comme le développement de logiciels et la physique théorique.
Les capacités de raisonnement améliorées s’alignent sur les travaux continus d’OpenAI sur les méthodologies de la chaîne de pensées, qui permettent aux systèmes d’IA de décomposer des problèmes complexes en étapes logiques plus petites./p>
Bien que OpenAI n’ait pas explicitement indiqué si le GPT-4O intègre de nouvelles progrès dans le raisonnement structuré, les performances améliorées du modèle sur GPQA et MMLU suggèrent des raffinements dans la façon dont il traite les tâches logiques en plusieurs étapes.
Analyse d’images plus précise et compréhension multimodale
La mise à jour améliore également la capacité de GPT-4O à traiter les images, ce qui en fait un outil plus compétent pour analyser les relations spatiales, interpréter les diagrammes techniques et fournir Informations compatibles au contexte basées sur l’entrée visuelle.
OpenAI a rapporté que le GPT-4O se classe désormais plus haut sur des repères d’évaluation multimodaux tels que MathVista et MMMU, indiquant des performances plus fortes dans l’intégration du raisonnement textuel et visuel.
OpenAI a expliqué ces améliorations, Notant que «le modèle mis à jour est plus habile à interpréter les relations spatiales dans les téléchargements d’images, ainsi qu’à analyser des diagrammes complexes, à comprendre les graphiques et les graphiques, et à connecter une entrée visuelle avec le contenu écrit.»
La capacité de contextualiser et Analyser les données visuelles rend plus efficacement GPT-4O pour les applications en ingénierie, architecture et science des données, où les modèles d’IA doivent traiter et interpréter des diagrammes ou des schémas avec une grande précision.
pour les utilisateurs travaillant avec des dessins techniques détaillés, Blueprints, ou parcelles mathématiques, ces améliorations signifient que le chatpt peut désormais offrir des informations plus détaillées sur les dispositions spatiales et les relations numériques dans les données visuelles. Des images, telles que la recherche scientifique, la cartographie géospatiale et l’imagerie médicale.
ajustements conversationnels et augmentation de l’utilisation des emoji
Au-delà de ses mises à niveau techniques, OpenAI s’est ajusté Le style conversationnel de GPT-4O, incorporant plus d’utilisation des emoji dans les réponses. La société a déclaré que le modèle inclura désormais dynamiquement les emojis dans les interactions, en particulier lorsque les utilisateurs les utilisent déjà dans leurs messages.
Openai a reconnu l’ajustement dans son annonce, expliquant: «GPT-4O est maintenant un peu plus enthousiaste dans son utilisation des emoji (peut-être surtout si vous utilisez des emoji dans la conversation ✨)-dites-nous ce que vous Pensez.”
La société a encouragé les utilisateurs à fournir des commentaires sur la question de savoir si l’utilisation accrue des emojis améliore l’expérience utilisateur ou devrait être ajustée dans les futures mises à jour.
tandis que le changement lié aux emoji n’a pas d’impact sur les capacités de raisonnement du modèle, il signale une tendance plus large à rendre les interactions d’IA plus naturelles et plus humaines. Options de personnalisation pour le ton conversationnel dans les futures itérations.
paysage concurrentiel: Deepseek, O3-MinI et gouvernement AI
La dernière mise à niveau GPT-4O arrive à Une époque où OpenAI fait face à une concurrence croissante des développeurs de l’IA rivaux, en particulier dans les domaines de l’efficacité et des performances du raisonnement.
Deepseek, une société d’IA basée en Chine, a récemment introduit son modèle R1, qui a démontré de solides résultats dans le raisonnement de référence tout en opérant sur une fraction des ressources de calcul utilisées par les modèles d’Openai. L’approche axée sur l’efficacité de Deepseek a provoqué les réponses des leaders de l’industrie, notamment le PDG d’Openai, Sam Altman, qui a reconnu la concurrence en déclarant: «Nous fournirons évidemment de bien meilleurs modèles et réaliserons également certaines versions.» /P>
lié: Audit AI-Deepseek échoue 83% des tests de précision dus à la désinformation et à la censure
En plus de raffiner GPT-4O avec la dernière mise à jour, Openai est Préparation à lancer O3-MinI, un modèle axé sur le raisonnement optimisé pour la vitesse et l’efficacité.
Au-delà de l’IA orientée vers les consommateurs, OpenAI étend sa portée dans le secteur public avec Chatgpt Gov, une version de son modèle conçu pour une utilisation par les agences fédérales américaines. 5 (IL5) Normes de sécurité, garantissant le respect des réglementations fédérales.
Le modèle subit actuellement le processus d’accréditation Fedramp, une exigence clé pour les fournisseurs de cloud travaillant avec les agences gouvernementales américaines.
Kevin Weil, chef de produit d’Openai, a souligné l’impact potentiel de Chatgpt GOV dans les flux de travail du secteur public, déclarant:”Nous voyons un énorme potentiel pour ces outils pour soutenir le secteur public pour relever des défis complexes.”
OpenAI a rapporté que plus de 90 000 employés du gouvernement ont déjà utilisé ses outils d’IA, avec Les premiers programmes pilotes démontrant des gains de productivité mesurables. > Avec la prochaine vague de progrès de l’IA à l’horizon, OpenAI est susceptible de se concentrer sur la mise à l’échelle de ses modèles tout en garantissant la fiabilité dans les applications du monde réel. Marché avec différentes stratégies d’optimisation.