Openai zaktualizował swój model GPT-4O, poprawiając jego zdolność do obsługi zapytań związanych z STEM, interpretacji danych wizualnych i włączania nowszej wiedzy do swoich odpowiedzi.

Najnowsza aktualizacja rozszerza dane szkoleniowe modelu od listopada 2023 r. Do czerwca 2024 r., Pozwalając na przetworzenie szerszego zakresu aktualnych tematów z większą dokładnością. Oprócz tych postępów technicznych, OpenAI dostosowało styl konwersacyjny modelu, zwiększając wykorzystanie emoji w przypadkowych interakcjach.

Powiązane: Ex-Openai Safety Badeint Steven Adler ostrzega o „przerażaniu” Ryzyko w Rapid AI Development

Openai mówi, że gpt-4o pokazuje teraz silniejszą wydajność na multimodalnych testach porównawczych AI, takich jak Mathvista i MMMU, które testują zdolność modelu do zrozumienia i analizowania zarówno tekstu, jak i obrazów.

Według OpenAI, wyrafinowany model zapewnia „bogatsze spostrzeżenia i dokładniejsze wskazówki” podczas oceny treści wizualnych, co czyni go bardziej skutecznym dla użytkowników pracujących ze złożonymi diagramami, schematami technicznymi i wizualizacją danych.

Ulepszenia zwiększają również niezawodność GPT-4O w polach STEM, obszaru, w którym modele AI miały historycznie wyzwania, szczególnie w przypadku złożonego rozwiązywania problemów. Lepsze rozumowanie koncepcyjne i biegłość techniczna. W przypadku wyników sieci.

Ulepszenia wiedzy STEM i logicznego rozumowania

GPT-4O zapewnia teraz bardziej precyzyjne odpowiedzi na zapytania techniczne w matematyce, fizyce, inżynierii, i kodowanie. Aktualizacja zwiększa zdolność modelu do przetwarzania ustrukturyzowanej logiki i obliczeń numerycznych, obszarów, w których poprzednie iteracje czasami przyczyniły nieprawidłowe wyniki.

Openai podkreślił te ulepszenia w swoim ogłoszeniu, stwierdzając: „GPT-4O jest teraz lepsze z matematyki, nauki i problemów związanych z kodowaniem, z korzyściami związanymi z evalami akademickimi, takimi jak GPQA i matematyka. Jego lepszy wynik w MMLU-kompleksowy punkt zrozumienia zrozumienia języka, szerokości wiedzy i rozumowania-odpiera jego zdolność do rozwiązywania bardziej złożonych problemów w domenach. “

Te aktualizacje korzyści dla programistów, badaczy i studentów, którzy polegają Wspomagane przez AI-rozwiązywanie problemów, szczególnie w obszarach wymagających precyzji, takich jak rachunek zaawansowany, algorytmy uczenia maszynowego i symulacje naukowe. są kluczowe dla dziedzin takich jak opracowywanie oprogramowania i fizyka teoretyczna.

Ulepszone możliwości rozumowania są zgodne z trwającymi pracą Openai na temat metodologii przemyślenia, które umożliwiają rozkładanie złożonych problemów w mniejsze logiczne kroki/p>

Chociaż Openai nie stwierdził wyraźnie, czy GPT-4O zawiera nowe postępy w ustrukturyzowanym rozumowaniu, poprawa wydajności modelu na GPQA i MMLU sugeruje udoskonalenia w sposób, w jaki przetwarza wieloetapowe zadania logiczne.

dokładniejsza analiza obrazu i multimodalne zrozumienie

Aktualizacja poprawia również zdolność GPT-4O do przetwarzania obrazów, co czyni go bardziej zdolnym narzędziem do analizy relacji przestrzennych, interpretacji schematów technicznych i zapewniania schematów technicznych i zapewnienia Kontekstowe spostrzeżenia oparte na wejściach wizualnych.

Openai poinformował, że GPT-4O jest teraz wyżej na multimodalnych testach testowych oceny, takich jak Mathvista i MMMU, co wskazuje na silniejszą wydajność w integracji rozumowania tekstowego i wizualnego.

Openai wyjaśniło te ulepszenia, zauważając, że „zaktualizowany model jest bardziej biegły w interpretacji relacji przestrzennych w przesyłaniu obrazu, a także analizowaniu złożonych diagramów, zrozumieniu wykresów i wykresów oraz łączenia wizualnych danych wejściowych z treścią pisemną.”

Umiejętność kontekstualizacji i kontekstualizacji i Analizuj dane wizualne bardziej skutecznie sprawia, że ​​GPT-4O jest przydatny w aplikacjach w inżynierii, architekturze i danych, w których modele AI muszą przetwarzać i interpretować diagramy lub schematy z dużą dokładnością.

Dla użytkowników pracujących ze szczegółowymi rysunkami technicznymi, Plany, czyli wykresy matematyczne, te ulepszenia oznaczają, że Chatgpt mogą teraz oferować bardziej szczegółowe informacje na temat układów przestrzennych i relacji liczbowych w danych wizualnych. obrazów, takich jak badania naukowe, mapowanie geoprzestrzenne i obrazowanie medyczne.

Dostosowania konwersacyjne i zwiększone wykorzystywanie emoji

poza jego ulepszeniami technicznymi, openAI dostosował się Styl konwersacyjny GPT-4O, zawierający większe wykorzystywanie emoji do odpowiedzi. Firma stwierdziła, że ​​model będzie teraz dynamicznie zawierać emoji w interakcjach, szczególnie gdy użytkownicy używają ich już w swoich wiadomościach.

Openai potwierdził dostosowanie w ogłoszeniu, wyjaśniając: „GPT-4O jest teraz nieco bardziej entuzjastyczne w wykorzystaniu emoji (być może szczególnie jeśli używasz emoji w rozmowie ✨)-daj nam znać, co ty Pomyśl. „

Firma zachęciła użytkowników do przekazywania informacji zwrotnych na temat tego, czy zwiększone użycie emoji poprawia wrażenia użytkownika, czy też powinno być dostosowywane w przyszłych aktualizacjach.

Podczas zmiany związanej z emoji Nie wpływa na możliwości rozumowania modelu, sygnalizuje szerszy trend w celu uczynienia interakcji AI bardziej naturalnych i podobnych do człowieka. Opcje dostosowywania tonu konwersacyjnego w przyszłych iteracjach.

Krajobraz konkurencyjny: Deepseek, O3-Mini i rządowe AI

Pojawia się najnowsza aktualizacja GPT-4O Czas, w którym Openai stoi w obliczu rosnącej konkurencji ze strony konkurencyjnych programistów AI, szczególnie w dziedzinie wydajności i rozumowania.

Deepseek, chińska firma AI, niedawno wprowadziła swój model R1, który wykazał silne wyniki w rozumowaniu testów porównawczych, jednocześnie działając w ułamku zasobów obliczeniowych wykorzystywanych przez modele Openai.

Podejście oparte na wydajności Deepseeka spowodowało odpowiedzi liderów branży, w tym dyrektora generalnego Openai, Sam Altman, który potwierdził konkurencję, stwierdzając: „Oczywiście dostarczymy znacznie lepsze modele, a także wyciągniemy niektóre wydania.”

Powiązane: AI AI-Deepseek nie udaje się 83% testów dokładności z powodu dezinformacji i cenzury

Oprócz udoskonalania GPT-4O z najnowszą aktualizacją, OpenAI jest Przygotowując się do uruchomienia O3-Mini, modelu zoptymalizowanego przez rozumowanie pod kątem szybkości i wydajności

Oprócz sztucznej inteligencji konsumenckiej, OpenAI rozszerza swój zasięg do sektora publicznego z Chatgpt Gov, wersją jego modelu przeznaczonego przez agencje federalne USA. 5 (IL5) Standardy bezpieczeństwa, zapewniające zgodność z przepisami federalnymi.

Model przechodzi obecnie proces akredytacji Fedramp, kluczowy wymóg dla dostawców chmur współpracujących z agencjami rządowymi USA.

Kevin Weil, dyrektor ds. Produktu Openai, podkreślił potencjalny wpływ chatgpt GOV w przepływach pracy w sektorze publicznym, stwierdzając: „Widzimy ogromny potencjał tych narzędzi do wspierania sektora publicznego w radzeniu sobie z złożonymi wyzwaniami.”

Openai poinformował, że ponad 90 000 pracowników rządowych już korzystało z narzędzi AI, z narzędziami AI, z narzędziami AI, z Wczesne programy pilotażowe wykazujące mierzalne korzyści produktywności. > Dzięki kolejnej fali AI na horyzoncie OpenAI prawdopodobnie skupia się na skalowaniu swoich modeli przy jednoczesnym zapewnieniu niezawodności w stosunku do rzeczywistych. rynek z różnymi strategiami optymalizacji.

Categories: IT Info