Obecnie wszyscy płacący użytkownicy OpenAI API (z pomyślną historią płatności) mogą uzyskać dostęp do GPT-4 z pamięcią kontekstową 8K. Firma planuje udostępnić API nowym programistom już pod koniec tego miesiąca, a następnie dostosować dostępne limity w zależności od dostępności mocy obliczeniowej.

W czwartek (6 lipca) OpenAI ogłosiło, że jego najnowszy wielkoskalowy model językowy GPT-4 będzie oficjalnie dostępny za pośrednictwem interfejsu API.

Obecnie wszyscy płacący użytkownicy OpenAI API (z pomyślną historią płatności) mogą uzyskać dostęp do GPT-4 z pamięcią kontekstową 8K. Firma planuje udostępnić API nowym programistom już pod koniec tego miesiąca, a następnie dostosować dostępne limity w zależności od dostępności mocy obliczeniowej.

Oznacza to, że programiści na całym świecie mogą używać wielkoskalowych modeli językowych GPT-4 do ulepszania swoich aplikacji lub opracowywania nowych generatywnych aplikacji AI.

„Od marca miliony programistów poprosiło o dostęp do API GPT-4, a gama innowacyjnych produktów wykorzystujących GPT-4 rośnie z każdym dniem” – napisała OpenAI w czwartkowym poście na blogu.

W marcu tego roku OpenAI oficjalnie wypuściło GPT-4, model, który akceptuje wprowadzanie obrazu i tekstu w celu generowania tekstu (w tym kodu) i osiągania „poziomu ludzkiego” w różnych testach zawodowych i akademickich, co stanowi znaczny postęp w stosunku do jego poprzednika GPT -3.5. Ulepszenie, to drugie akceptuje tylko wprowadzanie tekstu. Podobnie jak poprzednie modele GPT, GPT-4 jest szkolony przy użyciu publicznie dostępnych danych, w tym danych z publicznych stron internetowych i danych licencjonowanych przez OpenAI.

GPT-4 utrzymuje swoją poprzednią koronę pod względem okien kontekstowych, z domyślnym 8 tys. tokenów (token to podstawowa jednostka, w której model przetwarza tekst) i górnym limitem 32 tys. tokenów. Ogólnie rzecz biorąc, modele z większymi oknami kontekstowymi lepiej zapamiętują treść ostatnich rozmów, podczas gdy modele z mniejszymi oknami mają tendencję do zapominania powyższej treści podczas rozmowy, co powoduje odejście od tematu.

01 Obsługuje każdy przypadek użycia

W poście na blogu stwierdza się również: „Wyobrażamy sobie przyszłość, w której modele oparte na czacie będą mogły obsługiwać każdy przypadek użycia”.

OpenAI planuje także uruchomienie interfejsów API dla GPT-3.5 Turbo, DALL·E i Whisper.

GPT-3.5 Turbo to jeden z innych modeli generowania tekstu OpenAI, ale jest słabszy niż GPT-4; DALL-E 2 to model generowania obrazu OpenAI, a Whisper to firmowy model przetwarzania mowy na tekst.

Funkcja rozumienia obrazu nie jest obecnie dostępna dla wszystkich klientów OpenAI. Poinformowano, że OpenAI testuje go z partnerem o nazwie „Be My Eyes”, ale nie wskazano jeszcze, kiedy zostanie otwarty dla szerszej bazy klientów.

OpenAI powiedziało również, że w przyszłości umożliwi programistom dostrojenie GPT-4 i GPT-3.5 Turbo przy użyciu własnych danych, a funkcja ta może zostać wdrożona jeszcze w tym roku.

02 Eliminacja i substytucja

Warto zauważyć, że nawet jeden z najlepszych obecnie modeli generatywnej sztucznej inteligencji, GPT-4, nie jest doskonały. Będzie błędnie postrzegał fakty, czasami popełniał błędy w rozumowaniu z „pewnością siebie” i ponosił porażkę w niektórych złożonych kwestiach.

W związku z tym OpenAI ogłosiło również, że wycofa kilka starszych modeli z interfejsu Completions API, a przyszłe modele będą skupiać się na interfejsie Chat Completions API w ramach wysiłków firmy mających na celu optymalizację możliwości obliczeniowych.

Poniższy obrazek pokazuje stare modele, które OpenAI ogłosiło jako wycofane, oraz nowe modele, które je zastąpiły:

OpenAI wycofa starsze modele tych interfejsów API Completions w ciągu 6 miesięcy. Chociaż interfejs API jest nadal dostępny, od dzisiaj firma będzie oznaczać go jako „starszy” w dokumentacji programisty. Od 4 stycznia 2024 r. stary interfejs Completions API nie będzie już dostępny.

#GPT-4  #OpenAI