Według Cointelegraph: OpenAI ogłosiło dostępność dostrajania dla GPT-3.5 Turbo, umożliwiającego programistom AI poprawę wydajności określonych zadań przy użyciu dedykowanych danych. Rozwój spotkał się zarówno z entuzjazmem, jak i krytyką ze strony społeczności programistów.
OpenAI wyjaśniło, że dzięki dostrojeniu programiści mogą dostosować możliwości GPT-3.5 Turbo do swoich potrzeb. Na przykład programista może dostroić GPT-3.5 Turbo tak, aby generował niestandardowy kod lub efektywnie podsumowywał dokumenty prawne w języku niemieckim, korzystając ze zbioru danych pochodzących z operacji biznesowych klienta.
Jednak niektórzy programiści wyrazili obawy dotyczące nowej funkcji. Komentarz użytkownika Joshuy Segerena sugeruje, że chociaż dostrojenie GPT-3.5 Turbo jest interesujące, nie jest to rozwiązanie kompletne. Uważa, że ulepszanie podpowiedzi, używanie wektorowych baz danych do wyszukiwań semantycznych lub przejście na GPT-4 często daje lepsze wyniki niż szkolenie niestandardowe. Ponadto należy wziąć pod uwagę koszty konfiguracji i bieżącej konserwacji.
Podstawowe modele GPT-3.5 Turbo zaczynają się od stawki 0,0004 USD za 1000 tokenów, podczas gdy ulepszone wersje kosztują 0,012 USD za 1000 tokenów wejściowych i 0,016 USD za 1000 tokenów wyjściowych. Obowiązuje również wstępna opłata za szkolenie zależna od ilości danych.
Funkcja dostrajania jest istotna dla firm i programistów, którzy chcą tworzyć spersonalizowane interakcje z użytkownikami. Na przykład firmy mogą dostosować model do głosu swojej marki, upewniając się, że chatboty mają spójną osobowość i ton, który jest zgodny z tożsamością marki.
Aby zapewnić odpowiedzialne korzystanie z funkcji dostrajania, dane szkoleniowe wykorzystywane do dostrajania są przeglądane za pośrednictwem interfejsu API moderacji OpenAI i systemu moderacji zasilanego GPT-4. Proces ten pomaga zachować funkcje bezpieczeństwa modelu domyślnego podczas procesu dostrajania i zapewnia, że udoskonalone dane wyjściowe są zgodne z ustalonymi standardami bezpieczeństwa OpenAI. Pozwala także OpenAI zachować pewną kontrolę nad danymi wprowadzanymi przez użytkowników do jego modeli.

