По данным Cointelegraph: OpenAI объявила о доступности тонкой настройки GPT-3.5 Turbo, позволяющей разработчикам ИИ повысить производительность при выполнении конкретных задач, используя выделенные данные. Разработка была встречена как с восторгом, так и с критикой со стороны сообщества разработчиков.

OpenAI пояснила, что посредством тонкой настройки разработчики могут адаптировать возможности GPT-3.5 Turbo к своим потребностям. Например, разработчик может настроить GPT-3.5 Turbo для создания собственного кода или эффективного обобщения юридических документов на немецком языке, используя набор данных о бизнес-операциях клиента.

Однако некоторые разработчики выразили обеспокоенность по поводу новой функции. Комментарий пользователя по имени Джошуа Сегерен предполагает, что тонкая настройка GPT-3.5 Turbo интересна, но не является полным решением. Он считает, что улучшение подсказок, использование векторных баз данных для семантического поиска или переход на GPT-4 часто дают лучшие результаты, чем индивидуальное обучение. Кроме того, следует учитывать затраты на установку и текущее обслуживание.

Базовые модели GPT-3.5 Turbo начинаются с 0,0004 доллара США за 1000 токенов, а версии с точной настройкой стоят 0,012 доллара США за 1000 входных токенов и 0,016 доллара США за 1000 выходных токенов. Также взимается первоначальная плата за обучение в зависимости от объема данных.

Функция тонкой настройки важна для компаний и разработчиков, стремящихся обеспечить персонализированное взаимодействие с пользователем. Например, компании могут точно настроить модель в соответствии с голосом своего бренда, гарантируя, что чат-боты будут отображать единую индивидуальность и тон, соответствующий идентичности бренда.

Чтобы обеспечить ответственное использование функции тонкой настройки, данные обучения, используемые для тонкой настройки, проверяются через API модерации OpenAI и систему модерации на базе GPT-4. Этот процесс помогает поддерживать функции безопасности модели по умолчанию во время процесса тонкой настройки и гарантирует, что уточненные выходные данные соответствуют установленным стандартам безопасности OpenAI. Это также позволяет OpenAI сохранять некоторый контроль над данными, которые пользователи вводят в его модели.