De acordo com o Cointelegraph: OpenAI anunciou a disponibilidade de ajuste fino para GPT-3.5 Turbo, permitindo que desenvolvedores de IA melhorem o desempenho em tarefas específicas usando dados dedicados. O desenvolvimento foi recebido com entusiasmo e críticas por parte da comunidade de desenvolvedores.

A OpenAI explicou que, por meio do ajuste fino, os desenvolvedores podem adaptar os recursos do GPT-3.5 Turbo às suas necessidades. Por exemplo, um desenvolvedor poderia ajustar o GPT-3.5 Turbo para gerar código personalizado ou resumir com eficiência documentos legais em alemão usando um conjunto de dados das operações comerciais do cliente.

No entanto, alguns desenvolvedores expressaram preocupações sobre o novo recurso. Um comentário de um usuário chamado Joshua Segeren sugere que, embora o ajuste fino do GPT-3.5 Turbo seja interessante, não é uma solução completa. Ele acredita que melhorar os prompts, usar bancos de dados vetoriais para pesquisas semânticas ou mudar para GPT-4 geralmente produz resultados melhores do que o treinamento personalizado. Além disso, os custos de configuração e manutenção contínua devem ser considerados.

Os modelos básicos GPT-3.5 Turbo começam com uma taxa de US$ 0,0004 por 1.000 tokens, enquanto as versões ajustadas custam US$ 0,012 por 1.000 tokens de entrada e US$ 0,016 por 1.000 tokens de saída. Também se aplica uma taxa de treinamento inicial baseada no volume de dados.

O recurso de ajuste fino é significativo para empresas e desenvolvedores que buscam criar interações personalizadas com o usuário. Por exemplo, as empresas podem ajustar o modelo para corresponder à voz da sua marca, garantindo que os chatbots apresentam uma personalidade consistente e um tom alinhado com a identidade da marca.

Para garantir o uso responsável do recurso de ajuste fino, os dados de treinamento usados ​​para ajuste fino são revisados ​​por meio da API de moderação da OpenAI e do sistema de moderação desenvolvido pelo GPT-4. Este processo ajuda a manter os recursos de segurança do modelo padrão durante o processo de ajuste fino e garante que a saída refinada esteja em conformidade com os padrões de segurança estabelecidos pela OpenAI. Também permite que a OpenAI mantenha algum controle sobre os dados que os usuários inserem em seus modelos.