Selon Cointelegraph : OpenAI a annoncé la disponibilité d'un réglage fin pour GPT-3.5 Turbo, permettant aux développeurs d'IA d'améliorer les performances sur des tâches spécifiques en utilisant des données dédiées. Le développement a suscité à la fois l’enthousiasme et les critiques de la communauté des développeurs.
OpenAI a expliqué que grâce à des réglages précis, les développeurs peuvent adapter les capacités de GPT-3.5 Turbo à leurs besoins. Par exemple, un développeur pourrait affiner GPT-3.5 Turbo pour générer du code personnalisé ou résumer efficacement des documents juridiques en allemand à l'aide d'un ensemble de données provenant des opérations commerciales du client.
Cependant, certains développeurs ont exprimé leurs inquiétudes concernant cette nouvelle fonctionnalité. Un commentaire d'un utilisateur nommé Joshua Segeren suggère que même si le réglage fin de GPT-3.5 Turbo est intéressant, ce n'est pas une solution complète. Il estime que l'amélioration des invites, l'utilisation de bases de données vectorielles pour les recherches sémantiques ou le passage à GPT-4 donnent souvent de meilleurs résultats qu'une formation personnalisée. De plus, les coûts d’installation et de maintenance continue doivent être pris en compte.
Les modèles de base GPT-3.5 Turbo commencent à un tarif de 0,0004 USD pour 1 000 jetons, tandis que les versions affinées coûtent 0,012 USD pour 1 000 jetons d'entrée et 0,016 USD pour 1 000 jetons de sortie. Des frais de formation initiale basés sur le volume de données s'appliquent également.
La fonctionnalité de réglage fin est importante pour les entreprises et les développeurs qui cherchent à créer des interactions utilisateur personnalisées. Par exemple, les entreprises peuvent affiner le modèle pour qu'il corresponde à la voix de leur marque, en garantissant que les chatbots affichent une personnalité et un ton cohérents qui correspondent à l'identité de la marque.
Pour garantir une utilisation responsable de la fonctionnalité de réglage fin, les données de formation utilisées pour le réglage fin sont examinées via l'API de modération d'OpenAI et le système de modération alimenté par GPT-4. Ce processus permet de maintenir les fonctionnalités de sécurité du modèle par défaut pendant le processus de réglage fin et garantit que la sortie affinée est conforme aux normes de sécurité établies par OpenAI. Cela permet également à OpenAI de conserver un certain contrôle sur les données que les utilisateurs saisissent dans ses modèles.

