Laut Cointelegraph: OpenAI hat die Verfügbarkeit einer Feinabstimmung für GPT-3.5 Turbo angekündigt, die es KI-Entwicklern ermöglicht, die Leistung bei bestimmten Aufgaben mithilfe dedizierter Daten zu verbessern. Die Entwicklung stieß in der Entwickler-Community sowohl auf Begeisterung als auch auf Kritik.

OpenAI erklärte, dass Entwickler durch Feinabstimmung die Funktionen von GPT-3.5 Turbo an ihre Bedürfnisse anpassen können. Beispielsweise könnte ein Entwickler GPT-3.5 Turbo verfeinern, um benutzerdefinierten Code zu generieren oder Rechtsdokumente effizient auf Deutsch zusammenzufassen, indem er einen Datensatz aus dem Geschäftsbetrieb des Kunden verwendet.

Einige Entwickler haben jedoch Bedenken hinsichtlich der neuen Funktion geäußert. Ein Kommentar eines Benutzers namens Joshua Segeren deutet an, dass die Feinabstimmung von GPT-3.5 Turbo zwar interessant sei, aber keine vollständige Lösung darstelle. Er glaubt, dass die Verbesserung von Eingabeaufforderungen, die Verwendung von Vektordatenbanken für semantische Suchen oder die Umstellung auf GPT-4 oft bessere Ergebnisse liefern als benutzerdefiniertes Training. Darüber hinaus sollten die Einrichtungs- und laufenden Wartungskosten berücksichtigt werden.

Die Basismodelle GPT-3.5 Turbo beginnen bei einem Preis von 0,0004 USD pro 1.000 Token, während die optimierten Versionen 0,012 USD pro 1.000 Eingabetoken und 0,016 USD pro 1.000 Ausgabetoken kosten. Außerdem fällt eine anfängliche Schulungsgebühr basierend auf dem Datenvolumen an.

Die Feinabstimmungsfunktion ist für Unternehmen und Entwickler wichtig, die personalisierte Benutzerinteraktionen erstellen möchten. Unternehmen können beispielsweise das Modell so optimieren, dass es zur Stimme ihrer Marke passt, und so sicherstellen, dass Chatbots eine einheitliche Persönlichkeit und einen Ton aufweisen, der mit der Markenidentität übereinstimmt.

Um einen verantwortungsvollen Einsatz der Feinabstimmungsfunktion zu gewährleisten, werden die für die Feinabstimmung verwendeten Trainingsdaten über die Moderations-API von OpenAI und das von GPT-4 betriebene Moderationssystem überprüft. Dieser Prozess hilft dabei, die Sicherheitsfunktionen des Standardmodells während des Feinabstimmungsprozesses aufrechtzuerhalten und stellt sicher, dass die verfeinerte Ausgabe den etablierten Sicherheitsstandards von OpenAI entspricht. Außerdem kann OpenAI dadurch eine gewisse Kontrolle über die Daten behalten, die Benutzer in seine Modelle eingeben.