Derzeit können alle zahlenden OpenAI-API-Benutzer (mit erfolgreicher Zahlungshistorie) auf GPT-4 mit 8K-Kontextspeicher zugreifen. Und das Unternehmen plant, Ende dieses Monats den API-Zugriff für neue Entwickler zu öffnen und dann die verfügbaren Limits basierend auf der Verfügbarkeit der Rechenleistung anzupassen.
OpenAI gab am Donnerstag (6. Juli) bekannt, dass sein neuestes groß angelegtes Sprachmodell GPT-4 offiziell über seine API verfügbar sein wird.
Derzeit können alle zahlenden Benutzer der OpenAI API (mit erfolgreicher Zahlungshistorie) auf GPT-4 mit 8K-Kontextspeicher zugreifen. Und das Unternehmen plant, Ende dieses Monats den API-Zugriff für neue Entwickler zu öffnen und dann die verfügbaren Limits basierend auf der Verfügbarkeit der Rechenleistung anzupassen.
Dies bedeutet, dass Entwickler auf der ganzen Welt die großen GPT-4-Sprachmodelle verwenden können, um ihre Anwendungen zu verbessern oder neue generative KI-Anwendungen zu entwickeln.

„Seit März haben Millionen von Entwicklern Zugriff auf die GPT-4-API beantragt, und die Palette innovativer Produkte, die GPT-4 nutzen, wächst täglich“, schrieb OpenAI am Donnerstag in einem Blogbeitrag.
Im März dieses Jahres veröffentlichte OpenAI offiziell GPT-4, ein Modell, das Bild- und Texteingaben akzeptieren kann, um Text (einschließlich Code) zu generieren und bei verschiedenen professionellen und akademischen Benchmarks „menschliches Niveau“ zu erreichen, was eine deutliche Verbesserung gegenüber seinem Vorgänger GPT darstellt -3.5 Eine Verbesserung, letzteres akzeptiert nur Texteingaben. Wie frühere GPT-Modelle wird GPT-4 mithilfe öffentlich verfügbarer Daten trainiert, einschließlich Daten von öffentlichen Webseiten und von OpenAI lizenzierten Daten.
GPT-4 behält seine bisherige Krone in Bezug auf Kontextfenster bei, mit einem Standardwert von 8.000 Token (ein Token ist die Grundeinheit, in der das Modell Text verarbeitet) und einer Obergrenze von 32.000 Token. Im Allgemeinen können sich Modelle mit größeren Kontextfenstern besser an den Inhalt aktueller Gespräche erinnern, während Modelle mit kleineren Fenstern dazu neigen, die oben genannten Inhalte während des Gesprächs zu vergessen, was dazu führt, dass sie vom Thema abweichen.
01 Unterstützt jeden Anwendungsfall
Im Blogbeitrag heißt es außerdem: „Wir stellen uns eine Zukunft vor, in der chatbasierte Modelle jeden Anwendungsfall unterstützen können.“
OpenAI plant außerdem die Einführung von API-Schnittstellen für GPT-3.5 Turbo, DALL·E und Whisper.
GPT-3.5 Turbo ist eines der anderen Textgenerierungsmodelle von OpenAI, aber es ist schwächer als GPT-4; DALL-E 2 ist das Bildgenerierungsmodell von OpenAI und Whisper ist das Speech-to-Text-Modell des Unternehmens.
Die Bildverständnisfunktion steht derzeit nicht allen OpenAI-Kunden zur Verfügung. Es wird berichtet, dass OpenAI es mit einem Partner namens „Be My Eyes“ testet, es wurde jedoch noch nicht angegeben, wann es für einen breiteren Kundenstamm geöffnet wird.
OpenAI sagte außerdem, dass es Entwicklern in Zukunft die Feinabstimmung von GPT-4 und GPT-3.5 Turbo mit ihren eigenen Daten ermöglichen wird, eine Funktion, die möglicherweise noch in diesem Jahr implementiert wird.
02 Eliminierung und Substitution
Es ist erwähnenswert, dass selbst eines der besten generativen KI-Modelle der Gegenwart, GPT-4, nicht perfekt ist. Es wird falsche Vorstellungen von Fakten haben, manchmal mit „Selbstvertrauen“ Argumentationsfehler machen und bei einigen komplexen Themen scheitern.
In diesem Zusammenhang kündigte OpenAI auch an, dass es mehrere ältere Modelle der Completions API aus dem Verkehr ziehen wird und sich künftige Modelle im Rahmen der Bemühungen des Unternehmens zur Optimierung der Rechenkapazitäten auf die Chat Completions API konzentrieren werden.
Das Bild unten zeigt die alten Modelle, deren Ausmusterung OpenAI angekündigt hat, und die neuen Modelle, die sie ersetzt haben:

OpenAI wird ältere Modelle dieser Completions-APIs innerhalb von 6 Monaten verwerfen. Obwohl die API weiterhin zugänglich ist, wird das Unternehmen sie ab heute in der Entwicklerdokumentation als „Legacy“ kennzeichnen. Ab dem 4. Januar 2024 wird die alte Completions-API nicht mehr verfügbar sein.

