Generative KI-Modelle wie ChatGPT haben die Technologiewelt im Sturm erobert und drohen, in den Mainstream einzudringen. Mit der Ankündigung von Bedrock ist klar, dass Amazon bereit ist, alles zu geben, genau wie die großen Technologiekonkurrenten Microsoft und Google.
Bedrock ermöglicht AWS-Benutzern, generative KI aus Basismodellen (FMs) aufzubauen – GPT-4 wäre ein Beispiel für ein solches Modell, wobei ChatGPT eine darauf aufbauende Anwendung für generative KI ist.

Laut einem Blogbeitrag zur Ankündigung des Dienstes ist Bedrock „eine serverlose Erfahrung“, bei der Benutzer „FMs privat mit ihren eigenen Daten anpassen und sie einfach in ihre Anwendungen integrieren und bereitstellen“ können.
Zeitgleich mit der Einführung von Bedrock kündigte Amazon auch Titan an, das zwei neue grundlegende Modelle enthält, die von Amazon Machine Learning entwickelt wurden.
Details zu Titan sind derzeit rar, da Amazon-Vertreter die technischen Spezifikationen geheim halten. AWS-Vizepräsident Bratin Saha sagte Reportern jedoch, dass Amazon eine „verfeinerte Version“ von Titan verwendet, um Suchergebnisse auf der Homepage des Unternehmens anzuzeigen.
Benutzer sind jedoch nicht auf die hauseigenen FMs von Amazon beschränkt, da das Unternehmen auch die Bedrock-Integration für einige der beliebtesten Modelle der Branche angekündigt hat, darunter Jurassic-2, ein mehrsprachiges LLM, und Claude, ein Konversationsagent von Anthropic, der auf der „Constitutional AI“-Grundlage des Unternehmens basiert.
Bedrock wird außerdem plattformübergreifenden API-Zugriff auf die Modelle von Stability AI bereitstellen, darunter Stable Diffusion, ein beliebter Text-zu-Bild-Generator.
Amazon kommt vielleicht ein bisschen spät zur Party, denn die Einführung von GPT-4 liegt bereits einen Monat zurück. Bedrock und Titan könnten sich jedoch aufgrund der nahezu allgegenwärtigen Verbreitung von AWS und seiner Benutzerfreundlichkeit als problematisch für die etablierten Branchenführer erweisen.
Die Kosten für das Training eines generativen KI-Modells können enorm sein. Leider ist ein Modell, sobald es mit einem bestimmten Datensatz trainiert wurde, im Wesentlichen mit diesen Daten „schmutzig“ und möglicherweise anfällig dafür, als Antwort auf nicht verwandte Abfragen Informationen daraus zu „halluzinieren“.
Bedrock ermöglicht es Benutzern, dieses Problem zu umgehen, indem es ihnen die Möglichkeit gibt, bereits vorhandene FMs als Backbone zur Unterstützung ihrer Daten zu verwenden. Für Kunden, die bereits AWS nutzen, und für diejenigen, die ihre Daten in das AWS-Ökosystem einbringen, bedeutet dies, dass ihre Daten so sicher bleiben wie normalerweise in der Cloud von Amazon und niemals in Trainingsdatensätze eingespeist werden.
Laut der Ankündigung von Amazon „werden keine Kundendaten zum Trainieren der zugrunde liegenden Modelle verwendet, und da alle Daten verschlüsselt sind und die Virtual Private Cloud (VPC) eines Kunden nicht verlassen, können die Kunden darauf vertrauen, dass ihre Daten privat und vertraulich bleiben.“
Amazon hofft, mit der Ankündigung seines Bedrock-Dienstes und dem Debüt zweier neuer interner Large Language Models (LLMs) das Duell der generativen künstlichen Intelligenz (KI) zwischen Googles Bard und Microsoft/OpenAIs ChatGPT in ein Battle Royale zu verwandeln.
Baidu, ein weiteres chinesisches Technologieunternehmen, versuchte mit der Einführung von Ernie – einer Anspielung auf Googles Bard – den Durchbruch zu schaffen. Die schlechte Aufnahme des Produkts führte jedoch zu einem 10-prozentigen Kurssturz der Aktien des Unternehmens.
Während Titan und Bedrock sich darauf vorbereiten, sich der ersten Welle öffentlich zugänglicher generativer KI-Modelle anzuschließen, bereiten sich Technologieunternehmen auf der ganzen Welt auf ihren Auftritt vor. Das chinesische Technologieunternehmen Alibaba wird bald seinen eigenen KI-Chatbot namens „Tongyi Qianwen“ vorstellen, in der Hoffnung, den westlichen Konzernen, die diesen Bereich derzeit dominieren, etwas Konkurrenz zu machen.

