Laut Cointelegraph hat der Social-Media-Riese Meta seine Abteilung Responsible AI (RAI) aufgelöst, die sich der Regulierung der Sicherheit seiner künstlichen Intelligenz während der Entwicklung und Bereitstellung widmete. Viele RAI-Teammitglieder sind in Rollen innerhalb der Produktabteilung Generative AI des Unternehmens gewechselt, während einige dem AI Infrastructure-Team beigetreten sind. Das im Februar gegründete Generative AI-Team von Meta konzentriert sich auf die Entwicklung von Produkten, die Sprache und Bilder generieren, um von Menschen erstellte Versionen nachzuahmen.

Die Umstrukturierung der RAI-Abteilung erfolgt, während Meta sich dem Ende seines „Jahres der Effizienz“ nähert, wie CEO Mark Zuckerberg es während einer Gewinnbesprechung im Februar nannte. Dies hat zu einer Reihe von Entlassungen, Teamfusionen und Umverteilungen im Unternehmen geführt. Die Gewährleistung der KI-Sicherheit ist für die Top-Player in diesem Bereich zu einer Priorität geworden, insbesondere da Regulierungsbehörden und Beamte den potenziellen Gefahren der neuen Technologie größere Aufmerksamkeit schenken. Im Juli gründeten Anthropic, Google, Microsoft und OpenAI eine Industriegruppe, die sich darauf konzentriert, Sicherheitsstandards für die Weiterentwicklung der KI festzulegen.

Trotz der Umverteilung der RAI-Teammitglieder innerhalb des Unternehmens bleiben sie der Unterstützung einer verantwortungsvollen Entwicklung und Nutzung von KI verpflichtet und legen Wert auf laufende Investitionen in diesem Bereich. Meta hat kürzlich zwei KI-gestützte generative Modelle eingeführt. Das erste, Emu Video, nutzt Metas vorheriges Emu-Modell und kann Videoclips auf der Grundlage von Text- und Bildeingaben generieren. Das zweite Modell, Emu Edit, konzentriert sich auf die Bildbearbeitung und verspricht mehr Präzision bei der Bildbearbeitung. Cointelegraph hat Meta um weitere Informationen gebeten, zum Zeitpunkt der Veröffentlichung jedoch noch keine Rückmeldung erhalten.