Według Cointelegraph gigant mediów społecznościowych Meta wprowadził dwa modele sztucznej inteligencji (AI) do edycji i generowania treści. Pierwszy model, Emu Video, może generować klipy wideo na podstawie wprowadzonego tekstu i obrazu, wykorzystując poprzedni model Emu firmy Meta. Drugi model, Emu Edit, skupia się na manipulacji obrazem, obiecując większą precyzję edycji obrazu. Meta uważa, że ​​modele te wciąż znajdują się na etapie badań i mogą znaleźć potencjalne zastosowania dla twórców, artystów i animatorów.

Emu Video trenowano przy użyciu podejścia faktoryzowanego, dzieląc proces uczenia na dwa etapy, aby umożliwić modelowi reagowanie na różne dane wejściowe. Takie podejście umożliwia modelowi wydajne generowanie wideo uwarunkowanego zarówno tekstem, jak i wygenerowanymi obrazami. Emu Video może animować obrazy w oparciu o podpowiedzi tekstowe, używając tylko dwóch modeli dyfuzyjnych do generowania czterosekundowych filmów o wymiarach 512 x 512 przy 16 klatkach na sekundę. Z kolei Emu Edit umożliwia użytkownikom wykonywanie różnych zadań związanych z manipulacją obrazami, takich jak usuwanie lub dodawanie tła, transformacje kolorów i geometrii oraz edycję lokalną i globalną. Meta przeszkoliła Emu Edit przy użyciu zestawu danych składającego się z 10 milionów syntetyzowanych obrazów, każdy z obrazem wejściowym, opisem zadania i docelowym obrazem wyjściowym.

Model Emu Meta został wytrenowany przy użyciu 1,1 miliarda danych, w tym zdjęć i podpisów udostępnianych przez użytkowników na Facebooku i Instagramie. Jednak organy regulacyjne uważnie przyglądają się narzędziom Meta opartym na sztucznej inteligencji, co skłoniło firmę do przyjęcia ostrożnego podejścia do wdrażania. Meta ogłosiła niedawno, że nie pozwoli kampaniom politycznym i reklamodawcom na używanie narzędzi sztucznej inteligencji do tworzenia reklam na Facebooku i Instagramie, chociaż ogólne zasady reklamowe platformy nie dotyczą konkretnie sztucznej inteligencji.