Wystarczy kilka słów lub linijek tekstu, aby Make-A-Video ożywiło wyobraźnię i stworzyło jedyne w swoim rodzaju filmy pełne żywych kolorów, postaci i krajobrazów. Narzędzie wykorzystuje technologię generowania obrazów SI (w tym rezultaty pracy nad Make-A-Scene z początku tego roku) oraz nienadzorowany system uczący, która pozwala zrozumieć ruch w świecie fizycznym i zastosować go do tradycyjnego generowania obrazów z tekstu.

System uczy się, jak wygląda świat na podstawie sparowanych danych tekstowo-obrazowych i jak świat porusza się na podstawie materiału wideo bez powiązanego tekstu. Meta zapowiedziała wydanie wersji demonstracyjnej.

Badania nad generatywną sztuczną inteligencją popychają twórczą ekspresję do przodu, dając ludziom narzędzia do szybkiego i łatwego tworzenia nowych treści. Za pomocą kilku słów lub linijek tekstu Make-A-Video może ożywić wyobraźnię i stworzyć jedyne w swoim rodzaju filmy pełne żywych kolorów, postaci i krajobrazów. System może również tworzyć filmy ze zdjęć lub pobierać istniejące filmy i tworzyć nowe, które są podobne. – czytamy w komunikacie Meta.

Meta pokazała jak SI tworzy filmy na bazie tekstu

Make-A-Video jest kolejnym etapem ogłoszonego na początku roku Make-A-Scene, czyli metody, dającej ludziom większą kontrolę nad treściami generowanymi przez sztuczną inteligencję. Dzięki Make-A-Scene pokazano, jak ludzie mogą tworzyć fotorealistyczne ilustracje i grafikę, używając słów, linii tekstu i swobodnych szkiców.

Prezentację możliwości sztucznej inteligencji opracowanej przez Meta, można zobaczyć TUTAJ