Microsoft Research Asia zaprezentowało narzędzie AI o nazwie VASA-1, które przekształca statyczne zdjęcie osoby lub jej rysunek wraz z istniejącym plikiem audio w realistyczne video w czasie rzeczywistym. Technologia ta umożliwia generowanie wyrazów twarzy i ruchów głowy na podstawie statycznego obrazu, a także odpowiednich ruchów warg synchronizowanych z mową lub śpiewem.
VASA-1, opracowane na bazie zbioru danych VoxCeleb2, które zawiera „ponad 1 milion wypowiedzi 6,112 celebrytów” z filmów na YouTube, to przykład jak nowoczesne technologie mogą wpływać na różne aspekty życia społecznego. Badacze wskazują, że ich wynalazek może znacznie poprawić równość edukacyjną oraz dostępność komunikacji dla osób z trudnościami komunikacyjnymi, oferując im możliwość korzystania z awatara, który będzie za nich komunikować się z otoczeniem.
VASA-1 to nowe narzędzie Microsoftu do tworzenia deepfake’ów
Jednak nie tylko w edukacji czy terapii ma zastosowanie nowa technologia. Może ona również oferować towarzystwo i wsparcie terapeutyczne, co jest sugerowane jako potencjalne wykorzystanie narzędzia w programach zapewniających dostęp do wirtualnych postaci, z którymi można rozmawiać. Mimo swojej innowacyjności, technologia ta stawia przed nami również pytania o granice prywatności i etyki w cyfrowym świecie.
Pomimo entuzjazmu twórców, nie można przeoczyć, że VASA-1, podobnie jak inne narzędzia AI do tworzenia deepfake’ów, może być wykorzystywana w sposób nieetyczny. Obawy dotyczą głównie tworzenia fałszywych materiałów pornograficznych czy prowadzenia kampanii dezinformacyjnych. Naukowcy zdają sobie sprawę z tych zagrożeń i zdecydowali się na niepublikowanie narzędzia w formie otwartego demo, API czy jakiejkolwiek dodatkowej dokumentacji do czasu zapewnienia, że program będzie używany odpowiedzialnie i zgodnie z właściwymi regulacjami.
Czy VASA-1 nie będzie nadużywać prywatności?
VASA-1 jest przykładem, jak daleko zaawansowane są już technologie AI w manipulowaniu obrazami i dźwiękiem, co otwiera nowe perspektywy dla rozwoju cyfrowych interakcji. Warto jednak zadać sobie pytanie, jakie środki bezpieczeństwa powinny być wdrożone, aby maksymalnie ograniczyć ryzyko nadużyć, jednocześnie promując pozytywne zastosowania tej technologii.
Ostatecznie, przyszłość technologii AI, takich jak VASA-1, zależy od naszej zdolności do zarządzania ich rozwojem w sposób przemyślany i zrównoważony. Rozwój regulacji, które będą nadążać za tempem innowacji, jest niezbędny do ochrony społeczeństwa przed nieintencjonalnymi skutkami i wykorzystaniem technologii w szkodliwy sposób. Jednocześnie, musimy dążyć do tego, aby te innowacje były dostępne dla jak najszerszego grona odbiorców, zwiększając tym samym ich pozytywny wpływ na społeczeństwo.
Materiał nie został wygenerowany przez AI. Napisała go dla was Krzysztof Żwirski.
Źrodło: Microsoft