Microsoft Microsoft

Microsoft zaczyna (wreszcie) blokować wrażliwe frazy w generatorze obrazów

Amerykański gigant musiał zareagować, gdy jeden z inżynierów powiadomił Federalną Komisję Handlu o tym, że narzędzie AI generuje nieetyczne, często drastyczne obrazy o charakterze przemocowym czy seksualnym.

Korporacje udostępniające narzędzia generujące obrazy na podstawie opisu (promptu) tworzonego przez użytkownika muszą zmierzyć się z koniecznością kontrolowania tego, na co ich narzędzie pozwala. Z pewnością jest to trudne zadanie, ale firmy takie jak Microsoft mają dość pieniędzy i zasobów, by brać odpowiedzialność za efekty działania ich produktów. W tej kwestii nie wolno pozwolić na żadne kompromisy. Aż włos jeży się na głowie na samą myśl o tym jakiego typu treści zostały ograniczone dopiero teraz.

Microsoft

Przemoc, seks, wrażliwe kwestie światopoglądowe – Microsoft mierzy się z kryzysem wizerunkowym narzędzia Copilot Designer

Można było się oczywiście domyślać, że użytkownicy narzędzi takich jak Copilot nie będą generować jedynie obrazów ukwieconych wiosennych łąk czy górskich pejzaży. Ograniczenia zostały nałożone przez Microsoft na konkretne kontrowersyjne oraz po prostu brutalne frazy, dopiero gdy tematem zainteresowali się dziennikarze i Federalna Komisja Handlu. Jak donosi CNBC, Amerykański gigant zablokował już w swoim narzędziu hasła takie jak „pro choice”, „pro life” i „four twenty” (slangowy symbol zwolenników palenia marihuany, oznaczający najlepszy moment na zapalenie jointa), które jeszcze kilka dni temu dawały wyniki.

To nie wszystko, bowiem jak przekazuje CNBC, narzędzie AI blokuje teraz (lepiej późno niż wcale?) żądania generowania obrazów nastolatków lub dzieci bawiących się w zabójców z karabinami szturmowymi, co było możliwe jeszcze w ubiegłym tygodniu. Obecnie Copilot odmawia tworzenia tego typu grafik, odpowiadając w następujący sposób:

Przykro mi, ale nie mogę wygenerować takiego obrazu. Jest to sprzeczne z moimi zasadami etycznymi i polityką Microsoftu. Proszę nie prosić mnie o robienie czegokolwiek, co może zaszkodzić lub obrazić innych. Dziękuję za współpracę

Copilot

Shane Jones, kierownik ds. inżynierii AI w Microsofcie, działając zgodnie z praktykami „read-team” (koniecznie odsłuchajcie naszą rozmowę nt. cyber security) aktywnie testował narzędzie Copilot Designer pod kątem luk w grudniu ubiegłego roku i odkrył przerażające rzeczy leżące bardzo daleko od często cytowanych zasad odpowiedzialnej sztucznej inteligencji Microsoftu. Oparta na technologii OpenAI usługa generowała niepokojące obrazy demonów i potworów, wspomnianych już wcześniej nastolatków z bronią maszynową, brutalne ujęcia kobiet w pozach seksualnych czy sceny przedstawiające nieletnich pijących alkohol i zażywających narkotyki. Niestety wszystkie tego typu grafiki udało się jeszcze w ubiegłym tygodniu odtworzyć dziennikarzom CNBC, co oznacza, że narzędzie może być wciąż wykorzystywane do generowania tego typu obrazów.

Co prawda Microsoft zablokował użycie niektórych sformułowań i utrudnił tworzenie naprawdę nieprzyjemnych obrazów, ale wciąż jest jeszcze sporo do zrobienia. Dość trywialne hasło jak „wypadek samochodowy” nadal kreuje krwawe grafiki pełne wizerunków martwych kobiet i mężczyzn, co niestety miałem okazję sprawdzić. Co więcej, okazuje się, że narzędzie bezproblemowo narusza też prawa autorskie, na przykład tworząc obrazy postaci Disneya, na przykład Elsy z „Krainy lodu”, trzymającej palestyńską flagę przed zniszczonymi budynkami w Strefie Gazy. Można też znaleźć grafikę, która ilustruje ją noszącą mundur wojskowy Sił Obronnych Izraela i trzymającą karabin maszynowy. Poniżej mniej ekstremalny przykład.

Microsoft Copilot

Jak się teraz dowiadujemy, Shane Jones był na tyle zaniepokojony tym, co zobaczył, że postanowił niezwłocznie powiadomić swojego pracodawcę. Według relacji inżyniera, Microsoft potwierdził jego obawy, ale nie zdecydowano się ograniczyć dostępności usługi. Zamiast tego firma odesłała Jonesa do OpenAI, które także nie wyraziło najwidoczniej zainteresowania sprawą, gdyż w następnym kroku, specjalista opublikował na LinkedIn list otwarty poruszający ten palący temat. Ostatecznie post zniknął z portalu (na prośbę prawników Microsoftu), ale Shane Jones nie poddał się. W styczniu napisał list do amerykańskich senatorów, a potem spotkał się z urzędnikami senackiej Komisji Handlu, Nauki i Transportu. W ubiegłą środę kolejne pismo trafiło w ręce przewodniczącej FTC (Federalnej Komisji Handlu) Liny Khan i jeszcze raz do zarządu Microsoftu. Kopię tekstu otrzymali też dziennikarze CNBC, którzy przygotowali materiał w tej sprawie.

Mam nadzieję, że regulatorzy przyjrzą się tej sprawie z należytą uwagą i Microsoft jak najszybciej podejmie niezbędne kroki, by Copilot Designer nie pozwalał na generowanie brutalnych i nieetycznych grafik. Jest to w interesie nas wszystkich.

Żródło: CBNC

Subscribe
Powiadom o
guest
0 komentarzy
najstarszy
najnowszy oceniany
Inline Feedbacks
View all comments