Ostatnie doniesienia Kevina Bankstona, specjalisty ds. prywatności, dotyczące potencjalnego naruszenia prywatności przez Google Gemini AI, wywołały dyskusję w środowisku technologicznym.
Bankston napisał, że narzędzie skanowało jego prywatne pliki PDF przechowywane na Google Drive bez jego wyraźnej zgody, a próby dezaktywacji tej funkcji okazały się nieskuteczne.
Gemini od Google’a ma nas w kieszeni?
Google zapewnia, że dane użytkowników są wykorzystywane wyłącznie do generowania odpowiedzi na zapytania, a nie do trenowania modelu AI. Niemniej jednak, brak jasnego wyjaśnienia ze strony firmy dotyczącego działania Gemini AI budzi uzasadnione obawy. Odpowiedź udzielona Bankstonowi przez samo narzędzie sugeruje, że incydent mógł być spowodowany błędem w ustawieniach prywatności lub awarią wewnętrznych systemów Google.
Bankston, będąc uczestnikiem programu Google Workspace Labs, wysnuł hipotezę, że problem może wynikać z jego wcześniejszego udziału w testach nowych produktów Google. To rodzi pytania dotyczące zakresu zgody udzielanej przez użytkowników na wykorzystanie ich danych w ramach takich programów.
Incydent ten podkreśla istotne wyzwania związane z rozwojem sztucznej inteligencji, szczególnie w kontekście prywatności danych. W miarę jak technologia ta staje się coraz bardziej zaawansowana, ryzyko naruszenia prywatności rośnie. Dlatego kluczowe jest, aby firmy technologiczne działały z najwyższą przejrzystością i odpowiedzialnością, a także aby użytkownicy byli w pełni świadomi potencjalnych konsekwencji udostępniania swoich danych.
Czy AI zabierze nam naszą prywatność?
Niniejszy przykład powinien skłonić nas do większego nadzoru nad tym, jak chcemy, aby sztuczna inteligencja była rozwijana i wykorzystywana. Czy powinniśmy dążyć do stworzenia bardziej rygorystycznych ram prawnych dotyczących wykorzystywania danych przez firmy technologiczne? Czy powinniśmy wymagać od nich większej przejrzystości i odpowiedzialności za swoje działania?
To są pytania, na które musimy znaleźć odpowiedzi i to szybko. Ostatnie miesiące przynoszą coraz więcej afer dotyczących tego, jak nasze dane są najczęściej używane do trenowania modeli AI bez naszej wyraźnej zgody. Myślę, że opcjonalny opt-in, zezwalający na wykorzystywanie naszych danych do trenowania bądź nie, byłby dobrym punktem startowym.
Jakie jest wasze zdanie? Dajcie znać w komentarzach!
Żródło: tom’s Hardware
Autorem wpisu jest Krzysztof Żwirski