Google pokaże, które obrazy są fałszywe i generowane przez AI

Następny artykuł

Jak donosi Bloomberg, Google dodaje dwie nowe funkcje do wyszukiwarki obrazów, aby ograniczyć szerzenie dezinformacji. To odpowiedź na szybki rozwój narzędzi opartych o sztuczną inteligencję, które ułatwiły tworzenie realistycznych, fałszywych obrazów. Pierwsza planowana przez Alphabet Inc. funkcja nosi nazwę „Informacje o tym obrazie”. Będzie pozwalać na uzyskanie dodatkowych danych np. o tym kiedy obraz lub podobne grafiki zostały zaindeksowane przez Google, a także gdzie pojawiły się online po raz pierwszy i gdzie jeszcze istnieją. Dzięki temu użytkownicy będą mogli zidentyfikować oryginalne źródło grafik oraz odnaleźć ewentualne informacje o fałszywych obrazach, gromadzone przez inne organizacje, np. agencje prasowe.

Google oznaczy w swoich narzędziach każdy obraz wygenerowany przez sztuczną inteligencję jako taki. Współpracuje też z innymi platformami i dostawcami usług, aby upewnić się, że oni także dodadzą te same znaczniki do publikowanych plików. Wśród dostawców, których Google zaangażowało w projekt są Midjourney i Shutterstock. Ostatecznym celem będzie zapewnienie, że wszystkie treści AI pojawiające się w wynikach wyszukiwania są odpowiednio oznaczone. Potwierdzanie pochodzenia i autentyczności obrazów online to rosnące wyzwanie w dobie rozwoju sztucznej inteligencji. Kilka startupów także pracuje nad stworzeniem narzędzi do weryfikacji i uwierzytelniania. Na przykład firma Truepic, wspierana przez Microsoft, oferuje systemy, które zapewniają, że obraz nie został w żaden sposób zmieniony, od momentu jego powstania, do dostarczenia odbiorcom.

Komentarz eksperta ESET na ten temat:

To ogromny krok do przodu w walce z dezinformacją i fałszywymi danymi pojawiającymi się w sieci. Wszelkie narzędzia stworzone w celu ograniczenia ryzyka wykorzystania obrazów i informacji w niewłaściwym kontekście, torują drogę do bezpieczniejszego i bardziej świadomego korzystania z Internetu. Zmanipulowane obrazy nie są niczym nowym, ale szybkość i łatwość ich tworzenia to obecnie ogromne zagrożenie. W obliczu braku narzędzi do weryfikowania autentyczności oraz regulacji na poziomie prawnym każda dodatkowa informacja, która pomoże użytkownikom podjąć właściwe decyzje – jest na wagę złota. Będą jednak na pewno także sposoby na obejście planowanych narzędzi, szczególnie poprzez używanie sztucznej inteligencji poza powszechnie znanymi platformami. Należy więc nadal zachowywać daleko posuniętą ostrożność, bo generowanie fałszywych obrazów to wciąż rozwijające się zagrożenie – komentuje Kamil Sadkowski, starszy specjalista ds. cyberbezpieczeństwa ESET.

Źródło: https://www.bloomberg.com/