9 wyzwań związanych z uczeniem maszynowym

W jakich sytuacjach jest już wykorzystywane uczenie maszynowe? Czy można oszukać system? Czy czeka nas bunt maszyn? Dziś odpowiadamy na wiele pytań związanych ze sztuczną inteligencją.

Dzięki sztucznej inteligencji (ang. Artificial Intelligence, AI) czeka nas wspaniała przyszłość, jednak jeszcze wiążę się z nią wiele pytań, a większość z nich dotyczy kwestii moralnych i etycznych. W jakich sytuacjach jest już wykorzystywane uczenie maszynowe? Czy można oszukać system? A jeśli tak, to czy jest to trudne? Czy powstanie prawdziwy Skynet i czeka nas bunt maszyn? Zobaczmy.

Silna i słaba sztuczna inteligencja

Najpierw musimy powiedzieć sobie o dwóch koncepcjach: silnej i słabej sztucznej inteligencji. Silna AI to hipotetyczna maszyna, która jest zdolna do samodzielnego myślenia i ma świadomość własnej egzystencji. Może rozwiązać nie tylko dostosowane do niej zadania, ale również uczyć się nowych rzeczy.

Słaba AI już istnieje. To aplikacje utworzone w celu rozwiązywania określonych problemów, takich jak rozpoznawanie obrazów, kierowanie samochodami, gra w Go itd. Słabą sztuczną inteligencję nazywamy „uczeniem maszynowym”.

Jeszcze nie wiemy, czy silna sztuczna inteligencja może powstać. Badania przeprowadzone przez ekspertów sugerują, że będziemy musieli czekać kolejne 45 lat. Można więc powiedzieć, że „kiedyś” to się wydarzy. Eksperci twierdzą również, że energia termojądrowa zostanie skomercjalizowana w ciągu 40 lat — i dokładnie tak samo mówili 50 lat temu.

Problemy

Nadal nie wiadomo, kiedy powstanie silna AI. Jednak jej słabszą odmianę już mamy do dyspozycji i wykorzystujemy ją w wielu obszarach, a każdego roku wprowadzana jest gdzieś indziej. Uczenie maszynowe umożliwia nam wykonanie zadań praktycznych bez tradycyjnego programowania — uczy się na podstawie przykładów.

Ponieważ to my uczymy systemy rozwiązywania konkretnych problemów, wynikowy model matematyczny — czyli to, co nazywamy algorytmem „uczącym się” — nie może nagle zechcieć zniewolić (lub uratować) ludzkości. Innymi słowy nie musimy się obawiać scenariusza z systemem Skynet w roli głównej ze strony słabej sztucznej inteligencji. Jednak nie oznacza to, że nie istnieją jakieś odchylenia od tego tematu.

  1. Złe intencje

Jeśli nauczymy jakąś armię dronów zabijania ludzi przy wykorzystaniu uczenia maszynowego, czy można tu mówić, że rezultat miał charakter etyczny?

W zeszłym roku wybuchł wokół tego tematu mały skandal. Google tworzy oprogramowanie wykorzystywane w projekcie wojskowym o nazwie Project Maven, w którym używane są drony. W przyszłości może to pomóc w tworzeniu całkowicie niezależnych systemów broni.

W efekcie 12 pracowników firmy Google zrezygnowało w ramach protestu, a kolejne 4000 podpisały się pod petycją, w której żądają od firmy zerwania kontraktu z wojskiem. Ponad 1000 znanych naukowców działających w obszarze sztucznej inteligencji, etyki i IT wystosowało do Google’a list otwarty, w którym proszą firmę o porzucenie realizacji wspomnianego projektu i wsparcie międzynarodowej umowy, która zakazałaby rozwijania autonomicznej broni.

  1. Błąd programisty

Nawet jeśli programiści tworzący algorytmy dla uczenia maszynowego nie mają złych zamiarów, wielu z nich chce zarabiać — zatem ich algorytmy powstają po to, aby przynosić im korzyści, a niekoniecznie po to, aby czynić dobro dla społeczności. Niektóre algorytmy medyczne mogą zalecać drogie leczenie zamiast tego, które będzie miało najlepszy skutek dla danego pacjenta.

Czasami ludzie nie są zainteresowani algorytmem, który ma stanowić wzór moralny. Na przykład istnieje zależność między prędkością poruszania się a wskaźnikiem śmiertelności w wypadkach samochodowych. Moglibyśmy zaprogramować autonomiczne samochody tak, aby jechały nie szybciej niż 25 km/h, co prawdopodobnie wyeliminowałoby ofiary śmiertelne w wypadkach drogowych. Jednak wiązałoby się to z odrzuceniem innych korzyści związanych z jazdy samochodem.

  1. Parametry systemu nie zawsze uwzględniają kwestie etyczne

Komputery nie mają żadnego pojęcia o etyce. Jakiś algorytm może na przykład zostać wykorzystany do ustalenia budżetu krajowego w celu „maksymalizacji PKB/produktywności pracy/długości życia”, jednak jeżeli w modelu nie zostaną zastosowane ograniczenia etyczne, może on wyeliminować budżet dla szkół, hospicjów i środowiska, ponieważ bezpośrednio nie zwiększają one PKB.

W szerszej perspektywie algorytm taki może zdecydować o zwiększeniu produktywności poprzez odrzucenie osób, które nie są zdolne do pracy.

Nasuwają się tu wnioski, że kwestie etyczne należy uwzględniać od samego początku powstania idei.

  1. Etyka jako pojęcie względne

Etyka zmienia się wraz z biegiem czasu, czasami dzieje się to bardzo szybko. Na przykład podejście do praw środowiska LGBT, różnorodności ras czy zawarcia małżeństwa dwóch osób należących do różnych warstw społecznych może ulec całkowitej zmianie na przestrzeni jednego pokolenia.

Zasady etyczne mogą być również inne w różnych grupach w obrębie tego samego kraju, nie wspominając o różnych krajach. Na przykład w Chinach normą jest już wykorzystywanie rozpoznawania twarzy dla celów masowego nadzoru. Pozostałe kraje mogą mieć zupełnie odmienne podejście do tej kwestii, a decyzja może zależeć od sytuacji.

Znaczenie ma również klimat polityczny. Na przykład wojna z terroryzmem znacząco — i niezwykle szybko — zmieniła w wielu krajach niektóre normy etyczne i ideały.

  1. Uczenie maszynowe zmienia ludzi

Systemy uczenia maszynowego — zaledwie jeden przykład sztucznej inteligencji, który ma bezpośredni wpływ na ludzi — polecają nowe filmy na podstawie tego, jak użytkownik ocenił inne filmy, oraz biorąc pod uwagę preferencje innych użytkowników. Niektóre systemy działają całkiem niezłe.

Z biegiem czasu system polecający filmy zmienia czyjeś preferencje i znacząco zawęża wybór. Gdy nie korzystamy z tego mechanizmu, czasami trafiamy na nietrafione filmy lub gatunki; a dzięki tej sztucznej inteligencji każdy film jest trafiony w dziesiątkę. Na koniec przestajesz się zastanawiać i poddajesz się podpowiedziom.

Co ciekawe, nawet nie zauważamy, kiedy algorytmy nami manipulują. Przykład związany z filmami nie jest straszny, ale jeśli przeniesiemy ten schemat na obszar informacji i propagandy…

  1. Fałszywe powiązania

Fałszywe powiązania pojawiają się, gdy całkowicie niezależne od siebie rzeczy wykazują bardzo podobne zachowanie, które mogą sprawiać wrażenie, że są w jakiś sposób ze sobą związane. Na przykład czy wiedzieliście, że spożycie margaryny w Stanach Zjednoczonych silnie koreluje z liczbą rozwodów w stanie Maine?

Oczywiście ludzie polegający na osobistym doświadczeniu i ludzkiej inteligencji natychmiast uznają, że bezpośredni związek między tymi dwoma aspektami jest bardzo nieprawdopodobny. Model matematyczny nie ma takiej wiedzy — on się tylko uczy i generalizuje dane.

Dobrze znanym przykładem jest program, który przypisuje pacjentom pilną pomoc medyczną. Zdecydował on, że pacjenci z astmą, którzy mieli zapalenie płuc, nie potrzebowali pomocy w trybie szybszym niż pacjenci z zapaleniem płuc, ale bez astmy. Program ten brał pod uwagę dane i wywnioskował, że pacjenci z astmą byli mniej zagrożeni śmiercią, przez co nie powinni być traktowani priorytetowo. W rzeczywistości odsetek śmierci był niższy właśnie dlatego, że zawsze otrzymywali oni natychmiastową pomoc w punktach opieki medycznej, ponieważ istniało wysokie ryzyko związane z ich stanem.

  1. Pętle przyczynowo-skutkowe

Gorsze od fałszywych korelacji są pętle przyczynowo-skutkowe. Mowa tu o sytuacjach, w których decyzje podejmowane przez algorytm mają skutki w świecie rzeczywistym, co z kolei przekonuje go, że były właściwe.

Na przykład program zapobiegania przestępstw w Kalifornii sugerował, że policja powinna wysyłać więcej osób do dzielnic afroamerykańskich ze względu na duży odsetek przestępstw. Jednak większa liczba policyjnych samochodów w okolicy spowodowała, że lokalni mieszkańcy częściej zgłaszali przestępstwa (a czasami ktoś się tam pojawiał tylko dlatego, aby zgłosić jakiś incydent). W efekcie oficerowie pisali więcej protokołów i raportów, co zwiększyło współczynnik przestępczości — czyli należało tam wysyłać jeszcze więcej oficerów.

  1. „Zanieczyszczone” lub „zatrute” dane referencyjne

Efekty uczenia algorytmów zależą w dużej mierze od danych referencyjnych, na podstawie których przeprowadzane jest uczenie. Może się okazać, że dane te były złe i zniekształcone, czy to przypadkiem, czy poprzez czyjś szkodliwy zamiar (w tym drugim przypadku nazywa się to „zatruciem” danych).

Jeśli dane użyte jako próbka treningowa dla algorytmu odpowiedzialnego za zatrudnianie ludzi została uzyskana od firmy, która stosuje praktyki rasistowskie, algorytm także będzie działał na zasadach razimu. Tak właśnie powstają problemy, których źródło leży w danych referencyjnych.

Kiedyś Microsoft nauczył czatbota komunikacji w serwisie Twitter i każda osoba mogła z nim porozmawiać. Jednak okazało się, że firma musiała wyłączyć taką możliwość po niecałych 24 godzinach, ponieważ mili użytkownicy internetu szybko nauczyli bota przeklinać i recytować fragmenty książki „Moja walka” (Mein Kampf) autorstwa Adolfa Hitlera.

https://twitter.com/geraldmellor/status/712880710328139776/photo/1

To doskonały przykład zatrucia danych wykorzystywanych do uczenia maszynowego. Model matematyczny używany w laboratorium analizy wirusów komputerowych przetwarza średnio milion plików dziennie, zarówno tych neutralnych, jak i szkodliwych. Z racji tego, że krajobraz zagrożeń nieustannie się zmienia, zmiany modelu są dostarczane do produktów zainstalowanych po stronie klienta w postaci aktualizacji antywirusowych baz danych.

Niestety haker może generować szkodliwe pliki bardzo podobne do tych nieszkodliwych i wysyłać je do laboratorium. Takie działanie stopniowo zaciera granicę między plikami nieszkodliwymi a szkodliwymi — w efekcie model może zacząć wywoływać fałszywe alarmy.

Z tego powodu Kaspersky Lab stosuje model ochrony wielowarstwowej i nie polega wyłącznie na uczeniu maszynowym. Nasi eksperci antywirusowi zawsze monitorują, co robi system.

  1. Oszukiwanie

Nawet dobrze funkcjonujący model matematyczny — ten, który wykorzystuje poprawne dane — może zostać oszukany, jeśli ktoś wie, jak on działa. Na przykład grupa badaczy rozpracowała, jak można oszukać algorytm rozpoznawania twarzy przy użyciu specjalnych okularów, które minimalnie zniekształcają obraz, całkowicie zmieniając rezultat.

Zakładając okulary z oprawkami w specjalnym kolorze, badacze oszukali algorytm rozpoznawania twarzy, który brał ich za kogoś innego

System można z łatwością oszukać nawet w codziennych sytuacjach, które nie są jakoś szczególnie skomplikowane, przy użyciu metod nieznanych dla niewtajemniczonych.

Pierwsze trzy znaki zostały rozpoznane jako znaki ograniczenia prędkości do 45 km/h, a ostatni jako znak STOP

Co więcej, aby oszukać model matematyczny uczenia maszynowego, zmiany nie musza być znaczące — wystarczą minimalne zmiany, niedostrzegalne dla oka człowieka.

Dodanie niewielkiego szumu do obrazka pandy po lewej skutkuje uznaniem jej za gibona

Dopóki ludzie nadal są inteligentniejsi niż większość algorytmów, będą mogli je oszukiwać. W najbliższej przyszłości uczenie maszynowe, które analizuje bagaż na lotnisku przy użyciu promieni rentgenowskich w poszukiwaniu broni, może zostać przechytrzone przez sprytnego terrorystę, który może umieścić obok broni obiekt o określonym kształcie, dzięki czemu stanie się ona niewidoczna.

Kogo za to winić i jak postępować

W 2016 roku administracja Obamy, Big Data Working Group, ujawniła raport, w którym ostrzegano przed potencjalnym stosowaniu dyskryminacji w decyzjach podejmowanych automatycznie. Raport ten poruszał również kwestię tworzenia algorytmów, które z założenia mają postępować zgodnie z zasadami równych szans.

Łatwiej powiedzieć niż zrobić.

Po pierwsze, modele matematyczne uczenia maszynowego są trudne do testowania i naprawy. My oceniamy zwykłe programy krok po kroku i wiemy, jak je testować, jednak w przypadku uczenia maszynowego wszystko zależy od rozmiaru próbki uczącej, która nie może ona być nieskończona.

Na przykład aplikacja Google Photo była używana do rozpoznawania i oznaczania czarnoskórych osób jako goryli. Poważnie! Jak nietrudno przewidzieć, wywołało to skandal, a Google obiecało naprawić algorytm. Jednak po trzech latach firmie nie udało się nic poprawić, więc wprowadziła ona zakaz oznaczania dowolnych obiektów w obrazach jako goryli, szympansów lub małp.

Po drugie, trudno zrozumieć i wyjaśnić decyzje algorytmów uczenia maszynowego. Sieć neuronowa rozmieszcza w sobie ważone współczynniki w celu uzyskania prawidłowych odpowiedzi — jednak jak to się dzieje? I co można zrobić w celu zmiany odpowiedzi?

Badanie z 2015 roku pokazało, że kobiety znacznie rzadziej niż mężczyźni widzą reklamy Google AdSense promujące dobrze płatne posady. Z kolei oferowana przez firmę Amazon usługa dostarczania tego samego dnia jest często niedostępna w dzielnicach afroamerykańskich. W obu przypadkach przedstawiciele firmy nie potrafili wyjaśnić decyzji, które zostały podjęte przez ich algorytmy.

Ponieważ w tych sytuacjach trudno jest znaleźć winnych, musimy wymyślić nowe zasady i prawa etyczne, których mają przestrzegać roboty. W maju 2018 roku w Niemczech po raz pierwszy przyjęto zasady etyczne przeznaczone dla autonomicznych samochodów. Wśród nich znajdują się między innymi poniższe postulaty:

  • Bezpieczeństwo ludzi ma wyższy priorytet niż bezpieczeństwo zwierząt czy uszkodzenie przedmiotów.
  • Jeśli zdarzenie jest nieuchronne, nie można stosować dyskryminacji; niedopuszczalne są czynniki rozróżniające ludzi.

Jednak to, co jest dla nas najistotniejsze:

  • Systemy automatycznego kierowania pojazdami staną się imperatywem etycznym, jeśli spowodują mniej wypadków niż żywi kierowcy.

Oczywiste jest, że coraz bardziej będziemy polegać na uczeniu maszynowym, gdyż będzie ono zarządzało wieloma zadaniami znacznie lepiej niż ludzie. Dlatego ważne jest, aby pamiętać o tych zasadach i możliwych problemach, próbować przewidywać wszystkie możliwe problemy na etapie tworzenia i pamiętać o monitorowaniu skuteczności algorytmów, gdy coś działa nie tak, jak powinno.

Porady