Mimo że omawialiśmy już wybrane poważne problemy, jakie wiążą się ze sztuczną inteligencją w jej obecnej postaci, ludzie nadal powierzają bardzo istotne sprawy asystentom-robotom. Samouczące się systemy pomagają już sędziom i doktorom w podejmowaniu decyzji, a nawet mogą przewidzieć przestępstwa, których jeszcze nie popełniono. Użytkownicy takich systemów często niechętnie udzielają informacji, co wpływa na podejmowaną przez nich decyzję.
Pomoc w sądzie
W amerykańskich sądach sztuczna inteligencja bierze udział w procesie podejmowania decyzji obejmujących wyroki skazujące, środki zapobiegawcze czy okoliczności łagodzące. Analizując odpowiednie dane, system sztucznej inteligencji bada, czy podejrzany wykazuje tendencję do recydywy, a decyzja ta może zmienić okres próbny na wyrok lub odrzucić możliwość zwolnienia za kaucją.
Na przykład mieszkaniec Stanów Zjednoczonych Eric Loomis został skazany na sześć lat więzienia za prowadzenie auta, w którym pasażer strzelał do budynków. Orzeczenie zostało oparte na algorytmie COMPAS, który szacuje zagrożenie stwarzane przez daną osobę wobec społeczeństwa. W COMPAS-ie uwzględniono dane profilowe pozwanego i prześledził zapisy prawne, a następnie zidentyfikował go jako „osobę, która stwarza duży stopień zagrożenia dla społeczeństwa”. Obrona zakwestionowała tę decyzję, gdyż działanie algorytmu nie zostało ujawnione, co umożliwiałoby oszacowanie uczciwość tych wniosków. Sąd odrzucił ten argument.
Elektroniczne jasnowidze: przewidywanie przestępstw z pomocą sztucznej inteligencji
Niektóre regiony Chin zaczęły wykorzystywać sztuczną inteligencję do identyfikowania potencjalnych przestępców. Kamery zdolne do rozpoznawania twarzy monitorują społeczeństwo i zgłaszają organom ścigania, jeśli zauważą coś podejrzanego. Na przykład osoba, która kupi duże ilości nawozu, może przygotowywać atak terrorystyczny. Każda osoba uznana za podejrzaną może trafić do aresztu lub obozu reedukacji.
Technologia ostrzegania przed przestępstwami jest rozwijana również w innych krajach. Policja w niektórych częściach Stanów Zjednoczonych i Wielkiej Brytanii używa technologii do przewidywania, w którym miejscu najprawdopodobniej wystąpi kolejny incydent. Pod uwagę branych jest wiele czynników: historia kryminalna obszaru, jej status społeczno-ekonomiczny, a nawet prognozy pogody. Co ciekawe, od chwili zastosowania tego narzędzia w dzielnicach Chicago liczba przestępstw z użyciem broni spadła tam o około jedną trzecią.
Teraz obejrzy Cię komputer
Nowe technologie są również powszechnie stosowane w służbie zdrowia. Sztuczni lekarze przyjmują pacjentów, stawiają diagnozy, analizują wyniki badań ogólnych i asystują chirurgom podczas operacji.
Jednym z najbardziej znanych samouczących się systemów w służbie zdrowia jest IBM Watson Health. Lekarze uczą sztuczną inteligencję w zakresie diagnozowania chorób i zalecania odpowiedniej terapii. Watson Health ma wiele pozytywnych opinii. Na przykład w 2013 roku szansa, że ten superkomputer wybierze optymalny plan leczenia, wynosiła 90%.
Jednak latem 2018 roku ujawniono, że część porad udzielanych przez system leczenia raka nie była bezpieczna. Watson zalecał na przykład, aby pacjentom chorującym na raka, u których nastąpiło duże krwawienie, podać lek, który mógłby spowodować jeszcze większą utratę krwi. Na szczęście scenariusze te były hipotetyczne, a nie prawdziwe.
Oczywiście lekarze-ludzie również popełniają błędy, ale jeśli w podejmowaniu decyzji udział bierze sztuczna inteligencja, odpowiedzialność się rozprasza. Czy lekarz z krwi i kości zaryzykuje podważenie opinii cyfrowego kolegi, który powstał w oparciu o setki tysięcy naukowych artykułów, książek i studium przypadku? A jeśli nie, czy lekarz poniesie jakiekolwiek negatywne konsekwencje?
Wszystko musi być transparentne
Jednym z największych problemów, jeśli chodzi o używanie sztucznej inteligencji, jest podejmowanie decyzji o losach ludzkości, gdy wykorzystywane algorytmy są często niejasne. Ponadto szukanie przyczyn wystąpienia błędów, aby nie pojawiły się ponownie, nie jest wcale łatwe. Z punktu widzenia producentów samouczących się systemów jest to zrozumiałe: kto chce dzielić się swoją wiedzą z potencjalną konkurencją? Ale czy w sytuacji, gdy na szali leży życie człowieka, tajemnice handlowe mają jakieś znaczenie?
Politycy na całym świecie próbują opanować ten problem poprzez ustanawianie prawa regulującego transparentność sztucznej inteligencji. W Unii Europejskiej „podmioty danych” mają prawo wiedzieć, na jakiej podstawie decyzje podejmowane przez sztuczną inteligencję mają wpływ na ich sprawy. Podobną droga podąża Japonia, jednak tu odpowiednie przepisy prawne są dopiero omawiane.
Niektórzy producenci opowiadają się za przejrzystością, ale jest ich zbyt mało. Jedną z takich firm technologicznych jest CivicScape, która w 2017 roku udostępniła kod źródłowy swojego systemu do przewidywania z możliwością wykorzystania w policji. Niestety na tę chwilę jest to wyjątek, a nie zasada.
Teraz, gdy sztuczna inteligencja staje się coraz powszechniej wykorzystywana, raczej małe są szanse na to, że z niej zrezygnujemy. Dopóki decyzje podejmowane w oparciu o sztuczną inteligencję nie będą sprawiedliwe i dokładne, jej użytkowanie muszą regulować dobrze przemyślane przepisy prawne oraz kompetencje zarówno twórców, jak i użytkowników samouczących się systemów.