Dlaczego samo uczenie maszynowe nie wystarczy

Technologie wykorzystujące internet coraz mocniej zakorzeniają się w naszym życiu codziennym. Coraz bardziej naturalne wydaje nam się pytanie Siri, Alexy czy Google’a o sprawy związane z tym, co do tej

Technologie wykorzystujące internet coraz mocniej zakorzeniają się w naszym życiu codziennym. Coraz bardziej naturalne wydaje nam się pytanie Siri, Alexy czy Google’a o sprawy związane z tym, co do tej pory było domeną człowieka, a od samochodów oczekujemy, że będą reagować na zasady ruchu drogowego na tyle szybko, abyśmy nie ucierpieli. Niektórych wciąż martwią takie technologie jak kamery publiczne przekazujące obraz do oprogramowania służącego do rozpoznawania twarzy.

Sztuczna inteligencja wciąż popełnia wiele błędów, a w większości są one dosyć zabawne (pomijając te, które potencjalnie mogą być śmiertelne). Według nas rozwój maszyn i ewolucja szkodliwych programów wkrótce ulegnie zmianie. Dziś przyjrzymy się wybranym sytuacjom.

Domki dla lalek

Ten przykład jest już zaliczany do klasyki. W tym roku program informacyjny nadawany w Kalifornii wywołał reakcję łańcuchową. Był to nieszczęśliwy zbieg okoliczności, w którym sztuczna inteligencja spotkała się z inną sztuczną inteligencją. Mówiąc w skrócie, podanie informacji o tym, że technologia Amazon Echo pomyłkowo zamówiła domek dla lalek, spowodowało zamówienie kolejnych domków przez kolejne głośniki Amazon Echo (które jak zwykle uważnie podsłuchiwały wszystko i nie rozróżniły głosu właściciela od innych głosów). Może lepiej nie odtwarzaj tego nagrania w swoim domu.

Klapa sieci fastfoodowej

Ten sam błąd chciał wykorzystać Burger King, wywołując reakcję asystentów głosowych na słowa wypowiedziane w reklamie. Na swój sposób sieć odniosła sukces. Prawdziwym problemem okazało się działanie ze strony ludzi: aktywując wyszukiwanie Whoppera na stronie Wikipedii przy użyciu głośnika Google Home, fastfoodowy gigant miał nadzieję, że użytkownicy będą trafiać stronę poświęconą słynnej kanapce. I rzeczywiście tak się stało.

Zmieszanie Cortana

Asystent głosowy od firmy Microsoft nie jest jedyny — błędy popełnia również Siri od Apple, a także asystent Google’a. Jednak zawsze najbardziej bawi to, gdy nowe funkcje zawodzą w obliczu tłumu. Tu wyglądało to tak, jakby Cortana nie rozumiała akcentu innego niż amerykański — a może zapętlenie wywołała u niej szybki, naturalny sposób mówienia.

Oszustwo w rozpoznawaniu twarzy

Twoi znajomi pewnie nie daliby się zwieść dziwnym lub zabawnym okularom. Tymczasem zespół badaczy na uniwersytecie Carnegie Mellon University udowodnił, że zmiana w wyglądzie wystarczy, aby w oczach maszyn uczynić z kogoś zupełnie inną osobę. Najlepsze jest to, że badaczom udało się nie tylko oszukać rozpoznawanie twarzy, ale także podszyć się pod konkretne osoby, nanosząc na oprawki okularów określone wzory.

Wpadka z rozpoznawaniem znaków drogowych

A co z rozpoznawaniem znaków przez autonomiczne samochody? Czy działa ono lepiej od rozpoznawania twarzy? Niestety nie. Jak udowodniła inna grupa badaczy, mechanizm odpowiedzialny za rozpoznawanie znaków również popełnia błędy. Niewielkie zmiany, które każdy człowiek przyjąłby bez problemu, powodowały, że system uczenia maszynowego błędnie zaklasyfikował znak „STOP” jako ograniczenie prędkości do 45 km/h. Co więcej, nie jest to losowy błąd, gdyż wystąpił on w 100% w warunkach testowych.

Niewidzialna panda

W jakim stopniu trzeba zmienić dane wejściowe, aby oszukać uczenie maszynowe? Zaskakująco niewielkim. Dla ludzkiego oka nie ma różnicy między dwoma poniższymi obrazkami, tymczasem maszyna była niemal pewna, że były to całkowicie inne obiekty — panda i gibon (co ciekawe, szum, który dodano do oryginalnego zdjęcia, maszyna rozpoznaje jako nicienie).

Okropna Tay

W eksperymencie z czatbotem od Microsoftu sztuczna inteligencja o nazwie Tay.ai miała naśladować nastoletnią dziewczynę i nauczyć się od niej interakcji w mediach społecznościowych. Okazało się, że my, ludzie, jesteśmy potworami — więc stała się nim także Tay. Sztuczna inteligencja może się rozwinąć, ale jej jakość i cechy charakterystyczne zależą w dużej mierze ludzi.

Najgorsza porażka i być może najbardziej znana przydarzyła się Tesli — ale tu nie możemy winić sztucznej inteligencji, która mimo swojej nazwy, Autopilot, nie była odpowiedzialna za kierowanie. Według analizy osoba siedząca jako kierowca rzeczywiście nie nadawała się do tej roli, ignorując komunikaty o położeniu rąk na kierownicy, ustawiając tempomat powyżej ograniczenia prędkości i nie podejmując działań w ciągu 7 sekund lub dłużej, aż ostatecznie doszło do zderzenia z ciężarówką.

Autopilot mógł zapobiec wypadkowi — rozpoznał jej lokalizację i kolory — ale na chwilę obecną wiadomo, że zgodnie z założeniami nie przekroczył on swoich parametrów pracy.

Sztuczna inteligencja korzystająca z uczenia maszynowego, w którym oprogramowanie staje się lepsze w drodze doświadczenia, nie może się zbliżyć do poziomu ludzkiej inteligencji. Komputery są szybkie, logiczne i pracują bez wysiłku, co wspaniale uzupełnia ludzką intuicję i spryt.

Dlatego nasze podejście, które nazwaliśmy HuMachine, korzysta z zalet obu światów: szybką i drobiazgową sztuczną inteligencję zastosowaną w zaawansowanym oprogramowaniu łączymy ze znakomitymi zawodowcami w dziedzinie cyberbezpieczeństwa, którzy potrafią wykorzystać ją do zwalczania szkodliwych programów, zapewniając konsumentom, firmom i systemom bezpieczeństwo pracy.

Porady