Sztuczna inteligencja mądrzejsza od nas? /123RF/PICSEL
Kiedyś dawno, dawno temu do konfesjonału przychodził chłop, a ksiądz mówił mu, jak ma postępować. Chłop słuchał się mniej albo bardziej. Niektórzy dziś jeszcze tak robią. Czy w przyszłości konfesjonał zastąpi czarna skrzynka wyposażona w sztuczną inteligencję? Są tacy, którzy uważają, że to byłoby najlepsze rozwiązanie.
Sztuczna inteligencja ma się już dziś nieźle, choć to dopiero jej początki. Fascynuje zwłaszcza finansistów, bo dla ich najważniejsze jest, żeby nikt nie ukradł zdeponowanych w banku pieniędzy czy nie wyłudził ubezpieczenia. Dzięki sztucznej inteligencji można zapobiegać takim przestępstwom - służą do tego systemy antyfraudowe. Potrafią one wyłowić z milionów transakcji te podejrzane i po prostu je zablokować. Ale to nie koniec zastosowania sztucznej inteligencji. Można jej użyć do zarządzania całymi społeczeństwami i wdrażaniu społecznego systemu wartości.
To już się dzieje
W końcu 2016 roku Chiny wprowadziły pilotażowo cyfrowy system oceny obywateli. W 2020 roku ma się on stać powszechny, to znaczy obejmować wszystkich mieszkańców kraju. Systemem Zaufania Społecznego polega na tym, że każdy - na podstawie danych, jakie pozostawia o sobie w sieci - zostanie przypisany do pewnej - lepszej lub gorszej - kategorii. Będą więc obywatele najlepsi, mający przywileje, i obywatele najgorsi.
W Chinach wprowadzenie takiego systemu - zadekretowane przez tamtejsze władze już w 2014 roku - jest możliwe i stosunkowo proste, choć mieszka tam niemal 1,4 mld osób. Dlaczego? Państwo kontroluje Internet. A Internet, a zwłaszcza Internet mobilny, już teraz jest podstawowym narzędziem załatwiania zdecydowanej większości życiowych spraw przez Chińczyków.
Celem chińskich władz jest, aby do 2020 roku o każdym obywatelu zebrać dane pozwalające na umieszczenie go w odpowiedniej kategorii. Do rządowego programu przystąpili giganci tamtejszego rynku usług sieciowych - Sesame Credit, czyli należąca do Alibaby firma udzielająca przez Internet kredytów na zakup towarów w sklepach tego portalu, drugi potentat rynku kredytowego Tencent Credit oraz dostawca komunikatora oraz systemu płatności WeChat. To oni mają zbierać ślady pozostawione przez obywateli w sieci.
Co ważne, widać wyraźnie, że władza idzie tu ręka w rękę z instytucjami systemu finansowego.
System ten był do niedawna - jak na europejskie standardy - stosunkowo zacofany. Tamtejsze banki, na przykład, nie wypracowały modeli scoringowych, którymi dla oceny zdolności kredytowej posługują się nasze instytucje. W modelach scoringowych brane są pod uwagę takie dane, jak wysokość dochodów, wiek, okres zamieszkiwania pod jednym adresem, okres zatrudnienia, wysokość zaciągniętych zobowiązań itp. To twarde dane, którym przydzielane są punkty w odpowiedniej wysokości. Suma tych punktów odpowiada ocenie zdolności kredytowej.
Chińczycy "przeskoczyli" epokę scoringu
Państwo Środka zaczęło korzystać od razu z "miękkich" danych, pozostawianych przez obywateli w sieci, czyli z tzw. big data. To na ich podstawie - zdaniem ludzi zajmujących się analizą takich danych - możemy zbudować o wiele bardziej precyzyjny portret bliźniego niż na podstawie tych, których używa się w scoringach. A narzędziem do tego narysowania takiego portretu jest właśnie sztuczna inteligencja.
Sztuczna inteligencja służy do analizy danych. Ogromne zestawy pojedynczych informacji trafiają do "czarnych skrzynek", a tam ich obróbką zajmują się sieci neuronowe. Co to takiego? Pewnego rodzaju matematyczny wzorzec mózgu, choć - jak na razie - znacznie mniej skomplikowany od ludzkiego narządu. Na razie są to zwykle trzy warstwy - danych wejściowych, komórek je przetwarzających oraz wyników. Ale warstw w zasadzie może być nieskończenie wiele. Komórki mają wypustkę służącą pobieraniu danych i dostarczaniu wyniku.
Kłopot polega na tym, że nawet gdybyśmy mogli zajrzeć do wnętrza "czarnej skrzynki", nie za bardzo będziemy wiedzieli co się tam dzieje. I to nie tylko my, laicy. Także ludzie, którzy programują ich pracę. Sztuczna inteligencja ogłosi wynik, ale nie wyjaśni nam dlaczego wyszedł taki, a nie inny. A co więcej - ostatnio naukowcy doszli do przekonania, że ostateczny wynik, jaki "wypluwa" czarna skrzynka jest tym bardziej trafny, im mniej jesteśmy w stanie naszym ludzkim rozumem go uzasadnić.
- Im większa dokładność (wyniku), tym mniejsza interpretowalność - mówił podczas jesiennego Kongresu Antyfraudowego Konferencji Przedsiębiorstw Finansowych Mateusz Pikosz z firmy Finalyse, zajmującej się miedzy innymi tworzeniem sieci neuronowych dla oceny ryzyka kredytowego.
- Jest coraz więcej coraz bardziej skutecznych algorytmów, natomiast coraz mniej interpretowalnych - dodała Marta Prus-Wójciuk z firmy SAS, dostawcy rozwiązań inżynierii matematycznej, w tym systemów antufraudowych. Z systemu SAS przeciwdziałającego wyłudzeniom korzysta m.in. największy polski bank PKO BP.
Sztuczna inteligencja mądrzejsza od nas?
Na pewno sztuczna inteligencja wiele obiecuje. Niektórzy uważają, że jeśli zaufamy jej wyrokom, może zapewnić nam poczucie pewność i bezpieczeństwa. I o to zapewne chodzi chińskim władzom zarządzającym ogromnym państwem, różnorodnym społeczeństwem przechodzącym nieprawdopodobnie szybką transformację. O to samo chodzi też twórcom systemów antyfraudowych, które mają ostrzegać przed przestępcami. Z tego powodu sztuczna inteligencja ma przed sobą przyszłość. Choć nie do końca pewną.
- Niektórzy nie chcą przestawić się na myślenie - nie rozumiem, ale ci ufam - mówiła Marta Prus-Wójciuk.
Bo są też ludzie, którzy po prostu wyrokom czarnych skrzynek nie chcą uwierzyć i mają ku temu powody. Bo sztuczna inteligencja jest niestety podatna na manipulację. Budzi obawy, że może być używana do tego, żeby niektórych dyskryminować. I w zasadzie tak się dzieje w Chinach - tam nieprzestrzegający zasad współżycia społecznego trafiają do najgorszej kategorii.
W przypadku banków jest to jak najbardziej oczywiste i racjonalne - chodzi tam przecież o "dyskryminowanie" przestępców - o tyle w wielu innych sytuacjach sprawa już nie jest taka prosta. Z tego powodu chiński system budzi wiele kontrowersji.
To, czy sztuczna inteligencja jest naprawdę inteligentna, czy też nie, zależy ostatecznie od ludzi. Bo to ludzie ją karmią, podobnie jak domowe zwierzęta. Tylko nie karmą dla psów lub kotów (choć niektórzy gotują dla swoich czworonogów specjalne posiłki), lecz danymi. A do takich danych może na przykład należeć kolor skóry.
Co z tego może wynikać? Jeśli sztuczną inteligencję odpowiednio dobranymi danymi nakarmią rasiści - będzie ona rasistowska. Mówi o tym przypadek, jaki wydarzył się kilka lat temu na jednym z amerykańskich prestiżowych uniwersytetów. Grupa kilku studentów została tam poddana testom - jak oceni ich wróżka z czarnej skrzynki wyposażonej w neuronową sieć. Co o nich powie? Co ważne - w grupie tej były dwie osoby o ciemnym kolorze skóry. I właśnie czarnoskóra studentka usłyszała na swój temat - "siedzisz w więzieniu". Na nią popadło.
Sztuczna inteligencja zachowała się całkowicie zgodnie z tym, jakie dane zostały jej dostarczone. A dostarczono jej dane - prawdziwe zresztą - że blisko połowę więźniów w USA stanowią Afroamerykanie. A dlaczego akurat te dane wykorzystała do oceny studentki? Tego nie wiemy. Ważne jest natomiast, że w zależności od tego, czy ludzie nakarmią sztuczną inteligencję, takie otrzymają wyniki. Jeśli nakarmią ją stereotypami lub uprzedzeniami - będzie je tylko powielać.
Dyskryminacji przez sztuczną inteligencję - przynajmniej pod kilkoma względami - ma zapobiegać unijne rozporządzenie o ochronie danych osobowych RODO. Zabrania ono na przykład przetwarzania danych "wrażliwych", czyli dotyczących rasy, wyznania czy preferencji seksualnych. Ale nie znaczy to, że wśród miękkich danych, pozyskiwanych z Internetu nie znajdą się i takie, które to ujawniają. Powinny być oczywiście natychmiast usuwane. Ale czy faktycznie będą? I czy nikt ich nie wykorzysta przeciw nam?
- Żeby efektywnie zastosować sztuczną inteligencję potrzebujemy dużej ilości danych wysokiej jakości (...) Najważniejsze, żeby zbudować dopływ takich danych do modelu - mówił Mateusz Pikosz.
Sterowaniem tym, jakie dane będą trafiać do neuronowych sieci, zajmują się ludzie. W ten sposób mają wpływ na ostateczny wynik. Jeśli bank używa sztucznej inteligencji do tego, żeby mieć do swojego klienta zaufanie, to klient ma prawo także zadać sobie pytanie - czy mogę mieć zaufanie do mojego banku. Bo dobrze, jeśli sztuczna inteligencja okaże się naprawdę skuteczna, ale najważniejsze, w czyich znajdzie się rękach.