Rynek

Wszystko, czego nie wiesz o sztucznej inteligencji (a boisz się zapytać)

Gertrūda Valasevičiūtė / Unsplash
Ponieważ wokół sztucznej inteligencji narosło sporo mitów, przyszedł najwyższy czas na ich rozbrojenie i oczyszczenie regulacyjnego przedpola. Wkrótce będzie o niej dyskutować Komisja Europejska.

19 lutego Komisja Europejska opublikuje tzw. white paper, czyli programowy dokument pokazujący możliwe podejścia Unii do sztucznej inteligencji (AI). Nie będzie to jeszcze regulacja, którą na pierwsze sto dni KE zapowiedziała Ursula von der Leyen, ale już konkretny materiał do dyskusji. Dla obywateli oznacza to dwie dobre wiadomości. Po pierwsze, brukselscy urzędnicy nie rezygnują z regulacji pod presją potężnego internetowego biznesu, a po drugie – nowe prawo nie będzie napisane na kolanie i w pośpiechu.

Unia chce regulować sztuczną inteligencję. Czyli?

Regulacja sztucznej inteligencji brzmi niemal tak samo enigmatycznie jak regulacja internetu i może oznaczać różne rzeczy. Jeśli KE uzna, że sama technologia – statystyczne metody analizowania danych, a w szczególności uczenie maszynowe – stała się problemem, bo przestaliśmy ją rozumieć i nie kontrolujemy jej skutków, będzie musiała zaproponować coś na kształt standardów BHP dla AI. Taka regulacja dotknęłaby każdej dziedziny życia społecznego, w której analizowane są dane.

Bardziej prawdopodobne wydaje się inne podejście: Unia zacznie od narzucenia standardów tym, którzy sztuczną inteligencję wykorzystują do podejmowania ważnych decyzji dotyczących innych ludzi. Jeśli KE pójdzie tą drogą, szybko napotka inny problem: odróżnienie decyzji ważnych od błahych, bo przecież nie każde zastosowanie AI należy kontrolować w taki sam sposób.

W ostatecznym rozrachunku chodzi o grę o władzę nad informacją. O to, czy globalne firmy technologiczne będą się musiały rozliczać z tego, jak wykorzystują dane. Czy wpuszczą do środka niezależnych audytorów i regulatorów. Czy rozliczą się z celów i skutków swoich działań z samymi użytkownikami. Rozmawiamy o „sztucznej inteligencji”, bo to pojęcie stało się symbolem nowych możliwości analizowania i monetyzowania danych, ale tak naprawdę chodzi o narzucenie ludziom, którzy to narzędzie wykorzystują, społecznej i prawnej odpowiedzialności.

Wszędobylska sztuczna inteligencja

Nie mamy już czasu na snucie futurystycznych wizji i jałowe debaty w stylu: „sztuczna inteligencja – szansa czy zagrożenie?”. Zamiast spekulować o tym, co ta technologia „zrobi nam” w przyszłości, możemy przyjrzeć się temu, co sami z nią zrobiliśmy, szukając oszczędności, wygody albo odpowiedzi na pytania, które dla człowieka okazały się trudne.

W ostatniej dekadzie ta technologia na dobre zadomowiła się w naszych inteligentnych urządzeniach, aplikacjach do mierzenia wszystkiego, reklamie i wszędzie tam, gdzie w grę wchodzi wpływ na ludzkie zachowanie: od oceny zdolności kredytowej po zarządzanie komunikacją miejską i ocenę, komu należą się świadczenia społeczne.

Nie uciekniemy od tego, że decyzje podejmowane lub wspierane przez sztuczną inteligencję mają realny wpływ na życie. Na tym etapie – tworzenia regulacji prawnych, które mają odpowiedzieć na ryzyko i zabezpieczyć prawa ludzi w zetknięciu z takimi systemami – najważniejsze jest wydobycie na powierzchnię i poddanie kontroli społecznej tych decyzji, które na pozór wydają techniczne, a tak naprawdę mają wymiar zarówno moralny, jak i polityczny.

Czy AI musi być czarną skrzynką?

W dyskusji o odpowiedzialności za skutki działania systemów wspieranych przez AI bardzo przeszkadza pokutujący mit czarnej skrzynki. W mediach takie systemy są najczęściej przedstawiane jako „magiczne pudełka”, których zwykły śmiertelnik nie może ani otworzyć, ani pojąć (gdyby jednak otworzył). Jednocześnie słyszymy zapowiedzi, że AI będzie decydować o naszym życiu: zatrudnieniu, leczeniu, kredycie. To realna, a zarazem wymykająca się społecznej kontroli władza, której słusznie się obawiamy.

Szczególnie że z głośnych przykładów – takich jak amerykański system COMPAS wspomagający decyzje sędziów – zdążyliśmy się dowiedzieć, że AI popełnia tragiczne w skutkach błędy i podobnie jak całe społeczeństwo bywa uprzedzona. Ten kryzys zaufania może się rozlać bardzo szeroko na każde zastosowanie analizy danych do rozwiązywania społecznych problemów.

Ale systemy wykorzystujące sztuczną inteligencję nie muszą być projektowane na zasadzie „czarnej skrzynki” – w sposób, który nie pozwala zrozumieć ostatecznego rozstrzygnięcia ani odtworzyć czynników, które miały na nie wpływ. Do dyspozycji są różne klasy i typy modeli, w tym takie, które jak najbardziej „da się otworzyć”, a nawet zilustrować ich działanie na wykresach zrozumiałych dla humanistów.

„Tradycyjne” modele statystyczne były używane przez dekady: w naukach społecznych i przyrodniczych, do przewidywania trendów na giełdzie i w badaniach medycznych. Przez ten czas na tyle się rozwinęły, a my zyskaliśmy tak dużo danych do ich trenowania, że w wielu zastosowaniach sprawdzą się lepiej niż eksperymentalne sieci neuronowe. Taką radę projektanci systemów opartych na sztucznej inteligencji znajdą też w wytycznych, które przygotował brytyjski urząd do spraw ochrony danych (ICO) we współpracy z renomowanym Instytutem Alana Turinga.

Poradnik przygotowany przez Brytyjczyków nie pozostawia też żadnych wątpliwości co to tego, że nie trzeba rozumieć, jak dokładnie działa model (np. owa tajemnicza sieć neuronowa), żeby wiedzieć, na jaki efekt został zoptymalizowany. Chodzi o to, jakie zadanie zostało postawione sztucznej inteligencji i jaki skutek ma przynieść jej działanie. Tę decyzję zawsze da się z bebechów sytemu wydobyć i zawsze można o niej dyskutować. To polityczny – a nie techniczny – wymiar projektowania systemów opartych na sztucznej inteligencji.

Czy AI przewidzi naszą przyszłość?

Profesor nauk komputerowych z Princeton Arvind Narayanan, znany z demaskowania systemów AI, które obiecują coś, czego nie da się zrobić, wyróżnia trzy podstawowe cele sztucznej inteligencji: może wspierać naszą percepcję, automatyzować oceny i przewidywać skutki społeczne. Jego zdaniem AI coraz lepiej sobie radzi z tym pierwszym zdaniem, ponieważ jest zatrudniona do wykrywania obiektywnie istniejących wzorów (np. klasyfikowania obiektów na fotografiach, wykrywania zmian chorobowych na zdjęciach rentgenowskich, tłumaczenia mowy na tekst).

Dużo trudniejsze i bardziej kontrowersyjne jest zadanie polegające na zautomatyzowaniu oceny (np. wykryciu przypadków mowy nienawiści w sieci, odróżnieniu osoby chorej od zdrowej, dostosowaniu rekomendacji treści do profilu czytelnika etc.). Przede wszystkim dlatego, że nie ma jednoznacznie poprawnej odpowiedzi, której system może się nauczyć. Człowiek w takich przypadkach też się myli, a kontekst może mieć gigantyczne znaczenie. Zdaniem Narayanana systemy te nigdy nie będą doskonałe i to właśnie dla nich potrzebujemy gwarancji prawnych, chroniących ludzi przed błędnymi decyzjami.

Wreszcie trzecia kategoria – systemy, które mają za zadanie przewidywać przyszłość. Wiąże się z największym ryzykiem i, zdaniem Narayanana, zaprzecza zdrowemu rozsądkowi. Przecież wiemy, że nie da się przewidzieć, jak w przyszłości zachowa się konkretny człowiek. A mimo to nadal próbujemy to zrobić – „dzięki” sztucznej inteligencji. Jest zasadnicza różnica między wykorzystywaniem AI do wykrywania wzorów i prawidłowości, które obiektywnie istnieją i dają się matematycznie opisać, a zatrudnianiem jej do szukania wzorów i prawidłowości tam, gdzie ich nie ma albo bywają nieregularnie.

Jest też zasadnicza różnica między przewidywaniem trendu i próbą odgadnięcia, co zrobi konkretny człowiek. Da się przewidzieć wzrost liczby samochodów na drogach albo zachorowań na grypę jesienią. Mamy reprezentatywne dane i potrafimy zapytać o obiektywnie istniejący problem. Na takiej samej zasadzie nie da się jednak przewidzieć, kto popełni przestępstwo, komu „opłaca się” udzielić pomocy społecznej, kogo warto zatrudnić. Ze spojrzenia na statystyczną prawidłowość nie możemy wyciągać wniosków na temat konkretnej osoby. Dlatego systemy sztucznej inteligencji, które wspierają decyzje na temat jakiejś grupy ludzi (np. sędziów w sprawach karnych, urzędników przyznających pomoc społeczną, HR-owców w dużych korporacjach), budzą słuszne kontrowersje.

AI z ludzką twarzą

Komisja Europejska nie musi porywać się z motyką na słońce i pisać regulacji, która swoim zakresem obejmie gigantyczne, niejednorodne i ciągle rozwijające się pole, jakim jest to, co potocznie nazywamy „sztuczną inteligencją”. Może skupić się na decyzjach podejmowanych przez ludzi, którzy projektują i wykorzystują takie systemy do tego, by wpływać na życie innych ludzi. Od nich zależy, jakich reguł będą przestrzegać autonomiczne pojazdy, jak będą dla nas profilowanie treści w internecie, jak będzie prowadzona ocena ryzyka w usługach finansowych albo „optymalizowane” polityki publiczne.

Chodzi o to, żeby nie wejść w regulowanie przysłowiowego Excela (który wykorzystuje całkiem zaawansowane funkcje matematyczne), a jednocześnie nie pominąć obszaru, który – tak jak spersonalizowana reklama – na pozór wydaje się niewinny, a w praktyce rodzi poważne problemy. A ponieważ rozmawiamy o ludzkich decyzjach, których w procesie projektowania i kalibrowania systemów sztucznej inteligencji jest wiele, nie musimy wchodzić w eksperckie spory o to, czy zasady działania modeli statystycznych tak naprawdę da się wyjaśnić. Możemy skupić się na tym, co ludzkie, intencjonalne i polityczne. Na wyborach, które w prosty sposób przekładają się na to, kto na działaniu konkretnego systemu zyska, a kto straci.

Bardzo dobrym narzędziem służącym do takiej analizy jest ocena oddziaływania systemu, którą przeprowadza się we wczesnej fazie projektowania, czyli tzw. impact assessment. Pomysł w żadnym razie nie jest nowy: funkcjonuje w procesie tworzenia prawa i w ochronie danych osobowych. Podobne metody można przyłożyć do systemów automatycznego podejmowania decyzji, które czasem wymagają przetwarzania danych osobowych, a czasem nie. Algorytmy przypominają reguły prawne, tylko zapisane w języku matematyki. Skutki ich oddziaływania na ludzi da się i trzeba oceniać.

Obowiązkowa ocena oddziaływania musi stać się zasadą. Oczywiście nie tylko w polityce publicznej, ale od tego obszaru warto zacząć, żeby wypracować złoty standard. Jeśli państwo bierze się za wdrażanie systemów sztucznej inteligencji, musi mieć dowody na to, że konkretny problem, który chce rozwiązać, daje się opisać w języku formuł matematycznych. Jeśli polega na tym, że czegoś nie wiemy – np. jak wcześnie rozpoznać chorobę – to analiza danych jest dobrym narzędziem. Ale jeśli problemem jest to, że nie mamy środków na leczenie wszystkich chorych i musimy wybrać „priorytetowe” przypadki, sztuczna inteligencja pomoże co najwyżej kupić czas albo zamaskować dziurę w budżecie. Na dłuższą metę to szkodliwa polityka, która musi się zemścić.

***

Wesprzyj Fundację Panoptykon 1 proc. swojego podatku! Wpisz w swoim rocznym zeznaniu podatkowym numer KRS Fundacji: 0000327613.

Więcej na ten temat
Reklama

Codzienny newsletter „Polityki”. Tylko ważne tematy

Na podany adres wysłaliśmy wiadomość potwierdzającą.
By dokończyć proces sprawdź swoją skrzynkę pocztową i kliknij zawarty w niej link.

Informacja o RODO

Polityka RODO

  • Informujemy, że administratorem danych osobowych jest Polityka Sp. z o.o. SKA z siedzibą w Warszawie 02-309, przy ul. Słupeckiej 6. Przetwarzamy Twoje dane w celu wysyłki newslettera (podstawa przetwarzania danych to konieczność przetwarzania danych w celu realizacji umowy).
  • Twoje dane będą przetwarzane do chwili ew. rezygnacji z otrzymywania newslettera, a po tym czasie mogą być przetwarzane przez okres przedawnienia ewentualnych roszczeń.
  • Podanie przez Ciebie danych jest dobrowolne, ale konieczne do tego, żeby zamówić nasz newsletter.
  • Masz prawo do żądania dostępu do swoich danych osobowych, ich sprostowania, usunięcia lub ograniczenia przetwarzania, a także prawo wniesienia sprzeciwu wobec przetwarzania, a także prawo do przenoszenia swoich danych oraz wniesienia skargi do organu nadzorczego.

Czytaj także

Kultura

Kawiarnia literacka: Jerzy Pilch, Kinga Strzelecka

Polska to nie jest kraj, w którym wypada mówić, że 500 plus nie należy się wszystkim.

Jerzy Pilch, Kinga Strzelecka
26.05.2020
Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną