Sztuczna inteligencja jako zagrożenie dla ludzkości
Od dziesięcioleci jesteśmy straszeni zagrożeniami płynącymi z postępu technicznego, w tym w szczególności rozwoju sztucznej inteligencji (AI – artificial intelligence). Począwszy od zabierania naszych miejsc pracy, poprzez zautomatyzowaną inwigilację i profilowanie decydujące o naszym miejscu na ziemi, aż po wyniszczenie gatunku przez mechanicznych terminatorów. W opisywaniu tych efektów przewodzą jak zwykle twórcy książkowych lub filmowych hitów z gatunku sci-fi. Jednak naukowcy również dostrzegają te następstwa. Próbują je opisać, zmierzyć i znaleźć sposoby na ograniczenie negatywnych następstw.
Plusy i minusy
Nikt nie zaprzecza, że AI wpływają na system edukacji, rynek pracy, medycynę, przemysł. Może zawarzyć ostatecznie na jakości naszego życia lub – w ekstremalnych przypadkach – zagrozić mu. Ma usprawniać i przyśpieszać podejmowanie decyzji. Wzrost poziomu wykorzystania sztucznej inteligencji to między innymi następujące efekty:
- Dzięki AI można śledzić osoby podejrzane o popełnienie poważnych przestępstw czy terroryzm. Można też inwigilować osoby powiązane z określonymi przekonaniami. Od tego tylko krok do ocena punktowej obywateli (ogólna ocena „moralności” lub „etyczności”), co może stanowić zagrożenie dla praw człowieka oraz demokracji.
- AI można zastosować do tworzenia treści dźwiękowych i wizualnych lub manipulowania nimi w celu nadania im autentyczności (fake news, podważanie autentyczności materiałów video, np. w sądach)
- Mikrotargeting, wykorzystujący profilowanie na bazie automatycznie zebranych informacji, pozwala dostosowywać treści i formy przekazu do każdego odbiorcy z osobna. Może prowadzić to do polaryzacji i podziałów społeczeństwa oraz manipulowania wyborami (tymi indywidualnymi, jak i zbiorowymi).
- Błędne zaprogramowane algorytmy lub niepoprawne dane mogą spowodować, że decyzje podejmowane przez maszyny będą krzywdzące dla tych, których dotyczą (np. nieprzyznanie kredytu w oparciu o złe założenia).
- Zbytnie zaufanie do technologii może być niebezpieczne dla życia (np. wypadki spowodowane przez pojazdy autonomiczne lub systemy samosterujące działaniem elektrowni jądrowych).
- Maszyny będące systemami śmiercionośnej broni autonomicznej mogą dysponować umiejętnościami umożliwiającymi im podejmowanie decyzji dotyczących tego z kim, kiedy i gdzie podjąć walkę – bez udziału człowieka.
Sztuczna inteligencja a rynek pracy
Nie można zapominać również o potencjalnej utracie pracy. Firma Oxford Economics szacuje, że do roku 2030 z uwagi na postępującą automatyzację na świecie zniknie 20 mln miejsc pracy[1]. I dotyczy to tylko przemysłu. McKinsey&Company poszedł nawet dalej. Wskazuje, że w tym samym czasie dotychczasową pracę, z powodu jej zautomatyzowania, stracić może nawet 800 milionów ludzi (chociaż autorzy raportu przychylają się raczej do scenariusza bardziej optymistycznego – 400 milionów)[2]. Miliony ludzi będzie musiało zmienić pracę lub podnieść swoje kwalifikacje.
Najbardziej podatne na automatyzację są czynności fizyczne w przewidywalnych środowiskach, takie jak obsługa maszyn i przygotowywanie posiłków typu fast food. Również zbieranie i przetwarzanie danych coraz częściej może być wykonywane lepiej i szybciej przez maszyny. To zła wiadomość dla pracowników banków, prawników czy księgowych. Zanim jednak ruszy do boju nowe pokolenie luddystów, niszczących centra przetwarzania danych czy przecinających magistrale informatyczne, warto zauważyć, że tak znaczna utrata miejsc pracy w jednych sektorach gospodarki będzie, prawdopodobnie, zrekompensowana przez wzrost ich liczby w innych. Wśród nich są IT, budownictwo, ochrona zdrowia i opieka nad starszymi. Do tego pojawią się zawody, o których dziś nawet nie mamy pojęcia.
Czy jest nadzieja?
Isaac Asimov w roku 1942 stworzył trzy prawa robotów. Ich celem było uregulowanie kwestii stosunków pomiędzy przyszłymi myślącymi maszynami a ludźmi. Przedstawiały się one następująco:
- Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
- Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
- Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
Później Asimov zaproponował jeszcze jedno, nadrzędne do poprzednich, prawo: Robot nie może skrzywdzić ludzkości lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.
Tak sformułowane prawa dotyczyć mogą tylko maszyn i automatów o bardzo niskim poziomie autonomii. Nauka prześcignęła jednak wizję artysty i nie możemy już liczyć, że zdołamy narzucić nasze prawa czemuś, co za chwilę może uzyskać własną świadomość.
Sztuczna inteligencja sama w sobie nie stanowi zagrożenia dla bezpieczeństwa, wolności oraz prywatności ludzi. W dobrych rękach może przyczynić się do usprawnienia usług publicznych, działania firm, zwiększenia ochrony demokracji i bezpieczeństwa. Jednak zbyt duże zaufanie społeczeństwa do sztucznej inteligencji może stanowić poważny problem. AI używana ze złymi intencjami lub zdefiniowana w nieprawidłowy sposób może dać katastrofalny efekt. Jak zawsze konieczne jest zachowanie czujności i zdrowego rozsądku.
Istotna jest również kwestia etyki projektowania rozwiązań opartych o sztuczną inteligencję. Potrzebne wydaje się podejmowanie inicjatyw regulacyjnych, które wskażą granice projektowania, tworzenia i wykorzystywania nowoczesnej technologii. Takie próby zostały już podjęte w Unii Europejskiej kilka lat temu[3]. W przygotowanym dokumencie eksperci wskazali, że godna zaufania AI jest możliwa do osiągnięcia, jeśli będzie jednocześnie:
- zgodna z prawem, przestrzegając wszystkich obowiązujących praw i przepisów
- etyczna, zapewniając przestrzeganie zasad i wartości etycznych
- solidna, zarówno z perspektywy technicznej, jak i społecznej
Czy na coś się to przyda – zobaczymy.
W filmie „Eagle Eye” pokazano intrygę maszyny działającej w dobrej wierze, zgodnie z zasadami wpojonymi jej przez ludzi. Do realizacji swych celów wykorzystywała jednak zabójcze narzędzia. Ku przestrodze warto zacytować za twórcami tego kinowego hitu: „Czasem środki, które mają chronić naszą wolność, stają się dla niej zagrożeniem”.
[1] https://resources.oxfordeconomics.com/how-robots-change-the-world?source=recent-releases
[2] https://www.mckinsey.com/featured-insights/future-of-work/jobs-lost-jobs-gained-what-the-future-of-work-will-mean-for-jobs-skills-and-wages
[3] „Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji”; https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/JURI/DV/2019/11-06/Ethics-guidelines-AI_PL.pdf