Moralność AI, czyli czyja moralność?

4.4.2024

Moralność AI, czyli czyja moralność?

Nie jest już niczym nadzwyczajnym, że sztuczna inteligencja, coraz częściej stosowana w sferach należących dotychczas do człowieka, coraz bardziej autonomicznie radzi sobie ze złożonością ludzkich problemów. Przetwarzając w krótkim czasie ogromne zbiory danych, rozwiązując skomplikowane zadania, z którymi ludzki mózg nie jest w stanie sobie poradzić, stanowi nadzieję społeczeństw. Zaprogramowanie i włączenie maszyny powoduje, że elektrony biegają, póki nie zostanie znaleziona odpowiedź.

Oczywiście AI to nie tylko same korzyści i nie jest sposobem na rozwikłanie wszystkich problemów ludzkości, a dyskusja na temat zalet i ryzyk ryzyka związanego z AI toczy się nieustannie. Już Alan Turing, który pierwszy zdefiniował AI i zauważył jej możliwości, zwrócił uwagę także na potencjalne ryzyko związane z wykorzystywaniem AI. Ryzyko to dotyczy nie tylko aspektów technologicznych, ale także chociażby prawnych, ekonomicznych, kulturowych i etycznych związanych z zastosowaniem konkretnych rozwiązań. Razem z rozwojem AI i jej szerokim wykorzystywaniem coraz częściej dochodzą do głosu kwestie autonomiczności i moralności AI, które do tej pory wydawały się właściwe jedynie światu ludzkiemu (i dotyczące raczej tego, kto i jak wykorzystuje AI). Jest oczywistym, że rozszerzająca się autonomia AI, do niedawna jedynie pojawiająca się w powieści lub filmie science-fiction, budzi obawy.

Technologia AI w sektorze prywatnym i publicznym

Zastosowanie technologii z wykorzystaniem rozwiązań ze sztucznej inteligencji zarówno w sektorze prywatnym, jak i publicznym, wymusiło próby uregulowania kwestii z nią związanych w przepisach prawa. Każda próba zdefiniowania AI przypomina pogoń za nieustannie przesuwającym się horyzontem, ponieważ technologie wykorzystujące sztuczną inteligencję są nieustannie ulepszane w sposób ciągły i przyrostowy. Zatem i próba skonstruowania prawnej definicji sztucznej inteligencji nastręcza trudności. AI rozumiemy szeroko jako systemy, które wykazują inteligentne zachowanie poprzez analizę otoczenia i podejmowanie autonomicznych działań w celu osiągnięcia określonych celów (w tym także poprzez algorytmiczne uczenie maszynowe). Takie ujęcie skłania się ku pojmowaniu AI jako działania mającego na celu uczynienie maszyn inteligentnymi, a samą inteligencję jako tę jakość, która umożliwia podmiotowi należyte i mające na uwadze jego przyszłość funkcjonowanie w otaczającym go świecie.

Czy algorytmiczne podejmowanie decyzji przez sieci neuronowe może osiągnąć poziom autonomii moralnej podobny do tego, jaki ma człowiek przy podejmowaniu decyzji? Jeśli możemy mówić o moralności AI, to co jest źródłem pochodzenia tej moralności? W rzeczywistości jest to pytanie o to jak przebiega dynamika relacji moralności, władzy w procesach projektowania, implementowania i eksploatowania AI.

Sztuczna inteligencja, niezależnie od prób nadania jej podmiotowości i cech właściwych jedynie ludziom, pozostaje narzędziem w rękach człowieka. Wkroczyliśmy w epokę, w której maszynom będzie można powierzyć decyzje o życiu lub śmierci, więc algorytmiczna moralność jest czymś, co powinno być gruntownie analizowane. Inteligentny robot może zacząć działać zgodnie ze swoim własnym kodeksem moralnym, kodem, który może być dla człowieka nierozpoznawalny. Etyka maszyn (machine ethics), w przeciwieństwie do etyki komputerowej (computer ethics), rozważającej kwestie etycznego korzystania przez ludzi z maszyn, koncentruje się na tym, czy zachowanie maszyn wobec ludzkich użytkowników, a być może także innych maszyn, jest etycznie akceptowalne. Chodzi o stworzenie etycznego inteligentnego agenta (IA), który sam kieruje się idealną zasadą etyczną lub zestawem zasad, zdolnego znaleźć i obliczyć najlepsze działanie w przypadku dylematów etycznych przy użyciu zasad etycznych . Kto jednak miałby uczyć maszynę moralności, jeśli tradycyjnie rozumiana etyka w przypadku maszyn nie znajduje zastosowania?

Ludzkie poznanie niekoniecznie pokrywa się z ludzkim rozumowaniem moralnym oraz poznanie dotyczące rozumowania moralnego niekoniecznie reprezentuje moralną specyfikę takiego rozumowania, ani też nie każde rozumowanie praktyczne jest samo w sobie rozumowaniem moralnym. Analogiczne myślenie, które uzasadnia ideę replikowania moralności człowieka i maszyny, napotyka na bariery związane z brakiem odpowiednich analogii między ludźmi a maszynami. Dotyczy to szczególnie kategorii odczuć moralnych i złożoności motywacji do działania moralnego. Nie ma zatem gwarancji, że może zostać skonstruowany etycznie doskonały Intelligent Agent, tak by jego moralna doskonałość była nieograniczona dzięki procesowi ciągłych doskonałych aktualizacji tej moralności (moral self-update).

Czy pozostaje zatem jedynie obawiać się SI?

Przypomnijmy „pierwszą zasadę” Melvina Kranzberga, która mówi, że technologia nie jest ani dobra, ani zła; nie jest też neutralna. Z jednej strony jednym z najważniejszych wyzwań w badaniach nad bezpieczeństwem AI jest utrzymanie kontroli nad potencjalnie superinteligentną AI zdolną do przekształcenia środowiska w miejsce nienadające się do zamieszkania przez biologiczne formy życia. Z drugiej strony właściwie skonstruowana SI może zapewnić przyszłość, w której życie każdego ulega diametralnej poprawie. To nie zatem kwestia potencjalnej autonomiczności jest problemem, a niedostateczna inteligencja źle zaprojektowanych, “głupich” maszyn, stanowiących ryzyko dla wchodzących z nimi w interakcję ludzkich i nie-ludzkich użytkowników. Winny temu ryzyku jest zatem człowiek konstruujący bądź eksploatujący system wykorzystujący AI. To do niego zatem należy budowa godnych zaufania systemów AI.

Katarzyna Głąb
Trainer
#AI #SztucznaInteligencja