Sztuczna inteligencja – inne ujęcie

W dyskusjach o sztucznej inteligencji pojawiają się regularnie, w różnych odsłonach, pytania o to, czy maszyna lub program wykorzystujący zaawansowaną sztuczną inteligencję powinny mieć osobowość prawną, kto powinien odpowiadać za ich działania i które z ich działań korzystają z ochrony prawnej. Te maszyny to np. autonomiczne pojazdy, generatory treści czy diagnostyka medyczna. Przede wszystkim, jednak, w tych problemach chodzi o dane i ich analizę, w tym jakość danych, cel i etyczne aspekty analizy, a także jej jakość.

Kilka lat temu pisałam (m.in. tutaj), że maszyna raczej nie będzie traktowana jako autor, gdyż utwór może być dziełem jedynie człowieka. Prawo polskie i międzynarodowe można interpretować tak, aby wykluczyć ochronę utworów generowanych przez maszyny. Kilka dni temu jednak, w chińskim Shenzhen, jednej ze światowych stolic innowacji, sąd stwierdził, że artykułu wygenerowane przez Dreamwritera należącego do Tencent podlegają ochronie jako utwory. Prawa autorskie do tych utworów należą, zatem, do Tencent. W ten sposób, myślenie o ochronie utworów tworzonych przez algorytmy sztucznej inteligencji zbliża się do ochrony baz danych czy programów komputerowych, co wydaje się słusznym kierunkiem. To istotny krok w stronę uzyskania większej pewności prawnej w dziedzinie sztucznej inteligencji. Okazuje się też, że konstrukcja osobowości prawnej nie była tutaj potrzebna.

Chińskie dokonania w dziedzinie rozwoju technologii są bardzo śmiałe. Przykłady zastosowań to nie tyko generator artykułów (takie same technologie stosowane są na Zachodzie). To także zespolenie systemów informatycznych pozwalające choćby na automatyczne kary finansowe – system może pobrać kwotę mandatu bezpośrednio z konta naruszyciela w kilkadziesiąt sekund po dokonaniu wykroczenia, takiego jak przechodzenie na czerwonym świetle. System rozpoznawania twarzy ustala od razu, kto złamał przepisy i czyje to powinno być konto. Inny przykład zastosowania maszyn w sposób budzący zastrzeżenia osób wychowanych w zachodniej kulturze to m.in. monitorowanie stopnia skupienia uczniów szkoły podstawowej podczas lekcji za pośrednictwem elektronicznych opasek. W niektórych regionach Chin wdrożono system oceniania obywateli, gdzie ocena przekłada się na takie uprawnienia, jak możliwość kupienia biletu lotniczego czy wzięcia kredytu, ale też powoduje, że obywatele ustawiają się w kolejki, żeby wspomóc organizacje dobroczynne. Większość tych problemów wiąże się z zastosowaniem analityki danych, a więc, ostatecznie, z kwestią prywatności, ochrony danych osobowych.

W dyskusji o sztucznej inteligencji w USA pojawił się ciekawy wątek, polegający na omawianiu zagadnień sztucznej inteligencji w odniesieniu do tzw. koncepcji czarnego pudełka. Czarne pudełko to dla informatyka program, którego wewnętrznego sposobu działania nie rozumiemy. Możemy mieć wpływ na dane wejściowe i wyniki takiego algorytmu. Uczenie maszynowe, w uproszczenia, polega na informowaniu maszyny, czy uzyskiwane przez nią wyniki są trafne, aby zmodyfikowała swój wewnętrzny sposób oceniania danych. Nie możemy jednak całkowicie wyjaśnić, w jaki sposób działa przeszkolony na ogromnych zbiorach danych algorytm sztucznej inteligencji.

Z drugiej strony, białe pudełko oznacza algorytm, którego działanie w całości zaplanował człowiek. Do niedawna działały tak wszystkie programy i w ten sposób o maszynach analitycznych myślała autorka pierwszego w historii programu komputerowego, Ada Lovelace, jeszcze w XIX wieku:

the Analytical Engine has no pretensions whatever to originate anything. It can do whatever we know how to order it to perform. It can follow analysis; but it has no power of anticipating any analytical relations or truths.

Maszyna Analityczna nie ma pretensji do tworzenia niczego. Może zrobić cokolwiek, jeśli wiemy, jak wydać jej właściwe polecenie. Może prześledzić analizę, ale nie ma mocy przewidywania wynikających z analiz relacji czy prawd. (tł. własne, źródło: LINK)

Nie wiedząc, jak działa dany program i dlaczego osiągnął taki, a nie inny wynik, natrafiamy na rozliczne problemy prawne. Czy nieprzewidywalność maszyny czyni jej dzieła oryginalnymi? Kto powinien odpowiadać za jej zachowanie na drodze czy jej “diagnozy” medyczne? Czyją zasługą jest wyższa jakość wyników jednej maszyny względem drugiej? Czy to zasługa danych wprowadzanych do bazy, sposobu szkolenia, nadania wagi określonym funkcjom algorytmu? Które z tych informacji mogą lub powinny być jawne i w jakich przypadkach? Jak zadbać o to, by dane wprowadzane do systemu, były wykorzystne w sposób etyczny, a jednocześnie, by było ich odpowiednio dużo? Czy cel osób szkolących sieci nauronowe zawsze będzie możliwy do następczego zbadania? Jakie metody i praktyki powinny być zachowane w procesie dostarczania algorytmowi danych do analizy i szkolenia?

Koncepcja czarnego pudełka jest ciekawa nie tylko z punktu widzenia praw majątkowych, ale także w innych kontekstach. W ujęciu filozoficznym czarnym pudełkiem pozostaje ludzki umysł, a także mózg zwierzęcia, gdyż nie wiemy do końca, co się w środku nich dzieje. Jeśli myślimy o problemie potencjalnej osobowości sztucznej inteligencji, nie powinniśmy zapominać o stworzeniach, które już są inteligentne, bez naszej pomocy, czyli o zwierzętach. Niektórzy naukowcy przypisują niezwykłe możliwości także skupiskom roślin. Może koncentrując się na zagadnieniach własnych dzieł, tracimy z oka inne ważne problemy. Kwestia samoświadomości algorytmów wydaje się wobec nich mniej paląca.