W Internecie udostępniono projekt pod nazwą Dall-e-mini (crAIon). To Sztuczna Inteligencja („SI”), która generuje surrealistyczne ilustracje tworzone na podstawie opisu nadanego przez użytkownika.     

Wybrane efekty twórczości SI podane przez dewelopera strony zachęcają do eksperymentów (np. „mała rzodkiewka daikon w tutu spacerująca z psem” czy „wieża Eiffle’a ląduje na Księżycu”), co też internauci z sukcesami czynią. 

Szczególną popularność w mediach społecznościowych zdobyły ilustracje przedstawiające człowieka współczesnego na tle końca świata np. robiącego selfie na czerwonej, zdewastowanej planecie. 

Istnieje pokusa, by w tym miejscu wprowadzić Czytelnika w temat praw własności intelektualnej do wytworów SI, niemniej by do tego doszło, zacząć należy od wyjaśnienia podstaw funkcjonowania SI w prawie. Albo nawet od wyjaśnienia, dlaczego ustawodawca w ogóle interesuje się zagadnieniami SI. Przyznać należy, że postępujący rozwój technologiczny sprzyja wszak dezauktualizacji pojęć legalnych z zakresu nowych technologii.

Równocześnie w zakresie niektórych systemów szczególnych brak stosownych regulacji lub brak aktualizacji istniejących definicji, może stanowić hamulec ich rozwoju. Powyższe obrazuje przykład technologii „steer-by-wire”, których nie można było zaimplementować w pojazdach z uwagi na brzmienie definicji „układu kierowniczego”. 

Nadto, rozwój SI pozbawiony ram prawnych (zwłaszcza minimalnej ochrony człowieka) mógłby stwarzać zagrożenie dla prywatności, bezpieczeństwa, zdrowia lub życia ludzi. 

Zwłaszcza, że jedną z głównych cech SI jest autonomia i niezamierzone rezultaty będące skutkiem działań SI mogą wyrządzić szkodę zarówno użytkownikom jak i osobom trzecim. 

Podstawy prawne

Fundament europejskiej myśli cyfrowej stanowi „Biała Księga” w sprawie sztucznej inteligencji. To w tym dokumencie określono kierunek działań dotyczący promowania stosowania Sztucznej Inteligencji i redukcji zagrożeń związanych z zastosowaniem tej nowej technologii. Pisząc o aktualnych kierunkach regulacji prawnych nie sposób pominąć nadto trzech rezolucji Parlamentu Europejskiego z obszaru SI dotyczących kolejno: praw własności intelektualnej, odpowiedzialności cywilnej za SI oraz etyki SI. Należy również wspomnieć o procedowanym projekcie unijnego rozporządzenia ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji, dalej jako: „Rozporządzenie UE ws. SI”). Etap działań ustawodawczych związany z funkcjonowaniem SI stanowi obietnicę kontynuacji debaty na temat aktywności, które należy podjąć, by SI była „godna zaufania”. Kierunek dalszych zmian w prawie można wywieźć również z Konwencji ONZ, gdzie wskazano na powinność uznawania w transakcjach międzynarodowych ważności umowy zawartej za pośrednictwem SI z osobą fizyczną lub SI z inną SI. Rada Ministrów przyjęła „Politykę dla rozwoju sztucznej inteligencji w Polsce od roku 2020”, w treści której pojawia się zapowiedź tworzenia „przyjaznego ustawodawstwa w celu rozwinięcia i pełnego wykorzystywania potencjału sztucznej inteligencji”. 

Sztuczna Inteligencja- czym właściwie jest 

Pojęcie „Sztuczna Inteligencja” (z ang. „Artificial Intelligence”) zostało sformułowane przez amerykańskiego informatyka i naukowca John’a McCarthy’ego. SI obecne jest w publicystyce, kinie czy literaturze. Niemniej definicji tego pojęcia nie znajdziemy w obowiązujących przepisach. 

Według klasycznej koncepcji z testu Turinga, dana maszyna jest inteligentna, jeżeli obserwator nie odróżnia jej odpowiedzi na pytania od odpowiedzi człowieka. 

W Rozporządzeniu UE ws. SI zaproponowano definicję „Systemu Sztucznej Inteligencji jako oprogramowania opracowanego przy użyciu co najmniej jednej spośród następujących technik i podejść: 

  • mechanizmu uczenia maszynowego, 
  • metody opartej na logice i wiedzy lub 
  • podejścia statystycznego. 

Przy czym System ten może- dla danego zestawu celów określonych przez człowieka – generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję. 

Warto zwrócić uwagę jak odległa jest zaproponowana w Rozporządzeniu UE ws. SI definicja od obecnego w popkulturze skojarzenia Sztucznej Inteligencji ze samoświadomością maszyny jak np. w oskarowym filmie „Ex Machina” czy serialu „WestWorld”. 

Klasyfikacja Systemów SI 

W Rozporządzeniu UE ws. SI zaproponowano, by systemy wykorzystujące Sztuczną Inteligencją skategoryzować według poziomu ryzyka, jakie niesie ich stosowanie dla wolności i praw obywateli UE. Poziomy ryzyka dzielą się na:

  • niedopuszczalne ryzyko,
  • wysokie ryzyko,
  • ograniczone ryzyko lub
  • minimalne ryzyko.

Od tej klasyfikacji zależy czy dany system może być stosowany lub też-jeżeli może- to przy spełnieniu jakich wymagań. 

Zakazane Systemy SI 

Systemy SI Niedopuszczalnego Ryzyka, to innymi słowy systemy zakazane. Systemy, których używanie, co zauważono w publicystyce, mogłoby doprowadzić do powstania zaawansowanej technologicznie cyfrowej dyktatury (z ang. high tech digital dictatorship) znanej z antyutopii „Nowy Wspaniały Świat”, A, Huxleya. 

Należą do nich systemy wykorzystujące techniki podprogowe, które powodują lub mogą powodować szkodę fizyczną lub psychiczną jak i systemy, które wykorzystują dowolne słabości określonej grupy osób i mogą wywołać lub wywołują szkodę. 

Przekaz podprogowy

Przekaz podprogowy jest niebezpieczny, ponieważ za jego pośrednictwem na umysł oddziałują informacje, bez świadomości ich spostrzegania przez człowieka, ergo bez możliwości obrony przed sugestią. Tego typu systemy oddziałują na wolną wolę konsumenta (reklama), wyborcy (polityka) i są szczególnie niebezpieczne, ponieważ zniekształcają ludzkie zachowania wykorzystując mechanizmy, których człowiek nie jest w stanie dostrzec. 

Zakazane jest nadto wykorzystywanie systemów SI wprowadzanych przez organy publiczne lub w ich imieniu tzw. Social Scoring’u (oceny lub klasyfikacji wiarygodności osób fizycznych) jeżeli ta punktowa ocena prowadzi do krzywdzącego lub niekorzystnego traktowania, lub jest niezwiązana z kontekstami, w których ów dane utrwalono lub też jest nieuzasadniona lub nieproporcjonalna za zachowania lub jego wagi. 

Zakazane jest wykorzystywanie systemu identyfikacji biometrycznej w czasie rzeczywistym w celu egzekwowania prawa, poza enumeratywnie wyliczonymi przypadkami, kiedy jest to uznawane za niezbędne. Mowa tu o systemie identyfikacji osób fizycznych, który działa w ten sposób, że porównuje dane biometryczne danej osoby z danymi biometrycznymi zawartymi w referencyjnej bazie danych, bez wcześniejszej wiedzy o tym, czy dana osoba będzie w niej figurować. Motyw znany z filmu „Raport Mniejszości”. 

Sztuczna Inteligencja tylko zła?

Zważywszy na to, że niniejszą publikację, zupełnie niezamierzenie rozpoczyna i zamyka myśl apokaliptyczna i antyutopijna, a w zakresie ustawodawczym nie przekroczyliśmy ryzyk i zakazów, to Czytelnik może odnieść (niesłuszne) wrażenie, że wykorzystywanie SI powoduje jedynie zagrożenia. 

Dlatego, w kolejnych częściach Cyklu poświęconemu Sztucznej Inteligencji, zostanie przybliżona tematyka dopuszczonych Systemów SI, wraz z szeregiem przykładów, w których zastosowanie technologii SI przyniosło szczególne korzyści ludziom np. w sferze opieki zdrowotnej, rolnictwie czy transporcie. Warto zasygnalizować, że do takich projektów należą chociażby system rehabilitacji neurologicznej pacjentów intensywnej terapii, którzy przeszli COVID-19 czy projekt inteligentnych czujników, które mogą pomóc rolnikom w produkcji większej ilości żywności. 

 

Mając powyższe na uwadze, pierwszą część serii pozwalam sobie zakończyć cytatem Tima Krabbe:, „Strach to marnotrawstwo inteligencji”. 

Zostaw komentarz

20 − 8 =

Informacja o Administratorze i treść Polityki prywatności znajduje się tutaj: (link)

Zapisz się na newsletter

Z naszą kancelarią nie zbłądzisz w świecie prawa IT.

Informacja o Administratorze i przetwarzaniu danych w celu wysyłki Newslettera znajduje się tutaj

Pełna treść Polityki prywatności znajduje się tutaj