– Sztuczna inteligencja nie może krzywdzić człowieka. Jest to determinant myślenia o szerzeniu rozwiązań  dotyczących AI i tego dokąd powinny zmierzać prawa jej dotyczące – mówił mecenas Michał Kibil podczas grudniowej sesji Akceleratora Innovatorium.

– Gdy myślimy o AI to przede wszystkim o zakresie danych, które człowiek udostępni sztucznej inteligencji  i sposobie ich wykorzystania – zwracał uwagę mec. Michał Kibil. Obowiązująca w Polsce ustawa o ochronie baz danych odnosi się do każdego zbioru, który za taką bazę może być uznany. Dlaczego ma to kluczowe znaczenie? – Jeśli korzystamy z jakichś danych, to konieczne jest zdefiniowanie, czy to w ogóle jest baza danych. Jeśli tak – kto jest jej producentem, bo to producent, czyli osoba, która poniosła nakłady, by ją stworzyć, jest podmiotem chronionym. To on jest uprawniony do decydowania w jaki sposób baza danych może być wykorzystywana, a także ma prawo do wynagrodzenia za korzystanie z niej. Naruszenie praw producenta do danych grozi nie tylko odpowiedzialnością cywilno-prawną, ale nawet karną.

Wykorzystywanie danych

Przepisy rozszerzają ochronę twórcy na każde wykorzystywanie danych czy utworów. – Nie tylko zresztą twórcę, także faktycznie posiadacza praw autorskich – przypominał Kibil. – Jednym z uprawnień właściciela praw autorskich jest bowiem prawo do nadzoru nad tym, jak utwór będzie wykorzystywany. Kibil przestrzegał wiec przed sytuacją, w której wykorzystanie choćby jednego elementu niezgodnie z intencją posiadacza praw, może zablokować cały projekt biznesowy. – Roszczenia twórcy mogą być różne, bo w przypadku praw majątkowych właściciel ma prawo żądać odszkodowania i części zysków osiągniętych, gdy naruszono jego prawa autorskie.

Wykorzystywanie danych osobowych 

Szczególnie wrażliwym obszarem danych, które mogą być przetwarzane przez algorytm w celu jego wyuczenia, są dane osobowe.

Tworząc algorytm można być administratorem danych osobowych, czyli podmiotem, który ma samodzielne prawo do przetwarzania danych osobowych lub podmiotem przetwarzającym, nazywanym potocznie procesorem. Jeśli mowa o danych osobowych, to czym innym są dane osobowe zwykłe, a czym innym szczególnie wrażliwe (odnoszące się do stanu zdrowia czy biometrii), na używanie których konieczna jest wyraźna zgoda. Jeśli więc twórca algorytmu ma na celu tworzenie narzędzi do profilaktyki zdrowotnej, to poza przypadkami, w których zacznie on odpowiednio wcześnie zbierać zgody na przetwarzanie danych osobowych, warto zastanowić się nad alternatywną opcją, by nie skazać projektu na porażkę. Może być nią np. nietraktowanie danych jako osobowych – zwracał uwagę Kibil. Nie wszystko bowiem, co było daną osobową kiedyś, nadal musi nią być. Danymi osobowymi nie są choćby dane zanonimizowane (stają się danymi statycznymi, gdy nie da się ich powiązać z konkretną osobą).

Bezpieczeństwo

 – Tam gdzie przyuczamy algorytm oparty na danych osobowych, musimy się skupić na kilku obszarach – mówił mec. Kibil. – Stworzone oprogramowanie musi być bezpieczne pod kątem architektury systemu, zgodnej z wymogami bezpieczeństwa, a o przetwarzaniu danych osób fizycznych i zasilaniu nimi algorytm trzeba daną osobę poinformować.  Ważna jest też kwestia automatycznego przetwarzania danych osobowych, wprowadzona na gruncie RODO. Każda osoba, w przypadku której podejmujemy decyzję zautomatyzowaną, czyli bez udziału człowieka, ma prawo wiedzieć, w jaki sposób jej dane są przetwarzane przez algorytm, jakimi wyznacznikami się on kieruje i do kogo można się odwołać, gdy nie akceptuje się decyzji algorytmu. Po stronie takiej osoby stoi już dziś np. unijne prawo do niedyskryminacji.

Czy algorytm jest utworem?

Większość ekspertów twierdzi, że w świetle praw autorskich nie. Ale… to zależy. W Polsce wytwory AI np. obrazy, nie są uznawane za utwory, ponieważ nie są wytworami człowieka. – Do kogo w takim razie przynależy taki obraz? – stawiał pytanie mec. Kibil. – Do osoby, która wpisała hasła do wygenerowania obrazu, czy do twórcy kodu, a może do właściciela firmy dewelopującej algorytm? Tu nie ma dobrej odpowiedzi – podkreślał. Tymczasem w domach aukcyjnych już sprzedaje się zdjęcia-obrazy wytwarzane przez AI. A AIVA topierwszy algorytm sztucznej inteligencji, który został uznany za autora, bo poza Polską, definicja utworu zaczyna być mocno rozszerzana.

Odpowiedzialność za sztuczną inteligencję. Nadchodzi AI Act

– Jeśli wykreujecie sztuczną inteligencję, która doprowadzi kogoś do szkody, to ta osoba będzie w stanie obciążyć odpowiedzialnością was – zwracał uwagę mec. Michał Kibil. I przestrzegał: – Dziś odpowiedzialność jest lekko iluzoryczna, ale za chwilę już tak nie będzie. Wchodzą nowe przepisy na poziomie UE. Prócz odpowiedzialność kontraktowej jest też ta w obszarze RODO.

AI Act to nowa regulacja, która ma uporządkować w UE cały obszar wykorzystywania sztucznej inteligencji. Zmienia model myślenia sztucznej inteligencji i jej postrzeganie, wprowadzając cztery kategorie ryzyka: minimalne, ograniczone, wysokie, nieakceptowalne.

Wprowadza też listę zakazanych praktyk, których nie możemy stosować, np. wykorzystywanie algorytmów AI do powszechnego śledzenia ludzi czy tworzenia system oceny społecznej, takich z jakimi mamy do czynienia w Chinach. AI Act nałoży obowiązek audytowania AI, wprowadzi katalog systemów wysokiego ryzyka (m.in. tych wykorzystywanych w systemach HR), wymagać też będzie zarzadzania ryzykiem przez dostawcę czyli twórcę algorytmu. Ponadto ma wprowadzić obowiązek ubezpieczenia OC dla dostawcy. I naturalnie zobowiąże do przestrzegania zasad etyki AI czy praw własności intelektualnej.

Mimo że to pierwszy taki projekt, to od października 2022 roku jest już obiektem szerokiej dyskusji i krytyki m.in. z powodu definicji AI, która wg niektórych jest zbyt szeroka i niezgodna z wykreowaną przez OECD.

Nie tylko AI Act

Odrębnie wprowadzana jest dyrektywa odpowiedzialności za sztuczną inteligencję. Wystarczy wykazanie że algorytm jest niezgodny z zasadami AI ACT i że doszło do powstania szkody i to już przeniesie na twórcę ciężar odpowiedzialności cywilno-prawnej za skutek. To nie pracodawca będzie np. odpowiedzialny za dyskryminację pracownika, ale pracownik zgłosi się do podmiotu tworzącego rozwiązania AI.

Jak podejść rozsądnie do tworzenia sztucznej inteligencji? Najbezpieczniej pamiętając o ISO 3850. To najlepsza wskazówka, zgodnie z którą warto podzielić proces tworzenia na fazę koncepcyjną, projektowanie i rozbudowę, weryfikację i walidację modelu, wdrażanie, działalność operacyjną i monitorowanie, reewaluację oraz zakończenie projektu.

Mec. Michał Kibil  Senior partner w kancelarii GTL specjalista od prawa autorskiego, prawa nowych  technologii, specjalista do spraw sztucznej inteligencji i prawnych aspektów

Wykład wygłoszony 1 grudnia podczas sesji Akcelerator Innovatorium

Podobne artykuły:

Herb Polski
Flaga Polski

Dofinansowanie ze środków Ministra Edukacji i Nauki w ramach programu Społeczna Odpowiedzialność Nauki – Popularyzacja nauki i promocja sportu. Projekt: Akcelerator

DOFINANSOWANIE: 900 000 ZŁ
CAŁKOWITA WARTOŚĆ: 1 020 000,00 ZŁ