Webinary

Agnieszka Uflewska: Etyczne aspekty sztucznej inteligencji

– AI musi być zgodna z prawem, z wartościami etycznymi i solidna, zarówno z technicznego, jak i społecznego punktu widzenia. Musi być ukierunkowana na człowieka – mówi prof. Agnieszka Uflewska o warunkach wdrażania sztucznej inteligencji.

– Sztuczna inteligencja to tsunami o ogromnym potencjale, służącym rozwojowi, ale także niszczącym, jeśli jej twórcy nie będą pamiętać, że AI to nie tylko dziedzina informatyki, ale być może przede wszystkim filozofii. Jej pojawienie się zmusza nas do zastanowienia się, co to znaczy być dobrym człowiekiem i co to znaczy dobrze żyć – zwróciła uwagę prof. Agnieszka Uflewska podczas grudniowej sesji Akceleratora Innovatorium.

– Nie da się mówić o aspektach etycznych bez odniesień do kultury, czyli pewnej całości, obejmującej wiedzę, wierzenia, wzorce myślenia i zachowania, sztukę, moralność, prawa, obyczaje, zdolności i nawyki nabyte poprzez ludzi przez przynależność do danego społeczeństwa. A kamieniem węgielnym kultury jest etyka (normy, wartości, wierzenia), bo z tego wynikają symbole, czytelne i ważne dla nas – przekonywała prof. Uflewska.  Jesteśmy w pewnym historycznym momencie, w którym wszystko staje się 5.0. – Inteligentne rozwiązania, oparte na przetwarzaniu danych, także wrażliwych, wkraczają w nasze życie poprzez biznes i administrację.

Godna zaufania sztuczna inteligencja, czyli etyczne aspekty AI

Etyka AI ma określić sposób, w jaki sztuczna inteligencja może prowadzić do poprawy lub naruszenia dobrobytu jednostek, zarówno pod względem jakości życia, jak i autonomii człowieka i wolności, niezbędnych w demokratycznym społeczeństwie.  – Jednostki i społeczeństwa muszą być chronione na podstawowym poziomie – podkreślała prof. Uflewska. – Etyka AI stymuluje innowacje, których celem jest promowanie wartości etycznych.

By moc wdrażać AI, musi cieszyć się ona wiarygodnością i zaufaniem. Nie wolno zapominać, że AI ma być ukierunkowana na człowieka, na zwiększanie jego dobrobytu i gwarantowanie równości. Dlatego więc ma być ona: zgodna z prawem (poszanowanie wszystkich istniejących przepisów), zgodna z zasadami i  wartościami etycznymi oraz solidna, zarówno z technicznego, jak i społecznego punktu widzenia.

Agnieszka Uflewska wymienia cztery normy wypracowane w tej kwestii przez Komisję Europejską, które przenoszą się na wartości, o których nie można zapomnieć, pisząc algorytmy AI:

  • Poszanowanie autonomii człowieka: interakcja z systemami AI musi gwarantować ludziom samostanowienie, możliwość wyboru oraz posiadanie nadzoru nad sztuczną inteligencją
  • Zapobieganie szkodom: systemy AI muszą być bezpieczne, nie mogą szkodzić ludziom i środowisku
  • Sprawiedliwość: musi być rozumiana jako niedyskryminacja, przeciwdziałanie stronniczości czy stygmatyzacji, a w wymiarze proceduralnym musi pozostawić ludziom możliwość kwestionowania decyzji podejmowanych przez AI
  • Możliwość wyjaśnienia: procesy zachodzące w AI muszą być przejrzyste, a cele i możliwości komunikowane wprost

Jakie wartości wynikają z tych czterech norm? 

  • Przewodnia i nadzorcza rola człowieka, kontrolującego, oceniającego skutki działania, zapewniającego narzędzia do zrozumienia przez użytkowników interakcji z AI.
  • Bezpieczeństwo i solidność techniczna (posiadanie scenariusza na wypadek zagrożenia AI w jakimś obszarze, jasny proces rozwoju, odtwarzalność procesów).
  • Ochrona prywatności i zarządzanie danymi.
  • Przejrzystość w proponowanych systemach.
  • Różnorodność, niedyskryminacja i sprawiedliwość, czyli unikanie stronniczości, zapewnienie różnorodność opinii już na etapie projektowania i udział osób, na które AI będzie mieć wpływ.
  • Dobrostan społeczny i środowiskowy, czyli monitorowanie systemów AI i sprawdzanie ich oddziaływania na społeczeństwo w różnych obszarach, w tym na kulturę i instytucje państwa.
  • Odpowiedzialność gwarantująca możliwość kontroli, przeprowadzenia ocen oddziaływania przed, w trakcie i po wprowadzeniu systemów AI.

Jak w praktyce stosować etykę AI

– Etyka musi być w sercu wszystkiego co robicie – mówiła prof. Agnieszka Uflewska do słuchaczy i potencjalnych projektantów AI. – Dlaczego etyczne AI jest takie ważne? Bo można stworzyć dużo bardzo dobrych rzeczy, ale jeśli nie będziemy pamiętać o etyce, to realne staną się zagrożenia takie  jak: identyfikowanie i śledzenie osób fizycznych za pomocą AI, systemy AI działające niejawnie, stosowanie mechanizmów oceniania obywateli z naruszeniem praw podstawowych, a nawet wykorzystanie AI do tworzenia systemów śmiercionośnej broni czy „inteligentnego” zniewolenia – vide Chiny.

– Musimy sobie odpowiedzieć na pytanie, w jakim świecie chcemy żyć. Jeśli w tym godnym zaufania, to on musi być oparty na etyce. 

Agnieszka Uflewska, prof. uniwersytetu w Glasgow, prawniczka, zajmująca się rozumieniem kultury i tożsamości kulturowej

Wykład wygłoszony 1 grudnia 2022 roku podczas sesji Akceleratora Innovatorium

Podobne artykuły:

Herb Polski
Flaga Polski

Dofinansowanie ze środków Ministra Edukacji i Nauki w ramach programu Społeczna Odpowiedzialność Nauki – Popularyzacja nauki i promocja sportu. Projekt: Akcelerator

DOFINANSOWANIE: 900 000 ZŁ
CAŁKOWITA WARTOŚĆ: 1 020 000,00 ZŁ