– Firmy często mówią: mamy świat nowych technologii, jak możemy na tym więcej zarobić? Tymczasem pytanie powinno brzmieć: skoro mamy nowe technologie, jak możemy stworzyć lepszy i bezpieczniejszy produkt – mówił prof. David Stillwell z Uniwersytetu w Cambridge podczas grudniowej sesji Akceleratora Innovatorium.

Zaskakująca moc danych, pochodzących z mediów społecznościowych, powinna wywoływać poczucie wielkiej odpowiedzialności. Organizacje, które decydują się na korzystanie z big data, muszą podporządkować się szczególnym zasadom, a kluczową powinno być przestrzeganie zasad etycznych – tak można by w największym skrócie podsumować wykład prof. Davida Stillwella podczas grudniowej sesji Akceleratora Innovatorium. 

Stillwell w swoich badaniach zajmuje się m.in. analityką danych w kontekście nauk społecznych. Udowodnił na przykład, że ogromne zbiory danych, jakie można czerpać z profili w social mediach, pozwalają przewidzieć osobowość użytkowników. Analizował w jaki sposób dane konsumentów są wykorzystywane do profilowania reklam. Sprawdzał też m.in. czy ludzie wolą się umawiać z osobami o podobnej osobowości i czy przysięgający sprawiają wrażenie bardziej wiarygodnych (o szczegółach tych badań Profesor mówił podczas wykładu). 

Jak bardzo chcesz się dzielić danymi

Stillwell zwraca uwagę  na zjawiska, które niepostrzeżenie wchodzą do naszego życia za sprawą rozmaitych instytucji, coraz bardziej  naginających zasady etyki. Przykład towarzystwa ubezpieczeniowego, określającego wysokość stawki na podstawie analizy danych z Facebooka był tylko jednym z wielu. Ten sposób działania towarzystwa wydawał się kontrowersyjny więc w 2016 roku udało się go zablokować. Ale już kilka lat później w USA uznano, że towarzystwa ubezpieczeniowe mogą używać danych z social mediów, o ile potrafią udowodnić zasadność takiego działania.

W tym przesuwaniu granic etycznych można iść jeszcze dalej i jako dowód Stillwell podał przykład chińskiego banku, który przyznawał karty kredytowe na podstawie danych z komunikatora Wechat. Z kolei Netflix uznał, że wiedza o narodowości, wieku czy płci użytkownika platformy to „śmieciowe dane”, bo podstawą jest obecnie identyfikacja osobowości,  skuteczniej pozwalająca trafnie dobierać filmy i zatrzymać użytkownika.

– Większość badań, o których mówię, powstała w oparciu o informacje z Facebooka. Dane związane z podejmowaniem przez ludzi decyzji o tym co kupić, jakiej muzyki słuchać, co oglądać, pozwalają spersonalizować człowieka – mówił Stillwell.  – Można dzięki nim docierać do naprawdę wrażliwych informacji, w tym do typu osobowości, a ich dokładność jest wysoka. Zła wiadomość jest taka – przekonywał – że nawet jeśli ominiemy social media, to źródłem danych nadal będzie nasz telefon, karta kredytowa, Spotify czy YouTube. W realnym świecie służą do zarabiania dużych pieniędzy.

Nie bądź jak Alexander Nix z Cambridge Analytica

Nie manipuluj, nie wykorzystuj psychiki, nie graj na neurozach.

Niestety właśnie tak często się dzieje. Ludzie wysoko neurotyczni „trafiają” w sieci na obrazki imigrantów, „zalewających” ich kraj, przez co pobudza się ich naturalną skłonność do strachu. Osobom z dużą otwartością, bezkrytycznie przyjmującym informacje, sprzedaje się spiskowe teorie. Manipulując ludzką psychiką można przekonać wyborców demokratycznych, by zostali w domu – tak jak to było podczas wyborów prezydenckich w USA. To właśnie nieetyczne wykorzystanie big data pozwoliło Trumpowi zwyciężyć, a kluczową rolę odegrał startup Cambridge Analytica.

– Cambridge Analytica przyszła do nas i chciała skorzystać z naszej technologii, ale na szczęście powiedzieliśmy „nie” – opowiadał Stillwell. – Nie wykorzystali naszych danych i algorytmów czy czegokolwiek innego. Ale wiele innych firm przychodzi i wtedy musimy postawić te dwa pytania: powinniśmy z nimi pracować czy nie? A jeśli tak, to na jakich warunkach?

Można przewidzieć cechy psychiczne miliardów ludzi w mgnieniu oka, ale kluczowe jest postawienie pytania: Do czego maja służyć.

Psychometryczne dylematy

Czy wykorzystanie big data i AI w aplikacji randkowej jest etycznie poprawne? Co się stanie, gdy starając się jeszcze bardziej dopasować użytkowników sięgniemy do danych znacznie głębiej, tak że określimy ich typy osobowości? Można powiedzieć, że póki ludzie zgadzają się na takie niejednoznaczne działania – jest.  Ale… – To co robisz musi mieć sens dla klienta i być uczciwe. Benefitem powinno być to, że klient czuje się bezpiecznie i komfortowo. […] Musi wiedzieć, co się dzieje z jego danymi, mieć możliwość kontrolowania i decydowania – podkreślał Stillwell. – Często firmy mówią: to świat nowych technologii, jak możemy na tym więcej zarobić?  Tymczasem pytanie brzmi: skoro mamy nowe technologie, jak możemy zrobić lepszy i bezpieczniejszy produkt.

Trzeba wyprzedzać zdarzenia i przewidywać, jakie informacje będzie można wydobyć, analizując big data.

David Stillwell, profesor of Computational Social Scienc at Cambridge University Judge Business School

Wykład wygłoszony podczas Akceleratora Innovatorium, grudzień 2022 rok

Podobne artykuły:

Herb Polski
Flaga Polski

Dofinansowanie ze środków Ministra Edukacji i Nauki w ramach programu Społeczna Odpowiedzialność Nauki – Popularyzacja nauki i promocja sportu. Projekt: Akcelerator

DOFINANSOWANIE: 900 000 ZŁ
CAŁKOWITA WARTOŚĆ: 1 020 000,00 ZŁ