Czy Google Maps mają nad nami władzę?

W mojej prezentacji dla pracowniczek i pracowników Instytutu Nauk Politycznych Węgierskiej Akademii Nauk mówiłem między innymi o tym, dlaczego z wielką uwagą powinniśmy przyglądać się zjawisku postępującej algorytmizacji naszego życia społecznego i politycznego.

Na pozór wydawać się może, że wspomaganie procesów decyzyjnych szybkimi i bardziej przenikliwymi algorytmami jest ze wszech miar korzystne. Algorytmy są o wiele lepsze od człowieka w odnajdywaniu korelacji pomiędzy zmiennymi opisującymi olbrzymie zbiory danych. Najważniejszym argumentem za algorytmizacją jest zatem ich efektywność.

Czy jednak taka efektywność zawsze jest czymś korzystnym? Zastanówmy się nad algorytmem, z którego korzystamy niezwykle często. Prawie za każdym razem, kiedy chcemy dokądś dojechać, używamy aplikacji w rodzaju Google Maps. Wskazujemy w nich miejsce docelowe – punkt początkowy aplikacja zwykle sama wykrywa – i po najwyżej paru sekundach otrzymujemy najbardziej dogodną trasę. To znaczy najczęściej taką, którą najszybciej dotrzemy do celu. I zapewne w przygniatającej liczbie przypadków o to właśnie nam chodzi: życie jest zbyt krótkie, by niepotrzebnie nadkładać drogi, czas to pieniądz i tak dalej.

A jednak trzeba zauważyć, że opisywany algorytm przyjmuje tylko jedną z możliwych wersji rozumienia pojęcia efektywności. Możemy sobie wyobrazić, że nasze preferencje dotyczą nie czasu przejazdu, lecz, na przykład, doświadczeń estetycznych: chcemy z okien samochodu obserwować możliwie najpiękniejszy krajobraz. Ktoś może odpowiedzieć: nic nie stoi na przeszkodzie, można przecież taką aplikację stworzyć. A może nawet już ona istnieje, sprawdziłeś w App Storze?

To prawda, potencjalnie moglibyśmy stworzyć i używać takiej aplikacji. Jednak realnie korzystamy z tej, która została nam dana. I, tym samym, podporządkowujemy się algorytmowi i ideałowi efektywności, który ów algortytm przyjmuje. W pewnym sensie jesteśmy zatem w jego władzy. W przypadku Google Maps upierać się można, że realizuje on preferencje zdecydowanej większości użytkowników. Czy jednak tak jest w przypadkach mniej oczywistych? Albo: czy jesteśmy świadomi, w jak wielu przypadkach optymalizacja, której ulegamy, pozbawia nas innych wartości?

Przenosząc te pytania na grunt polityki, można zauważyć, że zastępowanie człowieka algorytmami, obiecującymi większą efektywność podejmowania decyzji, zmieni naturę samego decydowania. Zamiast negocjować decyzje z innymi, słuchać argumentów wielu stron, a może i zmieniać nasze własne preferencje, oddamy maszynie prawo decydowania w oparciu o dane zastane. A z tych nie musi przecież wynikać najlepsza możliwa decyzja. Przy bliższych oględzinach okazać się może, że efektywność to tylko jedna z wielu cech decydowania, które powinniśmy brać pod uwagę.

Ponieważ kwestie te są niezwykle złożone, moje wystąpienie zakończyłem zaproszeniem do współpracy – i już teraz zapowiada się, że zostanie ona nawiązana

Czy sztuczna inteligencja uwolni nas od polityki? Mówię o tym w podcaście „Głośne myślenie”

Wyobraźmy sobie, że potężne algorytmy zastąpią nas w decydowaniu o sprawach politycznych. Czy taki nowy, wspaniały świat, rozwiązałby nasze obecne problemy? A może polityka jest czymś więcej, niż tylko decydowaniem i odpowiadaniem na preferencje obywateli? W tym odcinku podcastu „Głośne myślenie” prezentuję koncepcję demokracji predyktywnej jako tak zwanej pompy intuicji, pozwalającej nam myśleć o tym, jakie konsekwencje dla demokracji przynieść może sztuczna inteligencja.

O Johnie Rawlsie w stulecie urodzin i pięćdziesięciolecie publikacji „Teorii sprawiedliwości”.

W jaki sposób zorganizować sprawiedliwe społeczeństwo? Jak zadbać o to, by wolność pogodzić z równością? Najbardziej wpływowej w ostatnim półwieczu odpowiedzi na te pytania udzielił John Rawls, filozof polityczny, którego 100. rocznica urodzin przypada w 2021 roku. Mija także 50 lat od momentu opublikowania jego książki „Teoria sprawiedliwości”, w której sformułował słynne dwie zasady sprawiedliwości, a także przedstawił eksperyment „zasłony niewiedzy”.

O tym, dlaczego Rawls i jego myśl są tak ważne, rozmawiam z dr. Łukaszem Dulębą, politologiem, autorem książki „Przemiany liberalizmu społecznego na gruncie anglosaskiej myśli i filozofii politycznej”.

Podcast „Głośne myślenie” o Stanach Zjednoczonych po odejściu Donalda Trumpa

W nowym odcinku podcastu „Głośne myślenie” rozmawiam z dr. Łukaszem Dulębą, badaczem myśli, filozofii i teorii politycznej. Jakie problemy pozostawia po sobie w Stanach Zjednoczonych Donald Trump? Czy Joe Biden będzie potrafił je rozwiązać? I czy przezwyciężenie kryzysu amerykańskiej demokracji jest możliwe bez przemyślenia historycznych idei, które przez ponad dwa stulecia kształtowały ten system polityczny?

Demokracja predyktywna, czyli jak sztuczna inteligencja zmienia politykę

Czym jest demokracja predyktywna? W ostatnim tygodniu mówiłem o tym podczas dwóch seminariów: dla pracowników naukowych i doktorantów Wydziału Nauk o Polityce i Administracji UKW oraz dla badaczy w Centre for Research in the Arts, Social Sciences and Humanities (CRASSH) na Uniwersytecie w Cambridge.

Demokracja predyktywna to możliwa – a nawet całkiem realna – perspektywa rozwoju współczesnej polityki demokratycznej. W świecie, w którym coraz częściej tradycyjne mechanizmy decyzyjne zastępowane są przez algorytmy sztucznej inteligencji, polityka, rozumiana jako deliberacja albo agonistyczny spór, może zostać zmarginalizowana. W swoich wystąpieniach przekonywałem, że algorytmy pozbawiać nas mogą autonomii – zdolności decydowania o naszych preferencjach i potrzebach. Utrata tej zdolności ma konsekwencje nie tylko dla nas samych, lecz także dla całego systemu demokratycznego. Opiera się on na założeniu, że legalne są tylko te instytucje, które wspierane są przez wolnych, a więc i autonomicznych obywateli. Odbierając ludziom autonomię, narażamy na szwank legitymizację instytucji demokratycznych.

Koncepcja demokracji predyktywnej służy mi jako tak zwana pompa intuicji – mechanizm wydobywania naszych przeświadczeń moralnych i politycznych. Pomaga ona uzmysłowić sobie, jakie są nasze wartości i preferencje, a także odpowiedzieć na pytanie, dlaczego są one dla nas cenne, warte zachowania, albo też – z drugiej strony – nieprzydatne.

Podczas obu seminariów otrzymałem wiele interesujących pytań, które niewątpliwie skłonią mnie do przemyślenia i ulepszenia zaprezentowanych argumentów. Wszystkim uczestniczkom i uczestnikom bardzo za to dziękuję!

Dlaczego badacze społeczni i humaniści powinni zainteresować się sztuczną inteligencją właśnie teraz?

Ostatnia dekada przyniosła ogromne zmiany w dziedzinie technologii sztucznej inteligencji. Wykorzystanie sztucznych sieci neuronowych (Artificial Neural Networks – ANN) w ramach tzw. uczenia głębokiego (deep learning) otworzyło drogę do powstania niedostępnych nigdy wcześniej narzędzi analitycznych, wykorzystywanych dziś przede wszystkim – lecz nie tylko – w biznesie.

Przedstawiciele nauk społecznych i humanistycznych, szczególnie w Polsce, wciąż jeszcze nie doceniają skali transformacji, którą spowoduje tak rozumiana, wąska sztuczna inteligencja. Wciąż jeszcze zbyt wiele osób, słysząc o sztucznej inteligencji, myśli o obrazach superinteligentnych maszyn, znanych z literatury i kina fantastycznego. Tymczasem chodzi tu nie o opowieści o zabójczych robotach, a bardzo konkretne narzędzia informatyczne oraz rozmaite sposoby ich użycia.

Sądzę, że jako badacze społeczni i humaniści powinniśmy zainteresować się sztuczną inteligencją w dwóch aspektach: jako przedmiotem badań oraz jako zestawem narzędzi.

Po pierwsze, powszechność sztucznej inteligencji prowadzi do transformacji całych sektorów życia społecznego, politycznego i gospodarczego. Jako takie, sztuczna inteligencja oraz zmiany, które wywołuje, powinny stać się przedmiotem naszych badań. Już teraz w nauce międzynarodowej trwają debaty na temat etyki i zarządzania sztuczną inteligencją. Bada się konsekwencje zmian technologicznych dla rynku pracy, ustroju demokratycznego czy stosunków międzynarodowych, w których można spodziewać się nowego wyścigu zbrojeń, tym razem związanego z technikami cyfrowymi. Także w humanistyce coraz częściej spotyka się badania nad sztuczną inteligencją, chociażby nad tym, jak w historii różnych kultur kształtowały się wyobrażenia i narracje o inteligentnych maszynach.

Po drugie, badacze społeczni i humaniści powinni zainteresować się sztuczną inteligencją jako narzędziem badawczym. Możliwości eksploracji danych tekstowych (text mining), związane z technikami przetwarzania języka naturalnego (natural language processing), a także zaawansowane metody ilościowe pomogą w odkryciu niedostrzegalnych „gołym okiem” prawidłowości. Dzięki znajomości podstaw statystyki oraz programowania w języku R czy Python, mamy szansę sięgnąć po dane typu Big Data i dowiedzieć się o społeczeństwie, kulturze czy polityce zupenie nowych rzeczy.

Rządy państw zachodnich powołują do życia specjalne instytucje, których celem jest studiowanie obecnego wykorzystania i przyszłych możliwości sztucznej inteligencji. Wiodące są w tym zakresie Leverhulme Centre for the Future of Intelligence w Cambridge oraz Future of Life Institute w Cambridge, Massachusetts.

Mimo to, wciąż jeszcze oba wskazane wyżej aspekty sztucznej inteligencji są bardzo słabo obecne w światowych badaniach społecznych i humanistycznych. To jednak zmienia się bardzo szybko. Dlatego uważam, że właśnie teraz jest czas na to, by sztuczną inteligencją zainteresowali się polscy uczeni. Świat nie będzie na nas czekał.