Czy maszyna może nas zrozumieć? Czy my, ludzie, jesteśmy gotowi na emocjonalną więź z AI? W ramach cyklu „Nauka mówi” rozmawialiśmy o relacyjnej i emocjonalnej warstwie technologii. Dyskusję z dr Adą Florentyną Pawlak oraz prof. Włodzisławem Duchem poprowadził Wojciech Brzeziński, dziennikarz naukowy.
Czas przywiązania
AI przestało być jedynie narzędziem pracy, a stało się elementem naszej psychosfery. Dr Ada Florentyna Pawlak zauważyła, że przechodzimy z fazy „ekonomii uwagi” (znanej z mediów społecznościowych) do „ekonomii przywiązania” (attachment economy). Systemy AI nie tylko walczą o nasz czas, ale są projektowane tak, by budować z nami trwałą relację.
Algorytmy potrafią dziś przeprowadzić swoisty „audyt algorytmiczny” użytkownika – rozpoznają ton głosu, styl osobowości, a nawet konkretny moment życiowy, np. stan po rozstaniu, co pozwala im modelować odpowiedzi wywołujące u nas określone reakcje.
– To nie jest empatia fenomenologiczna, nie ma emocji, uważam, że nie ma świadomości, jest empatią funkcjonalną. To taka empatia, która zaprasza nas do relacji, a tę relację nazywam technointymnością – mówi dr Ada Florentyna Pawlak.
Sztuczna empatia
W dyskusji wybrzmiał fascynujący spór o naturę „uczuć” maszyn:
- Empatia funkcjonalna: Zdaniem dr Pawlak, AI wykazuje empatię funkcjonalną – zaprasza nas do relacji (technointymności), choć sama nie posiada emocji fenomenologicznych ani świadomości.
- Rezonans mózgów: Prof. Duch przedstawił perspektywę neurobiologiczną, zauważając, że ludzki mózg to również zbiór neuronów zliczających impulsy. Zdefiniował komunikację jako rezonans pomiędzy mózgami, który można zaobserwować np. w badaniach EEG. Jeśli sieć neuronowa AI synchronizuje się z naszym sposobem myślenia i wyczuwa ironię czy metafory, granica między „prawdziwym” a „obliczeniowym” odczuwaniem staje się płynna.
Od mitycznego Turka do „Grief-techu”
Ludzka skłonność do ulegania iluzji ma długą historię. Mechaniczny Turek to maszyna do gry w szachy z XVIII wieku, która imitowała inteligencję, ukrywając wewnątrz człowieka. To symbol naszej odwiecznej chęci bycia zwodzonym przez technologię.
Należy pamiętać także o tzw. Efekcie Elizy (lata 60. XX w.) – nazwanym tak na cześć imienia pierwszego chatbota stworzonego przez Josepha Weizenbauma. Ludzie przypisywali maszynie ludzkie cechy i intencje, mimo że była ona jedynie prostym mechanizmem parafrazującym wypowiedzi.
Współcześnie bardzo dużo mówi się o Digital Afterlife Industry, czyli o tym, jak technologie pozwalają na „ożywianie” zmarłych. To kontrowersyjny obszar tzw. Grief-techu, który zmienia sposób, w jaki przeżywamy żałobę.
AI bezpieczne?
Dla najmłodszego pokolenia sztuczna inteligencja może stać się „bezpiecznym schronieniem” przed trudami relacji rówieśniczych, hejtem czy odrzuceniem. AI zawsze wysłucha, nie oceni i prawi komplementy. Dr Pawlak ostrzegła jednak przed trendami takimi jak sologamia (samoślub) czy antynatalizm, wynikającymi z lęku przed kosztownymi energetycznie relacjami z drugim człowiekiem. Czy sztuczna inteligencja, zamiast komunikować i przekazywać informacje, może wspierać nasz rozwój, inspirować?
– Póki co nie ma fajnych większych programów, które powiedzą „ok, jeśli chcesz, żebym ci pomógł w biologii, czy historii, to to zrobię”. Póki tego nie będzie, obawiam się, że będziemy widzieli duże straty. To będą narzędzia wykorzystywane do nawiązywania relacji emocjonalnych. A to duże niebezpieczeństwo – podsumowuje prof. Włodzisław Duch.
Było też sporo pytań o to, jakie czynności prawne i organizacyjne można podjąć, by uchronić się przed negatywnymi skutkami działania AI. Dziękujemy za tak liczne przybycie w piątkowy wieczór.
O sztucznej inteligencji będziemy rozmawiać także podczas kolejnego spotkania NAUKA MÓWI. 17 września naszymi gośćmi będą dr Aleksandra Przegalińska oraz prof. Andrzej Dragan. Zarezerwujcie termin, szczegóły niebawem.


