Fake news, chaos informacyjny i syntetyczni influencerzy. Jak obronić przed tym siebie i dzieci?
Rozmowa z ekspertką od sztucznej inteligencji dr hab. Aleksandrą Przegalińską

Jeśli ostatnio miotasz się pomiędzy sprawdzaniem, co napisał Zełenski, chęcią ucieczki od tematu wojny, a pokusą udostępniania coraz to nowych newsów na temat Ukrainy, witamy w klubie. Jak rozpoznawać fake news? Czy wylogowanie się z Instagrama jest ruchem oporu, czy raczej dezercją w cyberwojnie? Co z dziećmi, które też śledzą wszystko w Internecie? Czy sztuczna inteligencja nas podsłuchuje i sugeruje, co lajkować? Na te i wiele innych pytań o współczesny cyfrowy świat odpowiada dr Aleksandra Przegalińska.
Jest mamą ośmiolatki, wicerektorką Akademii Leona Koźmińskiego i razem z naukowcami Harvarda bada rozwój nowych technologii – w szczególności sztuczną inteligencję. Do Aleksandry Przegalińskiej, która obecnie mieszka w Massachusetts w USA, dzwonię w porze jej porannej kawy. To, że nasza rozmowa odbywa się zdalnie, na pewno nikogo już nie dziwi. A przecież jeszcze dziesięć czy dwadzieścia lat temu zdalna szkoła czy praca wydawały się pomysłami rodem z futurystycznej kreskówki „The Jetsons”. Technologie idą do przodu, dostęp do informacji mamy coraz lepszy, a jednak po raz pierwszy przed wywiadem zastanawiam się, czy pytania, które przygotowałam, nie okażą się oparte na fejkowych przesłankach. Bo skoro dziś nawet New York Times i BBC publikując, zastrzegają sobie, że mogą się mylić, to jakiemu źródłu można zaufać?
Wydawałoby się, że świat nowych technologii nie dotyczy specjalnie rodziców małych dzieci. Czy przyszło ci kiedykolwiek do głowy, że twój ulubiony influencer może tak naprawdę… nie istnieć? A jednak, syntetyczny świat jest bliżej niż myślisz. Prawdopodobnie czytasz ten artykuł, scrollując coś w komórce… W Twoim smartphonie sztuczna inteligencja jest w apce pogodowej, w mobilnym banku, sugeruje ci, co jest dobre dla twojego dziecka, i co najgorsze – wpływa na twoje poglądy. Czy powinniśmy uczyć siebie i dzieci odróżniać chat-boty od ludzi, wychwytywać trolle i dbać o prywatność online? Mam nadzieję, że wyjaśni mi to dr hab. Aleksandra Przegalińska, dla której świat syntetycznych mediów, silników rekomendacyjnych i internetowych narzędzi nie stanowi tajemnicy.



„Ukraina zdecydowanie chce, żeby świat widział tę wojnę przez media społecznościowe”
Zacznę od tematu zalewu informacji i dezinformacji. Podobno na wojnie nikt nie mówi prawdy?
Coś w tym jest, że nie możemy do końca nikomu ufać, zwłaszcza w sferze polityki międzynarodowej. Najistotniejsze są jednak intencje, jakie stoją za tym, by prawdy nie mówić. Jeśli Ukraińcy mówią o stratach rosyjskich, wyolbrzymiając je, jednocześnie o swoich stratach mówią niewiele, to nie jest to dezinformacja per se, tylko element gry. Walka Ukrainy z Rosją to jak starcie Dawida z Goliatem. Chodzi o to, by budować morale i siłę psychiczną do obrony i podkopać morale przeciwnika.
Lepiej przyjąć, że wszyscy w Internecie kłamią?
Na pewno Rosja ma bardzo duże doświadczenie w sferze dezinformacji, w rozsiewaniu kompletnie wymyślonych fake news i budowania propagandy w oparciu o narzędzia, które być może niedługo w Unii Europejskiej zostaną zakazane – bo już jest przygotowana regulacja Komisji Europejskiej. Mam tu na myśli deep fakes.
… czyli zaawansowane technologicznie fejkowe nagrania video.
To coś w rodzaju syntetycznie tworzonych postaci i filmów, które do złudzenia przypominają rzeczywiste osoby i ich nagrania. Wyglądają bardzo realistycznie, ponieważ są tworzone za pomocą sieci neuronowej i sztucznej inteligencji. Wiemy, że rosyjska machina propagandowa korzysta z takich technologii w tej wojnie – przykładem jest przypadek pewnej nauczycielki z Kijowa. Była to wygenerowana syntetycznie postać w mediach społecznościowych, która rzekomo czekała na wojska Putina, wspierała go na swoich kanałach. Był też ukraiński influencer, również rzekomo pro-Putinowski. Okazało się, że obie te postaci stworzono przy użyciu sztucznej inteligencji – one po prostu nie istnieją, a ich konta i treści, które tam publikowano, to właśnie deep fakes.
Teraz słyszymy ostrzeżenia przed deep fake z Wołodymyrem Zełenskim.
Owszem, kilkanaście dni temu pojawiły się takie ostrzeżenia, że Rosjanie mogą wygenerować deep fake, na którym prezydent Ukrainy ogłasza kapitulację. Zaraz potem „Wired” doniósł, że wychwycono dwa takie deep fake’i w mediach społecznościowych. Dla mnie oczywiście nie ma wątpliwości, jak interpretować tego rodzaju rewelacje czy też inne sensacje szkalujące Ukraińców. Wszystko, co robi teraz Rosja, to szerzenie dezinformacji i propagandy. Absurdalny jest nawet oficjalny cel tej wojny – strona rosyjska cały czas mówi o konieczności denazyfikacji Ukrainy. Jakiej denazyfikacji? Denazyfikacji kraju, który ma prezydenta Żyda?
Machina propagandowa jedzie jednak dalej i deep fakes krążą w sieci. To prawda, że łatwo wykonać je telefonem? Czy każdy może włożyć w usta polityka kłamstwa albo podmienić gwieździe porno twarz na video, by wyglądała jak koleżanka z pracy?
Na szczęście część narzędzi do tworzenia deep fakes jest niedoskonała. By stworzyć naprawdę realistyczny deep fake istniejącej osoby, musimy dysponować wieloma jej zdjęciami, mieć sporą dokumentację ukazującą różnorodną mimikę. Jeśli tych zdjęć mamy mało, wtedy jest szansa, że deep fake będzie słabej jakości i oszustwo da się wyłapać gołym okiem. Warto natomiast rozróżnić, że są deep fake’i ukazujące ludzi zarówno istniejących, jak i nieistniejących.
Jak można rozpoznać deep fake?
W przypadku osób publicznych, jak w filmiku z Obamą sprzed kilku lat czy deep fake’u Kaczyńskiego, podejrzenia mogą wzbudzić treści wypowiadane przez bohatera. Pamiętam, że Barack Obama wygłaszał nietypowe dla siebie rzeczy, używał wulgaryzmów, więc dość łatwo było rzucić na to video cień podejrzeń. Znane osoby trudniej za pomocą technologii „podrobić”, bo znamy ich mimikę i ton. Często w deepfake’owych filmach postacie mówią w zmieniony czy spowolniony sposób, albo dziwnie wodzą oczyma. Oczywiście żeby to wyłapać, trzeba przede wszystkim mieć świadomość, że być może mamy do czynienia z deep fake.
A co z syntetycznymi osobami, influencerami? Też łatwo wyłapać sztuczność?
Niestety z wielu zdjęć różnych osób można stworzyć sieć generatywną, czyli model sztucznej inteligencji, która wykreuje nam nowego „syntetycznego człowieka”, bohatera filmu, który tak naprawdę nie istnieje. Takiego deep fake’a już trudniej wychwycić. Na szczęście są już narzędzia, które w tym pomagają. To trochę ironia losu, bo one też są oparte na sztucznej inteligencji. Moim ulubionym jest „Detect Fakes” – narzędzie stworzone na M.I.T. w Bostonie (Massachusetts Institute of Technology – przyp.red.). Pozwala ono wgrywać dowolne wideo i obliczać procentowe prawdopodobieństwo, że mamy do czynienia z deep fake. Program ten sprawdza parametry obrazu, jego ciągłość, wychwytuje to, czego my możemy nie zauważać. Moim zdaniem jest wystarczającym narzędziem dla „zwykłych” użytkowników Internetu. Bo oczywiście są też bardziej zaawansowane, profesjonalne programy do użytku np. biznesowego.
Skoro dezinformacja i propaganda wchodzą na tak zaawansowany poziom, to czy można powiedzieć, że wojna, którą od ponad miesiąca śledzimy w mediach społecznościowych, to wojna cyfrowa? Czy najważniejsza walka toczy się o nastroje społeczne?
Nie powiedziałabym tak. Mamy przecież klasyczną wojnę, działania militarne, giną ludzie i bombardowane są domy. Natomiast tym, co tę wojnę w jakimś stopniu wyróżnia, jest to, że śledzi ją przez media społecznościowe cały świat. Yuval Harari w „The Economist” powiedział, że to jest wojna „śledzona minuta po minucie”. Oczywiście już wcześniej było tak, że oglądaliśmy konflikty za pomocą mediów, ale tym razem na szeroką skalę wykorzystano nowoczesne technologie, i gdzie media społecznościowe odgrywają ważną rolę. Zełenski i jego ekipa, a także inni ukraińscy politycy, np. Minister Dmytro Kułeba – nagłaśniają wszystko, co się dzieje: bohaterstwo ukraińskich żołnierzy, straty rosyjskie, relacje z walk itd. Realizują przyjętą strategię informacyjną. Zełenski przemawia online we wszystkich możliwych kanałach, pojawia się zdalnie w parlamentach. Dostał dostęp do Starlinka od Elona Muska, pięć minut później podziękował mu na Twitterze. Ukraina zdecydowanie chce, żeby świat widział tę wojnę przez media społecznościowe.
„Sposobem na trolle jest wyłączanie ich treściom możliwości stania się viralami”
Czy to, że z dnia na dzień nasz feed na Instagramie, Facebooku i TikToku został zdominowany przez treści o wojnie w Ukrainie, stało się organiczne? Czy może to algorytm, który ma być wsparciem dla ukraińskiej sprawy?
Myślę, że jednak organiczny komponent jest tutaj bardzo duży. Generujemy sporo treści na ten temat, więc algorytm sam przestawia się na to, co jest popularne. Jeśli informacja jest szeroko dystrybuowana, przewija się w prywatnych wiadomościach, to trafia wysoko do newsfeedu, jako tzw. trending topic. Z drugiej strony oczywiście jest to odgórna moderacja, bo np. Facebook stara się o likwidowanie gniazd trolli – również trolli Putina – i o eliminowanie fałszywych informacji, a priorytetyzowanie treści ze zweryfikowanych źródeł. To, co ma znamiona propagandy, jest moderowane, a przynajmniej podejmowane są próby takiego ręcznego sterowania. Nie jest to jednak do końca skuteczne. Ja, mimo iż bardzo starannie dopasowuję feed do swoich preferencji, o dziwo ostatnio zobaczyłam u siebie post wychwalający Putina.
I jak Pani to interpretuje?
Mam sporo followersów, ale też bardzo dużo tzw. Facebook friends, bo osiągnęłam górny limit pięciu tysięcy. Z wieloma tymi osobami nie mam jednak kontaktu. Post, o którym mówię, został zamieszczony przez faceta, którego nie pamiętam, to był ktoś z peryferiów mojej sieci społecznościowej. Prawdopodobnie widoczność podbiła mu lawina komentarzy. Jego wpis popierający Putina dorobił się wielu reakcji, m.in. tzw. angry faces. To nie oznacza, że osoby które tam się angażowały i komentowały, popierały autora. Antagonizujące treści zawsze przykują uwagę, a wokół wojny jest siłą rzeczy dużo kontrowersji i antagonizmów. To pokazuje, że najlepszym, co można zrobić, by odebrać popularność takim trollom, to nie reagować, nie lajkować, nie wdawać się w dyskusję.
Posty wspierające Putina powinny być spychane w dół feedu?
Tak, takie posty nie powinny zyskiwać widoczności, mimo że nie zawsze jest łatwo jednoznacznie ocenić, które z nich są Putinowi przychylne, a które nie.
Widzę pewien konflikt interesów: media społecznościowe mają się samoregulować i szerzyć zweryfikowane newsy, a nie clickbaity. Czy rzeczywistym priorytetem mediów społecznościowych nie jest przykuwanie naszej uwagi i zarabianie na tym?
Parametrów doboru treści, które uwzględnia algorytm, jest znacznie więcej niż tylko „przykuwanie uwagi”. To właściwie nie jest algorytm, ale wiązka algorytmów. One biorą pod uwagę m.in. to, co wcześniej oglądałam, to, co osoby, które są w moim kręgu, oglądały i lajkowały, to, co udostępniały osoby, z którymi kontaktuję się przez komunikatory, to, na ile te treści powielają schemat informacyjny, który wcześniej już przyswajałam, i tak dalej. Idealnie byłoby, gdybym otrzymywała treści po pierwsze zgodne z moimi zainteresowaniami, po drugie zweryfikowane przez osoby, którym ufam. Dlaczego więc dostaję czasami trollowe treści? Właśnie dlatego, że jednym z parametrów doboru jest wysokie zaangażowanie. Sposobem na trolle jest wyłączanie ich treściom możliwości stania się viralami.
Skoro mowa o viralach: co Pani myśli o sześciosekundowej akcji opozycyjnej Mariny Owsiannikowej? Pojawiły się liczne spekulacje, że to rosyjska fejkowa inscenizacja, bo rzekomo w Rosji nie ma telewizji na żywo. Próbując dojść do prawdy, czułam się jak w filmie „Incepcja”.
To naprawdę dziwna, nieoczywista sprawa, bo jak rozumiem, Owsiannikowa nie spotkała się do tej pory z żadną poważniejszą konsekwencją swojego czynu. Kara pieniężna w Rosji za taką dywersyjną akcję przy tym, co spotkało choćby Aleksieja Nawalnego, jest rzeczywiście zastanawiająco lekka. Pytanie tylko, czy jeśli występ Owsiannikowej był pomysłem Rosjan, to po co mieliby tworzyć taki teatr? Co zyskaliby politycznie? Myślę, że termin „incepcja”, którego Pani użyła, bardzo tu pasuje. Moja rada to stawiać na rzetelne dziennikarstwo i wiarygodne źródła informacji, a jeśli mówić o zastrzeżeniach, to też ostrożnie. Zastanawiam się, czy w ogóle tego rodzaju tematy są warte dłuższego roztrząsania. Moim zdaniem Zachód powinien raczej podkreślać, że wychwytuje się rosyjskie trolle, obalać propagandę, nagłaśniać to, że po sieci krążą nieistniejący ludzie, którzy rzekomo wspierają Putina. Tu chodzi nie tylko o ustalenie tego, co jest faktem, ale o zwycięstwo w wojnie informacyjnej.
No ale co taka zwykła osoba, mama na Instagramie, może z tym zrobić?
Może budować świadomość tego, jak jesteśmy poddawani dezinformacji. Za mało się o tym mówi. Nie zrobiono tego w przypadku sprawy Cambridge Analitica (afery ujawniającej wyciek danych, w tym rozmów prywatnych 87 milionów użytkowników Facebooka, które następnie trafiły do Rosji – przyp. red.). Do ludzi nie dotarło dostatecznie dużo informacji o tym, że Rosja próbowała wszelkimi możliwymi sposobami wpływać na nasze poglądy. Dlatego trzeba pokazać, co Rosja robi teraz: tworzy syntetycznych ludzi, by wmówić nam, że ktoś ją popiera. Do takich metod posuwa się Putin. Nauczmy się wykrywania fake newsów, wyciszania dezinformacji i nie dajmy się podburzać.
A propos podburzania: dlaczego Facebook nie blokuje propagandowych kont takich jak choćby niesławny Kremlin Russian, który kpi nawet z tego, jak Polacy pomagają ukraińskim uchodźcom?
To, że media społecznościowe META zostały wywalone z Rosji, nie znaczy że Rosja się wywaliła z naszych mediów społecznościowych (śmiech).
To znaczy?
Usuwanie rosyjskich propagandowych kont trwa, a nowe powstają bardzo szybko. Konto na Instagramie z dużą liczbą followers można utworzyć w ciągu kilku dni, wystarczy kupić tych followujących, choć to oczywiście oznacza, że społecznością będą właściwie same boty. By sprawnie likwidować konta trolli takich jak Kremlin Russian, potrzeba zwiększyć zasoby po obu stronach. Musi być większe zaangażowanie samego serwisu społecznościowego, ale też my, użytkownicy, musimy mobilizować się do zgłaszania tych kont. Jeśli Instagram dostanie jednego dnia 150 tysięcy raportów, takie konto zostanie w końcu zablokowane.
Jak to się stało, że zlikwidowano Twittera Donalda Trumpa, a oficjalny Twitter Kremla nadal funkcjonuje?
To jest pewien problem (śmiech). Mówiąc poważnie, myślę że z Trumpem to był bardzo radykalny ruch, o krok za daleko, i spowodował sporego kaca u osób, które podjęły taką decyzję. Usunięcie Trumpa z Twittera było rzekomo związane z treściami dezinformacyjnymi, które powielał. Myślę, że teraz są dużo ostrożniejsi, poczuli ciężar tego ruchu i boją się go wykonać ponownie. Choć sprawa Putina wydaje się dużo bardziej jednoznaczna niż sprawa Trumpa. Nie wykluczam, że kolejnym etapem sankcji czy działań wymierzonych w Rosję nie będzie jednak kasowanie oficjalnych kont państwowych w mediach społecznościowych. Z drugiej strony wyobrażam sobie, że oficjalny przekaz na Zachód. jaki płynie z Kremla, też jest jakąś informacją polityczną, którą możemy wykorzystywać. Budzą się demony z czasów Zimnej Wojny.
Jak dokładnie rozumieć blokadę META, usunięcie Facebooka, Instagrama i Twittera w Rosji? Zauważyłam, że rosyjskie konta nadal działają.
To, że w Rosji jest zablokowany dany kanał social media, oznacza, że nie działa on tylko na terenie tego kraju. Gdy byłam w Chinach, gdzie Instagram jest nielegalny, moje instakonto nadal istniało, tyle że było nieaktywne, nie mogłam niczego nowego dodawać.
Ale ja cały czas widzę nowe posty rosyjskich influencerów, sportowców, i inne rosyjskie profile instagramowe, ktoś cały czas z nich korzysta i na nich zarabia.
To mogą być konta założone w USA, z IP z innego kraju. Mogą też być to posty wrzucane za granicą albo ich autorzy korzystają z VPN-u. Jestem za tym, by nie wyłączać Instagrama i Twittera wszystkim Rosjanom, a jedynie, by blokować posty i konta osobom, które aktywnie rozsiewają kłamstwa. Wolałabym np. żeby konto Chodorkowskiego czy Kasparowa zostało aktywne (śmiech).


„Sztuczna inteligencja otacza nas w wielu miejscach: od aplikacji do prognozowania pogody, przez silniki rekomendacji treści, czyli media społecznościowe, po Netflixa i Spotify”

Jaki Pani zdaniem wpływ na młode pokolenie będzie miało to, co jest publikowane obecnie w kontekście konfliktu rosyjsko-ukraińskiego w mediach społecznościowych?
Mam ośmioletnią córkę i dzieci w jej amerykańskiej szkole wiedzą, że jest wojna, rozmawiają o tym. Jestem wdzięczna, że mają okazję rozmawiać nie tylko między sobą, ale też z nauczycielką, która – tak się składa – jest narodowości ukraińskiej. Najmłodszym odbiorcom mediów społecznościowych potrzeba dorosłej osoby, która będzie umiała mądrze przeprowadzić je przez temat tego konfliktu. Jeśli chodzi o starsze dzieci – każda generacja wypracowała sobie swój kanał komunikacji w temacie tej wojny. Gen Z, czyli młodzi dorośli i nastolatkowie, z pewnością nie polegają na oficjalnych press serwisach i wystąpieniach polityków w wiadomościach, bo ich kanały to tylko TikTok i Instagram. Tam też toczy się wojna informacyjna. Na pewno przydałoby się instytucjonalne wsparcie młodzieży, by poradziła sobie z przyswajaniem tych treści. Nie tylko w kontekście stresu czy niepokoju, ale też instrukcji obsługi tej internetowej „przestrzeni dezinformacyjnej”. Ktoś powinien mówić dzieciom, że mogą pojawić się trolle, że mogą natykać się na deep fake, powiedzieć, że trzeba zgłaszać takie konta, nie lajkować, nie komentować, chować takie treści w swoim feedzie.
Niedawno robiłam wywiad z nastolatką z Tarnopola. O tym, że dom jej koleżanki z klasy został zbombardowany, dowiedziała się z Instagrama. Co możemy zrobić, żeby zminimalizować wpływ treści internetowych związanych z wojną na dzieci? Domyślam się, że nie ma żadnych magicznych sposobów czy filtrów rodzicielskich?
To, że dzieci będą chłonąć te informacje wszystkimi dostępnymi kanałami, jest oczywiste. Nie mam wątpliwości, że te, które mają już dostęp do Internetu i swoje smartphone’y, będą dowiadywać się szybciej i wiedzieć więcej niż ich rodzice. Oczywiście można próbować za pomocą narzędzi kontroli rodzicielskiej ograniczać dostęp do radykalnej przemocy, ale już do informacji o zburzonych domach – raczej nie. Osobiście stawiałabym na relacje z dzieckiem, rozmowy, edukację. Nie zasłonimy wszystkich niepożądanych treści przed dziećmi, tak jak nie da się wyeliminować do końca prokremlowskich trolli z Instagrama.
Co by Pani powiedziała osobom, które czują się bezradne wobec tej sytuacji, przytłoczone tym, jak swobodnie się w tym świecie czują ich dzieci?
Powiedziałabym, żeby nie popadać w nastawienie „to już nie mój świat, ja tego nie ogarniam, nie nadaję się do tego”. Współczesny rodzic musi uczestniczyć aktywnie w cyfrowej przestrzeni, jeśli chce mieć kontakt ze swoim dzieckiem. Sztuczna inteligencja otacza nas wielu miejscach: od aplikacji do prognozowania pogody, przez silniki rekomendacji treści, czyli media społecznościowe, po Netflixa i Spotify. Wszędzie tam są algorytmy, które nam coś proponują, podpowiadają. Mamy wpływ, choć niekompletny, na to, jakie te rekomendacje będą. Wiele osób nie ma wiedzy, że może dość dokładnie dostosować swój feed na Facebooku, lub że może wyłączyć nagrywanie mikrofonu w aplikacjach takich jak Messenger, który raz na godzinę nagrywa 12 sekund naszego głosu.
Czyli to prawda, że telefony nas podsłuchują?
Tak, i my wszyscy się na to zgodziliśmy, akceptując regulamin. Co więcej – możemy też tę zgodę cofnąć albo ustawić tak, że będziemy widzieć czerwoną lampkę – dostaniemy informację, że jesteśmy nagrywani.
No dobrze, chcę wydać osobistą wojnę silnikom sztucznej inteligencji i machinie dezinformacji. Od czego zacząć?
Warto przy korzystaniu z serwisów streamingowych czy kont społecznościowych zrobić ten „pierwszy krok uświadamiający” i zadać sobie pytanie: dlaczego dostałam/dostałem taką akurat rekomendację? Dlaczego widzę takie treści na Facebooku i Instagramie? Mam wrażenie, że często przyjmujemy rekomendacje jak leci, a przecież możemy zablokować treści czy reklamy, które nam nie odpowiadają. Jestem też za tym, by rodzice inicjowali z dziećmi rozmowy o dostosowywaniu preferencji w serwisach, z których dziecko korzysta. By pokazywali, że można „przejąć kontrolę nad narzędziem”. Można wspólnie zająć się preferencjami kont w serwisach, powiedzieć: pogadajmy o tym, co cię interesuje, a co mogłoby ci zaśmiecać czas, ustalmy razem jakąś higienę informacyjną. Zapytajmy dziecko o znajomych, o to, z kim wymienia się informacjami. Można umówić się, że jeśli dziecko interesuje się szachami, to,lajkujemy to i to, niech ten obszar będzie dla silnika rekomendacyjnego informacją o nim. To jest wstęp do zrozumienia działania sztucznej inteligencji i krok, by spróbować ten feed samodzielnie regulować.
Naprawdę wierzy Pani, że mamy szansę w starciu z inteligentnymi maszynami? Nie lepiej po prostu wylogować się z sieci?
Silne cyfrowo społeczeństwo nie polega na tym, że ma ograniczony dostęp do informacji – bo to jest rosyjski model: nie dać ludziom szansy, by się czegoś dowiedzieć czy coś przeczytać. W świecie demokratycznych, zachodnich wartości powinniśmy dążyć do tego, by mieć wolny dostęp do treści, ale jednocześnie umieć ocenić wiarygodność informacji, z którymi się stykamy. Umieć wykryć fake news czy zbanować trolla.
Dziękuję za rozmowę.
Dr hab. Aleksandra Katarzyna Przegalińska-Skierkowska – filozofka, futurolog, doktor nauk humanistycznych i doktor habilitowana nauk społecznych. Profesor Akademii Leona Koźmińskiego, publicystka, badaczka sztucznej inteligencji. Aktualnie zamieszkała w Bostonie, mama ośmiolatki.