O krytycznym podejściu do źródeł było już kilkukrotne. Zaczęło się w czerwcu, kilka miesięcy po wybuchu wojny na Ukrainie, kiedy to razem z Beatą Chodacką, wiceprezeską krakowskiego PTI wystąpiłyśmy podczas reaktywowanej serii spotkań online poświęconych tematyce edukacyjnej. Pomysł narodził się po fali rosyjskiej inwazji na Ukrainę w lutym 2022 roku, kiedy to Polska – jako sąsiad Ukrainy, członek NATO i jedno z głównych państw wspierających ukraińskich uchodźców – stała się nie tylko areną pomocy humanitarnej i politycznego wsparcia, ale także celem intensywnej kampanii dezinformacyjnej. Wojna informacyjna toczyła się nie tylko za pomocą oficjalnych mediów, ale też dzięki tysiącom anonimowych kont w mediach społecznościowych, botów i tzw. farm trolli, które systematycznie manipulowały opinią publiczną, podważały zaufanie do instytucji oraz siały chaos i nieufność w społeczeństwie. Oczywiście globalnym liderem na tym polu była Rosja. Rosyjskie farmy trolli używały zarówno języka polskiego, jak i ukraińskiego. Często posługiwały się treściami podszywającymi się pod lokalne źródła – udając komentarze obywateli, ekspertów czy nawet dziennikarzy. Przykładem może tu być „Władimir” i „Irina - sztucznie wygenerowane postacie do szerzenia propagandy antyukraińskiej, które były rzekomymi autorami tekstów na portalu „Ukraina Siegodnia”, podszywającym się pod niezależne źródło informacji. Grozę sytuacji potęgował fakt, że treści "Władimira" i "Iriny" były amplifikowane przez boty. Warto tu wspomnieć o roli tych zautomatyzowanych programów komputerowych, które według Jevina D. Westa, Carla T. Bergstroma - autorów książki „Myśl krytycznie nie daj sobie wcisnąć kitu” (wyd. z 2021r.), generują około połowy ruchu w sieci.
Fikcyjne postacie ”Władimira” i „Iriny” zdemaskował na Twiterze dziennikarz NBC News, Ben Collins, podkreślając, ze są one stworzone przez rosyjską farmę trolli. Jego publikacje pomogły w nagłośnieniu sprawy i zwróceniu uwagi na metody wykorzystywane w kampaniach dezinformacyjnych. Więcej na ten temat na Konkret 24.
Jak my możemy sprawdzić, czy dane konto lub zdjęcie jest prawdziwe? Służy do tego wiele narzędzi. Mówiłam o nich podczas wspomnianego wcześniej webinaru - Krytyczne podejście do źródeł podstawą pracy każdego pedagoga. Jeśli nie chcecie jednak do niego wracać przypomnę, że należy przede wszystkim sprawdzić ilość i wiarygodność zdjęć na profilu – czy są autentyczne i czy nie pochodzą z innych źródeł w sieci. Jeśli konto ma tylko jedno lub kilka zdjęć, które wyglądają na stockowe lub generowane przez AI, może to wskazywać na fałszywe konto. Można przy tym skorzystać z narzędzi Krzysztofa Wosińskiego, które zareklamował w publikacji wydanej przez Securitum OSINT NOWY WYMIAR POSZUKIWAŃ W SIECI. Am I Real? pozwala zidentyfikować zdjęcia poprzez analizę umiejscowienia na nich oczu i ust. Jak pisze autor „Oczywiście narzędzie przeznaczone jest tylko do nauki i nie można traktować jego wyników jako wyroczni, ale pozwala ono szybko zweryfikować, czy zdjęcie może być sztucznie wygenerowane, czy nie”.
Kolejną kwestią do prześledzenia jest sprawdzenie spójności informacji na profilu. Jeśli te informacje są niezgodne, może to wskazywać na fałszywe konto.
Do kwestii dezinformacji będę z pewnością wracać, tym bardziej, że wczoraj zakończył się cykl spotkań w ramach programu #DigitalWizards – projektu podczas którego uczniowie z klas 6-8 szkół podstawowych uczą się nie tylko o cyberbezpieczeństwie, ale i nabywają wiedzę z zakresu AI, higieny cyfrowej i marketingu cyfrowego. Wkrótce Wielki Finał – 30.05.2025r. Cieszę się na spotkanie z pasjonatami mądrej technologii. Do zobaczenia!
Fikcyjne postacie ”Władimira” i „Iriny” zdemaskował na Twiterze dziennikarz NBC News, Ben Collins, podkreślając, ze są one stworzone przez rosyjską farmę trolli. Jego publikacje pomogły w nagłośnieniu sprawy i zwróceniu uwagi na metody wykorzystywane w kampaniach dezinformacyjnych. Więcej na ten temat na Konkret 24.
Jak my możemy sprawdzić, czy dane konto lub zdjęcie jest prawdziwe? Służy do tego wiele narzędzi. Mówiłam o nich podczas wspomnianego wcześniej webinaru - Krytyczne podejście do źródeł podstawą pracy każdego pedagoga. Jeśli nie chcecie jednak do niego wracać przypomnę, że należy przede wszystkim sprawdzić ilość i wiarygodność zdjęć na profilu – czy są autentyczne i czy nie pochodzą z innych źródeł w sieci. Jeśli konto ma tylko jedno lub kilka zdjęć, które wyglądają na stockowe lub generowane przez AI, może to wskazywać na fałszywe konto. Można przy tym skorzystać z narzędzi Krzysztofa Wosińskiego, które zareklamował w publikacji wydanej przez Securitum OSINT NOWY WYMIAR POSZUKIWAŃ W SIECI. Am I Real? pozwala zidentyfikować zdjęcia poprzez analizę umiejscowienia na nich oczu i ust. Jak pisze autor „Oczywiście narzędzie przeznaczone jest tylko do nauki i nie można traktować jego wyników jako wyroczni, ale pozwala ono szybko zweryfikować, czy zdjęcie może być sztucznie wygenerowane, czy nie”.
Kolejną kwestią do prześledzenia jest sprawdzenie spójności informacji na profilu. Jeśli te informacje są niezgodne, może to wskazywać na fałszywe konto.
Do kwestii dezinformacji będę z pewnością wracać, tym bardziej, że wczoraj zakończył się cykl spotkań w ramach programu #DigitalWizards – projektu podczas którego uczniowie z klas 6-8 szkół podstawowych uczą się nie tylko o cyberbezpieczeństwie, ale i nabywają wiedzę z zakresu AI, higieny cyfrowej i marketingu cyfrowego. Wkrótce Wielki Finał – 30.05.2025r. Cieszę się na spotkanie z pasjonatami mądrej technologii. Do zobaczenia!