Łódzcy seniorzy uczą się rozpoznawać oszustwa AI. Eksperci alarmują o nowych zagrożeniach

FK
FK

25 września w Mediatece MeMo odbędą się pionierskie warsztaty dla łódzkich seniorów na temat sztucznej inteligencji. Naukowcy z Politechniki Łódzkiej pokażą, jak nie dać się nabrać na coraz bardziej wyrafinowane oszustwa wykorzystujące technologie AI, w tym deepfake’i.

Seniorzy w centrum uwagi cyberprzestępców

Starsze osoby stają się głównym celem oszustów wykorzystujących sztuczną inteligencję. Badania pokazują, że podatność na wiarę w deepfake’i rośnie z wiekiem. Seniorzy rzadziej rozróżniają sztuczną mowę od prawdziwego głosu i uznają ją za bardziej naturalną niż młodsze osoby.

Najczęstsze zagrożenia AI dla seniorów:

  • Deepfake’i audio imitujące głosy bliskich podczas „oszustw na wnuczka”
  • Fałszywe filmy i zdjęcia wykorzystujące wizerunki znanych osób
  • Personalizowane wiadomości phishingowe dostosowane do profilu psychologicznego ofiary
  • Manipulowane treści wzbudzające emocje – samotność, strach, religijność

Co pokazuje statystyka

Eksperci alarmują o skali problemu. Co piąty Polak po 65. roku życia padł ofiarą kradzieży lub próby wyłudzenia danych osobowych. Z kolei 62 proc. seniorów miało bezpośredni kontakt z próbami wyłudzenia pieniędzy w przestrzeni cyfrowej.

Najbardziej podatna grupa: 29,9 proc. osób w wieku 60-74 lat nigdy nie korzystało z internetu, co sprawia, że stają się łatwym celem dla cyberoszustów.

Warsztaty w praktyce

Spotkanie 25 września w godz. 10:00–12:00 w Mediatece MeMo będzie prowadzone w małych grupach. Dr hab. Edyta Pietrzak z Politechniki Łódzkiej zapowiada, że uczestnicy nie będą testować gadżetów, ale rozmawiać o realnych potrzebach.

Nowe metody oszustów

Przestępcy wykorzystują AI do tworzenia coraz bardziej wiarygodnych manipulacji. Potrzebują zaledwie trzech sekund nagrania, aby skopiować głos. Sztuczna inteligencja pozwala także na szybsze tłumaczenie fałszywych maili na różne języki i personalizację przekazów.

Szczególnie niebezpieczne: Oszuści podszywają się pod bliskich, wykorzystując sklonowane głosy do wyłudzania pieniędzy podczas fałszywych „wypadków” czy „aresztowań”.

Quick Link

Podaj dalej
Zostaw komentarz

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *