Hovor 'Mami, měl jsem nehodu, potřebuji rychle peníze' je klasická manipulace, která existuje už desítky let. Od 2025 ale dostala nový rozměr — AI hlasový klon (deepfake) dokáže napodobit hlas konkrétní osoby z 30 vteřin nahrávky. První případy v ČR se objevily v létě 2025. Tady je, jak postupovat.

Postup krok za krokem

  1. Útočník využívá emoce — strach, soucit. Pod stresem ztrácíte schopnost kriticky uvažovat. Řekněte si: 'Mám 5 minut, abych si to ověřil. Skutečná nouze toto čekání zvládne.'
  2. Najděte si v kontaktech číslo, které máte na člena rodiny uložené dlouhodobě. Zavolejte z jiného telefonu nebo z jiné aplikace. Pokud se dovoláte, máte jistotu, že byl předchozí hovor scam.
  3. Předem domluvená 'rodinná' fráze nebo slovo, které zazní při skutečné nouzi. Útočník (ani AI klon hlasu) nemůže vědět, co je vaše bezpečné slovo. Pokud je nezná, je to scam. Pokud bezpečné slovo nemáte, dohodněte si ho s rodinou hned po přečtení tohoto článku.
  4. Položte otázku, kterou byste měli vědět jen vy dva: 'Jaký je nejhorší zážitek z dovolené v Itálii, který jsme zažili?' AI klon nemá tuto informaci a buď pauzuje, generuje generickou odpověď, nebo selže.
  5. Pokud zjistíte, že je situace skutečná (skutečně volal člen rodiny ze sedavé linky), pomozte normální cestou. Pokud byl scam, nahlaste případ Policii ČR (158, policie.cz) a NÚKIB (nukib.cz). Pomáhá to s vyšetřováním AI scams jako precedentem.
  6. Mluvte o tomto scamu se staršími členy rodiny. Vysvětlete jim, že hlasy mohou být uměle vytvořené. Bezpečné slovo je nejúčinnější obrana — nevyžaduje technické znalosti, jen domluvu.

#ai #deepfake #rodina #scam