Польза и вред. Хлеб
19 июня, 14:20
Камчатка 19 июня: первая русская кругосветка
19 июня, 08:50
Польза и вред. Щавель
17 июня, 14:20
Камчатка 17 июня: отделение Камчатки от Приморья в 1909 году и день рождения художника
17 июня, 08:50
Первый созыв Думы Корякского автономного округа (1994–1996 гг.): начало
16 июня, 11:00
Камчатка 16 июня: Первый беспосадочный рейс Москва – Петропавловск-Камчатский
16 июня, 08:50
Вахта Победы: Шахтёрам из Забайкалья вручили Красное Знамя Комитета Обороны и 45 тыс. руб.
15 июня, 21:00
"Никто не хотел умирать": воспоминания очевидца о Курильском десанте
15 июня, 11:00
Камчатка 15 июня: строительство Театра и кругосветка шлюпов "Синявин" и "Моллер"
15 июня, 08:50
Польза и вред. Жимолость
14 июня, 14:20
Камчатка 14 июня: парусное судно "Америка" и День рождения Камчатской таможни
14 июня, 08:50
Камчатка 13 июня: Тяньцзинский трактат и обучение грамоте в Хайрюзово
13 июня, 08:50
Польза и вред. Чёрный чай
12 июня, 14:20
Закон о предоставлении льгот по оплате капремонта пенсионерам старше 70-80 лет
12 июня, 11:00
Камчатка 12 июня: неудачный теплоход, открытие онкодиспансера и почетное звание Топоркова
12 июня, 08:50

Под Новый год активизировались мошенники - используют нейросети

Мошенники используют нейросети для обмана россиян
24 декабря 2024, 17:26 Общество #ТоварищБди
Под Новый год активизировались мошенники - используют нейросети Илья Аверьянов, ИА PrimaMedia.ru
Под Новый год активизировались мошенники - используют нейросети
Фото: Илья Аверьянов, ИА PrimaMedia.ru
Нашли опечатку?
Ctrl+Enter

С приближением Нового года в России активизируются мошенники, использующие технологии нейросетей. Об этом сообщил директор по продукту FABULA AI Родион Кадымов. Злоумышленники все чаще применяют дипфейк-технологии для кражи денег, создавая реалистичные видео и отправляя их друзьям или родственникам через мессенджеры и социальные сети.

Кадымов объяснил, что при взломе аккаунта или отправке голосовых сообщений мошенники могут создать "слепок" голоса за 15 секунд. Это позволяет им общаться с жертвами, используя знакомые голоса, что делает обман более убедительным. Даже если вы слышите знакомый голос, важно оставаться бдительными.

Используя изображение лица родственника, мошенники могут отправлять правдоподобные видеосообщения с помощью технологии замены лиц, что усложняет распознавание обмана.

Мошенники также используют методы социальной инженерии, они представляются сотрудниками банков и звонят от имени службы поддержки. Наибольшему риску подвержены пожилые люди и те, кто не знаком с современными технологиями.

С развитием искусственного интеллекта мошенники становятся всё более изощренными, применяя цифровых двойников для создания голосов и видео. Кадымов советует проверять все электронные письма и сообщения, особенно от служб поддержки, так как они редко инициируют контакт.

Если вы получили подозрительное видеосообщение, обратите внимание на движения головы: резкие повороты могут указывать на использование нейросетей. Голос, созданный ИИ, может звучать монотонно и без естественных интонаций. Задавайте вопросы, которые могут вызвать эмоциональную реакцию — настоящие люди реагируют более живо.

При подозрении на мошенничество с дипфейками немедленно сообщите в службу поддержки компании, имя которой было использовано. 

229119
32
24