сказал Пермяков, отметив, что пока злоумышленники чаще всего ограничиваются подделкой голоса. Также развивается технология deepfake: преступники подделывают голос близких людей жертв.
Роскачество предупредило о новой мошеннической схеме с использованием искусственного интеллекта
Чтобы подделать чей-то голос, мошенникам достаточно использовать недорогой онлайн-инструмент на базе искусственного интеллекта, который анализирует уникальные особенности голоса любого человека и воспроизводит его с учетом пола, возраста и даже акцента. Мошенники научились использовать современные технологии DeepFake для имитации голоса, сообщили в Роскачестве. Для подделки голосов мошенники используют нейросеть, отметил Андрей Ефимов Фото: Александр Елизаров © Новости Технологии 29 июля 2022. Телефонные мошенники начали подделывать голос «Алисы». Эксперт Кузьменко: мошенники начали использовать нейросети и дипфейки для обмана россиян.
Следующий звонок от вашей семьи может оказаться мошенничеством с подменой голоса дипфейком
При этом подтверждение голоса является лишь одним из факторов аутентификации, а это значит, что использование банками биометрических методов идентификации может не представлять существенной угрозы для персональных данных. Организации, разрабатывающие технологии идентификации, уделяют максимум внимания безопасности данных клиентов, а алгоритмы учитывают целый ряд факторов, включая данные об устройстве и местоположении, чтобы обеспечить доступ к конфиденциальной информации только проверенным пользователям.
Используя алгоритм искусственного интеллекта, они создают контент, который выглядит или звучит реалистично. Это может быть видео или даже просто аудио Бакли Им требуется очень мало обучающих данных, и они могут создать нечто достаточно убедительное с помощью обычного ноутбука, который может купить каждый По сути, дипфейки берут примеры видео- или аудиозаписей, и учатся точно воссоздавать их движения или голос.
Это может быть использовано для того, чтобы поместить лицо на тело другого человека, заставить его голос читать определенный текст или же совершать вредоносные действия. Несмотря на то, что технология кажется сложной, на самом деле сделать дипфейк самостоятельно на удивление просто. Для этого достаточно иметь в открытом доступе видеозапись или запись голоса и недорогое программное обеспечение.
Это занимает секунды, а не минуты или часы, и любой, у кого есть немного времени и доступ к YouTube, может понять, как это сделать", - объясняет Бакли. Появились удивительные технологии, которые еще недавно были бы научной фантастикой. Это прекрасно для инноваций, но есть и обратная сторона, когда эта технология попадает не в те руки".
Мир мошенничества с дипфейками С момента своего появления deepfake использовались во вредоносных целях, начиная от подделки политических речей и заканчивая изготовлением порнографических материалов. Однако в последнее время их использование находит все большее применение в мире мошенничества. В последнее время участились случаи мошенничества с использованием искусственного интеллекта, когда человеку звонит или даже звонит по видеосвязи его близкий человек, говоря, что он попал в беду и ему нужны деньги", - рассказывает Бакли.
Сведения о человеке берутся из данных, доступных в Интернете.
Подделка голоса осуществляется при помощи различных сервисов и программ, способных создавать голосовые аналоги человека на основе записанных образцов. Качество синтезированного голоса зависит от точности и количества записанных образцов. Благодаря современным технологиям, хакерам достаточно всего 20-секундного фрагмента разговора для создания копии голоса любого человека.
Мошенники добывают образцы голоса потенциальной жертвы разнообразными методами: используют общедоступные аудио- и видеозаписи из интернета, а также данные, полученные при утечках биометрической информации. Кроме того, они могут записать голос человека, просто позвонив ему, и использовать диктофон для записи. Иногда мошенники получают доступ к аккаунту пользователя в мессенджере, применяя различные методы, такие как фишинг и социальная инженерия. Получив доступ к переписке, злоумышленники извлекают голосовые сообщения и загружают их в специальную систему, функционирующую на базе ИИ.
Эта система затем анализирует голосовые образцы и учится имитировать особенности речи человека. Могут ли мошенники позвонить в банк и украсть деньги? С имитированным голосом жертвы мошенники могут попытаться позвонить в банк и выполнить различные операции, такие как снятие денег со счета или перевод средств на другой счет. Однако ведущие российские банки не используют систему управления счетом с помощью голоса.
Например, в СберБанке в качестве биометрического идентификатора для проведения платежных операций используется не голос, а лицо человека. Банки сохраняют ваш голос в биометрической базе только для того, чтобы автоматически распознавать его при звонках в техническую службу поддержки банка.
Злоумышленники пытались обмануть 84-летнюю жительницу Красного Села. Она сообщила полиции, что ей позвонила неизвестная, представилась её внучкой, рассказала, что попала в ДТП, и умоляла помочь деньгами. Для урегулирования ситуации она просила передать курьеру 200 тыс.
Сообщника мошенников задержали с поличным возле квартиры пенсионерки, при передаче денег. Курьер оказался 23-летним уроженцем одной из стран ближнего зарубежья.
Центробанк: мошенники стали чаще имитировать голоса родных и знакомых россиян
Последние технологии в области обработки аудиофайлов — один из таких примеров. Разработчики искусственного интеллекта приложили немало усилий, чтобы воспроизводить речь людей. В 2024 году мошенники приняли эту разработку с радостью и начали подделывать разговор, выдавая себя за родственников и друзей телефонных жертв. Сложно повесить трубку, когда в трубке раздается «голос» матери, дочери, подруги, которая якобы попала в беду и просит отправить деньги на проверенный счет.
На это всё и рассчитано. Чтобы подделать чей-то голос, мошенникам достаточно использовать недорогой онлайн-инструмент на базе искусственного интеллекта, который анализирует уникальные особенности голоса любого человека и воспроизводит его с учетом пола, возраста и даже акцента. Причем для клонирования голоса программе нужно проанализировать всего лишь 30-секундный отрывок реального голоса, который сейчас без труда можно найти в аккаунте любого пользователя соцсетей.
Затем телефонному мошеннику остается раздобыть контакт жертвы и никак не выдать себя во время разговора. А говорить можно все что угодно: онлайн-инструменты позволяют произносить напечатанный текст голосом любого человека. Что делать, чтобы не попасться на уловку Если вам поступил звонок, где знакомый голос просит вас о финансовой помощи, трезво оцените ситуацию.
Действительно ли это ваш родственник, друг или коллега?
Запись телефонного разговора, оказавшаяся на столе у следователя, и голос жертвы на ней соответствовали нормам фоноскопической экспертизы, утвержденным Минюстом. Защита тогда нашла способ, как доказать невиновность своего доверителя, но подробности мне неизвестны», — уточнил собеседник агентства. При этом защитника беспокоит массовость и доступность программ для синтеза речи. Адвокат предлагает в спорных случаях не бояться обращаться в суд или правоохранительные органы. Сейчас в праве есть огромное количество неразрешенных вопросов и это нормально. Концепция нейросетей и искусственного интеллекта заключается в том, что машина не умеет обучаться сама, а её в любом случае обучает человек. Нейросеть — всего лишь модернизированный поисковик, поэтому я могу уверенно сказать: как люди придумали эту технологию, так люди и научатся бороться с последствиями её деятельности», — считает Бурчук. Она приводила в пример уголовное дело , в котором суд уже 6 раз запрашивал экспертизу голоса фигуранта в важной аудиозаписи. Четверо экспертов встали на сторону обвинения, а двое признали запись фейковой.
Суд направил запись на седьмую комплексную экспертизу из-за профессиональных действий защиты, считает собеседница агентства.
Чем больше слов вы успеете наговорить, тем больше речи они могут в теории у вас украсть. И воспользоваться уже в своих целях. Также у мошенников есть и другое оружие: полная информация о потенциальной жертве. Как отпечатки на песке, человек всюду оставляет свои цифровые следы. Из разных источников можно узнать, с кем вы живете, дружите, общаетесь.
И самое страшное: скорее всего, вы уже наследили достаточно. И этот след уже никак не стереть.
Тем не менее это очень близко к реальности, и спутать человека очень легко», — рассказал «Абзацу» ведущий аналитик Mobile Research Group, аналитик ИИ Эльдар Муртазин. Для того чтобы звонок был более адресным, злоумышленники проделывают большую работу — на основании информации из соцсетей составляют цифровой портрет человека. Это позволяет определить круг его близких, сферу деятельности и личные предпочтения. Никто от этого не защищён, поэтому смотрим, с какого телефона вас набирают, насколько человек владеет той информацией, которую знаете только вы вдвоём», — продолжает эксперт. Эксперт рекомендует для защиты от мошенников придумать со своими родными и близкими кодовые слова. Они помогают определить, кто звонит — живой человек или программа. Синтез голоса Для копирования голоса используются технологии речевого синтеза. В специальную программу загружаются образец голоса реального человека и текст, который нужно произнести.
В качестве звукового материала используются записи телефонных звонков в том числе с роботами , видеозаписи, размещённые в соцсетях, и голосовые сообщения в мессенджерах.
Полицейские показали, как мошенники подделывают свой голос
В Банке России предупредили об использовании мошенниками программ для подделки голосов с целью обмана россиян, сообщает РИА Новости со ссылкой на ЦБ РФ. В Атырау полицейские задержали мошенника, который с легкостью подделывал свой голос, сообщает Мошенники для обмана россиян стали подделывать голоса родных и знакомых жертвы. Мошенники для обмана россиян стали подделывать голоса родных и знакомых потенциальной жертвы, сообщили РИА Новости в пресс-службе регулятора. Нередко аферисты подделывают голос родственников или знакомых потенциальной жертвы.
Мошенники с помощью искусственного интеллекта запугивают родителей голосами родных детей
Естественно, ни в какую аварию тот не попадал. Второй была девушка, решившая продать дорогой браслет Bulgari с бриллиантами за 500 тысяч рублей. С ней связались мошенники, изобразили покупателей и предложили перевести деньги на карту подруги у девушки не было доступа к своей карте , попросив ее номер телефона. Через какое-то время с этого номера позвонила будто бы та самая подруга и подтвердила перевод. Девушка отдала мошенникам браслет и уже позже узнала, что на самом деле разговаривала не с подругой, а с нейросетью.
Действуют преступники следующим образом.
Затем они позвонили в третий раз и запросили очередной платеж. Тогда руководитель фирмы из Великобритании заподозрил подвох и не стал платить. Стало известно, что деньги ушли в венгерский банк, а затем в Мексику, а после разошлись по разным счетам.
Когда злоумышленники звонят человеку от имени тех, кого он знает, они имитируют их голоса с помощью специальных программ. Цель одна: заставить потенциальную жертву раскрыть нужные мошенникам данные или перевести им деньги. Накануне в Петербурге пенсионерка помогла полиции поймать курьера телефонных мошенников. Злоумышленники пытались обмануть 84-летнюю жительницу Красного Села. Она сообщила полиции, что ей позвонила неизвестная, представилась её внучкой, рассказала, что попала в ДТП, и умоляла помочь деньгами.
Женщина обратилась в полицию, правоохранительные органы начали проверку. Поскольку вы здесь... У нас есть небольшая просьба.
Эту историю удалось рассказать благодаря поддержке читателей.
Мошенники научились подделывать аудио и видео с помощью ИИ - Москва 24
По его словам, злоумышленники используют технологии искусственного интеллекта, так называемой технологии дипфейк, когда могут быть смоделированы изображение и голос человека, передает РИА Новости. Греф заявил, что это серьезная угроза, с которой человеку сложно бороться, сообщает RT.
Данный способ мошенничества появился около двух месяцев назад, рассказывает эксперт по информационной безопасности, генеральный директор Phishman Алексей Горелкин. Алексей Горелкин эксперт по информационной безопасности, гендиректор Phishman «Такой способ был, он применялся на школьниках: покажите, а что у вас за карта, а у ваших родителей какие карты, зайдите к себе в телефон, в общем, была такая схема, чтобы люди, которые не шибко разбираются в цифровых технологиях, но при этом имеют доступ к устройству родителей, могли предоставить злоумышленникам необходимую информацию. Я надеюсь, что такая схема все-таки не самая рабочая, потому что людей должны настораживать такие действия, которые ранее от них не просил ни банк, ни кто-либо еще.
Благодаря в том числе просветительской деятельности, все меньше и меньше получается успешных атак. Злоумышленники почему и усложняют свои атаки, делают звонки не с одного номера, а с двух, трех, четырех, там ФСБ как будто звонит, кто-то еще как будто звонит. Почему они, к примеру, начали теперь просить деньги не переводить или сообщать код из СМС-сообщения, а просят деньги снимать и передавать их человеку? Все потому, что все меньше людей ведутся на их разводки.
И поэтому, конечно же, они вынуждены придумывать и ухищряться, делать более сложные схемы, которые не так просто распознать с первого взгляда. То есть, с одной стороны, нам кажется, что люди как будто бы не поведутся, но на самом деле, из-за того что схема сложнее и новая, люди теряются, и такая схема окажется более эффективной, нежели стандартная по звонкам. Если вам никогда по WhatsApp не звонил номер 900, который говорил, что он Сбербанк, то, скорее всего, это не Сбербанк.
Оказалось, что все это время за ней велась слежка. Взяв деньги, злоумышленник испарился, и только потом женщина, придя домой и дозвонившись до сына, выяснила, что все это был большим спектаклем, который разыграли мошенники. Ни в какое ДТП ее сын не попадал. Полицейские задержали подозреваемого уже через несколько дней, и старались чтобы на очной ставке родственники обманутой женщины не устроили самосуд. Сам же задержанный говорит, что забрать деньги его просто попросили. Но зачем он тогда следил за женщиной?
Как это работает и есть ли способы защиты? Технология искусственного интеллекта ИИ позволяет мошенникам использовать более тонкие приёмы — голосовые сообщения или звонки от имени близких людей. Например, матери может прийти голосовое сообщение от «дочери», якобы попавшей в аварию, а сестре — позвонить брат с вопросом жизни и смерти. Совпадение полное за исключением того, что ребёнок говорил, — он у меня не говорит именно так. Тем не менее это очень близко к реальности, и спутать человека очень легко», — рассказал «Абзацу» ведущий аналитик Mobile Research Group, аналитик ИИ Эльдар Муртазин. Для того чтобы звонок был более адресным, злоумышленники проделывают большую работу — на основании информации из соцсетей составляют цифровой портрет человека. Это позволяет определить круг его близких, сферу деятельности и личные предпочтения. Никто от этого не защищён, поэтому смотрим, с какого телефона вас набирают, насколько человек владеет той информацией, которую знаете только вы вдвоём», — продолжает эксперт. Эксперт рекомендует для защиты от мошенников придумать со своими родными и близкими кодовые слова.
Подделали голос внучки. В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч
Telegram 0 Мошенники научились использовать современные технологии DeepFake для имитации голоса, сообщили в Роскачестве. При этом аферистам достаточно получить небольшой фрагмент речи человека, чтобы воссоздать не только тембр, но и интонации и манеру разговора. Все это затем используется для самых разнообразных схем обмана.
Москва 24 6 892 подписчика Подписаться С помощью искусственного интеллекта мошенники научились создавать поддельные видео- и аудиодипфейки.
Так, школьница отдала 275 тысяч рублей мошенникам, которые сгенерировали голос ее бабушки. Подобные файлы злоумышленники создают и с известными личностями, где те рекламируют сомнительные сайты и услуги.
Босс позвонил своему подчиненному и попросил его незамедлительно перевести 243 тысячи долларов поставщику из Венгрии. Руководитель британской фирмы не сомневался, что разговаривает со своим руководителем, он узнал акцент и тембр голоса начальника. При этом мошенники звонили британцу несколько раз. После получения первого платежа они сказали, что якобы немецкая компания отправила британской сумму на возмещение убытков.
В январе стало известно , что вымогатели используют нейросети для подделки войсов в мессенджере Telegram. Преступники получают доступ к аккаунту, затем имитируют голос и начинают отправлять аудио с просьбами о переводе денег.
Полицейские показали, как мошенники подделывают свой голос
15 миллионов звонков в день совершали телефонные мошенники в России в апреле, почти в два раза больше чем в прошлом году. Тем более что мошенники научились даже подделывать голоса, используя специальные программы. Уже известны случаи, когда подделывали голос человека и даже внешность. Мошенники начали чаще подделывать голоса родных и знакомых тех, кому они звонят, сообщили в Центробанке. Голоса других людей злоумышленники имитируют при помощи специальных программ — этой уловкой они вынуждают потерпевших сообщать различные сведения или совершать денежные переводы.
Мошенники научились подделывать аудио и видео с помощью ИИ - Москва 24
Мошенники стали активно использовать технологию синтеза голоса для шантажа жертв и угрожают «сливом» поддельных аудиозаписей в СМИ и правоохранительные. Нередко аферисты подделывают голос родственников или знакомых потенциальной жертвы. Образцы голоса затем используются для создания фейковых аудиозаписей и выманивания денег. Мошенники для обмана россиян стали подделывать голоса родных и знакомых потенциальной жертвы, сообщили РИА Новости в пресс-службе регулятора. В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч.