Мошенники научились подделывать голоса и даже образы людей, чтобы украсть деньги, жертвами такой схемы могут стать пожилые люди, рассказал эксперт направления информационной безопасности Центра цифровой экспертизы Роскачества Сергей Кузьменко «Прайму». Для обмана мошенники используют нейросети с машинным обучением на основе искусственного интеллекта. Чтобы создать «клон голоса» любого человека, аферистам достаточно получить 20-секундный фрагмент с разговором из социальной сети. «Идентичность поражает настолько, что даже мать не сможет отличить голос своего ребенка от робота», — предупредил специалист. Схема работает просто: человеку поступает звонок от родственника, который срочно просит деньги (например, на возмещение ущерба в результате ДТП). Только разговаривает на самом деле нейросеть. Подписаться на Банки.ру в Telegram Более того, мошенники научились подделывать образ. Искусственный интеллект позволяет наложить ненастоящие изображение или видео на реальные, эта технология называется «дипфейк». Волна дипфейков, по словам эксперта Кузьменко, уже захлестнула Юго-Восточную Азию и Африку, а в ближайшее время дойдет до России. Тогда она будет распространяться как звонки от «родственников», и опасаться обмана стоит пожилым людям. Как защититься Специалист советует всегда перезванивать родным и знакомым, от лица которых поступила просьба о деньгах. Можно также придумать кодовое слово, по которому вы сможете отличить близкого человека от мошенника. Чтобы распознать дипфейк, специалист советует обращать внимание на неестественную мимику человека на видео, низкое разрешение ролика и нечеткость изображения. Звук в таких видео может опережать картинку или не успевать за движениями. Также, некоторые люди уже открыли скам-комманды по этому направлению, сообщает New-Your Times. В сумме, российские мошенники с помощью дипфейков украли 45.450.00$ у жителей США и Канады, и 62.300.000$ у жителей стран Европы.
это, кстати, реально пиздец полный, теперь вообще никому верить нельзя, если не в живую. да и то вдруг голограмма