Фото: freepik.com
С развитием искусственного интеллекта в Сети можно легко подделать изображение человека и даже дать ему речь его же голосом. Такие видео- и аудио ролики называются дипфейками. Этой технологией часто пользуются мошенники, чтобы ввести в заблуждение жертву и выманить у него деньги или другую личную информацию.
Однако любой человек при внимательном изучении видео может распознать нейросеть. Об этом москвичей предупредили в Управлении по организации борьбы с противоправным использованием информационно-коммуникационных технологий (УБК) МВД России.
Как передает ТАСС, в первую очередь, нужно внимательно посмотреть на изображение человека. Дипфейк могут выдать глаза и рот, которые могут двигаться не синхронно речи и мимике. Второе, на что следует обратить внимание, — это на саму речь. Она моет быть слишком роботизированной.
Ранее Вести Московского региона сообщали, что москвичи активно начали арендовать дачи в Подмосковье.
В магазинах Московского региона выявлена фальсифицированная молочная продукция. Об этом сообщает портал «ОД». Пресс-служба уведомляет,…
В элитном жилом комплексе на северо-востоке Москвы произошло задымление. Об этом сообщает Telegram-канал «Осторожно, Москва».…
В первом квартале текущего года в России зафиксирован рекордный случай чаевых: клиент одной из автозаправочных…
В подмосковном Наро-Фоминске вспыхнул пожар в частном секторе. Об этом сообщает Telegram-канал «Осторожно, Москва». Пресс-служба…
Роспотребнадзор по Московскому региону провел проверку и признал 21 зону в регионе пригодной для купания.…
Четырехлетний ребенок, пострадавший в результате ЧП с обрушением моста в Брянской области, выписан из Российской…