Фото: freepik.com
С развитием искусственного интеллекта в Сети можно легко подделать изображение человека и даже дать ему речь его же голосом. Такие видео- и аудио ролики называются дипфейками. Этой технологией часто пользуются мошенники, чтобы ввести в заблуждение жертву и выманить у него деньги или другую личную информацию.
Однако любой человек при внимательном изучении видео может распознать нейросеть. Об этом москвичей предупредили в Управлении по организации борьбы с противоправным использованием информационно-коммуникационных технологий (УБК) МВД России.
Как передает ТАСС, в первую очередь, нужно внимательно посмотреть на изображение человека. Дипфейк могут выдать глаза и рот, которые могут двигаться не синхронно речи и мимике. Второе, на что следует обратить внимание, — это на саму речь. Она моет быть слишком роботизированной.
Ранее Вести Московского региона сообщали, что москвичи активно начали арендовать дачи в Подмосковье.
В лыткаринской гимназии №4 открыли «Парту Героя», посвященную выпускнику Роману Лобанову, погибшему в ходе специальной…
МЧС Московской области сообщило, что за минувшие сутки в регионе произошло восемь дорожно-транспортных происшествий, в…
МЧС Московской области опубликовало оперативную сводку по пожарам за минувшие сутки. Так, в указанный период…
Министерство сельского хозяйства Московской области напомнил местным аграриям, что они могут до 50% возместить затраты…
В Госдепартаменте признали, что стратегия ведения войны на истощение России, которую продвигала прежняя администрация США,…
Губернатор Белгородской области Вячеслав Гладков встретился с местной жительницей, которая потеряла дочь и мать в…