Россиянам рассказали, как мошенники используют нейросеть в своих схемах

ИИ способен подделать и голос
ИИ способен подделать и голос, и образ. Эксперты Роскачества предупредили о новой мошеннической схеме с использованием искусственного интеллекта. Западные специалисты стали получать первые отчеты о применении технологии ИИ в схемах обмана по телефону. Речь идет о клонировании голоса. Достаточно всего...

ЛДПР предложила наказывать за применение дипфейков для мошенничества

Законопроект предусматривает различные уровни уголовной ответственности в зависимости от типа преступления.
Законопроект предусматривает различные уровни уголовной ответственности в зависимости от типа преступления. Представители фракции ЛДПР разрабатывают законопроект, который предусматривает до пяти лет лишения свободы за использование deepfake — технологии изменения фото и видео людей с помощью нейросети — в мошеннических целях...

В Госдуме не исключили появления в России к концу года маркировки дипфейков

Дипфейк - технология
Дипфейк — технология, благодаря которой можно создавать и заменять элементы на существующих фотографиях и видео с помощью искусственного интеллекта и нейронных сетей. Заместитель главы комитета Госдумы по информполитике Антон Горелкин не исключает, что под конец года в РФ появится маркировка...