Нейросети, генерирующие изображения по текстовому запросу, за последние полгода-год стали настолько реалистичными, что разработчики уже запретили генерировать новые изображения по некоторым запросам. ИИ создает впечатляюще реалистичные подделки фото-, видео- или аудиозаписей, идентичных оригиналу. Такая «глубина фейковости» достигается путем обучения ИИ на больших наборах данных.
Если под «просто фейком» подразумеваются обычные подделки, которые в большинстве случаев создаются вручную с помощью редакторов изображений или видео, то deepfake-технологии основаны на использовании глубокого обучения.
На международном уровне регулирование дипфейков все еще находится в разработке. ООН включила вопросы о deepfake и цифровой дезинформации в свою повестку дня, а в ЕС написали первый в мире закон, регулирующий применение ИИ, в том числе ChatGPT и Midjourney (однако до его вступления в силу еще от полугода до года).
Каким образом уже сейчас определить дипфейки от реальных изображений? Какие для этого есть инструменты и можно ли распознать дипфейк на глаз — в нашей статье на vc.ru «Насколько deep ваш fake: можно ли распознать подделки на основе искусственного интеллекта?»
Заявка успешно отправлена!
Ошибка отправки сообщения!
Заполните все поля!