Производитель компьютерной периферии Nvidia научила нейросеть создавать максимально реалистичные изображения людей, которых на самом деле не существует. Отчет о работе специалистов опубликован на сайте библиотеки Корнеллского университета.
За основу для своей работы исследователи из Nvidia взяли так называемую генеративно-состязательную сеть, которая среди прочего позволяет создавать реалистичные фотографии.
В 2014 году сеть описал Ян Гудфеллоу. Сейчас он работает в проекте Google Brain, который посвящен изучению искусственного интеллекта. Четыре года назад Гудфеллоу представил первые результаты работы нейросети — тогда это были не очень детальные черно-белые изображения людей.
Сотрудники Nvidia добавили в генеративно-состязательную сеть метод style transfer — он позволяет совмещать характеристики одного изображения с другим. Похожий метод используют фоторедакторы вроде Prisma, которые с помощью нейросети превращают обычное фото в изображение, к примеру, в стиле импрессионизма.
В случае с исследованием Nvidia, style transfer позволил придать исходному изображению человека черты другого человека, таким образом создавая уникальное изображение мужчины или женщины.
Verge отмечает, что результаты работы Nvidia в будущем можно будет использовать, например, для рекламных материалов. Но в тоже время существует опасность, что их будут использовать в пропаганде или, например, для разжигания конфликтов.
Как пример «негативного» использования похожей технологии Verge приводит deep fakes — когда с помощью нейросети пользователи могут на фото или видео подставлять лицо одного человека к телу другого. Технологию в том числе широко используют для создания порно-роликов, в которых как будто участвуют голливудские звезды.