Искусственный интеллект научился запоминать фотографии

  

Обзор технологий Массачусетского технологического института сообщает: Согласно новому исследованию PDF, популярные модели генерации изображений могут создавать идентифицируемые фотографии реальных людей, потенциально угрожающие их конфиденциальности.

Работа также показывает, что эти системы искусственного интеллекта могут воспроизводить точные копии медицинских изображений и работ художников, защищенных авторским правом. Это открытие может укрепить позиции художников, которые в настоящее время судятся с компаниями, использующими искусственный интеллект, за нарушение авторских прав.

Исследователи из Google, DeepMind, Калифорнийского университета в Беркли, ETH Zürich и Princeton получили свои результаты, много раз запрашивая Stable Diffusion и Google Imagen с подписями к изображениям, такими как имя человека. Затем они проанализировали, совпадают ли какие-либо из созданных ими изображений с исходными изображениями в базе данных модели. Группе удалось извлечь более 100 копий изображений из тренировочного набора ИИ.

В статье под названием «Извлечение обучающих данных из диффузионных моделей» исследователям впервые удалось доказать, что эти модели ИИ запоминают изображения в своих тренировочных наборах, — говорит Райан Вебстер, аспирант Университета Кан-Нормандия во Франции, изучавший конфиденциальность, в других моделях генерации изображений, но не участвовал в исследовании.

Это может иметь последствия для стартапов, желающих использовать генеративные модели ИИ в здравоохранении, поскольку показывает, что эти системы рискуют утечь конфиденциальную личную информацию. OpenAI, Google и Stability.AI не ответили на наши запросы о комментариях.

Недавний коллективный иск pdf, в котором утверждается, что ИИ, создающий искусство, является «инструментом коллажа 21-го века.

Модель диффузии — это форма сжатия с потерями, применяемая к тренировочным изображениям.