fbpx

Этот бесплатный инструмент позволяет проверить, не используют ли ваши фото для обучения нейросетей

Если в последние годы вы загружали в Интернет какие-либо фотографии, скорее всего, они использовались для создания систем распознавания лиц. Разработчики обычно тренируют алгоритмы распознавания лиц на изображениях с веб-сайтов без ведома тех, кто их разместил. И это жутковато.

Новый онлайн-инструмент Exposing.AI поможет вам узнать, есть ли ваши фотографии среди снимков, которые стали пищей для нейросетей. Система использует информацию из открытых данных, чтобы определить, использовались ли ваши фотографии в исследованиях.

О такой дилемме мы рассказывали два года назад: IBM незаконно использовала миллионы фотографий людей с Flickr. Все фотографии были переданы по лицензии Creative Commons: их можно свободно использовать с некоторыми ограничениями. Однако даже самые разрешающие лицензии Creative Commons не допускают использования фотографий для обучения систем распознавания лиц по этническому признаку.

Теперь вы сможете проверить, кто использовал ваши фото. В Exposing.AI достаточно ввести имя пользователя Flickr, URL фотографии или хэштег, и инструмент просканирует более 3,5 миллионов фотографий в поиске ваших. Если он находит точное совпадение, результаты отображаются на экране.

При этом сам алгоритм поиска не использует ваше лицо – можно быть спокойным, что авторы не угонят информацию о вас.

Exposing.ai часть проекта MegaPixels, который исследует истории создания и использования наборов данных для обучения. Создатели инструмента заявили, что проект основан на многолетних исследованиях в области технологий:

«После отслеживания и анализа сотен наборов была выявлена закономерность: миллионы изображений загружались с Flickr.com, где лояльны к правам на контент и можно найти биометрические данные».

Быстрые результаты

Томас Макалэй из The Next Web протестировал инструмент на учетных записях Flickr, которые делятся фотографиями с публикой по лицензии Creative Commons. Уже второй аккаунт нашелся в базах нейросетей.

Читайте также:  Nikon разрабатывает датчики, которые смогут читать ваши эмоции

К сожалению, дальнейшие действия зависят от конкретного автора исследований или компании, которая использовала ваши фото. Некоторые позволяют запрашивать удаление из будущих выпусков наборов данных.

Exposing.AI также работает только на Flickr и не охватывает все наборы данных для обучения. Создатели говорят, что в будущих версиях они добавят возможности поиска.

На данный момент основная сила инструмента – показать, как наши фотографии используются для обучения алгоритмов без нашего согласия. Только изменения в законах могут предотвратить эту практику.

Источник

Читайте также:

Полезный гайд для 2020 года: как определить фэйковые фотографии несуществующих людей

Разработчики представили нейросеть, которая создаёт любые изображения по описанию

Creative Commons представила поиск бесплатных изображений

Поделиться:

Про автора

Автор «Сей-Хай»

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: