Вопрос конфиденциальности данных является тонким, и людям всегда будут нужны инструменты для защиты личных сведений. Этим озаботились инженеры-программисты из Университета Торонто, которые разработали специальный фильтр для персональных фотографий. Теперь вы можете распространять свои снимки в Интернет свободно, ни один ИИ не распознает, что на них – именно вы.
Идея проста и сводится к коррекции отдельных пикселей на общей картинке, чтобы алгоритмы ИИ для распознавания лиц давали сбой. Помехи незаметны человеческому глазу, но машина не сможет провести параллели между двумя фотографиями. Это не гарантирует вам полное инкогнито, но вероятность быть замеченным шпионским ботом в соцсети и стать объектом персональной атаки снижается в разы.
Чтобы не ломать голову над алгоритмами обмана, канадцы стравили между собой две реальных мощных нейросети. Первой дали набор из нескольких сотен разных фотографий одних и тех же людей и поставили задачу распознать и рассортировать по личностям. Затем вторая нейросеть их точечно ретушировала, стремясь сбить первую с толку, и снимки отправлялись на повторное распознавание. Разработчикам оставалось наблюдать, какие внесенные изменения давали большее число ложных срабатываний – так сформировалось ядро для фильтра.
В его нынешнем варианте фильтр снижает вероятность ИИ распознать человека по фотографии до 1 к 200. А такие мелочи, как национальная принадлежность, возраст или эмоции заведомо определяются с ошибкой. Авторы этой технологии обещают в ближайшем будущем оформить фильтр в виде отдельного приложения для всеобщего использования.
Источник — University of Toronto
Источник: