Проект Megapixels закрыт: Майкрософт удаляет базу данных распознавания лиц из 10 млн изображений

В 2016 году компания «Майкрософт» создала уникальную в своем роде базу данных, состоящую из 100 000 фотографий людей, найденных в интернете. Предполагалось, что с помощью этой базы система распознавания лиц будет обнаруживать предполагаемых преступников. Однако что-то пошло не так.

Проект Megapixels закрыт: Майкрософт удаляет базу данных распознавания лиц из 10 млн изображений

Этические проблемы

В Microsoft заявили, что система была удалена в начале июня из-за того, что человек, занимавшийся ее курированием покинул компанию. Однако совсем недавно в руководстве компании заявили, что подобного рода алгоритмы нуждаются во внимательном регулировании со стороны государства и общества, так как имеют далеко идущие последствия для всех граждан.

Например, недавно Microsoft вынуждена бала отклонить запрос полиции о поиске автомобилей по номерным знакам, так как посчитала, что необходимая правовая база еще не создана, а существующее положение дел создает условия для злоупотреблений.

Проект Megapixels закрыт: Майкрософт удаляет базу данных распознавания лиц из 10 млн изображений

Чьи лица попали в базу?

Создатели проекта Megapixels с самого начала заявляли, что в базу попали только лица актеров и других известных людей. Позже, однако, формулировка была изменена на «люди, которые размещают свои изображения в интернете с целью занятия публичной деятельностью».

Формулировка вызвала много вопросов со стороны общественности, так как под нее попадали любые блогеры или любители размещать свои видео на «Ютубе». Фактически же в базу данных попали фотографии журналистов, музыкантов, писателей, спортсменов, ученых, активистов и политиков.

Отдельную проблему представляет и то, что даже после того как «Майкрософт» совершила удаление своей базы данных, она все еще может использоваться людьми, загрузившими персональную копию. Такая ситуация создает угрозу и общественной безопасности, и личной.

Подобные системы вызывают на себя шквал критики, так как они далеко не всегда бывают успешными. Например, в Великобритании полицейские запустили собственную систему распознавания лиц, но выяснилось, что в 92% случаев она допускает ошибки, что ведет к несправедливым судебным решениям.

Источник