ImageNet Roulette, как программа распознавания лиц стала выдавать ошибочные результаты и превратилась в главное развлечение интернета

ImageNet Roulette, как программа распознавания лиц стала выдавать ошибочные результаты

Посмотрите, как система ИИ классифицирует вас по вашему селфи

Современный искусственный интеллект часто хвалят за его растущее влияние на наши жизненные процессы. Но также его боятся за то, что он сможет заменить нас на работе, устранит барьер между искусством и реальностью, и, в конечном итоге, вытеснит человека из жизни, заняв его место в этом мире. Это пока не известно.

Но об этом легко забыть, так как сейчас ИИ это сложный, довольно глупый, применяемый только в узких целях, написанный на одном программном обеспечении, заточенный делать только одну операцию, например, играть в настольную игру или переводить текст с одного языка на другой.

Попросите вашу программу для распознавания лиц сделать что-то новое, например, проанализировать и дать оценку фотографии, используя только накопленный опыт. В итоге вы получите немного комичные и бессмысленные результаты. Это развлечение появилось в сети после ImageNet Roulette. Отличный вэб-инструмент, построенные в рамках текущей художественной выставки по истории систем для распознавания образов.

Как объяснил художник и исследователь Тревор Паглен, который создал экспонат «Учитель человечества». Дело не в том, чтобы судить об ИИ, а в том, чтобы понять его нынешнюю форму и сложную академическую и коммерческую историю, какими бы гротескными они ни были.

"Когда мы впервые начали концептуализировать этот экспонат более двух лет назад, мы хотели рассказать историю об истории изображений, используемых для "распознавания" людей в системах компьютерного зрения и искусственного интеллекта. Мы не были заинтересованы в коммерческой части ИИ» - рассказал Кроуфорд в Музее Fondazione Prada в Милане, где представлен «Учитель человечества». «Мы хотели взаимодействовать с материальной частью ИИ и серьезно относились к этим повседневным изображениям, как части быстро развивающейся машинной визуальной культуры. Это потребовало от нас открыть черные ящики и посмотреть, как эти «двигатели видения» работают».

Это заслуживающий изучения увлекательный проект, даже если ImageNet Roulette показывает себя с более глупой стороны. Это все из-за того, что ImageNet – набор из популярных учебных данных, на которые исследователи ИИ полагались в течение последнего десятилетия, ему плохо удается распознавать людей. Это в в своем роде набор распознавания объектов, но у него есть категория для "людей”, которая содержит тысячи подкатегорий, каждая из которых доблестно пытается помочь программному обеспечению выполнить кажущуюся невозможной задачу классификации человека.

И угадайте, что? ImageNet Roulette очень плох в этом.

Я даже не курю! Но по какой-то причине ImageNet Roulette думает иначе. Также кажется, что я нахожусь в самолете, хотя к его оправданию офис немного напоминает салон самолета.

Как это все работает?

 

ImageNet Roulette использует открытый код Caffe системы глубокого обучения (разработанную в Калифорнийском университете в Беркли), которая обучена на изображениях человека с подписями их качеств(которые сейчас не поддерживаются), а корректные данные и фотографии были удалены.

 

Когда пользователь загружает изображение, приложение сначала запускает детектор лиц, чтобы найти любые лица. Если он находит их, он отправляет их в модель Caffe для классификации. Затем приложение возвращает исходные изображения с ограничивающим прямоугольником, показывающим обнаруженное лицо и метку, присвоенную классификатором изображению. Если лица не обнаружены, приложение возвращает изображение с меткой в верхнем левом углу.

Читайте также: CNN отказывается от рекламы электронных сигарет Juul после случаев смерти от вэйпа

Частью проекта также является выделение принципиально ошибочных результатов оценки человека, которыми ImageNet классифицирует людей на "проблемные” и "оскорбительные" характериситик. (Один интересный пример, появляющийся в Twitter, заключается в том, что некоторые мужчины, загружающие фотографии, случайно помечаются как "подозреваемый в изнасиловании” по необъяснимым причинам.) Паглен говорит, что это имеет решающее значение для одной из тем, которые выделяет проект, а именно ошибочность систем ИИ и несовершенство машинного обучения, в результате чего могут пострадать люди.

ImageNet содержит ряд проблемных, оскорбительных и причудливых категорий-все они взяты из WordNet. Некоторые используют женоненавистническую или расистскую терминологию. Следовательно, результаты ImageNet рулетка вращающаяся между этими категориями. Мы хотим пролить свет на то, что происходит, когда технические системы обучаются на проблемных данных. ImageNet Roulette позволяет заглянуть в этот процесс – и показать, как все может пойти не так.

Авторы проекта хотят донести, что не стоит массово доверять ИИ, и только опираться на его результаты. Как мы видим обученный ИИ по всем правилам может легко ошибаться, так как ничего совершенного в мире еще не сделано.

Источник
00:00
RSS
Нет комментариев. Ваш будет первым!

Авторизация