ClearView AI вошла в десятку самых точных систем распознавания лиц

Программное обеспечение скандально известного стартапа ClearView AI вошло в топ-10 из почти 100 поставщиков средств распознавания лиц в тесте Национального института стандартов и технологий США (NIST).

Согласно отчету, система ClearView AI показала меньшие результаты в другой версии испытания, имитирующего использование биометрической аутентификации для обеспечения доступа к зданиям, например, для идентификации сотрудников.

В прошлом месяце компания продемонстрировала удовлетворительные результаты в так называемом индивидуальном тесте — способности сопоставить две разные фотографии одного и того же человека, имитируя проверку лица вроде технологии FaceID для разблокировки смартфона.

По словам генерального директора компании Хоан Тон-Тэта, положительные результаты «открыли новые возможности для отдела продаж».

Лидером теста оказался китайский стартап SenseTime. В десятку лучших поставщиков также вошли решения российских компаний VisionLabs и NtechLab.

NIST проводит тесты поставщиков распознавания лиц в течение двух десятилетий. Авторы отчета отметили, что за это время технология претерпела промышленную революцию: алгоритмы стали более терпимыми к плохо освещенным сценам и изображениям низкого качества, а также к «плохо поставленным объектам».

Ранее Тон-Тат сообщил, что база данных ClearView AI увеличилась до 10 млрд изображений. Также компания работает над системой распознавания лиц в масках.

Напомним, в ноябре власти Австралии потребовали от ClearView AI прекратить сбор фотографий граждан и уничтожить имеющиеся данные о них.

В апреле американский сенатор предложил законодательно запретить правительственным учреждениям покупать биометрические данные у частных компаний без судебного ордера.

В феврале канадские регулирующие органы обвинили Clearview AI в противоправном сборе данных о гражданах и «порекомендовали» прекратить предоставлять услуги на территории страны.

Подписывайтесь на наш Telegram и будьте в курсе последних новостей!
Чтобы оставить комментарий необходимо или зарегистрироваться
Авторизация
*
*
Регистрация
*
*
*
*
Генерация пароля