Китай протестировал на уйгурах искусственный интеллект для обнаружения эмоций

Программист-инженер рассказал о тестировании на уйгурах системы распознавания эмоций в полицейских участках Синьцзяна. Об этом сообщает BBC.

По словам инженера, система использует искусственный интеллект и распознавание лиц, которые улавливают эмоции человека. Технология напоминает детектор лжи, но с «гораздо более продвинутыми» возможностями.

Видеокамеры разместили на расстоянии трех метров от объектов съемки. Испытуемых поместили в специальные кресла, где их запястья и лодыжки зафиксировали металлическими ограничителями, рассказал очевидец.

Инженер продемонстрировал журналистам и правозащитникам пять фотографий задержанных уйгуров и отметил, что система распознавания предназначена для «предварительного суда без каких-либо достоверных доказательств».

«Китайское правительство использует уйгуров в качестве подопытных для различных экспериментов, точно так же, как крысы используются в лабораториях», — сказал он.

По словам программиста, система обнаруживает и анализирует даже незначительные изменения в выражениях лиц. Программное обеспечение создает круговую диаграмму, где красные сегменты представляют негативные состояния ума.

Выводы системы оценки эмоционального самочувствия; красный цвет указывает на негативное или тревожное состояние. Данные: BBC.

Посольство Китая в Лондоне не ответило на вопросы журналистов об использовании в провинции программного обеспечения для распознавания эмоций, но заявило, что соблюдает права меньшинств.

«Политические, экономические и социальные права и свобода религиозных убеждений для всех этнических групп в Синьцзяне полностью гарантированы», — сказали в дипломатическом ведомстве Китая.

Напомним, в марте 2021 года Facebook заблокировал группу хакеров из Китая, которые использовали платформу слежки за уйгурскими журналистами и активистами.

В декабре 2020 года китайская IT-корпорация Alibaba признала, что разработала технологию распознавания лиц для выявления уйгурского меньшинства в Китае.

Подписывайтесь на наш Telegram и будьте в курсе последних новостей!
Чтобы оставить комментарий необходимо или зарегистрироваться
Авторизация
*
*
Регистрация
*
*
*
*
Генерация пароля