Ученые зафиксировали рост доверия пользователей к ИИ-модераторам

Пользователи социальных сетей доверяют ИИ-модерации вредоносного и ненавистнического контента так же, как и людям. Об этом говорится в исследовании Университета штата Пенсильвания.

В эксперименте приняли участие 676 человек. Их разделили на 18 групп, предназначенных для проверки влияния источников модерации на доверие пользователей.

По словам ученых, когда участники думали о качествах машин вроде точности и объективности, они больше верили в ИИ. Однако если им напоминали о неспособности алгоритмов принимать субъективные решения, их доверие снижалось.

Исследователи считают, что полученные данные помогут разработчикам создать совершенные ИИ-системы модерации контента, способные анализировать большие объемы информации. При этом важно обеспечить уверенность в отсутствии цензуры и достоверной классификации, добавили они.

Ученые также оценили плюсы и минусы ручной и автоматизированной модерации. По словам доцента кафедры рекламы и связей с общественностью Университета штата Мичиган Марии Молины, люди склонны более точно распознавать вредоносный контент. При этом они не в состоянии обрабатывать большие объемы информации.

С другой стороны, ИИ-редакторы могут быстро анализировать контент. Однако люди часто не доверяют этим алгоритмам и опасаются цензуры.

«Когда мы думаем об автоматизированной модерации контента, возникает вопрос, не нарушают ли редакторы с искусственным интеллектом свободу выражения мнений», — сказала Молина.

Ученая считает, что объединение человеческого ресурса и искусственного интеллекта позволит сохранить баланс доверия. По ее словам, прозрачность — один из ключевых элементов в процессе модерации.

Также доверие к автоматизированным системам может повысить предоставление пользователям возможности помочь ИИ решить, является ли информация вредной.

По словам исследователей, освобождение модераторов от просмотра тысяч жестоких и оскорбительных материалов способно улучшить их ментальное здоровье.

«Необходимо защитить оценщиков […] от постоянного воздействия вредоносного контента изо дня в день», — сказал один из авторов исследования Шиям Сундар.

В будущих работах ученые постараются не только оценить степень доверия людей к ИИ-модераторам, но и попытаться объяснить, как они работают.

Напомним, в августе Oracle запустила проверку алгоритмов и моделей модерации контента в TikTok.

В июне более 30 технологических присоединились к инициативе ЕС по борьбе с дезинформацией.

Подписывайтесь на наш Telegram и будьте в курсе последних новостей!
Чтобы оставить комментарий необходимо или зарегистрироваться
Авторизация
*
*
Регистрация
*
*
*
*
Генерация пароля