Можно ли доверять машине?

Результаты онлайн-эксперимента показывают, что люди предпочитают, чтобы решения о перераспределении принимал искусственный интеллект

Можно ли доверять машине?
Последовательность событий во всех процедурах для обычных участников и людей, принимающих решения. Credit: Public Choice (2024). DOI: 10.1007/s11127-024-01178-w

Новое исследование показало, что люди предпочитают искусственный интеллект (ИИ) людям, когда речь идет о принятии решений о перераспределении средств.

Поскольку технологии продолжают внедряться в различные аспекты принятия решений в государственном и частном секторах, понимание общественного восприятия и удовлетворенности, а также обеспечение прозрачности и подотчетности алгоритмов будет иметь ключевое значение для их принятия и эффективности.

В исследовании, проведенном учеными из Портсмутского университета и Института инноваций и конкуренции имени Макса Планка, изучалось отношение общества к алгоритмическому и человеческому принятию решений, а также влияние потенциальной дискриминации на эти предпочтения. Исследование опубликовано в журнале Public Choice.

Для изучения предпочтений людей или искусственного интеллекта в принятии решений использовался онлайн-эксперимент, в котором заработок двух людей мог быть перераспределен между ними после выполнения ряда задач. Более 200 участников из Великобритании и Германии попросили проголосовать за то, чтобы человек или алгоритм (ИИ) принимал решение, которое определит, сколько денег они заработают.

В отличие от предыдущих результатов, более 60 % участников предпочли ИИ, а не человека, чтобы решить, как перераспределять заработанное. Участники отдали предпочтение алгоритму, независимо от возможной дискриминации. Такое предпочтение ставит под сомнение общепринятое представление о том, что люди принимают решения, когда речь идет о «моральном» компоненте, таком как справедливость.

Однако, несмотря на предпочтение алгоритмов, при оценке принятых решений участники были менее удовлетворены решением ИИ и сочли его менее «справедливым», чем решение, принятое человеком.

Субъективные оценки решений в основном обусловлены собственными материальными интересами участников и идеалами справедливости. Участники могли мириться с любым разумным отклонением фактического решения от их идеалов, но очень остро и негативно реагировали на решения о перераспределении, которые не соответствовали ни одному из установленных принципов справедливости.

Доктор Вольфганг Лухан, доцент кафедры поведенческой экономики в Школе бухгалтерского учета, экономики и финансов Портсмутского университета и соответствующий автор исследования, сказал: «Наше исследование показывает, что, хотя люди открыты идее алгоритмических лиц, принимающих решения, особенно из-за их потенциала для принятия беспристрастных решений, фактическая производительность и способность объяснить, как они принимают решения, играют решающую роль в принятии. Особенно в контексте принятия моральных решений прозрачность и подотчетность алгоритмов имеют жизненно важное значение.

«Многие компании уже используют ИИ для принятия решений о найме и планирования компенсаций, а государственные органы применяют ИИ в стратегиях охраны порядка и условно-досрочного освобождения. Наши результаты свидетельствуют о том, что при улучшении согласованности алгоритмов общественность может все больше поддерживать алгоритмические системы принятия решений даже в морально значимых областях».

«При правильном подходе к ИИ это может реально улучшить принятие политики и управленческих решений, таких как повышение зарплаты или выплата бонусов».


Марина Чугунова и др.,
Ruled by robots: предпочтение алгоритмических лиц, принимающих решения, и восприятие их выбора
Public Choice (2024).
DOI: 10.1007/s11127-024-01178-w

Читать дальше

Рыба в зеркале, которая разрушила наши представления о сознании

Рыба в зеркале, которая разрушила наши представления о сознании

Открытие самосознания у губана-чистильщика — это не просто научный курьез, а событие, которое заставляет нас радикально переосмыслить природу сознания, его эволюционное происхождение и, что не менее важно, наши этические обязательства перед другими видами.

Смертельный зов: почему больные муравьи просят, чтобы их уничтожили

Смертельный зов: почему больные муравьи просят, чтобы их уничтожили

В животном мире, как и у людей, инстинкт самосохранения диктует скрывать болезнь. Заболевшие особи часто «утаивают свой статус от членов группы, чтобы предотвратить социальное исключение или агрессию». Слабость делает уязвимым, поэтому ее лучше не показывать. Но что, если бы животное поступало ровно наоборот? Что, если бы, будучи смертельно больным, оно

Проблема Короля Лира - самые "послушные" ИИ могут быть самыми опасными

Проблема Короля Лира - самые "послушные" ИИ могут быть самыми опасными

По данным Anthropic, хакеры автоматизируют 80–90% атак через LLM, обходя обычную защиту. Эффективность взломов выросла с 2% до 55% за год. Бизнесу необходимо внедрять «ИИ-аудиторов» для проверки моделей на скрытые цели перед их подключением к критическим системам.