Блог им. Koleso
Если вы спросите что-нибудь у Chatgpt, инструмента искусственного интеллекта (ИИ), который сейчас в моде, ответы, которые вы получите, будут почти мгновенными, совершенно определенными и часто неверными. Это немного похоже на разговор с экономистом. Вопросы, поднятые такими технологиями, как Chatgpt, дают гораздо более предварительные ответы. Но это те, которые менеджеры должны начать задавать.
Одна из проблем заключается в том, как справиться с опасениями сотрудников по поводу гарантий занятости.
Беспокойство естественно.
ИИ, который упрощает обработку ваших расходов, — это одно; ИИ, с которым люди предпочли бы сидеть рядом на званом обеде, — совсем другое. Четкое представление о том, как работники будут перенаправлять время и энергию, высвобождаемые искусственным интеллектом, способствует их принятию.
То же самое можно сказать и о чувстве свободы действий: исследование, проведенное MIT Sloan Management Review и Boston Consulting Group, показало, что способность игнорировать ИИ повышает вероятность того, что сотрудники будут его использовать.
Менее ясно, действительно ли людям нужно понимать, что происходит внутри ИИ. Интуитивно понятно, что способность следовать рассуждениям алгоритма должна иметь преимущество перед невозможностью.
Но исследование, проведенное учеными из Гарвардского университета, Массачусетского технологического института и Миланского политехнического университета, показывает, что слишком много объяснений может стать проблемой.
Сотрудникам Tapestry, портфолио люксовых брендов, был предоставлен доступ к модели прогнозирования, которая подсказывала им, как распределять запасы по магазинам.
Некоторые использовали модель, логику которой можно было интерпретировать; другие использовали модель, которая больше походила на черный ящик.
Рабочие оказались более склонны игнорировать модели, которые они могли понять, потому что они ошибочно были уверены в своей интуиции.
Однако рабочие были готовы принять решения модели, которую они не могли понять, из-за своей уверенности в опыте людей, которые ее построили.
Полномочия тех, кто стоит за ИИ, имеют значение.
Различные способы, которыми люди реагируют на людей и алгоритмы, — это растущая область исследований.
В недавней статье из Техасского университета в Остине рассмотрели, реагируют ли потребители по-разному на решения — например, одобрить кого-то на ссуду или членство в загородном клубе — когда они были приняты машина или человек.
Они обнаружили, что люди одинаково реагировали, когда их отвергали.
Но они менее позитивно относились к организации, когда их одобрял алгоритм, а не человек.
Причина?
Люди умеют объяснять неблагоприятные решения, кто бы их ни принимал. Им труднее приписать успешное приложение своим очаровательным, восхитительным «я», когда их оценивает машина.
Люди хотят чувствовать себя особенными, а не сведенными к точке данных.
Ученые исследуют, насколько люди готовы отдавать, а не заслужить признание, особенно за работу, которую кто-то не выполнял самостоятельно.
Они показывали волонтерам что-то, приписываемое конкретному человеку, — скажем, произведение искусства или бизнес-план, — а затем выясняли, что это было создано либо с помощью алгоритма, либо с помощью людей-помощников.
Все меньше доверяли продюсерам, когда им говорили, что им помогли, но этот эффект был более выраженным для работы, в которой участвовали люди-помощники.
Мало того, что участники считали работу по наблюдению за алгоритмом более требовательной, чем наблюдение за людьми, они также не считали справедливым, чтобы кто-то присваивал себе заслуги в работе других людей.
В другой статье из Индийского института менеджмента исследуется, кто более эффективен в помощи людям похудеть.
Авторы изучили потерю веса, достигнутую подписчиками индийского мобильного приложения, некоторые из которых использовали только тренера с искусственным интеллектом, а некоторые также использовали тренера-человека.
Они обнаружили, что люди, которые также использовали тренера-человека, похудели больше, ставили перед собой более сложные цели и были более привередливы в регистрации своей деятельности.
Но люди с более высоким индексом массы тела не так хорошо справлялись с тренером-человеком, как те, кто весил меньше.
Авторы предполагают, что полные люди могут больше смущаться, общаясь с другим человеком.
Картина, вырисовывающаяся в результате такого исследования, туманна.
Он также динамичен: по мере развития технологий будут меняться и отношения.
Но это кристально ясно в одном.
Влияние Chatgpt и других ИИ будет зависеть не только от того, что они могут сделать, но и от того, какие чувства они вызывают у людей.
Оригиналстатьи The Economist
P.S. Подпишитесь на проект «КОГоть» — “КраткоОГлавном” в Телеграм
Дзен увеличивает цензуру и блокирует посты.
Поэтому, возможно, основной площадкой для проекта «КОГоть» станет Телеграм.
Подпишитесь на телеграм-канал «Коготь» — давайте не теряться и оставаться на связи.