Блог им. Koleso

Предполагается, что ИИ поможет вам в работе. Вот почему ваши коллеги настроены скептически

Использование ИИ в офисе может вызвать бурную реакцию, что может негативно сказаться на вашей корпоративной культуре. Предполагается, что ИИ поможет вам в работе. Вот почему ваши коллеги настроены скептически

Кратко

  1. •Использование ИИ в офисе может вызвать недоверие и негативно сказаться на корпоративной культуре.
  2. •Исследование Университета Аризоны показало, что признание использования ИИ подрывает доверие к сотруднику.
  3. •Даже положительное отношение к технологиям не устраняет снижение уровня доверия.
  4. •Люди ожидают, что коллеги будут прилагать реальные усилия, а ИИ снижает легитимность работы.
  5. •Сокрытие использования ИИ может быть хуже, чем признание, так как вызывает репутационный ущерб.
  6. •Успех команды зависит от честности, прозрачности и культуры доверия на рабочем месте.
  7. •Развитие ИИ может привести к улучшению ситуации с доверием, но это требует времени.
  8. •Важно обратить внимание на использование ИИ на рабочем месте, так как это может вызвать проблемы и споры.

 

Хотя старая аксиома «честность — лучшая политика» звучит неплохо, новые исследования показывают, что, когда дело доходит до признания в использовании ИИ на работе, всё может быть наоборот. Когда исследователи из Университета Аризоны изучили, что происходит, когда сотрудник признаётся коллегам, что использовал ИИ для выполнения рабочих задач, они обнаружили нечто странное: коллеги сказали, что стали меньше доверять тому, кто использовал ИИ.

«Как исследователи, изучающие доверие, мы рассматриваем это как парадокс, — объяснили учёные в блоге, посвящённом их исследованию. — В конце концов, честность и открытость обычно заставляют людей больше доверять вам». Тем не менее данные были убедительными. «В ходе 13 экспериментов с участием более 5000 человек» исследователи обнаружили «устойчивую закономерность: если вы признаёте, что полагались на ИИ, это подрывает доверие к вам».

Среди участников исследования были «студенты, юристы-аналитики, менеджеры по подбору персонала и инвесторы», а также люди, работающие на самых разных должностях, поэтому эти негативные реакции не ограничиваются определёнными типами рабочих мест. Это само по себе интересно, поскольку в разных рабочих средах, как правило, существуют свои собственные культуры и представления о том, что является нормой.

Это говорит о том, что дело в самой технологии ИИ, независимо от того, где она используется. Это просто поляризация. Данные команды из Аризоны подтверждают это, поскольку они отметили, что «даже те, кто разбирался в технологиях, меньше доверяли людям, которые говорили, что используют ИИ». Что ещё более примечательно, даже если у человека было в целом положительное отношение к технологиям, это лишь немного уменьшало эффект снижения уровня доверия, но «не устраняло его».

Изучив причины и следствия полученных результатов, исследователи пришли к выводу, что одна из причин, по которой использование ИИ подрывает доверие, заключается в том, что в среднем люди по-прежнему ожидают, что коллеги будут прилагать какие-то реальные человеческие усилия, когда дело доходит до «написания текстов, размышлений и внедрения инноваций». И когда «ИИ берёт на себя эту роль, а вы это подчёркиваете, ваша работа выглядит менее легитимной».

Один из авторов статьи, Мартин Рейманн из Колледжа менеджмента Эллера при Университете Аризоны, отметил, что, по его мнению, сотрудник, признающий использование ИИ, демонстрирует «более низкую степень приверженности» своим коллегам. По сути, «люди думают, что они просто облегчают себе жизнь, возможно, они ленивы», и поэтому в целом работа такого человека «воспринимается как ненастоящая, нечеловеческая».

Есть и ещё одна серьёзная проблема. Изучая альтернативный способ использования ИИ на работе — когда вы используете его, но скрываете это, — команда обнаружила, что на самом деле «сокрытие может быть хуже, чем преступление». Если сотрудники позже узнают, что коллега использовал ИИ для выполнения определённой задачи, репутационный ущерб для уровня доверия к этому сотруднику приведёт к «самым серьёзным последствиям».

Вы можете сразу заметить здесь проблему. Исследователи согласны с этим, отмечая, что их данные создают «дилемму для тех, кто ценит честность, но при этом должен полагаться на доверие, чтобы поддерживать прочные отношения с клиентами и коллегами». Это особенно важно в таких сферах бизнеса, где доверие особенно ценно, например в здравоохранении или финансах — в обеих областях, на которые нацелены компании, разрабатывающие ИИ.

Потеря доверия в бизнес-среде — это всегда проблема. Эксперты отмечают, что успех команды связан с уровнем честности и прозрачности среди её членов, а также с тем, что формирование культуры доверия на рабочем месте приводит к повышению вовлечённости, улучшению настроения сотрудников и росту производительности — всё это может привести к увеличению прибыли. Таким образом, если доверие между членами команды подорвано из-за такого спорного вопроса, как использование ИИ, это может негативно сказаться на работе всей компании, а не только одной команды.

Исследователи объясняют, что, возможно, со временем ситуация с доверием к ИИ на работе улучшится. По мере развития и распространения ИИ, возможно, он станет более надёжным, и, по их словам, «раскрытие информации о его использовании со временем может стать менее подозрительным». Представьте себе Photoshop: когда появилась революционная технология Adobe для улучшения фотографий, она вызвала критику, что привело к обвинениям в подделке или низком творческом потенциале фотографов, а также к вопросам о правдивости и другим этическим проблемам… но теперь она стала общепринятой. Это может быть предвестником некоторых проблем, которые создаёт ИИ.

Почему вас это должно волновать? В конце концов, тема использования ИИ на рабочем месте постоянно развивается, и есть как сторонники, так и противники этой идеи.

Вам следует обратить на это внимание именно потому, что ИИ вызывает споры, и это исследование показывает, что то, как ваши сотрудники его используют, может быть таким же проблематичным, как и любые другие известные проблемы, возникающие в результате его использования.

В отчёте Университета Аризоны есть несколько простых советов, в том числе рекомендация ввести централизованную политику, согласно которой прозрачность использования ИИ будет необязательной — то есть сотрудники сами будут решать, говорить или не говорить о том, что они использовали ИИ. Альтернативой является обязательное раскрытие информации об использовании ИИ. И наконец, команда предлагает подход, основанный на корпоративной культуре: создайте рабочее пространство, где использование таких инструментов, как ИИ, не вызывает осуждения.

Оригинал

Читайте еще:

За три года в России национализировали 411 компаний с активами на 2,6 трлн рублей
Бесчестный знак. Расследование о том, как россиян обложили скрытым налогом
Предкризисное настроение. Четыре отрасли российской экономики, которые рухнут первыми от высоких ставок и снижения спроса

Подпишитесь на канал "Жизнь Дурова: ЗОЖ, деньги, ИТ" — все самое главное о здоровье, технологиях и деньгах

353

Читайте на SMART-LAB:
Фото
Обновление торгового стакана: новые возможности виджета
Один из критериев успешной торговли — технический инструментарий: терминал и виджеты, которыми пользуются инвесторы и трейдеры. Особенно важны...
Фото
USD/CAD: канадец укрепляется, ломая нефтяную корреляцию
Канадский доллар продолжил укрепляться и достиг очередных локальных максимумов, двигаясь ступенчато, с паузами консолидации, но без попыток...
⚡️Займер запускает электронный кошелек Qplus на базе банка «Евроальянс»
Сегодня мы объявляем о запуске новых платежных продуктов на базе принадлежащего Группе банка «Евроальянс». Продукты будут запущены в...

теги блога Андрей Колесников

....все тэги



UPDONW
Новый дизайн