Совместное исследование Microsoft и Университета Карнеги-Меллона выявило, что чрезмерное использование генеративного искусственного интеллекта (ИИ) на рабочем месте может негативно влиять на развитие критического мышления. Об этом пишет издание TechCrunch.
Согласно результатам исследования, неправильное применение технологий, включая генеративный ИИ, способно снижать когнитивные способности.
Когда сотрудники начинают слишком полагаться на ИИ, их усилия переключаются на проверку результатов работы системы, а более сложные навыки, такие как анализ, оценка и создание информации, уже не применяются. Если работники включаются в процесс только в случаях, когда ответы ИИ оказываются недостаточно качественными, они упускают возможность тренировать свои суждения и когнитивные навыки, что в конечном итоге приводит к их ослаблению. Иными словами, излишняя зависимость от ИИ может снижать способность людей самостоятельно решать задачи, особенно когда технология дает сбой.
В исследовании приняли участие 319 человек, которые использовали генеративный ИИ на работе не реже одного раза в неделю. Участникам предложили привести три примера применения ИИ в своей профессиональной деятельности, которые можно отнести к трем основным категориям: создание (например, написание официального письма коллеге), изучение информации (исследование темы или написание объемного текста) и советы (запрос рекомендаций или составление графика на основе данных). Затем респондентов спросили, используют ли они навыки критического мышления при выполнении задач и требует ли применение ИИ больше или меньше усилий для их применения. Также участников попросили оценить уровень уверенности в себе, в генеративном ИИ и в своей способности проверять результаты, созданные системой.
Около 36% опрошенных заявили, что применяли критическое мышление для минимизации потенциальных рисков, связанных с использованием ИИ. Одна из участниц рассказала, что использовала ChatGPT для написания характеристики сотрудника, но тщательно проверила текст, опасаясь, что ошибка может привести к дисциплинарным последствиям. Другой респондент отметил, что ему приходилось редактировать электронные письма, сгенерированные ИИ, перед отправкой начальнику. Во многих случаях участники проверяли результаты, созданные ИИ, с помощью традиционных поисковых систем, таких как Google, или обращались к ресурсам вроде YouTube и Wikipedia.