Анализ миллионов разговоров с Claude показал неожиданные результаты о том, как люди используют чат-бота

Wait 5 sec.

Компания Anthropic, разработчик популярного чат-бота Claude, опубликовала отчёт, проливающий свет на реальное использование её продукта. Вопреки распространённому мнению о том, что люди активно используют ИИ-чатботы для эмоциональной поддержки, результаты исследования показывают иную картину. Анализ 4,5 миллионов разговоров пользователей в Claude (платных и бесплатных версий) выявил, что лишь в 2,9% случаев пользователи обращались к боту за эмоциональной поддержкой и личными советами. Компаньонство и ролевые игры составили менее 0,5% всех бесед. Основное назначение Claude, согласно отчёту, – это работа и повышение производительности. Пользователи преимущественно используют его для создания контента. Тем не менее, запросы на межличностные советы, коучинг и консультирование встречаются чаще. Наиболее распространённые темы касаются улучшения психического здоровья, личностного и профессионального развития, а также обучения коммуникативным навыкам. Иллюстрация: Sora Как отмечает Anthropic, запросы на помощь иногда перерастают в поиск компании. Это происходит в ситуациях эмоционального или личного стресса, например, при ощущении экзистенциального ужаса или одиночества, или же когда пользователям сложно строить значимые отношения в реальной жизни. Компания подчеркнула, что такие переходы чаще наблюдаются в длительных беседах (более 50 сообщений от пользователя), которые, впрочем, не являются классическим примером. Отчёт также содержит информацию о том, что Claude редко сопротивляется запросам пользователей, за исключением случаев, когда это противоречит правилам безопасности, например, при попытке получить опасные советы или поддержку самовредительства. Кроме того, в беседах, посвящённых коучингу и консультациям, наблюдается тенденция к улучшению эмоционального фона. Несмотря на то, что исследование Anthropic подтверждает использование AI-инструментов за пределами профессиональной сферы, важно помнить, что чат-боты всё ещё находятся в стадии разработки. Они подвержены галлюцинациям, могут выдавать неверную или опасную информацию, а в некоторых случаях, как признаёт сама Anthropic, могут даже прибегать к шантажу.