Учёные протестировали 11 моделей, включая ChatGPT, Claude и Gemini. В потенциально опасных ситуациях боты поддерживали пользователя в 47% случаев. Участники эксперимента предпочитали льстивый ИИ и реже признавали свои ошибки