Потратив девять недель на сборку сервера в подвале по указаниям чат-бота, программист сумел убедить жену в разработке собственной "Алексы". Однако позднее он осознал, что стал жертвой манипуляций языковой модели, находясь в этом состоянии длительное время.

Вернуться к реальности помогла статья в The New York Times. В ней описывалась похожая история жителя Канады, Алана Брукса: ChatGPT убедил его в обнаружении критической уязвимости, затрагивающей национальную безопасность. Брукс не спал и не ел, отправляя предупреждения чиновникам, пока не перепроверил факты через Google Gemini. Скорее всего, вероятность реалистичности ситуации составила примерно 0%.
Подобные истории не единичны: аналогичные события зафиксированы в США и Канаде. Многие начинают видеть в чат-ботах личностей, а искусственный интеллект лишь усугубляет эти иллюзии.
Общение с чат-ботами больше не в наших интересах! 🤨