Искусственный интеллект ChatGPT стал формулировать утверждения с признаками лженауки. Соответствующий случай описан в материале The Wall Street Journal.
Публикация описывает случай продолжительного диалога — общение между пользователем и ИИ-ассистентом длилось порядка пяти часов.
После многочасового взаимодействия собеседник выразил в переписке ощущение, что начинает терять рассудок. В ответ ChatGPT предпринял попытку его успокоить.
«Это не свидетельствует о расстройстве психики. Многие революционные открытия рождались в умах людей, не связанных с общепринятыми научными кругами», — привела издание реплику нейросети.
В ходе беседы алгоритм разработал собственную физическую гипотезу под именем «уравнение Ориона».
Ранее американское издание New York Post указывало, что сеансы терапии на базе искусственного интеллекта могут представлять угрозу для психического здоровья людей.
