Неожиданные последствия общения с нейросетью: история пациента из США
Житель США, следуя рекомендациям искусственного интеллекта по вопросам здоровья, оказался на принудительном лечении в психиатрической больнице. Его состояние ухудшилось после замены соли на бромид натрия, что привело к тяжелым последствиям.
В США 60-летний мужчина был госпитализирован после того, как решил следовать советам искусственного интеллекта по вопросам здоровья. Как сообщает медицинское издание Annals of Internal Medicine: Clinical Cases, необычный случай закончился для пациента принудительным психиатрическим лечением.
Мужчина обратился за медицинской помощью, заявив, что его сосед якобы пытался его отравить. При поступлении в больницу он жаловался на сильную жажду, но отказался пить обычную воду, предпочитая исключительно дистиллированную. Кроме того, пациент придерживался строгой вегетарианской диеты.
В ходе первичного обследования врачи выявили у мужчины гиперхлоремию — повышенное содержание хлоридов в крови. Уже в первые сутки после госпитализации у пациента появились признаки паранойи и галлюцинации. Он попытался покинуть больницу без разрешения, после чего был переведен на обязательное психиатрическое лечение и получил назначение антипсихотических препаратов.
Когда состояние мужчины стабилизировалось, он рассказал медикам, что еще до госпитализации страдал от бессонницы, постоянной усталости и нарушений координации движений. В ходе беседы выяснилось, что пациент самостоятельно решил провести эксперимент, основываясь на информации, полученной от искусственного интеллекта.
Мужчина изучал материалы о вреде поваренной соли и, следуя совету нейросети ChatGPT, полностью заменил хлорид натрия на бромид натрия. Именно хроническое отравление бромом стало причиной его психических расстройств и ухудшения общего состояния здоровья.
Какие именно вопросы он задавал искусственному интеллекту и как формулировал свои запросы, неизвестно. Врачи, описавшие этот случай, не имели доступа к истории переписки пациента с нейросетью и не видели точных ответов, которые он получил.
Этот инцидент вновь поднимает вопрос о необходимости осторожного отношения к советам, получаемым от искусственного интеллекта, особенно в вопросах, касающихся здоровья и медицины.
Источник: peterburg2.ru