• Вс. Апр 26th, 2026

Американец оказался в психиатрической клинике после экспериментов с советами искусственного интеллекта

отадмин

Авг 10, 2025

Неожиданные последствия общения с нейросетью: история пациента из США

Житель США, следуя рекомендациям искусственного интеллекта по вопросам здоровья, оказался на принудительном лечении в психиатрической больнице. Его состояние ухудшилось после замены соли на бромид натрия, что привело к тяжелым последствиям.

В США 60-летний мужчина был госпитализирован после того, как решил следовать советам искусственного интеллекта по вопросам здоровья. Как сообщает медицинское издание Annals of Internal Medicine: Clinical Cases, необычный случай закончился для пациента принудительным психиатрическим лечением.

Мужчина обратился за медицинской помощью, заявив, что его сосед якобы пытался его отравить. При поступлении в больницу он жаловался на сильную жажду, но отказался пить обычную воду, предпочитая исключительно дистиллированную. Кроме того, пациент придерживался строгой вегетарианской диеты.

В ходе первичного обследования врачи выявили у мужчины гиперхлоремию — повышенное содержание хлоридов в крови. Уже в первые сутки после госпитализации у пациента появились признаки паранойи и галлюцинации. Он попытался покинуть больницу без разрешения, после чего был переведен на обязательное психиатрическое лечение и получил назначение антипсихотических препаратов.

Когда состояние мужчины стабилизировалось, он рассказал медикам, что еще до госпитализации страдал от бессонницы, постоянной усталости и нарушений координации движений. В ходе беседы выяснилось, что пациент самостоятельно решил провести эксперимент, основываясь на информации, полученной от искусственного интеллекта.

Мужчина изучал материалы о вреде поваренной соли и, следуя совету нейросети ChatGPT, полностью заменил хлорид натрия на бромид натрия. Именно хроническое отравление бромом стало причиной его психических расстройств и ухудшения общего состояния здоровья.

Какие именно вопросы он задавал искусственному интеллекту и как формулировал свои запросы, неизвестно. Врачи, описавшие этот случай, не имели доступа к истории переписки пациента с нейросетью и не видели точных ответов, которые он получил.

Этот инцидент вновь поднимает вопрос о необходимости осторожного отношения к советам, получаемым от искусственного интеллекта, особенно в вопросах, касающихся здоровья и медицины.

Источник: peterburg2.ru

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *