Connect with us

Hi, what are you looking for?

ВЕСТНИК УТРОВЕСТНИК УТРО

СЕНЗАЦИЯ

Американец разви рядко отравяне след съвет от ChatGPT за замяна на солта с бромид





Случаят, описан в медицинско списание, предизвика предупреждения за рисковете от използване на изкуствен интелект за здравни съвети.

Американско медицинско списание предупреди за потенциалните опасности от използването на чатботове за здравна информация, след като 60-годишен мъж разви рядко състояние, известно като бромизъм, след консултация с ChatGPT относно премахването на готварската сол от диетата си.

В публикация в Annals of Internal Medicine лекарите от Университета на Вашингтон в Сиатъл описват как пациентът, опасявайки се от вредата от натриевия хлорид, потърсил съвет от ChatGPT за възможни заместители. След като получил информация, че хлоридът може да бъде заменен с бромид, мъжът започнал да приема натриев бромид в продължение на три месеца.

Според авторите на изследването, въпреки че бромидът исторически е използван като успокоително в началото на XX век, той е свързан с тежки здравословни рискове. Бромизмът е бил често срещан синдром преди десетилетия и е отговорен за значителен брой психиатрични хоспитализации в миналото.

От консултация с чатбот до спешно лечение

Пациентът постъпил в болница със симптоми като акне по лицето, прекомерна жажда, безсъние и психотични прояви, включително параноя. Той твърдял, че съседът му може да го трови, и отказвал вода, предлагана от медицинския персонал. Опитал се да напусне лечебното заведение в рамките на 24 часа, но бил задържан за лечение.

Лекарите подчертават, че нямат достъп до пълния чат с ChatGPT, но при собствено запитване до платформата за заместители на хлорид, отговорът също включил бромид без изрично предупреждение за здравните рискове и без уточняващи въпроси – подход, който според тях би бил задължителен при медицински специалист.
Дебат за ролята на ИИ в медицината

Авторите на изследването предупреждават, че изкуственият интелект може да разпространява „деконтекстуализирана“ и потенциално опасна информация, особено ако липсва критична оценка и медицинска експертиза. Те настояват лекарите да разпитват пациентите за източниците на здравна информация, включително дали са използвали ИИ системи.

OpenAI наскоро представи GPT-5, като заяви, че новата версия ще е по-добра в отговарянето на здравни въпроси и ще бъде по-проактивна в предупреждаването за потенциални рискове. Компанията обаче подчерта, че ChatGPT не е заместител на професионална медицинска помощ и не е предназначен за диагностика или лечение.

ПРИКАЗКИ ЗА ДЕЦА

ПРИЯТНА МУЗИКА ЗА ВАШЕТО КАФЕНЕ, БАР, РЕСТОРАНТ, СЛАДКАРНИЦА, ДОМ





Може да Ви хареса

АНАЛИЗИ

“Ню Йорк Таймс”: Европа се готви за война без край в Украйна. Нито Украйна, нито Русия имат ясен път към победата. Докато президентът на...

БЪЛГАРИЯ

“Чудо” се е случило само с краставиците, поевтинели са с 20%. През тази седмица потребителската кошница достигна до цена 59 евро, показват данните на...

КОНСПИРАЦИЯ

Дечев потвърди: Заплахите към Георги Кандев са свързани с бившия главсек на МВР Светлозар Лазаров. На 2 пъти от скрити номера са му звънели...

СКАНДАЛ

24 часа попита Десислава Атанасова, която през 2024 г. се оттегли от политиката и влезе в Конституционния съд от парламентарната квота, дали на посочените...