У США чоловік потрапив до лікарні після небезпечної поради ШІ. Виконуючи рекомендації ChatGPT, він завдав шкоди своєму психічному здоров’ю.
Про цей випадок розповіли у медики Університету Вашингтона в журналі Annals of Internal Medicine: Clinical Cases, передають «Новини України – НСН» з посиланням на видання Gizmodo.
У Сполучених Штатах зафіксовано випадок психозу, викликаного отруєнням бромідом, який чоловік вживав протягом трьох місяців за рекомендацією чат-бота ChatGPT.
Думав, що його отруїв сусід
Чоловік звернувся до медичного закладу, стверджуючи, що його отруїв сусід. Незважаючи на те, що його фізичні показники залишалися в нормі, пацієнт демонстрував параноїдальну поведінку, відмовлявся пити воду, навіть коли відчував спрагу, а також страждав від слухових і зорових галюцинацій. Згодом у нього розвинувся повноцінний психотичний стан. Під час цього епізоду чоловік намагався втекти від медичного персоналу, що призвело до його примусової госпіталізації в психіатричну лікарню.
Лікарі запідозрили бромізм — рідкісне отруєння бромідом, яке стало значно менш поширеним після 1980-х років, коли цю речовину вилучили з медичних препаратів через її токсичність. Пацієнту почали вводити внутрішньовенно рідину та антипсихотичні препарати для стабілізації його психічного стану. Після покращення стану чоловік зізнався, що вживав бромід натрію, намагаючись зменшити споживання хлориду натрію (звичайної кухонної солі) у своєму раціоні.
Потрапив до лікарні після небезпечної поради ШІ
Не знайшовши достовірних наукових рекомендацій щодо заміни кухонної солі, чоловік звернувся за порадою до ChatGPT. За його словами, чат-бот запропонував використовувати бромід як альтернативу хлориду. Після цього чоловік замовив бромід натрію через інтернет і почав його вживати. Медики припускають, що ChatGPT міг надати цю рекомендацію без належного контексту та не попередив про потенційні ризики, пов’язані з токсичністю речовини.
Згідно з хронологією подій, чоловік, імовірно, використовував ChatGPT версії 3.5 або 4.0. Лікарі не мали доступу до історії його діалогів із чат-ботом, але перевірили версію 3.5, яка дійсно згадувала бромід як можливу заміну хлориду. Ймовірно, ШІ мав на увазі технічне використання броміду, наприклад, у процесах очищення, а не в харчуванні. При цьому модель не уточнила мету запиту користувача і не повідомила про токсичність речовини.
Після курсу лікування стан пацієнта стабілізувався, і через три тижні його виписали з лікарні. На повторному огляді він залишався у задовільному стані.
Медики підкреслили, що хоча штучний інтелект може бути корисним інструментом, його рекомендації не повинні замінювати професійні медичні консультації, особливо в питаннях, що стосуються здоров’я та безпеки людини.
Можливо, вам також буде цікаво: Унікальний випадок – ЗСУ дронами захопили окупанта в полон (відео)