Більше не даватиме медичних порад: чому ChatGPT тепер не зможе консультувати з питань здоров'я та як працюватиме чат-бот

Компанія-розробник ChatGPT ухвалила рішення обмежити можливості штучного інтелекту: відтепер він більше не зможе відповідати на питання, пов’язані з медичними симптомами, лікуванням чи аналізом знімків.

 

Розробники офіційно повідомили, що ChatGPT тепер не має права консультувати людей із медичних питань і тим більше призначати лікування. Також чатботу заборонено аналізувати медичні знімки, результати аналізів, МРТ чи фото з ураженнями шкіри. Хоча офіційного коментаря компанія не надала, у соцмережах користувачі вважають, що обмеження ввели, аби уникнути судових позовів і правових ризиків.

Читайте також:

Що кажуть українці

Багато українців зізнаються, що використовували чат GPT для пошуку медичної інформації. Молода мама Софія розповідає:

«Я не питала поради, як у лікаря, просто як у звичайному Гуглі — що він знає про хворобу, які симптоми. Але ніколи не заміняла похід до лікаря. Хоча, чесно, довіра до чатбота росте, думаю, що дехто може і замінити ним лікаря».

Студентка й акторка Настя додає, що часто зверталася до чатбота, коли болів живіт:

«Він писав, що, мабуть, щось зі шлунком, радив перевірити шлунковий сік. Але потім просто виспалась — і все минуло. Правда, іноді відповіді чатбота лякали: писав, що це рак чи щось страшне».

Читайте також:

Журналісти Сніданку з 1+1 вирішили перевірити, як реагує ChatGPT на опис вигаданих симптомів — нежить і почервоніння на обличчі. Через кілька секунд бот видав чотири можливі діагнози: застуда, алергія, шкірне захворювання та запалення носових пазух. До кожного додав опис лікування, але наприкінці порадив «звернутися до лікаря-терапевта».

Що кажуть медики

Лікарка вищої категорії Мар’яна Селюк пояснює:

«У нас є так званий диференційний діагноз. Ми ретельно обстежуємо пацієнта і вибираємо той варіант, який реально існує. А ChatGPT просто видає всі можливі варіанти. Людина може зануритися в симптоми, прийняти неправильні ліки — і це лише погіршить стан».

Читайте також:

Вона наголошує, що заборона на медичні поради від штучного інтелекту є цілком логічною:

«Якщо людина має серйозне захворювання, вона сподівається на реальну допомогу. Але чатбот часто видає хибну інформацію, і через це пацієнти втрачають час. Можна запитати загальні речі, але поради щодо лікування — тільки від лікаря».

Попри це, багато лікарів визнають: штучний інтелект може бути корисним, але лише як довідковий інструмент. ChatGPT може допомогти зорієнтуватися в термінах чи дослідженнях, але остаточні рішення щодо здоров’я мають ухвалюватися тільки спеціалістами.

ЧИТАЙТЕ ТАКОЖ: Немає світла, а голова мокра: експертка пояснила, як швидко і безпечно висушити волосся в умовах відключень

Останні новини