Больше не будет давать медицинских советов: почему ChatGPT теперь не сможет консультировать по вопросам здоровья и как будет работать чат-бот

Компания-разработчик ChatGPT приняла решение ограничить возможности искусственного интеллекта: отныне он больше не сможет отвечать на вопросы, связанные с медицинскими симптомами, лечением или анализом снимков.

Разработчики официально сообщили, что ChatGPT теперь не имеет права консультировать людей по медицинским вопросам и тем более назначать лечение. Также чатботу запрещено анализировать медицинские снимки, результаты анализов, МРТ или фото с поражениями кожи. Хотя официального комментария компания не предоставила, в соцсетях пользователи считают, что ограничения ввели, чтобы избежать судебных исков и правовых рисков.

Читайте также:

Что говорят украинцы

Многие украинцы признаются, что использовали чат GPT для поиска медицинской информации. Молодая мама София рассказывает:

«Я не спрашивала совета, как у врача, просто как в обычном Гугле - что он знает о болезни, какие симптомы. Но никогда не заменяла поход к врачу. Хотя, честно, доверие к чатботу растет, думаю, что некоторые могут и заменить им врача».

Студентка и актриса Настя добавляет, что часто обращалась к чатботу, когда болел живот:

«Он писал, что, видимо, что-то с желудком, советовал проверить желудочный сок. Но потом просто выспалась - и все прошло. Правда, иногда ответы чатбота пугали: писал, что это рак или что-то страшное».

Читайте также:

Журналисты Сніданку з 1+1 решили проверить, как реагирует ChatGPT на описание вымышленных симптомов - насморк и покраснение на лице. Через несколько секунд бот выдал четыре возможных диагноза: простуда, аллергия, кожное заболевание и воспаление носовых пазух. К каждому добавил описание лечения, но в конце посоветовал «обратиться к врачу-терапевту».

Что говорят медики

Врач высшей категории Марьяна Селюк объясняет:

«У нас есть так называемый дифференциальный диагноз. Мы тщательно обследуем пациента и выбираем тот вариант, который реально существует. А ChatGPT просто выдает все возможные варианты. Человек может погрузиться в симптомы, принять неправильные лекарства - и это только ухудшит состояние».

Читайте также:

Она отмечает, что запрет на медицинские советы от искусственного интеллекта вполне логичен:

«Если человек имеет серьезное заболевание, он надеется на реальную помощь. Но чатбот часто выдает ложную информацию, и из-за этого пациенты теряют время. Можно спросить общие вещи, но советы по лечению - только от врача».

Несмотря на это, многие врачи признают: искусственный интеллект может быть полезным, но только как справочный инструмент. ChatGPT может помочь сориентироваться в терминах или исследованиях, но окончательные решения относительно здоровья должны приниматься только специалистами.

ЧИТАЙТЕ ТАКЖЕ: Нет света, а голова мокрая: эксперт объяснила, как быстро и безопасно высушить волосы в условиях отключений

Последние новости