Используя распространенные мифы и заблуждения Национального института рака (NCI) о раке, Джонсон и его команда обнаружили, что 97% ответов были правильными. Однако это открытие связано с некоторыми важными оговорками, в том числе с опасением команды, что некоторые ответы ChatGPT могут быть интерпретированы неправильно. «Это может привести к некоторым неверным решениям больных раком. Команда предложила проявлять осторожность при консультировании пациентов о том, следует ли им использовать чат-ботов для получения информации о раке», — говорит Джонсон.
Исследование показало, что рецензенты были «ослеплены», то есть они не знали, пришли ли ответы от чат-бота или от NCI. Хотя ответы были точными, рецензенты обнаружили, что язык ChatGPT был косвенным, расплывчатым и в некоторых случаях неясным.
«Я осознаю и понимаю, как трудно больным раком и лицам, ухаживающим за ними, получить доступ к точной информации», — говорит Джонсон. «Эти источники необходимо изучить, чтобы мы могли помочь больным раком ориентироваться в мутных водах, существующих в информационной онлайн-среде, когда они пытаются найти ответы на свои диагнозы».
Неверная информация может нанести вред онкологическим больным. В предыдущем исследовании Джонсона и его команды, опубликованном в Журнале Национального института рака , они обнаружили, что дезинформация распространена в социальных сетях и может нанести вред больным раком.
Следующие шаги — оценить, как часто пациенты используют чат-ботов для поиска информации о раке, какие вопросы они задают и дают ли чат-боты точные ответы на необычные или необычные вопросы о раке.
Исследование было поддержано Национальным институтом здравоохранения/Национальным институтом рака и Фондом рака Хантсмана.
© doctor.ru Все права защищены.