O problema das referências científicas em medicina e saúde nos Chatbots com Inteligência Artificial

Prof. Sérgio Pinheiro

Desde o lançamento público de Chatbots com modelos de linguagem baseados em IA no final do ano passado, várias questões foram levantadas sobre seu uso como fonte de informação em saúde e medicina. A informação em saúde e medicina deve ser sempre divulgada de forma responsável e baseada em princípios fundamentais como precisão, ou nível de evidência científica, clareza, relevância, acessibilidade e respeito ao público em geral. Neste contexto, os Chatbots alimentados por IA apresentam grandes vantagens como fontes de informação em saúde e medicina, mas o principal problema, até o momento, diz respeito ao nível de evidência científica de suas informações.

Entre as grandes vantagens dos Chatbots com IA na geração de informações de saúde, podemos citar a rapidez, o acesso a grandes conjuntos de dados, a personalização das informações e a facilidade de comunicação com o usuário. De certa forma, podemos acrescentar também que esses Chatbots universalizam o acesso a informações em saúde e medicina, considerando que indivíduos de diferentes raças, credos, grupos sociais, etnias e níveis socioeconômicos podem ter respostas “precisas” e com linguagem clara e personalizada às suas perguntas especificas em saúde.

Embora os principais Chatbots destaquem a precisão como uma das principais vantagens das informações de saúde geradas por modelos de linguagem baseados em IA, muitos problemas existem ao tentar extrair referências bibliográficas. Ao se fazer a seguinte pergunta a quatro diferentes Chatbots via poe.com (Sage, Claude, ChatGPT e Dragonfly) “Que referências bibliográficas você utiliza para preparar um texto informativo na área de saúde e medicina?”, as resposta incluem: revisão científica e artigos originais revisados por pares, livros, relatórios de pesquisa, diretrizes e recomendações de organizações médicas e de saúde respeitáveis, e bancos de dados médicos, como PubMed ou Medline.

São respostas extremamente relevantes e adequadas. No entanto, ao fazer uma pergunta específica sobre uma condição médica rara em crianças e adolescentes “Que referências bibliográficas você usou para preparar o texto sobre síndrome nefrótica em crianças?”, as respostas incluem referências desatualizadas sobre artigos científicos e recomendações de sociedades internacionais, como no caso do ChatGPT e Dragonfly. O Sage vai além: “como modelo de linguagem de IA, posso fornecer informações gerais e insights sobre uma ampla gama de tópicos, incluindo doenças médicas. No entanto, é importante observar que não substituo o conselho médico ou a opinião médica profissional. Qualquer informação fornecida por mim deve ser tomada como informação geral”. Curiosamente, Claude responde que ” Na verdade, não usei nenhuma referência bibliográfica externa para preparar este texto”, e vai além quando questionado sobre a confiabilidade das informações que ele gerou sobre o tema específico: ” Você está certo, não devo ser considerada uma fonte confiável para pesquisas formais sobre tópicos médicos”.

Isso levanta questões sobre o nível de evidência, um princípio fundamental para a disseminação responsável de informações em medicina e saúde por Chatbots de modelos de linguagem com IA.

Por fim, é importante usar fontes confiáveis, imparciais e baseadas em evidências. Além disso, é importante avaliar criticamente as fontes dos Chatbots para garantir que sejam relevantes, atualizadas e forneçam informações precisas. Por enquanto, essas informações em saúde e medicina geradas pelos Chatbots podem não ser tão precisas quanto a ciência demanda e não devem ser usadas como referência para consultas técnicas. A esperança é que isso possa mudar em um curto período de tempo.



Copyright © 2023 AI-Talks.org

Leave a Reply

Your email address will not be published. Required fields are marked *