fbpx

Médicos estão usando ChatGPT para se comunicar melhor com pacientes

No entanto, o uso do ChatGPT não é unânime: alguns acreditam que IA pode ajudar, outros acham que ela pode piorar situações difíceis
Inteligência Artificial e Medicina

Desde a popularização do ChatGPT, no início deste ano, discute-se os limites do uso do chatbot de Inteligência Artificial (IA): até que ponto ele pode realmente ajudar? Inicialmente, pairaram dúvidas até sobre o papel dessa tecnologia na medicina. Fazer consultas médicas ou pedir diagnósticos para a ferramenta pode ter o efeito contrário e ser prejudicial, já que o ChatGPT tem um histórico de mentiras. Contudo, os médicos descobriram que ele pode ajudar em outro aspecto: a comunicação.

ChatGPT e IA na medicina

Alguns profissionais da área acreditam que a IA pode ajudar a medicina, outros discordam (Imagem: shutterstock/Andrey_Popov)

Com a ampliação do uso do ChatGPT, alguns médicos ficaram alarmados com o potencial da ferramenta. Eles temiam que os profissionais se sentissem tentados a usá-los como um atalho para tarefas corriqueiras, como realizar diagnósticos rápidos ou escrever cartas a convênios e seguradoras.

No entanto, Peter Lee, vice-presidente corporativo de pesquisa e incubações da Microsoft, investidora da OpenAI, ficou surpreso quando descobriu para que os médicos estavam usando o ChatGPT: se comunicar de forma mais próxima e empática com os pacientes.

Comunicação

  • Os esforços dos médicos em se comunicarem melhor com seus pacientes não é em vão.
  • Um estudo mostrou que a maioria das conversas dos profissionais com as famílias de pacientes terminais ou que falecerem durante um procedimento não era empática.
  • De acordo com uma pesquisa da HealthTap, 85% dos pacientes acreditam que a compaixão é mais importante do que o tempo de espera ou o custo.
  • Agora, os médicos estão usando ferramentas de IA para encontrar formas melhores de dar más notícias ou apenas explicar diagnósticos com mais clareza.
  • O ponto é a linguagem.

ChatGPT ajudando médicos na prática

Um doutor da Universidade do Texas pediu à sua equipe que escrevesse um roteiro de como se comunicar com uma pessoa alcoólatra em uma consulta. No entanto, ele percebeu que todos os membros eram técnicos demais e não acolhiam os pacientes, que já estariam passando por um momento difícil.

Ele revelou que, quando pediu a mesma tarefa ao ChatGPT, a resposta foi muito mais empática, iniciando com uma frase tranquilizadora:

Só depois disso o chatbot explica as formas de tratamento.

Argumentos contrários

ChatGPT não é exatamente confiável: chatbot tem histórico de inventar mentiras (Imagem: Diego Thomazini / Shutterstock.com)

Outros profissionais da área discordam. Eles argumentam que o ChatGPT já foi utilizado para muitas funções e ocasionalmente dá respostas erradas, o que pode prejudicar o médico mais do que ajudar e piorar situações difíceis.

Para esse grupo, mesmo que o médico seja um profissional extremamente técnico e focado, eles devem ter capacidade de expressar o mínimo de empatia no atendimento.

Fonte: Olhar Digital | Por Vitoria Lopes Gomez, editado por Bruno Capozzi | Com informações de The New York Times

Compartilhe este conteúdo

Conteúdos Relacionados

Siga a Ascenda Digital
Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore