En primer lugar, ChatGPT no posee conocimientos médicos propios, sino que se basa en lo que encuentra en internet, lo cual puede ser incompleto o erróneo. 

Por Stiven Cartagena

La inteligencia artificial ChatGPT ha ganado popularidad en los últimos meses por sus respuestas similares a las de un ser humano, ya que puede generar una respuesta basada en la información almacenada en su base de datos al introducir cualquier pregunta. Sin embargo, se ha informado que en ocasiones puede inventar información médica, lo que demuestra que no siempre es confiable.

Desde su lanzamiento en noviembre de 2022, ha despertado gran interés entre los usuarios de Internet, quienes lo han utilizado para diversos propósitos, desde la generación de poemas y canciones hasta la simulación de entrevistas y citas.

Sin embargo, con el pasar del tiempo han surgido preguntas sobre qué tan confiable es ChatGPT en temas de salud y si podría llegar a reemplazar a un médico con su capacidad de generar respuestas basadas en miles de millones de textos disponibles en la web. Para abordar estos interrogantes, Javier Cardona, cofundador y CEO de 1DOC3, analiza el funcionamiento y potencial que ha tenido la tecnología de OpenAI y cuál podría ser su aprovechamiento en la industria médica. 

Según cuenta Cardona, el impacto que ha tenido ChatGPT en los últimos meses ha sido enorme: “En la actualidad no hay ningún cuestionamiento sobre las capacidades y el impacto que esta tecnología va a tener en diferentes industrias. Además, se ha hablado de otras variaciones y posibilidades de introducir esta tecnología. Desde mi punto de vista, el principal impacto es la velocidad en la que ChatGPT está avanzando, es cuestión de semanas o días para ver los cambios y nuevos avances que trae la IA”.

Otro de los puntos abordados es sobre la fiabilidad de las respuestas médicas que ofrece el chatbot, y es que si bien es una herramienta impresionante y entretenida para muchos aspectos, también tiene sus limitaciones y riesgos en lo que respecta a la salud. En primer lugar, ChatGPT no posee conocimientos médicos propios, sino que se basa en lo que encuentra en internet, lo cual puede ser incompleto o erróneo. 

“En el tema de la medicina la mayoría de los casos están conformados por temas de cuidado primario, algo relacionado a un dolor de cabeza, dolor estomacal, en este sentido se podría decir que ChatGPT puede acertar, según los tests de prueba que se han realizado. Pero la realidad es muy diferente, yo no confiaría en la vida de una persona a una plataforma que trabaja cien por ciento a través de IA”.

Y es que los test que menciona Cardona son precisamente los realizados recientemente por el doctor Isaac Kohane, que es a la vez científico informático en Harvard y médico, quien se asoció con dos colegas para probar la versión de pago de GPT-4.

“Me sorprende decir: mejor que muchos médicos que he observado”, dijo Kohane en su libro “The AI Revolution in Medicine”. Para la prueba, se utilizó un experimento de pensamiento clínico con GPT-4, basado en un caso de la vida real que involucró a un bebé recién nacido que se trató varios años antes. Dando al bot algunos detalles clave sobre el bebé que obtuvo de un examen físico, así como algo de información de un ultrasonido y niveles hormonales, la máquina fue capaz de diagnosticar correctamente una afección de 1 en 100.000 llamada hiperplasia suprarrenal congénita “tal como lo haría yo, con todos mis años de estudio y experiencia”, afirma Kohane.

La IA no siempre tiene la razón, y tampoco tiene ética

La tecnología de ChatGPT no siempre es fiable, y de hecho Kohane lo afirma en su libro, donde pone cientos de ejemplos de los errores que puede cometer, que van desde simples errores administrativos, hasta errores matemáticos como “resolver” de forma inexacta un rompecabezas de Sudoku, u olvidarse de cuadrar un término en una ecuación. 

Los errores a menudo son fáciles de corregir, y el sistema tiene una tendencia a afirmar que es correcto, incluso cuando se desafía. No es difícil imaginar cómo un número fuera de lugar o un peso mal calculado podrían conducir a graves errores en la prescripción médica de un paciente.

Además, no puede evaluar el estado clínico de una persona, ni puede hacer un diagnóstico o prescribir un tratamiento. Por lo tanto, no puede reemplazar la consulta médica presencial ni la relación médico-paciente.

Para Cardona, lo que necesita la medicina de la actualidad es unificar el trabajo de GPT y aprovechar su potencial para mejorar productivamente: “Nosotros antes de que saliera a la luz ChatGPT hemos empleado inteligencia artificial propia, que básicamente le ayuda a los médicos de la app a tener una vida más productiva, esto a través de la asistencia con el interrogatorio que se hace con la plataforma de consultas médicas, teniendo más y mejor información para el médico. También le ayuda dándole sugerencias con prescripciones médicas, pero al final es el doctor quien toma la decisión”.

Actualmente, 1DOC3 se dedica a ofrecer planes de atención médica para empresas. Su plataforma permite que cada empleado tenga acceso a un servicio de atención médica virtual con médicos disponibles las 24 horas del día. El objetivo es proporcionar una atención inmediata a cualquier problema médico que pueda surgir en un empleado o paciente.

En definitiva, Cardona recomienda usar ChatGPT con precaución y responsabilidad en lo que respecta a temas de salud. Además, sugiere siempre verificar la fuente y la fecha de la información generada por ChatGPT y contrastar con fuentes confiables y actualizadas, como las autoridades sanitarias o los medios especializados, también cuando se refiere a atención médica, lo mejor es acceder a una plataforma dedicada a esto o ir a consulta médica preferencialmente.

*En alianza con Geektime en Español