¡Ayuda de ChatGPT! Un niño de 4 años buscó durante tres años tratamiento médico de 17 expertos, pero un modelo de gran tamaño descubrió con precisión la causa de la enfermedad.
Después de sufrir la "extraña enfermedad" durante 3 años y buscar tratamiento médico en vano, ¡finalmente fue diagnosticado con éxito por ChatGPT!
Esta es una experiencia real que le pasó a un niño de 4 años.
Después de cierto ejercicio, comenzó a sentir fuertes dolores en el cuerpo. Su madre la llevó a ver a 17 médicos, desde pediatras, ortopédicos hasta varios especialistas, y a una serie de exámenes como resonancias magnéticas, pero nadie encontró realmente la causa.
Su madre intentó buscar ayuda en ChatGPT sin grandes esperanzas, pero este último directamente le dio el consejo correcto basándose en la descripción y el informe de inspección.
Tan pronto como salió el tema, llegó a la lista candente de Zhihu y la popularidad de Reddit también se disparó a 2,3k.
Algunos internautas dijeron que GPT es realmente emocionante esta vez:
Cada consultorio médico podría tener un asistente de IA y compararlo con su propio diagnóstico.
Algunos internautas siguieron el ejemplo de Med-PaLM, un gran modelo auxiliar de diagnóstico médico especialmente entrenado por Google, y quisieron conocer sus resultados de diagnóstico:
Esta es una tarea de prueba casi perfecta para modelos grandes.
Entonces, ¿qué está pasando exactamente?
** ¿Qué tipo de "enfermedad extraña" es? **
El protagonista de la historia se llama Alex y su madre Courtney tiene dos hijos.
Un día de 2020, la niñera de Alex le dijo a Courtney que Alex tenía que tomar analgésicos todos los días, de lo contrario colapsaría por el dolor.
Luego, Alex comenzó a rechinar los dientes nuevamente. Sus padres relacionaron las dos cosas y pensaron que podría ser causado por el dolor causado por el reemplazo de dientes o por caries.
Entonces su madre llevó a Alex a ver a un dentista y comenzó oficialmente el viaje de tres años de Alex para buscar tratamiento médico.
El dentista no encontró problemas después del examen, pero sugirió que, como Alex estaba rechinando los dientes, les recomendaba que consultaran a un ortodoncista que se especializa en el tratamiento de la obstrucción de las vías respiratorias.
El ortodoncista descubrió que la mandíbula superior de Alex era demasiado pequeña, lo que dificultaba la respiración, por lo que le colocó un expansor. Este método de tratamiento tuvo efecto y la madre alguna vez pensó que la enfermedad de Alex se curaría pronto.
Es razonable, pero la realidad muchas veces es ilógica.
Su madre pronto descubrió que Alex, que sólo tenía cuatro años, había perdido peso repentinamente.
Esta vez, la madre recurrió a un pediatra en busca de ayuda.
Los médicos pensaron que Alex podría haber sido afectado por el coronavirus, pero su madre no quedó satisfecha con esta explicación. Sin embargo, mi madre todavía llevó a Alex a una revisión a principios de 2021.
El médico le dijo a su madre que Alex había "crecido un poco más", pero descubrió que los pies izquierdo y derecho de Alex estaban algo desequilibrados y sugirió que eligieran fisioterapia.
Esta vez, su madre creyó las palabras del médico, pero antes de que comenzara la fisioterapia, Alex volvió a desarrollar síntomas de dolor de cabeza, que se volvieron cada vez más intensos.
物理治疗的事只好先搁置一下,母亲先带Alex去看**神经(内) El médico concluyó que Alex padecía migrañas.
Mientras luchaba contra los dolores de cabeza, Alex también padecía síntomas de agotamiento, por lo que lo llevaron a un otorrinolaringólogo para comprobar si había un problema sinusal que afectara su sueño.
Después de pasar por estos idas y vueltas, Alex finalmente comenzó a recibir fisioterapia, su fisioterapeuta** creía que Alex podría sufrir una enfermedad congénita llamada malformación de Chiari.
Este trastorno congénito causa anomalías en el cerebro donde el cráneo se une con la columna.
La madre comenzó a investigar esto y llevó a Alex a ver nuevos pediatras, médicos de medicina interna pediátrica, médicos de medicina interna para adultos y médicos de **medicina musculoesquelética.
Al final, Alex vio hasta 17 médicos, se puede decir que visitó casi todos los departamentos imaginables, e incluso lo enviaron al departamento de emergencias, pero aún no pudo descubrir la causa.
**Hasta que ChatGPT provocó un giro de 180 grados en todo el incidente. **
Con la mentalidad de intentarlo, mi madre registró una cuenta ChatGPT.
Ingresó los síntomas de Alex y las notas del informe de resonancia magnética, incluido un detalle de que Alex no podía sentarse con las piernas cruzadas.
ChatGPT dio el diagnóstico: Síndrome del cordón anclado (TCS).
Por supuesto, Courtney no lo creyó directamente, después de recibir la respuesta, primero encontró un grupo de comunicación para padres de niños con niños en Facebook.
Después de leer la discusión, mi madre sintió que estos síntomas eran muy similares a los de Alex.
Este descubrimiento reavivó el fuego casi extinguido de la esperanza. Después, mi madre recordó que estuvo sentada frente al ordenador toda la noche y experimentó todo.
Con esta conclusión y el informe de resonancia magnética de Alex, encontré al neurocirujano.
Esta vez finalmente encontramos a la persona adecuada. El médico echó un vistazo a la resonancia magnética y llegó a la misma conclusión que ChatGPT y señaló la ubicación específica de la correa.
Las cosas fueron mejor después de eso. Alex fue operado y actualmente se está recuperando.
Entonces, ¿por qué Alex no recibió el diagnóstico final hasta que vio al médico número 18?
En primer lugar, tiene algo que ver con el propio Alex.
Las personas con TCS a menudo desarrollan hendiduras en la espalda, pero Alex no tenía una hendidura, una condición llamada síndrome del cordón oculto oculto (OTCS).
Aunque el TCS es una enfermedad rara, su incidencia en los recién nacidos no es baja, alrededor del 0,005% al 0,025%, que es mayor que la incidencia de la leucemia.
** **### △Chen Yingge, Mi Yang. Un caso de múltiples anomalías del desarrollo fetal durante el embarazo. [J] Avances en Medicina Clínica, 2023, 13(2)
Pero la OTCS es relativamente rara, tan rara que no se ha calculado en absoluto la tasa de incidencia.
Pero después de todo, al final de la historia, el cirujano hizo un juicio rápido después de ver las imágenes de resonancia magnética.
Entonces, la falla en el diagnóstico antes probablemente se debió a "el médico equivocado": entre los 17 médicos, ninguno de ellos se dedicaba a la cirugía.
Por supuesto, esto es normal, después de todo, todos son especialistas (correspondientes a médicos generales) que son buenos en sus respectivos campos de especialización, y es inevitable que no tengan una comprensión integral del conocimiento fuera de sus especialidades.
Pero esto también expuso un problema: cuando encontraron problemas inexplicables, estos médicos no consideraron realizar consultas multidisciplinarias y se desconoce si preguntaron completamente sobre el historial médico de Alex.
En palabras de su madre, Courtney, nadie estaba dispuesto a resolver "el problema mayor (más allá del ámbito de su propia disciplina)" y nadie daría ninguna pista sobre el diagnóstico.
La base de conocimientos de ChatGPT es al menos mucho más rica que la de los profesionales en campos subdivididos, y toma la situación de Alex en una consideración más exhaustiva antes de finalmente llegar a la conclusión correcta.
Entonces, ¿el diagnóstico exitoso de ChatGPT esta vez es un error o realmente tiene capacidades de diagnóstico?
**¿Se puede utilizar la IA para el diagnóstico? **
De hecho, esta no es la primera vez que alguien utiliza ChatGPT o GPT-4 como herramienta de diagnóstico de enfermedades.
Por ejemplo, poco después de que saliera GPT-4, alguien lo usó para diagnosticar con éxito un caso de su propio perro, y esta experiencia una vez explotó en Internet.
Le contó a GPT-4 los síntomas del perro desde la primera aparición, el proceso de tratamiento y el informe de cada análisis de sangre:
El día 20 la fiebre era de 41,5 grados centígrados, el médico le diagnosticó babesiosis canina basándose en los resultados de los análisis de sangre (resultados de los análisis de sangre se adjuntan), recibió tratamiento con antibióticos durante los siguientes 3 días, el día 24 recibió tratamiento con antibióticos, pero su las encías se pusieron pálidas (se adjuntan nuevos resultados de análisis de sangre).
GPT-4 rápidamente dio los resultados de la detección e indicó en la conversación que puede deberse a las dos razones siguientes:
Hemólisis: Destrucción de glóbulos rojos por diversos motivos, como anemia hemolítica inmunomediada (IMHA), toxinas u otras infecciones distintas a la babesiosis.
Pérdida de sangre: Sangrado interno o externo, que puede ser causado por un traumatismo, una cirugía o problemas gastrointestinales (como úlceras o parásitos).
El diagnóstico final del médico mostró que el perro efectivamente padecía anemia hemolítica inmunomediada (IMHA), y el perro se salvó después de que se le administró la medicación adecuada.
Además, algunos internautas también informaron sobre su experiencia que les salvó la vida a través de ChatGPT (GPT-4).
Se sintió dolorido por todas partes después de ir al gimnasio. Después de consultar a GPT-4 sobre su condición, obtuvo la respuesta de "rabdomiólisis" e inmediatamente fue al hospital y murió como resultado.
Sin embargo, algunos estudios académicos han mencionado que ni ChatGPT ni GPT-4 son médicos de IA en los que se pueda confiar completamente.
Por ejemplo, un estudio publicado en JAMA por el Brigham and Women's Hospital (BWH), un hospital afiliado a la Universidad de Harvard, demostró que al dar recomendaciones de tratamiento contra el cáncer, ChatGPT era completamente correcto en sólo el 62% de los casos.
En otros casos, el 34% de las sugerencias contenían al menos una o más respuestas que no coincidían con el diagnóstico correcto, y el 2% de los casos dieron un diagnóstico inverosímil.
En este sentido, el estudio cree que el diagnóstico no se puede dejar completamente en manos de ChatGPT o GPT-4, después de todo, todavía no se pueden comparar con médicos profesionales en el proceso de diagnóstico.
(Sin embargo, algunos internautas señalaron que la razón por la cual ChatGPT no pudo diagnosticar con éxito también puede estar relacionada con los datos de entrenamiento, y la información del tratamiento después de 2021 no está incluida)
En este sentido, Andrew Beam, profesor asistente de epidemiología en la Universidad de Harvard, cree que los efectos de ChatGPT y GPT-4 deben verse desde dos lados:
Por un lado, son mejores que algunos programas de diagnóstico comunes o motores de búsqueda de Google, especialmente la versión GPT-4.
Pero, por otro lado, no es probable que todavía reemplacen a los médicos con experiencia sustancial. Después de todo, para la IA, es posible fabricar información cuando no pueden encontrar la respuesta e inferir resultados erróneos basándose en "alucinaciones".
Jesse M. Ehrenfeld, presidente de la Asociación Médica Estadounidense (AMA), dijo que incluso si la IA puede diagnosticar los resultados, la responsabilidad final recae en el propio médico.
Para resumir el punto de vista anterior, cualquiera puede usar la IA para ayudar a diagnosticar la enfermedad, que es más fácil de usar que los motores de búsqueda, pero al final aún tiene que ir al hospital y encontrar un médico para el diagnóstico.
Entonces, si planea utilizar un modelo grande para "consultas", ¿qué modelo grande es mejor usar?
Algunos internautas se utilizaron a sí mismos como caso para probar si varios modelos de lenguaje grandes tienen capacidades de diagnóstico y finalmente pensaron que GPT-4 era más capaz:
Consulté a varios médicos sobre la causa de mi tos crónica, pero finalmente supe que tenía LPR (Reflujo Laringofaríngeo Latente) por un canal de YouTube.
Probé el modelo grande con mis propios casos y GPT-4 fue el único diagnosticado con éxito. Aunque Claude 2 tuvo una respuesta cercana, no pudo diagnosticarla de forma completamente independiente.
¿Alguna vez ha intentado utilizar IA para ayudar a diagnosticar su afección? ¿Cómo se siente?
Enlaces de referencia:
[1]
[2]
[3]
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¡Ayuda de ChatGPT! Un niño de 4 años buscó durante tres años tratamiento médico de 17 expertos, pero un modelo de gran tamaño descubrió con precisión la causa de la enfermedad.
Fuente original: Qubits
Después de sufrir la "extraña enfermedad" durante 3 años y buscar tratamiento médico en vano, ¡finalmente fue diagnosticado con éxito por ChatGPT!
Esta es una experiencia real que le pasó a un niño de 4 años.
Después de cierto ejercicio, comenzó a sentir fuertes dolores en el cuerpo. Su madre la llevó a ver a 17 médicos, desde pediatras, ortopédicos hasta varios especialistas, y a una serie de exámenes como resonancias magnéticas, pero nadie encontró realmente la causa.
Su madre intentó buscar ayuda en ChatGPT sin grandes esperanzas, pero este último directamente le dio el consejo correcto basándose en la descripción y el informe de inspección.
** ¿Qué tipo de "enfermedad extraña" es? **
El protagonista de la historia se llama Alex y su madre Courtney tiene dos hijos.
Un día de 2020, la niñera de Alex le dijo a Courtney que Alex tenía que tomar analgésicos todos los días, de lo contrario colapsaría por el dolor.
Luego, Alex comenzó a rechinar los dientes nuevamente. Sus padres relacionaron las dos cosas y pensaron que podría ser causado por el dolor causado por el reemplazo de dientes o por caries.
Entonces su madre llevó a Alex a ver a un dentista y comenzó oficialmente el viaje de tres años de Alex para buscar tratamiento médico.
El dentista no encontró problemas después del examen, pero sugirió que, como Alex estaba rechinando los dientes, les recomendaba que consultaran a un ortodoncista que se especializa en el tratamiento de la obstrucción de las vías respiratorias.
Es razonable, pero la realidad muchas veces es ilógica.
Su madre pronto descubrió que Alex, que sólo tenía cuatro años, había perdido peso repentinamente.
Los médicos pensaron que Alex podría haber sido afectado por el coronavirus, pero su madre no quedó satisfecha con esta explicación. Sin embargo, mi madre todavía llevó a Alex a una revisión a principios de 2021.
El médico le dijo a su madre que Alex había "crecido un poco más", pero descubrió que los pies izquierdo y derecho de Alex estaban algo desequilibrados y sugirió que eligieran fisioterapia.
Esta vez, su madre creyó las palabras del médico, pero antes de que comenzara la fisioterapia, Alex volvió a desarrollar síntomas de dolor de cabeza, que se volvieron cada vez más intensos.
Mientras luchaba contra los dolores de cabeza, Alex también padecía síntomas de agotamiento, por lo que lo llevaron a un otorrinolaringólogo para comprobar si había un problema sinusal que afectara su sueño.
Después de pasar por estos idas y vueltas, Alex finalmente comenzó a recibir fisioterapia, su fisioterapeuta** creía que Alex podría sufrir una enfermedad congénita llamada malformación de Chiari.
Este trastorno congénito causa anomalías en el cerebro donde el cráneo se une con la columna.
La madre comenzó a investigar esto y llevó a Alex a ver nuevos pediatras, médicos de medicina interna pediátrica, médicos de medicina interna para adultos y médicos de **medicina musculoesquelética.
Al final, Alex vio hasta 17 médicos, se puede decir que visitó casi todos los departamentos imaginables, e incluso lo enviaron al departamento de emergencias, pero aún no pudo descubrir la causa.
Con la mentalidad de intentarlo, mi madre registró una cuenta ChatGPT.
Ingresó los síntomas de Alex y las notas del informe de resonancia magnética, incluido un detalle de que Alex no podía sentarse con las piernas cruzadas.
ChatGPT dio el diagnóstico: Síndrome del cordón anclado (TCS).
Por supuesto, Courtney no lo creyó directamente, después de recibir la respuesta, primero encontró un grupo de comunicación para padres de niños con niños en Facebook.
Después de leer la discusión, mi madre sintió que estos síntomas eran muy similares a los de Alex.
Este descubrimiento reavivó el fuego casi extinguido de la esperanza. Después, mi madre recordó que estuvo sentada frente al ordenador toda la noche y experimentó todo.
Esta vez finalmente encontramos a la persona adecuada. El médico echó un vistazo a la resonancia magnética y llegó a la misma conclusión que ChatGPT y señaló la ubicación específica de la correa.
Las cosas fueron mejor después de eso. Alex fue operado y actualmente se está recuperando.
Entonces, ¿por qué Alex no recibió el diagnóstico final hasta que vio al médico número 18?
Las personas con TCS a menudo desarrollan hendiduras en la espalda, pero Alex no tenía una hendidura, una condición llamada síndrome del cordón oculto oculto (OTCS).
Aunque el TCS es una enfermedad rara, su incidencia en los recién nacidos no es baja, alrededor del 0,005% al 0,025%, que es mayor que la incidencia de la leucemia.
**
**### △Chen Yingge, Mi Yang. Un caso de múltiples anomalías del desarrollo fetal durante el embarazo. [J] Avances en Medicina Clínica, 2023, 13(2)
Pero la OTCS es relativamente rara, tan rara que no se ha calculado en absoluto la tasa de incidencia.
Pero después de todo, al final de la historia, el cirujano hizo un juicio rápido después de ver las imágenes de resonancia magnética.
Entonces, la falla en el diagnóstico antes probablemente se debió a "el médico equivocado": entre los 17 médicos, ninguno de ellos se dedicaba a la cirugía.
Por supuesto, esto es normal, después de todo, todos son especialistas (correspondientes a médicos generales) que son buenos en sus respectivos campos de especialización, y es inevitable que no tengan una comprensión integral del conocimiento fuera de sus especialidades.
Pero esto también expuso un problema: cuando encontraron problemas inexplicables, estos médicos no consideraron realizar consultas multidisciplinarias y se desconoce si preguntaron completamente sobre el historial médico de Alex.
En palabras de su madre, Courtney, nadie estaba dispuesto a resolver "el problema mayor (más allá del ámbito de su propia disciplina)" y nadie daría ninguna pista sobre el diagnóstico.
La base de conocimientos de ChatGPT es al menos mucho más rica que la de los profesionales en campos subdivididos, y toma la situación de Alex en una consideración más exhaustiva antes de finalmente llegar a la conclusión correcta.
Entonces, ¿el diagnóstico exitoso de ChatGPT esta vez es un error o realmente tiene capacidades de diagnóstico?
**¿Se puede utilizar la IA para el diagnóstico? **
De hecho, esta no es la primera vez que alguien utiliza ChatGPT o GPT-4 como herramienta de diagnóstico de enfermedades.
Por ejemplo, poco después de que saliera GPT-4, alguien lo usó para diagnosticar con éxito un caso de su propio perro, y esta experiencia una vez explotó en Internet.
El día 20 la fiebre era de 41,5 grados centígrados, el médico le diagnosticó babesiosis canina basándose en los resultados de los análisis de sangre (resultados de los análisis de sangre se adjuntan), recibió tratamiento con antibióticos durante los siguientes 3 días, el día 24 recibió tratamiento con antibióticos, pero su las encías se pusieron pálidas (se adjuntan nuevos resultados de análisis de sangre).
GPT-4 rápidamente dio los resultados de la detección e indicó en la conversación que puede deberse a las dos razones siguientes:
Además, algunos internautas también informaron sobre su experiencia que les salvó la vida a través de ChatGPT (GPT-4).
Se sintió dolorido por todas partes después de ir al gimnasio. Después de consultar a GPT-4 sobre su condición, obtuvo la respuesta de "rabdomiólisis" e inmediatamente fue al hospital y murió como resultado.
Por ejemplo, un estudio publicado en JAMA por el Brigham and Women's Hospital (BWH), un hospital afiliado a la Universidad de Harvard, demostró que al dar recomendaciones de tratamiento contra el cáncer, ChatGPT era completamente correcto en sólo el 62% de los casos.
(Sin embargo, algunos internautas señalaron que la razón por la cual ChatGPT no pudo diagnosticar con éxito también puede estar relacionada con los datos de entrenamiento, y la información del tratamiento después de 2021 no está incluida)
En este sentido, Andrew Beam, profesor asistente de epidemiología en la Universidad de Harvard, cree que los efectos de ChatGPT y GPT-4 deben verse desde dos lados:
Jesse M. Ehrenfeld, presidente de la Asociación Médica Estadounidense (AMA), dijo que incluso si la IA puede diagnosticar los resultados, la responsabilidad final recae en el propio médico.
Para resumir el punto de vista anterior, cualquiera puede usar la IA para ayudar a diagnosticar la enfermedad, que es más fácil de usar que los motores de búsqueda, pero al final aún tiene que ir al hospital y encontrar un médico para el diagnóstico.
Entonces, si planea utilizar un modelo grande para "consultas", ¿qué modelo grande es mejor usar?
Algunos internautas se utilizaron a sí mismos como caso para probar si varios modelos de lenguaje grandes tienen capacidades de diagnóstico y finalmente pensaron que GPT-4 era más capaz:
Enlaces de referencia: [1] [2] [3]