El informe de salud de RFK Jr. muestra cómo la IA introduce estudios falsos en las investigaciones.
Estuve leyendo y comparando los datos entregados por el Secretario de Salud Estadounidense, y como es sabida su ingnorancia en los temas de salud, además de promotor de ideas fantasiosas, como las dió en su comparescencia en el Senado, para ratificarlo en el Cargo, le entrego esta abismante " Fake Analysis".
Los autores del informe "Make America Healthy Again", publicado por el secretario de Salud y Servicios Humanos, Robert F. Kennedy Jr., lo promocionaron como una evaluación histórica que proporciona una "base científica común" para definir las políticas sanitarias.
Sin embargo, esa "base científica" parecía contener errores generados por un posible responsable: la inteligencia artificial generativa.
Al menos siete de las citas del informe eran problemáticas, como informó NOTUS inicialmente. Cuatro contenían títulos de artículos inexistentes y tres describían erróneamente las conclusiones de los artículos.
Al ser preguntada sobre el informe, la secretaria de prensa de la Casa Blanca, Karoline Leavitt, atribuyó los errores a "problemas de formato" que no "desvirtúan la esencia del informe". Al ser preguntada sobre si se utilizó IA en la elaboración del informe, Leavitt remitió el asunto al Departamento de Salud y Servicios Humanos.
El informe de MAHA se ha actualizado en línea desde entonces. (Aquí está la versión archivada). PolitiFact contactó al Departamento de Salud y Servicios Humanos, pero no obtuvo respuesta. Los modelos de IA están entrenados para imitar el lenguaje humano, prediciendo una palabra tras otra en una secuencia. Si bien los chatbots de IA como ChatGPT suelen producir textos que parecen escritos por humanos, a menudo no garantizan la veracidad de lo que dicen.
Las citas falsas tenían el formato correcto, incluían revistas de prestigio e identificadores de objetos digitales (DOI) que parecían realistas.
Sin embargo, la ausencia de múltiples artículos citados "es un sello distintivo de las citas generadas por IA, que a menudo replican la estructura de las referencias académicas sin vincularse a las fuentes reales", afirmó Oren Etzioni, profesor emérito de la Universidad de Washington e investigador en IA.
PolitiFact conversó con investigadores en inteligencia artificial y neurociencia sobre las señales de alerta relacionadas con la IA que presenta el informe.
Los errores muestran indicios de alucinaciones de IA
Los investigadores afirmaron que la presencia de artículos inventados probablemente sea resultado de "alucinaciones" de IA, o resultados que pueden parecer plausibles pero no son reales.
La IA avanza rápidamente, pero aún es propensa a alucinaciones. Cuando se les pide que generen referencias académicas, los modelos de IA generativa suelen inventar algo si no encuentran coincidencias exactas, "especialmente si se les pide que respalden un punto específico", afirmó Etzioni.
Steven Piantadosi, profesor de psicología y neurociencia en la Universidad de California en Berkeley y director de su laboratorio de computación y lenguaje, afirmó que los modelos de IA no tienen forma de saber qué es cierto o qué se considera evidencia.
"Lo único que hacen es comparar patrones estadísticos en el texto", afirmó. "Es interesante e importante que puedan hacerlo tan bien, pero las dependencias estadísticas entre caracteres no son algo en torno a lo que se debería construir una política pública".
El Washington Post informó que algunas citas incluían "oaicite" en sus URL, que los usuarios de ChatGPT han reportado como texto que aparece en su salida. (OpenAI es propietaria de ChatGPT).
Hallazgos sobre la salud mental de los adolescentes, el consumo de drogas y otros temas vinculados a citas falsas.
Incluso en las citas legítimas del informe, algunos hallazgos fueron tergiversados o exagerados, otro error común en las herramientas de IA generativa, que "pueden producir resúmenes incorrectos de investigaciones con seguridad", afirmó Etzioni.
La versión actualizada del informe MAHA sustituyó las citas falsas por fuentes que respaldaban sus hallazgos y, en algunos lugares, revisó la forma en que presentaba los hallazgos previamente vinculados a las citas falsas. (Consulte nuestra hoja de cálculo).
Uno de los artículos falsos detectados por NOTUS se titulaba "Cambios en la salud mental y el consumo de sustancias entre los adolescentes estadounidenses durante la pandemia de COVID-19". La línea que lo citaba decía: "Aproximadamente entre el 20 % y el 25 % de los adolescentes reportaron síntomas de ansiedad y entre el 15 % y el 20 % reportaron síntomas depresivos, con tasas significativamente más altas en las chicas".
Un análisis más detallado de la cita muestra por qué no es auténtica: buscar el título no muestra un artículo real, hacer clic en el enlace DOI en la cita lleva a una página de error con el mensaje "DOI no encontrado", y consultar el volumen y número de la revista JAMA Pediatrics referenciado lleva a un artículo con un título y autores diferentes.
El informe actualizado de MAHA sustituyó la cita por un informe de 2024 de KFF, que indicaba que, en 2021 y 2022, el 21 % de los adolescentes reportó síntomas de ansiedad y el 17 % síntomas de depresión.
El informe original citaba dos artículos inexistentes en una sección sobre publicidad directa al consumidor sobre el uso de medicamentos para el TDAH en niños y el uso de antidepresivos en adolescentes. El informe señalaba que la publicidad de antidepresivos en adolescentes mostraba "listas imprecisas de síntomas que se solapan con los comportamientos típicos de los adolescentes" y estaba vinculada a "solicitudes inapropiadas de antidepresivos por parte de los padres".
La nueva versión del informe dice ahora: “Se cree que la publicidad DTC fomenta un mayor uso de medicamentos psicotrópicos en adolescentes, incluidas las clases de ansiolíticos, antipsicóticos y antidepresivos”, citando ahora un estudio de 2006.
No hay comentarios.:
Publicar un comentario