TL;DR
Lo esencial: Google eliminó manualmente las descripciones generales de IA para consultas médicas específicas después de que una investigación revelara que el sistema proporcionaba consejos de salud potencialmente mortales. Detalles clave: la intervención se centra en las búsquedas de hígado y cáncer, mientras que los competidores Anthropic y OpenAI lanzan simultáneamente nuevas plataformas de atención médica que cumplen con HIPAA. Por qué es importante: Esta retirada contradice las afirmaciones de confiabilidad de Google y expone una brecha de seguridad justo cuando se acelera el mercado de la IA para el cuidado de la salud. Contexto: Los reguladores advierten sobre la velocidad de la adopción de la IA, ya que se prevé que el sector alcance los 45.200 millones de dólares en 2026.
Aludiendo riesgos de seguridad inmediatos, Google ha desactivado manualmente las descripciones generales de la IA para consultas médicas específicas después de que una investigación descubriera que el sistema brindaba consejos potencialmente mortales. El retiro se centra en términos de búsqueda relacionados con la función hepática y el cáncer, donde la IA sugirió protocolos que podrían resultar fatales.
Mientras Google retira funciones, los competidores están ampliando su presencia en el sector sanitario. Anthropic lanzó ayer una plataforma que cumple con la Ley de Responsabilidad y Portabilidad de Seguros Médicos (HIPAA), luego del debut de OpenAI de ChatGPT Health, creando un contraste entre las luchas de seguridad de Google y la expansión de la atención médica de la industria.
The Retreat: consejos peligrosos e intervención manual
Google confirmó la eliminación de consultas médicas específicas sobre pruebas de función hepática y síntomas de cáncer de sus resultados de descripción general de IA. Esta acción sigue a una investigación realizada por The Guardian que expuso que el sistema genera alucinaciones médicas con consecuencias potencialmente fatales.
Los usuarios que buscaban manejo del cáncer de páncreas recibieron recomendaciones dietéticas que contradecían directamente los protocolos médicos estándar. En un caso caracterizado por los expertos como”realmente peligroso”, la IA aconsejó a los pacientes que evitaran los alimentos ricos en grasas.
Promo
Esta guía es exactamente lo opuesto a la ingesta alta de calorías que a menudo se requiere para mantener el peso durante el tratamiento. Los profesionales médicos advirtieron que seguir una dieta tan restrictiva podría comprometer gravemente la salud del paciente, aumentando potencialmente el riesgo de mortalidad por la enfermedad.
La investigación también descubrió imprecisiones alarmantes con respecto a las pruebas de función hepática. El sistema proporcionó puntos de referencia erróneos que podrían inducir a error a personas con enfermedades hepáticas graves haciéndoles creer que los resultados de sus pruebas eran normales. Esta falsa tranquilidad corre el riesgo de retrasar la intervención médica crítica para los pacientes que creen erróneamente que están sanos según la evaluación de la IA.
Recomendar un consumo alto de grasas representa una amenaza directa para los pacientes con sistemas digestivos comprometidos. Los expertos médicos advirtieron que seguir esa orientación podría provocar una desnutrición lo suficientemente grave como para descalificar a los pacientes de la quimioterapia o la cirugía.
Más allá de los errores dietéticos, el sistema no distinguió entre herramientas de diagnóstico para diferentes afecciones. Las consultas sobre los síntomas del cáncer de vagina sugirieron incorrectamente las pruebas de Papanicolaou como método de diagnóstico primario.
Athena Lamnisos, directora ejecutiva de Eve Appeal, criticó la validez médica de los resultados:”No es una prueba para detectar el cáncer, y ciertamente no es una prueba para detectar el cáncer de vagina; esta es una información completamente errónea”.
A pesar de estos fallos específicos, la empresa sostiene que el sistema más amplio sigue siendo eficaz. El portavoz de Google, Davis Thompson, defendió el historial de rendimiento general de la tecnología:”Invertimos significativamente en la calidad de las descripciones generales de IA, particularmente para temas como la salud, y la gran mayoría proporciona información precisa”.
Confiar en procesos de validación internos tiene como objetivo detectar errores antes de que lleguen al público. Thompson describió los protocolos de verificación interna de la compañía:”Nuestro equipo interno de médicos revisó lo que se compartió con nosotros y descubrió que, en muchos casos, la información no era inexacta y también estaba respaldada por sitios web de alta calidad”.
La brecha de confiabilidad: marketing versus realidad médica
La eliminación manual de funciones contradice la ambición pública de Google de ser una plataforma”saludable”y”confiable”.
La investigación académica respalda la observación de que las herramientas de búsqueda de IA a menudo divergen de las jerarquías de información establecidas. Un estudio sobre la falta de confiabilidad de la búsqueda con IA encontró que el 53 % de los sitios web vinculados mediante AI Overviews no aparecen en los 10 primeros resultados de búsqueda orgánica.
La misma investigación indicó que las respuestas de IA de Google mantuvieron solo una tasa de consistencia del 18 % durante un período de dos meses.
Los grupos de defensa de los pacientes han reaccionado con alarma ante los errores médicos específicos encontrados en la investigación reciente. Anna Jewell de Pancreatic Cancer UK destacó los riesgos de la información dietética errónea: “La respuesta de Google AI sugiere que las personas con cáncer de páncreas eviten los alimentos ricos en grasas… Sin embargo, si alguien siguiera lo que le dijo el resultado de la búsqueda, entonces podría no asimilarlos. suficientes calorías, lucha para aumentar de peso y no puede tolerar la quimioterapia ni la cirugía que podría salvarle la vida”.
Las desconexión entre la confianza algorítmica y la precisión médica han provocado llamados a realizar cambios en lugar de soluciones graduales.
The British Liver Trust cuestionó la eficacia de la estrategia de mitigación de la empresa:”Nuestra mayor preocupación con todo esto es que se está seleccionando un solo resultado de búsqueda y Google puede simplemente cerrar las descripciones generales de IA para eso, pero no está abordando el problema más grande de las descripciones generales de IA para la salud”.
La pinza competitiva: los rivales avanzan a medida que Google tropieza
A medida que Google se retira de temas médicos específicos consultas, los competidores están ampliando su presencia en el sector sanitario. Anthropic lanzó Claude for Healthcare el 12 de enero, una plataforma lista para HIPAA dirigida a la infraestructura empresarial.
Con una tasa de precisión del 94 % en el punto de referencia MedQA, el nuevo modelo Claude se posiciona como una herramienta para los profesionales médicos. La plataforma de Anthropic se integra directamente con la base de datos de cobertura de CMS, los códigos ICD-10 y el Registro NPI.
Centrarse en la infraestructura empresarial contrasta con la estrategia orientada al consumidor de otros líderes del mercado. OpenAI debutó en ChatGPT Health el 7 de enero, con 230 millones de consultas semanales relacionadas con la salud.
Las previsiones proyectan que el mercado de IA para la atención sanitaria alcanzará los 45.200 millones de dólares en 2026, lo que aumenta las apuestas para un dominio temprano. Los reguladores observan atentamente cómo estas tecnologías se integran cada vez más en la atención al paciente.
El comisionado de la FDA, Marty Makary se refirió al enfoque regulatorio respecto del ritmo de la innovación, afirmando: “No vamos a dejar atrás a ese león… Tenemos que promover estos productos y… protegernos contra grandes preocupaciones de seguridad.”