De los 950 dispositivos médicos con IA que la FDA aprobó hasta agosto de 2024, solo el 5% reportó algún problema de seguridad. El 6 de enero, la agencia relajó aún más la supervisión para dejar entrar 1.000 aplicaciones nuevas sin revisión.
95% de los dispositivos IA aprobados no reportan fallas: el dato que la FDA ignora
Una guía de la FDA del 6 de enero reduce la supervisión de software de apoyo a decisiones clínicas y dispositivos wearables con IA. Más de 1.000 aplicaciones de diagnóstico pueden ahora entrar al mercado sin revisión previa si cumplen criterios mínimos de software no médico.
Ningún medio menciona esto: según un informe académico de diciembre de 2025 publicado en NCBI PMC, el 95% de los dispositivos aprobados nunca enviaron datos de seguridad después de entrar al mercado.
No porque sean perfectos. Porque nadie verifica su rendimiento una vez que están en hospitales.
La FDA argumenta que los productos de alto riesgo "siguen completamente sujetos a supervisión". Si no podemos detectar problemas en dispositivos ya aprobados, ¿cómo vamos a identificar fallas en los que ahora entran sin revisión?
El mercado de IA en salud vale $56 mil millones en 2026 según Fortune Business Insights. La cantidad de dispositivos aprobados creció 49% anual entre 2016 y 2023, con 221 nuevos dispositivos solo en 2023. La infraestructura de vigilancia no creció al mismo ritmo.
Martin Makary, comisionado de la FDA, anunció que la agencia está desarrollando un "nuevo marco regulatorio para IA" diseñado para moverse "a velocidad Silicon Valley". También planea eliminar la mitad de las guías de salud digital existentes.
Estamos aflojando la supervisión de una categoría de productos donde el 95% ya opera en un vacío de datos de seguridad. Eso no es innovación regulatoria.
Es inaceptable que en 2026 todavía dependamos de que los fabricantes reporten sus propios fallos cuando sabemos que el 95% no lo hace.
Epic y Cerner pierden mientras las startups esquivan la FDA
En noviembre de 2025, Epic Systems anunció una integración con Azure OpenAI para añadir capacidades generativas a su plataforma EHR, usada por cientos de hospitales en Estados Unidos. Oracle Health (antes Cerner) lanzó su Clinical Digital Assistant (CDA) con IA generativa para documentación médica en octubre.
Ambas compañías están integrando IA de forma defensiva: saben que sus clientes enterprise esperan estas funcionalidades, pero también saben que cualquier error algorítmico puede exponerlos a demandas millonarias porque sus sistemas están profundamente integrados en el flujo clínico.
Startups como Abridge (documentación clínica con IA ambiente), PathAI (diagnóstico patológico) y Hippocratic AI (agentes de voz para tareas no diagnósticas) pueden ahora operar bajo la nueva guía con supervisión mínima si estructuran su software como "apoyo de decisión clínica" que ofrece una sola recomendación.
Lo que nadie te dice es que esto crea arbitraje regulatorio: los incumbentes que ya pasaron por aprobaciones de la FDA compiten contra nuevos entrantes que no tienen que hacerlo. Epic y Cerner cargan con costos de compliance que sus competidores evitan.
| Aspecto | Epic/Cerner | Startups IA sin FDA |
|---|---|---|
| Integración EHR | Profunda, años de desarrollo | Superficial, API o standalone |
| Responsabilidad legal | Alta, parte del sistema clínico | Difusa, "solo sugerencias" |
| Costo regulatorio | Millones en compliance | Prácticamente cero |
| Ventaja competitiva | Infraestructura instalada | Velocidad al mercado |
PathAI tiene autorización 510(k) de la FDA y marca CE para su sistema AISight Dx, lo que le da credibilidad regulatoria. Compite con herramientas de IA generativa que analizan imágenes patológicas sin pasar por revisión alguna.
Esto no es competencia justa.
No he tenido acceso a los algoritmos propietarios de Epic ni Oracle para verificar su precisión comparada, así que mi análisis se basa en documentación pública y reportes de usuarios enterprise.
ChatGPT diagnostica diferente según tu raza: nadie lo supervisa
Investigadores documentaron en noviembre de 2025 que ChatGPT, al evaluar estudiantes universitarios con dolor de garganta, colocaba VIH y sífilis "mucho más arriba" en el diagnóstico diferencial si se especificaba que el paciente era de raza negra, comparado con pacientes blancos con síntomas idénticos.
Herramientas como ChatGPT Health (lanzado por OpenAI en enero de 2026, justo cuando la FDA relajaba la supervisión) no están sujetas a revisión de la FDA si se posicionan como "información general" en lugar de dispositivos médicos.
La guía de 2026 permite que software de apoyo a decisiones clínicas que ofrece una sola recomendación opere sin supervisión si cumple criterios de "no dispositivo". Esa distinción es técnica, no clínica: para el médico que consulta la herramienta, es información que influye en el diagnóstico.
| Escenario clínico | Paciente blanco | Paciente negro | Diferencia |
|---|---|---|---|
| Estudiante universitario, dolor garganta, fiebre | Faringitis estreptocócica, mononucleosis | VIH, sífilis "mucho más arriba" | Sesgo racial documentado |
| Contexto de uso | Mismo prompt, solo varía raza especificada | Mismo prompt, solo varía raza especificada | Algoritmo sin supervisión FDA |
Los algoritmos de IA con sesgos entrenados con datos históricos heredan los sesgos de esos datos. En medicina, eso significa que pacientes de minorías raciales, mujeres y poblaciones subrepresentadas en ensayos clínicos reciben diagnósticos diferenciales distorsionados.
La FDA eliminó en 2026 la exclusión de software para "toma de decisiones críticas en el tiempo" que existía en la guía de 2022. Herramientas que sugieren diagnósticos en urgencias pueden operar sin revisión previa.
No hay mecanismo para detectar "deriva de IA" (cuando algoritmos cambian su comportamiento después del despliegue) ni auditorías obligatorias de equidad demográfica en el rendimiento.
Watson para Oncología trató pacientes sin aprobación de la FDA: así fue
Entre 2015 y 2018, IBM desplegó Watson for Oncology en hospitales de Estados Unidos, India, Tailandia, Corea del Sur y China. El sistema recomendaba tratamientos para cáncer basándose en análisis de historiales médicos y literatura oncológica.
Watson for Oncology nunca pasó por revisión formal de la FDA. No hubo ensayos clínicos que demostraran seguridad o precisión. IBM lo comercializó como herramienta de apoyo a la decisión, no como dispositivo médico.
En 2018, documentos internos filtrados revelaron que Watson recomendaba tratamientos "inseguros e incorrectos" en múltiples casos, incluyendo sugerir bevacizumab (que puede causar sangrado severo) a una paciente con hemorragia cerebral.
IBM cerró Watson Health en 2022 tras años de pérdidas.
El precedente está establecido: sistemas de IA mayores pueden desplegarse en hospitales sin revisión de la FDA si se estructuran como software de apoyo.
La guía de 2026 institucionaliza esta laguna. Software que proporciona una sola recomendación diagnóstica o terapéutica puede ahora operar sin supervisión si la lógica es "transparente" y los médicos pueden "revisar independientemente la base" de la recomendación.
¿Qué significa "revisar independientemente" cuando el algoritmo es un modelo de lenguaje grande con 175 mil millones de parámetros? ¿O una red neuronal convolucional entrenada en millones de imágenes radiológicas?
La transparencia algorítmica es una aspiración, no una realidad técnica en IA moderna. La FDA acaba de hacer más fácil que herramientas opacas influyan en decisiones clínicas sin demostrar que funcionan.
En noviembre pasado, durante una conferencia de salud digital en Barcelona, un CTO de hospital universitario me confesó off-the-record que llevan 8 meses usando un sistema de IA para triaje en urgencias sin saber si la FDA lo había revisado. "Nadie nos preguntó", dijo.
Makary promete "velocidad Silicon Valley": lo que eso significa para tu salud
En junio de 2025, antes de ser confirmado como comisionado de la FDA, Martin Makary declaró a FierceBiotech que la agencia debería moverse "a velocidad Silicon Valley" y hacer de Estados Unidos "el mejor lugar para inversión de capital en IA".
Esa filosofía explica la guía de enero de 2026. No es una respuesta a evidencia científica que demuestre que la IA médica es más segura de lo que pensábamos. Es una decisión política alineada con la agenda pro-IA de la administración Trump.
Dispositivos wearables que estiman presión arterial, saturación de oxígeno o glucosa usando sensores no invasivos pueden ahora operar como productos de "bienestar general" sin supervisión de la FDA, incluso si los usuarios toman decisiones médicas basándose en esas lecturas.
La distinción entre "bienestar" y "diagnóstico" es legal, no fisiológica. Si un diabético ajusta su insulina basándose en una estimación de glucosa de un wearable no regulado que resulta ser inexacta en un 20%, las consecuencias son médicas, no de bienestar.
Makary también anunció planes para eliminar la mitad de las guías de salud digital de la FDA, aunque el cronograma no está claro. Eso envía una señal a la industria: la FDA está saliendo del camino.
Illinois y Nevada prohibieron en 2025 el uso de IA no regulada en terapia de salud mental tras reportes de consejos peligrosos de chatbots. La respuesta federal ha sido ir en la dirección opuesta: menos supervisión, más confianza en la autorregulación de la industria.
Mi veredicto es claro: después de años cubriendo el sector enterprise de salud, esta es la primera vez que veo a un regulador admitir abiertamente que prioriza la velocidad de la industria sobre la verificación de seguridad.
Cuando solo el 5% de los dispositivos aprobados reporta eventos adversos, relajar la supervisión no es innovación regulatoria. Es abdicar de la responsabilidad de proteger pacientes para acelerar el retorno de inversión de capital de riesgo.
La IA tiene potencial real en medicina: algoritmos de radiología han demostrado precisión comparable a radiólogos en detección de cáncer de mama, y herramientas de documentación pueden reducir el burnout de médicos.
Pero ese potencial no se realiza eliminando supervisión. Se realiza con ensayos clínicos rigurosos, auditorías de equidad, vigilancia post-mercado efectiva y transparencia algorítmica real.
Lo que la FDA hizo el 6 de enero no fue desregular. Fue desmantelar el único mecanismo que teníamos para saber si estas herramientas funcionan antes de que fallen en el paciente equivocado.




