Buscas en Google "síntomas de cáncer de páncreas" y la IA te dice que evites las grasas. Parece un consejo razonable, ¿verdad? Podrías morir si lo sigues.
Esto es exactamente lo que una investigación de The Guardian descubrió en enero de 2026: los resúmenes de inteligencia artificial de Google, llamados AI Overviews, están dando consejos médicos tan peligrosamente incorrectos que expertos los califican como "alarmantes" y potencialmente mortales.
Google tuvo que eliminar estos resúmenes de varias búsquedas médicas después de que médicos y organizaciones de salud denunciaran el problema. Pero el daño ya está hecho: el 72% de los adultos buscan información de salud en Google, y millones han recibido consejos que contradicen directamente la evidencia médica.
¿Qué salió mal? ¿Cuánto puedes confiar en "Dr. Google"? Y lo más importante: ¿qué debes usar en su lugar?
Qué son los AI Overviews y por qué Google los puso en salud
Los AI Overviews son resúmenes generados por inteligencia artificial (usando el modelo Gemini) que aparecen en la parte superior de los resultados de búsqueda de Google. En lugar de mostrarte una lista de enlaces, Google intenta darte "la respuesta" directamente.
Cronología del desastre
| Fecha | Evento |
|---|---|
| Mayo 2023 | Google presenta los AI Overviews en I/O |
| Mayo 2024 | Lanzamiento en EE.UU. para cientos de millones |
| Finales 2024 | Expansión a más de mil millones de usuarios |
| Enero 2026 | The Guardian expone errores médicos peligrosos |
| Enero 2026 | Google elimina AI Overviews de algunas búsquedas de salud |
La idea original parecía buena: en lugar de que tengas que leer 10 artículos sobre tus síntomas, la IA te da un resumen. El problema es que la IA no distingue entre información correcta e incorrecta cuando se trata de medicina.
Por qué la salud es especialmente peligrosa para la IA
La medicina no es como buscar "mejor restaurante italiano cerca". Un error en salud puede:
- Retrasar un diagnóstico correcto
- Hacer que ignores síntomas graves
- Llevarte a tomar decisiones que empeoran tu condición
- En casos extremos, matarte
Y según un estudio de Ahrefs, el 44% de las consultas médicas activan un AI Overview, más del doble que cualquier otra categoría.
Los errores que casi matan pacientes
La investigación de The Guardian, apoyada por organizaciones médicas británicas, documentó casos escalofriantes.
Caso 1: Cáncer de páncreas - "Evita las grasas"
Una búsqueda sobre cáncer de páncreas generó un AI Overview que aconsejaba evitar alimentos altos en grasa.
El problema: Este es exactamente el consejo opuesto a lo que necesitan estos pacientes.
Anna Jewell, de Pancreatic Cancer UK, explicó:
"El consejo de evitar alimentos altos en grasa es completamente incorrecto. Seguir ese consejo podría ser realmente peligroso y comprometer las posibilidades de una persona de estar lo suficientemente bien para recibir tratamiento."
¿Por qué? Los pacientes con cáncer de páncreas tienen dificultades para absorber nutrientes. Necesitan dietas altas en calorías y grasas para:
- Mantener peso corporal
- Tolerar la quimioterapia
- Estar en condiciones para una cirugía potencialmente salvadora
Seguir el consejo de Google podría literalmente impedir que sobrevivas a un tratamiento que podría curarte.
Caso 2: Pap test y cáncer vaginal - Información 100% falsa
Una búsqueda de "síntomas y pruebas de cáncer vaginal" devolvió un resumen afirmando que el Pap test detecta cáncer vaginal.
Esto es completamente falso.
El Pap test (citología cervical) detecta cáncer cervical, no vaginal. Son cánceres diferentes en órganos diferentes con pruebas diferentes.
Athena Lamnisos, de The Eve Appeal, declaró:
"No es una prueba para detectar cáncer, y ciertamente no es una prueba para detectar cáncer vaginal – esto es información completamente errónea. Obtener información incorrecta como esta podría potencialmente llevar a alguien a no hacer revisar sus síntomas porque tuvo un resultado claro en un cribado cervical reciente."
Una mujer con síntomas de cáncer vaginal podría pensar: "Mi Pap test salió bien hace 6 meses, no puede ser cáncer." Y dejar de ir al médico hasta que sea demasiado tarde.
Caso 3: Pruebas hepáticas - Números sin contexto
Búsquedas sobre "rangos normales de pruebas hepáticas" producían tablas de números sin considerar:
- Edad del paciente
- Sexo
- Etnia
- Metodología del laboratorio específico
Vanessa Hebditch, de British Liver Trust:
"Una prueba de función hepática es una colección de diferentes análisis de sangre. Entender los resultados y qué hacer después es complejo e involucra mucho más que comparar un conjunto de números."
El peligro: muchas enfermedades hepáticas son asintomáticas hasta etapas avanzadas. Una persona podría ver que sus números "parecen normales" según Google y no buscar atención médica, cuando en realidad tiene cirrosis en desarrollo.
Caso 4: Salud mental - Consejos que alejan de la ayuda
Para búsquedas sobre psicosis y trastornos alimentarios, los AI Overviews ofrecieron consejos descritos por expertos como "muy peligrosos".
Stephen Buckley, de Mind:
"Algunos resúmenes AI para condiciones como psicosis y trastornos alimentarios ofrecieron consejos muy peligrosos y eran incorrectos, dañinos o podrían llevar a las personas a evitar buscar ayuda."
En salud mental, donde el estigma ya dificulta que las personas busquen ayuda, consejos incorrectos de una fuente "autorizada" como Google pueden ser la diferencia entre buscar tratamiento o no.
Las estadísticas que deberían asustarte
Los números detrás de este problema son alarmantes:
Uso de "Dr. Google"
| Estadística | Significado |
|---|---|
| 72% de adultos buscan salud en Google | La mayoría confía en Google para salud |
| 89% buscan síntomas antes del médico | Google es el "primer médico" |
| 35% intentan autodiagnosticarse online | Evitan al médico completamente |
| 50 millones de búsquedas de salud en UK (2023) | Escala masiva |
Errores de la IA en salud
| Estadística | Fuente |
|---|---|
| 44% de consultas médicas activan AI Overview | Ahrefs |
| 70% de AI Overviews de salud calificados como "riesgosos" | Panel médico |
| 22% de respuestas de IA tienen recomendaciones dañinas | Stanford-Harvard |
| 1 de 8 resúmenes "muy o extremadamente" riesgosos | Estudio de enfermeras |
El problema de la confianza ciega
| Estadística | Problema |
|---|---|
| 2/3 de usuarios encuentran resultados AI "confiables" | Confían en información errónea |
| Participantes MIT consideraron respuestas AI de baja precisión como "válidas y confiables" | No detectan errores |
| 25% de médicos dicen que info AI de pacientes contradice consejo médico | Conflicto en consultas |
La respuesta de Google: insuficiente
Después de la investigación de The Guardian, Google eliminó AI Overviews para algunas búsquedas médicas específicas:
Lo que eliminaron
- "what is the normal range for liver blood tests"
- "what is the normal range for liver function tests"
Lo que NO eliminaron
Variaciones como:
- "lft reference range"
- "lft test reference range"
Estas búsquedas siguen generando resúmenes de IA. Simplemente cambiando cómo escribes la pregunta, obtienes información potencialmente peligrosa.
La defensa de Google
Un portavoz de Google declaró:
"Invertimos significativamente en la calidad de AI Overviews, particularmente para temas como salud, y la gran mayoría proporciona información precisa."
Google también afirmó que:
- Su equipo interno de médicos revisó los ejemplos
- En muchos casos, la información "no era inexacta"
- Los resúmenes enlazan a "fuentes conocidas y reputadas"
El problema con esta defensa: Aunque enlace a Johns Hopkins, la IA puede interpretar mal esa información o presentarla fuera de contexto.
La crítica de las organizaciones médicas
Vanessa Hebditch, de British Liver Trust:
"Nuestra mayor preocupación es que esto es un enfoque limitado en un resultado de búsqueda. Google podría simplemente desactivar AI Overviews para esa consulta, pero eso no resuelve el problema mayor del uso de AI Overviews en atención médica."
En otras palabras: Google está jugando al "whack-a-mole" con búsquedas específicas en lugar de reconocer que la IA no debería dar consejos médicos.
Por qué la IA falla en medicina (y siempre fallará)
Hay razones fundamentales por las que la inteligencia artificial no puede reemplazar el juicio médico:
1. La IA no puede examinarte
Un médico puede:
- Palpar un bulto
- Escuchar tu corazón
- Ver el color de tu piel
- Notar tu nivel de ansiedad
La IA solo tiene texto. No puede hacer un examen físico.
2. No conoce tu historial
Tu médico sabe:
- Qué medicamentos tomas
- Tus alergias
- Enfermedades previas
- Historial familiar
- Resultados de pruebas anteriores
La IA responde a una pregunta aislada sin contexto.
3. Los rangos "normales" no son universales
Lo que es normal para:
- Una mujer de 25 años
- Un hombre de 65 años
- Una persona de origen asiático
- Alguien que toma ciertos medicamentos
...es completamente diferente. La IA da rangos genéricos que no aplican a ti.
4. La IA "alucina" con total confianza
Los modelos de lenguaje pueden inventar información que suena completamente creíble pero es 100% falsa. Y lo presentan con la misma confianza que información real.
5. La medicina evoluciona, la IA se queda atrás
Las recomendaciones médicas cambian. Lo que era estándar hace 5 años puede ser obsoleto hoy. La IA puede estar entrenada en información desactualizada.
Qué usar en lugar de Google AI para salud
Si necesitas buscar información médica online, usa fuentes verificadas:
Instituciones médicas de primer nivel
| Fuente | Especialidad | URL |
|---|---|---|
| Mayo Clinic | General, alta calidad | mayoclinic.org |
| Cleveland Clinic | Investigación médica | my.clevelandclinic.org |
| Johns Hopkins | Investigación global | hopkinsmedicine.org |
| M.D. Anderson | Cáncer | mdanderson.org |
Recursos gubernamentales (EE.UU.)
| Fuente | Descripción |
|---|---|
| MedlinePlus | NIH, información verificada |
| CDC | Enfermedades y prevención |
| NIH | Investigación médica |
| DailyMed | Información de medicamentos FDA |
Para hispanohablantes
| Fuente | Descripción |
|---|---|
| MedlinePlus en español | Mismo contenido NIH traducido |
| Ministerio de Sanidad (España) | Información oficial |
| OMS | Organización Mundial de la Salud |
Cuándo ir SIEMPRE al médico
No busques en Google si:
- Tienes dolor intenso o repentino
- Síntomas que empeoran
- Sangrado inexplicable
- Dificultad para respirar
- Confusión o desorientación
- Fiebre alta persistente
- Cualquier síntoma que te preocupe seriamente
La regla de oro: Si estás buscando síntomas porque te preocupa algo, esa preocupación ya es razón suficiente para llamar a un médico.
El problema más grande: la confianza en la IA
Este caso revela algo más profundo sobre nuestra relación con la inteligencia artificial.
El sesgo de autoridad
Cuando Google te da una respuesta, asumes que es correcta porque:
- Google es una empresa de tecnología líder
- La respuesta "viene de IA avanzada"
- Está en la parte superior de la página
- Parece profesional y bien redactada
Pero la IA no sabe qué es verdad. Solo sabe qué "suena" como información médica.
El peligro de la automatización en salud
Stephanie Parker, de Marie Curie:
"Las personas recurren a internet en momentos de preocupación y crisis. Si la información que reciben es inexacta o fuera de contexto, puede dañar seriamente su salud."
Cuando buscas síntomas, estás vulnerable. Tienes miedo. Y confías en que Google te dé información correcta.
Esa confianza puede matarte.
Qué debería hacer Google (pero probablemente no hará)
Las organizaciones médicas han pedido acciones concretas:
1. Eliminar AI Overviews de TODAS las búsquedas médicas
No solo de consultas específicas que generan quejas, sino de cualquier búsqueda relacionada con salud.
2. Mostrar advertencias claras
Si insisten en mantener AI Overviews en salud, deberían incluir:
- "Esta información puede ser incorrecta"
- "Consulte a un profesional médico"
- "Los rangos varían según su situación individual"
3. Transparencia sobre errores
Publicar estadísticas sobre:
- Cuántas correcciones han hecho
- Qué tasa de error aceptan
- Cómo verifican la información médica
4. Colaboración con organizaciones médicas
Trabajar con hospitales, colegios médicos y organizaciones de pacientes para revisar el contenido antes de mostrarlo.
Conclusión: No confíes tu vida a la IA
La investigación de The Guardian ha expuesto lo que muchos médicos temían: la IA de Google está dando consejos médicos peligrosos a millones de personas.
Un paciente con cáncer de páncreas podría morir de desnutrición siguiendo el consejo de "evitar grasas". Una mujer podría ignorar síntomas de cáncer vaginal pensando que un Pap test la protege. Personas con enfermedades hepáticas podrían pensar que están sanas mirando números sin contexto.
Y Google, en lugar de eliminar completamente esta funcionalidad peligrosa, juega a tapar agujeros específicos mientras el problema fundamental persiste.
Lo que debes hacer ahora
- No confíes en AI Overviews para salud - Nunca.
- Usa fuentes médicas verificadas - Mayo Clinic, MedlinePlus, tu sistema de salud nacional.
- Consulta a profesionales - Si algo te preocupa, llama al médico.
- Desconfía de respuestas "demasiado claras" - La medicina es compleja, las respuestas simples suelen ser incorrectas.
- Comparte esta información - Tus familiares también usan Google para salud.
La inteligencia artificial puede ser útil para muchas cosas. Pero cuando se trata de tu vida, necesitas un ser humano con formación médica, no un modelo de lenguaje que "suena" como si supiera medicina.
Tu salud es demasiado importante para dejarla en manos de una IA que se equivoca el 44% de las veces.
¿Has recibido alguna vez consejos de salud incorrectos de Google? La próxima vez que busques síntomas, recuerda: la IA no es tu médico.



