Cómo Google detecta contenido de IA (y por qué probablemente no lo haga)

Google no detecta contenido generado por IA. O mejor dicho: puede intentarlo, pero no tiene un sistema que lo haga de forma fiable. Y eso es lo que realmente importa saber.

Llevo años viendo este tema inflado de misterio. La realidad es que Google ha sido bastante explícito en su documentación oficial: lo que penaliza no es que uses IA para escribir, sino que el contenido sea de baja calidad, delgado o generado a escala sin control. El matiz es importante porque cambia todo.

Lo que Google dice de verdad (sin interpretaciones)

En sus directrices de calidad, Google no menciona un filtro específico para detectar «contenido de IA». Lo que sí dice es que el contenido debe demostrar experiencia, autoridad y confiabilidad, independientemente de cómo se haya creado. El documento oficial sobre las directrices de los evaluadores de calidad habla de E-E-A-T (expertise, experience, authoritativeness, trustworthiness), pero nunca añade «y tiene que estar escrito por un humano».

Danny Sullivan, el portavoz oficial de Google para búsqueda, ha repetido esto varias veces: no es el origen del contenido lo que importa, sino su utilidad. Un texto escrito por IA que realmente ayuda a la gente es aceptable. Un texto escrito por un humano que es una copia de otros diez sitios, no.

Dicho esto, hay algo que observo en clientes: Google sí parece penalizar más agresivamente el contenido que «huele» a generado en masa. Cuando veo un dominio que pasó de 500 a 5.000 artículos en dos meses, todos sobre palabras clave relacionadas, el patrón de penalización es casi garantizado. No es que Google haya identificado IA específicamente. Es que ha identificado spam.

La trampa real: confundir IA con volumen sin control

Aquí es donde la mayoría lo entiende mal. No es que la IA sea mala para SEO. Es que la IA ha hecho que sea muy fácil generar volumen sin control, y el volumen descontrolado es siempre penalizable.

Tengo un cliente de ecommerce que usaba Copy.ai para reescribir descripciones de productos. Generaba un 25 o 30% de sus descripciones con IA, las revisaba y las publicaba. No perdió posiciones. ¿Por qué? Porque el volumen era razonable (100-200 productos nuevos al mes), cada descripción era diferente, tenía contexto real (datos del producto), y además se agregaba valor con especificaciones que otros competidores no ofrecían.

Pasé después a una agencia de contenido que generaba 200 artículos al mes usando GPT-4 sin toque humano casi ninguno. Se les cayó el tráfico un 40% en tres meses. No porque Google detectara IA. Sino porque ese volumen, con ese nivel de diferenciación cero entre artículos, activó todas las alarmas de spam.

¿Cómo detecta Google lo que detecta?

Aquí tenemos que ser honestos: Google no tiene un «detector de IA» que funcione bien. Lo que sí tiene son patrones de comportamiento que correlacionan con contenido de baja calidad. Y algunos de esos patrones coinciden frecuentemente con contenido generado por IA sin filtro:

  • Estructura repetitiva (mismo tipo de palabras clave por párrafo)
  • Bajo nivel de originalidad en datos, citas o perspectiva
  • Ausencia de voces locales, testimonios o detalles verificables
  • Velocidad de publicación no natural

Pero esto no es una firma de IA. Es una firma de pereza.

Hay una cosa técnica que casi nadie menciona: Google rastrea el «freshness» de contenido. Un sitio que publica 500 artículos en una semana es un sitio que Google rastreará diferente que uno que publica 5 por semana de forma consistente. El crawl budget se invierte diferente, y el algoritmo es más cauteloso con sitios que muestran ese patrón de actividad anómala.

La estrategia que no va a fallar

Si usas IA, que sea para acelerar lo que ya sabías que tenías que escribir, no para inventar contenido a ver qué pasa. Aquí va contra intuitivo pero es verdad: usa IA para reescribir, sintetizar y estructurar, no para generar. Un humano con conocimiento real, apoyado por IA, produce mejor contenido que la IA sola.

Una limitación honesta: si tu nicho es tan específico que realmente necesitas 500 artículos para cubrir todas las palabras clave, la IA pura no te salvará. La estrategia equivocada lo es incluso con contenido humano. A veces el problema es el modelo de negocio, no la herramienta.

Prefiero un sitio con 50 artículos escritos con rigor que uno con 500 generados por turno. Google también. Y no porque detecte quién escribió cada uno, sino porque los resultados hablan solos.