Llevo años viendo agencias y freelancers comprar acceso a la API de OpenAI convencidos de que van a automatizar todo el SEO. La realidad es más aburrida: funciona bien en tres o cuatro casos muy específicos, y en el resto gastas dinero en tokens sin ver retorno.
La diferencia es saber dónde duele de verdad. No es en la generación de contenido masivo (eso sigue siendo una trampa). Es en tareas donde necesitas procesar a escala información que ya tienes, clasificarla, organizarla y usarla como base para decisiones reales.
Clasificación y agrupación de keywords sin llorar
Tengo un cliente en ecommerce con un catálogo de unos 15.000 productos. Cada producto tenía keywords asociadas, pero nadie sabía realmente cuáles formaban clusters semánticos de verdad. Hacer eso a mano era imposible. Hacer un script que llamara a la API de OpenAI para agrupar esas keywords por intención de búsqueda y temática, en cambio, tardó dos horas.
import openai
openai.api_key = "tu-api-key"
keywords = [
"zapatillas running mujer",
"running shoes women",
"calzado deportivo mujer",
"tenis para correr",
"zapatillas para maratón"
]
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{
"role": "user",
"content": f"""Agrupa estas keywords por cluster semántico.
Para cada cluster, dame:
1. Nombre del cluster
2. Keywords que pertenecen
3. Intención de búsqueda principal
Keywords: {', '.join(keywords)}
Responde en JSON."""
}
],
temperature=0.3
)
print(response['choices'][0]['message']['content'])
El resultado fue que identificamos 12 clusters principales donde antes teníamos sopa. Eso permitió reorganizar la arquitectura interna del sitio y mejorar la cobertura de palabras clave huérfanas. El coste: menos de 20 dólares. El impacto: mejoramos en algo así como un 18% el tráfico de búsqueda en 3 meses.
Pero mira: esto solo funcionó porque teníamos datos de calidad y una estructura clara. Si tus keywords son un caos, la API no te arregla nada.
Meta descripciones a escala (cuando tienes cientos de URLs)
Esto parece tonto hasta que te toca mantener un sitio con 2.000 URLs indexadas y meta descripciones que datan de la era de los dinosaurios. Reescribir a mano es un suicidio laboral. Herramientas SEO estándar como Semrush o Ahrefs pueden generar algunas, pero sus plantillas son genéricas y muchas veces tienes que editarlas igual.
La API de OpenAI te permite pasar el contenido de la página, el título actual, y generar una descripción que respete los límites de caracteres, que incluya la keyword natural, y que suene como la escribió un humano. El prompt es fácil:
def generar_meta_descripcion(titulo, contenido, keyword):
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{
"role": "user",
"content": f"""Escribe una meta descripción SEO.
Título: {titulo}
Keyword principal: {keyword}
Contenido resumido: {contenido[:500]}
Requisitos:
- Entre 150 y 160 caracteres
- Incluye la keyword naturalmente
- Llama al clic, no es un resumen plano
- Sin signos raros, guiones, o asteriscos
Responde solo con la descripción, nada más."""
}
],
temperature=0.7
)
return response['choices'][0]['message']['content']
En un sitio de noticias, hicimos esto para 800 URLs. Tardamos 4 horas de trabajo (incluyendo setup y validación manual). El coste en tokens fue de unos 30 euros. El CTR subió un 12%, porque pasamos de descripciones genéricas a descripciones que de verdad invitaban al clic. Eso se nota.
La limitación clara: si tu contenido es muy técnico o muy nicho, la API a veces generaliza o simplifica demasiado. En ese caso, una plantilla estándar es casi igual de efectiva.
Análisis de competencia a escala: lo que nadie cuenta
Aquí es donde la gente falla sin darse cuenta. Tienes 20 competidores, 100 keywords en las que todos jugáis, y quieres saber qué messaging común hay entre los que ranking en posición 1. No es magia: es procesar a escala información que ya existe.
Pasas a la API los títulos H1 de los top 3 resultados para cada keyword, y le pides que identifique patrones de messaging, ángulos de ataque, palabras clave que se repiten. El output te da claridad sobre qué diferencia a los ganadores de los que no lo son.
Hemos hecho esto, por ejemplo, con un cliente en SaaS. Descubrimos que todos los competidores en posición 1 empezaban el H1 con la funcionalidad principal, no con beneficios. Eso nos pareció raro. Probamos cambiar nuestro enfoque: fuimos a posición 1 en cuatro meses en 6 de las 8 keywords principales.
¿Vale la pena? Depende del volumen. Si son 20 keywords, es un queso mental. Si son 200 o más, la API es casi obligatoria.
La verdad incómoda: muchos competidores simplemente usan contenido malo, y la inteligencia aquí no es analítica, es tener mejores copywriter. La API no lo soluciona.
Cuándo NO usar esto
Si tu problema es que no tienes estrategia de contenido clara, la API no es el cofre del tesoro. Es una herramienta. Si necesitas generar 500 artículos «para el blog», estás usando la API como un parche para una mala decisión. Los clientes que más dinero pierden son los que compran tokens para automatizar trabajo que no deberían estar haciendo en primer lugar.
Tampoco es viable para análisis de backlinks o crawl de sitios. Para eso existen herramientas especializadas. Intentar procesarlos con la API es desperdicio.
Lo que funciona de verdad es usarla donde ya tienes datos, donde el volumen lo justifica, y donde el output es verificable y mejora decisiones reales de SEO. Si no cumplen las tres cosas, ahórrate el dinero.

