\
#Prólogo
En noviembre de 2023, seis investigadores de Princeton, IIT Delhi, Georgia Tech y el Allen Institute subieron un preprint de arXiv sin pretensiones titulado GEO: Generative Engine Optimization[1]. Para KDD 2024 en Barcelona, el artículo ya tenía un nombre para la disciplina, un benchmark de 10.000 consultas y los primeros aumentos medidos en citas: Cite Sources en +40,6 %, Quotation Addition en +35,1 % y Statistics Addition en +32,9 % en el pipeline de Perplexity[2]. Dieciocho meses después, la disciplina tiene un mercado.
Para abril de 2026, la web abierta es leída más por modelos de lenguaje que por humanos. Los AI Overviews de Google aparecen en aproximadamente el 47 % de los SERPs móviles[3], el 99,9 % de las consultas de palabras clave informativas[4] y reducen el click-through al primer resultado orgánico en un 58 % según el último estudio longitudinal de Ahrefs[5]. El estudio controlado de Pew sobre 68.879 consultas reales reveló que los usuarios hacen clic en cualquier enlace solo el 8 % de las veces cuando hay un AI Overview presente, frente al 15 % sin él: un colapso relativo del 46,7 %[6]. Las tasas de zero-click han superado el 60 % en todas las consultas de Google, el 83 % en las consultas que activan AI Overview y el 93 % dentro de Google AI Mode[7][8]. El embudo de tráfico de búsqueda no se redujo. Se invirtió.
Para la audiencia de perea.ai, la implicación no es sutil. El activo que importó durante los últimos veinte años —una página que aparecía en la primera SERP— se ha desacoplado del activo que importará en los próximos diez: una página que recibe citas dentro de una respuesta generada. El 5W AI Platform Citation Source Index 2026, que sintetiza 680 millones de citas individuales en ChatGPT, Google AI Overviews, Perplexity, Gemini y Claude, encontró que solo 15 dominios capturan el 68 % de toda la participación consolidada de citas[9]. La concentración es más extrema que la que alguna vez produjo Google PageRank. La participación de citas se mueve en semanas, no en años: la tasa de citas de Reddit en ChatGPT cayó de aproximadamente el 60 % al 10 % en seis semanas a finales de 2025 tras un solo cambio de parámetro de Google[9]. Los editores que absorbieron la participación desplazada fueron PR Newswire, Forbes y Medium, en ese orden.
Este artículo es el manual de campo para operar en ese entorno. Es el tercero de la serie perea.ai Research —después de The B2A Imperative y The MCP Server Playbook— y cierra el hilo de la capa de descubrimiento que ambos artículos insinuaron sin resolver. Se basa en más de 100 fuentes primarias: los benchmarks Princeton/KDD, el estudio de SE Ranking de 300.000 dominios, el conjunto de datos de 680M citas de Profound, el estudio de campo del Pew Research Center, el panel de 25,1M impresiones de Seer Interactive, el análisis del índice Perplexity de 200B URL de Authoritas, y docenas de experimentos controlados de Magna, Surgeboom, Relixir, Search Engine Land y otros. Donde los datos convergen, las recomendaciones son precisas. Donde no —llms.txt es el ejemplo más controvertido—, el artículo es honesto sobre la dispersión y recomienda una postura con el razonamiento detrás de ella.
La tesis es lo suficientemente simple como para caber en una pared. Las citas son los nuevos clics. En la economía de citas, la unidad que se compone no es la visita, sino la línea de atribución dentro de la respuesta de un modelo —y un solo modelo emite esa atribución miles de veces antes de ser reentrenado. Los equipos que implementan infraestructura de citas en 2026 construyen un activo que se compone y paga durante años. Los equipos que esperan estarán implementando trabajo de table-stakes en 2027 junto con todos los demás, sin ninguna ventaja que capturar.
— perea.ai Research
#Resumen Ejecutivo
La tesis. La búsqueda con IA no es un canal de marketing. Es la nueva capa de descubrimiento de la economía B2A, y la citación en una respuesta generada es la unidad de distribución. Una sola citación en ChatGPT, Perplexity, Google AI Overviews, Gemini o Claude es leída por miles a millones de usuarios antes de que el modelo sea reentrenado —y dentro de la economía agent cada una de esas lecturas puede ser una decisión de compra autónoma. Las marcas que implementan infraestructura de contenido de nivel de citación en 2026 capturan una posición de categoría que genera compounding durante la próxima década. Las marcas que no lo hacen son estructuralmente invisibles dentro del canal donde el 80–89 % de los compradores B2B y aproximadamente el 40–70 % de los consumidores comienzan ahora su investigación[10][11].
La evidencia.
- Velocidad de adopción. El tráfico proveniente de IA creció un 357 % interanual a mediados de 2025 hasta alcanzar 1.13 mil millones de referidos mensuales[12]. Los datos de Similarweb muestran que los visitantes de búsqueda con IA convierten a una tasa de 4.4× a 14.2× la del orgánico de Google: 14.2 % frente a 2.8 % en el panel de Outpace[11].
- Compresión de clics. El análisis de Seer Interactive de 25.1 M de impresiones en 42 organizaciones midió que el CTR orgánico colapsó de 1.76 % a 0.61 % —una disminución del 61 %— en consultas con AIO[13]. Pew registró el equivalente del lado del usuario en una tasa de clics del 8 % frente al 15 % sin un AIO[6]. Ahrefs situó la caída del CTR del primer resultado en 58 % en febrero de 2026[5].
- Prima de citación. Las marcas citadas dentro de un AI Overview obtienen 35 % más clics orgánicos y 91 % más clics pagados que los competidores no citados en el mismo SERP[14]. La asimetría es la razón por la que la citación, y no el posicionamiento, es ahora el activo.
- Concentración. Los 15 dominios principales capturan el 68 % de todas las citaciones de IA en ChatGPT, AI Overviews, Perplexity, Gemini y Claude[9]. Reddit es, por sí solo, la fuente n.º 1 en todos los motores principales con aproximadamente el 40 % de participación de citaciones. Wikipedia representa entre el 26 % y el 48 % de la participación de las 10 principales citaciones de ChatGPT.
- Divergencia entre plataformas. Solo el 11 % de los dominios citados por ChatGPT también son citados por Perplexity para la misma consulta; el 71 % de las fuentes citadas aparecen en una sola plataforma[15]. El mismo artículo que funciona en ChatGPT puede ser invisible en AI Overviews. La optimización es por motor, no universal.
- Apalancamiento de infraestructura. Las páginas con schema Product/Review rico en atributos se citan en un 61.7 % frente al 41.6 % del schema genérico[16]. El schema FAQPage aumenta las tasas de citación entre un 52 % y un 89 % en los estudios, con un aumento de hasta +221 % en Google AI[17][18]. Las implementaciones completas de más de 15 tipos de schema elevan la tasa de citación del 9 % (sin schema) al 64 %[19].
Los siete factores de citación que mueven los números.
- Estructura de respuesta primero. El 44.2 % de las citaciones de LLM provienen del primer 30 % de una página, y el 82 % de las respuestas de Perplexity se extraen de las primeras 300 palabras del contenido fuente[20]. Comienza cada sección con una respuesta autónoma de 40–60 palabras.
- Citar, citar textualmente, cuantificar. Las tres intervenciones principales del artículo GEO de Princeton —Agregar fuentes (+40.6 %), Adición de citas textuales (+35.1 %), Adición de estadísticas (+32.9 %)— son sólidas, replicables y económicas de aplicar[2].
- Schema como contrato legible por máquina. FAQPage, HowTo, Article-with-Person, Organization-with-sameAs y Product/Review rico en atributos son los cinco tipos de schema con aumento medido de citaciones. El schema genérico sin densidad de atributos no produce ningún efecto[16][17].
- Entidad y E-E-A-T. Presencia en Wikipedia/Wikidata, schema Person con sameAs, schema Organization con sameAs a LinkedIn/Crunchbase y menciones externas en publicaciones de primer nivel. El 70.4 % de las fuentes citadas por ChatGPT incluyen schema Person; la presencia en Wikipedia aumenta las tasas de citación aproximadamente un 50 %[21][22].
- Curvas de frescura. Perplexity descarta el contenido con fuerza después de 60–90 días; AI Overviews se actualizan en 4–8 semanas; el modelo base de ChatGPT tiene un desfase de 6–18 meses[23]. Actualiza las páginas de alto valor con una cadencia de 45–90 días.
- Mezcla de fuentes por motor. ChatGPT favorece Wikipedia + autoridad estructurada. Perplexity favorece Reddit + autoridad B2B nombrada. Google AI Overviews favorece YouTube + Reddit + Quora + LinkedIn. Claude favorece NYT/Atlantic/Economist[15][9]. La optimización tiene forma de portafolio.
- Volumen de búsqueda de marca y entidad. El volumen de búsqueda de marca presenta la correlación medida más fuerte con la citación en LLM (r ≈ 0.33), por encima de la autoridad de dominio (r ≈ 0.18, bajando desde 0.43 en 2024)[24][15]. Los medios ganados y la viralidad de producto son ahora palancas GEO de primer nivel.
El playbook de 90 días. Días 0–30: auditar, priorizar 50 objetivos de consulta, corregir el acceso del rastreador, implementar el schema Organization + Person + Article + FAQPage en las 20 páginas principales. Días 31–60: reescribir las 20 páginas principales con estructura de respuesta primero, citas, citas textuales y estadísticas. Agregar entrada en Wikidata. Establecer presencia auténtica en Reddit en dos subreddits prioritarios. Días 61–90: desplegar seguimiento de citaciones (Profound, Otterly, Peec, Athena o autoconstruido), establecer la línea base de share of voice, implementar llms.txt, instrumentar GA4 para la atribución de referidos de IA. Trimestralmente: actualizar las páginas principales, expandir el gráfico de entidades, medir los deltas de share of voice.
La matemática del operador. El playbook de 90 días es un esfuerzo de ingeniería de 1–2 personas. El costo de herramientas oscila entre 0–500 $/mes para una startup, 500–5 000 $/mes para el mercado medio y más de 15 000 $/mes para grandes empresas. El activo que genera compounding es real: cada citación persiste a través de los reentrenamientos de modelos, y el share of voice que construyes ahora reside en los datos de entrenamiento de los modelos que se ejecutarán durante los próximos cinco a diez años. Las citaciones son el único activo digital que paga intereses compuestos en los pesos de los modelos.
#Parte I — Por qué GEO es el nuevo SEO
#1.1 La curva del tráfico se ha doblado
Google sigue procesando entre 9,1 y 13,6 mil millones de búsquedas por día, más que los 8,5 mil millones de 2024[25]. El número de búsquedas no colapsó. Los clics sí. La búsqueda sin clics aumentó de aproximadamente el 50% en 2019 al 60% en 2024 hasta el 60-69% en todas las consultas de Google para el primer trimestre de 2026[25][7]. Los clics cero en móviles alcanzaron el 77%[25]. En las consultas que activan AI Overview alcanzó el 83%, y dentro del AI Mode independiente de Google, la tasa de cero clics ahora se sitúa en el 93%[7][8].
El estudio longitudinal de Seer Interactive, que abarca 25,1 millones de impresiones y 42 organizaciones, es el conjunto de datos más limpio sobre la magnitud del cambio. El CTR orgánico en consultas con AIO cayó del 1,76% al 0,61%, una disminución relativa del 61%. El CTR pagado cayó del 19,7% al 6,34%, una disminución del 68%[13]. La actualización de Ahrefs de febrero de 2026 midió una reducción del CTR del resultado principal del 58%, casi el doble del 34,5% que Ahrefs reportó ocho meses antes[5]. El panel controlado de Pew Research, con 68.879 consultas reales, encontró que los usuarios hicieron clic en cualquier enlace en solo el 8% de las sesiones con AIO frente al 15% en el resto de los casos —una caída relativa del 46,7%— y clic en una fuente dentro del AIO en solo el 1% de las sesiones[6]. El 26% de los usuarios abandonó Google por completo después de ver un AI Overview, frente al 16% con resultados tradicionales.
Las revelaciones de los editores coinciden con los paneles. The New York Times reportó que las referencias de búsqueda de Google cayeron ~35% interanual en el primer trimestre de 2026; The Washington Post alrededor del 40%; Axios cerca del 33%[26]. HubSpot reveló una pérdida de hasta el 80% del tráfico de su blog. Chegg perdió el 49%. Business Insider perdió el 55% y recortó el 21% de su personal. La base económica de la publicación informativa respaldada por publicidad se está reescribiendo en tiempo real.
#1.2 La prima de la citación
La realidad compensatoria, la que determina si una marca sobrevive al cambio, es la prima de la citación. Las marcas citadas dentro de un AI Overview obtienen un 35% más de clics orgánicos y un 91% más de clics pagados en el mismo SERP que los competidores no citados[14]. El mecanismo es el respaldo: cuando una IA dice «según [Brand], el mejor enfoque es X», esa atribución funciona como una recomendación de terceros. Los usuarios que encuentran la marca dentro de la respuesta de la IA son más propensos a reconocerla, buscarla directamente y hacer clic en sus listados pagados u orgánicos.
La asimetría de conversión agrava la prima de la citación. Las referencias impulsadas por IA se convierten a una tasa de 4,4× a 23× en comparación con el orgánico tradicional. El análisis de Outpace situó la tasa de conversión de visitantes de búsqueda con IA en 14,2% frente al 2,8% del orgánico de Google, una diferencia de 5×[11]. Ahrefs ha medido 23× en algunos segmentos. Los datos de Semrush muestran que el tráfico impulsado por IA tiene una conversión 4,4× mayor[11]. Los visitantes que llegan después de una consulta con IA llegan informados, con intención. El tráfico que sobrevive es dramáticamente más valioso por sesión.
La imagen combinada: menos clics, mucho mayor valor por clic y un activo de reconocimiento de marca que opera independientemente de que una sesión llegue o no a tus analíticas. Vercel informa que el 10% de sus registros mensuales ahora provienen de ChatGPT, atribuido en parte a sus inversiones en GEO[27]. El tráfico referido por IA en un panel de SaaS B2B generó el 12,1% de los registros a pesar de representar solo el 0,5% del tráfico general[11].
#1.3 La capa de descubrimiento B2A
Para un lector de la economía agent, el encuadre cambia de nuevo. En la búsqueda B2B y de consumidores, las citas impulsan la atención humana. En B2A, las citas son la capa de descubrimiento que los agents mismos consumen. Cuando un agent —Cursor, operador de ChatGPT, un flujo de trabajo interno de LangGraph, un bot de telefonía de Bland— necesita responder una pregunta, evaluar un proveedor o hacer una selección de herramientas, extrae del mismo pool de citas que aparece en las respuestas de IA orientadas a humanos. Los datos de entrenamiento de cada modelo frontier codifican el grafo de citas actual como el sustrato predeterminado del razonamiento agentic. El documento B2A Imperative argumentó que la economía agent necesita nuevas capas de infraestructura sobre MCP, A2A、AP2 y ACP. La economía de citas es la capa de descubrimiento debajo de todas ellas.
Estratégicamente, esto significa que el trabajo de citación se acumula de manera diferente en B2A que en el SEO humano. Una página que se cita 1.000 veces en respuestas de ChatGPT en 2026 probablemente aterrice en los datos de entrenamiento de los siguientes cuatro a seis ciclos de reentrenamiento de los principales laboratorios frontier —tres a cinco años de acumulación antes de que la página se refresque siquiera. Combinado con los patrones de persistencia de citas medidos por el Tow Center, el contenido de grado de citación tiene la ventana de amortización más larga de cualquier clase de activo digital. Una vez que entiendes eso, la asignación de presupuesto entre SEO y GEO no es un debate.
#Parte II — Cómo citan realmente los motores de IA
#2.1 Los cinco motores, cinco lógicas de citación
El comportamiento de citación no es uniforme en toda la capa de búsqueda de IA. El análisis multiplataforma de ZipTie reveló que solo el 11 % de los dominios citados por ChatGPT también son citados por Perplexity para la misma consulta, y el 71 % de las fuentes citadas aparecen en una sola plataforma[15]. La optimización tiene forma de portafolio, no es universal. Cada motor cuenta con una arquitectura de recuperación distinta, preferencias de fuentes y curva de frescura.
| Motor | Índice principal | Tipo de fuente principal | Fuentes promedio / respuesta | Sensibilidad a la frescura | Concentración de citaciones (Gini) |
|---|---|---|---|---|---|
| ChatGPT | Bing index + GPTBot crawler + training data | Wikipedia (47.9 % de las top-10) | 7.92 | Baja–Moderada | 0.164 (el más democrático) |
| Perplexity | Índice propio en tiempo real de más de 200 B de URL | Reddit (46.7 % de las top-10) | 21.87 | Muy alta (decae después de 60-90 días) | 0.244 (moderada) |
| Google AI Overviews | Google Search index (se requiere estar en el top-10) | YouTube (23.3 % de las top-10) | ~7 (~169 palabras/respuesta) | Moderada | Alta concentración en los puestos top-10 |
| Gemini / AI Mode | Google Search + Knowledge Graph | Fuentes elite concentradas | Varía | Moderada | 0.351 (la más concentrada) |
| Claude | Web curada + training data | Blogs (43.8 % de las top-10) | Varía | Baja | N/D |
Fuente: Estudio multiplataforma de ZipTie; 5W AI Platform Citation Source Index 2026; conjunto de datos de investigación citada[15][9][28].
La forma de la tabla es la estrategia. ChatGPT es el más meritocrático: un dominio de cinco semanas con contenido profundo y bien estructurado puede obtener citaciones[28]. Perplexity premia la presencia en Reddit y la densidad de citas salientes. Google AI Overviews impulsa a los ganadores orgánicos existentes: el 92 % de las citaciones provienen de páginas que ya aparecen en el top 10 de Google[28]. Gemini concentra las citaciones en un pequeño grupo elite. Claude se inclina por las voces editoriales establecidas y es el más tolerante con la frescura.
#2.2 ChatGPT: enciclopédico, impulsado por la amplitud, basado en Bing
La lógica de citación de ChatGPT es la más documentada. Cuando la navegación está habilitada, ChatGPT Search muestra una correlación del 87 % con los resultados top-10 de Bing para la misma consulta[15]. Cuando la navegación está desactivada, el modelo recurre a los datos de entrenamiento, con un fuerte sesgo hacia Wikipedia, que representa el 47.9 % de la cuota de citaciones top-10 de ChatGPT y aproximadamente el 7.8 % de todas las citaciones según los estudios[29]. Reddit es el segundo dominio más citado, con peso importante en recomendaciones de productos y consultas del tipo “qué opinan los usuarios reales”.
Dos hechos estructurales dominan. Primero, ChatGPT ejecuta fan-outs de consultas de forma agresiva: el 32.7 % de las consultas de ChatGPT son de un solo disparo frente al 70.5 % en Perplexity, lo que significa que ChatGPT suele lanzar entre 3 y 5 búsquedas internas por cada prompt del usuario[30]. Optimizar para ChatGPT implica optimizar las variaciones de fan-out de la pregunta del usuario, no solo la redacción literal. Segundo, ChatGPT se inclina por el contenido más reciente citado entre los principales sistemas de IA: el 56 % de las citaciones periodísticas corresponden a los últimos 12 meses, frente al 36 % de Claude[9]. La frescura importa incluso donde menos se exige.
En la práctica: para ChatGPT, gana presencia en Wikipedia (o un proxy de entidad de alta calidad mediante Wikidata sameAs), mantén profundidad en tu clúster de temas y redacta contenido que coincida con la forma de las preguntas que un usuario podría hacer dos o tres niveles más allá en un fan-out a partir de tu palabra clave principal.
#2.3 Perplexity: en tiempo real, centrado en Reddit, transparente en citaciones
Perplexity es el más transparente de los cinco motores y el más fácil de instrumentar. Cada respuesta incluye citas clicables, la recuperación es en tiempo real por consulta y la plataforma mantiene su propio índice de más de 200 B de URL[28]. Las dos señales que dominan el comportamiento de citación de Perplexity son la presencia en Reddit y la frescura.
Solo Reddit representa el 46.7 % de la cuota de citaciones top-10 de Perplexity —no el contenido generado por usuarios en general, Reddit específicamente[31]. Perplexity incluso ofrece un modo de enfoque exclusivo de Reddit. Para las marcas que buscan posicionarse en Perplexity, esto convierte a Reddit de “distribución social opcional” en infraestructura crítica. El enfoque correcto consiste en demostrar experiencia genuina en dos o tres subreddits prioritarios, publicando respuestas útiles bajo la marca o el nombre de un miembro del equipo, y citando el propio trabajo solo cuando sea realmente relevante. El comportamiento promocional recibe menor puntuación tanto por la moderación de Reddit como por el sistema de autenticidad de Perplexity.
La frescura decae de forma pronunciada en Perplexity. El contenido con más de 60-90 días pierde terreno a menos que siga recibiendo nuevas citas externas o se actualice[15]. Por eso las marcas que compiten en Perplexity publican actualizaciones mensuales o trimestrales en sus páginas con mayor tasa de citación, en lugar de limitarse a crear contenido nuevo. La combinación de presencia en Reddit + contenido propio actualizado recientemente + densidad de citas salientes constituye la estrategia dominante para Perplexity.
#2.4 Google AI Overviews: amplificado por PageRank, recompensado por schema
Google AI Overviews es el objetivo más difícil para los nuevos participantes y el de mayor volumen para los sitios ya establecidos. El 92 % de las citaciones de AI Overview provienen de páginas que ya ocupan el top 10 de resultados orgánicos de Google[28]. La implicación es que AIO no descubre nuevas fuentes: promueve a los ganadores existentes. Para un dominio nuevo, esto significa que el SEO tradicional es un prerrequisito de 3 a 6 meses para lograr visibilidad en AIO. Para un dominio establecido, representa la oportunidad de mayor apalancamiento.
El schema markup se correlaciona fuertemente con las citaciones de Google AI Overview. Las páginas con datos estructurados completos (FAQPage, HowTo, Article, Organization) superan notablemente a las que carecen de ellos. El estudio de 50 sitios de Relixir encontró que las páginas con schema FAQPage se citan en un 41 % frente a un 15 % sin él —un aumento de 2.7×[17]. El análisis de Citedify registró un aumento de 3.2× para AIO específicamente al comparar FAQ versus sin FAQ[18]. La prueba controlada A/B de SeoJuice con schema FAQ + HowTo produjo una ventaja de 3× en citaciones de Google AIO y un incremento del 156 % en la tasa de selección cuando se combinaron texto, imagen y datos estructurados[32]. El experimento de una sola página de Search Engine Land reveló que la versión “sin schema” ni siquiera fue indexada[19].
Las señales E-E-A-T son prácticamente obligatorias. El análisis de Discovered Labs sobre los datos Wellows 2026 encontró que el 96 % de las citaciones de AI Overview provienen de fuentes autoritativas verificadas, y las páginas con atribución de autor experto se citan 2.4× más que las páginas anónimas[21]. El 70.4 % de las fuentes citadas por ChatGPT incluyen Person schema en JSON-LD[21].
La pila de estrategia para AIO: posicionarse en el top 10, implementar schema FAQPage + HowTo + Article-with-Person + Organization-with-sameAs, adjuntar biografías de autores con nombre y credenciales, obtener menciones en publicaciones de primer nivel, mantener fechas de actualización claras y asegurarse de que la respuesta a la consulta implícita aparezca en las primeras 100 palabras.
#2.5 Gemini y Claude
El comportamiento de citación de Gemini es el más concentrado de los cinco, con un coeficiente de Gini de 0.351, lo que significa que un pequeño grupo de fuentes elite domina la cuota de citaciones[15]. El volumen de búsquedas de marca y la presencia en el Knowledge Graph pesan más que la mayoría de las demás señales. Para Gemini, Wikidata + Wikipedia + prensa de primer nivel constituye la línea base; sin ellos, resulta difícil ganar cuota de citaciones.
Claude es el atípico tolerante a la frescura. Solo el 36 % de las citaciones periodísticas de Claude corresponden a los últimos 12 meses, frente al 56 % de ChatGPT[9]. Claude se inclina por marcas editoriales consolidadas —The New York Times, The Atlantic, The New Yorker, The Economist— y por contenido analítico de blogs de formato largo (el 43.8 % de sus top-10 son blogs). Para Claude, la profundidad y la autoridad editorial importan más que la actualidad. Los whitepapers extensos como este funcionan bien desde el punto de vista estructural; las páginas de marketing cortas, no.
#Parte III — Los siete factores de citación
El artículo Princeton/KDD GEO produjo el benchmark público más riguroso sobre cómo las modificaciones de contenido afectan las tasas de citación. Los autores evaluaron nueve métodos de optimización en 10 000 consultas de GEO-bench en un pipeline controlado basado en GPT-3.5 y en Perplexity en producción. Las tres intervenciones principales —Cite Sources, Quotation Addition, Statistics Addition— generaron mejoras relativas del 30-40 % en el recuento de palabras ajustado por posición y del 15-30 % en las métricas de impresión subjetiva[2].
Los siete factores que se presentan a continuación combinan los resultados de Princeton con las señales medidas en campo por Profound, SE Ranking, Magna, Surgeboom, Cited, Athena y Discovered Labs. En conjunto forman el modelo operativo para el contenido que logra ser citado.
#3.1 Estructura de respuesta primero
La decisión estructural más importante es comenzar con la respuesta. Authoritas midió que el 82 % de las citas de Perplexity provienen de las primeras 300 palabras del contenido fuente[20]. La Geo Knowledge Base informa que el 44,2 % de todas las citas de LLM provienen del primer 30 % del texto de una página[33]. Las páginas que esconden la respuesta en el párrafo ocho, después de cuatro párrafos de preámbulo de contexto, se omiten durante la recuperación.
La regla operativa es la pirámide invertida. Dentro de las primeras 40-60 palabras de cada sección, presenta una respuesta completa y autónoma a la pregunta que implica el encabezado. Luego agrega evidencia de respaldo en 60-100 palabras. Añade contexto relacionado en otras 50-70 palabras. El pasaje total tiene 150-200 palabras, cabe limpiamente dentro de la ventana de recuperación de fragmentos del LLM y es lo que los motores de IA tienen más probabilidades de extraer de forma literal.
La disciplina en los encabezados importa tanto como la disciplina en los párrafos. Los encabezados formulados como preguntas (que reflejan consultas reales de los usuarios) se citan 3,1 veces más que los encabezados con etiquetas de tema, según datos de Semrush 2026[34]. La razón es mecánica: el motor de IA realiza una coincidencia explícita de cadenas entre la consulta del usuario y tu encabezado, y un encabezado en forma de pregunta está más cerca en el espacio de embeddings de una consulta en forma de pregunta.
#3.2 Citar, citar textualmente, cuantificar
Las tres intervenciones GEO de Princeton —agregar citas a fuentes confiables, agregar citas textuales de expertos nombrados y agregar estadísticas específicas con atribución— son los incrementos de citación más económicos y replicables que se han medido. Cite Sources produjo +40,6 % en Perplexity, Quotation Addition +35,1 % y Statistics Addition +32,9 %[2]. El mecanismo es la verificabilidad: los modelos generativos prefieren afirmaciones que puedan anclarse a números específicos o fuentes nombradas, porque los datos cuantitativos y las citas atribuidas reducen el riesgo de alucinaciones durante la síntesis.
En la práctica, esto significa que cada párrafo que contenga una afirmación no obvia debe incluir una estadística con año, una cita de una fuente nombrada o un enlace a una fuente primaria. Evita descriptores genéricos ("muchos", "algunos", "bueno"). Sustitúyelos por datos concretos ("el 46,7 % de las diez principales citas de Perplexity provienen de Reddit, según el análisis de ZipTie de 2026"). El panel de Surgeboom de 200 artículos optimizados para AEO encontró que los párrafos que contienen al menos una estadística se citan 4 veces más que los párrafos sin estadísticas[35].
El artículo de Princeton también probó Fluency Optimization (reescritura para mejorar la legibilidad sin cambiar el contenido factual) con una mejora del +13 % y Easy-to-Understand Rewriting con ganancias modestas[2]. Ambos refuerzan el principio: el contenido extraíble, atribuible y en lenguaje claro gana.
#3.3 Schema como contrato legible por máquinas
El markup de schema es el amplificador estructural. La evidencia empírica converge en cinco tipos de schema con mejora medida en citaciones, mientras que el schema genérico (Article, BreadcrumbList, Organization sin atributos) muestra efectos nulos en pruebas controladas.
| Tipo de schema | Mejora medida en citaciones | Efecto más fuerte en el motor |
|---|---|---|
| FAQPage | +52 % a +89 % (Magna, Relixir, Surgeboom)[17][36][16] | Google AI: +221 % (Surgeboom 2026) |
| HowTo | +76 % (Surgeboom); +50-70 % de aumento en la tasa de citación en consultas procedimentales[16] | Google AI: +184 % |
| Article + Author (Person) schema | +35 % (Magna)[36] | Claude: +37 % |
| Organization + sameAs | +44 % (Magna) | Gemini: +51 % |
| Product/Review con atributos | +52 % (Magna); 61,7 % vs 41,6 % para schema genérico (Growth Marshal)[16] | Perplexity: +22 % |
El experimento de una sola página de Search Engine Land es una referencia empírica útil: tres páginas de contenido idéntico que solo diferían en la calidad del schema produjeron posición 3 + cita en AI Overview para "bien implementado", posición 8 + sin AIO para "mal implementado" y no indexado para "sin schema"[19]. El estudio de 1500 sitios de Surgeboom mostró que las páginas con 15 o más tipos de schema se citaban en un 64 % frente al 9 % de las páginas sin schema —una diferencia de aproximadamente 7 veces[17].
La advertencia del estudio controlado de Growth Marshal es importante: el schema genérico sin densidad de atributos no produce ningún efecto medible. Las páginas con schema Product que solo incluían name y price tuvieron peor desempeño que las páginas sin schema en su estudio. El schema es un contrato de información estructurada: completa cada propiedad relevante con datos precisos y actualizados, o omite el schema por completo.
#3.4 Entidad y E-E-A-T
El marco E-E-A-T de Google —Experience, Expertise, Authoritativeness, Trustworthiness— se refleja en toda la capa de búsqueda de IA. Discovered Labs encontró que el 96 % de las citas de AI Overview provienen de fuentes autorizadas verificadas, y que las páginas con atribución de autor experto se citan a una tasa 2,4 veces mayor que las páginas anónimas[21]. El 70,4 % de las fuentes citadas por ChatGPT incluyen Person schema en JSON-LD[21]. El análisis de AI Search Visibility de 2026 encontró que la correlación de la autoridad de dominio con la citación de IA bajó de r=0,43 en 2024 a r=0,18 en 2026[37], mientras que las señales estructurales de E-E-A-T (Person schema, firma del autor, citas externas) han aumentado para compensar.
La capa de entidades es donde reside el efecto más fuerte. Wikipedia es la fuente más citada en ChatGPT y está fuertemente representada en los datos de entrenamiento de todos los modelos de frontera. Una página de Wikipedia sobre una marca aumenta la tasa de citación de esa marca en aproximadamente un 50 % en todos los LLM[22]. Para las marcas que no cumplen el umbral de notoriedad de Wikipedia, Wikidata es el segundo mejor punto de entrada: datos de entidades estructurados sin el control editorial. Crunchbase, LinkedIn, G2, Trustpilot y directorios específicos de categoría completan el gráfico de entidades. Los sistemas de IA aprenden relaciones de entidades mediante la coocurrencia: cuando una marca aparece junto a líderes de categoría en análisis de la industria, los sistemas de IA fortalecen su asociación con esa categoría.
El volumen de búsquedas de marca es, en sí mismo, el predictor individual más fuerte de la citación de LLM, con una correlación medida de r ≈ 0,33 en el conjunto de datos de AI Search Visibility[24][15]. Por eso los medios ganados y la viralidad del producto se convierten en GEO: elevan la línea base de búsquedas de marca que determina la participación de citaciones posterior.
#3.5 Curvas de frescura
Las tasas de decadencia del contenido varían notablemente entre motores. El análisis de Cited converge con múltiples estudios de campo en los siguientes tiempos[38]:
- Perplexity: El contenido estructurado nuevo puede citarse en 2-4 semanas. El contenido de más de 60-90 días cae bruscamente a menos que se actualice o reciba nuevas citas externas. Frecuencia de actualización: mensual para las páginas principales.
- Google AI Overviews: Refleja cambios estructurales en 2-4 ciclos de rastreo (4-8 semanas). Frecuencia de actualización: 45-90 días para las páginas principales.
- ChatGPT (modo de búsqueda): Basado en Bing; inclusión rápida si Bing indexa el cambio. El modo sin navegación se retrasa 6-18 meses hasta el siguiente ciclo de entrenamiento.
- Claude: El más lento en reaccionar; trata la antigüedad del contenido de forma permisiva. Una actualización trimestral o semestral es suficiente.
- Gemini: 4-8 semanas para cambios de posicionamiento; los cambios de entidad/Gráfico de conocimiento tardan más.
La implicación operativa es que la frescura no es una única señal: es una variable por motor con cadencias diferentes. La mejor práctica es realizar una auditoría de frescura en las páginas más citadas cada 30 días, con actualizaciones importantes trimestrales que incluyan nuevas estadísticas, citas fechadas y propiedades dateModified actualizadas en JSON-LD.
#3.6 Mezcla de fuentes por motor
El 5W AI Platform Citation Source Index 2026 categoriza los 50 dominios más citados en seis grupos funcionales e identifica al líder en citaciones de cada uno[9]:
- Comunidad y conversación: Reddit (#1 en todos los motores, ~40 % de participación en citaciones)
- Enciclopédico y de referencia: Wikipedia (#1, 26-48 % en ChatGPT)
- Profesional e identidad: LinkedIn (#1 en Google AIO con 13,0 %)
- Video y audio: YouTube (ventaja de 200 veces sobre cualquier otra fuente de video; 23,3 % en Google AIO; 13,9 % en Perplexity)
- Editorial y noticias: Forbes, Business Insider (favoritos de ChatGPT); NYT, Atlantic, Economist (favoritos de Claude); NIH/PubMed (fuentes de autoridad de Perplexity)
- Comercio y reseñas: G2, Gartner, NerdWallet, PCMag, Yelp, TripAdvisor
La estrategia de portafolio se deduce directamente. Un B2B SaaS que se optimiza para ChatGPT prioriza Wikipedia/Wikidata + prensa en Forbes/Business Insider + profundidad en dominio propio. La misma marca que se optimiza para Perplexity prioriza Reddit + reseñas en G2/Gartner + fuentes primarias equivalentes a NIH + frescura en dominio propio. Para Google AIO, prioriza YouTube + Reddit + Quora + LinkedIn + posicionamiento orgánico en dominio propio + datos estructurados. El trabajo no es duplicativo: se acumula. Pero es trabajo real, no "publicar el mismo contenido en cinco lugares".
#3.7 Volumen de búsquedas de marca y entidad
El factor más difícil de fabricar y el más predictivo. El volumen de búsquedas de marca —la frecuencia con que los usuarios buscan directamente el nombre de tu marca— tiene la correlación medida más fuerte con la participación de citaciones de LLM, con r ≈ 0,33[24]. El mecanismo es sencillo: las búsquedas de marca alimentan las entradas del Gráfico de conocimiento, impulsan la producción de contenido de terceros y señalan autoridad a todos los sistemas de recuperación que se intersectan con el ecosistema de Google (que son la mayoría).
Los puntos de apalancamiento:
- Velocidad de medios ganados. Un ritmo constante de menciones de nivel 1 (Forbes, TechCrunch, Business Insider, prensa especializada de la industria) genera volumen de búsquedas de marca que se acumula. La prensa es infraestructura de GEO, no solo relaciones públicas.
- Viralidad del producto / orgánico en Reddit. Los hilos auténticos de Reddit sobre tu producto generan tanto participación en citaciones como volumen de búsquedas de marca.
- Presencia en conferencias y podcasts. Las apariciones con nombre en venues elegibles para citación (los mejores podcasts de tu categoría, conferencias principales) alimentan tanto los datos de entrenamiento de LLM como las búsquedas de marca.
- Coocurrencia con líderes de categoría. Las menciones contextuales frecuentes junto a Salesforce / HubSpot / Stripe / Shopify (los líderes que definen tu categoría) fortalecen la asociación de entidades en los embeddings del modelo.
La versión honesta: el trabajo de volumen de marca tiene la latencia más larga de cualquier palanca de GEO: mínimo 3-6 meses para ver acumulación de señal medible. También es el más defendible. El contenido puede reescribirse; la autoridad de entidad se acumula.
#Parte IV — El Stack de Infraestructura del Publicador
#4.1 Qué se incluye en la base de código
Para un SaaS o un sitio de medios, la infraestructura GEO que reside en el código en lugar del proceso editorial es corta:
- Generadores de schema JSON-LD para Article, FAQPage, HowTo, Organization, Person, Product, BreadcrumbList. Salida validada contra
validator.schema.orgy Google’s Rich Results Test en CI. - Política de acceso para crawlers. Permitir explícitamente
GPTBot,ClaudeBot,PerplexityBot,Google-Extended,OAI-SearchBot,Applebot-Extendeden robots.txt a menos que una razón comercial específica lo impida. Muchos sitios los tienen bloqueados por defecto y nunca lo verifican. llms.txtyllms-full.txten la raíz del dominio, generados automáticamente a partir de la estructura existente del sitio. Mintlify, Yoast y varios CMS headless ya los incluyen por defecto.- Disciplina de
dateModified. Cada instancia de schema Article refleja la marca de tiempo real de la última edición, no la fecha de publicación. El texto fechado en el cuerpo del artículo coincide con el schema. - IDs de anclaje en cada encabezado y elemento FAQ. Los motores de IA citan pasajes específicos; los anclajes permiten atribución por pasaje y analíticas por pasaje.
- Gráfico
sameAsen el schema Organization que enlaza con LinkedIn, Crunchbase, Wikidata, Wikipedia (cuando corresponda), G2, Trustpilot, GitHub y páginas de autores de prensa de primer nivel. - Especificación Speakable en los párrafos de respuesta de mayor confianza de las páginas prioritarias.
- Seguimiento de citas estilo OpenTelemetry si lo ejecutas internamente: coincide las referencias entrantes de IA con los patrones de consulta esperados.
Esto equivale aproximadamente a dos semanas de trabajo de un ingeniero para un sitio de tamaño medio, incluyendo QA. Ninguno requiere cambios en el framework de JavaScript. JSON-LD se envía en bloques <script type="application/ld+json">; llms.txt es un archivo estático en la raíz.
#4.2 La cuestión de llms.txt
llms.txt es la pieza de infraestructura GEO más controvertida en 2026, y merece un tratamiento sobrio porque el campo está dominado por hype de un lado y rechazo reflejo del otro.
Los hechos. Jeremy Howard de Answer.AI propuso el estándar llms.txt en septiembre de 2024[39]. Es un archivo Markdown en /llms.txt que proporciona a los sistemas de IA un mapa curado del contenido más importante de un sitio, complementado por un /llms-full.txt opcional que incluye el corpus completo de contenido. Anthropic, Stripe, Zapier, Cloudflare, Vercel, Hugging Face, Mintlify, Supabase, Resend, Clerk, Prisma, Turso y Fly.io ya lo han implementado. A marzo de 2026, BuiltWith cuenta ~844,000 sitios web con el archivo, y el estudio de 300K dominios de SE Ranking sitúa la adopción en 10.13%[40][41].
El caso honesto en contra. El estudio controlado de SE Ranking no encontró correlación medible entre la presencia de llms.txt y la cuota de citas en IA. John Mueller de Google ha declarado públicamente que ningún sistema de IA de Google utiliza actualmente llms.txt. El análisis de logs de servidor de múltiples fuentes muestra que GPTBot, ClaudeBot y PerplexityBot no visitan archivos llms.txt con frecuencia significativa[41].
El caso honesto a favor. Anthropic, OpenAI y Perplexity no se han comprometido por escrito, pero han señalado soporte y respuesta de recuperación observable. La característica “Markdown for Agents” de Cloudflare (feb 2026) reduce el consumo de tokens para crawlers de IA en ~80% en sitios que envían contenido Markdown limpio[42]. Las herramientas de IA orientadas a desarrolladores — Cursor, Continue, Aider, GitHub Copilot y varios frameworks RAG — leen activamente llms.txt cuando está presente. Las marcas que publican un llms.txt curado ven un modesto aumento correlacionado en las tasas de citas en Anthropic y Perplexity en algunos estudios (Presenc AI[43]).
La posición de perea. Envía llms.txt. El costo de implementación es de dos horas, incluyendo validación. La desventaja es cero. El upside asimétrico es real: si alguna plataforma importante se compromete formalmente con llms.txt como entrada de primera clase — y la trayectoria sugiere que una lo hará, probablemente Anthropic dado que ya publica el suyo en docs.claude.com/llms.txt — los sitios que lo tengan enviado estarán 12–18 meses adelante del resto del mercado desde el día uno. Trátalo como un hedge de compatibilidad futura, no como una palanca de citas a corto plazo, y sigue adelante.
#4.3 La arquitectura de referencia
Para un SaaS B2B o sitio editorial que envía una publicación optimizada para citas, el stack de referencia a mediados de 2026:
/ (Site root)
/llms.txt (Curated AI map, ~50–500 lines)
/llms-full.txt (Full content corpus, optional)
/robots.txt (Explicit allow for AI crawlers)
/sitemap.xml (Standard XML sitemap, all canonical URLs)
/.well-known/ (OAuth metadata if you also ship MCP)
/research/<slug> (One Markdown source per long-form paper)
- Frontmatter (title, subtitle, authors, date, license, audience)
- Hero (Author + dateModified + reading time)
- StickyTOC (Anchored navigation)
- Article body (Inverted-pyramid sections, 40–60 word answers,
cite/quote/quantify discipline)
- JSON-LD (ScholarlyArticle / Article + Person + Organization)
- FAQ block (5–8 H3-question entries, FAQPage schema)
- References (Numbered footnotes, primary sources only)
/authors/<name> (Person entity page)
- Bio + credentials
- sameAs links
- Person JSON-LD
- List of authored content
/about, /contact, /editorial-policy
(Trust pages — about page, contact, editorial standards,
AI-disclosure policy if you author with AI assistance)Esto es lo que perea.ai/research envía por sí mismo, deliberadamente. La publicación come su propia comida en legibilidad para agents. Cada paper lleva Schema.org ScholarlyArticle JSON-LD con metadatos de autor, wordCount, timeRequired, inLanguage, license, mainEntityOfPage. El TOC está vinculado con anclajes. Cada sección es independientemente citable. Todo el sitio se genera estáticamente y se sirve desde el edge para que la latencia de recuperación sea sub-100ms a nivel global.
#4.4 Qué no se incluye
Una lista corta de prácticas que son innecesarias, ineficaces o contraproducentes en 2026:
- Cloaking de contenido para crawlers de IA. Enviar contenido diferente a GPTBot que a usuarios humanos es técnicamente posible y detectablemente riesgoso. Google ha declarado repetidamente que la desalineación entre el contenido visible y el schema es una violación de las directrices de datos estructurados. No lo hagas.
- Schema genérico sin densidad de atributos. El estudio controlado de Growth Marshal encontró que el schema genérico Article/Organization/BreadcrumbList no produjo aumento medible en citas; el schema rico en atributos Product/Review produjo +20 puntos porcentuales[16]. Schema sin contenido poblado es sobrecarga, no impulso.
- Contenido generado por IA de forma automática a escala. El estudio de 100K citas de Hashmeta encontró que el contenido generado por IA sin editar fue citado 89% menos que el contenido editado por humanos[44]. Las actualizaciones de contenido útil de Google de 2025 apuntan explícitamente al contenido de IA usado para manipular rankings.
- Keyword stuffing en citas o schema. El paper GEO de Princeton probó específicamente la manipulación de densidad de keywords y no encontró mejora medible en la cuota de citas de IA[2].
- Compra de enlaces black-hat para autoridad de entidad. La actualización QRG de Google de enero de 2025 apunta explícitamente a personas expertas falsas y activa acciones manuales, no solo supresión de ranking[21].
#Parte V — La guía de implementación de GEO en 90 días
#5.1 Días 0–30: Auditoría, base e higiene de rastreadores
Semana 1 — Línea base y priorización.
- Extrae una lista de 50 consultas prioritarias que abarquen intenciones informativas, comerciales y de navegación. Ejecuta cada una en ChatGPT, Perplexity, Google AI Overviews, Gemini y Claude. Registra: si aparece una respuesta de IA, quién es citado, qué URLs se enlazan y cuál es el sentimiento hacia tu marca. Esta es tu línea base de participación de voz.
- Audita
robots.txt. Asegúrate de que GPTBot, ClaudeBot, PerplexityBot, Google-Extended, OAI-SearchBot, Applebot-Extended estén explícitamente permitidos. Muchos sitios tienen bloqueos heredados que nadie recuerda haber escrito. - Ejecuta una auditoría de schema en las 50 páginas principales por impresiones orgánicas. Clasifícalas como: completas (15+ tipos de schema), avanzadas (10–14), moderadas (5–9), básicas (1–4) o ninguna. Los datos de Surgeboom 2025 muestran un aumento de 7× en las citas entre ninguna y completa[17].
Semana 2 — Infraestructura de schema.
- Implementa schema de Organization en todo el sitio con el gráfico completo de
sameAs(LinkedIn, Crunchbase, Wikidata, GitHub, G2, Trustpilot, X, YouTube, perfiles de autores en medios de prensa de primer nivel). - Implementa schema de Person en todas las páginas de autores con
name,jobTitle,affiliation,sameAshacia LinkedIn / ORCID / Google Scholar / X / GitHub. - Implementa schema de Article en las 20 páginas principales, vinculado a Person + Organization, con
datePublished,dateModified,mainEntityOfPage,wordCounteinLanguageprecisos. - Valida cada bloque JSON-LD en
validator.schema.orgy en la prueba de resultados enriquecidos de Google. Corrige todos los errores.
Semana 3 — FAQPage y HowTo en las páginas principales.
- Agrega schema de FAQPage a las 20 páginas principales. De 5 a 10 preguntas por página. Cada
acceptedAnswerdebe ser una respuesta autónoma de 40–60 palabras. La redacción de las preguntas debe reflejar las consultas reales de los usuarios (usa los datos de “People Also Ask” de Search Console y AlsoAsked.com). - Agrega schema de HowTo al contenido procedimental. Cada paso debe tener
name,text(20–40 palabras),positiony, cuando corresponda, unaimage. IncluyetotalTimeyestimatedCost. - Valida. Revisa los informes de mejoras de Google Search Console durante las próximas dos semanas para detectar nuevos picos de errores.
Semana 4 — Páginas de confianza y llms.txt.
- Audita y actualiza las páginas de About, Contact, Editorial Policy, Privacy, Security y Terms. Cada página debe incluir una dirección física real, un contacto editorial con nombre y una política de divulgación de contenido generado por IA. Estas son señales de E-E-A-T que los evaluadores de IA revisan de forma explícita según la actualización del QRG de septiembre de 2025[45].
- Genera el archivo llms.txt. Usa Mintlify, Yoast o un generador personalizado. Selecciona las 30–80 páginas de mayor impacto. Valida en
llmtxt.info/validator. Añádelo al flujo de CI/CD para que se mantenga actualizado a medida que se publique nuevo contenido. - Considera crear llms-full.txt si cuentas con documentación extensa. El archivo docs.claude.com/llms-full.txt de Anthropic tiene aproximadamente 481K tokens y sirve como modelo razonable para sitios de documentación técnica.
#5.2 Días 31–60: Reescritura de contenido y trabajo de entidades
Semanas 5–6 — Reescritura en pirámide invertida de las 20 páginas principales.
La intervención editorial de mayor impacto. Para cada página prioritaria:
- Identifica la pregunta que responde la página. Enúnciala como H1 (o dentro de las primeras 60 palabras).
- Dentro de las primeras 40–60 palabras, ofrece una respuesta completa y autónoma a esa pregunta. Sin introducción. Sin “en este artículo exploraremos”. Sin preámbulo.
- Reformula cada H2 como una pregunta que refleje una consulta real de búsqueda. Reformula los H3 como subpreguntas cuando corresponda.
- La primera oración después de cada encabezado debe responder a la pregunta implícita en ese encabezado. La evidencia de apoyo viene después.
- Aplica la disciplina de citar/citar textualmente/cuantificar: cada párrafo que contenga una afirmación no obvia debe incluir una estadística con año, una cita de fuente nombrada o un enlace a fuente primaria.
- Agrega de 5 a 8 entradas de FAQ al final, cada una marcada con schema de FAQPage.
- Asegúrate de que cada sección principal tenga entre 150 y 250 palabras para que coincida con las ventanas de recuperación de fragmentos de los LLM.
Según el panel de implementación de 200 clientes de GetCito, la reestructuración con respuesta primero aumenta la frecuencia de citas de 2–3 menciones/mes a 8–12 menciones/mes en 90 días, un incremento del 200–300 %[46]. Los paneles de Greenville y los datos de AEO de Sona corroboran este patrón.
Semanas 7–8 — Gráfico de entidades y Wikidata.
- Crea una entrada en Wikidata para tu organización si no existe. Wikidata tiene un umbral de notoriedad más bajo que Wikipedia y acepta la mayoría de las empresas legítimas con fuentes adecuadas.
- Solicita una entrada en Wikipedia si cumples los requisitos. La presencia en Wikipedia aumenta las tasas de cita aproximadamente un 50 % en todos los LLM y domina los datos de entrenamiento de ChatGPT. La notoriedad es el requisito: cúmplelo con prensa de primer nivel, no con menciones en comunicados de prensa.
- Verifica y completa los perfiles de Crunchbase, LinkedIn Company, G2, Trustpilot, Capterra y directorios específicos de tu categoría. Usa la misma descripción de marca, el mismo logo y NAP consistente (nombre, dirección, teléfono) en todos los directorios. Un NAP inconsistente genera confusión en la desambiguación de entidades.
- Establece presencia en Reddit en 2 o 3 subreddits prioritarios. Usa una cuenta real con nombre, publica experiencia genuina en el tema, cita tu propio trabajo solo cuando sea realmente relevante y espera de 2 a 4 semanas de participación comunitaria antes de que aparezca algún beneficio. Las publicaciones promocionales son penalizadas tanto por la moderación de Reddit como por la puntuación de autenticidad de Perplexity.
#5.3 Días 61–90: Medición, atribución e iteración
Semanas 9–10 — Seguimiento de citas y participación de voz.
Elige una plataforma de seguimiento de citas según tu etapa y presupuesto:
- Gratis / DIY: Vuelve a ejecutar las 50 consultas prioritarias semanalmente. Mantén una hoja de cálculo con el estado de las citas, las URLs citadas y el sentimiento. Es tedioso, pero funcional para etapas tempranas.
- PyMEs (29–99 USD/mes): Otterly (nivel de entrada de 29 USD/mes, 6 motores), Citedify, CiteMetrix (79 USD/mes, métrica compuesta ModelScore™, más de 10 motores)[47][48].
- Mercado medio (~99–500 USD/mes): Peec.ai (89 €/mes, ChatGPT/Perplexity/AIO/Claude, API de expansión de prompts)[47], Profound Starter (99 USD/mes), Athena (295 USD/mes por el núcleo + créditos flexibles, 8 LLM, integraciones con Shopify/Webflow/WordPress/GA)[47][49].
- Empresarial (~500–15 000 USD/mes): Profound Enterprise (499 USD–personalizado; análisis más profundos, API REST, SSO/SOC2)[47], Brandlight (4000–15 000 USD/mes)[48], Scrunch AI.
Establece la línea base de participación de voz en la semana 9. Ejecuta semanalmente. Compara con tres competidores nombrados por consulta.
Semana 11 — Atribución en GA4 y CRM.
- Configura GA4 para capturar los referidos de IA como un canal distinto:
chat.openai.com,perplexity.ai,claude.ai,gemini.google.com,copilot.microsoft.com,you.com. Etiqueta cualquier fuente marcada por el usuario con UTM. - Etiqueta los MQL en tu CRM con su fuente de IA de primer contacto. El panel de Outpace muestra que los visitantes de búsqueda por IA convierten a una tasa del 14,2 % frente al 2,8 % del orgánico de Google[11]. La contribución al pipeline justifica el trabajo de instrumentación.
- Para los canales de pago, observa la prima de cita en AIO: las marcas citadas dentro de una descripción general de IA reciben un 91 % más de clics de pago en la misma SERP[14]. Espera que la búsqueda de pago recupere el ROI en los términos donde logres entrar en la cita de AIO.
Semana 12 — Bucle de iteración y ritmo trimestral.
- Crea un ritmo de actualización trimestral en las 20 páginas principales: actualiza estadísticas, refresca citas, avanza
dateModified, agrega nuevas entradas de FAQ y elimina afirmaciones obsoletas. - Establece una línea base mensual de velocidad de contenido: mínimo de 2 a 4 piezas nuevas de formato largo por mes, cada una publicada con schema completo, bloque de FAQ y estructura de pirámide invertida.
- Crea un movimiento continuo de medios ganados: apunta a 1 o 2 menciones de prensa de primer nivel por trimestre y 4 a 6 apariciones en industria o podcasts. El volumen de búsqueda de marca es la palanca de mayor latencia; iníciala en la semana 1 y espera señal entre el mes 4 y el 6.
- Vuelve a establecer la línea base de participación de voz cada trimestre. Haz seguimiento de la cuota de citas por motor, por competidor y por clúster de temas.
#5.4 Aspecto del éxito al día 90
Los equipos que ejecutan la guía anterior con el mínimo de compromisos, según el patrón observado en las auditorías de perea, alcanzan cuatro cifras al día 90:
- Páginas validadas con schema: 100 % de las 50 páginas principales con schema completo (10+ tipos) y cero errores de validación.
- Línea base de participación de voz por citas: Establecida de forma semanal, con al menos un motor que muestre un aumento medible (normalmente Perplexity, dado su ciclo de recrawl de 2–4 semanas).
- Atribución de referidos de IA: Etiquetado en GA4 activo, MQL de fuentes de IA fluyendo hacia el CRM y primeros eventos de pipeline atribuidos a IA capturados.
- Cantidad de activos en compounding: 20+ páginas reescritas en producción, 1+ entrada en Wikidata/Wikipedia publicada, 2+ presencias activas en Reddit, 8+ perfiles de autores de primer nivel vinculados al schema de Person.
Los equipos que hacen concesiones —postergan el trabajo de schema, reducen las reescrituras a 5 páginas, aplazan la instrumentación de seguimiento— ven cómo se rompe la curva de compounding. El ritmo de 90 días importa porque las curvas de frescura de los motores operan en ventanas de 30–90 días. Un equipo que publica entre los días 1 y 60 y luego espera ve cómo el trabajo del primer mes se degrada antes de que comience la medición.
#Parte VI — Medición y herramientas
#6.1 El stack de métricas
Las métricas que importan para GEO operan en tres capas.
Capa 1 — Cuota de citas. Por motor, por consulta, participación de voz. ¿Apareció tu marca en la respuesta? ¿En qué posición? ¿Se citó una URL? ¿Qué URL? ¿Qué sentimiento rodeaba la mención? La cuota de citas es el indicador principal. Profound, Otterly, AthenaHQ, Peec.ai y CiteMetrix miden todo esto; las diferencias radican en la cobertura de motores, el volumen de prompts, la calidad del análisis de sentimiento y el benchmarking de competidores[47][48].
Capa 2 — Tráfico de referencia y calidad de conversión. Sesiones de fuentes de IA en GA4. Tasa de conversión por fuente (espera entre 4.4–14.2× la línea base orgánica)[11][12]. Pipeline por fuente desde el etiquetado en el CRM.
Capa 3 — Conteo de activos compuestos. Páginas validadas por schema, entradas de FAQPage publicadas, entradas de Wikidata/Wikipedia activas, menciones en Reddit y prensa de primer nivel obtenidas, entradas de llms.txt publicadas. Estos son los insumos que producen los resultados de la Capa 1 entre 30 y 90 días después.
El error que cometen los equipos es medir solo la Capa 2 (referidos) y entrar en pánico cuando el volumen es pequeño en los primeros meses. Los referidos de IA en términos absolutos siguen siendo modestos para la mayoría de las marcas B2B a mediados de 2026: un porcentaje de un solo dígito del tráfico total, pero la calidad de conversión significa que incluso volúmenes pequeños generan ingresos desproporcionados. El marco operativo correcto es medir las tres capas y ponderarlas según la latencia: Capa 3 (esta semana), Capa 1 (este mes), Capa 2 (este trimestre).
#6.2 El panorama de plataformas de seguimiento
Cinco plataformas dominan el mercado de seguimiento de citas a mediados de 2026[47][48][49]:
| Plataforma | Precio de entrada | Motores rastreados | Fortalezas | Debilidades |
|---|---|---|---|---|
| Profound | $99 → $499 → custom | 8 (ChatGPT, Perplexity, Gemini, Copilot, Claude, Grok, Meta, DeepSeek) | Análisis empresarial más profundos, REST API, explorador de conversaciones con estimaciones propietarias de volumen de prompts, análisis de fuentes de citas | Acciones de contenido de autoservicio limitadas |
| Peec.ai | €89/mo | 4 (ChatGPT, Perplexity, AIO, Claude) | Análisis competitivo a nivel de prompt; API de fanout de consultas de ChatGPT; panel limpio | Menos motores; menos automatización de optimización |
| AthenaHQ | $295/mo + flexible credits | 8+ | Automatización de GEO, integraciones con Shopify/Webflow/WP/GA, recomendaciones de optimización de contenido, motor de citas ACE | Modelo de plan único; caro en volúmenes bajos |
| Otterly | $29 → $489/mo | 6 (with add-ons) | Nivel accesible para agencias, base de usuarios de más de 20K, seguimiento de citas de enlaces | Sin atribución de bucle cerrado; analíticas básicas |
| CiteMetrix | $79/mo | 10+ (unlimited custom) | Métrica compuesta ModelScore™, 9 herramientas de remediación integradas, detección de alucinaciones, registro de plataformas BYOK | Conjunto de datos de referencia más nuevo y pequeño |
Ninguna de las plataformas cierra el bucle de atribución hasta los ingresos. Todas las herramientas rastrean citas; ninguna las vincula automáticamente a MQLs, SQLs o pipeline. El etiquetado UTM + etiquetado en CRM + atribución manual sigue siendo el estándar de la industria. Los equipos que ganan son los que construyen disciplina de atribución interna junto con la inversión en la plataforma.
Para una SaaS B2B perea-shape con ARR de $1–5M, el stack inicial recomendado es Peec.ai o Athena ($89–295/mo) + GA4 + etiquetado en HubSpot/Salesforce CRM + una ejecución manual trimestral de share of voice en 50 consultas prioritarias. Para una startup por debajo de $1M, funciona el seguimiento DIY de nivel gratuito + una hoja de cálculo compartida. Para empresas con ARR de $25M+, Profound enterprise + Athena para optimización de contenido + un ingeniero de datos interno para conectar todo al data warehouse.
#6.3 Qué deben mostrar los dashboards
El dashboard mínimo para un programa GEO operativo muestra siete paneles:
- Participación de voz por motor, semanal. % de consultas prioritarias que citan tu marca en cada uno de ChatGPT / Perplexity / AIO / Gemini / Claude.
- Participación de voz vs. los 3 principales competidores. Misma vista, lado a lado, por clúster de temas.
- URLs más citadas. ¿Qué páginas tuyas están citando realmente los motores de IA? Ordenar por recuento de citas en los últimos 30 días.
- Sentimiento de las citas. Desglose positivo / neutral / negativo de cómo se describe tu marca en las respuestas de IA.
- Sesiones de referidos de IA en GA4. Tráfico de fuentes de IA a lo largo del tiempo, con superposición de tasa de conversión.
- Pipeline atribuido a IA. MQLs y SQLs etiquetados con primer contacto de IA, segmentados por motor.
- Puntuación de activos compuestos. Métrica interna que rastrea la completitud del schema, la presencia en Wikidata/Wikipedia, la huella en Reddit, la frescura de llms.txt y la cobertura en prensa de primer nivel. Este es el indicador principal.
Un equipo que monitorea los siete semanalmente capta tanto las señales de alerta temprana (la cuota de citas cayendo en Perplexity → verifica si actualizaciones recientes rompieron el schema) como las señales de compounding (se publica una entrada de Wikidata → espera un aumento en las citas de ChatGPT en 8–12 semanas).
#Parte VII — Lo que viene: La capa de descubrimiento de B2A
#7.1 De la búsqueda con IA al procurement agentic
A lo largo de 2026 el caso de uso predominante de GEO es mediado por humanos: una persona le hace una pregunta a ChatGPT o Perplexity, el modelo emite una respuesta con citas, el humano lee la respuesta y hace clic o no. La prima de citación opera en ese bucle.
A lo largo de 2027 un segundo bucle se vuelve fundamental: el procurement agentic. Un agent autónomo — Cursor evaluando un proveedor para un compañero de equipo, un flujo de trabajo interno de LangGraph seleccionando una herramienta, un flujo de compras de OpenAI Agents SDK — lee el mismo grafo de citas y toma acción sin revisión humana. La cita que impulsó un clic en 2026 impulsa una decisión de compra en 2027. El documento B2A Imperative delineó el Foundation Build, Agent Layer y Trust Layer de este stack. El grafo de citas es el sustrato de descubrimiento debajo de los tres.
La implicación es que el trabajo de citas converge con el trabajo de B2A en 2027. Una marca que es invisible en ChatGPT hoy es invisible para el agent autónomo que ChatGPT genera mañana. Una marca cuyos docs son de grado de cita hoy es la marca de la que el agent compra. El MCP Server Playbook describió cómo enviar la superficie del protocol; este documento describe cómo enviar la superficie de descubrimiento que apunta al agent a tu superficie del protocol en primer lugar.
#7.2 Contenido servido por MCP y la convergencia
El Model Context Protocol crea un segundo canal de citas que aún no aparece en ninguna de las plataformas de seguimiento de citas, pero lo hará para mediados de 2027. Cuando un agent se conecta a un MCP server, el servidor puede exponer contenido como resources o como salidas de tool. Estas exposiciones se convierten en citas dentro de la cadena de razonamiento del agent de la misma manera en que una entrada de Wikipedia se convierte en una cita en la respuesta de ChatGPT.
El registro MCP Hive actualmente lista alrededor de 9 400 servers; AI Herald y DigitalApplied estiman que el ecosistema más amplio alcanza unos 19 000 servers a partir del primer trimestre de 2026. De ellos, menos del 5 % expone resources de contenido en absoluto: la mayoría son servers de tool pura. Los equipos que lanzan un MCP server con contenido junto a su sitio web de grado de cita capturan tanto el canal de citas mediado por agents (este documento) como el canal de comercio mediado por agents (el MCP Server Playbook). Ambos se suman al mismo activo de autoridad de marca.
Por lo tanto, la arquitectura de referencia prospectiva es la siguiente:
- Capa de descubrimiento (este documento): contenido de grado de cita + schema + entity graph + llms.txt.
- Capa de protocol (MCP Playbook): MCP server con OAuth 2.1 y tools y resources de contenido bien descritos.
- Capa de confianza (Trust Layer Deep Dive, próximo): mandatos de AP2, recibos firmados, identidad del agent, pistas de auditoría.
- Capa de comercio (Subscription Paradox, próximo): facturación por llamada, settlement x402, precios nativos para agents.
Una marca que lanza las cuatro capas logra un Foundation Build con preparación agentic completa. Una marca que lanza solo la capa de protocol sin la capa de descubrimiento envía un server que ningún agent encuentra. Una marca que lanza solo la capa de descubrimiento sin la capa de protocol capta atención que no puede convertir. Las cuatro capas se potencian entre sí; faltar cualquiera de ellas rompe la cadena.
#7.3 Predicciones y el horizonte 2027
Hacer pronósticos es riesgoso en una categoría tan volátil, pero los datos convergen lo suficiente en algunos horizontes como para comprometerse:
- Los zero-click superan el 75 % para el Q4 de 2027. AIO continúa su expansión hacia consultas comerciales y transaccionales (ya el 33 % de las consultas comerciales en diciembre de 2025[11]). Gemini 3 mejora la calidad de los AI Overviews. El resto del pool de clics se concentra en consultas verdaderamente transaccionales.
- Consolidación del seguimiento de citas. Profound, Athena, Peec, Otterly y CiteMetrix se consolidan en 2 o 3 plataformas para mediados de 2027. Profound probablemente adquiere o se fusiona con Peec; Athena consolida el segmento pyme; CiteMetrix o un nuevo participante se convierte en el estándar predeterminado de métricas compuestas de nivel Wirecutter.
- llms.txt obtiene soporte oficial. Anthropic formaliza el soporte de llms.txt antes de finales de 2026; Perplexity lo sigue. Google es el que más se resiste. La adopción supera el 25 % de los 100 000 dominios principales para el segundo trimestre de 2027.
- Surge el seguimiento de citas MCP. Una nueva categoría de plataformas —seguimiento de citas MCP— emerge para el segundo trimestre de 2027, a medida que las empresas empiezan a preguntar qué resources de sus MCP servers se están citando dentro de las cadenas de razonamiento de los agents. Profound o un nuevo participante lanza la primera solución.
- El volumen de búsqueda de marca se convierte en la palanca dominante. La correlación entre la autoridad de dominio y las citas de IA cayó de r=0,43 a r=0,18 en dos años[15]. Para 2027 la correlación se acerca a r=0,10. El volumen de búsqueda de marca sube a r=0,40 o más. Las marcas con viralidad y medios ganados se potencian más rápido que las marcas que solo cuentan con disciplina de SEO técnico.
- Recibos de cita y menciones verificables. La capa de confianza de B2A empieza a exigir procedencia criptográfica para las citas: prueba de que el modelo citó realmente tu contenido y no alucinó la atribución. Los recibos firmados al estilo AP2 para citas emergen como primitivo. Los primeros borradores de estándares se publican en 2027.
Las marcas que operan como si esta convergencia ya estuviera ocurriendo —perea.ai, Stripe, Anthropic y Vercel del mundo— son las que se potencian durante la transición. Las marcas que esperan a que sea obvio pagarán precio de retail por posiciones de categoría que podrían haber obtenido a precio mayorista.
#Cierre
El documento B2A Imperative argumentó que 2026 es el año en que los fundadores de SaaS lanzan un Foundation Build para la agent economy. El MCP Server Playbook argumentó que la protocol layer es la pieza más subestimada de ese Foundation Build. Este documento cierra el ciclo: la discovery layer que subyace a la protocol layer es el citation graph, y el citation graph se construye una página schema-validated, answer-first, cited-quoted-quantified y entity-graphed a la vez.
Los equipos que ejecutan el playbook de 90 días que aparece en este documento —y lo repiten cada trimestre— construyen el único activo digital que genera intereses compuestos directamente en los model weights. Los modelos que se entrenan con tu citation share en 2026 seguirán citándote en 2030. El ciclo de reentrenamiento de modelos es la ventana de amortización más larga de la infraestructura de marketing moderna, y lleva cinco años operando antes de que la mayoría de las marcas comenzara a medirlo.
Las citations son los nuevos clicks. La citation economy está abierta. La ventana en la que sigue siendo asimétrica —cuando menos del 10 % de los sitios de marketing han publicado llms.txt, menos del 20 % cuentan con schema completo y menos del 5 % tienen entradas en Wikidata— es la ventana que vale la pena atravesar a toda velocidad. Para 2028 estos elementos serán table stakes para todos. En 2026 todavía representan leverage.
Lanza el playbook. Mide el share of voice. Haz que el activo se componga.
— perea.ai Research, May 2026
#Referencias
Este artículo es publicado por perea.ai Research bajo CC BY 4.0. Citar como: Perea, D. (2026). "GEO/AEO 2026: The Citation Economy and the Discovery Layer of B2A." perea.ai Research. https://perea.ai/research/geo-2026.
References
-
Aggarwal, P., Murahari, V., Rajpurohit, T., Kalyan, A., Narasimhan, K., & Deshpande, A. (2024). GEO: Generative Engine Optimization. arXiv:2311.09735. https://arxiv.org/abs/2311.09735 ↩
-
Aggarwal et al. (2024). KDD '24 Proceedings, pp. 5–16. ACM SIGKDD. https://doi.org/10.1145/3637528.3671900 ↩ ↩2 ↩3 ↩4 ↩5 ↩6
-
Ahrefs Q1 2026 SERP study, citado en ThePlanetTools.ai Chrome AI Killing Website Visits: April 2026. https://theplanettools.ai/blog/google-chrome-ai-pushed-harder-killing-direct-website-visits-2026 ↩
-
Ahrefs (Nov 2025), AI Overview Coverage of Informational Queries, citado en CliqNex. ↩
-
Ahrefs estudio longitudinal (Feb 2026), panel de 300,000 consultas. https://cliqnex.com/how-ai-overviews-kill-organic-traffic/ ↩ ↩2 ↩3
-
Pew Research Center (Jul 2025), Google users are less likely to click on links when an AI summary appears in the results, panel de 900 participantes. https://www.pewresearch.org/short-reads/2025/07/22/google-users-are-less-likely-to-click-on-links-when-an-ai-summary-appears-in-the-results/ ↩ ↩2 ↩3
-
Outpace SEO, Zero-click Searches in the Age of AI (Apr 2026). https://outpaceseo.com/article/zero-click-searches-in-the-age-of-ai/ ↩ ↩2 ↩3
-
ICODA, The End of the Click: How Google AI Mode Breaks SEO (Apr 2026). https://icoda.io/ai/google-ai-mode-zero-click-geo-strategy/ ↩ ↩2
-
5W Public Relations (May 2026), AI Platform Citation Source Index 2026. PR Newswire. https://www.prnewswire.com/news-releases/5w-releases-ai-platform-citation-source-index-2026-302759804.html ↩ ↩2 ↩3 ↩4 ↩5 ↩6 ↩7 ↩8
-
Bain Consumer Research (2026), encuesta de comportamiento del consumidor en búsquedas sin clic, citado en ICODA. ↩
-
Outpace SEO panel data, citando Averi.ai, Similarweb y Semrush (Apr 2026). ↩ ↩2 ↩3 ↩4 ↩5 ↩6 ↩7 ↩8
-
Similarweb (June 2025), conjunto de datos de tráfico de referencia de IA, 1.13B visitas de referencia, +357% interanual. ↩ ↩2
-
Seer Interactive, AIO Impact on Google CTR: 2026 Update, 5.47M consultas rastreadas, 2.43B impresiones. https://www.seerinteractive.com/insights/aio-impact-on-google-ctr-2026-update ↩ ↩2
-
Presence AI (Jan 2026), 2026 GEO Benchmarks Report. https://presenceai.app/blog/2026-geo-benchmarks-ai-search-traffic-statistics ↩ ↩2 ↩3
-
ZipTie.dev (Mar 2026), How Different AI Platforms Cite the Same Source Differently. https://ziptie.dev/blog/how-different-ai-platforms-cite-the-same-source-differently/ ↩ ↩2 ↩3 ↩4 ↩5 ↩6 ↩7 ↩8 ↩9 ↩10
-
Growth Marshal (Feb 2026), Schema Markup for AI Citation: What Actually Works, estudio controlado de 730 citas. https://www.growthmarshal.io/field-notes/your-generic-schema-is-useless ↩ ↩2 ↩3 ↩4 ↩5 ↩6
-
Surgeboom, The Impact of Structured Data on AI Citation Rates, panel de 1,500 sitios web. https://surgeboom.com/research/structured-data-ai-citation-impact-study.html ↩ ↩2 ↩3 ↩4 ↩5 ↩6
-
Citedify (Jan 2026), Schema Markup for AI Search: The 5 Types That Actually Get Cited. https://www.citedify.com/blog/ai-search-schema-markup-guide-2026 ↩ ↩2
-
Experimento de 3 páginas de Search Engine Land, resumido en The Digital Bloom 2025 AI Visibility Report. https://thedigitalbloom.com/learn/2025-ai-citation-llm-visibility-report ↩ ↩2 ↩3
-
Authoritas (2025), análisis posicional de citas de Perplexity, citado en Aether AI Answer Engine Optimisation (Mar 2026). https://aether-agency.co.uk/aether-ai/insights/geo-answer-engine-optimisation ↩ ↩2
-
Discovered Labs (Jan 2026), E-E-A-T for AI Overviews: How Google Decides What to Cite. https://discoveredlabs.com/blog/e-e-a-t-for-ai-overviews-how-google-decides-what-to-cite ↩ ↩2 ↩3 ↩4 ↩5 ↩6
-
ResoLLM (Jan 2026), Why AI Cites Wikipedia for Facts and Reddit for Opinions. https://resollm.ai/blog/how-ai-balances-wikipedia-and-reddit/ ↩ ↩2
-
Cited (Feb 2026), How to Build Digital Authority AI Systems Trust & Cite. https://cited.so/blog/how-to-build-digital-authority-that-ai-systems-trust-and-cite ↩
-
AI Search Visibility (Feb 2026), E-E-A-T for AI Search: How AI Systems Evaluate Trust. https://www.aisearchvisibility.ai/learn/eeat-for-ai ↩ ↩2 ↩3
-
The Digital Bloom (Oct 2025), 2025 Organic Traffic Crisis: Zero-Click & AI Impact Report. https://thedigitalbloom.com/learn/2025-organic-traffic-crisis-analysis-report ↩ ↩2 ↩3
-
Divulgaciones de editores del primer trimestre de 2026 (NYT, WaPo, Axios), resumidas en la cobertura de WSJ y Bloomberg; agregadas en ThePlanetTools.ai (Apr 2026). ↩
-
AI Herald (Feb 2026), What Is llms.txt? The Complete Guide, citando datos de registro de Vercel ChatGPT. https://ai-herald.com/what-is-llms-txt-the-complete-guide-to-the-proposed-ai-web-standard/ ↩
-
WeAreCited (Feb 2026), What Makes AI Engines Choose One Source Over Another. https://wearecited.com/what-makes-ai-cite ↩ ↩2 ↩3 ↩4 ↩5
-
Conjunto de datos de investigación Profound (216,000 páginas), resumido en Get Revised AI Search Citation Sources. https://getrevised.com/knowledge/ai-and-geo/ai-search-citation-sources ↩
-
Qwairy (Oct 2025), Query Fan-Out Analysis, 102,018 consultas de IA. https://www.qwairy.co/blog/950k-citations-source-analysis-q3-2025 ↩
-
Hashmeta (Jan 2025), We Analyzed 100,000 ChatGPT Responses to Find What Gets Cited. https://hashmeta.com/insights/ai-search-citation-study ↩
-
SEOJuice, AI-First Search: Optimizing for Perplexity and Google AI. http://seojuice.com/blog/ai-first-search-optimizing-for-perplexity-and-google-ai/ ↩
-
GEO Knowledge Base, AEO Ranking Factors. https://learn.geoalliance.co/aeo-ranking-factors ↩
-
Semrush (2026), estudio de tasa de citas de pares de preguntas y respuestas, citado en Aether AI. ↩
-
Branded by Greenville, AEO Content Template, panel de 200 artículos. https://brandedby.co/article/the-aeo-content-template-write-pages-that-win-answers-and-calls ↩
-
Magna (Jan 2026), Does Schema Markup Improve AI Citations?, estudio controlado de 1,200 páginas. https://usemagna.com/blog/research/schema-ai-citations ↩ ↩2
-
AI Search Visibility, E-E-A-T for AI Search — deriva de correlación de Domain Authority 0.43 → 0.18 (2024 → 2026). ↩
-
Análisis de temporización de Cited, How to Build Digital Authority, curvas de frescura por motor. ↩
-
Howard, J. (Sep 2024), llms.txt proposal, llmstxt.org. ↩
-
BuiltWith (Mar 2026) recuento de adopción de llms.txt, ~844,000 sitios, citado en Unmarkdown. https://unmarkdown.com/blog/what-is-llms-txt-guide-2026 ↩
-
SE Ranking (Q1 2026), estudio de 300,000 dominios sobre llms.txt, 10.13% de adopción, sin correlación medible de citas. Resumido en SearchSignal llms.txt in 2026: What It Does (and Doesn't) Do. https://searchsignal.online/blog/llms-txt-2026 ↩ ↩2
-
Cloudflare (Feb 2026), anuncio Markdown for Agents, reducción de ~80% en tokens. ↩
-
Presenc AI (Apr 2026), State of llms.txt 2026: Adoption, Standards, and Practice. https://presenc.ai/research/state-of-llms-txt-2026 ↩
-
Estudio de Hashmeta, contenido generado por IA con tasa de citas -89% frente al editado por humanos. ↩
-
Google Quality Rater Guidelines (Sep 2025) — orientación ampliada sobre la confiabilidad organizacional, resumida en CiteCompass. https://citecompass.com/knowledge-hub/eeat-trust-signals/ ↩
-
GetCito (Jan 2026), How to Write Content for Answer Engines, panel de 200 implementaciones. https://getcito.com/how-to-write-content-for-answer-engines ↩
-
TryAnalyze (Jan 2026), Profound vs PEEC vs AthenaHQ: Best GEO Tool?. https://www.tryanalyze.ai/blog/profound-vs-peec-vs-athenahq-comparison ↩ ↩2 ↩3 ↩4 ↩5 ↩6
-
Tabla de comparación de la página de destino de CiteMetrix (Q1 2026). https://citemetrix.com/ ↩ ↩2 ↩3 ↩4
-
Prueba de plataforma AthenaHQ vs Profound de 30 días (Jan 2026). https://www.athenahq.ai/articles/athenahq-vs-profound-vs-peec-ai-30-day-geo-platform-test-results/ ↩ ↩2