Revelado el Algoritmo de Google: Todos los Secretos al Descubierto

Revelado el Algoritmo de Google: Todos los Secretos al Descubierto

Recientemente, una filtración de documentos confidenciales de la API de búsqueda de Google ha sacudido el mundo del SEO (Optimización para Motores de Búsqueda). Rand Fishkin, conocido experto del sector, recibió miles de documentos de una fuente anónima que luego se reveló como Erfan Azimi. Estos documentos, publicados en GitHub entre marzo y mayo de 2024, ofrecen una visión inédita de las actividades internas de Google. Con la ayuda de ex empleados de Google y del experto en SEO Mike King, la autenticidad de los documentos ha sido confirmada. Veamos juntos lo que ha emergido de esta filtración de información.

Una captura de pantalla de la llamada de Rand con la fuente anónima como se ve en la imagen, Revelando el Algoritmo de Google 2024
Una captura de pantalla de la llamada de Rand con la fuente anónima como se ve en la imagen

Para verificar la autenticidad de los documentos, Rand Fishkin consultó a ex empleados de Google que reconocieron el formato, el estilo de anotación y los estándares internos de documentación utilizados por Google. También Mike King, un experto en SEO técnico, confirmó que los documentos parecen provenir directamente de la división de Búsqueda de Google. Esta doble verificación ha reforzado la credibilidad de los documentos filtrados.

Los documentos de la API de búsqueda de Google sirven como un catálogo para los miembros del equipo del motor de búsqueda, delineando los elementos de datos disponibles y las formas de acceder a ellos. A diferencia de un catálogo público, el funcionamiento interno de la búsqueda de Google es altamente confidencial, lo que hace que esta filtración de información sea extremadamente significativa por su alcance y nivel de detalle.

Uno de los aspectos más relevantes que emergieron de los documentos es el uso de funcionalidades como “goodClicks”, “badClicks” y “lastLongestClicks”. Estos términos indican que Google rastrea y utiliza el comportamiento de los clics de los usuarios para determinar los rankings de búsqueda. Esto confirma las declaraciones del vicepresidente de búsqueda de Google, Pandu Nayak, quien en el caso DOJ habló del papel de “navboost” en los resultados de búsqueda. En esencia, Google evalúa los clics para comprender mejor las preferencias de los usuarios y mejorar la relevancia de los resultados de búsqueda.

La filtración de información revela que Google utiliza los datos de clics de los navegadores Chrome para determinar las páginas más populares de un sitio web. Esto tiene un impacto significativo en funcionalidades como los sitelinks, que son los enlaces adicionales mostrados bajo algunos resultados de búsqueda. Los datos recogidos de los clickstream ayudan a Google a identificar las páginas más relevantes y útiles para los usuarios, influyendo así en el posicionamiento en los resultados de búsqueda.

Los documentos filtrados indican que Google utiliza listas blancas para determinados sectores y temas, como viajes, Covid-19 y política. Esto sugiere que Google interviene manualmente en los resultados de búsqueda para temas potencialmente controvertidos o problemáticos. Las listas blancas ayudan a Google a garantizar que la información mostrada sea precisa y confiable, especialmente en sectores sensibles.

Otro aspecto interesante es el uso del feedback de la plataforma de evaluación de calidad de Google, EWOK. Los documentos revelan que el feedback de los evaluadores de calidad se utiliza directamente en los sistemas de búsqueda de Google. Esto significa que las evaluaciones humanas juegan un papel importante en los rankings de búsqueda, influyendo en qué páginas se consideran de alta calidad y merecedoras de un buen posicionamiento.

Captura de pantalla de los datos filtrados sobre los clics de Google con algoritmo 2024

La filtración de información sugiere que Google utiliza los datos de clics para determinar cómo ponderar los enlaces en las clasificaciones. Los documentos indican que Google clasifica los índices de enlaces en función de la calidad, utilizando los datos de clics para determinar en qué nivel se encuentra un documento. Los enlaces de índices de alta calidad tienen más probabilidades de transmitir señales de ranking, mientras que los de baja calidad son ignorados. Este sistema ayuda a Google a mejorar la relevancia y la fiabilidad de los resultados de búsqueda.

Las filtraciones de información subrayan la importancia de crear una marca fuerte. Las señales de experiencia, competencia, autoridad y confiabilidad (E-E-A-T) son fundamentales, pero los datos sobre la intención del usuario, recogidos a través de los patrones de clics, parecen jugar un papel igualmente significativo. Esto implica que los profesionales del marketing deben concentrarse no solo en la calidad del contenido, sino también en la interacción de los usuarios con sus sitios.

El autor del artículo insta a una mayor atención por parte del sector SEO al reportar las declaraciones de Google. Las discrepancias entre las declaraciones públicas y las prácticas sugeridas por las filtraciones de información resaltan la necesidad de un enfoque más crítico. Es importante que los profesionales del marketing sean conscientes de las verdaderas modalidades operativas de Google y no se confíen exclusivamente en las declaraciones oficiales.

La transparencia en el modo en que opera Google es crucial, dada su influencia en la difusión de la información. Las filtraciones de información ofrecen una oportunidad para reflexionar sobre la importancia de una mayor transparencia y claridad en las prácticas de Google. Esto no solo ayudaría a los profesionales del marketing a comprender mejor las dinámicas del ranking, sino que también aumentaría la confianza de los usuarios en los resultados de búsqueda.

Punto destacado Descripción
Fuga de información de la API de Google Search Un informante anónimo compartió con Rand Fishkin, autor del artículo y fundador de SparkToro, más de 2.500 páginas de documentación de la API que parecen provenir del “Content API Warehouse” interno de Google. La fuente afirma que estos documentos filtrados han sido confirmados como auténticos por ex empleados de Google.
Afirmaciones extraordinarias La fuente anónima hace varias afirmaciones extraordinarias, incluyendo que Google ha reconocido la necesidad de datos clickstream completos para mejorar la calidad de los resultados de su motor de búsqueda, que un sistema llamado “NavBoost” utiliza los datos clickstream para mejorar la relevancia de la búsqueda y que Google utiliza el historial de cookies, los datos de Chrome de los usuarios registrados y la detección de patrones para combatir el spam de clics.
Autenticación de la fuga de información Para verificar la autenticidad de la fuga de información, Fishkin contactó a ex empleados de Google y al experto en SEO Mike King, quienes confirmaron que los documentos parecen auténticos y contienen información previamente no confirmada sobre el funcionamiento interno de Google.
El Content API Warehouse de Google Se cree que la fuga de información proviene de GitHub, donde se hizo pública por error durante un breve período entre marzo y mayo de 2024. Se dice que la documentación de la API explica varios atributos y módulos de la API para ayudar a familiarizar a quienes trabajan en un proyecto con los elementos de datos disponibles.
NavBoost y el uso de datos de clics Varios módulos en la documentación se refieren a características como “goodClicks”, “badClicks”, “lastLongestClicks”, impresiones y clics comprimidos, no comprimidos y unicorn, todos relacionados con NavBoost, un sistema que Google utiliza para mejorar la relevancia de la búsqueda.
Uso de los clickstreams del navegador Chrome Los documentos de la API sugieren que Google calcula varios tipos de métricas que pueden ser consultadas utilizando las vistas de Chrome relacionadas tanto con páginas individuales como con dominios completos.
Listas blancas en viajes, Covid y política Un módulo sobre “sitios de viajes de buena calidad” sugiere la existencia de una lista blanca en Google en el sector de viajes. Referencias a flags como “isCovidLocalAuthority” e “isElectionAuthority” sugieren que Google coloca en la lista blanca ciertos dominios apropiados para mostrar en consultas potencialmente problemáticas.
Uso de los comentarios de los Quality Rater Los documentos proporcionan pruebas de que Google utiliza elementos de su programa de evaluación de calidad, EWOK, en sus sistemas de búsqueda. Aunque no está claro cuán influyentes son estas señales basadas en evaluadores, esto indica que las evaluaciones humanas de los sitios web son importantes para Google.
Google utiliza datos de clics para determinar cómo ponderar los enlaces en los rankings La fuente anónima afirma que Google utiliza los datos de clics para determinar en cuál de sus tres niveles de índice de enlaces (baja, media y alta calidad) pertenece un documento. Los enlaces provenientes del índice de enlaces de baja calidad no dañarán la clasificación de un sitio; simplemente se ignoran.
Consideraciones generales para los expertos en marketing El artículo concluye que la marca es el factor de clasificación más importante en Google, que los factores de clasificación clásicos como PageRank y el texto de anclaje están disminuyendo en importancia, que los títulos de las páginas siguen siendo bastante importantes y que el SEO probablemente es menos eficaz para las pequeñas y medianas empresas en comparación con el pasado.

Las recientes filtraciones de la API de búsqueda de Google han ofrecido una visión única y detallada sobre las actividades internas del motor de búsqueda más utilizado del mundo. Desde los comportamientos de los clics hasta la ponderación de los enlaces, pasando por el uso de los clickstream del navegador Chrome y las listas blancas, estas revelaciones tienen implicaciones significativas para el sector SEO. Es evidente que Google recoge y utiliza una amplia gama de datos para mejorar la relevancia y la calidad de los resultados de búsqueda. Para los profesionales del marketing, esto significa que es esencial comprender no solo los principios teóricos del SEO, sino también las prácticas reales que Google utiliza para determinar los rankings.

En un mundo donde la visibilidad online es crucial, conocer los secretos del funcionamiento de Google puede marcar la diferencia entre el éxito y el fracaso. Las revelaciones de Rand Fishkin y la confirmación de la autenticidad de los documentos por parte de expertos del sector subrayan la importancia de mantenerse actualizado y adaptarse constantemente a la nueva información. La transparencia y la claridad en las prácticas de Google no solo ayudarían a los profesionales del marketing, sino que también aumentarían la confianza de los usuarios en los resultados de búsqueda.

Preguntas Frecuentes

1. ¿Qué se debe hacer a partir de ahora con el SEO?

A la luz de las recientes revelaciones, es importante que los profesionales del SEO se centren más en la creación de contenido de alta calidad y en la interacción de los usuarios con sus sitios. Parece que Google está dando cada vez más peso a las señales de comportamiento de los usuarios, como los clics y las visualizaciones, por lo que asegurarse de que el sitio ofrezca una experiencia de usuario positiva se vuelve crucial. Además, construir una marca fuerte y confiable es esencial, ya que las señales de autoridad y confianza pueden influir significativamente en el posicionamiento en los resultados de búsqueda.

2. ¿Tienes algún consejo basado en lo que acaba de suceder con la filtración del algoritmo?

Sí, es fundamental adoptar un enfoque más crítico hacia las declaraciones oficiales de Google. Las discrepancias entre las prácticas internas reveladas y las comunicaciones públicas de Google sugieren que los profesionales del SEO deben basar sus estrategias no solo en las directrices oficiales, sino también en análisis profundos y datos empíricos. Invertir en herramientas de monitoreo del comportamiento de los usuarios y probar continuamente nuevas técnicas puede ayudar a mantenerse al día con las evoluciones del algoritmo de Google y a mantener una posición competitiva en los resultados de búsqueda.

3. ¿Podemos seguir haciendo el SEO de siempre a partir de ahora?

No, no podemos seguir haciendo el SEO de siempre sin adaptarnos a la nueva información revelada. Aunque los principios fundamentales del SEO, como la creación de contenido de calidad y la optimización técnica del sitio, siguen siendo válidos, es evidente que Google está evolucionando su algoritmo para dar mayor importancia a las señales de interacción de los usuarios y a los datos de clickstream. Por lo tanto, es necesario actualizar las estrategias de SEO para incluir estas nuevas consideraciones, centrándose en cómo los usuarios interactúan con el sitio y cómo estos comportamientos pueden influir en el posicionamiento.