En mayo de 2024, la comunidad de SEO se reunió en el tan esperado SERP Conf 2024, un evento que destaca por reunir a los más grandes expertos en optimización para motores de búsqueda. Uno de los momentos más destacados del evento fue la presentación de Gary Illyes, analista de tendencias web de Google y una figura clave en el mundo del SEO.

Gary Illyes, conocido por su rol en Google Search Central y su habilidad para desglosar complejos algoritmos de búsqueda en consejos prácticos, ofreció una presentación que dejó a todos los asistentes con nuevas perspectivas y estrategias para enfrentar los desafíos del SEO en 2024. Su enfoque siempre ha sido claro: proporcionar información directa desde el corazón de Google para ayudar a los webmasters y profesionales del SEO a mejorar su visibilidad en los resultados de búsqueda.

Basándome en lo comentado en esta entrevista podemos ver que:

 

Actualizaciones de Algoritmos y su Impacto

Gary Illyes explicó que las actualizaciones de algoritmo de Google están diseñadas para mejorar la calidad de los resultados de búsqueda y combatir prácticas de SEO engañosas, impactando la indexación de páginas y la eficacia de estrategias como el SEO negativo y las redirecciones 301.

 

¿Las actualizaciones de algoritmo pueden afectar la indexación de páginas?

«Desde febrero, hemos observado un incremento en la de-indexación de URLs en algunos sitios debido a un cambio en nuestra percepción de la calidad general del sitio. Si el número de URLs ‘crawled but not indexed’ es muy alto, podría indicar problemas generales de calidad.»

¿Las redirecciones 301 se ven afectadas por las actualizaciones de algoritmo?

«No hemos cambiado cómo tratamos las redirecciones 301, ya que son un estándar confiable de internet. Si algo no está funcionando correctamente con una redirección, generalmente es debido a otros factores, no a un cambio en el algoritmo.»

¿Cómo impactan las actualizaciones de algoritmo en el SEO negativo, como la creación de enlaces spam?

«Las actualizaciones de algoritmo, como Penguin, se han diseñado para reducir el impacto de prácticas de SEO negativo, como la creación de enlaces spam. Nuestra prioridad es deshabilitar una gran cantidad de enlaces irrelevantes y asegurar que solo se necesiten muy pocos enlaces para clasificar las páginas.»

¿Cómo aborda Google el contenido generado por IA tras las actualizaciones de algoritmo recientes?

«No tenemos ningún problema con el contenido generado por IA siempre que la calidad sea alta. El problema surge cuando se publica contenido de baja calidad sin revisión adecuada. Las actualizaciones de algoritmo están diseñadas para mantener altos estándares de calidad.»

¿Qué medidas ha tomado Google contra el ‘parasite SEO’ con las actualizaciones de algoritmo?

«Ya hemos comenzado a implementar acciones contra el ‘parasite SEO’, especialmente con la actualización de febrero. Esto incluye deshabilitar subdominios o subdirectorios alquilados de sitios altamente autorizados que se utilizan para spam.»

 

Contenido de Calidad

Gary Illyes subrayó que Google valora el contenido de alta calidad, y destacó que el contenido generado por IA es aceptable siempre que se revise adecuadamente y mantenga altos estándares de calidad. También mencionó que una percepción negativa de la calidad general del sitio puede llevar a una mayor de-indexación de páginas.

 

¿Cómo afecta la calidad del contenido a su indexación en Google?

«La calidad general del sitio puede influir en cuántas URLs se indexan. Si el número de URLs ‘crawled but not indexed’ es muy alto, podría indicar problemas de calidad general. Desde febrero, hemos visto casos donde decidimos de-indexar una gran cantidad de URLs en un sitio debido a un cambio en nuestra percepción de su calidad.»

¿Cómo maneja Google el contenido generado por IA en términos de calidad?

«No tenemos ningún problema con el contenido generado por IA siempre que la calidad sea alta. El problema surge cuando se publica contenido de baja calidad sin revisión adecuada. Las actualizaciones de algoritmo están diseñadas para mantener altos estándares de calidad.»

¿Qué puede causar que una página sea ‘crawled but not indexed’?

«Una de las razones podría ser la eliminación de duplicados, donde decidimos no indexar una página porque ya hay una versión similar con mejores señales en nuestro índice. Además, la calidad general del sitio puede influir, y un número alto de estas URLs podría indicar problemas de calidad.»

¿Cómo afectan los problemas técnicos a la calidad percibida del contenido?

«Errores técnicos en el sitio, como servir la misma página exacta para cada URL, pueden afectar la calidad percibida y llevar a problemas con la indexación. Desde febrero, hemos observado que errores técnicos pueden influir en nuestra percepción de la calidad del sitio.»

¿Cómo aborda Google el contenido duplicado en términos de calidad?

«El contenido duplicado puede ser una razón para que una página sea ‘crawled but not indexed’. Si encontramos una versión similar de una página con mejores señales, podríamos decidir no indexar la nueva página. La eliminación de duplicados es una práctica común para mantener la calidad del índice.»

 

Experiencia del Usuario

Gary Illyes destacó que la experiencia del usuario es crucial para la indexación y clasificación de sitios web, señalando que problemas de calidad, velocidad de carga y diseño técnico pueden afectar negativamente cómo Google percibe y clasifica un sitio.

 

¿Cómo influye la experiencia del usuario en la indexación y clasificación de sitios web?

«La calidad general del sitio, que incluye la experiencia del usuario, puede influir significativamente en cuántas URLs se indexan. Si el número de URLs ‘crawled but not indexed’ es muy alto, podría indicar problemas de calidad general y una mala experiencia del usuario.»

¿Qué papel juega la velocidad de carga del sitio en la experiencia del usuario según Google?

«Cuando los sitios son lentos, especialmente en sitios que se construyen dinámicamente con JavaScript, puede dar la impresión de que el mismo contenido se está cargando repetidamente, afectando negativamente la experiencia del usuario y la indexación.»

¿Cómo afecta el diseño del sitio web a la percepción de calidad de Google?

«Errores técnicos en el diseño del sitio, como servir la misma página exacta para cada URL, pueden afectar la calidad percibida del sitio y llevar a problemas de indexación. Desde febrero, hemos observado que errores técnicos pueden influir en nuestra percepción de la calidad del sitio.»

¿Qué importancia tiene la accesibilidad y la usabilidad del sitio en la estrategia SEO?

«Mejorar la accesibilidad y usabilidad del sitio, como evitar que los motores de búsqueda rastreen páginas innecesarias mediante parámetros de URL, puede optimizar el presupuesto de rastreo y mejorar la experiencia del usuario.»

¿Cómo maneja Google el contenido no indexado relacionado con la experiencia del usuario?

«La etiqueta ‘crawled but not indexed’ puede reflejar problemas de calidad del sitio que afectan la experiencia del usuario. Google intenta comunicar diferentes problemas a los administradores de sitios a través de Search Console para mejorar tanto la experiencia del usuario como la indexación.»

 

Datos Estructurados

Gary Illyes enfatizó que, aunque los datos estructurados pueden ser útiles para entender el contenido de un sitio, su potencial de manipulación limita su fiabilidad, por lo que Google los considera más como sugerencias que como directivas en su proceso de indexación y clasificación.

 

¿Cuál es la postura de Google respecto al uso de datos estructurados para el «autorship»?

«No hay planes para lanzar algo similar al antiguo sistema de «autorship» de 2011 a 2013, ya que cualquier marcado accesible a los propietarios de sitios puede ser manipulado y no suelen ser señales confiables.»

¿Qué dice Gary sobre la efectividad de los datos estructurados en general?

«En general, los datos estructurados pueden ser útiles, pero también son susceptibles de ser abusados. Por eso, algunas señales como el ‘rel=canonical’ y la ‘meta description’ se consideran más como sugerencias que como directivas.»

¿Cómo maneja Google los datos estructurados mal implementados?

«Hemos visto muchos casos en los que los datos estructurados se implementan incorrectamente, lo que puede afectar negativamente la capacidad de Google para entender y clasificar el contenido correctamente.»

¿Qué opinión tiene Google sobre la posible manipulación de datos estructurados?

«Cualquier marcado accesible a los propietarios de sitios web puede ser manipulado en alguna forma. Por esta razón, confiamos menos en los datos estructurados proporcionados directamente por los propietarios de sitios y más en señales que podamos verificar de manera independiente.»

¿Qué papel juegan los datos estructurados en el contexto de SEO?

«Mientras que los datos estructurados pueden ayudar a Google a entender mejor el contenido, no siempre son señales determinantes debido a su potencial para ser abusados. Google prefiere señales que no puedan ser fácilmente manipuladas.»

 

SEO Técnico

Gary Illyes resaltó que el SEO técnico es fundamental para la correcta indexación y clasificación de un sitio, subrayando la importancia de una implementación adecuada de redirecciones, la gestión de contenido duplicado, la optimización de la velocidad de carga y la administración eficiente del presupuesto de rastreo para sitios grandes.

 

¿Qué importancia tiene la implementación correcta de redirecciones 301?

«Las redirecciones 301 son una señal de internet estándar y muy confiable que indica que una página se ha movido de A a B. Si no están funcionando correctamente, generalmente es debido a otros factores, no a un cambio en el algoritmo.»

¿Cómo afectan los errores técnicos a la indexación y clasificación?

«Errores técnicos en el sitio, como servir la misma página exacta para cada URL, pueden afectar la calidad percibida del sitio y llevar a problemas de indexación. Desde febrero, hemos observado que errores técnicos pueden influir en nuestra percepción de la calidad del sitio.»

¿Qué rol juega la velocidad de carga del sitio en el SEO técnico?

«La velocidad de carga es crucial, especialmente en sitios que se construyen dinámicamente con JavaScript. Un sitio lento puede dar la impresión de que el mismo contenido se está cargando repetidamente, lo que afecta negativamente la experiencia del usuario y la indexación.»

¿Cómo maneja Google los sitios con contenido duplicado?

«El contenido duplicado puede ser una razón para que una página sea ‘crawled but not indexed’. Si encontramos una versión similar de una página con mejores señales, podríamos decidir no indexar la nueva página. La eliminación de duplicados es una práctica común para mantener la calidad del índice.»

¿Cuál es la importancia del presupuesto de rastreo para sitios grandes?

«Para sitios muy grandes, como aquellos con más de 10 millones de páginas, es crucial gestionar el presupuesto de rastreo para evitar que los motores de búsqueda pierdan tiempo rastreando páginas innecesarias. Esto se puede hacer optimizando la estructura del sitio y utilizando técnicas como el uso de AJAX para cambiar el contenido sin afectar las URL.»

 

301

Gary Illyes aclaró que las redirecciones 301 son una señal de internet estándar y confiable que indica el movimiento permanente de una página, y que no han cambiado la forma en que Google las interpreta. Los problemas con las redirecciones suelen deberse a errores de configuración en el sitio más que a cambios en los algoritmos de Google.

 

¿Cuál es la postura de Google respecto a las redirecciones 301?

«Las redirecciones 301 son una señal de internet estándar y muy confiable que indica que una página se ha movido de A a B. Si no están funcionando correctamente, generalmente es debido a otros factores, no a un cambio en el algoritmo.»

¿Las actualizaciones de algoritmo pueden afectar las redirecciones 301?

«No hemos cambiado cómo tratamos las redirecciones 301, ya que son un estándar confiable de internet. Si algo no está funcionando correctamente con una redirección, lo más probable es que haya otros factores involucrados, como un error en la migración.»

¿Qué problemas pueden surgir con las redirecciones 301?

«Si hay problemas con una migración de dominio o una redirección, generalmente es porque se ha cometido un error, como dejar accidentalmente un ‘no index’ activo. Cuando algo falla en nuestras propias algoritmos respecto a las redirecciones 301, recibimos una cantidad significativa de quejas.»

¿Qué señales utiliza Google para manejar las redirecciones 301?

«Las redirecciones 301 son una señal muy fiable que nos dice que una página se ha movido permanentemente. No hay cambios en cómo interpretamos esta señal, ya que es un estándar que existía mucho antes de que Google naciera.»

¿Cómo maneja Google los errores en las redirecciones 301?

«Si algo falla con una redirección 301, investigamos para encontrar el problema. La mayoría de las veces, los problemas se deben a errores de configuración en el sitio, no a cambios en nuestros algoritmos. Nos aseguraríamos de comunicar cualquier cambio significativo en el tratamiento de estas señales.»

 

JavaScript

Gary Illyes indicó que la indexación de sitios pesados en JavaScript es una tarea prácticamente completada gracias al uso de Chromium, aunque los sitios deben estar bien optimizados y pre-renderizados para evitar problemas de carga lenta y contenido repetido que puedan afectar la indexación.

 

¿Cómo maneja Google la indexación de sitios web pesados en JavaScript?

«La indexación de sitios pesados en JavaScript se considera una tarea prácticamente completada desde que cambiamos al uso de la versión estable de Chromium para el renderizado. No estamos invirtiendo activamente en mejorar la indexación de sitios pesados en JavaScript porque consideramos que el trabajo ya está hecho.»

¿Qué problemas pueden surgir con los sitios que dependen mucho de JavaScript?

«Los sitios que construyen páginas sobre la marcha con JavaScript pueden enfrentar problemas si el contenido no se carga lo suficientemente rápido. Esto puede hacer que Google vea el mismo contenido repetido, afectando negativamente la indexación.»

¿Qué soluciones recomienda Google para problemas de indexación con JavaScript?

«Para evitar que Google gaste tiempo rastreando múltiples versiones de la misma página debido a parámetros de URL, se recomienda utilizar técnicas como AJAX para cambiar el contenido sin afectar las URL. También es útil asegurarse de que los sitios JavaScript estén bien pre-renderizados.»

¿Qué papel juega Chromium en el renderizado de páginas JavaScript?

«El renderizado de páginas JavaScript ahora se maneja principalmente a través de Chromium, lo que nos permite procesar JavaScript de manera efectiva. Desde que hicimos este cambio, no hemos necesitado hacer muchas modificaciones adicionales.»

¿Existen problemas comunes con la indexación de sitios pesados en JavaScript?

«Uno de los problemas comunes es cuando los sitios no están pre-renderizados y Google llega cuando el sitio está lento, lo que puede hacer que vea el mismo contenido repetidamente. Es crucial que los sitios JavaScript estén optimizados para asegurar una buena velocidad de carga y correcta indexación.»

 

IA

Gary Illyes aclaró que Google no tiene problemas con el contenido generado por IA siempre que se mantengan altos estándares de calidad y se revise adecuadamente. La calidad del contenido es crucial para su clasificación, y una etiqueta específica para el contenido generado por IA no sería particularmente útil.

 

¿Cuál es la postura de Google sobre el contenido generado por IA?

«No tenemos ningún problema con el contenido generado por IA siempre que la calidad sea alta. El problema surge cuando se publica contenido de baja calidad sin revisión adecuada.»

¿Google planea implementar una etiqueta para contenido generado por IA?

«No creo que una etiqueta ayudaría mucho. Si la calidad de las páginas subyacentes es alta y ha sido revisada por expertos, no vemos un problema con el contenido generado por IA. Hemos tenido contenido generado por máquinas en sitios deportivos y financieros durante mucho tiempo, y funciona bien si se revisa adecuadamente.»

¿Cómo afecta la calidad del contenido generado por IA a su clasificación?

«El contenido generado por IA necesita ser revisado por editores o expertos para asegurar su calidad. Si el contenido es de alta calidad, no debería haber problemas con su clasificación. La calidad del contenido es lo que realmente importa.»

¿Qué problemas pueden surgir con el contenido generado por IA?

«El principal problema es la falta de revisión adecuada, lo que puede llevar a la publicación de contenido incorrecto o peligroso. Hay ejemplos de libros y recetas generadas por IA que incluían información incorrecta y potencialmente peligrosa.»

¿Cómo maneja Google el contenido generado por IA en comparación con el contenido tradicional?

«Tratamos el contenido generado por IA de la misma manera que el contenido tradicional, siempre y cuando cumpla con nuestros estándares de calidad. La clave es asegurarse de que el contenido sea preciso y útil para los usuarios.»

 

Crawled e indexación 

Gary Illyes explicó que las páginas ‘crawled but not indexed’ pueden ser el resultado de la eliminación de duplicados o problemas de calidad general del sitio, y enfatizó la importancia de una configuración técnica adecuada para asegurar una correcta indexación.

 

¿Qué significa cuando una página es ‘crawled but not indexed’?

«Una de las razones podría ser la eliminación de duplicados, donde decidimos no indexar una página porque ya hay una versión similar con mejores señales en nuestro índice. La categoría ‘crawled but not indexed’ puede significar varias cosas, y una de ellas es que hemos encontrado una versión muy similar del contenido que ya tiene mejores señales.»

¿Cómo afecta la calidad general del sitio a la indexación?

«La calidad general del sitio puede influir significativamente en cuántas URLs se indexan. Si el número de URLs ‘crawled but not indexed’ es muy alto, podría indicar problemas de calidad general. Desde febrero, hemos visto casos donde decidimos de-indexar una gran cantidad de URLs en un sitio debido a un cambio en nuestra percepción de su calidad.»

¿Qué problemas técnicos pueden afectar la indexación de páginas?

«Errores técnicos en el sitio, como servir la misma página exacta para cada URL, pueden afectar la calidad percibida del sitio y llevar a problemas de indexación. También puede ocurrir que una página se ‘crawlée’ pero no se indexe debido a problemas técnicos específicos del sitio.»

¿Cómo se decide qué contenido se indexa y cuál no?

«Idealmente, dividiríamos la categoría ‘crawled but not indexed’ en fragmentos más detallados, pero es difícil debido a cómo existen los datos internamente. Sin embargo, una de las razones más comunes es la eliminación de duplicados, donde decidimos no indexar una página porque ya hay una versión similar con mejores señales en nuestro índice.»

¿Qué impacto tienen los errores de configuración en la indexación?

«Los errores de configuración en el sitio pueden llevar a que se sirva la misma página para diferentes URLs, lo que puede resultar en un alto número de páginas ‘crawled but not indexed’. Asegurarse de que el sitio esté bien configurado es crucial para evitar estos problemas.»

 

Resumen

Es importante destacar cómo las insights compartidas por Gary Illyes en la SERP Conf 2024 ofrecen una guía valiosa para cualquier profesional del SEO. La calidad del contenido sigue siendo un pilar fundamental, con un énfasis particular en la revisión y supervisión del contenido generado por IA para asegurar su utilidad y precisión. Las redirecciones 301 permanecen como una herramienta esencial y confiable, siempre y cuando se implementen correctamente y se eviten errores técnicos que puedan afectar su efectividad.

Además, la optimización técnica de los sitios web, especialmente aquellos con gran cantidad de páginas o dependientes de JavaScript, es crucial para una indexación eficiente. La gestión adecuada del presupuesto de rastreo en sitios grandes puede marcar la diferencia en cómo Google percibe y clasifica el contenido. En última instancia, las recomendaciones de Illyes subrayan la necesidad de mantener altos estándares de calidad y estar atentos a los detalles técnicos, lo que permitirá a los sitios web no solo sobrevivir, sino prosperar en un panorama de búsqueda en constante evolución.