Hay quienes creen que Google es el buscador en el que pueden encontrar todo lo que se les ocurra preguntar, pero esto ¿en realidad es cierto? Pues, la verdad es que sí, no hay duda de que cuando se trata de buscar información no existe en Internet quien le gane a Google , ya que es el buscador donde se realiza el 90 por ciento de las consultas que se hacen en Internet.
Y es que este buscador además de ser el más competido cuando de posicionamiento web se trata, también es el que mejor utiliza sus algoritmos avanzados con el fin de brindar una excelente respuesta a sus usuarios cuando estos realizan una consulta. Tomando en cuenta lo anterior no queda más que conocer las últimas actualizaciones hechas por Google en sus algoritmos, pero antes vamos a ver qué es el algoritmo de Google y cómo funciona. ¡No dejes de leer!
Cuando hablamos de los algoritmos de Google nos referimos a aquellos motores que fijan los resultados a los que puedes acceder por cada consulta realizada. Estos se encargan de filtrar el contenido que está en la web, así como revisar páginas que destacan por su relevancia, pero, sobre todo por su calidad, esto con el fin de proporcionar los resultados más destacados según la consulta realizada.
Quienes conocen de SEO sostienen que deben existir al menos 200 señales de calificación que son utilizadas por Google al momento de dar resultados, las cuales se basan en la verificación de palabras clave, el historial del dominio, la usabilidad del sitio, entre otros. Por tal razón, si queremos que nuestro contenido sea encontrado debemos ser conscientes de cómo trabaja el algoritmo de Google y de que si no optimizamos nuestro SEO on-page, SEO off-page y SEO técnico, será más difícil que los navegantes de la web ubiquen nuestro contenido.
Google constantemente realiza actualizaciones con el fin de hacer más óptimos sus motores de búsqueda. A continuación las más recientes y con mayor impacto en el algoritmo de Google.
Como ya sabes cada año Google actualiza su algoritmo y estos pequeños cambios, de forma general, la clasificación orgánica de los diferentes sitios web. Durante el año 2020, entre enero y diciembre, Google lanzó tres actualizaciones principales, Core update. La actualización realizada en enero, según información suministrada por Google, no estaba dirigida a ningún sitio en específico. Los cambios realizados solo tenían como fin mejorar los sistemas de evaluación de los contenidos. Sin embargo, varios portales relacionados con mascotas, entre otros, reportaron caídas en sus posicionamientos.
Por su parte, la actualización hecha en mayo de 2020 sí tuvo un mayor y las categorías que resultaron impactadas fueron las relacionadas con viajes, bienes raíces, salud, mascota y animales, así como portales centrados en personas y sociedad.
En fin, como ya ves, estas actualizaciones tienen como objetivo principal optimizar todas las actividades de análisis, indexación y posicionamiento que realiza el motor de búsqueda con la finalidad de dar al usuario y más respuestas efectivas. Cada una se ha encargado de mejorar el análisis de los contenidos, así como la inteligencia artificial del algoritmo. Es decir, lo que busca es hacer que el algoritmo entienda mejor la intensión de búsqueda a nivel semántico para favorecer las webs que brindan a los usuarios contenidos de calidad.
A finales del año 2019 Google sorprendió con una nueva actualización, Neural Matching o emparejamiento neuronal (como se denomina en español), cuya finalidad es utilizar la inteligencia artificial de Google para dar con resultados más variados.
Neural Matching fue utilizado por Google para “mejorar conexiones entre palabras y conceptos”, según lo dicho por el tecnólogo Daniel Sullivan. Es decir, este algoritmo se encargaba de rastrear las consultas hechas por los usuarios a nivel local, aun cuando al momento de la búsqueda no se señalara el nombre o descripción exacta de lo que se quiere encontrar. Esto se logra gracias a que Neural Matching se centra en palabras y conceptos que consideran que pueden estar relacionados.
Es decir, el sistema de inteligencia artificial desarrollado por Google mediante conexiones neurales, se encarga de asociar términos de relevancia de contenidos con los términos utilizados por los usuarios para realizar sus búsquedas. Ahora bien, ¿cómo lo logra? Bueno, mediante la concordancia neural creada por el propio algoritmo.
Lo que primero hace el algoritmo es tratar de entender el significado y el contexto de las palabras claves. Luego, se apoya en la inteligencia artificial para la recuperación de la coincidencia neural, por supuesto, tomando en cuenta para ello la relevancia.
En marzo de 2018, Google informó sobre su nueva actualización denominada Medical Update, que principalmente afectó las webs relacionadas con temáticas de salud y finanzas o las llamadas por Google YMYL (“Your Money or Your Life”). Pasa que una vez que se realizó la actualización, la visibilidad de las páginas de temáticas ya mencionadas, sobre todo de las que estaban relacionadas con temas médicos, resultaron afectados en hasta un 50 por ciento.
Con esta actualización Google comenzó una lucha contra esas webs que daban recomendaciones sobre salud, alimentación, etc., pues no consideradas profesionales, debido a que no contaban con el respaldo de profesionales del sector salud. También resultó ser una excelente alternativa a la hora de luchar contra webs cuya temática era el dinero o los créditos.
Google Fred surgió en 2017 con el objetivo de penalizar a aquellas webs con contenido de baja calidad, pero que aun así obtuvieron beneficios económicos a través de plataformas diferentes a Google Ads. Es decir, todas aquellas páginas que obtenían publicidad sin, a cambio, ofrecer contenido adaptado y de calidad vieron como perdían posicionamiento, debido a Google Fred.
Esta actualización a Google quitar de las primeras posiciones a los sitios que reciben enlaces de mala calidad ya aquellos que hacen un uso inadecuado de enlaces de afiliación o publicidad. Google Fred penaliza, evitando la navegabilidad, a aquellas páginas que muestran publicidad excesiva, que publican artículos y contenidos que estaban redactados sin aportar nada al usuario, pero que tenían como única finalidad posicionar palabras, ya las que no han hecho las actualizaciones de diseño para el formato de dispositivos móviles.
Se trata de un sistema de inteligencia artificial que divide en un antes y después la utilización de algoritmos por parte de Google al momento de dar mayor visibilidad o no a un dominio. Google se apoya en este para interpretar las palabras y frases hechas en cada consulta a fin de conocer la intención del usuario, lo que significó, en su momento, una nueva manera de clasificar los resultados.
Rankbrain utiliza la inteligencia artificial para dar respuesta a las diferentes preguntas que se plantean. Se trata de un sistema que utiliza un lenguaje que puede ser procesado por el motor de búsqueda. Además usa la búsqueda semántica, lo que le permite asociar palabras desconocidas semánticamente con entidades lingüísticas conocidas.
Ahora bien, este sistema de aprendizaje no es nuevo, puesto que otras actualizaciones, específicamente la de Panda 2011, detectaban si las webs subían contenido de calidad o no. La diferencia es que RankBrain no solo tiene un aprendizaje automático, sino que también tiene un aprendizaje más profundo, lo que le permite relacionar conceptos ambiguos.
Es decir, si utilizas términos ambiguos o coloquiales, el algoritmo igualmente será capaz de proporcionar las respuestas que los usuarios están buscando.
El algoritmo Mobile first index, anunciado por Google en 2016 , hizo que la visualización de la web en el móvil se convirtiera en lo más importante, pues desde 2016 las búsquedas a través de los móviles lideran Internet.
Fue de esta manera que Google consiguió transformar la forma de navegar por la web, ya que a partir de la actualización del algoritmo y tomando en cuenta el nuevo comportamiento de búsqueda de los usuarios, las páginas web se tuvieron que adaptar a fin de optimizar la navegabilidad desde un teléfono móvil.
Lo que hace el buscador es tomar en cuenta aspectos como el tamaño del texto, la dimensión de los botones y los enlaces, que estén bien diferenciados, así como verificar que las imágenes no rompan el formato establecido en la web, para verificar si la navegabilidad a través del móvil se puede realizar sin inconvenientes. Este algoritmo se encarga de rastrear y luego de indexar todo lo de la versión móvil. Por esta razón, si la indexación móvil difiere del ordenador de sobremesa, el posicionamiento web se podría ver perjudicado.
Mobile-friendly es un algoritmo que surgió en 2015 para centrarse en las webs que se adaptan a los distintos modelos de teléfonos móviles. Google anunció que Mobile-friendly solo admitiría a aquellas web que se ajustaran tanto a la pantalla de los ordenadores de mesa, como a la de las tablets y teléfonos móviles.
Si bien en 2015 esto era un problema, pues no todos los themes (conjunto de archivos que le dan la apariencia al sitio web) se adaptaban a los móviles, con el pasar del tiempo eso cambió y ahora todos usan mobile-friendly, pues este fue diseñado para funcionar en los diferentes dispositivos móviles.
La capacidad de mobile-friendly de adaptarse a cualquier teléfono móvil, hoy en día, se traduce en que se puede acceder a la información web sin importar si se trata de un ordenador o un dispositivo móvil. Esta propuesta con el tiempo se convirtió en algo fundamental, ya que hoy en día al menos el 70 por ciento de las visualizaciones de las webs se realizan a través de teléfonos móviles.
Con la actualización del algoritmo Pirate 1.0, que salió en 2012, Google en 2014 comenzó a afectar las webs de descarga de contenido pirata utilizando para ello la versión Pirate 2.0. De esta manera webs y portales en los que se pueden hacer descargas de películas, libros, música y juegos de forma legal, resultaron beneficiadas.
Pese a que no esta actualización no generó tanto revuelo, como tal vez se hubiera esperado, lo que sí se funcione y se sigue viendo es que suele ser difícil poner anuncios de Google Adsense en páginas de descargas, lo que denota que si estas webs no son legales, entonces son penalizadas.
Por tal razón, difícilmente encontraremos en los primeros lugares resultados que combinen las palabras claves “descarga gratuita”.
Si bien Google Pigeon es un algoritmo poco conocido por muchos webmasters y agencias de SEO, debido a que su única función es regular las búsquedas locales, el anuncio e implementación de un nuevo sistema de inteligencia artificial llevó a que muchos se enterarán de los beneficios de este. Resulta que este algoritmo es capaz de favorecer a aquellas webs que siguen una correcta estrategia de posicionamiento SEO, así como mostrar más resultados locales en las primeras posiciones.
Además, otra cosa que resalta de este algoritmo es que los enlaces locales salieron más beneficiados que los enlaces generales. El diseño de este algoritmo va dirigido, principalmente, a mejorar la experiencia de los usuarios al momento de realizar búsquedas locales y, de esta manera, proporcionar resultados útiles.
Por supuesto, el algoritmo hace que los negocios locales tengan que ocuparse del SEO local para poder seguir apareciendo en los primeros puestos. Además, tendrán que prestar mayor atención a Google Maps, Google Places y Google+ , donde sus datos deberán estar actualizados.
En 2014, Google anunció que las webs deberían pasar de http a https. Si bien esto, en principio, no fue visto como un problema, luego, la comunidad online, se dio cuenta que este factor sería determinante al momento de que Google clasificara y mostrara las webs, pues dependía del cifrado que tuviesen.
Resulta que el protocolo https o certificado SSL tiene como finalidad codificar la sesión de usuario en nuestra web. Pasa que esa es la manera que Google tiene de garantizar que se dé el intercambio de información entre el usuario en la web sin que tal información sea interceptada por terceros. Los cambios en Google con el fin de resguardar los datos personales de los usuarios, también llevaron a que se realizaran cambios en las SERPs, pues las webs que utilizaban este algoritmo mejoraban el SEO y, por ende, su posicionamiento.
El otro factor que motivó el cambio fue que muchas webs fueron clonadas y sus contenidos duplicados, entonces Google interpretó estas webs como diferentes, pero con el mismo contenido, lo que generaba grandes problemas cuando de visibilidad se trata.
Hummingbird es un algoritmo que en 2013, cuando Google anunció la nueva actualización, dio muchísimo de que hablar entre los expertos en SEOs y, además, afectó a más del 90 por ciento de las webs mundiales, se encarga de interpretar la semántica de las búsquedas que realizamos. Lo que, sin duda, lo convierte en uno de los algoritmos más importantes.
Este algoritmo debe su nombre (Hummingbird) al hecho de que Google lo considera uno de los más rápidos y precisos en cuanto a resultados de búsquedas complejas se refiere. Resulta que gracias a Hummingbird las preguntas que realizamos en el motor de búsquedas tienen respuestas más óptimas. El nuevo algoritmo permite que podamos realizar preguntas más completas mediante voz y que estas sean procesadas de manera más efectivas, cuestión de que le ha costado varios años a Google lograr.
Antes de Hummingbird, Google solo comprendía palabras y sus sinónimos, lo que significa que el algoritmo solo buscaba en su base de dato aquellas palabras que tuviesen concordancia con las palabras clave, pero no entendía el significado de lo que buscaba.
La actualización permite que el motor, ahora, sí comprenda lo que buscamos. Lo que abre mayores posibilidades dentro del buscador, porque Google sí puede entender lo que solicitas, y además geoposicionarte gracias a la variable del posicionamiento que permite un mejor filtro de los resultados que se van reportando. Es decir, Hummingbird entiende lo que se le pregunta y ofrece el resultado más adecuado, así como la publicidad más oportuna.
Como ves, no hay duda de que Hummingbird logró que los resultados en el buscador fuesen más naturales y el usuario consiguiera una respuesta más efectiva.
El algoritmo Venecia o Venecia fue anunciado en febrero de 2012 con la finalidad de incrementar la relevancia de los resultados locales. Este algoritmo le dio un vuelco a las búsquedas locales y no solo afectó la respuesta de los usuarios, sino, también el plan de trabajo del posicionamiento en línea. Venice sirvió a Google para tomar en cuenta la ubicación de las búsquedas con el objetivo de que el usuario obtuviera los resultados más cercanos a su ubicación.
Es decir, Venice hizo que webs generales de servicios perdieran mucho tráfico, pero mejores al mismo tiempo usó al usuario obtener resultados, puesto que ya no debería realizar la búsqueda por ciudad, sino que Google a partir del IP conocería la ubicación local y la utilizaría para dar un mejor resultado.
Además, este algoritmo ayudó a que empresas locales tomarán un mayor impulso, incluso, pasando por encima de empresas nacionales. Desde la aparición de Venecia, cualquier negocio con presencia física, sin importar si es grande o chico, debe tomar en cuenta el algoritmo de Venecia al momento de realizar su estrategia de búsqueda.
El anuncio de Penguin o Webspam Update , como también es conocido, se convirtió en una actualización que marcó un antes y después en el algoritmo de clasificación de Google.
Antes de 2012, si querías posicionar una web solo tenías que poner la mayor cantidad de número de enlaces entrantes hacia tu web y de esa manera ocupar los primeros resultados en el buscador internacional. Sin embargo, con esta nueva actualización, Google buscaba posicionar a las webs que conseguían sus enlaces, pero gracias a su contenido de calidad.
Penguin se encarga de minimizar el webspam en los resultados de búsqueda, pero de una manera más eficiente. Para Penguin aquellos operadores de sitios web que tienen como única finalidad posicionarse bien en los resultados de búsqueda, pero sin aportar contenido de calidad a los usuarios, están incurriendo en webspam. Por ello, Google quita a estos sitios webs de los primeros lugares de búsqueda.
Gracias a esta actualización, Google puede penalizar el relleno de palabras claves y los esquemas de enlaces. Además castigas a los portales que van en contra de las reglas establecidas por Google Webmaster.
Google Panda , el algoritmo actualizado en febrero de 2011, apareció para eliminar los sitios web que daban al usuario contenido de baja calidad. Es decir, la función principal del algoritmo Panda era analizar el contenido de las webs o ecommerce, y penalizar webs cuyo contenido era de baja calidad, duplicado de otras páginas o con contenidos que no aportaba ningún valor al usuario, pues lo único que hacían era piratear el algoritmo.
Google justificó esta actualización indicando que solo un pequeño grupo de portales webs tenían contenido de buena calidad. El resto, la gran mayoría, solo tenía como objetivo posicionarse en los rankings de búsqueda, sin importar nada. Estos, para lograr las primeras posiciones, tendían a copiar contenido de otros autores para redactar que estaban sobreoptimizados artículos con el único fin de atraer tráfico a sus sitios webs, que además tenían una considerable carga de publicidad.
Con la actualización del algoritmo, Google decidió poner un alto al contenido de baja calidad y de esa manera cerciorarse de que solo estuviesen en las primeras posiciones aquellos sitios web que sí ofrecieron a los usuarios contenidos de alta calidad.
Ten presente que no es necesario estar pendiente de las actualizaciones. Lo realmente importante es tener buenas y honestas prácticas SEO, así como crear contenido propio, pero, sobre todo de calidad.
De esa manera siempre irás un paso adelante. Recuerda que destacar en la web no es para nada difícil. Solo tienes que proporcionar los contenidos de calidad, evitar el plagio y crear tus descripciones de productos y títulos. Además, también es recomendable que evites pagar para enlazarte y siempre verifiques que tu web se pueda ver en distintas pantallas y que el tiempo de carga sea el más óptimo.
Es importante tener en cuenta que cada cambio hecho por Google en su algoritmo tiene como única finalidad perfeccionarlo para que los usuarios puedan obtener una mejor respuesta al momento de hacer sus búsquedas. Por tal razón, no podemos ver los cambios de algoritmo como algo malo ni como un ataque, pues lo único que se desea es mejorar el contenido al que accedemos cuando ingresamos a la web.
Cada cambio de algoritmo busca:
• Ofrecer al usuario contenido de calidad.
• Evitar que se cuelen en los resultados contenidos que no sean relevantes para el usuario.
• Que el resultado de la experiencia de búsqueda sea contenido actualizado.
• Posicionar a las marcas más allá de las palabras claves.
• Favorecer las webs que ofrecen respuestas a los usuarios en el menor tiempo posible.
Como seguro ya te diste cuenta, lo más importante para Google es dar respuestas oportunas al usuario y que de esta manera, este queda satisfecho con el servicio ofrecido por este motor de búsqueda que llegó para hacer la vida de todos mucho más sencilla.