27 May Google, algoritmos y matemáticas
Es posible que si te dedicas al sector de la comunicación digital o el marketing, como es mi caso, lleves años leyendo artículos sobre cómo posicionar mejor los contenidos o las páginas de tu sitio web para captar un mayor volumen de tráfico y aparecer en la primera página de resultados del motor de búsqueda de Google, que es el más consultado del mundo y que en España tiene una cuota del 98%, es decir, todo el mercado.
Simplificando mucho, Google explora las webs cuyo contenido coincide con las palabras clave de tu búsqueda y te las muestra, pero no solo hace eso, sino que también las ordena en base a un criterio, que es el conocido como PageRank, una familia de algoritmos registrada por la compañía estadounidense que asigna una determinada relevancia numérica (de 1 a 10, siendo 10 la máxima puntuación) a esos sitios web. Es decir, que establece un resultado de búsquedas en el que las web con mayor puntuación serán las que aparezcan arriba de todo. Todo esto hablando en términos de contenido orgánico, ya que hay sitios que realizan inversiones en Google Ads para salir mejor posicionados, eso sí, estigmatizados con el apellido de “anuncio”, lo cual no ofrece mucha credibilidad (y, en muchas ocasiones, clics) a esas direcciones web.
El punto de inflexión del algoritmo Panda
Hace unos diez años posicionar en Google era relativamente fácil, pues muchas webs creaban contenidos aumentando la densidad de palabras clave (o keywords, en inglés), que establecían después de un análisis de lo que más buscaban las personas usuarias a través, por ejemplo, de herramientas como Google Adwords. ¿El resultado? Contenidos casi robóticos, en los que no primaba el lenguaje natural, sino la repetición de keywords.
Google se encontró que, entre los millones de resultados de su motor de búsqueda había mucha paja, que poco valor aportaba a los usuarios. Fue así como introdujo uno de los cambios más importantes en su historia: el algoritmo Panda en 2011. Penalizaba sobre todo la densidad abusiva de palabras clave, contenido duplicado (el famoso copy+paste) y contenido sin valor. Pero en la historia de Google ha habido más cambios de algoritmo, y en este artículo puedes conocer los principales.
Mayores conexiones y mayor relevancia
Lo importante que quiero transmitir aquí es señalar cómo funciona el buscador de Google. Los expertos SEO o en comunicación digital que estuvieran informados sabían (y saben) que Google funciona gracias a las matemáticas y que su inmenso grafo de relaciones entre webs y enlaces sigue un conjunto de reglas y jerarquías que establecen una determinada puntuación. De ahí que conociendo cómo se establecen esas puntuaciones se pueda “burlar” el famoso PageRank.
Así, gracias a miles de servidores y centros de datos presentes en todo el mundo, Google es capaz de procesar más de 1.000 millones de peticiones de búsqueda diarias y su motor de búsqueda es el sitio web más visitado a nivel mundial, como se puede ver en esta clasificación, que compara los rankings de Alexa y Similarweb. Como vemos, las webs de mayor posicionamiento son las que establecen cientos de millones de conexiones entre nodos (usuarios y páginas), como es el caso de las redes sociales o portales de comercio online.
Estos sitios y todos aquellos que tienen un buen posicionamiento adquieren una mayor relevancia porque están enlazados desde otros sitios, pero no de cualquier manera, sino desde webs con contenidos de calidad y con un gran tráfico. De ahí la importancia de los backlinks que se logren de forma orgánica y, en los últimos años, fomentados desde otros de los grafos por excelencia, las redes sociales, que son una de las grandes fuentes de tráfico de las webs y ayudan a Google a conocer cuáles son las conexiones de esa web con otros sitios y a determinar su “influencia social”.
Las matemáticas de los buscadores
En este artículo, inspirado en una charla de la matemática Clara Grima, el blog Cuentos Cuánticos, impulsado por el físico y divulgador Enrique Fernández Borja, explica de forma muy clara cómo funcionan las matemáticas que hay detrás de un motor de búsqueda online como el de Google, solo que a una menor escala, evidentemente. Es importante destacar la idea de que la relevancia de los nodos no solo se establece por las aristas o conexiones que entran o salen de ellos, dado que Internet es utilizado por personas, que no siempre hacen clic en los próximos enlaces con una probabilidad matemática exacta. De ahí la importancia del PageRank, que mida el peso de los nodos en la Red, y de múltiples factores que facilitan una búsqueda personalizada.
Y el algoritmo de Google sigue avanzando de la mano de la computación cuántica, que se considera como la próxima gran frontera en este ámbito. Su procesador cuántico Sycamore necesitó apenas 200 segundos (poco más de tres minutos) para realizar una operación que a una supercomputadora clásica de última generación le llevaría aproximadamente 10.000 años. Este “dramático aumento de velocidad”, como se destaca en la investigación publicada en octubre de 2019 en la revisa Nature, comparado con todos los algoritmos clásicos conocidos, es una prueba de la supremacía cuántica.
Por qué Google triunfó y otros no
Y ahora te estarás preguntando: ¿por qué otros buscadores no tuvieron el éxito de Google? Pues precisamente en este punto también tenemos que hablar del PageRank. Este algoritmo que, como vimos, es el que dota de relevancia a los contenidos indexados en el buscador, supuso un hito y una enorme diferencia respecto a otros buscadores como Netscape, Yahoo!, Altavista o Lycos, que realizaban búsquedas basándose exclusivamente en texto.
Es decir, mostraban los resultados en función de la densidad de palabras clave, lo cual originó muchas webs de escasa calidad. Y, al aumentar el número de webs esto se hacía inviable. Por entonces, Backrub, que era cómo se llamaba el buscador de Google, ya empezaba a diferenciarse. Por ejemplo, si una persona introducía la palabra clave “Facultad de Derecho”, los buscadores mostraban primero las webs con una mayor densidad de esta web, mientras que Backrub (o Google) posicionaba no solo la coincidencia con la keyword, sino que incluía los resultados más próximos a la localización de la persona usuaria, pues el factor geográfico es uno de los muchos que tiene en cuenta.
Millones de variables analizadas en un suspiro
PageRank es capaz de resolver una ecuación de 500 millones de variables y más de 2.000 millones de términos en décimas de segundo. Y de filtrar el contenido, pues los internautas necesitan un resultado preciso, no un montón de webs o de desinformación, como explica la propia Google en su web.
Google no fue la primera empresa que se dio cuenta de la necesidad de establecer un orden y filtrado de los resultados a través de su algoritmo, de hecho gigantes como IBM rechazaron invertir en un buscador con un algoritmo similar al PageRank. Pero sí fue la que apostó decididamente por ello y supo sacarle rentabilidad, de ahí que sus matemáticas también sirvieran para conquistar, poco a poco, el mundo, hasta lograr una cuota global del mercado del 90%. Casi nada.
Escríbeme
¿Y tú qué opinas? Me gustaría conocer tu perspectiva para intercambiar opiniones y conocimientos. Puedes escribirme a:
hola@sergiobarbeira.com
Clara Grima
Posted at 14:31h, 10 junioMe encanta 🙂
sbarbeira
Posted at 21:28h, 23 junioGenial, sobre todo viniendo de ti. Abrazo!