Google lleva mucho tiempo trabajando para penalizar las malas prácticas SEO y favorecer aquellas páginas webs que ofrecen a los usuarios contenidos de calidad y originales, sirviendo información útil y veraz. Para ello nacieron los algoritmos Google Panda y Penguin.

El objetivo de Panda era premiar los contenidos de alta calidad y la usabilidad. Para Penguin es primordial combatir el webspam y ello incluye los enlaces de baja calidad y el exceso de palabras clave en el contenido, considerándolo sobre-optimización.

Actualmente, Google está trabajando en nuevo algoritmo que podrá revolucionar no solo el mundo del SEO, sino también de las búsquedas en Internet tal y como las conocemos actualmente. Google Knowledge Vault sería la nueva evolución del motor de búsqueda, una cámara acorazada de conocimiento que agrupa los datos y experiencias de los usuarios a nivel mundial.

Con este nuevo algoritmo, Google clasificaría los sitios webs en base a la exactitud de los “hechos”, la exactitud de la información que ofrece cada página web recogida en su motor de búsqueda. Premiará la fiabilidad y confiabilidad del sitio, penalizando aquellos que contengan “hechos falsos o erróneos”.

 Google Knowledge Vault, en vez de valorar los enlaces externos o la reputación online (que en ocasiones puede conseguirse a través de técnicas negativas, conocidas como Black Hat SEO), valoraría la exactitud, la fiabilidad, la confianza. ¿Pero cuál es el procedimiento para determinar qué datos son correctos y fiables?

El sistema se basaría en un patrón denominado “triples”, compuesto como su nombre indica por tres factores: un tema que sería una entidad/sujeto, un predicado que describe algún atributo sobre esa entidad y un objeto que correspondería al valor de ese atributo. Ejemplo: Obama (sujeto) es el actual presidente (predicado) de Estados Unidos (objeto). Esta información, además de seguir el patrón es verídica, por lo tanto estaría premiada por el buscador.

Hay información cuya exactitud puede ser evidente, por ejemplo la fecha de nacimiento o lugar de residencia de un político. Pero hay otro tipo de datos más complejos que Google deberá analizar y aún no sabemos cuál sería su postura ante temas como la medicina alternativa, ¿dónde está la verdad en estos casos y quién la determina?

El concepto de Google Knowledge Vault, aún por determinar de forma concreta, fue presentado en un trabajo reciente bajo el título “Knowledge-Based Trust: Estimating the Trustworthiness of Web Sources”, escrito por Xin Dong Luna, Evgeniy Gabrilovich, Geremy Heitz, Wilko Horn, Ni Lao, Kevin Murphy, Thomas Strohmann, Shaohua Sol, y Wei Zhang, los miembros del equipo de investigación de Google.

Este sistema de información debe recopilar todo el conocimiento mundial, todas las fuentes, una gran reserva de información sobre todos los hechos que han sucedido y suceden en nuestra historia.

El algoritmo que aún no ha llegado al mundo real de forma permanente (sí se han realizado algunas pruebas), ya ha provocado las primeras reacciones. Algunos críticos consideran que este nuevo algoritmo colocaría a Google como una especie de oráculo, que más que ofrecernos la información que buscamos, nos ofrecerá solo aquello que quiere que leamos.

Pero, ¿hasta que punto puede afectar al mundo digital y al SEO este nuevo algoritmo? ¿puede convertirse en una especie de censura para algunas webs con temática compleja o será la máxima evolución en el campo de la información periodística?

Gemma García López

SEO en Stuweb.es

Author

stuweb stuweb