El buscador Google emplea algoritmos, programas informáticos que escanean la información existente en Internet y posiciona los resultados de las búsquedas. Su misión es detectar la información relevante, para así posicionarla dentro de los resultados que ofrecerá una búsqueda concreta.

La forma de los algoritmos cambian unas 500 veces al año (actualizaciones, aparición de nuevos algoritmos o cambios en los criterios de calidad), con lo cual es difícil de adivinar previamente el SEO a aplicar; únicamente empleando la intuición, elección de palabras clave y crear contenido de calidad (no copiado: Google penaliza por esto), así como enlaces que realmente proporcionen información útil a los usuarios que visiten tu página (Google penaliza por enlaces comprados, o bien que se empleen “sin ton ni son”).

Anteriormente para el posicionamiento había criterios públicos, hasta que debido a la picaresca se utilizaba estos criterios para repetirlos hasta la saciedad: repetición de palabras clave, imágenes que no tenían nada que ver con lo que se prometía… Eso sí, se sabe más o menos cuáles son, al menos la autoridad de quien escribe (si lo hace en foros…o aporta conocimiento) y la relevancia de contenidos, aparte de estar constantemente actualizándolos.

Diferentes Algoritmos de Google (Caffeine, Query encription…), con el objetivo de posicionar bien en las búsquedas a aquellas páginas que ofrezcan contenido de calidad, y penaliza a las que no lo ofrecen (bajando en la página de resultados que te muestra). En ésta entrada mostraré algunos, así como la forma que tienen de funcionar.

Hay dos formas de ser penalizado por Google:

  1. Con algoritmos, cuando veas que hay cambios bruscos en los resultados de las búsquedas podrás adivinarlo, y esto simplemente se soluciona cambiando “malos hábitos” en SEO.
  2. Que Google se ponga directamente en contacto contigo, lo cual es más difícil de solucionar, y tendrás que presentar documentación de que no lo incumpliste, o bien un «propósito de enmienda».

Como es difícil saber en cada momento los criterios que funcionan para posicionarnos, para evitar ser penalizados lo mejor es ofrecer:

  • Información de calidad. Esto es, que realmente ofrezca algo novedoso y útil a los usuarios que busquen ésta información (ya hablaré de otra manera de penalizar, que consiste en aquellas páginas «rebotadas», las que visitamos pero en seguida «rebotamos» a la página de resultados, porque no nos interese, sea engañosa…).
  • No repetirnos. Tener cuidado en la elección de Categorías y Etiquetas: una entrada no puede estar a la vez en varias.
  • Contenido original. No copiado, que sea nuestro y fiable.
  • Enlaces necesarios y adecuados. No comprados, sino los necesarios y adecuados para la información que ofrecemos
  • Palabras clave. No preocuparnos tanto con el SEO repitiendo palabras clave. Los algoritmos de Google hacen búsqueda semántica, con lo cual ya no funciona el repetir la palabra clave hasta la saciedad.
  • Incluir imágenes adecuadas, audios, vídeos… que tengan relación con la información.

 

Pagerank

Surge en Enero de 1999. Combinación de algoritmos que ofrecen un resultado numérico en base a cada página, esto es, qué número ocupará en los resultados ofrecidos (página 1, 2…).

Google Panda

Un algoritmo de Google creado en Febrero de 2011. Se centra en la calidad del contenido, esto es, detecta si es de baja calidad por diversas razones: no interesa, es poco relevante… Elimina de los resultados de los buscadores a aquellas páginas que consiguieron estar en los primeros puestos pero que a su juicio no lo merecen, por no cumplir unos requisitos de calidad en la información ofrecida.

Con que se sigan unos estándares de calidad: contenido original, interesante, cuidar la ortografía… no hay problema de que penalice.

Google Penguin

Se centra no en la calidad de la información, sino la de los enlaces que incluyas en tu página o blog. Surge en Abril de 2012.

Su objetivo es detectar los enlaces que sean comprados (artificialmente, para así aumentar el número de clics y mejorar el SEO) o bien spam…

La forma de que no se nos penalice es ofrecer enlaces de calidad, necesarios y adecuados, que tengan que ver con la información ofrecida.

Google Hummingbird

Creado en Agosto de 2013. Su nombre es porque puede ser tan rápido y eficaz como un colibrí (HUMMINGBIRD).

Algoritmo que se centra en la búsqueda semántica, esto es, “adivinar” lo que queremos decir al teclear una palabra (ejemplo “Guadalajara”: ciudad de España, México…?), o bien una cadena de ellas (incluyendo o no artículos). Cuando hacemos una búsqueda puede ser que demos información corta o excesivamente larga, y aun así el buscador entiende que nos referimos a algo real.

Emplea el Knowledge Graph: cuando realizamos una búsqueda, quizá nos sea de utilidad el conocer “búsqueda relacionada”, “sugerencias”… A raíz de unas palabras, nos ofrece información ampliada o sugerida sobre esa información inicial.

Asimismo, The Knowledge Graph adivina que estamos buscando, (actor, ciudad, escritor…) a raíz de hacer una búsqueda con por ejemplo, la altura, ciudad de nacimiento… El objetivo es saber exactamente lo que estás buscando aunque emplees términos o información confusa, estableciendo relaciones entre las palabras. Saber las respuestas que buscas mediante un gráfico (Graph), creado mediante la combinación de las búsquedas de los demás usuarios, cómo las han realizado, y así ser más eficaces.

Al realizar una búsqueda, en la parte derecha de los resultados, aparece información para ampliar: por ejemplo, «Leonardo da Vinci” puede ser una búsqueda, y en la parte derecha de la pantalla nos saldría información relacionada, sabe que es un pintor renacentista y nos ofrece una vista de más pintores.

También da respuesta a preguntas complejas, como “Dónde encontrar libros baratos en Sevilla?” (antes simplemente cogía esas palabras clave y buscaba coincidencias). Si preguntas “Cuándo murió Elisabeth Taylor?”, ofrecerá la fecha exacta.

Google nos habla de Knowledge Graph (con subtítulos)

Fuentes