Claves para No Caer en el Spam

Es interesante repasar los conceptos tendientes a entender aquellos parámetros que Google emplea a la hora de marcar como spam a un sitio, y, consecuentemente, penalizarlo. La detección del spam puede ser hecha de forma automática

Valeria Gomez
Valeria Gomez
25 de November · 418 palabras.
x

🕘 Resumen

El artículo se enfoca en los parámetros que Google usa para detectar spam en los sitios web y penalizarlos por ello. Los crawlers de Google pueden detectar spam de forma automática a través de varios marcadores importantes como el uso de texto oculto, la repetición excesiva de palabras clave, el cloaking, la baja calidad del sitio, la cantidad de enlaces salientes, la falta de calidad en el texto y el diseño, así como la calidad de los enlaces entrantes. La combinación de varios de ellos puede llevar a efectos más perjudiciales. Además, los usuarios pueden denunciar un sitio web como spammy y un editor de Google verificará si cumple con las normativas de calidad antes de penalizarlo. Es importante ser cauteloso al enlazarse con sitios de poca calidad, como granjas de enlaces o directorios no relacionados con el nicho en el que el sitio web opera, ya que esto también puede afectar negativamente su posicionamiento. En general, mantener una alta calidad en el contenido y los enlaces entrantes es clave para evitar penalizaciones y mantener un buen posicionamiento en el ranking de Google.
 Es interesante repasar los conceptos tendientes a entender aquellos parámetros que Google emplea a la hora de marcar como spam a un sitio, y, consecuentemente, penalizarlo. La detección del spam puede ser hecha de forma automática por las mismas spiders del buscador, cuando crawlean los sitios web que el buscador indexa. Para que esto suceda, hay ciertos marcadores muy notorios que Google tomará en cuenta:
• El uso de texto oculto.
• La repetición excesiva de las palabras claves del sitio, especialmente aquellas que se consideran "Money keywords", o palabras claves de alto uso, con volúmenes de búsqueda de miles o millones.
• El empleo del "cloaking", es decir, mostrar una página web a los usuarios y otra muy distinta a las spiders que indexan el sitio.
• La baja calidad, en general, del sitio en cuestión.
• La cantidad de enlaces salientes por página.
• La poca calidad del texto, su escasez o la falta de originalidad del, es decir detectando contenido duplicado entre dos o más páginas.
• Fallas en cuanto a calidad de diseño, sin considerar la facilidad de uso de la página por parte de los usuarios,
• La calidad de enlaces entrantes al sitio. Este punto es el que más dudas ha generado entre los webmasters, sobre todo por la reciente aparición de la disavow tool. Concretamente, no queremos que nuestra página web esté enlazada a demasiados sitios de poca calidad como granjas de enlaces o directorios no directamente relacionados con el nicho en el que operamos, y sobre todo cuando estos directorios son también, a su vez, muy spammy.
Éstos son algunos de los indicadores que inmediatamente levantarán la bandera roja para Google. Por supuesto, es la combinación y la sumatoria de uso de varios de ellos lo que tendrá efectos más nocivos.
Pero, otra manera de caer bajo este tipo de penalizaciones es ser denunciados por los usuarios como un sitio spammy. En este caso, será un editor de Google el que se dedicará a hacer un escrutinio detallado del sitio web, y penalizarlo, si comprueba que no cumple con las normativas de calidad.
Muchos webmasters se preguntan si es posible volver indemnes de una penalización. La respuesta es afirmativa, afortunadamente, aunque requerirá de técnicas de cirugía mayor en cuanto a la optimización seo del sitio web y a una enorme dosis de paciencia para lograr que Google reconsidere el posicionamiento que había logrado el sitio.

 Valeria Gómez es Consultora de SEO y Márketing Online. Se desempeña como asesora en http://www.Alzanet.es

Comparte tu conocimiento y tus intereses con el mundo.

Publica un artículo →