Resulta
frecuente ver como el tráfico de referencia de una cuenta de Google
Analytics sube como la espuma tras el esfuerzo de aplicar a libro
buenas estrategias SEO. Pero también, al mirar esos mismos registros
de Google Analytics, es frecuente caer en la cuenta de que esa
explosión de viralidad sólo es consecuencia de la acción de robots
de spam.
Las
supuestas visitas y los supuestos enlaces en realidad están
automatizados y sólo buscan servirse de nuestros proyectos web para
mejorar la visibilidad de terceros proyectos, como te puedes
imaginar, no siempre legales. Lo peor de todo es que esas acciones de
los robots de spam pueden echar abajo todo el trabajo SEO y
hasta que Google y otros buscadores nos penalicen por malas prácticas
con el linkbuilding.
Hay
que bloquear y filtrar todos esos sitios que operan maliciosamente
porque proporcionan datos de análisis alterados. En el caso de
portales web grandes, éso no es grave, no puede significar mucho,
pero no sucede lo mismo con los pequeños, con un portal
especializado de una tienda que vende un tipo de colchon de cuna
hecho a mano, sólo por poner un ejemplo tomado al azar. En casos
como ése, en el que un 70% del tráfico pueda ser spam, es un
desastre.
En
segundo lugar, hay que acabar con esas prácticas porque se produce
un carga no deseada para el trabajo del servidor y hasta para su
seguridad. Un servidor sobrecargado es un dispositivo que trabaja
lento que se traduce en tasas de rebote y clasificaciones más bajas.
Además, ¿quién sabe qué cosas pueden estar haciendo en el sitio
mientras esos robots de spam están trabajando en él?.
La
mejor manera de bloquear a estos robots de spam es bloquearlos
en el archivo .htaccess en el directorio raíz del dominio. Se puede
copiar y pegar el código en el archivo .htaccess si se tiene un
servidor Apache. Se trata de un método sencillo porque se bloquea al
robot de spam durante el análisis evitando que pueda acceder
a las funcionalidades del servidor.
No
obstante, si se quiere ir más lejos, también se puede redirigir el
tráfico y llevarlo a la web de referencia del robot de spam
con lo que digamos lo así, se puede cerrar el círculo del trabajo
basura en la Red. Esta que sigue es la ruta y la acción para
hacerlo: >>RewriteCond% {HTTP_REFERER} ^ http: //.*(nombre del dominio o nombre de referencia)
\ .com / [NC, OR]
La
operatividad con las funciones de .htaccess no resuelve todos los
problemas con los robots de spam. Sólo ayuda a proteger un
número de accesos posteriores. Siempre es posible establecer filtros
por países, aunque por desgracia éso dejaría fuera a todo el
tráfico legítimo de la misma procedencia geográfica.
En
cualquier caso, para hacerlo basta con abrir la pestaña 'Admin' en
la parte superior de la página de Google Analytics,
picar en una nueva vista y a continuación configurar el
'filtro de motores de búsqueda', seleccionando las opciones de
filtro ahí mismo.
Una
nota final, el .htaccess es un archivo muy potente que dicta cómo se
comporta un servidor. Si se sube un archivo .htaccess de manera
inadecuada, es probable que se pueda desconfigurar todo el sitio.
Antes de hacer cualquier cambio en el archivo, es deseable hacer una
copia de seguridad previa.
No hay comentarios:
Publicar un comentario