Googlebot no accede al CSS y JS de mi web! Qué pasos seguir

Venían avisando. Googlebot ha vuelto a hacerlo una vez más para alegría de ciertos SEO (y pánico para otros) y preocupación y nuevas inversiones para los propietarios de páginas webs. El nuevo algoritmo Google Mobile Friendly es el culpable.

A través de su Blog Oficial de Webmaster el 26 de Febrero de 2015 colgaban un post con el título:

Finding more mobile-friendly search results

El resultado:

Las webs que no estén preparadas para móviles, el 21 de abril perderán posicionamiento con respecto a otras webs sí optimizadas.

El argumento que daba Google:

A medida que más gente hace uso de los dispositivos móviles para acceder a Internet, nuestros algoritmos deben de irse adaptando a estos patrones de uso. En el pasado hemos realizado actualizaciones para asegurar que las webs mostradas están configuradas adecuadamente y son visibles en dispositivos modernos. Hemos propiciado que los usuarios puedan encontrar páginas amigables para dispositivos móviles y hemos introducido la indexación en aplicaciones. Hoy anunciamos dos importantes cambios para ayudar a los usuarios a encontrar más contenido amigable con dispositivos móviles.

El enlace a su herramienta de testeo:

Google Mobile Friendly Tool Checker

Ante la posibilidad de querer ahondar más en este tema y poder profundizar en cómo mejorar su posicionamiento o para los rezagados, pronto os serviremos otro post con información importante sobre cómo abordar el tema de poder rediseñar nuestra web para que cumpla con las características de Google Mobile Friendly (WebResponsive) y obtener los beneficios del rastreo a través del Googlebot.

Quitando la parte introductoria y empezando “de verdad” con nuestro post acerca del error mostrado por Googlebot, desde nerion nos centraremos en el mensaje que circula estos días, y cada vez más entre todos los poseedores de páginas web y/o WebMasters de las mismas, con el siguiente contenido nada agradable en un primer vistazo:

El robot de Google no pueder acceder a los archivos de CSS y JSO también, y en inglés:

Googlebot cannot access CSS and JS filesPor suerte y a pesar de los quebraderos de cabeza que nos puedan dar, los chicos de Google son “buenos” y a continuación de dicho texto, nos indican que pasos seguir estos pasos para solucionar el problema:

1 Identificar los Recursos Bloqueados

Debemos utilizar la herramienta “Explorar como Google” (“Fetch as Google”) para identificar qué recursos de los que requiere Googlebot, están siendo bloqueados por las directivas del Robots.txt.

2 Actualizar el fichero Robots.txt de que disponga vuestra web

Ésta es la verdadera clave de porque hemos recibido estos correos de Google indicando problemas de su “crawler” a la hora de acceder a los CSS y JS de nuestra web. Se tratan en la gran mayoría de los casos de ficheros personalizados y editables pensando en seguridad y posicionamiento; dentro de los cuáles muchos de ellos vienen por defecto de nuestra propia Web Joomla, WordPress o plugins de seguridad de los mismos (como el YOAST de WordPress), otras veces por nuestro programador, o en ciertas ocasiones también por el propio proveedor de servicios.

Para más información sobre la funcionalidad y configuración de los ficheros Robots.txt

El paso 2 consiste por tanto, en eliminar las restricciones que hay en las directivas de robots.txt sobre los archivos CSS y JavaScript de tu sitio web y probar los cambios con la herramienta de pruebas de robots.txt. A continuación, actualizar el archivo robots.txt revisado en tu sitio web y envíalo a Search Console.

3 Valida nuevamente la corrección con “Explorar como Google” (“Fetch as Google”)

Googlebot no accede al CSS y JS de mi web! Qué pasos seguir

Una vez solucionado este problema, Googlebot no debería notificar nuevos problemas. Tan sólo restaría abordar el asunto del posicionamiento SEO para nuestra web haciéndola WebResponsive, o como postearon en Google Mobile Friendly.

Decisión personal de todas formas, en el que es importante poner sobre la balanza el coste de un “Posible peor posicionamiento” VS “Inversión en la contratación de programadores y equipo SEO” que ayuden a subir nuestra web desde las primeras posiciones en los Motores de Busqueda, en este caso Google con su Googlebot, hasta tan sólo unas pocas posiciones más.

Gracias a la experiencia de nerion, estamos con vosotros a la hora de cualquier valoración sobre este balance así como lo mejor para vuestro negocio online, y de forma totalmente gratuita.

 

Trust us, we take care of you!

Seguridad virtual en verano

En verano, el uso de móviles, tablets y ordenadores portátiles aumenta. Asimismo, se utilizan más redes móviles o Wifi. Ambas cosas son factores que ponen en riesgo la integridad de los datos del usuario, tanto a nivel personal como a nivel empresarial. Los expertos recomiendan poner mucha atención al acceso seguro a sistemas de gestión, dispositivos de almacenamiento, correo electrónico o bases de datos. En este artículo os vamos a dar una serie de consejos para mejorar nuestra seguridad virtual en verano.

Seguridad virtual en verano

Como mejorar nuestra Seguridad virtual en verano

Durante la época estival, el tráfico de datos, búsquedas, compras y conexiones a Internet desde dispositivos móviles y ordenadores portátiles aumenta: se realizan más búsqueda de información, más compras online o más consultas al correo del trabajo, incluso más accesos a algún sistema de gestión de la empresa o a sus dispositivos de almacenamiento. El acceso a esta información suele hacerse, además, mediante redes móviles o Wifi, sobre las que no se tiene control y, por lo tanto, “el riesgo de la integridad de esos datos aumenta”, explica el experto Javier Lázaro, CEO de nerion.

“La consulta de nuestros correos electrónicos se debe hacer siempre utilizando un protocolo seguro, de este modo nos aseguraremos que el intercambio de información con los servidores se hace de forma encriptada”, aconseja Lázaro. Por ejemplo, si el acceso es a través de un navegador web o webmail, hay que asegurarse de que en la barra de navegación la página web utiliza HTTPS; y si el acceso se hace mediante un programa de correo electrónico o con la aplicación correspondiente para dispositivo móvil, en la configuración de la cuenta de correo electrónico se debe utilizar protocolos seguros para recepción como POP3S o IMAPS y envío de correo como SMTPS.

Para Lázaro, es de gran importancia poner atención al acceso a aplicaciones empresariales: “Dependiendo del grado de responsabilidad o funciones que tengamos en nuestra empresa, es posible que necesitemos realizar tareas sobre alguna de las aplicaciones. Nuestra recomendación es que, si tenemos que acceder a nuestra red corporativa, la conexión siempre se haga de forma segura mediante una VPN (red privada virtual) que utilice un certificado de seguridad”. De este modo, la información viajará por internet encriptada ajena a que cualquier persona externa pueda capturarla. “Desde luego si no utilizamos una red privada virtual, no deberíamos realizar ninguna operación que requiera la transmisión de información confidencial”, insiste.

En cuanto a los terminales en sí mismos, el CEO de nerion subraya que “el valor de nuestros dispositivos móviles no está en el terminal en sí mismo, si no en la información que almacenan”. Por eso es esencial proteger los smartphones, tablets y laptops. Según datos oficiales de la Secretaría de Estado de Seguridad, en España existen 56 millones de teléfonos móviles y aproximadamente cada dos minutos se produce el robo de uno de ellos. “El problema de que te roben tu móvil no es sólo el coste económico que ello supone, sino el acceso que el ladrón tendrá a tu vida digital, lo que puede ser muy peligroso”, afirma Lázaro. Algunas pautas básicas que aconsejan seguir desde la empresa zaragozana son el uso de contraseñas y de Apps para localizar los dispositivos y borrar su contenido.

Virus en un correo falso de DHL Express

En las últimas semanas se está incrementando en España el número de equipos infectados por un correo que contiene malware y se hace pasar por la empresa de envíos DHL Express.

En el correo nos informan sobre un supuesto envío y te adjuntan un archivo o un enlace para el seguimiento del paquete. Ante este tipo de emails la recomendación es no abrirlo o analizarlo antes con un antivirus, por supuesto si no esperas ningún tipo de paquete por parte de DHL lo que se debe de hacer es proceder a su eliminación.

Ejemplo de correo recibido con virus - DHL Express

El correo se encuentra en español con el asunto “DHL Express – Notificación de Envío”, en el cuerpo del email se nos indica un número de referencia, el número de bultos, etc y viene con un archivo adjunto con un nombre parecido a “SeguimientoDocumentos6809174781.zip”. Podría pasar fácilmente por un envío oficial de DHL Express.

Si nos descargáramos el archivo en nuestro equipo y procediésemos a ejecutarlo, el virus se alojaría en nuestra máquina haciendo vulnerable toda nuestra información.

En la propia página oficial de DHL nos informan sobre las medidas que debemos de tomar ante estos casos. Puedes consultarlas pinchando aquí.

 

Robots.txt: Todo lo que debes de saber sobre su configuración

El fichero robots.txt es un archivo de texto que aporta recomendaciones a los diferentes crawlers y robots de motores de búsqueda para que las cumplan. Usar el archivo robots.txt  es fundamental para tener tu web correctamente indexada ya que te permite tener cierto control sobre la información que puede ser indexada o no por los motores de búsqueda.

Imagen de robots.txt

¿Qué es y para qué se utiliza el archivo robots.txt?

Los motores de búsqueda utilizan mecanismos conocidos como robots, crawlers, indexadores o spiders que analizan constantemente los servidores disponibles en Internet para encontrar nuevas webs o actualizar la información disponible en su base de datos. Por ejemplo, Googlebot es el nombre del robot del buscador Google. También existen otros como:

  • Mediapartners-Google, que es el crawler que se encarga de revisar los anuncios de Google Adsense.
  • Googlebot-Image, robot indexador de imágenes del buscador de Google.
  • Googlebot-News, robot indexador de noticias para Google News.
  • Bingbot, crawler de indexación del buscador Bing

Para ayudar a los motores de búsqueda en la indexación de información de tu sitio web, puedes utilizar robots.txt que orientaran y ayudaran a obtener la información con mayor facilidad.

El archivo robots.txt es un archivo de texto en el que se añaden unas reglas que funcionan como filtros para los buscadores y permite el control de indexación a determinadas páginas o carpetas de tu web. El robot consultará en primer lugar este archivo y deberá de respetar las directivas incluidas en él.

Información y Contenido del archivo Robots.txt

Usar robots.txt es importante, ya que por ejemplo podemos:

  • Impedir el acceso a robots: En muchos casos es preferible no permitir a ciertos robots el acceso a tu sitio web, ya que hay robots que analizan el sitio con fines malintencionados.
  • Reducir la sobrecarga del servidor: Se puede controlar el flujo de robots, algunos de ellos saturan el servidor por el número de peticiones que realizan lo que puede provocar lentitud en la página web.
  • Prohibir zonas: Puede haber ciertas carpetas que se encuentren disponibles en nuestro sitio web, pero que no deseamos que la información contenida sea indexada por los buscadores.
  • Fijar mapas del sitio: Es posible indicar un sitemap para orientar a los robots.
  • Eliminar contenido duplicado: Si eliminamos la duplicidad de contenido los buscadores nos darán una mayor puntuación, lo que mejorara el posicionamiento en los buscadores.

A continuación se explicaran los diferentes elementos que podemos encontrar dentro de un archivo robots.txt:

  • User-agent: En este campo se indica el robot o robots a los que va a afectar las reglas que se encontrarán en el archivo.
  • Disallow: Se indicará qué páginas o carpetas no pueden incluirse en los motores de búsqueda.
  • Allow: Se indicará qué páginas o carpetas pueden ser indexadas por los rastreadores.
  • Sitemap: Muestra la localización del sitemap de tu web, es recomendable para que los rastreadores encuentren las nuevas entradas con mayor facilidad.
  • Crawl-delay: Indica al robot el número de segundos que debe esperar para que analice entre cada página o carpeta. Es muy útil para reducir la carga del servidor.
  • Asterisco (*): Vale por una secuencia cualquiera de caracteres. Por ejemplo, todos los directorios que empiezan por imágenes serían /imagenes*/
  • Dólar ($): Indica el final de un URL. Por ejemplo, para indicar cualquier archivo que acabe con la extensión .php se utilizaría «/prueba.php$».
  • Comentarios (#). Se pueden añadir comentarios para entender mejor tu robots.txt. Ejemplo: #Regla utilizada para Google Bot.

Se debe tener en cuenta los siguientes aspectos:

  • Debe existir solo un robots.txt para cada web y este debe estar situado en el directorio raíz.
  • Robots.txt no hace que una página sea eliminada del índice de los motores de búsqueda si ya ha sido indexada.
  • Los robots de búsqueda solo siguen lo que has especificado en tu robots.txt.
  • Los robots son sensibles a las mayúsculas y minúsculas.
  • La información de tu robots.txt es pública y cualquiera puede acceder a ella tecleando http://sudominio.com/robots.txt.

Ejemplos

Un ejemplo de robots.txt básico sería:

User-Agent: *
Disallow: /nombredelacarpeta/
Sitemap: http://tudominio.com/sitemap.xml

Otro ejemplo más complejo sería:

User-agent: *
Disallow: /admin/
Disallow: /cgi-bin/
Disallow: /imagenes/
Disallow: /videos/
Allow: /tecnologia/computadoras
Crawl-delay: 10
User-agent: googlebot
Disallow: /usuarios/
Disallow: /documentacion/
Sitemap: http://www.sudominio.com/sitemap.xml

Conclusiones

Los motores de búsqueda indexan todo el contenido que encuentran a su paso, el robots.txt funciona esencialmente con reglas de negación para no permitir la indexación de ciertos archivos o carpetas.

Es utilizado por los SEO para evitar las duplicidades en el contenido, permitir o denegar la indexación de contenido de los spiders y otras tareas.

Aspectos básicos sobre el posicionamiento web

posicionamiento

¿Quieres mejorar el posicionamiento de tu sitio web? Tal vez este artículo te ayude a entender cómo lograrlo. A continuación, responderemos a las preguntas que ya deberías saber sobre SEO (Search Engine Optimization).

¿Es mi sitio web competente?

Debemos intentar que nuestro sitio web se encuentre mejor posicionado que el resto de páginas web que trabajen en el mismo sector que el nuestro. Para saberlo debemos comprobar la autoridad del dominio, también conocido Domain authority (DA). La autoridad del dominio es un indicador propuesto por SEOmoz (un peso pesado en el mundo SEO) para calcular la calidad o credibilidad del sitio web, es decir es un indicador de popularidad de nuestra página web.

Podemos saber nuestro nivel de autoridad de dominio en la página de moz.com.

¿Cómo se puede mejorar la autoridad del dominio?

La respuesta es sencilla, aunque el proceso para conseguirlo no lo sea, tu página web debe de tener un contenido de calidad. Con esto se conseguirá que otras páginas web enlacen a tus publicaciones, así se generará más tráfico hacia tu sitio web y por lo tanto se incrementará nuestra popularidad.

¿Cómo puedo obtener una mejor posición en los resultados de búsqueda?

Además de crear contenido de calidad en nuestra página debemos tener en cuenta otros aspectos igual de importantes para mejorar el posicionamiento.

  • Actualiza el contenido del sitio web. Cuanto más actualizado este o más contenido se le inserte mejor.
  • Crea una buena estructura para que el acceso al contenido sea simple e intuitivo.
  • Utiliza etiquetas para los encabezados (h1, h2, h3,…) de tus artículos.
  • Mejora el tiempo de respuesta de tu página web.
  • Utiliza palabras clave.
  • Adaptar el sitio web para los diferentes dispositivos del mercado (smartphone, tablet,…).

¿Qué puede penalizarme en el posicionamiento?

El tiempo de carga elevado, el abusar de las palabras clave, el contenido duplicado o el intercambio de los enlaces puede perjudicar a la hora de posicionar tu sitio web. Comentarios de tipo SPAM o enlaces rotos hacia otros sitios web también son perjudiciales.

 Consejos

  • A la hora de escribir artículos estos deben de tener entre 400 y 900 palabras. Además debería de contener imágenes, videos o enlaces a páginas con mayor relevancia.
  • Insertar las palabras clave en el título o entre las 200 primeras palabras. No es recomendable el uso de palabras clave con densidad mayor al 6%.
  • Para mejorar los tiempos de carga se pueden utilizar la comprensión de imágenes, y no abusar de código que ralentice la carga de la web como puede ser el uso de javascript.
  • Adaptar la página web a los diferentes dispositivos del mercado, ya que los buscadores lo tienen muy en cuenta.
  • Se pueden utilizar herramientas que te ayudaran a mejorar el posicionamiento de tu página web, como puede ser Google Analytics el cuál te aportará información sobre el tráfico hacia tu sitio web o Woorank que te indicará aquellos aspectos donde puede haber una mejoría (tiempo de carga, uso de palabras clave, enlaces rotos,…).

Bienvenido al blog de nerion

Empresa de servicios cloud, hosting y registro de dominios. Trust us, we take care of you!.
Suscripción a nerion
Siguenos en Twitter Siguenos en Facebook Siguenos en Linkedin Siguenos en YouTube Siguenos en Flickr Siguenos en Foursquare
Entradas antiguas por mes
Twitter
nerion en Facebook