SEO

Googlebot no accede al CSS y JS de mi web! Qué pasos seguir

Venían avisando. Googlebot ha vuelto a hacerlo una vez más para alegría de ciertos SEO (y pánico para otros) y preocupación y nuevas inversiones para los propietarios de páginas webs. El nuevo algoritmo Google Mobile Friendly es el culpable.

A través de su Blog Oficial de Webmaster el 26 de Febrero de 2015 colgaban un post con el título:

Finding more mobile-friendly search results

El resultado:

Las webs que no estén preparadas para móviles, el 21 de abril perderán posicionamiento con respecto a otras webs sí optimizadas.

El argumento que daba Google:

A medida que más gente hace uso de los dispositivos móviles para acceder a Internet, nuestros algoritmos deben de irse adaptando a estos patrones de uso. En el pasado hemos realizado actualizaciones para asegurar que las webs mostradas están configuradas adecuadamente y son visibles en dispositivos modernos. Hemos propiciado que los usuarios puedan encontrar páginas amigables para dispositivos móviles y hemos introducido la indexación en aplicaciones. Hoy anunciamos dos importantes cambios para ayudar a los usuarios a encontrar más contenido amigable con dispositivos móviles.

El enlace a su herramienta de testeo:

Google Mobile Friendly Tool Checker

Ante la posibilidad de querer ahondar más en este tema y poder profundizar en cómo mejorar su posicionamiento o para los rezagados, pronto os serviremos otro post con información importante sobre cómo abordar el tema de poder rediseñar nuestra web para que cumpla con las características de Google Mobile Friendly (WebResponsive) y obtener los beneficios del rastreo a través del Googlebot.

Quitando la parte introductoria y empezando “de verdad” con nuestro post acerca del error mostrado por Googlebot, desde nerion nos centraremos en el mensaje que circula estos días, y cada vez más entre todos los poseedores de páginas web y/o WebMasters de las mismas, con el siguiente contenido nada agradable en un primer vistazo:

El robot de Google no pueder acceder a los archivos de CSS y JSO también, y en inglés:

Googlebot cannot access CSS and JS filesPor suerte y a pesar de los quebraderos de cabeza que nos puedan dar, los chicos de Google son “buenos” y a continuación de dicho texto, nos indican que pasos seguir estos pasos para solucionar el problema:

1 Identificar los Recursos Bloqueados

Debemos utilizar la herramienta “Explorar como Google” (“Fetch as Google”) para identificar qué recursos de los que requiere Googlebot, están siendo bloqueados por las directivas del Robots.txt.

2 Actualizar el fichero Robots.txt de que disponga vuestra web

Ésta es la verdadera clave de porque hemos recibido estos correos de Google indicando problemas de su “crawler” a la hora de acceder a los CSS y JS de nuestra web. Se tratan en la gran mayoría de los casos de ficheros personalizados y editables pensando en seguridad y posicionamiento; dentro de los cuáles muchos de ellos vienen por defecto de nuestra propia Web Joomla, WordPress o plugins de seguridad de los mismos (como el YOAST de WordPress), otras veces por nuestro programador, o en ciertas ocasiones también por el propio proveedor de servicios.

Para más información sobre la funcionalidad y configuración de los ficheros Robots.txt

El paso 2 consiste por tanto, en eliminar las restricciones que hay en las directivas de robots.txt sobre los archivos CSS y JavaScript de tu sitio web y probar los cambios con la herramienta de pruebas de robots.txt. A continuación, actualizar el archivo robots.txt revisado en tu sitio web y envíalo a Search Console.

3 Valida nuevamente la corrección con “Explorar como Google” (“Fetch as Google”)

Googlebot no accede al CSS y JS de mi web! Qué pasos seguir

Una vez solucionado este problema, Googlebot no debería notificar nuevos problemas. Tan sólo restaría abordar el asunto del posicionamiento SEO para nuestra web haciéndola WebResponsive, o como postearon en Google Mobile Friendly.

Decisión personal de todas formas, en el que es importante poner sobre la balanza el coste de un “Posible peor posicionamiento” VS “Inversión en la contratación de programadores y equipo SEO” que ayuden a subir nuestra web desde las primeras posiciones en los Motores de Busqueda, en este caso Google con su Googlebot, hasta tan sólo unas pocas posiciones más.

Gracias a la experiencia de nerion, estamos con vosotros a la hora de cualquier valoración sobre este balance así como lo mejor para vuestro negocio online, y de forma totalmente gratuita.

 

Trust us, we take care of you!

Robots.txt: Todo lo que debes de saber sobre su configuración

El fichero robots.txt es un archivo de texto que aporta recomendaciones a los diferentes crawlers y robots de motores de búsqueda para que las cumplan. Usar el archivo robots.txt  es fundamental para tener tu web correctamente indexada ya que te permite tener cierto control sobre la información que puede ser indexada o no por los motores de búsqueda.

Imagen de robots.txt

¿Qué es y para qué se utiliza el archivo robots.txt?

Los motores de búsqueda utilizan mecanismos conocidos como robots, crawlers, indexadores o spiders que analizan constantemente los servidores disponibles en Internet para encontrar nuevas webs o actualizar la información disponible en su base de datos. Por ejemplo, Googlebot es el nombre del robot del buscador Google. También existen otros como:

  • Mediapartners-Google, que es el crawler que se encarga de revisar los anuncios de Google Adsense.
  • Googlebot-Image, robot indexador de imágenes del buscador de Google.
  • Googlebot-News, robot indexador de noticias para Google News.
  • Bingbot, crawler de indexación del buscador Bing

Para ayudar a los motores de búsqueda en la indexación de información de tu sitio web, puedes utilizar robots.txt que orientaran y ayudaran a obtener la información con mayor facilidad.

El archivo robots.txt es un archivo de texto en el que se añaden unas reglas que funcionan como filtros para los buscadores y permite el control de indexación a determinadas páginas o carpetas de tu web. El robot consultará en primer lugar este archivo y deberá de respetar las directivas incluidas en él.

Información y Contenido del archivo Robots.txt

Usar robots.txt es importante, ya que por ejemplo podemos:

  • Impedir el acceso a robots: En muchos casos es preferible no permitir a ciertos robots el acceso a tu sitio web, ya que hay robots que analizan el sitio con fines malintencionados.
  • Reducir la sobrecarga del servidor: Se puede controlar el flujo de robots, algunos de ellos saturan el servidor por el número de peticiones que realizan lo que puede provocar lentitud en la página web.
  • Prohibir zonas: Puede haber ciertas carpetas que se encuentren disponibles en nuestro sitio web, pero que no deseamos que la información contenida sea indexada por los buscadores.
  • Fijar mapas del sitio: Es posible indicar un sitemap para orientar a los robots.
  • Eliminar contenido duplicado: Si eliminamos la duplicidad de contenido los buscadores nos darán una mayor puntuación, lo que mejorara el posicionamiento en los buscadores.

A continuación se explicaran los diferentes elementos que podemos encontrar dentro de un archivo robots.txt:

  • User-agent: En este campo se indica el robot o robots a los que va a afectar las reglas que se encontrarán en el archivo.
  • Disallow: Se indicará qué páginas o carpetas no pueden incluirse en los motores de búsqueda.
  • Allow: Se indicará qué páginas o carpetas pueden ser indexadas por los rastreadores.
  • Sitemap: Muestra la localización del sitemap de tu web, es recomendable para que los rastreadores encuentren las nuevas entradas con mayor facilidad.
  • Crawl-delay: Indica al robot el número de segundos que debe esperar para que analice entre cada página o carpeta. Es muy útil para reducir la carga del servidor.
  • Asterisco (*): Vale por una secuencia cualquiera de caracteres. Por ejemplo, todos los directorios que empiezan por imágenes serían /imagenes*/
  • Dólar ($): Indica el final de un URL. Por ejemplo, para indicar cualquier archivo que acabe con la extensión .php se utilizaría «/prueba.php$».
  • Comentarios (#). Se pueden añadir comentarios para entender mejor tu robots.txt. Ejemplo: #Regla utilizada para Google Bot.

Se debe tener en cuenta los siguientes aspectos:

  • Debe existir solo un robots.txt para cada web y este debe estar situado en el directorio raíz.
  • Robots.txt no hace que una página sea eliminada del índice de los motores de búsqueda si ya ha sido indexada.
  • Los robots de búsqueda solo siguen lo que has especificado en tu robots.txt.
  • Los robots son sensibles a las mayúsculas y minúsculas.
  • La información de tu robots.txt es pública y cualquiera puede acceder a ella tecleando http://sudominio.com/robots.txt.

Ejemplos

Un ejemplo de robots.txt básico sería:

User-Agent: *
Disallow: /nombredelacarpeta/
Sitemap: http://tudominio.com/sitemap.xml

Otro ejemplo más complejo sería:

User-agent: *
Disallow: /admin/
Disallow: /cgi-bin/
Disallow: /imagenes/
Disallow: /videos/
Allow: /tecnologia/computadoras
Crawl-delay: 10
User-agent: googlebot
Disallow: /usuarios/
Disallow: /documentacion/
Sitemap: http://www.sudominio.com/sitemap.xml

Conclusiones

Los motores de búsqueda indexan todo el contenido que encuentran a su paso, el robots.txt funciona esencialmente con reglas de negación para no permitir la indexación de ciertos archivos o carpetas.

Es utilizado por los SEO para evitar las duplicidades en el contenido, permitir o denegar la indexación de contenido de los spiders y otras tareas.

Aspectos básicos sobre el posicionamiento web

Aspectos básicos sobre el posicionamiento web

posicionamiento web

¿Quieres mejorar el posicionamiento web de tu sitio? Tal vez este artículo te ayude a entender cómo lograrlo. A continuación, responderemos a las preguntas que ya deberías saber sobre SEO (Search Engine Optimization).

¿Es mi sitio web competente?

Debemos intentar que nuestro sitio web se encuentre mejor posicionado que el resto de páginas web que trabajen en el mismo sector que el nuestro. Para saberlo debemos comprobar la autoridad del dominio, también conocido Domain authority (DA). La autoridad del dominio es un indicador propuesto por SEOmoz (un peso pesado en el mundo SEO) para calcular la calidad o credibilidad del sitio web, es decir es un indicador de popularidad de nuestra página web.

Podemos saber nuestro nivel de autoridad de dominio en la página de moz.com.

¿Cómo se puede mejorar la autoridad del dominio?

La respuesta es sencilla, aunque el proceso para conseguirlo no lo sea, tu página web debe de tener un contenido de calidad. Con esto se conseguirá que otras páginas web enlacen a tus publicaciones, así se generará más tráfico hacia tu sitio web y por lo tanto se incrementará nuestra popularidad.

¿Cómo puedo obtener una mejor posición en los resultados de búsqueda?

Además de crear contenido de calidad en nuestra página debemos tener en cuenta otros aspectos igual de importantes para mejorar el posicionamiento web.

  • Actualiza el contenido del sitio web. Cuanto más actualizado este o más contenido se le inserte mejor.
  • Crea una buena estructura para que el acceso al contenido sea simple e intuitivo.
  • Utiliza etiquetas para los encabezados (h1, h2, h3,…) de tus artículos.
  • Mejora el tiempo de respuesta de tu página web.
  • Utiliza palabras clave.
  • Adaptar el sitio web para los diferentes dispositivos del mercado (smartphone, tablet,…).

¿Qué puede penalizarme en el posicionamiento web?

El tiempo de carga elevado, el abusar de las palabras clave, el contenido duplicado o el intercambio de los enlaces puede perjudicar a la hora de posicionar tu sitio web. Comentarios de tipo SPAM o enlaces rotos hacia otros sitios web también son perjudiciales.

 Consejos

  • A la hora de escribir artículos estos deben de tener entre 400 y 900 palabras. Además debería de contener imágenes, videos o enlaces a páginas con mayor relevancia.
  • Insertar las palabras clave en el título o entre las 200 primeras palabras. No es recomendable el uso de palabras clave con densidad mayor al 6%.
  • Para mejorar los tiempos de carga se pueden utilizar la comprensión de imágenes, y no abusar de código que ralentice la carga de la web como puede ser el uso de javascript.
  • Adaptar la página web a los diferentes dispositivos del mercado, ya que los buscadores lo tienen muy en cuenta.
  • Se pueden utilizar herramientas que te ayudaran a mejorar el posicionamiento de tu página web, como puede ser Google Analytics el cuál te aportará información sobre el tráfico hacia tu sitio web o Woorank que te indicará aquellos aspectos donde puede haber una mejoría (tiempo de carga, uso de palabras clave, enlaces rotos,…).

¿Esta tu página web optimizada para móviles?

¿Esta tu página web optimizada para móviles?

Cada vez son más los usuarios que utilizan sus dispositivos móviles para realizar compras, comunicarse a través de email, navegar por la red, etc… Esto es debido al incremento del uso de los smarthphones. Por ello, cada día toma más importancia que nuestra página web se encuentre optimizada hacia estos dispositivos, aun así millones de páginas web todavía no disponen de un diseño apto para dispositivos móviles.

developers_nerion

Desde Google Developers se puede realizar un test a tu página web y saber en cuestión de segundos si se encuentra adaptado o no a los dispositivos móviles. En el caso de que el test sea negativo, te da consejos o te informa de los cambios que debes de realizar para que se encuentre adaptada. Además nos facilita una guía, para optimizar el sitio web para dispositivos móviles, de los siguientes softwares:

  • WordPress
  • Joomla!
  • Drupal
  • Blogger
  • vBulletin
  • Tumblr
  • DataLife Engine
  • Magento
  • PrestaShop
  • Bitrix
  • Google Sites

El no tener el sitio web adaptado para dispositivos móviles perjudica al posicionamiento de la página web en los buscadores como Google, además de una posible pérdida de ventas, lectores, y/o visitantes.

Desde nerion recomendamos que realicen este test de optimización y mejoren los aspectos que en él os indiquen para un mayor posicionamiento y visibilidad de vuestro sitio web.

Puedes realizar el test desde el siguiente enlace: Google Developers: Optimización web para dispositivos móviles.

 

No existen Hosting caros ni Hosting baratos

Hosting nerion

Muchas veces, cuando tenemos un proyecto Web o Ecommerce entre las manos, debemos valorar donde lo alojamos.

Actualmente existen muchos proveedores en los que podemos contratar dicho servicio. Un consejo que os doy, es que no solo se valore el tema económico, buscando ofertas de servicios que ofrecen unas características que no vamos a utilizar a unos costes muy reducidos, ya que es el gancho para atraer al cliente. Estamos en una guerra de quién da más por menos, pero no debemos olvidar que lo que realmente importa en nuestra Web o Ecommerce, es el servicio.

Un error muy común en algunas consultoras es cuando realizan un proyecto Web o comercio electrónico, valoran el proyecto desde la parte de Programación, la Analítica Web, Usabilidad, SEO, SEM, Redes Sociales, Email Marketing, sin embargo no se tiene en cuenta donde va a correr ese proyecto y en este apartado, es donde a veces se reduce la inversión.

Os pongo un ejemplo. Imaginaros que nuestra Web o Comercio Electrónico, que hemos desarrollado, tiene unas funcionalidades y una programación parecida a las características que podría tener un Ferrari  y ésta, por reducir costes,  en vez de ir por circuitos de carreras vamos por caminos de piedras.  Muchas veces en nerion nos encontramos con esta situación que proyectos alojados en otros proveedores que van a precio, no funcionan por saturación de sus servidores.

Para que un proyecto o tienda online funcione, también es importante conocer el proveedor que nos va a ofrecer el servicio y este nos debe aportar valor añadido estando presente para resolvernos cualquier duda que nos pueda surgir, porque en algún momento de la vida de ese proyecto necesitaras contactar con tu proveedor de servicio.

Mientras no existen problemas de servicios todos los Hosting son buenos, sin embargo, cuando tenemos un problema, cuanto antes atiendan o nos solucionen éste, antes nuestra Web o Ecommerce estará operativo. Es en ese momento es cuando se debe valorar si un Hosting o proveedor de servicios ISP es caro o barato.

Seguramente habréis oído  alguna vez la expresión, “lo barato sale caro” Por eso os aconsejamos que cuando realicéis un proyecto, esteis muy seguros de la empresa donde lo vais a alojar. Cuando miréis un proveedor de Hosting, debéis valorar, el servicio que os pueden prestar, la atención, la disponibilidad, el trato, la facilidad de contactar, la calidad de sus servicios, además de la parte económica.

Debéis reflexionar y pensar, que son ellos los que os está dando el servicio y soporte a toda la inversión realizada de vuestro proyecto.

Y tú, ¿estás en un Hosting caro o Hosting barato?

Bienvenido al blog de nerion

Empresa de servicios cloud, hosting y registro de dominios. Trust us, we take care of you!.
Siguenos en Twitter Siguenos en Facebook Siguenos en Linkedin Siguenos en YouTube
Suscripción a nerion
Entradas antiguas por mes
Twitter
nerion en Facebook