SEO

Consejos sobre diseño y usabilidad de una web

Consejos sobre diseño y usabilidad de una web

¿Cuáles son los requisitos para que tu web sea atractiva? Si no consigues que el usuario se quede en tu página más de un minuto, necesitas echar un vistazo a estos consejos sobre diseño y usabilidad.

Diseño y Usabilidad Web

Existen cinco mandamientos básicos si queremos que nuestra web funcione y mantenga la atención del usuario: tener un buen desarrollo para dispositivos móviles, dar un papel protagonista a las imágenes, contenidos que se cargan rápida y automáticamente, optar por un diseño intuitivo y sencillo (olvídate del “horror vacui”) y sintetizar lo máximo posible: acorta tus textos.

 

Según algunos estudios, el 57% de usuarios no recomendaría una compañía cuya web se vea mal en un dispositivo móvil. Teniendo en cuenta que en América, cuna tecnológica, sus habitantes se pasan una media de dos horas y media al día usando sus dispositivos móviles, ¿crees que es producente no estar adaptado a ese medio? Las webs responsive aparecieron en el mundo del diseño web allá por 2010, sin embargo muchas empresas, por lo general pymes y micropymes, todavía no han adaptado sus páginas web. Si no quieres quedarte atrás no puedes dejar que tu web no brille con todo su esplendor en smartphones y tablets. En este sentido, además, una página diseñada basándose en el scrolling interactivo (webs con una home infinita) ayudará a que quienes la ven desde estos dispositivos móviles prefieran quedarse: a la mayoría de usuarios de estos aparatos no les gusta tener que hacer click en botones o enlaces para pasar de una sección a otra.

 

Contar tu historia a través de imágenes creará un mayor impacto entre tus usuarios, no olvides que el 90% de la información transmitida al cerebro es visual. Difundir la esencia de tu empresa será más rápido y claro si optas por buenas fotografías, recuerda que el tiempo medio que un adulto presta atención a un contenido online es de 8 segundos… ¡así que no los malgastes! El 67% de los consumidores dice que la calidad de la fotografía que muestra un producto es muy importante en sus decisiones de compra y el 40% de los usuarios responden mejor a la información visual que a un simple texto plano. Por eso debes alejarte de infinitos textos que ya nadie se lee (es cierto eso de que una imagen vale más que mil palabras).

 

El estilo minimalista está de moda. Y no piensa marcharse. Cada vez más avanzamos hacia diseños menos complicados y más sofisticados, pasando del comentado “horror vacui”. Por eso el ‘flat design’ está aquí para quedarse, según opina el 68% de los diseñadores. Una de sus ventajas principales es el hecho de que al carecer de excesivos elementos, la velocidad de carga de la página es mucho mayor. Además, funciona muy bien con el diseño responsive, ya que permite una mejor adaptación. Las webs sencillas son fáciles de navegar.

 

Por último, no olvides cuidar la tipografía (busca que sean grandes, estilizadas y con mucha personalidad) y añadir iconos a tu página que permitan al usuario interactuar.

7 + 1 Consejos Esenciales que salvarán a nuestro WordPress II

Muchas veces nos hemos preguntado cómo hacer más seguro nuestro WordPress ante posibles infecciones por lo que queremos seguir compartiendo con vosotros los 7 + 1 Consejos Esenciales que salvarán a nuestro WordPress II

Para los fieles seguidores del blog de nerion, para las mentes inquietas que siempre quieren aprender cosas nuevas y para cualquier usuario que su WordPress le reporte quebraderos de cabeza con su web y proveedor, continuamos con el artículo que dejamos abierto de la anterior vez. En este artículo aprenderemos nuevos consejos esenciales a tener en cuenta, a la hora de manejarnos y securizar mejor nuestro blog o web.

7 + 1 Consejos Esenciales que salvarán a nuestro WordPress II

¿Cómo puedo securizar mi página web?

   Invitamos leer los consejos de seguridad 1) y 2) recomendados en la Parte 1 de este tutorial en este link

       7 + 1 Consejos  Esenciales que salvarán a nuestro WordPress

 

 

 

 

 

3) Establecer una contraseña suficientemente segura

¡No estamos descubriendo el mundo! Disponiendo de unas contraseñas sencillas o cortas haremos más fácil que puedan descubrir nuestros accesos y que usuarios malintencionados se autentiquen como si fuéramos nosotros. Con esta vulnerabilidad los hackers pueden conseguir acceso directo a nuestra zona de gestión y disponer de datos confidenciales o manipular nuestra web para su beneficio lo cual puede resultar en desastre.

La regla es evitar utilizar passwords o claves que consistan en palabras de diccionario o patrones fáciles de adivinar. (Por ejemplo admin123, dani234 etc). A la hora de crear un password nos aseguraremos que puedan tener al menos un carácter especial como ‘@’, ‘$’, ‘#’ etc. Además se recomienda incluir algún número.

Hablando de un grado óptimo de securización y siguiendo los consejos de administradores de sistemas se puede contemplar el cambiar cada cierto tiempo de contraseña (idealmente meses, o cada año). Esta medida simplemente la exponemos para que la conozcáis, pero no está entre los 7 + 1 Consejos Esenciales que salvarán a nuestro WordPress II. Profundizaremos sobre ella seguramente en nuestros futuros Blogs de ¡los 7 + 1 Consejos de Experto que salvarán a nuestro WordPress!

QUÉ BUSCAMOS:

Principalmente el no ponerles las cosas aún más fáciles a los hackers. Realmente es una medida más y no combinada con otras puede no ser efectiva. Una contraseña por muy fuerte y difícil que sea, si tenemos infectado nuestro ordenador o nos conectamos a una red pública de no confianza nos la pueden “olisquear” y averiguarla de forma íntegra. Así mismo, WordPress no actualizados pueden suponer agujeros de seguridad por otras vías.

Aún con todo se hace imprescindible tener unas contraseñas adecuadas.

DUDA RAZONABLE:

Nos puede quedar la duda de cómo securizar mejor nuestra contraseña de cara a evitar que la descubran de forma sencilla y por tanto evitar accesos no deseados.

Según formulas matemáticas de algoritmos de crackeo (desencriptación) de contraseñas, es mucho más complicado averiguar un password de este tipo: soyDaniEmpleadoDeNerion3, que por ejemplo D4ni_n3r#ion o que una contraseña aleatoria estilo hT5#nPpW. El motivo es sobre todo por la longitud de la misma que es de las principales bazas a favor que tenemos para demorar o evitar lo máximo posible que decodifiquen nuestras claves. Que decir cabe que si ya combinamos ambas técnicas de utilizar una frase que recordemos junto con otros caracteres como “soy_Dani4#Empleado#De_Nerion6” ¡Bravo!, ya de 10.

¡Fijaros que conseguimos no sólo que sea más complicada de averiguar si no mucho más fácil de tenerla presente en la memoria!

NOTA:

Recomendamos encarecidamente ser muy precavidos a la hora de conectar con tus datos personales a través de redes WI-FI públicas, sobre todo de sitios concurridos, desde las que puedan obtener nuestros datos. En caso de duda informarse previamente preguntando al hotel o proveedor de la red WI-FI a la que conectemos.

Se puede ver a al experto Javier Lázaro, CEO de nerion hablando sobre ello en televisión y radio en el siguiente enlace.

4) Limita los Intentos de Acceso de tu WordPress / Blog

No será la primera que nos pueda ocurrir que los hackers intentan “colarse” en nuestra web (generalmente como administrador “admin” con permisos totales de gestión) para tomar el control total o parcial de la misma.

Para intentar parar estos ataques de fuerza bruta en nuestro WordPress (o cualquier otro) es recomendable limitar el número de accesos al mismo. Ante esto se puede limitar el acceso añadiendo una barrera adicional de protección de Usuario y Contraseña mediante reglas HTACCESS, de las que en nerion hacemos uso.

Si se prefiere se puede elegir descargar e instalar el plugin de WordPress llamado “Limit Login Attempts” que nos hará este trabajo. Lo mejor de este plugin es que nos permite configurar y limitar no sólo el número de intentos de accesos a través normal (del famoso /wp-admin) si no también a través del método implementado de auto cookies, pero por otra parte no deja de ser un plugin y conviene revisarlo y actualizarlo siempre que se pueda.

QUÉ BUSCAMOS:

Se consigue que los famosos ataques de fuerza bruta de nuestro WordPress, sean díficiles o incluso imposibles de producirse. Conseguimos el doble efecto de protección e impedir la saturación de un servidor a través de percutir sobre el servidor con múltiples intentos de acceso.

DUDA RAZONABLE:

Si por motivos fortuitos es uno mismo el que acaba siendo bloqueado no pudiendo acceder o visualizar su web, se recomienda deslistar la propia IP y ponerla de confianza o bien accediendo a través de una IP diferente (una conexión diferente), ya sea desde otra oficina o lugar diferente al del bloqueo entrando al administrador web “wp-login.php” (o wp-admin); o bien contactando con la empresa de alojamiento web y proporcionando los datos de entrada del WordPress.

5) Mover el fichero wp-config a un directorio superior y protegerlo

El fichero wp-config.php contiene información importantísima de tu WordPress, como las credenciales de tu base de datos. Esto puede suponer un riesgo importante ya que por defecto se instala en una ubicación de alguna forma accesible para los hackers y con ello pueden hacer sus “travesuras”.

La solución pasa por mover este fichero a un directorio superior fuera de lo que es el ámbito visible de nuestra web. ¿Puede afectar a mi WordPress? Para nada. El propio WordPress se encarga de buscar el wp-config en directorios superiores hasta que lo encuentra y así utilizar los datos en el contenidos para su correcto funcionamiento. Para finalizar con esta securización, es buena idea cambiar los permisos del wp-config.php a 600.

QUÉ BUSCAMOS:

Proteger los WordPress ante ataques a través de navegadores web de lo que es información muy importante de nuestro sitio. Si nuestro sitio web, plugin cuenta con alguna vulnerabilidad (o incluso servidor si permite infecciones por SymLinks) y un usuario malintencionado consigue acceder a este fichero podrían hackear el acceso al administrador o incluso llegar a realizar operaciones sobre nuestra base de datos.

DUDA RAZONABLE:

En caso de disponer de más de un WordPress en el mismo alojamiento y si al efectuar la operación anterior uno de los “wp-config.php” fuera a sobreescribir a otro que anteriormente se subió a un directorio superior para protegerlo, la forma de proceder es la siguiente:

Primero, ubicaremos el fichero “wp-config.php” en el nuevo directorio. Directorio que por supuesto se encuentre fuera del ámbito visible a través de un navegador.

Por ejemplo mover el fichero original al directorio que crearemos /miWebWordpress/wp-config.php para mi primer WordPress (el directorio puede tener el nombre que más nos guste), y para mi segundo WordPress moverlo desde configuración hacia /miOtroWordpress/wp-config.php, todo ello con los permisos y propietarios adecuados.

Para más dudas sobre esta parte estaremos encantados de poder ayudaros como siempre hacemos.

Para finalizar tendremos que crear un nuevo y modificado wp-config.php por sitio web WordPress sustituyendo al original, en el que le indicaremos cómo la aplicación debe acceder al nuevo directorio creado en el anterior párrago y diseñado especialmente para la configuración de este WordPress.

El código de este fichero será el siguiente para el primer ejemplo citado:

<?php

/** Absolute path to the WordPress directory. */

if ( !defined('ABSPATH') )

define('ABSPATH', dirname(__FILE__) . '/');

/** Location of your WordPress configuration. */

require_once(ABSPATH . '../miWebWordpress/wp-config.php');

 

Aquí concluyen los 7 + 1 Consejos Esenciales que salvarán a nuestro WordPress II (Parte II)

Recordar que estaremos encantados de que conocer vuestras opinionenes además de que os sea interesante leer la primera parte de nuestro tutorial

Enlace  Parte I          7 + 1 Consejos  Esenciales que salvarán a nuestro WordPress

¡Próximamente estaremos de nuevo con vosotros para continuar con la tercera y última sección de este emocionante primer gran tutorial!

7 + 1 Consejos Esenciales que salvarán a nuestro WordPress II

Una idea brillante – Nerion

 

Trust us, we take care of you!

7 + 1 Consejos Esenciales que salvarán a nuestro WordPress

Una de las mayores ventajas de WordPress es que se trata del CMS o gestor de contenidos más popular utilizado; pero también y debido a lo anterior es el gestor de contenidos al que más se le buscan fallos de seguridad y que lamentablemente se encuentran ahondando en la gran cantidad de plugins y themes que existen para el mismo. Estos 7 + 1 Consejos Esenciales que salvarán a nuestro WordPress, nos pueden resultar muy interesantes.

Queremos con esta guía completa brindaros una serie de consejos esenciales que salvarán nuestro WordPress y nuestro servidor. Con un poco de tiempo, tendremos menos quebraderos de cabeza en el futuro como que estos ataques deriven en una alta carga de nuestra web o servidor, así como la posibilidad de perder posiciones en nuestro posicionamiento por amonestaciones de Google u otros. También nos influirá positivamente en tener menos problemas con nuestro proveedor.

 

Consejos Esenciales que salvarán a nuestro WordPress

 

Nosotros desde nerion destacamos por hacer una muy buena labor de consultoría sobre estas incidencias. Otros proveedores, siguiendo sus directrices, dejan todo en manos del cliente, facturan desorbitadamente por un servicio de media-baja calidad orientado a este tipo de “ayudas adicionales” o simplemente cortan tu servicio. La elección de un proveedor equivocado puede suponer perdidas en nuestro servicio, tienda o web que publicitamos al público.

Tras esta introducción empezamos con los 7+1 CONSEJOS ESENCIALES que salvarán a nuestro WordPress que ¡dividiremos en 3 capítulos para una mejor lectura!

7 + 1 Consejos Esenciales que salvarán a nuestro WordPress

1) Comprueba los permisos de los ficheros y directorios de tu WordPress.

Esta medida, que nos vale para prácticamente cualquier sitio sea WordPress o cualquier otro, es de las fundamentales para una mejor securización de cualquier web.

Disponer de permisos 777 (o permisos totales) para todos nuestros ficheros no suele ser una buena decisión (salvo que la documentación o la forma en que está programado un sitio web especifique que son necesarios estos permisos).

Los permisos adecuados son por norma 644 y 640 para ficheros y 755 y 750 para directorios. Para más información sobre este cambio recomendamos el siguiente artículo

Cómo configurar permisos para mis carpetas

QUÉ BUSCAMOS:

Unos permisos bien definidos puede securizar nuestra web ante que cualquier visitante distinto a nosotros (a nuestro usuario local en el servidor) sea capaz de añadir ficheros a nuestra web sin necesidad de forma relativamente sencilla o incluso borrar scripts u otros. En el peor de los casos pueden incluso incluir código malicioso y comprometer la seguridad del sitio, lo cual es una práctica habitual en los CMS actuales en cuanto un spammer tiene ocasión.

DUDA RAZONABLE:

La regla de oro consiste en tener los permisos los más bajos/restrictivos posibles para nuestra web y que le permitan funcionar correctamente. Con PHP corriendo como módulo DSO (menos recomendable) el establecer permisos 600 para los ficheros hará que no se ejecuten adecuadamente, cosa que sí harán estando bajo Apache con suPHP por ejemplo.

2) Realizar copias de seguridad de tu sitio web

Básico, lógico, fundamental. Son sólo algunos de los muchos adjetivos con el que podemos denominar al backup o respaldo de un sitio web.

A veces el gran olvidado, es nuestro seguro de vida ante cualquier borrado no deseado, modificación o destrucción por parte de hackers que han vulnerado nuestro sitio, o actualización de WordPress o de algunos plugins que incompatibilicen con la configuración actual del servidor en el que está alojado. Cuando esto ocurre y se dispone de backup, el alivio de ver como tu negocio puede recuperarse lo más rápidamente y con el menor impacto posible no tiene precio.

En este primer listado de “Medidas esenciales” no vamos a obligar el que se contrate un servicio de Backup con la empresa de hosting, y sí que al menos se utilice algún plugin para la realización de backups y que se guarden en el propio espacio contratado, o como mínimo se hagan descargas periódicas del contenido de nuestra web vía FTP hacia nuestro ordenador.

Será en el siguiente post que hagamos con el listado de “7+1 Consejos Recomendados” en las que hablaremos de la tranquilidad que aporta el contratar que el servicio de Backup lo haga la empresa con la que se tiene la página web y poder contactar con ésta ante cualquier problema :-)

QUÉ BUSCAMOS:

Justamente lo que su traducción al español nos indica. Un respaldo. Un punto de restauración el cual sabemos que todo funciona y que si optásemos por tener que recuperar o volver hacia atrás en caso de perdida total o malfunción irreparable de una web, las perdidas serán menores que si tuviéramos que tirar o empezar con el proyecto desde cero.

DUDA RAZONABLE:

Nos puede abordar la duda de si merece la pena invertir en realizar backups. La respuesta es ¡totalmente! Si nuestro negocio depende de nuestra web y de su información, o los datos de nuestra empresa se encuentran en la “nube” no podemos dejar al azar que podamos perder horas y dinero de nuestro trabajo.

 

Trust us, we take care of you!

Googlebot no accede al CSS y JS de mi web! Qué pasos seguir

Venían avisando. Googlebot ha vuelto a hacerlo una vez más para alegría de ciertos SEO (y pánico para otros) y preocupación y nuevas inversiones para los propietarios de páginas webs. El nuevo algoritmo Google Mobile Friendly es el culpable.

A través de su Blog Oficial de Webmaster el 26 de Febrero de 2015 colgaban un post con el título:

Finding more mobile-friendly search results

El resultado:

Las webs que no estén preparadas para móviles, el 21 de abril perderán posicionamiento con respecto a otras webs sí optimizadas.

El argumento que daba Google:

A medida que más gente hace uso de los dispositivos móviles para acceder a Internet, nuestros algoritmos deben de irse adaptando a estos patrones de uso. En el pasado hemos realizado actualizaciones para asegurar que las webs mostradas están configuradas adecuadamente y son visibles en dispositivos modernos. Hemos propiciado que los usuarios puedan encontrar páginas amigables para dispositivos móviles y hemos introducido la indexación en aplicaciones. Hoy anunciamos dos importantes cambios para ayudar a los usuarios a encontrar más contenido amigable con dispositivos móviles.

El enlace a su herramienta de testeo:

Google Mobile Friendly Tool Checker

Ante la posibilidad de querer ahondar más en este tema y poder profundizar en cómo mejorar su posicionamiento o para los rezagados, pronto os serviremos otro post con información importante sobre cómo abordar el tema de poder rediseñar nuestra web para que cumpla con las características de Google Mobile Friendly (WebResponsive) y obtener los beneficios del rastreo a través del Googlebot.

Quitando la parte introductoria y empezando “de verdad” con nuestro post acerca del error mostrado por Googlebot, desde nerion nos centraremos en el mensaje que circula estos días, y cada vez más entre todos los poseedores de páginas web y/o WebMasters de las mismas, con el siguiente contenido nada agradable en un primer vistazo:

El robot de Google no pueder acceder a los archivos de CSS y JSO también, y en inglés:

Googlebot cannot access CSS and JS filesPor suerte y a pesar de los quebraderos de cabeza que nos puedan dar, los chicos de Google son “buenos” y a continuación de dicho texto, nos indican que pasos seguir estos pasos para solucionar el problema:

1 Identificar los Recursos Bloqueados

Debemos utilizar la herramienta “Explorar como Google” (“Fetch as Google”) para identificar qué recursos de los que requiere Googlebot, están siendo bloqueados por las directivas del Robots.txt.

2 Actualizar el fichero Robots.txt de que disponga vuestra web

Ésta es la verdadera clave de porque hemos recibido estos correos de Google indicando problemas de su “crawler” a la hora de acceder a los CSS y JS de nuestra web. Se tratan en la gran mayoría de los casos de ficheros personalizados y editables pensando en seguridad y posicionamiento; dentro de los cuáles muchos de ellos vienen por defecto de nuestra propia Web Joomla, WordPress o plugins de seguridad de los mismos (como el YOAST de WordPress), otras veces por nuestro programador, o en ciertas ocasiones también por el propio proveedor de servicios.

Para más información sobre la funcionalidad y configuración de los ficheros Robots.txt

El paso 2 consiste por tanto, en eliminar las restricciones que hay en las directivas de robots.txt sobre los archivos CSS y JavaScript de tu sitio web y probar los cambios con la herramienta de pruebas de robots.txt. A continuación, actualizar el archivo robots.txt revisado en tu sitio web y envíalo a Search Console.

3 Valida nuevamente la corrección con “Explorar como Google” (“Fetch as Google”)

Googlebot no accede al CSS y JS de mi web! Qué pasos seguir

Una vez solucionado este problema, Googlebot no debería notificar nuevos problemas. Tan sólo restaría abordar el asunto del posicionamiento SEO para nuestra web haciéndola WebResponsive, o como postearon en Google Mobile Friendly.

Decisión personal de todas formas, en el que es importante poner sobre la balanza el coste de un “Posible peor posicionamiento” VS “Inversión en la contratación de programadores y equipo SEO” que ayuden a subir nuestra web desde las primeras posiciones en los Motores de Busqueda, en este caso Google con su Googlebot, hasta tan sólo unas pocas posiciones más.

Gracias a la experiencia de nerion, estamos con vosotros a la hora de cualquier valoración sobre este balance así como lo mejor para vuestro negocio online, y de forma totalmente gratuita.

 

Trust us, we take care of you!

Robots.txt: Todo lo que debes de saber sobre su configuración

El fichero robots.txt es un archivo de texto que aporta recomendaciones a los diferentes crawlers y robots de motores de búsqueda para que las cumplan. Usar el archivo robots.txt  es fundamental para tener tu web correctamente indexada ya que te permite tener cierto control sobre la información que puede ser indexada o no por los motores de búsqueda.

Imagen de robots.txt

¿Qué es y para qué se utiliza el archivo robots.txt?

Los motores de búsqueda utilizan mecanismos conocidos como robots, crawlers, indexadores o spiders que analizan constantemente los servidores disponibles en Internet para encontrar nuevas webs o actualizar la información disponible en su base de datos. Por ejemplo, Googlebot es el nombre del robot del buscador Google. También existen otros como:

  • Mediapartners-Google, que es el crawler que se encarga de revisar los anuncios de Google Adsense.
  • Googlebot-Image, robot indexador de imágenes del buscador de Google.
  • Googlebot-News, robot indexador de noticias para Google News.
  • Bingbot, crawler de indexación del buscador Bing

Para ayudar a los motores de búsqueda en la indexación de información de tu sitio web, puedes utilizar robots.txt que orientaran y ayudaran a obtener la información con mayor facilidad.

El archivo robots.txt es un archivo de texto en el que se añaden unas reglas que funcionan como filtros para los buscadores y permite el control de indexación a determinadas páginas o carpetas de tu web. El robot consultará en primer lugar este archivo y deberá de respetar las directivas incluidas en él.

Información y Contenido del archivo Robots.txt

Usar robots.txt es importante, ya que por ejemplo podemos:

  • Impedir el acceso a robots: En muchos casos es preferible no permitir a ciertos robots el acceso a tu sitio web, ya que hay robots que analizan el sitio con fines malintencionados.
  • Reducir la sobrecarga del servidor: Se puede controlar el flujo de robots, algunos de ellos saturan el servidor por el número de peticiones que realizan lo que puede provocar lentitud en la página web.
  • Prohibir zonas: Puede haber ciertas carpetas que se encuentren disponibles en nuestro sitio web, pero que no deseamos que la información contenida sea indexada por los buscadores.
  • Fijar mapas del sitio: Es posible indicar un sitemap para orientar a los robots.
  • Eliminar contenido duplicado: Si eliminamos la duplicidad de contenido los buscadores nos darán una mayor puntuación, lo que mejorara el posicionamiento en los buscadores.

A continuación se explicaran los diferentes elementos que podemos encontrar dentro de un archivo robots.txt:

  • User-agent: En este campo se indica el robot o robots a los que va a afectar las reglas que se encontrarán en el archivo.
  • Disallow: Se indicará qué páginas o carpetas no pueden incluirse en los motores de búsqueda.
  • Allow: Se indicará qué páginas o carpetas pueden ser indexadas por los rastreadores.
  • Sitemap: Muestra la localización del sitemap de tu web, es recomendable para que los rastreadores encuentren las nuevas entradas con mayor facilidad.
  • Crawl-delay: Indica al robot el número de segundos que debe esperar para que analice entre cada página o carpeta. Es muy útil para reducir la carga del servidor.
  • Asterisco (*): Vale por una secuencia cualquiera de caracteres. Por ejemplo, todos los directorios que empiezan por imágenes serían /imagenes*/
  • Dólar ($): Indica el final de un URL. Por ejemplo, para indicar cualquier archivo que acabe con la extensión .php se utilizaría «/prueba.php$».
  • Comentarios (#). Se pueden añadir comentarios para entender mejor tu robots.txt. Ejemplo: #Regla utilizada para Google Bot.

Se debe tener en cuenta los siguientes aspectos:

  • Debe existir solo un robots.txt para cada web y este debe estar situado en el directorio raíz.
  • Robots.txt no hace que una página sea eliminada del índice de los motores de búsqueda si ya ha sido indexada.
  • Los robots de búsqueda solo siguen lo que has especificado en tu robots.txt.
  • Los robots son sensibles a las mayúsculas y minúsculas.
  • La información de tu robots.txt es pública y cualquiera puede acceder a ella tecleando http://sudominio.com/robots.txt.

Ejemplos

Un ejemplo de robots.txt básico sería:

User-Agent: *
Disallow: /nombredelacarpeta/
Sitemap: http://tudominio.com/sitemap.xml

Otro ejemplo más complejo sería:

User-agent: *
Disallow: /admin/
Disallow: /cgi-bin/
Disallow: /imagenes/
Disallow: /videos/
Allow: /tecnologia/computadoras
Crawl-delay: 10
User-agent: googlebot
Disallow: /usuarios/
Disallow: /documentacion/
Sitemap: http://www.sudominio.com/sitemap.xml

Conclusiones

Los motores de búsqueda indexan todo el contenido que encuentran a su paso, el robots.txt funciona esencialmente con reglas de negación para no permitir la indexación de ciertos archivos o carpetas.

Es utilizado por los SEO para evitar las duplicidades en el contenido, permitir o denegar la indexación de contenido de los spiders y otras tareas.

Bienvenido al blog de nerion

Empresa de servicios cloud, hosting y registro de dominios. Trust us, we take care of you!.
Siguenos en Twitter Siguenos en Facebook Siguenos en Linkedin Siguenos en YouTube
Suscripción a nerion
Entradas antiguas por mes
Twitter
nerion en Facebook