Seguridad virtual en verano

En verano, el uso de móviles, tablets y ordenadores portátiles aumenta. Asimismo, se utilizan más redes móviles o Wifi. Ambas cosas son factores que ponen en riesgo la integridad de los datos del usuario, tanto a nivel personal como a nivel empresarial. Los expertos recomiendan poner mucha atención al acceso seguro a sistemas de gestión, dispositivos de almacenamiento, correo electrónico o bases de datos. En este artículo os vamos a dar una serie de consejos para mejorar nuestra seguridad virtual en verano.

Seguridad virtual en verano

Como mejorar nuestra Seguridad virtual en verano

Durante la época estival, el tráfico de datos, búsquedas, compras y conexiones a Internet desde dispositivos móviles y ordenadores portátiles aumenta: se realizan más búsqueda de información, más compras online o más consultas al correo del trabajo, incluso más accesos a algún sistema de gestión de la empresa o a sus dispositivos de almacenamiento. El acceso a esta información suele hacerse, además, mediante redes móviles o Wifi, sobre las que no se tiene control y, por lo tanto, “el riesgo de la integridad de esos datos aumenta”, explica el experto Javier Lázaro, CEO de nerion.

“La consulta de nuestros correos electrónicos se debe hacer siempre utilizando un protocolo seguro, de este modo nos aseguraremos que el intercambio de información con los servidores se hace de forma encriptada”, aconseja Lázaro. Por ejemplo, si el acceso es a través de un navegador web o webmail, hay que asegurarse de que en la barra de navegación la página web utiliza HTTPS; y si el acceso se hace mediante un programa de correo electrónico o con la aplicación correspondiente para dispositivo móvil, en la configuración de la cuenta de correo electrónico se debe utilizar protocolos seguros para recepción como POP3S o IMAPS y envío de correo como SMTPS.

Para Lázaro, es de gran importancia poner atención al acceso a aplicaciones empresariales: “Dependiendo del grado de responsabilidad o funciones que tengamos en nuestra empresa, es posible que necesitemos realizar tareas sobre alguna de las aplicaciones. Nuestra recomendación es que, si tenemos que acceder a nuestra red corporativa, la conexión siempre se haga de forma segura mediante una VPN (red privada virtual) que utilice un certificado de seguridad”. De este modo, la información viajará por internet encriptada ajena a que cualquier persona externa pueda capturarla. “Desde luego si no utilizamos una red privada virtual, no deberíamos realizar ninguna operación que requiera la transmisión de información confidencial”, insiste.

En cuanto a los terminales en sí mismos, el CEO de nerion subraya que “el valor de nuestros dispositivos móviles no está en el terminal en sí mismo, si no en la información que almacenan”. Por eso es esencial proteger los smartphones, tablets y laptops. Según datos oficiales de la Secretaría de Estado de Seguridad, en España existen 56 millones de teléfonos móviles y aproximadamente cada dos minutos se produce el robo de uno de ellos. “El problema de que te roben tu móvil no es sólo el coste económico que ello supone, sino el acceso que el ladrón tendrá a tu vida digital, lo que puede ser muy peligroso”, afirma Lázaro. Algunas pautas básicas que aconsejan seguir desde la empresa zaragozana son el uso de contraseñas y de Apps para localizar los dispositivos y borrar su contenido.

Virus en un correo falso de DHL Express

En las últimas semanas se está incrementando en España el número de equipos infectados por un correo que contiene malware y se hace pasar por la empresa de envíos DHL Express.

En el correo nos informan sobre un supuesto envío y te adjuntan un archivo o un enlace para el seguimiento del paquete. Ante este tipo de emails la recomendación es no abrirlo o analizarlo antes con un antivirus, por supuesto si no esperas ningún tipo de paquete por parte de DHL lo que se debe de hacer es proceder a su eliminación.

Ejemplo de correo recibido con virus - DHL Express

El correo se encuentra en español con el asunto “DHL Express – Notificación de Envío”, en el cuerpo del email se nos indica un número de referencia, el número de bultos, etc y viene con un archivo adjunto con un nombre parecido a “SeguimientoDocumentos6809174781.zip”. Podría pasar fácilmente por un envío oficial de DHL Express.

Si nos descargáramos el archivo en nuestro equipo y procediésemos a ejecutarlo, el virus se alojaría en nuestra máquina haciendo vulnerable toda nuestra información.

En la propia página oficial de DHL nos informan sobre las medidas que debemos de tomar ante estos casos. Puedes consultarlas pinchando aquí.

 

Robots.txt: Todo lo que debes de saber sobre su configuración

El fichero robots.txt es un archivo de texto que aporta recomendaciones a los diferentes crawlers y robots de motores de búsqueda para que las cumplan. Usar el archivo robots.txt  es fundamental para tener tu web correctamente indexada ya que te permite tener cierto control sobre la información que puede ser indexada o no por los motores de búsqueda.

Imagen de robots.txt

¿Qué es y para qué se utiliza el archivo robots.txt?

Los motores de búsqueda utilizan mecanismos conocidos como robots, crawlers, indexadores o spiders que analizan constantemente los servidores disponibles en Internet para encontrar nuevas webs o actualizar la información disponible en su base de datos. Por ejemplo, Googlebot es el nombre del robot del buscador Google. También existen otros como:

  • Mediapartners-Google, que es el crawler que se encarga de revisar los anuncios de Google Adsense.
  • Googlebot-Image, robot indexador de imágenes del buscador de Google.
  • Googlebot-News, robot indexador de noticias para Google News.
  • Bingbot, crawler de indexación del buscador Bing

Para ayudar a los motores de búsqueda en la indexación de información de tu sitio web, puedes utilizar robots.txt que orientaran y ayudaran a obtener la información con mayor facilidad.

El archivo robots.txt es un archivo de texto en el que se añaden unas reglas que funcionan como filtros para los buscadores y permite el control de indexación a determinadas páginas o carpetas de tu web. El robot consultará en primer lugar este archivo y deberá de respetar las directivas incluidas en él.

Información y Contenido del archivo Robots.txt

Usar robots.txt es importante, ya que por ejemplo podemos:

  • Impedir el acceso a robots: En muchos casos es preferible no permitir a ciertos robots el acceso a tu sitio web, ya que hay robots que analizan el sitio con fines malintencionados.
  • Reducir la sobrecarga del servidor: Se puede controlar el flujo de robots, algunos de ellos saturan el servidor por el número de peticiones que realizan lo que puede provocar lentitud en la página web.
  • Prohibir zonas: Puede haber ciertas carpetas que se encuentren disponibles en nuestro sitio web, pero que no deseamos que la información contenida sea indexada por los buscadores.
  • Fijar mapas del sitio: Es posible indicar un sitemap para orientar a los robots.
  • Eliminar contenido duplicado: Si eliminamos la duplicidad de contenido los buscadores nos darán una mayor puntuación, lo que mejorara el posicionamiento en los buscadores.

A continuación se explicaran los diferentes elementos que podemos encontrar dentro de un archivo robots.txt:

  • User-agent: En este campo se indica el robot o robots a los que va a afectar las reglas que se encontrarán en el archivo.
  • Disallow: Se indicará qué páginas o carpetas no pueden incluirse en los motores de búsqueda.
  • Allow: Se indicará qué páginas o carpetas pueden ser indexadas por los rastreadores.
  • Sitemap: Muestra la localización del sitemap de tu web, es recomendable para que los rastreadores encuentren las nuevas entradas con mayor facilidad.
  • Crawl-delay: Indica al robot el número de segundos que debe esperar para que analice entre cada página o carpeta. Es muy útil para reducir la carga del servidor.
  • Asterisco (*): Vale por una secuencia cualquiera de caracteres. Por ejemplo, todos los directorios que empiezan por imágenes serían /imagenes*/
  • Dólar ($): Indica el final de un URL. Por ejemplo, para indicar cualquier archivo que acabe con la extensión .php se utilizaría «/prueba.php$».
  • Comentarios (#). Se pueden añadir comentarios para entender mejor tu robots.txt. Ejemplo: #Regla utilizada para Google Bot.

Se debe tener en cuenta los siguientes aspectos:

  • Debe existir solo un robots.txt para cada web y este debe estar situado en el directorio raíz.
  • Robots.txt no hace que una página sea eliminada del índice de los motores de búsqueda si ya ha sido indexada.
  • Los robots de búsqueda solo siguen lo que has especificado en tu robots.txt.
  • Los robots son sensibles a las mayúsculas y minúsculas.
  • La información de tu robots.txt es pública y cualquiera puede acceder a ella tecleando http://sudominio.com/robots.txt.

Ejemplos

Un ejemplo de robots.txt básico sería:

User-Agent: *
Disallow: /nombredelacarpeta/
Sitemap: http://tudominio.com/sitemap.xml

Otro ejemplo más complejo sería:

User-agent: *
Disallow: /admin/
Disallow: /cgi-bin/
Disallow: /imagenes/
Disallow: /videos/
Allow: /tecnologia/computadoras
Crawl-delay: 10
User-agent: googlebot
Disallow: /usuarios/
Disallow: /documentacion/
Sitemap: http://www.sudominio.com/sitemap.xml

Conclusiones

Los motores de búsqueda indexan todo el contenido que encuentran a su paso, el robots.txt funciona esencialmente con reglas de negación para no permitir la indexación de ciertos archivos o carpetas.

Es utilizado por los SEO para evitar las duplicidades en el contenido, permitir o denegar la indexación de contenido de los spiders y otras tareas.

Aspectos básicos sobre el posicionamiento web

posicionamiento

¿Quieres mejorar el posicionamiento de tu sitio web? Tal vez este artículo te ayude a entender cómo lograrlo. A continuación, responderemos a las preguntas que ya deberías saber sobre SEO (Search Engine Optimization).

¿Es mi sitio web competente?

Debemos intentar que nuestro sitio web se encuentre mejor posicionado que el resto de páginas web que trabajen en el mismo sector que el nuestro. Para saberlo debemos comprobar la autoridad del dominio, también conocido Domain authority (DA). La autoridad del dominio es un indicador propuesto por SEOmoz (un peso pesado en el mundo SEO) para calcular la calidad o credibilidad del sitio web, es decir es un indicador de popularidad de nuestra página web.

Podemos saber nuestro nivel de autoridad de dominio en la página de moz.com.

¿Cómo se puede mejorar la autoridad del dominio?

La respuesta es sencilla, aunque el proceso para conseguirlo no lo sea, tu página web debe de tener un contenido de calidad. Con esto se conseguirá que otras páginas web enlacen a tus publicaciones, así se generará más tráfico hacia tu sitio web y por lo tanto se incrementará nuestra popularidad.

¿Cómo puedo obtener una mejor posición en los resultados de búsqueda?

Además de crear contenido de calidad en nuestra página debemos tener en cuenta otros aspectos igual de importantes para mejorar el posicionamiento.

  • Actualiza el contenido del sitio web. Cuanto más actualizado este o más contenido se le inserte mejor.
  • Crea una buena estructura para que el acceso al contenido sea simple e intuitivo.
  • Utiliza etiquetas para los encabezados (h1, h2, h3,…) de tus artículos.
  • Mejora el tiempo de respuesta de tu página web.
  • Utiliza palabras clave.
  • Adaptar el sitio web para los diferentes dispositivos del mercado (smartphone, tablet,…).

¿Qué puede penalizarme en el posicionamiento?

El tiempo de carga elevado, el abusar de las palabras clave, el contenido duplicado o el intercambio de los enlaces puede perjudicar a la hora de posicionar tu sitio web. Comentarios de tipo SPAM o enlaces rotos hacia otros sitios web también son perjudiciales.

 Consejos

  • A la hora de escribir artículos estos deben de tener entre 400 y 900 palabras. Además debería de contener imágenes, videos o enlaces a páginas con mayor relevancia.
  • Insertar las palabras clave en el título o entre las 200 primeras palabras. No es recomendable el uso de palabras clave con densidad mayor al 6%.
  • Para mejorar los tiempos de carga se pueden utilizar la comprensión de imágenes, y no abusar de código que ralentice la carga de la web como puede ser el uso de javascript.
  • Adaptar la página web a los diferentes dispositivos del mercado, ya que los buscadores lo tienen muy en cuenta.
  • Se pueden utilizar herramientas que te ayudaran a mejorar el posicionamiento de tu página web, como puede ser Google Analytics el cuál te aportará información sobre el tráfico hacia tu sitio web o Woorank que te indicará aquellos aspectos donde puede haber una mejoría (tiempo de carga, uso de palabras clave, enlaces rotos,…).

Oferta en Certificados Seguridad SSL por el Día de Internet

Oferta Certificados Seguridad SSL

El 17 de Mayo es el Día de Internet y lo queremos celebrar realizando un descuento del 20% en el precio de todos nuestros Certificados de Seguridad SSL *

Oferta Certificados Seguridad SSL

* Descuento aplicable únicamente en el primer año, resto de años se aplicará el precio tarifa. Oferta válida hasta el 31 de mayo inclusive.

¿Qué es el día de Internet?

El díadeinternet es un proyecto que se celebra en España desde Octubre de 2005 que pretende dar a conocer las posibilidades de las nuevas tecnologías para mejorar el nivel de vida de los pueblos y de sus ciudadanos.

La organización del díadeinternet se apoya en cuatro pilares fundamentales: una Oficina Técnica, puesta en marcha desde una Asociación de Usuarios de Internet en cada país participante; un Comité de Impulso, donde se integran los agentes sociales más relevantes (Administraciones, asociaciones, federaciones, universidades, colegios, sindicatos, partidos políticos,…); los Promotores, que desarrollan eventos y actividades y los Comunicadores, que contribuyen a su difusión.

¿Por qué contratar un Certificado de Seguridad SSL?

Nuestro catálogo de Certificados de Seguridad SSL permite contratar certificados de la principales autoridades de certificación (CA): RapidSSL, GeoTrust, Thawte y Symantec.

Alguna de las ventajas de usar un Certificado de Seguridad SSL para nuestro sitio web son:

1.- Aumento de la seguridad.

La información entre el usuario y nuestra web irá encriptada.

2.- Aumento de la confianza.

Las personas que visiten tu página web se sentirán más seguras si saben que el envío de datos por la red se encuentran encriptados, lo cual puede traducirse en un aumento de ventas.

3.- Garantizar la identidad.

Según el tipo de certificado escogido, garantizamos que somos la empresa u organización propietaria de nuestro sitio web. De este modo, evitamos que nuestro sitio sea afectado por casos de phising.

4.- Eliminación de malware.

Nuestra web es escaneada periódicamente en busca de código dañino (dependiendo del tipo de certificado instalado).

5.- Mejora el posicionamiento.

En agosto de 2014, Google anunció que empezó a tener en cuenta en su algoritmo de posicionamento aquellos dominios que utilizen HTTPS. De este modo, lo tiene en cuenta como un factor positivo a la hora de calcular el ranking de una página web.

6.- Compatibilidad futura con navegadores.

Recientemente Firefox ha anunciado que marca como “deprecated” el protocolo HTTP. De esta forma, las futuras mejoras que apliquen al navegador sólo se aplicaran si tu sitio web funciona bajo protocolo HTTPS y eliminarán gradualmente el acceso a características del navegador para sitios web no seguros, especialmente aquellas que pongan en riesgo a la seguridad y privacidad de los usuarios.

Bienvenido al blog de nerion

Empresa de servicios cloud, hosting y registro de dominios. Trust us, we take care of you!.
Suscripción a nerion
Siguenos en Twitter Siguenos en Facebook Siguenos en Linkedin Siguenos en YouTube Siguenos en Flickr Siguenos en Foursquare
Entradas antiguas por mes
Twitter
nerion en Facebook