Virus en un correo falso de DHL Express

En las últimas semanas se está incrementando en España el número de equipos infectados por un correo que contiene malware y se hace pasar por la empresa de envíos DHL Express.

En el correo nos informan sobre un supuesto envío y te adjuntan un archivo o un enlace para el seguimiento del paquete. Ante este tipo de emails la recomendación es no abrirlo o analizarlo antes con un antivirus, por supuesto si no esperas ningún tipo de paquete por parte de DHL lo que se debe de hacer es proceder a su eliminación.

Ejemplo de correo recibido con virus - DHL Express

El correo se encuentra en español con el asunto “DHL Express – Notificación de Envío”, en el cuerpo del email se nos indica un número de referencia, el número de bultos, etc y viene con un archivo adjunto con un nombre parecido a “SeguimientoDocumentos6809174781.zip”. Podría pasar fácilmente por un envío oficial de DHL Express.

Si nos descargáramos el archivo en nuestro equipo y procediésemos a ejecutarlo, el virus se alojaría en nuestra máquina haciendo vulnerable toda nuestra información.

En la propia página oficial de DHL nos informan sobre las medidas que debemos de tomar ante estos casos. Puedes consultarlas pinchando aquí.

 

Robots.txt: Todo lo que debes de saber sobre su configuración

El fichero robots.txt es un archivo de texto que aporta recomendaciones a los diferentes crawlers y robots de motores de búsqueda para que las cumplan. Usar el archivo robots.txt  es fundamental para tener tu web correctamente indexada ya que te permite tener cierto control sobre la información que puede ser indexada o no por los motores de búsqueda.

Imagen de robots.txt

¿Qué es y para qué se utiliza el archivo robots.txt?

Los motores de búsqueda utilizan mecanismos conocidos como robots, crawlers, indexadores o spiders que analizan constantemente los servidores disponibles en Internet para encontrar nuevas webs o actualizar la información disponible en su base de datos. Por ejemplo, Googlebot es el nombre del robot del buscador Google. También existen otros como:

  • Mediapartners-Google, que es el crawler que se encarga de revisar los anuncios de Google Adsense.
  • Googlebot-Image, robot indexador de imágenes del buscador de Google.
  • Googlebot-News, robot indexador de noticias para Google News.
  • Bingbot, crawler de indexación del buscador Bing

Para ayudar a los motores de búsqueda en la indexación de información de tu sitio web, puedes utilizar robots.txt que orientaran y ayudaran a obtener la información con mayor facilidad.

El archivo robots.txt es un archivo de texto en el que se añaden unas reglas que funcionan como filtros para los buscadores y permite el control de indexación a determinadas páginas o carpetas de tu web. El robot consultará en primer lugar este archivo y deberá de respetar las directivas incluidas en él.

Información y Contenido del archivo Robots.txt

Usar robots.txt es importante, ya que por ejemplo podemos:

  • Impedir el acceso a robots: En muchos casos es preferible no permitir a ciertos robots el acceso a tu sitio web, ya que hay robots que analizan el sitio con fines malintencionados.
  • Reducir la sobrecarga del servidor: Se puede controlar el flujo de robots, algunos de ellos saturan el servidor por el número de peticiones que realizan lo que puede provocar lentitud en la página web.
  • Prohibir zonas: Puede haber ciertas carpetas que se encuentren disponibles en nuestro sitio web, pero que no deseamos que la información contenida sea indexada por los buscadores.
  • Fijar mapas del sitio: Es posible indicar un sitemap para orientar a los robots.
  • Eliminar contenido duplicado: Si eliminamos la duplicidad de contenido los buscadores nos darán una mayor puntuación, lo que mejorara el posicionamiento en los buscadores.

A continuación se explicaran los diferentes elementos que podemos encontrar dentro de un archivo robots.txt:

  • User-agent: En este campo se indica el robot o robots a los que va a afectar las reglas que se encontrarán en el archivo.
  • Disallow: Se indicará qué páginas o carpetas no pueden incluirse en los motores de búsqueda.
  • Allow: Se indicará qué páginas o carpetas pueden ser indexadas por los rastreadores.
  • Sitemap: Muestra la localización del sitemap de tu web, es recomendable para que los rastreadores encuentren las nuevas entradas con mayor facilidad.
  • Crawl-delay: Indica al robot el número de segundos que debe esperar para que analice entre cada página o carpeta. Es muy útil para reducir la carga del servidor.
  • Asterisco (*): Vale por una secuencia cualquiera de caracteres. Por ejemplo, todos los directorios que empiezan por imágenes serían /imagenes*/
  • Dólar ($): Indica el final de un URL. Por ejemplo, para indicar cualquier archivo que acabe con la extensión .php se utilizaría «/prueba.php$».
  • Comentarios (#). Se pueden añadir comentarios para entender mejor tu robots.txt. Ejemplo: #Regla utilizada para Google Bot.

Se debe tener en cuenta los siguientes aspectos:

  • Debe existir solo un robots.txt para cada web y este debe estar situado en el directorio raíz.
  • Robots.txt no hace que una página sea eliminada del índice de los motores de búsqueda si ya ha sido indexada.
  • Los robots de búsqueda solo siguen lo que has especificado en tu robots.txt.
  • Los robots son sensibles a las mayúsculas y minúsculas.
  • La información de tu robots.txt es pública y cualquiera puede acceder a ella tecleando http://sudominio.com/robots.txt.

Ejemplos

Un ejemplo de robots.txt básico sería:

User-Agent: *
Disallow: /nombredelacarpeta/
Sitemap: http://tudominio.com/sitemap.xml

Otro ejemplo más complejo sería:

User-agent: *
Disallow: /admin/
Disallow: /cgi-bin/
Disallow: /imagenes/
Disallow: /videos/
Allow: /tecnologia/computadoras
Crawl-delay: 10
User-agent: googlebot
Disallow: /usuarios/
Disallow: /documentacion/
Sitemap: http://www.sudominio.com/sitemap.xml

Conclusiones

Los motores de búsqueda indexan todo el contenido que encuentran a su paso, el robots.txt funciona esencialmente con reglas de negación para no permitir la indexación de ciertos archivos o carpetas.

Es utilizado por los SEO para evitar las duplicidades en el contenido, permitir o denegar la indexación de contenido de los spiders y otras tareas.

Aspectos básicos sobre el posicionamiento web

posicionamiento

¿Quieres mejorar el posicionamiento de tu sitio web? Tal vez este artículo te ayude a entender cómo lograrlo. A continuación, responderemos a las preguntas que ya deberías saber sobre SEO (Search Engine Optimization).

¿Es mi sitio web competente?

Debemos intentar que nuestro sitio web se encuentre mejor posicionado que el resto de páginas web que trabajen en el mismo sector que el nuestro. Para saberlo debemos comprobar la autoridad del dominio, también conocido Domain authority (DA). La autoridad del dominio es un indicador propuesto por SEOmoz (un peso pesado en el mundo SEO) para calcular la calidad o credibilidad del sitio web, es decir es un indicador de popularidad de nuestra página web.

Podemos saber nuestro nivel de autoridad de dominio en la página de moz.com.

¿Cómo se puede mejorar la autoridad del dominio?

La respuesta es sencilla, aunque el proceso para conseguirlo no lo sea, tu página web debe de tener un contenido de calidad. Con esto se conseguirá que otras páginas web enlacen a tus publicaciones, así se generará más tráfico hacia tu sitio web y por lo tanto se incrementará nuestra popularidad.

¿Cómo puedo obtener una mejor posición en los resultados de búsqueda?

Además de crear contenido de calidad en nuestra página debemos tener en cuenta otros aspectos igual de importantes para mejorar el posicionamiento.

  • Actualiza el contenido del sitio web. Cuanto más actualizado este o más contenido se le inserte mejor.
  • Crea una buena estructura para que el acceso al contenido sea simple e intuitivo.
  • Utiliza etiquetas para los encabezados (h1, h2, h3,…) de tus artículos.
  • Mejora el tiempo de respuesta de tu página web.
  • Utiliza palabras clave.
  • Adaptar el sitio web para los diferentes dispositivos del mercado (smartphone, tablet,…).

¿Qué puede penalizarme en el posicionamiento?

El tiempo de carga elevado, el abusar de las palabras clave, el contenido duplicado o el intercambio de los enlaces puede perjudicar a la hora de posicionar tu sitio web. Comentarios de tipo SPAM o enlaces rotos hacia otros sitios web también son perjudiciales.

 Consejos

  • A la hora de escribir artículos estos deben de tener entre 400 y 900 palabras. Además debería de contener imágenes, videos o enlaces a páginas con mayor relevancia.
  • Insertar las palabras clave en el título o entre las 200 primeras palabras. No es recomendable el uso de palabras clave con densidad mayor al 6%.
  • Para mejorar los tiempos de carga se pueden utilizar la comprensión de imágenes, y no abusar de código que ralentice la carga de la web como puede ser el uso de javascript.
  • Adaptar la página web a los diferentes dispositivos del mercado, ya que los buscadores lo tienen muy en cuenta.
  • Se pueden utilizar herramientas que te ayudaran a mejorar el posicionamiento de tu página web, como puede ser Google Analytics el cuál te aportará información sobre el tráfico hacia tu sitio web o Woorank que te indicará aquellos aspectos donde puede haber una mejoría (tiempo de carga, uso de palabras clave, enlaces rotos,…).

Oferta en Certificados Seguridad SSL por el Día de Internet

Oferta Certificados Seguridad SSL

El 17 de Mayo es el Día de Internet y lo queremos celebrar realizando un descuento del 20% en el precio de todos nuestros Certificados de Seguridad SSL *

Oferta Certificados Seguridad SSL

* Descuento aplicable únicamente en el primer año, resto de años se aplicará el precio tarifa. Oferta válida hasta el 31 de mayo inclusive.

¿Qué es el día de Internet?

El díadeinternet es un proyecto que se celebra en España desde Octubre de 2005 que pretende dar a conocer las posibilidades de las nuevas tecnologías para mejorar el nivel de vida de los pueblos y de sus ciudadanos.

La organización del díadeinternet se apoya en cuatro pilares fundamentales: una Oficina Técnica, puesta en marcha desde una Asociación de Usuarios de Internet en cada país participante; un Comité de Impulso, donde se integran los agentes sociales más relevantes (Administraciones, asociaciones, federaciones, universidades, colegios, sindicatos, partidos políticos,…); los Promotores, que desarrollan eventos y actividades y los Comunicadores, que contribuyen a su difusión.

¿Por qué contratar un Certificado de Seguridad SSL?

Nuestro catálogo de Certificados de Seguridad SSL permite contratar certificados de la principales autoridades de certificación (CA): RapidSSL, GeoTrust, Thawte y Symantec.

Alguna de las ventajas de usar un Certificado de Seguridad SSL para nuestro sitio web son:

1.- Aumento de la seguridad.

La información entre el usuario y nuestra web irá encriptada.

2.- Aumento de la confianza.

Las personas que visiten tu página web se sentirán más seguras si saben que el envío de datos por la red se encuentran encriptados, lo cual puede traducirse en un aumento de ventas.

3.- Garantizar la identidad.

Según el tipo de certificado escogido, garantizamos que somos la empresa u organización propietaria de nuestro sitio web. De este modo, evitamos que nuestro sitio sea afectado por casos de phising.

4.- Eliminación de malware.

Nuestra web es escaneada periódicamente en busca de código dañino (dependiendo del tipo de certificado instalado).

5.- Mejora el posicionamiento.

En agosto de 2014, Google anunció que empezó a tener en cuenta en su algoritmo de posicionamento aquellos dominios que utilizen HTTPS. De este modo, lo tiene en cuenta como un factor positivo a la hora de calcular el ranking de una página web.

6.- Compatibilidad futura con navegadores.

Recientemente Firefox ha anunciado que marca como “deprecated” el protocolo HTTP. De esta forma, las futuras mejoras que apliquen al navegador sólo se aplicaran si tu sitio web funciona bajo protocolo HTTPS y eliminarán gradualmente el acceso a características del navegador para sitios web no seguros, especialmente aquellas que pongan en riesgo a la seguridad y privacidad de los usuarios.

2015: El año que nació la extensión .madrid

Madrid-26512

30 años han pasado desde el registro del primer dominio, symbolics.com, y desde entonces se han registrado millones de dominios. A principios del 2014 se comenzaron a liberar las nuevas extensiones de dominio, y en el pasado mes de Diciembre tuvo lugar la creación de las extensiones .gal y .eus pensados para sus respectivas comunidades autónomas (Galicia y País Vasco).

A partir del segundo cuatrimestre del 2015 ya podremos disfrutar del registro de dominios con la extensión .madrid. Los objetivos que se quieren conseguir con el nacimiento de este geodominio son los siguientes:

  • Madrid se beneficiará de una mayor presencia online.
  • Facilitará la comunicación digital de la Comunidad de Madrid.
  • Proporcionará una plataforma para el desarrollo urbano en el espacio digital de la Comunidad de Madrid.

A la hora de registrar un domino con extensión .madrid habrá que cumplir con uno de los siguientes requisitos:

  • Residir en Madrid.
  • Disponer de intereses comerciales o llevar a cabo actividades comerciales lícitas en Madrid.
  • Llevar a cabo actividades socioculturales en Madrid o cualquier otro tipo de presencia local en Madrid.

Esto permitirá a las empresas, instituciones y organismos públicos relacionar su actividad con la región en la que operan, las mayores beneficiarias serán las empresas del sector turístico ya que mejorarán su identificación con la ciudad y llegarán más fácilmente a internautas de todo el mundo. Aunque también saldrán beneficiadas empresas pequeñas. Por ejemplo, si una persona dispone de una pastelería en Madrid y desea registrar un dominio para una mayor visibilidad de su negocio en Internet podría hacerlo con el siguiente nombre pasteleria-en-madrid.com ¿Muy largo? Ahora tendría la posibilidad de registrar mipasteleria.madrid

Por ahora, lo único que sabemos de la fecha de lanzamiento de la extensión .madrid es que será en el segundo cuatrimestre del 2015, y como el resto de nuevas extensiones que han nacido en este último año será del tipo “first come, first served”, es decir el primero que solicite el registro del dominio será el que se lo lleve (excepto si el dominio hace referencia a una marca registrada).

Bienvenido al blog de nerion

Empresa de servicios cloud, hosting y registro de dominios. Trust us, we take care of you!.
Suscripción a nerion
Siguenos en Twitter Siguenos en Facebook Siguenos en Linkedin Siguenos en YouTube Siguenos en Flickr Siguenos en Foursquare
Entradas antiguas por mes
Twitter
nerion en Facebook