miércoles, 22 de septiembre de 2010

Lo que indexan los buscadores

Es posible conocer todo el contenido de una página web haciendo una consulta muy simple en google. Se puede saber lo que el sitio publica y el motor de búsqueda ha indexado mediante la siguiente consulta:
Site:sitioweb.com inurl:sitioweb

De esta forma, google arrojará como resultado todos los links del sitio sitioweb.com que contengan la cadena sitioweb en su url, es decir todos los indexados. Esta información es útil para saber que otros documentos está publicando el sitio que no podemos ver navegándolo. Esta información podría recolectarse mediante la utilización de herramientas de auditoría web, pero es más simple si otro realiza el procesamiento y muestra la dirección IP.

Sin embargo, el administrador del sitio web puede decirle a google y a otros buscadores, que cierto contenido no aparezca en los resultados de las búsquedas. Es allí donde entra en juego el archivo robots.txt. Este archivo, que no es absolutamente necesario que exista, se sitúa en el nives mas alto del sitio, por ejemplo: http://sitioweb.com/robots.txt.

El administrador del sitio podría decir que no se indexe ciertas carpetas armando un archivo robots de la siguiente forma:

User-agent: *
Disallow: /ftp

Donde se pide que no se indexe la carpeta ftp con su contenido.

Es importante aclarar que solamente se pide que no se indexe, algunos buscadores, como google, acceden a este pedido pero otros no lo harán. Lo que google no indexa se puede descubrir analizando el sitio web con otras herramientas.

Es interesante el contenido del archivo robots del propio google, el mismo se puede acceder de desde el link: http://google.com/robots.txt donde se divisa que google no quiere que indexen sus sitios /products, /Linux, etc.

Resumiendo:

El archivo robots.txt es un estándar pero no es mandatorio. Por buenas prácticas debería estar pero el sitio web va a funcionar sin el mismo.

No es una herramienta para bloquear el acceso a contenido, no todos los buscadores prestan atención al archivo.

Es una herramienta precisa para pulir el posicionamiento de un sitio en google, si no queremos que cierta parte del sitio se indexe no se hará.

Solo en caso que se utilice el sitio web para publicar archivos (no es lo más recomendable) el archivo robots.txt puede proteger de que se indexen los mismos. Pero solo para google y los buscadores más reconocidos, no para todos.

martes, 14 de septiembre de 2010

key logger por hardware

Hace unos días mientras estaba armando una presentación, partí de la premisa de que era hoy en día más fácil vulnerar sistemas y fugar información de lo que era antes. Luego de investigar el tema, me di cuenta de que la premisa es cierta. Pero entre tanto encontré algunas cositas que me gustaría compartir con ustedes.
Quien no tiene conocimientos profundos en seguridad o en sistemas en general, pero puede instalar su impresora nueva, está en condiciones de realizar ataques complejos.

Empecé por investigar el estado de los key-loggers por hardware, para quien no los conoce, son dispositivos que se conectan entre el teclado y la PC capturando lo que el usuario tipea, para almacenarlo o transmitirlo en forma inmediata. Hoy en día es simple adquirirlos y existen para teclados PS2, USB, internos e inalámbricos. Tienen un costo de entre 35 y 100 dólares y se pueden comprar por ebay.






Encontré algo que no conocía y que puede complicar aún más la protección de los sistemas, es un dispositivo que captura las imágenes del monitor. De esta forma se captura todo lo que el usuario está viendo en su monitor.




Entonces pensé, otro motivo más para utilizar notebooks en vez de PCs de escritorio, pero existen dispositivos para capturar información específicos para las notebooks, se conectan al slot mini PCI, siendo entonces indetectables en forma física pero dejando rastros para las herramientas de control de inventario. Solo se quita un tornillo y se conecta la placa, es tan simple como en el video que tiene la pagina del fabricante:

http://www.keycarbon.com/products/keycarbon_laptop/video/


Es entonces cuando la seguridad física se vuelve más importante, estos dispositivos son imposibles de detectar mediante herramientas por software. Es poco práctico realizar auditorías en forma constante para buscar este u otro tipo de dispositivos.
Solamente se pueden mitigar parcialmente estos incidentes, algunas de las medidas que se me ocurren son las siguientes.

  • Instalar dispositivos de video vigilancia, estos persuadirán a quien intente instalar uno de estos dispositivos ya que se podrá comprobar quien ha sido el que instaló el dispositivo.
  • En los puestos de trabajo críticos utilizar PCs portátiles, es más complejo desarmar una notebook que conectar una ficha en una PC.
  • Utilizar herramientas de control de inventario para evitar los dispositivos PCI, y además para simplificar la gestión de la red.