En años anteriores en Black Hat, en las Vegas, había isla tras isla de hardware; después, hubo isla tras isla de software para los puestos de trabajo. Ahora hay isla tras isla de middleware dieñado para interpretar toda esa información en tiempo real y tratar de darle sentido, para encontrar la aguja en el pajar de seguridad que sugiera patrones de ataque contra los que se debería actuar, en medio de la enorme proporción de bits, bytes, discos duros, salas de servidores y el resultante alud del caos de datos no estructurados.

Durante años hemos acumulado backups de backups en la sala del servidor en pilas gigantes de discos duros
Si no sabes dónde está tu información, es muy parecido a no tenerla. Durante años hemos acumulado datos en algún lugar de la sala del servidor – backups de backups de backups – en pilas gigantes de discos duros. Ahora estamos repensando todo – tratando cada vez más de compartir recursos entre instancias de cómputo especialmente diseñadas que hacen todo el esfuerzo y no creando enormes cantidades de datos duplicados.

Ya ni siquiera necesitas un sistema operativo completo. Empezamos partiendo sistemas operativos en máquinas virtuales más pequeñas, y ahora eso ha derivado en conjuntos más pequeños de contenedores aislados como Docker, que coexisten en un servidor madre que carga la memoria, el procesador y los bancos de discos duros. Estamos reduciendo nuestros datos a lo que es esencial a fin de gestionar la avalancha.

En vez de vivir con un par de armarios llenos de discos duros, estamos optimizando todo y encontrando nuevas cubetas virtuales (que a menudo alquilamos a otros) para los datos, esperando que algún sistema de middleware se encargue de todo mágicamente.

Excepto cuando no lo hace. Agregar capas nuevas de abstracción tiende a reducir la fidelidad de los datos que estás recibiendo a lo que el marketing le dijo a los desarrolladores del middleware que los clientes promedio buscarían. Así que le estás entregando tu seguridad a otra capa de algo conducido por el marketing.

Es intimidante entender ahora las nuevas formas de asegurar la información que podría estar localizada físicamente en cualquier lado. Entonces tenemos que pensar en proteger los datos usando un enfoque granular basado en contenedores. Si mantenemos los pequeños bits de datos contextualizados, contenidos y protegidos, podemos preocuparnos menos por el lugar en donde literalmente residen.

A menos que todo deje de funcionar. Ahí es precariamente difícil entender dónde está tu información, o si todavía existe. Es peligrosamente difícil hoy en día determinar si podría haber un grave error de big data que te deje repentinamente sin nada, o con un set de herramientas a medio cocinar que deberás esperar que funcione.

Solía ser posible entrar a la sala del servidor, tomar un disco duro y tratar de restaurarlo. Ahora no es así. En ese entonces podías usar herramientas estándar para recuperar tus datos si tenías que hacerlo. Y mientras ese podía ser un proceso desalentador, el middleware garantiza que no recuperas tu información hasta que las herramientas del proveedor funcionen realmente bien en todas las situaciones en las que podrías encontrarte.

Y ¿qué pasa si no sucede? La probabilidad de que un proveedor ponga a disposición una nueva funcionalidad para una herramienta a tiempo, de manera que puedas controlar el daño, es virtualmente inexistente.

Lo mejor que puedes esperar es enfocarte en middleware que esté diseñado por personas que entienden realmente la seguridad, y no por un equipo de marketing. Así tendrás una chance mucho mayor de recuperar tu información, o de tener funcionalidades significativas que te garanticen el mejor escenario posible.

En resumen, si bien necesitas middleware para gestionar la avalancha, elige sabiamente. De lo contrario, podrías estar bien por un tiempo pero de ocurrir "cosas malas" desearás haberlo hecho.