La evolución de las ciberamenazas ha obligado a los equipos de seguridad a adoptar la IA para automatizar los flujos de trabajo, y gracias a esto nos preguntamos cómo será la relación entre los humanos y la IA.
La escala de los ciberataques a los que se enfrentan las organizaciones hoy en día significa que los sistemas autónomos se están convirtiendo en un componente crítico de la ciberseguridad. Esto nos obliga a cuestionar la relación ideal entre los equipos de seguridad humanos y la inteligencia artificial (IA): ¿Qué nivel de confianza debe concederse a un programa de IA y en qué momento deben intervenir los equipos de seguridad en su toma de decisiones?
Con los sistemas autónomos en ciberseguridad, los operadores humanos están elevando el listón de su toma de decisiones. En lugar de tomar ellos mismos un número cada vez más inmanejable de "microdecisiones", ahora establecen las limitaciones y las directrices que deben seguir las máquinas de IA al tomar millones de microdecisiones granulares a escala. Como resultado, los humanos ya no gestionan a nivel micro, sino a nivel macro: Sus tareas cotidianas pasan a ser de más alto nivel y más estratégicas, y sólo se recurre a ellos para las solicitudes de información o acción más esenciales.
Pero, ¿cómo será la relación entre los humanos y la IA?
Humano en el bucle (HitL)
En este escenario, el ser humano es, en efecto, quien toma las decisiones y la máquina sólo proporciona recomendaciones de acciones, así como el contexto y las pruebas de apoyo que respaldan esas decisiones para reducir el tiempo hasta la toma de decisiones y el tiempo hasta la acción para ese operador humano.
Con esta configuración, el equipo humano de seguridad tiene total autonomía sobre cómo actúa y cómo no actúa la máquina.
Humano en el bucle de excepciones (HitLfE)
En este modelo, la mayoría de las decisiones se toman de forma autónoma, y el ser humano sólo se ocupa de las excepciones, cuando la IA solicita algún juicio o aportación del ser humano antes de poder tomar la decisión.
Los humanos controlan la lógica para determinar qué excepciones se marcan para su revisión, y con sistemas digitales cada vez más diversos y a medida, pueden establecerse diferentes niveles de autonomía para diferentes necesidades y casos de uso.
Humano en bucle (HotL)
En este caso, la máquina realiza todas las acciones, y el operador humano puede revisar los resultados de esas acciones para comprender el contexto en torno a las mismas. En el caso de un incidente de seguridad emergente, esta disposición permite a la IA contener un ataque, al tiempo que indica a un operador humano que un dispositivo o una cuenta necesita asistencia, y es entonces cuando interviene para remediar el incidente. Es posible que se requiera trabajo forense adicional, y si el compromiso se produjo en varios lugares, la IA puede escalar o ampliar su respuesta.
Con esta disposición, los humanos conservan el control total sobre cuándo, dónde y a qué nivel actúa el sistema, pero cuando se producen eventos, estos millones de micro decisiones se dejan en manos de la máquina.
Humano fuera del bucle (HootL)
En este modelo, la máquina toma todas las decisiones, y el proceso de mejora es también un bucle cerrado automatizado. El resultado es un bucle de retroalimentación de autocuración y automejora en el que cada componente de la IA alimenta y mejora al siguiente, elevando el estado óptimo de seguridad.
Esto representa el enfoque definitivo de la seguridad sin intervención humana. Es poco probable que los operadores de seguridad humanos quieran que los sistemas autónomos sean una "caja negra", que funcionen de forma totalmente independiente, sin que los equipos de seguridad puedan siquiera tener una visión general de las acciones que están tomando, o por qué. Incluso si una persona está segura de que nunca tendrá que intervenir en el sistema, siempre querrá supervisarlo.
Por consiguiente, a medida que los sistemas autónomos mejoren con el tiempo, será importante hacer hincapié en la transparencia. Esto ha llevado a un reciente impulso de la inteligencia artificial explicable (XAI), que utiliza el procesamiento del lenguaje natural para explicar a un operador humano, en lenguaje cotidiano básico, por qué la máquina ha tomado la acción que ha tomado.
Referencias y Créditos:
4 Ways to Handle AI Decision-Making in Cybersecurity. (2023, 9 de febrero). Dark Reading. https://www.darkreading.com/cloud/4-ways-to-handle-ai-decision-making-in-cybersecurity
コメント