Internet se diseñó para la interacción humana. Hoy en día, la automatización lo define.
He sido testigo de cómo se desarrollaba esta transformación en tiempo real. El tráfico de bots está aumentando. De hecho, la cantidad de bots en Internet podría sorprenderte. Actualmente, los bots representan casi un tercio de toda la actividad en Internet, y esa cifra sigue creciendo.
Mientras los usuarios están ocupados haciendo clic, desplazándose y escribiendo en línea, las máquinas ejecutan tareas automatizadas. La mayor parte de ese tráfico automatizado tiene fines legítimos: rastreadores de búsqueda, integraciones de API, sistemas de supervisión, agentes de IA, entre otros. Sin embargo, una parte significativa es malintencionada, y la línea entre la automatización buena y mala se vuelve cada vez más difusa.
Este cambio no es intrínsecamente peligroso. Es inevitable. Es la siguiente fase de la evolución de Internet. Sin embargo, esto plantea nuevos desafíos que la infraestructura informática heredada y los sistemas de ciberseguridad no fueron diseñados para abordar. Actualmente, los líderes informáticos se enfrentan a preguntas fundamentales sobre la confianza, la visibilidad y el control que las arquitecturas tradicionales no pueden responder. Las organizaciones que reconozcan este cambio y rediseñen su infraestructura en consecuencia determinarán la evolución de Internet. Las que no lo hagan se verán constantemente en desventaja.
El rápido crecimiento de los bots con IA ha alimentado la preocupación por su potencial para realizar actividades maliciosas. Pero no toda la actividad automatizada de bots es mala. De hecho, la mayor parte no lo es. Los rastreadores de búsqueda indexan el contenido. Los monitores de tiempo de actividad rastrean la disponibilidad. Las llamadas API impulsan las integraciones. Los sistemas de IA procesan las solicitudes. Los bots mantienen el funcionamiento actual de Internet, y eso es precisamente lo que hace que el problema sea tan complejo.
Las organizaciones se enfrentan a un doble desafío: deben distinguir entre bots y humanos, y también entre bots buenos y bots malos. Esto resulta complicado, ya que los ciberdelincuentes camuflan los ataques automatizados como tráfico legítimo, y la automatización legítima suele comportarse de forma impredecible a gran escala, lo que hace que parezca sospechosa incluso cuando no lo es.
Las arquitecturas tradicionales de informática y ciberseguridad no se diseñaron para este nivel de ambigüedad. Los modelos de seguridad basados en el perímetro, por ejemplo, crean latencia y puntos únicos de fallo. Mientras tanto, los entornos multinube e híbridos fragmentan las políticas y dan lugar a una aplicación incoherente.
Ambos extremos arquitectónicos, centralizado y descentralizado, han alcanzado sus límites. Los sistemas de informática y seguridad puramente centralizados no pueden escalar o localizarse lo suficientemente rápido. Los sistemas totalmente descentralizados limitan la visibilidad y el control, lo que hace casi imposible aplicar políticas de seguridad coherentes. No pueden adaptarse a la velocidad y al volumen del tráfico impulsado por máquinas. Y aunque pueden decirte quién se conecta, no pueden decirte por qué. Sin embargo, comprender la intención es fundamental para determinar si los bots automatizados ayudan o perjudican.
Este es el cambio fundamental: el desafío ya no es la identificación, sino la interpretación. Ha llegado el momento de trasladar la seguridad del "quién" al "por qué".
Durante décadas, las organizaciones han abordado los bots como un problema de detección y bloqueo, algo que se debe delegar a la pila de seguridad. Sin embargo, a medida que la automatización se convierte en la fuerza dominante en línea, esta postura reactiva deja de ser efectiva. El reto ahora no es detener a los bots. Se está construyendo una infraestructura que puede distinguir la intención y adaptarse en tiempo real.
El cambio de reaccionar ante los bots a diseñar para ellos requiere que las organizaciones se vuelvan "seguras por diseño". Deben integrar la protección directamente en la arquitectura, en lugar de añadirla posteriormente.
La defensa contra bots no puede ser una función, debe ser un principio de diseño. La única respuesta sostenible a la automatización es una arquitectura adaptable que aprende y evoluciona de forma continua. La pregunta no es "¿Cómo puedo conseguir que mi equipo de seguridad resuelva este problema?", sino "¿Cómo puedo diseñar mi arquitectura para que sea flexible, ágil y con capacidad de respuesta?".
Añadir más controles no es la respuesta. Las soluciones de seguridad táctica se vuelven obsoletas en el momento en que se implementan, y las defensas complementarias no son efectivas contra las amenazas que evolucionan más rápido de lo que cualquier respuesta manual puede igualar. El único camino a seguir es un cambio de arquitectura básico en el que la seguridad ya no sea un perímetro, sino que se integre en la propia estructura de la red, dando forma al funcionamiento y la evolución de los sistemas.
Para los equipos de informática y seguridad, el diseño para la automatización comienza con tres principios de arquitectura básicos:
Cuando las políticas y los controles residen en docenas de herramientas, nadie puede tener una visión completa. La consolidación en una única plataforma distribuida a nivel mundial permite a los equipos aplicar una única política en todas partes. Una regla actualizada en una región se propaga por toda la red en segundos, no en semanas.
Desde la rotación de direcciones IP hasta la suplantación de identidades y la imitación del comportamiento del usuario, los atacantes cambian constantemente de tácticas. Los sistemas adaptativos analizan patrones de intención y velocidad, distinguiendo la automatización legítima, como las llamadas API o los rastreadores de búsqueda, de la actividad maliciosa, incluso cuando ambas parecen inicialmente idénticas.
La automatización no es el enemigo. La fragmentación lo es. Cuando las organizaciones utilizan la automatización para correlacionar la telemetría de la red, las señales de bots y el comportamiento de las aplicaciones, pueden detectar y responder a la velocidad de la máquina, transformando una postura reactiva en una proactiva.
La automatización es la nueva constante en nuestro mundo. Para los líderes tecnológicos, la cuestión no es si resistirse a ella, sino cómo diseñar una arquitectura en torno a ella. Liderar en esta nueva era exige un cambio fundamental en la filosofía del diseño.
La seguridad y la adaptabilidad no deben tratarse como prioridades contrapuestas, sino como el mismo objetivo de arquitectura. El futuro de Internet depende de sistemas que puedan reconocer la intención, aprender del comportamiento y adaptarse a la velocidad de la máquina.
Ahí reside el cambio de mentalidad que se necesita entre los responsables informáticos.
Ya no se trata de quién accede a sus sistemas, sino de por qué están ahí. En un mundo en el que las máquinas, las API y los agentes de IA pronto superarán en número a los humanos, la intención se convierte en la señal más fiable de confianza. Diseñar teniendo en cuenta el "por qué" significa crear sistemas que evalúen el propósito y el comportamiento, no solo las credenciales, para decidir si se debe permitir, limitar o denegar una interacción. No se trata de preguntar: "¿Quién eres?" En cambio, la arquitectura de próxima generación debe preguntar "¿Qué estás tratando de hacer?". Este cambio replantea la seguridad, pasando de la verificación de identidad estática al análisis continuo de la intención, lo que se alinea con el comportamiento real de la automatización a escala de Internet.
En una red de Internet de máquina a máquina, el modelo Zero Trust debe evolucionar desde un marco para el acceso humano hasta convertirse en la lógica operativa de todo el ecosistema digital. El conjunto compartido de reglas que rigen cómo cada entidad, ya sea humana o automatizada, gana y mantiene la confianza. Cada conexión o intercambio de datos debe verificar continuamente la identidad, evaluar la intención y aplicar el acceso con privilegios mínimos. En este modelo, Zero Trust funciona menos como una política de seguridad y más como el código de comportamiento de Internet, que define quién o qué puede interactuar, bajo qué condiciones y durante cuánto tiempo.
¿Qué aspecto tiene este modelo de arquitectura en la práctica? En Cloudflare, hemos creado una plataforma con una infraestructura orquestada de forma centralizada, distribuida globalmente y con inteligencia local aplicada. Una red, un panel de control. Todos los servicios se ejecutan en todas partes. Cuando detectamos un patrón de bots en cualquier lugar, podemos aplicar funciones de gestión de bots para implementar medidas de mitigación de forma instantánea en todas partes, en más de 330 ciudades con una capacidad de 449 Tbps. Los modelos de aprendizaje automático entrenados con datos globales detectan anomalías en tiempo real y a escala global. La visibilidad y el control unificados en las capas de seguridad, redes y datos permiten a las organizaciones detectar y responder a las amenazas sin fragmentación ni demoras.
Internet comenzó siendo una red de humanos. Se está convirtiendo en una red de intenciones. Las organizaciones que dejen de reaccionar a la automatización y empiecen a diseñar su arquitectura para ella determinarán la seguridad e inteligencia con la que evoluciona.
Este artículo forma parte de un conjunto de publicaciones sobre las últimas tendencias y temas que afectan a los responsables de la toma de decisiones sobre tecnología en la actualidad.
Para obtener más información sobre cómo proteger tu negocio en esta nueva era de la intención, lee el informe Cloudflare Signals Report | Resiliencia a gran escala, que explora los fallos críticos donde la ciberresiliencia debe integrarse en lugar de añadirse a posteriori.
Nan Hao Maguire, director técnico, Cloudflare
Después de leer este artículo podrás entender:
Cómo está aumentando el tráfico de bots
La diferencia entre los bots buenos y los malos
3 principios para diseñar una arquitectura que incluya bots