Derek Manky, experto en threat intel: “Todavía no desarrollamos un verdadero instinto de supervivencia digital”
Ransomware sin cifrado, infostealers casi imposibles de bajar, agentes de initial access brokers y la IA que acelera todo: charla a fondo con uno de los principales especialistas de Fortinet.
Dark News es un resumen semanal de noticias de ciberseguridad, privacidad y hacking. Los temas están producidos y seleccionados por Juan Brodersen según estos criterios de edición.
26
abr
🎤 Entrevista
Conocí a Derek Manky en noviembre de 2022, en un congreso en Cancún, México. Especialista en threat intelligence, es una de esas fuentes que vale la pena escuchar: lleva décadas siguiendo de cerca la evolución del cibercrimen y tiene un perfil técnico poco habitual en ejecutivos de grandes compañías.
En Fortinet, donde está hace más de 20 años, lidera el equipo de threat intelligence. A fines del año pasado surgió la posibilidad de entrevistarlo. Estoy publicando un poco después, en parte por temas de agenda del día a día (las rutinas de producción en un diario suelen interrumpir, frecuentemente, las notas que demandan parar un poco la pelota).
El mundo de la ciberseguridad se mueve muy rápido. Pero creo que gran parte de las respuestas de Manky siguen siendo representativas, en parte porque las preguntas no fueron sobre incidentes puntuales sino por problemáticas más generales.
La segunda aclaración es que hay mucha terminología anglosajona. No es lo que más me gusta a la hora de escribir, pero hay conceptos que son difíciles de traducir. Algunos términos son bastante intuitivos. Otros no tanto.
En esos casos, preferí priorizar la precisión antes que una traducción forzada (al fin y al cabo, traduttore traditore como respuesta a todo).
Sin más, acá, la charla que tuvimos hace unos meses.
⏰ Substack dice que leer este correo completo lleva 16 minutos
Dark News #199
Supply chain y crimen como servicio, vigentes
─Cada año parece tener su buzzword en ciberseguridad. En 2025 y la primera parte de 2026, la IA monopolizó la conversación. Más allá de esa etiqueta, ¿qué hay más allá del hype?
─La clave es cómo se está implementando la IA. Si me preguntás qué aparece cuando hablo con CISOs, uno de los temas más frecuentes es AI-driven SecOps: la integración y convergencia de herramientas para acelerar la adopción de threat intelligence y reducir los tiempos de respuesta frente a amenazas. Ese es un eje. El otro, que fue central en 2025 y va a seguir siéndolo en 2026, es la seguridad de los propios sistemas de IA. Hay muchísimo interés en secure AI data centers y en cómo proteger esa infraestructura. El panorama de amenazas evoluciona muy rápido y ya estamos viendo ataques contra sistemas de IA, weaponización de modelos ya disponibles, Crime-as-a-Service montados en la dark web con ayuda de GPTs y nuevos intentos de extraer información sensible o envenenar esos modelos.
─Los atacantes están usando AI para acelerar operaciones. ¿La industria se vio obligada a adoptar AI para responder a esa velocidad?
─100%. Es una suerte de carrera armamentística digital donde todo se está acelerando cada vez más. De hecho, según nuestro Global Threat Landscape Report, desde la perspectiva del atacante, el tiempo para atacar del Red Team está por debajo de 5 días. Y creo que el año que viene, cuando publiquemos el nuevo reporte, va a ser todavía más rápido.
─Cuando hablamos en 2022, el ataque a la cadena de suministro era uno de los grandes temas. Tres años después, sigue apareciendo en casos de alto perfil. ¿Cómo está el problema?
──Sí, sigue siendo una preocupación, pero también evolucionó. Hoy el supply chain es mucho más amplio, sobre todo cuando hablamos de modelos de IA, desarrollos a medida desplegados en nuevos data centers y toda esa infraestructura asociada. Las GPUs, e incluso ahora los edge devices, también entran en ese problema [ver esta investigación de Black Hat]. La cuestión tecnológica hoy pasa por cómo identificás esa cadena de suministro, porque eso cambió mucho desde 2022: en el fondo, es una discusión sobre cómo gestionás tu superficie de ataque. Y eso conecta con otra buzzword que no mencioné antes: CTEM, Continuous Threat Exposure Management.
─¿Qué es?
─Es llevar la gestión de la superficie de ataque a un esquema más continuo: ponerla a prueba con penetration testing y otras técnicas, y reforzar los controles de forma más dinámica. En lugar de hacer un chequeo anual, sacar un reporte, hacer un pentest y después intentar cerrar los gaps, ahora todo se hace mucho más en tiempo real. Y eso responde a una realidad simple, que es que el threat landscape se mueve cada vez más rápido. Por eso CTEM hoy es casi una necesidad.
─¿Cómo está el panorama del crimen como servicio?
──El ascenso del Crime-as-a-Service lo está acelerando mucho. Hoy hay un conjunto de componentes que le permiten a un atacante, con una inversión relativamente baja, comprar una herramienta y lanzar operaciones contra múltiples objetivos, por ejemplo cinco bancos distintos. Esa herramienta además puede generar lenguaje muy regionalizado, en español, chino, japonés o inglés, y adaptarse a cada blanco sin que el atacante tenga que hacerlo manualmente. Eso es lo que estamos viendo: herramientas cada vez más sofisticadas que les permiten ser más especializados, más efectivos y operar a escala.
─¿Hubo alguna técnica o ataque reciente que te haya impresionado por su nivel de sofisticación?
─En términos de ataques in the wild, de lo más interesante que estamos viendo en investigación son los nuevos ataques dirigidos a sistemas de IA para extraer información sensible. Un ejemplo es lo que llamamos emoji smuggling attack. Si entrás a uno de estos motores tipo GPT y le pedís algo como “dame consejos para crear una nueva pieza de malware”, esos modelos tienen safeguard rails: están diseñados para bloquear ese tipo de salida. Pero estos nuevos ataques buscan justamente evadir esos controles. En el caso de emoji smuggling, el atacante codifica caracteres emoji que después pueden decodificarse en una string real de comandos, como un prompt. Y eso ya lo vimos in the wild.
El panorama de los infostealers y los initial access broker (IAB)
─Durante 2025 hubo varios takedowns de infraestructuras de infostealers, pero al poco tiempo esas operaciones reaparecen. ¿Es posible erradicarlas o solo se las puede interrumpir temporalmente?
─Siendo realistas, con el panorama actual el cibercrimen es imposible de erradicar por completo. Igual que el crimen en el mundo real, siempre va a existir. Pensar en una erradicación total no es realista. Lo que sí se puede hacer es priorizar y mitigar buena parte de ese riesgo, pero eso exige nuevos esfuerzos. Porque un takedown de infraestructura por sí solo (bajar servidores o infraestructura asociada a uno de estos infostealers) termina siendo un juego de whack-a-mole. Son esfuerzos valiosos, pero no alcanzan.
─¿Y qué se necesita, entonces?
─Si realmente querés golpear operaciones como Lumma Stealer para que no se vuelvan a levantar, hace falta mucha más coordinación. Esa es una de las razones por las que fundamos Cybercrime Atlas, donde participan expertos en policy y cripto, fuerzas del orden, y empresas de seguridad, no sólo Fortinet. Si sólo vas contra la infraestructura, no alcanza. También tenés que ir por los afiliados: arrestarlos, procesarlos, incautar fondos y fortalecer la capacidad de las fuerzas policiales para llevar adelante esos casos. Ya estamos viendo más cooperación regional y transnacional, y creo que eso va a permitir una disrupción más efectiva.
─La industria habla mucho de colaboración, pero también compite. ¿Cómo conviven esas dos lógicas en el intercambio de inteligencia?
─Creo que ahí hay una señal de madurez de la industria. Un buen ejemplo es Cyber Threat Alliance, que Fortinet fundó en 2014 junto con Palo Alto Networks, y a la que después se sumaron otros competidores como Check Point y Cisco Talos. La lógica es simple: ningúna empresa de la industria ni ningún actor individual va a ser tan efectivo solo como colaborando con otros. Si retenemos información sobre ataques, les damos todavía más ventaja a los atacantes, y ellos ya la tienen porque no tienen que respetar leyes, políticas ni fronteras. Por eso, hace años, empezamos a compartir inteligencia de forma más temprana, incluso con programas de advertencias tempranas dentro de la alianza.
─Así y todo, ¿no hay información que retienen?
─No. Si Unit 42, Cisco Talos o FortiGuard Labs van a publicar investigación sobre un ataque, esa información se comparte antes para que todos puedan enterarse e implementar controles de seguridad. Eso fortalece las defensas colectivas. La competencia no está en retener inteligencia, sino en qué tan bien cada uno la convierte en acción dentro de sus propias soluciones y qué tan efectivas son esas soluciones. Ahí sigue estando la diferencia.
─Durante estos años empezó a aparecer mucho más la figura del initial access broker. ¿Qué peso tiene hoy dentro del ecosistema criminal?
─Muchísimo. Los initial access brokers ya operan casi como negocios formales: tienen marketing, hacen publicidad y a veces segmentan su oferta por organizaciones específicas, regiones o industrias, incluyendo datos como la facturación anual de sus blancos. Publican esos accesos, negocian y hasta hacen subastas. Pero, en esencia, lo que venden es acceso inicial a sistemas comprometidos, incluso en entornos de operational technology (OT). En promedio, ese acceso puede valer entre 150.000 y 200.000 dólares, que no es tanto si después se usa para extorsiones o rescates multimillonarios.
─¿Y qué cambió respecto del modelo anterior? Porque no es nueva la comercialización de accesos.
─Que antes estos atacantes eran mucho más monolíticos. El cibercrimen organizado hacía todo: reconnaissance, spear phishing, obtener acceso, entrar a la red y después pedir el ransom. Ahora estamos viendo roles mucho más especializados, como el de initial access broker.
─Y supongo que esto se vio intensificado con la IA.
─Exacto, de hecho una de nuestras predicciones, que acabamos de publicar, es que vamos a empezar a ver IAB agents, agentes para initial access brokers. En vez de que el broker maneje el nivel uno, el marketing, el contacto inicial y las primeras comunicaciones, creo que eso va a empezar a ser reemplazado por agentes. Va a haber un componente de IA weaponizada.
─Entonces las técnicas viejas siguen funcionando, aunque ahora estén potenciadas por estos modelos automatizados.
─Sí, siguen funcionando. Y las credenciales, especialmente, siguen siendo un foco enorme para los atacantes. Ese low-hanging fruit sigue siendo un target para el atacante.
Ransomware, IA y el problema de la educación para los juniors
─Hoy cualquiera puede usar un LLM para hacer phishing, deepfakes o reconnaissance. ¿Hay algo en la experiencia humana que siga siendo difícil de reemplazar por IA?
─Depende mucho de la aplicación. Un especialista entrenado sigue teniendo una ventaja importante: sabe qué mirar porque lleva tiempo viendo ese tipo de outputs. En tu caso, por ejemplo, probablemente detectes cuándo un texto periodístico fue generado por un modelo. Lo mismo puede pasar con un docente frente a un ensayo o un examen. El problema es que eso funciona cuando hay un ojo entrenado. Para un empleado común, en cambio, seguimos teniendo un problema serio de educación y preparación dentro de la organización.
─¿Y cómo suplís ese gap entre el ojo entrenado y el novato, en un mundo donde la IA entrega todo el contenido ya digerido?
─En mi experiencia, necesitás un enfoque holístico. La educación sigue siendo clave, y nosotros apostamos mucho a eso: tenemos un programa de concientización, trabajamos con universidades y hacemos training K-12. Pero la educación no es una bala de plata. Aunque hace años hablamos de concientización, hoy sigue siendo muy difícil para un empleado (incluso con cierta formación) detectar un email de spear phishing bien hecho.
─¿Por qué ya no alcanza con eso?
─Porque estos ataques cambiaron mucho. Ya no se trata sólo de detectar errores de ortografía o señales obvias. Con la weaponización de la IA, los atacantes pueden automatizar el reconnaissance, tomar datos de LinkedIn, redes sociales o cualquier fuente pública y usar todo eso para darle más legitimidad al engaño. Por eso no alcanza con depender sólo de la educación: hace falta una defensa por capas. El objetivo sigue siendo el mismo, que el usuario entregue información o abra un adjunto malicioso, pero hoy necesitás otra línea de defensa, y ahí vuelve a entrar el concepto de las operaciones de seguridad con IA en mente.
─En el mundo del ransomware parece haber un giro desde el cifrado de datos hacia el data extortion. ¿Cómo leés esto?
─En realidad no me gusta mucho la palabra ransomware porque es la palabra que todos usan en la industria, pero ransomware es más bien el payload. Y esos payloads no evolucionaron tanto. Lo que cambió mucho son las operaciones del ransom. Cambiaron la estrategia y las tácticas. Esos son los toolkits que se venden en el modelo de ransomware as a service. Ese modelo usa el payload, pero si tenés 100 afiliados distintos cobrando comisión, cada uno tiene ideas distintas sobre cómo operar. No es una sola campaña.
─¿En qué sentido?
─Los atacantes ahora usan mucha más información. Cambió la forma en la que se hace reconnaissance. Si van contra un target específico, se preguntan: si tiro abajo esta línea producción en una empresa manufacturera, ¿cuánto les va a costar? ¿Qué daño les genera? La estrategia es distinta.
─Se estudia más a la víctima antes de ejecutar un ataque.
─Y sí, por eso también hubo un movimiento desde el data encryption hacia data extortion y double extortion. La amenaza de publicar código o información sigue existiendo. Pero ahora estamos viendo grupos más tipo empresa criminal, más dirigidos, más específicos. Eligen targets muy puntuales y tienen un playbook mucho más grande. Eso es lo que está cambiando ahora: los targets a los que van y cómo se relacionan con esos targets, porque saben exactamente qué están buscando.
─En un reporte de FortiGuard Labs leí que dicen que la próxima frontera competitiva en ciberseguridad va a depender de qué tan bien puedan operar juntos humanos y máquinas. ¿Ese es el marco más útil para salir de la pregunta simplista de si AI va a reemplazar a las personas?
─Sí. Lo que estamos viendo no es solo una brecha en las habilidades, sino una transformación de roles. Más que mejorar las habilidades, hay una especialización de perfiles que ya existen, como analistas o equipos de IT. El futuro está en equipos híbridos entre humanos e IA: no alcanza con humanos solos, pero tampoco con sistemas totalmente autónomos. Ese modelo puede achicar la brecha de talento, mejorar los tiempos de respuesta y, si se implementa bien, incluso darle ventaja a la defensa en esta carrera armamentística por la IA. El problema es que para eso hace falta educación: hay que formar a la gente para esos nuevos roles, y eso todavía está en construcción.
─Más allá de la ciberseguridad, es cada vez más difícil distinguir lo real de lo falso en la vida online. ¿Estamos entrando en una etapa distinta?
─Sí. Y creo que vamos a necesitar más herramientas para superar este problema. Con el clásico mail del príncipe que te prometía 10 millones de dólares no hacía falta demasiado: era casi autoevidente que era una estafa. Pero con correos o mensajes en redes mucho más personalizados, con vishing o con un deepfake en una videollamada, la cosa cambia. Ahí ya no alcanza con el sentido común de siempre. Y eso nos lleva a lo que yo llamo el problema del “instinto de supervivencia”.
─¿Cómo sería esto?
─Los humanos, después de decenas de miles de años de evolución, desarrollamos una especie de instinto de autoprotección en el mundo físico. Si tocás fuego, te quemás. Si caminás por un callejón oscuro, se activa una alarma interna y empezás a mirar qué puede ser sospechoso. Pero para mucha gente ese mismo reflejo todavía no existe en el mundo online. Como todo es virtual, no se activa de forma natural. Y ahí está el problema: todavía falta desarrollar un instinto de supervivencia digital.
─¿Y cómo se puede ejercitar ese instinto en el mundo online?
─Creo que hay que entrenarlo con el tiempo. Y para eso hacen falta más herramientas. No estoy sugiriendo una sociedad paranoica, no creo que esa sea la respuesta. Pero sí más concientización: cuestionar más cosas, verificar la fuente si recibís algo sospechoso, y usar un canal secundario si un compañero o tu jefe te escribe por Teams con un pedido poco habitual. A fin de cuentas, estamos construyendo hoy los anticuerpos del futuro.
Este newsletter fue escrito por un humano. Se usó inteligencia artificial para resumir textos, detectar errores de redacción, concordancia y typos. Aun así, puede contener imprecisiones.
Para cualquier comentario, corrección o sugerencia, podés responder este mail. Si tenés información sobre un hackeo, me podés contactar por acá o por mis redes.
Si te sirvió, compartilo: tu recomendación orgánica es mucho más valiosa que cualquier campaña publicitaria.







