Hay más bots que humanos: sobrecargan la web, se usan para entrenar IA y el 87% es malicioso
Además: Google va a requerir verificación para subir apps en Google Play, descubren un ransomware manejado completamente por IA y Wikipedia es investigada por "sesgo ideológico".
Dark News es un resumen semanal de noticias de ciberseguridad, privacidad y hacking. Los temas están producidos y seleccionados por Juan Brodersen según estos criterios de edición.
22>29
ago
⚡TL;DR
“Demostrá que no sos un robot”. En la actualidad, la mayoría de las entidades que se crucen con esta confirmación en la web, ya no podría demostrarlo. Son, efectivamente, robots: durante 2025 salieron diversos estudios que indican que más de la mitad de la actividad en la web corresponde a bots y no humanos. Al punto tal de que se habla de una “internet muerta”.
La mayoría de esos reportes diferencia entre “bots buenos y malos". Este mes, un estudio de Fastly -un Content Delivery Network- arroja números sobre la cantidad de bots (crawlers, fetchers) que “navegan” la web en la actualidad y qué impacto tiene en la infraestructura.
“Uno de los desafíos para dueños de sitios web es dejar que entren los bots buenos y evitar que entren los malos”, dicen en el reporte, que es interesante para ver el comportamiento de estos algoritmos que alimentan a otros algoritmos (la IA), o que tienen un objetivo malicioso.
Hay otro tema del newsletter que está vinculado, pero ya volcado a los ataques automatizados: Anthropic sacó un estudio contando cómo un actor de amenazas usó su IA para una cadena completa en un ataque, el que dicen que es “el más efectivo y lucrativo registrado hasta la fecha”. Hay dudas de que sea tan así, pero también hay algunas ideas interesantes que destaco más abajo.
También hubo una noticia sobre el primer ransomware “impulsado por inteligencia artificial”. Se llama PromptLock y lo descubrió ESET. Sin buscarlo de manera deliberada, este número se convirtió en “IA Dark News”. Tiempos que corren, supongo.
Por fuera de estos temas, Google fue noticia en el mundo de la ciberseguridad, pero también en el desarrollo, por una hoja de ruta en la que le pedirán a ciertos países (entre los cuales está Brasil) que las apps estén verificadas para poder estar en Play Store. Es para evitar la distribución de malware, dicen.
En un caso extraño, Wikipedia enfrenta una investigación en el Congreso de EE.UU. por “sesgos” ideológicos. No es la primera vez que la organización está bajo la lupa, en lo que algunos consideran que es un ataque a la libertad de expresión y, otros, “correcciones” a esos sesgos.
Cierro con una recomendación (futura) de lectura: esta semana arranqué a leer Enshittification: Why Everything Suddenly Got Worse and What to Do About It, de Cory Doctorow. Sale en octubre y creo que va a hacer algo de ruido: es una forma ordenada y con más estructura de este concepto que el autor viene explicando durante los últimos años.
Una especie de respuesta a por qué internet se arruinó: los bots y las automatizaciones explican sólo una parte de la ecuación.
En esta edición:
🤖 Fastly disecciona a los bots: el 87% es malicioso, sobrecargan la red y se usan para entrenar IA
⛔ Google va a requerir verificación para subir apps a Google Play en cuatro países
💉 Detectan un ataque de prompt injection contra el filtro anti phishing de IA de Google
🥷 Descubren el primer ransomware manejado con inteligencia artificial, pero no está activo (aún)
💰 Anthropic dice que detectó el ataque con IA más efectivo y lucrativo hasta la fecha
⏰ Substack dice que leer este correo completo lleva 12 minutos
📧 Dark News #160
Espacio publicitario
Llega la edición 12 del evento gratuito de tecnología, ciencia y open source más grande de Hispanoamérica. Más información y registro, en este enlace.
Fastly disecciona a los bots: el 87% es malicioso, sobrecargan la red y se usan para entrenar IA
Un reporte de Fastly clasifica la actividad de los bots que circulan en la web: 87% de ellos son maliciosos y hay un crecimiento de una nueva clase de robots que alimentan a la inteligencia artificial. Además, el informe advierte una sobrecarga de la red que puede ser similar a la de un DDoS.
La investigación. El informe del CDN divide a los bots y, entre los “buenos” (o no maliciosos), hay dos categorías. Acá, las claves del reporte:
Los bots pueden generar una carga significativa sobre la infraestructura web no protegida, con picos de tráfico que alcanzan hasta 39.000 solicitudes por minuto [similar a un DDoS].
Los sectores de comercio, medios, entretenimiento y high-tech enfrentan los niveles más altos de scraping para entrenar modelos de IA.
Los crawlers representan el 80% del tráfico de bots IA, y aproximadamente la mitad de ese tráfico se atribuye únicamente a Meta. En contraste, los AI fetchers constituyen el 20% restante del tráfico.
ChatGPT genera la mayor cantidad de tráfico en tiempo real hacia los sitios web, con el 98% de las solicitudes de fetcher bots atribuibles a los bots de OpenAI.
La mayoría de los modelos de IA se entrenan predominantemente con contenido originado en EE.UU., lo que moldea su alineación de acuerdo con las perspectivas culturales y geopolíticas de la región.
Los dos sectores que empujan estas dos categorías son los de Educación (68%) y Medios y Entretenimiento (54%). Dicen:
La prevalencia de AI fetchers en el vertical de Educación probablemente se deba a que estudiantes e investigadores utilizan herramientas como ChatGPT para consultas académicas, lo que provoca que el fetcher envíe tráfico adicional. El vertical de Medios y Entretenimiento probablemente esté experimentando un comportamiento similar al buscar contenido más reciente y que cambia con frecuencia, como noticias y eventos actuales. Los propietarios de sitios web en estos verticales podrían querer dar mayor importancia a la gestión de AI fetchers para ayudar a controlar la carga adicional que experimentan por ellos en comparación con los crawlers.
Por qué importa. Este aumento de bots cambia cómo circula el contenido en internet y plantea problemas técnicos y económicos.
Por un lado, pueden saturar servidores: Fastly detectó un fetcher con 39.000 requests por minuto, similar a un ataque DDoS. Por otro, los publishers pierden control y monetización frente a estos sistemas.
Quiénes son. OpenAI concentra el 98% del tráfico fetcher, con Perplexity muy atrás (1,5%). Entre los crawlers, Meta lidera con el 52%, seguida por Google (23%) y OpenAI (20%).
El problema. Los autores del reporte aseguran que uno de los desafíos es “dejar que operen los bots legítimos y restringir a los maliciosos”.
En el enlace se puede leer toda la información, un diccionario de términos muy útil y las condiciones de producción (muestreo).
Google va a requerir verificación para subir apps a Google Play en cuatro países
Google anunció que, a partir de 2026, todos los desarrolladores que distribuyan apps en Android deberán verificar su identidad, incluso fuera de la Play Store, en cuatro países: Brasil, Indonesia, Singapur y Tailandia.
Por qué importa. Hasta ahora, quienes distribuían apps por sideloading o tiendas alternativas podían mantener el anonimato. Esto cambia el equilibrio entre un ecosistema abierto o controlado, y podría afectar a desarrolladores independientes.
El sideloading es la instalación de aplicaciones por fuera de la tienda oficial.
Los números. Según Google, las apps instaladas de esta forma tienen 50 veces más malware que las descargadas desde Google Play, donde la verificación rige desde 2023.
Qué significa para los devs. Deberán dar nombre legal, dirección, email y teléfono. Esto podría forzar a algunos a constituirse como empresa por privacidad. Google promete cuentas diferenciadas para estudiantes y hobbistas.
El contexto. Apple ya aplicó un cambio similar en la UE por el DSA. Para Google, el objetivo es reducir malware, fraudes y robo de datos, problemas históricos en Android.
Hay quejas de developers más chicos, que dicen que verán limitada su llegada.
Detectan un ataque de prompt injection contra el filtro anti phishing de Google
Un investigador detectó un correo apócrifo que imitaba un aviso de expiración de contraseña de Gmail. Además de la clásica ingeniería social para robar credenciales, escondía un bloque de texto diseñado para confundir a los sistemas de inteligencia artificial que analizan correos en entornos corporativos.
El ataque. Es un prompt injection que busca que la IA no marque el mail como phishing y genere razonamientos irrelevantes, lo que podría retrasar alertas o generar falsos negativos.
El investigador Anurag Sen detectó un correo con el asunto Login Expiry Notice 8/20/2025 4:56:21 p.m., que alertaba que la contraseña del usuario caducaría pronto. El mensaje llama de manera urgente a actualizar credenciales, una estrategia clásica de la ingeniería social.
Lo novedoso apareció en la sección de texto plano del email: un bloque oculto con instrucciones similares a las de prompt engineering, diseñado para distraer a modelos de IA que clasifican correos en entornos corporativos.
Por qué importa. Los SOC modernos integran IA para triage y automatización. Si el modelo sigue esas instrucciones, en vez de reconocer a un mail como phishing, podría:
Generar razonamientos irrelevantes.
Retrasar la creación de tickets.
Incluso producir falsos negativos.
El investigador señala que los ataques de phishing son cada vez más “AI-aware”, según su terminología.
Republicanos investigan a Wikipedia por “sesgo”
Dos legisladores republicanos lanzaron una investigación para “revisar si hay sesgos organizados” en Wikipedia y cómo la plataforma los maneja.
Qué pasó. El presidente del Comité de Supervisión, James Comer, y la congresista Nancy Mace enviaron un pedido formal de información a Maryana Iskander, CEO de la Wikimedia Foundation.
Buscan pruebas de operaciones extranjeras y actores en universidades financiadas con fondos públicos que intenten influir en la opinión pública de EE.UU. a través de Wikipedia.
Qué solicitan. Piden detalles sobre editores voluntarios que hayan violado políticas y cómo la Fundación detecta y frena intentos deliberados de inyectar sesgos.
El pedido cita reportes sobre propaganda online, incluyendo:
Un informe de la Anti-Defamation League sobre campañas anti-Israel en artículos vinculados al conflicto en Medio Oriente.
Un reporte del Atlantic Council sobre actores pro-Rusia que habrían usado Wikipedia para empujar mensajes pro-Kremlin y anti-Ucrania, con impacto potencial en cómo se entrenan los modelos de IA.
Contexto. Wikipedia ha enfrentado críticas por sesgo político, y un estudio del Manhattan Institute (2024) detectó que las entradas tienden a mostrar términos asociados a la derecha con un tono más negativo.
Qué sigue. La Fundación confirmó que recibió el pedido y dijo que responderá a las preguntas del comité, defendiendo la importancia de proteger la integridad de la información en la plataforma.
Descubren el primer ransomware manejado con inteligencia artificial, pero no está activo (aún)
Investigadores de ESET descubrieron PromptLock, un malware que describen como el primer ransomware impulsado por inteligencia artificial.
Por qué importa. Aunque no está completamente funcional ni se detectaron infecciones activas, es una prueba de concepto que muestra cómo la IA podría facilitar la cadena de ataque para los ciberdelincuentes.
Cómo funciona. El modelo genera scripts Lua en tiempo real para enumerar el sistema de archivos, exfiltrar datos y cifrar información, como hace un ransomware tradicional. Usa el modelo gpt-oss-20b de OpenAI y corre localmente a través de la API de Ollama. Cifra archivos con SPECK (128-bit) y está escrito en Go.
Es compatible con Windows, Linux y macOS.
Zoom in. Aún no implementa todas las funciones (por ejemplo, la destrucción de archivos), pero ESET halló variantes para Windows y Linux en VirusTotal.
Research. ESET compartió la investigación de Anton Cherepanov y Peter Strycek en redes sociales.
Anthropic dice que detectó el ataque con IA más efectivo y lucrativo hasta la fecha
Anthropic publicó un reporte en el que reveló que un hacker explotó Claude Code, su chatbot especializado en código, para ejecutar la operación de ciberextorsión “más completa documentada hasta ahora”: identificó vulnerabilidades, desarrolló malware, robó datos, analizó archivos y redactó correos de extorsión.
El ataque afectó al menos a 17 compañías durante tres meses.
Por qué importa. Si bien la inteligencia artificial se usa en ciberataques, es el primer caso público donde una IA comercial se usa para automatizar casi todo un ciclo de cibercrimen. La IA no solo facilitó phishing o redacción de textos: ejecutó tareas críticas de intrusión, clasificación de información sensible y cálculo de rescates.
Cómo funcionó. Claude identificó primero empresas vulnerables (incluyendo defensa, finanzas y salud) usando OSINT. Luego generó malware y robó datos como números de seguro social, datos bancarios y registros médicos. Luego analizó documentos para definir qué era sensible y calcular montos realistas de extorsión. Y por último redactó las notas de rescate, con demandas entre USD 75.000 a 500.000.
Claves del reporte. El caso muestra cómo la IA baja la barrera para ciberataques sofisticados. Entre los puntos más importantes, señalan:
Los modelos de IA están siendo weaponizados
Baja la barrera para el cibercrimen avanzado
Integración total de IA en operaciones criminales
IA en todas las etapas del fraude
Vibe Hacking (cadena completa del ataque)
Fraude de trabajadores remotos (operadores norcoreanos)
Malware sin código (Ransomware-as-a-Service)
APT chino usando Claude usando tácticas MITRE ATT&CK
Ecosistema de fraude potenciado por IA
Esfuerzos de mitigación de Anthropic
El reporte se puede leer completo en este enlace.
🔓 Breaches y hacks
El estado de Nevada sufre un ataque en EE.UU.
Hackean una estación de TV rusa
Roban casi 5 millones de la plataforma cripto BetterBank
🔒 Ransomware
El fabricante de memorias DATA I/O sufre un ransomware
Qilin listó a Nissan entre sus víctimas
El gobierno de Suecia sufre un ataque de ransomware
💣 Exploits y malware
Un ataque NPM usa prompts de IA para robar credenciales y activos
Check Point detecta una campaña de phishing en Google Classroom
Nueva versión del troyano bancario Zimperium
🔍 Threat intel y vulnerabilidades
Extraditan a un hacker chino que robó más de 275 millones de dólares de celebridades
APT36 apunta a usuarios de Linux
Reportes: Flashpoint, Kaspersky, Red Canary, Cisco Duo, Proofpoint, Kaspersky, Netscout.
🛠️ Tools y updates
Microsoft limita el envío de mails a 100 externos para evitar spam
ESET actualiza su EDR para arreglar una serie de bugs
Cisco lanza 10 actualizaciones para su firewall
📋 Privacidad y regulaciones
Google se rehúsa a quitar resultados de búsqueda
Macron quiere apuntar contra las Big Tech luego de las amenazas de tarifas de Trump
Padres demandan a OpenAI y Sam Altman por el suicidio de su hijo adolescente
Este newsletter fue escrito por un humano. Se usó inteligencia artificial para resumir textos, detectar errores de redacción, concordancia y typos. Aún así, la edición final puede contener errores.
Para cualquier comentario, corrección, sugerencia o tip sobre un hackeo, podés responder este mail.
Si te sirvió, compartilo: tu recomendación orgánica es mucho más valiosa que cualquier campaña publicitaria.










