Acuerdo inédito por copyright en IA: Anthropic pagará US$1.500 millones por usar libros pirateados
Además: el breach en Salesloft empezó por GitHub, WhatsApp enfrenta una demanda por ser vulnerable y un estudio advierte que los ensayos de phishing no sirven demasiado.
Dark News es un resumen semanal de noticias de ciberseguridad, privacidad y hacking. Los temas están producidos y seleccionados por Juan Brodersen según estos criterios de edición.
5>12
sep
⚡TL;DR
Las empresas de inteligencia artificial están enfrentando una serie de problemas por derechos de autor (copyright): algunas hacen acuerdos, otras son demandadas (como hizo el New York Times con OpenAI) y, a fines de la semana pasada, se firmó un acuerdo sin precedentes. Anthropic (Claude) acordó pagar 1.500 millones de dólares a autores de libros por haber pirateado su material.
Es llamativo que una empresa grande piratee material y, a partir de un acuerdo, el problema desaparezca. Bueno, no es llamativo: ya había pasado con Meta y el entrenamiento de su IA Llama. ¿Qué pasa, entonces, cuando una empresa tech viola la ley?
Este mes estoy leyendo Enshittification: Why Everything Suddenly Got Worse and What to Do About It de Cory Doctorow y unos días atrás crucé una frase que, quizás, explica esta situación: “Una vez que una compañía es muy grande como para caer, es muy grande para ir presa y, después, demasiado grande como para que le importe [violar la ley]”. Anthropic no es una Big Tech, como seguramente lo sea pronto OpenAI, pero la idea aplica.
El segundo tema del news está dedicado al breach de Salesloft que, a pesar de que es un poco técnico, es importante porque se supo por dónde entraron los atacantes: GitHub. Aparecieron más empresas afectadas por esta cadena que (ahora sabemos) comenzó por el repositorio de código fuente y terminó impactando en varios vendors de ciberseguridad, entre otros 700 afectados.
Hubo una demanda contra WhatsApp por problemas de seguridad (algo que ya pasó), se supo que “el primer ransomware hecho 100% con IA” al final era un estudio académico y un estudio advirtió que los ejercicios de phishing en las empresas no sirven demasiado. Otro reporte remarcó que los intentos de bajar botnets de DDoS no sirven demasiado: a los pocos minutos, respawnean.
La perlita de la semana: un nuevo ransomware amenaza con filtrar información para alimentar modelos de IA si la víctima no paga.
Y una discusión que crucé y me pareció muy interesante fue en torno a un documento oficial de Google que dice que “la web está en un rápido declive”.
Varios ya le prestan atención a los números que mueve el buscador en relación a ChatGPT y, según aseguran, la web y tal como la conocimos ya fue sepultada. En esa discusión, otros dicen que lo que Google quiso decir es que “el negocio de los ads” en la web es el que murió.
En cualquiera de los dos casos, hay consenso en que Google enfrenta serios problemas en el ecosistema actual de la inteligencia artificial generativa como supletoria de los search engine.
En esta edición:
🤖 Acuerdo inédito por copyright en IA: Anthropic pagará US$1.500 millones por usar libros pirateados
🪝 Un estudio advierte que los entrenamientos de phishing no sirven
🔒 El ransomware hecho con IA que descubrió ESET era una prueba académica
⏰ Substack dice que leer este correo completo lleva 12 minutos
📧 Dark News #162
Espacio publicitario
Elimine sus debilidades cibernéticas más críticas y proteja de forma proactiva toda su organización con Tenable, líder en gestión de exposición en el mundo. Más información, clic en este enlace.
Acuerdo inédito por copyright en IA: Anthropic pagará US$1.500 millones por usar libros pirateados
Anthropic acordó pagar 1.500 millones de dólares a un grupo de autores por usar sus libros pirateados para entrenar modelos de IA. El acuerdo cubre 500.000 obras y es considerado el mayor en la historia de litigios por copyright en EE.UU.
Compensación. Cada autor recibirá 3.000 dólares por libro usado, aunque la cifra final podría ser mayor dependiendo de la cantidad de reclamos. Anthropic también deberá destruir todas las copias de las obras que pirateó.
Por qué importa. Sienta un precedente. Las big tech tendrán que pagar si entrenan modelos con obras protegidas por derechos de autor. Podría abrir la puerta a nuevas demandas y a reclamos de otros sectores (música, cine, medios de comunicación, etc.).
Repercusiones. La organización Authors Guild lo calificó como “un excelente resultado” y advirtió que muestra las consecuencias de robar el trabajo de escritores. La Association of American Publishers destacó que el valor del acuerdo va más allá de lo económico, porque fija reglas claras frente a la industria de IA.
Qué falta. El acuerdo ya fue aceptado por Anthropic, pero necesita aprobación judicial. La preliminar podría llegar esta semana, aunque la decisión final se espera recién en 2026. Los autores se van a poder buscar en una web para saber si les corresponde una compensación.
La reacción de Anthropic. La empresa sostuvo que su entrenamiento de IA es fair use, pero aceptó el acuerdo para resolver los reclamos y evitar litigios más largos y costosos.
Salesloft: el breach empezó por GitHub
Salesloft confirmó que el incidente que llevó al robo masivo de datos de Salesforce fue por el compromiso a su repositorio de GitHub. Además, aseguraron que el breach ocurrió en marzo, con lo cual los atacantes permanecieron en silencio durante meses.
Cómo escalaron. La intrusión inicial permitió que los atacantes accedieran luego al entorno AWS de Drift (chatbot de Salesloft), desde donde robaron tokens OAuth. Esos tokens se usaron en agosto para atacar integraciones críticas, como Salesforce y Google Workspace, y de ahí llegaron a diversas empresas.
El objetivo principal era robar credenciales y secretos en casos de soporte, como claves de AWS, passwords y tokens de Snowflake.
Afectados. Entre las víctimas están Google, Zscaler, Cloudflare, Workiva, Tenable, JFrog, Bugcrowd, Proofpoint, Palo Alto Networks, y la lista sigue creciendo.
Quién está detrás. Google TAG atribuyó la campaña al grupo UNC6395, pero BleepingComputer reveló que también hubo actores ligados a ShinyHunters y a quienes dicen ser parte de Scattered Spider.
Cómo lo contuvieron. Salesloft dice que ya rotó credenciales, segmentó infraestructuras y aisló Drift. Mandiant, que lidera la respuesta al incidente, asegura que no hay indicadores de persistencia y validó la contención.
Un estudio advierte que los entrenamientos de phishing no sirven
Los entrenamientos para detectar phishing que se realizan en miles de empresas y se imponen a los empleados tendrían un impacto mínimo en prevenir ataques de phishing, según una investigación reciente en EE.UU.
El research. Investigadores analizaron el caso de 20.000 empleados de UC San Diego Health sometidos a 10 simulaciones de phishing entre enero y octubre de 2023. La institución usa programas de awareness similares a los de muchas compañías.
El resultado: no hubo diferencia significativa entre quienes habían hecho la capacitación hace poco y quienes la habían completado hacía meses.
Los hallazgos.
En promedio, los empleados que recibieron algún tipo de entrenamiento fallaron solo 1,7% menos que los que no tuvieron ninguno.
El 75% de los usuarios pasó menos de un minuto en la página de entrenamiento; entre 37% y 51% la cerró inmediatamente.
Los módulos interactivos de Q&A mostraron mejores resultados, pero sólo si los empleados completaban la actividad —lo que casi nunca ocurrió.
Qué significa. Grant Ho, coautor del paper y profesor en la Universidad de Chicago, fue tajante: la capacitación corporativa, al menos como se despliega hoy, “no provee conocimiento útil de seguridad”. Las razones pueden ir desde contenidos pobres, formatos ineficaces o simplemente desinterés de los usuarios.
Por qué importa. La conclusión de los investigadores es que las empresas no deberían confiar únicamente en el entrenamiento para frenar el phishing.
Los controles técnicos automatizados, como software de detección de correos sospechosos, son más efectivos que delegar en empleados distraídos o poco comprometidos la última línea de defensa.
Una guerra perdida: los DDoS vuelven en pocas horas
Una nueva investigación académica asegura que los grandes operativos internacionales contra servicios de DDoS-for-hire (o “booters”) son casi en vano: vuelven a estar online en pocas horas.
DDoS. Un DDoS o ataque de denegación de servicio distribuido es un tipo de ataque que intenta agotar la capacidad de un servicio para dejarlo sin recursos e impedir que usuarios legítimos accedan.
Contexto. En diciembre de 2022 y mayo de 2023, agencias como el FBI y la NCA británica llevaron adelante la que se considera la campaña más grande contra estos ataques: más de 60 dominios incautados y hasta sitios falsos montados por la policía para sembrar desconfianza.
Los hallazgos. La investigación, presentada en la USENIX Security Symposium 2025, analizó 47 millones de registros de ataques DDoS, datos de tráfico web y foros clandestinos:
Los booters volvieron rápido: la mitad revivió en menos de 20 horas en diciembre y todos en menos de 40 horas en mayo.
Aun así, el tráfico cayó un 80–90% respecto al nivel previo a las incautaciones.
Las visitas a los “splash pages” de la policía superaron los 20 millones, en su mayoría de EE.UU., China, Alemania y Reino Unido.
Los clientes típicos parecían ser gamers jóvenes sin demasiada opsec, con muy poco uso de Tor o VPN.
El primer derribo redujo los volúmenes globales de DDoS entre 20% y 40% durante seis semanas, pero luego los ataques volvieron a subir. El segundo casi no movió la aguja.
Objetivo. Según el reporte, la importancia de seguir realizando estos operativos radica en enviar una señal a los que despliegan los ataques: es inestable y riesgoso.
“Si los booters dejan de ser una herramienta accesible para adolescentes y se convierten en un servicio de nicho para criminales más sofisticados, ya sería una victoria”, asegura el reporte.
WhatsApp enfrenta una demanda por vulnerabilidades
Un exempleado de Meta y WhatsApp aseguró que la compañía ignoró vulnerabilidades críticas, permitió acceso indiscriminado a datos de usuarios y lo despidió en represalia por denunciarlo.
Por qué importa. WhatsApp es una de las aplicaciones de chat más usadas del mundo, con fuerte presencia en América Latina. Tiene 3 mil millones de usuarios.
Qué pasó. Attaullah Baig, exmanager de seguridad en WhatsApp entre 2021 y abril de 2025, demandó a Meta, a Mark Zuckerberg y a otros ejecutivos en una corte de California. Alega que la empresa violó la orden de privacidad de la FTC de 2020, ignoró advertencias internas y luego lo despidió bajo la excusa de “mal desempeño”.
Las acusaciones. Baig apuntó cuatro problemas:
Unos 1.500 ingenieros de WhatsApp tendrían acceso sin restricciones a datos sensibles de usuarios, sin registros ni auditorías.
La empresa no tendría inventario claro de qué datos recolecta ni dónde los almacena.
WhatsApp sufriría 100.000 account takeovers diarios, sin mecanismos efectivos de prevención.
No existiría un SOC (Security Operations Center) ni procesos formales de logging para accesos a datos.
El contexto. Baig dijo que elevó el tema en múltiples ocasiones a sus superiores y hasta a Mark Zuckerberg, CEO de Meta y dueño de WhatsApp, pero recibió represalias: degradaciones de performance reviews y amenazas de perder compensación ejecutiva.
Finalmente, lo despidieron. Meta lo acusó de bajo rendimiento y de no colaborar con el equipo.
Qué dice WhatsApp. La compañía niega todo. “Es un libreto conocido: empleados despedidos por mal desempeño que luego hacen denuncias falsas”, respondió Carl Woog, VP de policy en WhatsApp. También aclararon que Baig no era “jefe de seguridad” y que investigaciones de OSHA y el Departamento de Trabajo desestimaron sus reclamos.
El ransomware hecho con IA que descubrió ESET era una prueba académica
Hace dos semanas, ESET dio a conocer lo que sería “el primer ransomware hecho con IA”, llamado PromptLock. Esta semana se supo que la muestra es parte de un proyecto de investigación de la Universidad de Nueva York.
Qué pasó. ESET detectó muestras de un ransomware llamado PromptLock y alertó públicamente. Poco después, el NYU Tandon School of Engineering reconoció que se trataba de un experimento académico: una prueba de concepto creada por seis investigadores de ciencias de la computación y subido a VirusTotal sin aclarar su origen.
Cómo funciona. El prototipo, que los investigadores llaman “Ransomware 3.0”, actúa como un orquestador que delega la planificación, la toma de decisiones y la generación del payload a un modelo de lenguaje.
Cada instrucción se envía en lenguaje natural, como si fuera una tarea legítima, el LLM genera el código malicioso y cada ejecución produce código distinto, lo que dificulta la detección por firmas o patrones de comportamiento.
Por qué importa. Aunque el prototipo no incluye mecanismos de persistencia ni evasión avanzada, demuestra que los LLM pueden automatizar gran parte del ciclo de vida de un ataque de ransomware.
El paper se puede leer en este enlace.
🔓 Breaches y hacks
Qantas reduce pagos a ejecutivos un 15% luego del data breach
Los atacantes entraron a Salesloft en marzo
Atacan un registro nacional en Vietnam y afecta a toda la población
🔒 Ransomware
Lunalock ransomware amenaza víctimas con alimentar modelos de IA con la información robada
Panamá, víctima de un caso de ransomware
Crecen los costos asociados al ransomware, dice un reporte en base a aseguradoras
💣 Exploits y malware
SAP arregla 21 vulnerabilidades críticas
Esconden malware en archivos de imágenes SVG en una nueva campaña
Teams agrega una advertencia sobre links maliciosos
🔍 Threat intel y vulnerabilidades
Reportes: Google, Kaspersky, Cisco Talos, Sophos, Tenable, Zscaler.
Aparece un nuevo grupo de ransomware: The Gentlemen
EvilAI, una campaña de malware que usa código hecho por IA
🛠️ Tools y updates
Signal incluye ahora 100MB de backup
Tor lanza una VPN para Android (beta)
Apple lanza Memory Integrity Enforcement (MIE) con los iPhone 17
📋 Privacidad y regulaciones
Google perdió 425 millones de dólares en otro juicio por la privacidad de los datos
CISA busca formas de financiar el programa de CVEs
El ente regulador de privacidad de Reino Unido dice que gran parte de los hackeos son causados por estudiantes
Este newsletter fue escrito por un humano. Se usó inteligencia artificial para resumir textos, detectar errores de redacción, concordancia y typos. Aún así, la edición final puede contener errores.
Para cualquier comentario, corrección, sugerencia o tip sobre un hackeo, podés responder este mail.
Si te sirvió, compartilo: tu recomendación orgánica es mucho más valiosa que cualquier campaña publicitaria.











Pero con la rentabilidad de Amazon ya ganaron > 10 mil; el equilibrio está bien. ¡OpenAI se está escapando...