Cloudflare confirmó el restablecimiento total de sus servicios después de una falla que afectó durante más de ocho horas a plataformas como X, ChatGPT, League of Legends, Canva, Perplexity y Spotify. La empresa comunicó que su infraestructura volvió a operar con normalidad y que el entorno ya resulta “seguro” para reactivar funciones que permanecían suspendidas. Esta actualización llegó tras una jornada marcada por cortes simultáneos y reportes masivos en distintos países.
El incidente comenzó el 18 de noviembre de 2025, alrededor de las 11:20 UTC, cuando la compañía detectó un pico de tráfico anómalo dirigido a uno de sus servicios centrales. A partir de ese momento, millones de usuarios enfrentaron fallas para publicar, cargar contenido o acceder a servicios que dependen de la red de Cloudflare. Incluso herramientas como DownDetector o Down for Everyone or Just Me quedaron inutilizables, lo que complicó aún más el monitoreo del impacto.
Los propios sistemas internos, incluido el dashboard de Cloudflare, también mostraron errores. La compañía destinó de inmediato todos sus equipos técnicos a restablecer la conectividad y asegurar el flujo de datos antes de iniciar un análisis detallado sobre el origen del tráfico irregular.
¿Cómo avanzó la recuperación durante el día?
La empresa emitió informes periódicos para detallar la evolución del problema. A las 12:03 UTC reconoció una degradación interna con afectaciones intermitentes y un enfoque total en la recuperación. Más tarde, a las 13:09 UTC, identificó el punto de origen potencial de la incidencia y comenzó a aplicar correcciones específicas.
Durante este proceso, Cloudflare aplicó medidas de contención, como la desactivación temporal de WARP en Londres para aislar el fallo. Minutos después, a las 13:35 UTC, anunció mejoras significativas: los niveles de error en Access y WARP volvieron a cifras previas al incidente y el acceso en Londres quedó restaurado. Aun así, algunos servicios continuaron con fallas parciales.
Con el transcurso de la tarde, los reportes de latencia y error disminuyeron. A las 16:27 UTC todavía se observaban problemas con la puntuación de bots, aunque la tendencia apuntaba a la normalización. Finalmente, a las 17:44 UTC, la compañía informó que su red funcionaba sin errores destacados.
¿Qué factores explican una caída de este alcance?
Especialistas consultados atribuyen eventos de esta magnitud a una mezcla de errores técnicos, fallas humanas y vulnerabilidades en sistemas interconectados. Thiago Araki, directivo de Red Hat, señaló que incluso arquitecturas robustas pueden enfrentar interrupciones cuando aparecen bugs en componentes críticos, como DNS o bases de datos. Estos fallos pueden originar interrupciones en cadena que arrastran a múltiples servicios.
Araki también subrayó que los proveedores tecnológicos trabajan bajo una presión constante por ataques que buscan comprometer sistemas o desactivar servicios de seguridad. Debido a la complejidad creciente de las dependencias en la nube, un error aislado puede desencadenar afectaciones en puntos distantes de la red.
Ante este panorama, especialistas recomiendan estrategias multicloud o híbridas para reducir la vulnerabilidad y garantizar continuidad operativa ante incidentes de gran escala.

