Por Redacción

Redmond, 20 de marzo de 2026.- Microsoft confirmó que mantiene activo un equipo multidisciplinario conocido como ‘red team’ o ‘equipo rojo’, dedicado a hackear sus propios productos de inteligencia artificial para identificar vulnerabilidades antes de su lanzamiento. Esta práctica, que la empresa atribuye haber pionerizado desde 2021, forma parte de su estrategia para garantizar la seguridad en el desarrollo de tecnologías avanzadas.

Brad Smith, presidente de Microsoft, destacó la relevancia de establecer marcos éticos claros para el desarrollo tecnológico. “Tenemos principios, los definimos y los publicamos. Por definición, esos principios crearán guardarraíles. Y nos mantenemos en la carretera dentro de ellos”, declaró el ejecutivo. Smith añadió que la discusión no se limita a cuándo utilizar la tecnología, sino también a cuándo no debe ser empleada.

Según reportes de prensa, la función del ‘equipo rojo’ consiste en simular ataques y escenarios adversos contra los sistemas de la compañía para poner a prueba sus defensas. Aunque la investigación no detalla la composición específica del grupo ni los métodos técnicos exactos que emplean, se señala que se trata de un equipo multidisciplinario encargado de stress-testear las soluciones de IA.

La existencia de estos equipos de prueba tiene sus raíces en prácticas militares y de ciberseguridad aplicadas desde hace décadas. El contexto actual incluye un debate global sobre el uso de la inteligencia artificial en conflictos bélicos; recientemente, la empresa Anthropic demandó al Pentágono y Microsoft canceló un acuerdo con dicha institución militar en 2021, lo que refleja la sensibilidad del sector respecto a la aplicación de estas herramientas en defensa.

La estrategia de Microsoft busca alinear el avance tecnológico con responsabilidades corporativas, evitando que las innovaciones sean utilizadas de manera contraria a los principios establecidos por la organización. La compañía continúa operando bajo la premisa de que la autoevaluación mediante pruebas de intrusión es fundamental para mantener la integridad de sus productos en un mercado creciente de inteligencia artificial.