Por Redacción
Redmond, 20 de marzo de 2026.- Microsoft mantiene un equipo multidisciplinario dedicado a probar la seguridad de sus productos de inteligencia artificial, conocido como red team o equipo rojo, según confirmó Brad Smith, presidente de la compañía.
Smith explicó que la empresa cuenta con principios definidos y publicados que crean guardarraíles para el desarrollo tecnológico. “Nos mantenemos en la carretera dentro de ellos. No se trata solo de cuándo debemos usar la tecnología, sino también de cuándo no debemos usarla”, declaró el ejecutivo.
De acuerdo con un reporte de EL PAÍS, Microsoft se atribuye haber sido pionera en esta práctica al formar el equipo rojo en 2021. Este grupo tiene la función de hackear los propios productos de la compañía para identificar vulnerabilidades antes de su lanzamiento.
La práctica del red teaming tiene origen militar y se aplica en ciberseguridad desde hace décadas. En el contexto actual de debate sobre el uso de inteligencia artificial en guerra, esta metodología busca garantizar que los sistemas cumplan con estándares de seguridad establecidos.
El presidente de Microsoft enfatizó que los principios publicados por la empresa definen los límites de uso de la tecnología. Estos guardarraíles buscan prevenir aplicaciones que puedan resultar peligrosas o contrarias a los valores corporativos.
La conformación de este equipo de seguridad se da en un momento donde otras compañías tecnológicas enfrentan cuestionamientos sobre sus relaciones con entidades militares. El caso de Anthropic demandando al Pentágono y la cancelación de un acuerdo de Microsoft con el Pentágono en 2021 marcan el contexto de la industria.
Microsoft continúa operando este equipo multidisciplinario como parte de su estrategia de seguridad proactiva, aunque no se especificaron los métodos concretos de prueba ni los productos específicos de inteligencia artificial que están siendo evaluados en este momento.