Etica e IA 1 min lectura
Así funciona el ‘equipo rojo’ que prueba y rompe la IA de Microsoft antes de su lanzamiento
Microsoft mantiene desde 2018 un equipo interno —el llamado red team— que busca fallos y usos peligrosos de sus sistemas de IA antes de su despliegue. Compuesto por expertos de distintas disciplinas, tiene autoridad para frenar lanzamientos hasta mitigar riesgos severos.