Quién decide qué te dice la IA: la apuesta de Campbell Brown
Campbell Brown, exjefa de noticias de Meta, fundó Forum AI para medir y mejorar la conducta de los grandes modelos en temas complejos como geopolítica, salud mental y selección de personal. Su enfoque combina expertos humanos y 'jueces' de IA para llevar a escala evaluaciones más precisas.
De periodista a fundadora: por qué a Brown le preocupa la IA
Campbell Brown construyó su reputación buscando información veraz: primero como periodista de televisión y luego como la primera y única jefa dedicada a noticias en Facebook. Al ver la llegada pública de ChatGPT mientras estaba en Meta, tuvo una percepción clara y preocupante: los modelos de base pronto serían el conducto principal de información y no eran lo bastante buenos. Para ella, las implicaciones eran personales y sociales —pensó en sus hijos y en la calidad de lo que consumirían— y decidió no esperar a que otros arreglaran el problema.
De esa inquietud nació Forum AI, una empresa creada hace 17 meses en Nueva York que evalúa cómo los modelos de base responden en “temas de alto riesgo”: geopolítica, salud mental, finanzas y contratación, áreas donde las respuestas no son blanco o negro, sino matizadas y complejas.
Metodología: expertos humanos y jueces de IA
La propuesta central de Forum AI es sencilla en su principio pero ambiciosa en la práctica: convocar a los principales expertos del mundo para diseñar benchmarks y luego entrenar “jueces” de IA que evalúen modelos a escala. Entre los expertos que Brown ha reclutado para el trabajo en geopolítica están nombres como Niall Ferguson, Fareed Zakaria, el exsecretario de Estado Tony Blinken, el exspeaker Kevin McCarthy y Anne Neuberger, quien lideró ciberseguridad durante la administración Obama.
El objetivo declarado es lograr que los jueces de IA alcancen aproximadamente un 90% de consenso con esos expertos humanos —un umbral que Brown dice que Forum AI ha podido alcanzar en sus evaluaciones. El enfoque trata de trasladar el criterio experto a procesos automatizados que permitan revisar modelos de forma extensible, en lugar de depender solo de auditorías superficiales o benchmarks genéricos.
Qué han encontrado al evaluar los modelos
Los primeros análisis que realizó Forum AI con los modelos líderes no fueron alentadores. Brown destacó varios problemas:
- Sesgos políticos: observó una inclinación hacia posturas de izquierda en casi todos los modelos evaluados.
- Fuentes inapropiadas: citó casos como respuestas que recurrían a sitios del Partido Comunista Chino para historias que no tenían relación con China.
- Fallas sutiles: omisión de contexto o de perspectivas relevantes, y presentaciones que simplifican o caricaturizan argumentos sin advertirlo.
Estos errores ilustran que, más allá de la gente que crea los modelos (muy enfocada en código y matemáticas), los problemas de información requieren expertos en contenido y contexto. Brown sostiene que algunos de esos fallos podrían corregirse con soluciones relativamente simples, pero exige que se les dé prioridad.
Lecciones de la era de las redes sociales
Brown ha visto antes lo que ocurre cuando una plataforma optimiza por la métrica equivocada. Durante su tiempo en Facebook construyó programas de verificación de hechos que ya no existen. La enseñanza, según ella, es clara: optimizar por engagement fue desastroso para la formación de audiencias informadas.
Su esperanza es que la IA pueda romper ese ciclo si se prioriza la veracidad. Reconoce que la idea de “optimizar la IA por la verdad” suena idealista, pero considera que hay incentivos prácticos que pueden impulsar ese cambio.
Por qué las empresas podrían ser aliadas inesperadas
Brown ve a la empresa como un actor clave: compañías que usan IA para decisiones de crédito, préstamos, seguros o contratación se preocupan por la responsabilidad legal y el riesgo. Según ella, es probable que ese entorno empresarial, que requiere precisión para evitar responsabilidad, impulse la demanda de modelos más confiables.
Forum AI apuesta su modelo de negocio en esa demanda corporativa, aunque convertir interés regulatorio y de cumplimiento en ingresos sostenibles es un desafío. Brown critica los actuales estándares de cumplimiento: los considera insuficientes y describe el panorama como “un chiste” en muchos casos.
Un ejemplo concreto que cita es la ley de la ciudad de Nueva York sobre bias en contratación que exige auditorías de IA: la oficina del contralor estatal encontró que más de la mitad de esas auditorías tenían violaciones no detectadas, lo que sugiere que los procesos actuales no capturan riesgos reales ni casos límite.
Evaluación seria requiere expertise de dominio
Brown insiste en que las auditorías reales necesitan expertos de dominio que puedan analizar no solo escenarios comunes sino también los edge cases que generan problemas graves. “Los generalistas inteligentes no alcanzan”, dice: se necesita especialización para anticipar trampas y efectos colaterales.
Ese enfoque encaja con la estrategia de Forum AI: combinar voces autorizadas, benchmarks rigurosos y sistemas automáticos que repliquen el juicio experto.
Implicaciones para América Latina
Aunque la historia de Forum AI y el reclamo de Brown vienen de Nueva York y Silicon Valley, las lecciones aplican con fuerza en América Latina. La región enfrenta problemas persistentes de desinformación, polarización y uso gubernamental de tecnologías que pueden amplificar narrativas sesgadas. Para empresas locales, reguladores y medios, esto implica:
- No delegar la evaluación de riesgos solo a auditorías superficiales: hay que exigir expertise de dominio.
- Considerar la adopción responsable de herramientas de IA en decisiones sensibles (crédito, contratación, salud), con pruebas que vayan más allá de listas de comprobación.
- Involucrar a expertos regionales que entiendan matices culturales y políticos que los modelos globales pueden ignorar.
Conclusión: dos conversaciones y una urgencia
Brown observa una desconexión: en Silicon Valley se discute el potencial transformador de la IA; para usuarios cotidianos los chatbots siguen entregando respuestas imprecisas y problemáticas. La confianza en la IA está baja y, en muchos casos, con justicia.
Su mensaje es pragmático: si queremos que la IA entregue “lo real, lo honesto y lo veraz”, hace falta voluntad técnica, estándares robustos y expertos que traduzcan criterios humanos complejos a pruebas reproducibles. Y mientras los reguladores y las empresas discuten marcos y auditorías, queda la tarea inmediata de mejorar la calidad de las respuestas y proteger a quienes dependen de ellas.
Forum AI es una apuesta concreta en esa dirección: combinar voces humanas de alto nivel con sistemas automáticos para escalar juicios expertos. El éxito dependerá de si la industria y los reguladores toman en serio la necesidad de evaluación profunda, o si se conforman con soluciones superficiales que dejan intactos los mismos riesgos que Brown vio surgir en la era de las redes sociales.
Fuente original: TechCrunch AI