Noticias FAE

Facultad de Administración y Economía

IA con equidad: FAE Usach recibe a Jonathan Vásquez para presentar herramienta temprana de detección de sesgos en machine learning

IA con equidad: FAE Usach recibe a Jonathan Vásquez para presentar herramienta temprana de detección de sesgos en machine learning

En el ciclo de seminarios de investigación de la Facultad de Administración y Economía de la Universidad de Santiago de Chile, Jonathan Vásquez, PhD(c) in Computer Science en George Mason University (Fairfax, VA, EE. UU.) y profesor adjunto de la Universidad de Valparaíso, presentó su trabajo “DispaRisk: Assessing Fairness Through Usable Information”, una propuesta para identificar, de manera temprana y explicable, riesgos de disparidades en datos y modelos de machine learning.

Los avances en inteligencia artificial han permeado ámbitos tan diversos como la salud, las finanzas y la educación; sin embargo, también han evidenciado que los algoritmos pueden amplificar sesgos ya presentes en los datos de origen. Con ese desafío al centro, Jonathan Vásquez expuso en el Ciclo de Seminarios de Investigación de la FAE Usach DispaRisk, un marco metodológico que se apoya en desarrollos recientes de la teoría de la información utilizable para evaluar, desde las primeras etapas del ciclo de vida de un proyecto de machine learning, el riesgo de disparidades en conjuntos de datos y en familias de modelos.

La propuesta se concibe como una intervención proactiva: en lugar de corregir tarde los sesgos—cuando el sistema es complejo y costoso de modificar—, DispaRisk permite detectar tempranamente dónde podrían surgir resultados discriminatorios y explicar por qué ciertos patrones del conjunto de datos o determinadas arquitecturas de modelos son más propensas a generarlos. Para validar su utilidad, el estudio compara y somete a benchmarking el marco con datasets ampliamente utilizados en investigación sobre equidad algorítmica, mostrando tres capacidades clave:  identificar conjuntos de datos con alto riesgo de discriminación;  detectar familias de modelos que, dentro de una misma canalización de ML, tienden a agudizar sesgos; y  mejorar la explicabilidad de esos riesgos, aportando insumos concretos para la toma de decisiones técnicas y éticas.

De este modo, la contribución no solo entrega una herramienta diagnóstica para equipos de ciencia de datos, sino que también propone un enfoque de gobernanza que conversa con regulaciones emergentes y con prácticas responsables en IA: anticipar, medir y mitigar efectos adversos antes de la implementación a escala. Para organizaciones públicas y privadas, ello puede traducirse en sistemas más justos, auditables y confiables, particularmente cuando sus decisiones afectan a grupos históricamente subrepresentados.

Al abrir espacios de discusión rigurosa y de alto impacto social, la FAE Usach reafirma su compromiso de transformar con valor, promoviendo investigación que integra excelencia académica, ética, inclusión y responsabilidad pública para el diseño de soluciones tecnológicas al servicio de comunidades más justas.

Facultad de Administración y Economía #Transformaconvalor

Noticias Relacionadas