UN CONCEPTO VIAJERO
COMPRENSIONES ACERCA DE LA INTERSECCIONALIDAD EN ESTUDIOS DE SESGO EN LA CIENCIA DE DATOS
Abstract
El uso de grandes volúmenes de datos, el diseño de algoritmos y la utilización de técnicas de aprendizaje automático parecen
ser cada vez más frecuentes para la toma de decisiones en diferentes ámbitos como la salud, educación y seguridad pública,
entre otros. El campo de estudio de la ciencia de datos, en la línea de investigación de justicia o fairness, investiga cómo
estos sistemas pueden reproducir y acentuar sesgos y desigualdades presentes en nuestras sociedades. Se han detectado sesgos
mayoritariamente de género y raciales en sistemas predictivos de reincidencia criminal, algoritmos que asisten decisiones
médicas, entre muchos otros. Recientemente se han manifestado carencias en la detección de sesgos cuando se toman las
variables de forma independiente, debido a que las desigualdades pueden presentarse en la intersección de las mismas, siendo
indetectables en el análisis individual. En tanto concepto viajero, la interseccionalidad viene a permear este campo y habilita
la posibilidad de pensar los sesgos que se dan cuando se cruzan múltiples categorías de opresión, complejizando los análisis
hasta el momento centrado en un solo eje de opresión a la vez. Aquí identificamos y analizamos, a partir de una revisión
sistemática de la bibliografía disponible sobre justicia interseccional, cómo la interseccionalidad “viaja” hacia la ciencia de
datos, provocando nuevas preguntas en torno a la justicia. Destacamos, entre las conclusiones, la necesidad de conformar
grupos interdisciplinarios de trabajo para generar diagnósticos y alternativas que se nutran de la interseccionalidad en toda
su riqueza y complejidad.
Downloads
References
Murcia: Cendeac, 2002.
BAROCAS, Solon; SELBST, Andrew. Big Data’s Disparate Impact. California
Law Review, v. 104, n. 3, p. 671-732, 2016.
BAROCAS, Solon; HARDT, Moritz; NARAYANAN, Arvind. Fairness and
Machine Learning: Limitations and Opportunities. fairmlbook.org, 2019.
Disponible en: https://fairmlbook.org/. Acceso 12/11/2022.
BINNS, Reuben. Fairness in Machine Learning: Lessons from Political
Philosophy. Conference on Fairness, Accountability, and Transparency.
Proceedings of Machine Learning Research, v. 81, p. 1-11, 2018.
BIRD, Sarah. et al. Exploring or Exploiting? Social and Ethical Implications
of Autonomous Experimentation in AI. 3rd WORKSHOP ON FAIRNESS,
ACCOUNTABILITY, AND TRANSPARENCY IN MACHINE LEARNING.
Nueva York, nov. 2016.
BOLUKBASI, Tolga. Man is to Computer Programmer as Woman is to
Homemaker? Debiasing Word Embeddings. Proceedings of the 30th
Conference on Neural Information Processing Systems, p. 4356-4364.
Barcelona, España, dic. 2016.
BUOLAMWINI, Joy. Gender Shades: Intersectional Phenotypic and
Demographic Evaluation of Face Datasets and Gender Classifiers. Tesis
(Maestría en Media Arts and Sciences), Massachusetts Institute of
Technology, Cambridge, MA, EUA, 2017.
BUOLAMWINI, Joy; GEBRU, Timnit. Gender Shades: Intersectional
Accuracy Disparities in Commercial Gender Classification. Conference
on Fairness, Accountability, and Transparency. Proceedings of Machine
Learning Research, v. 81, p. 1–15, 2018.
CABRERA, Angel Alexander et al. Discovery of intersectional bias in Machine
Learning using automatic subgroup generation. Debugging Machine
Learning Models Workshop. INTERNATIONAL CONFERENCE ON
LEARNING REPRESENTATIONS, Nueva Orleans, 2019.
CATON, Simon; HAAS, Christian. Fairness in machine learning: A survey.
arXiv: Learning, 2020. Disponible en: https://arxiv.org/abs/2010.04053.
Acceso 12/11/2022.
CHOULDECHOVA, Alexandra. Fair Prediction with Disparate Impact: A
Study of Bias in Recidivism Prediction Instruments. Big Data, v. 5, n. 2, p.
153-163, 2017.