Predictive algorithms and gender perspective in criminal proceedings
Article Sidebar
Google Scholar citations
Main Article Content
The introduction in the judicial process of algorithmic risk assessment tools to assist the judge must necessarily be preceded by a comprehensive analysis with a gender perspective about their impact on the fundamental rights of the parties that may be seriously affected, mainly that of equality.
This work reflects on the possible incorporation of predictive tools at different stages of a criminal process to then examine the problem of gender biases that they may contain and their consequences in the framework of a process.
Article Details
This work is licensed under a Creative Commons Attribution-NoDerivatives 3.0 Unported License.
(c) Ana Montesinos García, 2023
Copyright
Contents published in IDP are subject to a Creative Commons Attribution-No Derivative Works 3.0 Spain licence, the full text of which can be consulted on http://creativecommons.org/licenses/by-nd/3.0/es/deed.en.
Thus, they may be copied, distributed and broadcast provided that the author and IDP are cited, as shown in the recommended citation that accompanies each article. Derivative works are not permitted.
Authors are responsible for obtaining the necessary permission to use copyrighted images.
Assignment of intellectual property rights
The author non exclusively transfers the rights to use (reproduce, distribute, publicly broadcast or transform) and market the work, in full or part, to the journal’s editors in all present and future formats and modalities, in all languages, for the lifetime of the work and worldwide.
The author must declare that he is the original author of the work. The editors shall thus not be held responsible for any obligation or legal action that may derive from the work submitted in terms of violation of third parties’ rights, whether intellectual property, trade secret or any other right.
Ana Montesinos García, Universitat de València
Full professor of Procedural Law in Universitat de València and co-director of the Master Degree in Gender Law and Violence at said university. Main researcher of the Research Project Claves para una justicia digital y algorítmica con perspectiva de género (Keys for a digital and algorithmic justice with gender perspective), PID2021-123170OB-I00 funded by MCIN/ AEI/10.13039/501100011033. She has been part of the research team of seven research projects funded by the Spanish Ministries of Education and Science, Economics and Competitiveness, all of which were rated as very satisfactory.
From the beginning of her research career, she belongs to the MedArb Excellence Research Group of the Universitat de València. Her most notable lines of investigation are: arbitration, class actions, small claims and digitization of Justice. The studies and work she has carried out have been reflected in various publications both nationally and internationally, specifically in four monographs as a single author and numerous book chapters and journal articles.
AHN, S.; COSTIGAN, A. (2019, diciembre). «Trend Brief: How AI Reinforces Gender Stereotypes». Catalyst, n.º 5 [en línea]. Disponibe en: https://www.catalyst.org/research/ai-gender-stereotypes/
ANGWIN, J.; LARSON, J.; MATTU, S.; KIRCHNER, L. (2016, mayo). «Machine Bias. There’s software used across the country to predict future criminals. And it’s biased against blacks». ProPublica [en línea]. Disponible en: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
BARONA VILAR, S. (2022). «Sistemas algorítmicos en el proceso penal. Su incidencia en The Judge Craft». En: PÉREZ JUAN, J.A. y SANJUAN ANDRES, F.J. (dirs.). La trasformación algorítmica del sistema de Justicia penal. Cizur Menor: Aranzadi, págs. 159-174.
BELLOSO MARTIN, N. (2022). «La problemática de los sesgos algorítmicos (con especial referencia a los de género). ¿Hacia un derecho a la protección contra los sesgos?». En: LLANO ALONSO, F. (dir.). Inteligencia artificial y filosofía del derecho, Murcia: Laborum, págs. 45-78.
CASTRO LIÑARES, D. (2019) Los instrumentos de valoración y gestión de riesgos en el modelo de penalidad español. Editorial Reus. DOI: https://doi.org/10.30462/9788429021882
CHANENSON, S.; HYATT, J. (2016). «The Use of Risk Assessment at Sentencing: Implications for Research and Policy». Working Paper Series, Villanova University Charles Widger School of Law [en línea]. Disponible en: https://digitalcommons.law.villanova.edu/cgi/viewcontent.cgi?article=1201&context=wps
CHRISTIN, A. (2017, diciembre). «The Mistrials of Algorithmic Sentencing». Logic, n.º 3, Justice [en línea]. Disponible en: https://logicmag.io/justice/the-mistrials-of-algorithmic-sentencing/
CORVALAN, J.; MACCHIAVELLI, N.; CINALLI, C.; DANESI, C.; DÁVILA, L.; TOLOSA, P.; SÁNCHEZ CAPARRÓS, M.; MAFUD, M. (2021). «Sesgos algorítmicos de género». IALAB/Universidad de Buenos Aires [en línea]. Disponible en: https://www.researchgate.net/publication/359115499_Sesgos_algoritmicos_de_genero
DANESI, C. (2021). «Sesgos algorítmicos de género con identidad iberoamericana: las técnicas de reconocimiento facial en la mira». Revista Derecho de Familia. n.º 100, págs. 159-168 [en línea]. Disponible en: https://www.ceciliadanesi.com/_files/ugd/e2918c_c961111f9656461986249acd26b49c2e.pdf
DE HOYOS SANCHOS, M. (2021). «Premisas y finalidades del Libro Blanco sobre Inteligencia Artificial de la Comisión Europea: perspectiva procesal del nuevo marco regulador». En: BARONA VILAR, S. (ed.). Justicia algorítmica y neuroderecho, Una mirada multidisciplinar. Valencia: Tirant Lo Blanch, págs. 129-155.
DESMARAIS, S.L.; ZOTTOLA, S.A. (2020). «Violence risk assessment: current status and contemporary issues». Marquette Law review, vol. 103, n.º 3, págs. 793- 817.
EUROPEAN UNION AGENCY FOR FUNDAMENTAL RIGHTS (2020). Facial recognition technology: fundamental rights considerations in the context of law enforcement. European Union Agency for Fundamental Rights [en línea]. Disponible en: http://fra.europa.eu/en/publication/2019/facial-recognition-technology-fundamental-rights-considerations-context-law
FERNÁNDEZ, A. (2019). «Inteligencia artificial en los servicios financieros». Boletín económico - Banco de España, n.º 2.
FERNÁNDEZ BENÉITEZ, A.; GARCÍA DEL BLANC, I. (2022, junio). «Inteligencia artificial, igualdad real». El país [en línea]. Disponible en: https://elpais.com/tecnologia/2022-06-01/inteligencia-artificial-igualdad-real.html
FREEMAN. K. (2016). «Algorithmic injustice: How the Wisconsin Supreme Court failed to protect due process rights in State v. Loomis». North Carolina Journal of Law & Technology, vol. 18, n.º 5 [en línea]. Disponible en: https://scholarship.law.unc.edu/cgi/viewcontent.cgi?article=1332&context=ncjolt
GARRETT, B.; MONAHAN, J. (2019). «Assessing Risk: The Use of Risk Assessment in Sentencing». Judicature, Bolch Judicial Institute Duke Law School, vol. 103, n.º 2 [en línea]. Disponible en: https://judicature.duke.edu/articles/assessing-risk-the-use-of-risk-assessment-in-sentencing/
HARCOURT, B.E. (2015). «Risk as a Proxy for Race. The Dangers of rosk assessment». Federal Sentencing reporter, vol. 27, n.º 4, págs. 237- 243. DOI: https://doi.org/10.1525/fsr.2015.27.4.237
HUERGO LORA, A. (2020). «Una aproximación a los algoritmos desde el Derecho administrativo». En: La regulación de los algoritmos. Cizur Menor: Aranzadi, págs. 23-87.
JULIÀN PIJOAN, M. (2020). Proceso penal y (Neuro) ciencia: una interacción desorientada. Una reflexión acerca de la nueropredicción. Madrid: Marcial Pons.
LLORENTE SÁNCHEZ-ARJONA, M. (2022). La inteligencia artificial como nueva estrategia de prevención en los delitos de violencia sexual. En: COLOMER HERNÁNDEZ, I. (dir.). Uso de la información y de los datos personales en los procesos: los cambios en la era digital. Cizur Menor: Thomson Reuters Aranzadi, págs. 259-282.
MACCHIAVELLI, N. (2022). «La violencia de género y el uso de algoritmos como herramienta efectiva para la protección de los derechos fundamentales». Anuario de filosofía del derecho, XXXVIII, págs. 59-74. DOI: https://doi.org/10.53054/afd.vi38.9738
MAYSON, S. G. (2018). «Bias In, Bias Out». Yale Law Journal, vol. 128, n.º 8, págs. 2218- 2300 [en línea]. Disponible en: https://www.yalelawjournal.org/article/bias-in-bias-out
MARTINEZ GARAY, L. (2022). «Paradojas de los algoritmos predictivos utilizados en el sistema de Justicia Penal». El Cronista, n.º 100, págs. 160-173.
MARTÍNEZ GARAY, L. (2018, julio). «Peligrosidad, algoritmos y Due Process: el Caso State V Loomis». Revista de Derecho Penal y Criminología, n.º 20, época. 3, págs 485-502. DOI: https://doi.org/10.5944/rdpc.20.2018.26484
MARTÍNEZ GARCÍA, E.; BORGES BLÁZQUEZ, R.; SIMÓ SOLER, E. (2021, enero). «Inteligencia artificial y perspectiva de género en la justicia penal». Diario La Ley, n.º 47, Sección Ciberderecho [en línea]. Disponible en: https://diariolaley.laleynext.es/dll/2021/01/20/inteligencia-artificial-y-perspectiva-de-genero-en-la-justicia-penal
MARTINEZ GARCÍA, E. (2021). «Justicia e Inteligencia Artificial sin género». En: BARONA VILAR, S. (ed.). Justicia algorítmica y neuroderecho. Valencia: Tirant Lo Blanch, págs. 209-227.
MIRÓ LLINARES, F. (2018). «Inteligencia artificial y justicia penal: más allá de los resultados lesivos causados por robots». Revista de Derecho Penal y Criminología, n.º 20, época. 3, págs. 87-130. DOI: https://doi.org/10.5944/rdpc.20.2018.26446
MONAHAN, J.; SKEEM, J.L. (2016). «Risk assessment in cirminal sentencing». Annual Review of Clinical Psycology, vol. 12, págs. 489- 513. DOI: https://doi.org/10.1146/annurev-clinpsy-021815-092945
MONTESINOS GARCÍA, A. (2023). «Afectación de los derechos y garantías procesales por el empleo de algoritmos predictivos». En: ASENCIO MELLADO y FUENTES SORIANO (dirs.). El proceso como garantía. Barcelona: Atelier, págs. 703-713.
NAVAS NAVARRO, S. (2021). «La perspectiva de género en la inteligencia artificial». La Ley digital. Ciberderecho, vol.1, n.º 1, págs. 1-7.
O’NEIL, C. (2017). Weapons of math destruction. Nueva York: Penguin.
ORTIZ DE ZÁRATE ALCARAZO, L.; GUEVARA GÓMEZ, A. (2021). «Inteligencia artificial e igualdad de género. Un análisis comparado entre la UE, Suecia y España». Fundación alternativas, n.º 101 [en línea]. Disponible en: https://fundacionalternativas.org/publicaciones/inteligencia-artificial-e-igualdad-de-genero-un-analisis-comparado-entre-la-ue-suecia-y-espana/
JULIÁN PIJOAN, M. (2020) Proceso penal y (Neuro) ciencia: una interacción desorientada. Una reflexión acerca de la nueropredicción. Madrid: Marcial Pons.
NIEVA FENOLL, J. (2018). Inteligencia artificia y proceso judicial, Madrid: Marcial Pons.
PLANCHADELL-GARGALLO, A. (2021). «Inteligencia Artificial y medidas cautelares». En: BARONA VILAR, S. (ed.). Justicia algorítmica y neuroderecho, Una mirada multidisciplinar. Valencia: Tirant Lo Blanch, págs. 389- 419.
SENDEN XENIDIS, R.; SENDEN, L. (2020). «EU non-discrimination law in the era of artificial intelligence: Mapping the challenges of algorithmic discrimination». En: BERNITZ, U. et al (eds.). General Principles of EU law and the EU Digital Order. Países Bajos: Kluwer Law International.
SIMÓN CASTELLANO, P. (2021). Justicia Cautelar e inteligencia artificial. Barcelona: Bosch. DOI: https://doi.org/10.2307/j.ctv1tqcxbh
SOLAR CAYÓN, J. I. (2020). «Inteligencia artificial en la justicia penal: los sistemas algorítmicos». En: Dimensiones éticas y jurídicas de la Inteligencia artificial en el marco del Estado de Derecho. Cuadernos de la Cátedra de Democracia y Derechos Humanos, 16. Universidad de Alcalá. Defensor del Pueblo, págs. 125-172.
SORIANO ARNANZ, A. (2021). «Decisiones automatizadas: problemas y soluciones jurídicas. más allá de la protección de datos». Revista de Derecho público: teoría y método, vol. 3, págs. 85-127. DOI: https://doi.org/10.37417/RPD/vol_3_2021_535
SORIANO ARNANZ, A.; SIMÓ SOLER, E. (2021). «Machine learning y Derecho: aprendiendo la (des) igualdad». En: BARONA VILAR, S. (ed.). Justicia algorítmica y neuroderecho. Valencia: Tirant Lo Blanch, págs.183-207.
SORIANO ARNANZ, A. (2022). «Discriminación algorítmica: garantías y protección jurídica». En: COTINO HUESO, L. (dir.). Derechos y garantías ante la inteligencia artificial y las decisiones automatizadas. Cizur Menor: Aranzadi, págs.139-169.
STARR, S.B. (2014). «Evidence-based sentencing and the scientific rationalization of discrimination». Standford Law review, n.º 66, pás. 803-872 [en línea]. Disponible en: http://www.stanfordlawreview.org/wp-content/uploads/sites/3/2014/04/66_Stan_L_Rev_803-Starr.pdf
WARREN, R. (2010). «Evidence-Based Sentencing: Are We Up to the Task?». Federal Sentencing Reporter, vol. 23, n.º 2, págs. 153 - 158. DOI: https://doi.org/10.1525/fsr.2010.23.2.153
WORLD ECONOMIC FORUM. «Assessing Gender Gaps in Artificial Intelligence». The Global Gender Gap Report 2018 [en línea]. Disponible en: https://www.weforum.org/reports/reader-global-gender-gap-report-2018/in-full/assessing-gender-gaps-in-artificial-intelligence/
ZARSKY, T. (2013). «Transparent predictions». University of Illinois Law Review, n.º 4, págs. 1503-1570 [en línea]. Disponible en: https://www.illinoislawreview.org/wp-content/ilr-content/articles/2013/4/Zarsky.pdf.