¿Sueña ChatGPT-4 con tweets ofensivos? Una aproximación a las contribuciones potenciales de los modelos generativos en la detección de discurso ilícitos

Main Article Content

Mario Santisteban Galarza
Jesús C. Aguerri

Los últimos avances en inteligencia artificial generativa parecen permitir dotar a los modelos de inteligencia artificial de capacidades tan relevantes para el ámbito jurídico como la de argumentar sus propias decisiones. Este estudio se aproxima a las capacidades del modelo ChatGPT-4 en el contexto de la detección de discursos de odio según su conceptualización en el artículo 510.1. a) del Código Penal español. Para ello, se compararán los razonamientos y las decisiones de ChatGPT-4 a partir de relatos de hechos probados con las decisiones de los órganos que juzgaron los respectivos casos, estudiando los límites y el potencial de estos sistemas en el ámbito jurídico.

Palabras clave
inteligencia artificial, discurso del odio, ChatGPT, inteligencia artificial generativa, derechos fundamentales

Article Details

Cómo citar
Santisteban Galarza, Mario; y C. Aguerri, Jesús. «¿Sueña ChatGPT-4 con tweets ofensivos? Una aproximación a las contribuciones potenciales de los modelos generativos en la detección de discurso ilícitos». IDP. Revista de Internet, Derecho y Política, n.º 39, pp. 1-12, doi:10.7238/idp.v0i39.416638.
Biografía del autor/a

Mario Santisteban Galarza, Universidad del País Vasco / Euskal Herriko Unibertsitatea

Jurista, investigador predoctoral de la Universidad del País Vasco (UPV/EHU) en el Departamento de Derecho de la Empresa y Derecho Civil. Su trabajo se centra en las relaciones entre el derecho y la tecnología, particularmente en la libertad de expresión en internet y los poderes de las plataformas digitales para controlar el discurso.

Jesús C. Aguerri, Universidad Miguel Hernández de Elche

Investigador posdoctoral (Juan de la Cierva-Formación en el Centro Crímina para el Estudio y la Prevención de la Delincuencia). Es doctor en Sociología por la Universidad de Zaragoza y ha desarrollado su trabajo alrededor de la sociología del ciberespacio y la gestión de la libertad de expresión.

Citas

ALASTUEY DOBÓN, C. (2016). «Discurso del odio y negacionismo en la reforma del Código Penal de 2015». Revista Electrónica de Ciencia Penal y Criminología, vol. 18-14, págs.1-38 [en línea]. Disponible: http://criminet.ugr.es/recpc/18/recpc18-14.pdf

ANDRÉS PUEYO, A.; ARBACH-LUCIONI, K.; REDONDO, S. (2017). «The RisCanvi: A New Tool for Assessing Risk for Violence in Prison and Recidivism». En: Jay P. Singh, Daryl G. Kroner, J. Stephen Wormith, Sarah L. Desmarais, Zachary Hamilton (eds). Handbook of Recidivism Risk/Needs Assessment Tools, págs. 255-268. John Wiley & Sons Ltd. DOI: https://doi.org/10.1002/9781119184256.ch13

BLOCH-WEHBA, H. (2020). «Automation in Moderation». Cornell International Law Journal, vol. 53, págs. 42-96 [en línea]. Disponible en: https://community.lawschool.cornell.edu/wp-content/uploads/2021/03/Bloch-Wehba-final.pdf

CRESPO MIGUEL, M.; DOMÍNGUEZ CABRERA, B. (2020). «Perspectivas de las tecnologías de Chatbot y su aplicación a las entrevistas de evaluación del lenguaje». Pragmalingüística, vol. 2, págs. 100-113. DOI: https://doi.org/10.25267/Pragmalinguistica.2020.iextra2.06

CASTRO-TOLEDO, F. J.; MIRÓ-LLINARES, F.; AGUERRI, J. C. (2023). «Data-Driven Criminal Justice in the age of algorithms: epistemic challenges and practical implications». Crim Law Forum, vol. 34, pags. 295-316. DOI: https://doi.org/10.1007/s10609-023-09454-y

DIAS OLIVA, T.; ANTONIALLI, D. M.; GOMES, A. (2021). «Fighting Hate Speech, Silencing Drag Queens? Artificial Intelligence in Content Moderation and Risks to LGBTQ Voices Online». Sexuality & Culture, vol. 25, n.º 2, págs. 700-732. DOI: https://doi.org/10.1007/s12119-020-09790-w

DUARTE, N.; LLANSÓ, E. (2017). Mixed Messages? The Limits of Automated Social Media Content Analysis. CTD [en línea]. Disponible en: https://cdt.org/insights/mixed-messages-the-limits-of-automated-social-media-content-analysis/. [Fecha de consulta: 31 de mayo de 2023].

DUOEK, E. (2022). «Content Moderation as Systems Thinking». Harvard Law Review, vol. 136, 528-606. DOI: http://dx.doi.org/10.2139/ssrn.4005326

FEINBERG, J. (1985). Offense to Others (The Moral Limits of Criminal Law), vol. 2. Oxford: Oxford University press.

FUENTES OSORIO, J. L. (2021). «El odio como delito». Revista Electrónica de Ciencia Penal y Criminología, vol. 19-27, págs. 1-52 [en línea]. Disponible en: http://criminet.ugr.es/recpc/19/recpc19-27.pdf

GILLESPIE, T. (2020). «Content moderation, AI, and the question of scale». Big Data & Society, vol. 7, n.º 2. DOI: https://doi.org/10.1177/2053951720943234

GORWA, R.; BINNS, R.; KATZENBACH, C. (2020). «Algorithmic content moderation: Technical and political challenges in the automation of platform governance». Big Data & Society, vol. 7, n.º 1. DOI: https://doi.org/10.1177/2053951719897945

HELBERGER, N.; DIAKOPOULOS, N. (2023). «ChatGPT and the AI Act». Internet Policy Review, vol. 12, n.º 1. DOI: https://doi.org/10.14763/2023.1.1682

HUMAN RIGHTS WATCH (2020). «Video Unavailable”. Social Media Platforms Remove Evidence of War Crimes». Human Rights Watch [en línea]. Disponible en: https://www.hrw.org/report/2020/09/10/video-unavailable/social-media-platforms-remove-evidence-war-crimes. [Fecha de consulta: 31 de mayo de 2023].

LLANSÓ, E. J. (2020). «No amount of “AI” in content moderation will solve filtering’s prior-restraint problem». Big Data & Society, vol. 7, n.º 1. DOI: https://doi.org/10.1177/2053951720920686

MARTÍNEZ-GARAY, L. (2018). “Peligrosidad, algoritmos y due process: El caso State vs. Loomis». Revista de Derecho Penal y Criminología, n.º 20, págs. 485-502. DOI: https://doi.org/10.5944/rdpc.20.2018.26484

MIRÓ LLINARES, F. (2015). «La criminalización de conductas “ofensivas”. A propósito del debate anglosajón sobre los “límites morales” del derecho penal». Revista electrónica de ciencia penal y criminología, n.º 17 [en línea]. Disponible en: http://criminet.ugr.es/recpc/17/recpc17-23.pdf

MIRÓ LLINARES, F. (2022). «Inteligencia artificial, delito y control penal: nuevas reflexiones y Algunas predicciones sobre su impacto en el derecho y la justicia penal». El Cronista del Estado Social y Democrático de Derecho, n.º 100, págs. 174-183.

MIRÓ-LLINARES, F.; MONEVA, A.; ESTEVE, M. (2018). «Hate is in the air! But where? Introducing an algorithm to detect hate speech in digital microenvironments». Crime Science, vol. 7, n.º 1. DOI: https://doi.org/10.1186/s40163-018-0089-1

OPENAI (2023a). «GPT-4 Technical Report». arXiv. DOI: https://doi.org/10.48550/arXiv.2303.08774

OPENAI (2023b). «Introducing ChatGPT». OpenAI Blog [en línea]. Disponible en: https://openai.com/blog/chatgpt#OpenAI. [Fecha de consulta: 21 abril 2023].

OUYANG, L.; WU, J.; JIANG, X.; ALMEIDA, D.; WAINWRIGHT, C. L.; MISHKIN, P.; ZHANG, C.; AGARWAL, S.; SLAMA, K.; RAY, A.; SCHULMAN, J.; HILTON, J.; KELTON, F.; MILLER, L.; SIMENS, M.; ASKELL, A.; WELINDER, P.; CHRISTIANO, P.; LEIKE, J.; LOWE, R. (2021). «Training language models to follow instructions with human feedback». arXiv. DOI: https://doi.org/10.48550/arXiv.2203.02155

PARIKH P. M.; SHAH D. M., PARIKH K. P. (2023). «Judge Juan Manuel Padilla Garcia, ChatGPT, and a controversial medicolegal milestone». Indian Journal of Medical Sciences, vol. 75, n.º 1, págs. 3-8. DOI: https://doi.org/10.25259/IJMS_31_2023

PETTINATO OLTZ, T. (2023, febrero). «ChatGPT, Professor of Law». SSRN. DOI: https://doi.org/10.2139/ssrn.4347630

PERLMAN, A. M. (2022). «The Implications of ChatGPT for Legal Services and Society». SSRN. DOI: https://doi.org/10.2139/ssrn.4294197

PRESNO LINERA, M. A. (2022). Derechos Fundamentales e Inteligencia Artificial. Madrid: Marcial Pons. DOI: https://doi.org/10.2307/jj.4908196

QUIJANO-SÁNCHEZ, L.; LIBERATORE, F.; CAMACHO-COLLADOS, J.; CAMACHO-COLLADOS, M. (2018). «Applying automatic text-based detection of deceptive language to police reports: Extracting behavioral patterns from a multi-step classification model to understand how we lie to the police». Knowledge-Based Systems, vol. 149, págs. 155-168. DOI: https://doi.org/10.1016/j.knosys.2018.03.010

RODRÍGUEZ MONTAÑÉS, T. (2012). Libertad de expresión, discurso extremo y delito. Una aproximación a las fronteras del derecho penal. Valencia: Tirant lo Blanch.

STOKEL-WALTER, C. (2023). «Generative AI Is Coming for the Lawyers. Large law firms are using a tool made by OpenAI to research and write legal documents. What could go wrong?». TheWired [en línea]. Disponible en: https://www.wired.co.uk/article/generative-ai-is-coming-for-the-lawyers. [Fecha de consulta: 31 de mayo de 2023].

TERUEL LOZANO, G. (2017). «El discurso del odio como límite a la libertad de expresión en el marco del convenio europeo». ReDCE, n.º 27 [en línea]. Disponible en: https://www.ugr.es/~redce/REDCE27/articulos/03_TERUEL.htm

UDUPA, S.; MARONIKOLAKIS, A.; SCHÜTZE, H.; WISIOREK, A. (2022). «Ethical Scaling for Content Moderation: Extreme Speech and the (In)Significance of Artificial Intelligence». Big Data & Society, vol. 10, n.º 1. DOI: https://doi.org/10.1177/20539517231172424. [Fecha de consulta: 31 de mayo de 2023]