Una aproximació a ChatGPT com a eina jurídica: biaixos, capacitats i utilitats futures

Main Article Content

Roberto Navarro-Dolmestch
María-Ángeles Fuentes-Loureiro

Aquest article és una primera aproximació a la capacitat que podria tenir ChatGPT per exercir com una eina directament utilitzable en la tasca jurídica d’advocats i de jutges. Per a això intentem determinar si aquest xat conversacional mostra patrons de raonament en la resolució de situacions conflictives mitjançant l’aplicació d’un test. Aquest test va consistir a caracteritzar els elements amb els quals l’aplicació va construir les seves respostes davant de nou problemes que li vam presentar. Aquesta anàlisi ens va permetre determinar que ChatGPT mostra un patró d’ús preferent d’arguments de tipus utilitarista per sobre dels de naturalesa deòntica. Així mateix, l’anàlisi ens va permetre determinar una escassa utilització per part de ChatGPT d’arguments jurídics pròpiament dits. Tots dos elements (l’orientació utilitarista i l’absència d’elements jurídics) ens van permetre concloure que ChatGPT encara és lluny de ser una eina directament utilitzable en l’exercici de l’advocacia i en el fòrum. Tanmateix, per la manera com es van construir els arguments que va produir, creiem que l’aplicació mostra un evident potencial per tal de ser emprat en funcions de sistematització de l’ordenament jurídic.

Paraules clau:

ChatGPT, intel·ligència artificial, dilema ètic, deontologia, utilitarisme, conseqüencialisme

Article Details

Com citar
Navarro-Dolmestch, Roberto; and Fuentes-Loureiro, María-Ángeles. “Una aproximació a ChatGPT com a eina jurídica: biaixos, capacitats i utilitats futures”. IDP. Revista d’Internet, Dret i Política, no. 39, pp. 1-16, doi:10.7238/idp.v0i39.417024.
Biografies de l'autor/a

Roberto Navarro-Dolmestch, Universitat Catòlica del Maule

Doctor en Dret (2021) per la Universitat de la Corunya, a Espanya, on va presentar la seva tesi De la legalidad penal a la juridicidad proporcional como criterio de limitación de la potestad punitiva (amb excel·lent cum laude). És professor adjunt de Dret Penal a la Facultat de Ciències Socials i Econòmiques de la Universitat Catòlica del Maule, a Xile, i membre del grup d’investigació Ecrim – Criminologia, Psicologia Jurídica i Justicia Penal al Segle XXI. Com a investigador responsable, actualment executa el projecte de recerca Fondecyt – Iniciación Aplicación del Derecho Penal a la Inteligencia Artificial (núm. 11230216), finançat per l’Agència Nacional d’investigació i desenvolupament del Govern de Xile, en el qual s’emmarca l’elaboració d’aquest article. Així mateix, forma part del projecte d’investigació La responsabilidad de la inteligencia artificial: un desafío para las ciencias penales (PID2020-112637RB-I00), finançat pel Programa Estatal de Foment de la Investigació Científica i Tècnica d’Excel·lència, Subprograma Estatal de Generació de Coneixement, del Ministeri d’Economia i Competitivitat d’Espanya.

María-Ángeles Fuentes-Loureiro, Universitat de la Corunya

Doctora en Dret (2020) per la Universitat de la Corunya, a Espanya, on va presentar la seva tesi Legitimidad y contenido de la intervención penal en materia de residuos (amb excel·lent cum laude), i on treballa actualment com a professora ajudant doctora en l’àrea de Dret Penal. És membre d’ECRIM – Criminologia, Psicologia Jurídica i Justicia Penal al Segle XXI. La seva recerca prèvia se centra en qüestions de criminologia i victimologia verda, delictes contra el medi ambient, protecció animal i corrupció en l’àmbit mediambiental, urbanístic i de la contractació pública. Actualment treballa en l’ús d’eines algorítmiques i d’intel·ligència artificial en la lluita contra diferents tipus de criminalitat organitzada en el marc dels projectes La responsabilidad de la inteligencia artificial: un desafío para las ciencias penales (PID2020-112637RB-I00, finançat pel Programa Estatal de Foment de la Investigació Científica i Tècnica d’Excel·lència, Subprograma Estatal de Generació de Coneixement, del Ministeri d’Economia i Competitivitat d’Espanya) i Actuaciones colectivas y Derecho penal (PID2021-123213NB-I00), finançat per MCIN/AEI/10.13039/501100011033/ i FEDER, en el marc dels quals s’ha elaborat aquest article.

Referències

ALARIE, B.; NIBLETT, A.; YOON, A. H. (2018). «How artificial intelligence will affect the practice of law». University of Toronto Law Journal, vol. 68, n,º 1, págs. 106-124. DOI https://doi.org/10.3138/utlj.2017-0052

ALEXY, R. (2019). Ensayos sobre la teoría de los principios y el juicio de proporcionalidad. Lima: Palestra.

ALEXY, R. (2021). «Constitutional rights, proportionality, and argumentation». En: J.-R. SIECKMANN (ed.). Proportionality, balancing, and rights. Robert Alexy’s theory of constitutional rights. Cham: Springer, págs. 1-10. DOI: https://doi.org/10.1007/978-3-030-77321-2_1

ALJANABI, M.; CHATGPT (2023). «ChatGPT: Future Directions and Open possibilities». Mesopotamian journal of Cybersecurity, vol. 2023, págs. 16-17. DOI https://doi.org/10.58496/MJCS/2023/003

ASHLEY, K. D. (2017). Artificial Intelligence and Legal Analytics. New tools for law practice in the digital age. Cambridge: Cambridge University Press. DOI: https://doi.org/10.1017/9781316761380

AYDIN, Ö.; KARAARSLAN, E. (2022). «OpenAI ChatGPT Generated Literature Review: Digital Twin in Healthcare». En: Ö. Aydın (ed.). Emerging Computer Technologies, n.º 2, págs. 22-31. İzmir Akademi Dernegi. DOI: https://doi.org/10.2139/ssrn.4308687

BANG, Y.; CAHYAWIJAYA, S.; LEE, N.; DAI, W.; SU, D.; WILIE, B.; LOVENIA, H.; JI, Z.; YU, T.; CHUNG, W.; DO, Q. V.; XU, Y.; FUNG, P. (2023). «A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on Reasoning, Hallucination, and Interactivity». ArXiv. DOI: https://doi.org/10.48550/arXiv.2302.04023

BARNES, J. (1998). «El principio de proporcionalidad. Estudio preliminar». Cuadernos de Derecho Público, n.º 5, págs. 15-49.

BARTNECK, C.; LÜTGE, C.; WAGNER, A.; WELSH, S. (2021). An introduction to ethics in robotics and AI. Cham: Springer. DOI: https://doi.org/10.1007/978-3-030-51110-4

BÉRANGER, J. (2021). Societal Responsibility of Artificial Intelligence. Towards an Ethical and Eco-responsible AI. Londres-Hoboken: ISTE/Wiley.

BERNAL PULIDO, C. (2014). El principio de proporcionalidad y los derechos fundamentales. El principio de proporcionalidad como criterio para determinar el contenido de los derechos fundamentales vinculantes para el legislador. 4.ª edición. Bogotá: Universidad Externado de Colombia. DOI: https://doi.org/10.2307/j.ctv13vdfvn

BEU, D. S.; BUCKLEY, M. R.; HARVEY, M. G. (2003). «Ethical decision-making: a multidimensional construct». Business Ethics: A European Review, vol. 12, n.º 1, págs. 88-107. DOI: https://doi.org/10.1111/1467-8608.00308

BOMMARITO, M. J.; KATZ, D. M. (2022). «GPT Takes the Bar Exam». SSRN. DOI: https://doi.org/10.2139/ssrn.4314839

BORJI, A. (2023). «A Categorical Archive of ChatGPT Failures». Research Square. DOI: https://doi.org/10.21203/rs.3.rs-2895792/v1

CHACE, C. (2018). Artificial intelligence and the two singularities. Boca Raton: CRC Press.

DIGNUM, V. (2019). Responsible artificial intelligence. How to develop and use AI in a responsible way. Cham: Springer. DOI: https://doi.org/10.1007/978-3-030-30371-6

FARINA, M.; LAVAZZA, A. (2023). «ChatGPT in society: emerging issues». Frontiers in Artificial Intelligence, vol. 6, págs. 1-7. DOI https://doi.org/10.3389/frai.2023.1130913

FERRARA, E. (2023). «Should ChatGPT be Biased? Challenges and Risks of Bias in Large Language Models». ArXiv. DOI: https://doi.org/10.48550/arXiv.2304.03738

HAGENDORFF, T.; FABI, S.; KOSINSKI, M. (2023). «Human-like intuitive behavior and reasoning biases emerged in large language models but disappeared in ChatGPT». Nature Computational Science. n.º 3. págs. 833-838. DOI: https://doi.org/10.1038/s43588-023-00527-x

HALEEM, A.; JAVAID, M.; SINGH, R. P. (2022). «An era of ChatGPT as a significant futuristic support tool: A study on features, abilities, and challenges». BenchCouncil Transactions on Benchmarks, Standards and Evaluations, vol. 2, n.º 4, pág. 100089. DOI: https://doi.org/10.1016/j.tbench.2023.100089

KAPLAN, A.; HAENLEIN, M. (2020). «Rulers of the world, unite! The challenges and opportunities of artificial intelligence». Business Horizons, vol. 63, n.º 1, págs. 37-50. DOI: https://doi.org/10.1016/j.bushor.2019.09.003

KOCO’N, J.; CICHECKI, I.; KASZYCA, O.; KOCHANEK, M.; SZYDLO, D.; BARAN, J.; BIELANIEWICZ, J.; GRUZA, M.; JANZ, A.; KANCLERZ, K.; KOCO’N, A.; KOPTYRA, B.; MIELESZCZENKO-KOWSZEWICZ, W.; MILKOWSKI, P.; OLEKSY, M.; PIASECKI, M.; RADLI’NSKI, L.; WOJTASIK, K.; WO’ZNIAK, S.; KAZIENKO, P. (2023). «ChatGPT: Jack of all trades, master of none». Information Fusion, vol. 99, pág. 101861. DOI: https://doi.org/10.1016/j.inffus.2023.101861

LEITH, P.; HOEY, A. (1998). TheComputerised Lawyer. A Guide to the Use of Computers in the Legal Profession. 2.ª edición. Springer.

LI, W.; WU, W.; CHEN, M.; LIU, J.; XIAO, X.; WU, H. (2022). «Faithfulness in Natural Language Generation: A Systematic Survey of Analysis, Evaluation and Optimization Methods». ArXiv. DOI: https://doi.org/10.48550/arXiv.2203.05227

LILLO L., R. (2016). «El uso de nuevas tecnologías en el sistema judicial. Experiencias y precauciones». Biblioteca virtual CEJA [en línea]. Disponible en: https://biblioteca.cejamericas.org/bitstream/handle/2015/3868/ElUsodeNuevasTecnologiasenelSistemaJudicial_ExperienciasyPrecauciones.pdf?sequence=1&isAllowed=y

LOEVINGER, L. (1949). «Jurimetrics. The Next Step Forward». Minnesota Law Review, vol. 33, págs. 455-493.

LOEVINGER, L. (1963). «Jurimetrics: The Methodology of Legal Inquiry». Law and Contemporary Problems, vol. 28, n.º 1, págs. 5-35. DOI: https://doi.org/10.2307/1190721

MCGEE, R. W. (2023). «Is Chat Gpt Biased Against Conservatives? An Empirical Study». SSRN. DOI: https://doi.org/10.2139/ssrn.4359405

MIRÓ LLINARES, F. (2018). «Inteligencia Artificial y justicia penal: más allá de los resultados lesivos causados por robots». Revista de Derecho Penal y Criminología, n.º 20, págs. 87-130. DOI: https://doi.org/10.5944/rdpc.20.2018.26446

MOTOKI, F.; NETO, V. P.; RODRIGUES, V. (2023). «More human than human: measuring ChatGPT political bias». Public Choice. DOI: https://doi.org/10.1007/s11127-023-01097-2

MOYA GARCÍA, R. (2003). «Jurimetría, una breve aproximación». Jurimetría. Revista Chilena de Informática Jurídica, n.º 2, págs. 5-9. DOI: https://doi.org/10.5354/0717-9154.2003.10794

PERLMAN, A. (2022). «The implications of ChatGPT for legal services and society». SSRN. DOI: https://doi.org/10.2139/ssrn.4294197

RAY, P. P.; (2023). «ChatGPT: A comprehensive review on background, applications, key challenges, bias, ethics, limitations and future scope». Internet of Things and Cyber-Physical Systems, vol. 3, págs. 121-154. DOI: https://doi.org/10.1016/j.iotcps.2023.04.003

ROZADO, D. (2023). «The Political Biases of ChatGPT». Social Sciences, vol. 12, n.º 3. DOI: https://doi.org/10.3390/socsci12030148

RUTINOWSKI, J.; FRANKE, S.; ENDENDYK, J.; DORMUTH, I.; PAULY, M. (2023). «The Self-Perception and Political Biases of ChatGPT». ArXiv. DOI: https://doi.org/10.48550/arXiv.2304.07333

RYAN, J.W. (1968). «Jurimetrics». University of New Brunswick Law Journal, vol. 18, págs. 103-113.

SINGH, S.; RAMAKRISHNAN, N. (2023). «Is ChatGPT Biased? A Review». OSF Preprints. DOI: https://doi.org/10.31219/osf.io/9xkbu

TAN, J.; WESTERMANN, H.; BENYEKHLEF, K. (2023). «ChatGPT as an Artificial Lawyer?» En: L. K. BRANTING (ed.). Workshop on Artificial Intelligence for Access to Justice (AI4AJ 2023). Braga: CEUR Workshop Proceedings [en línea]. Disponible en: https://ceur-ws.org/Vol-3435/short2.pdf

URCHS, S.; THURNER, V.; ASSENMACHER, M.; HEUMANN, C.; THIEMICHEN, S. (2023). «How Prevalent is Gender Bias in ChatGPT? Exploring German and English ChatGPT Responses». arXiv. DOI: https://doi.org/10.48550/arXiv.2310.03031

VASWANI, A.; SHAZEER, N. M.; PARMAR, N.; USZKOREIT, J.; JONES, L.; GOMEZ, A. N.; KAISER, L.; POLOSUKHIN, I. (2017). «Attention is All you Need». ArXiv. DOI: https://doi.org/10.48550/arXiv.1706.03762

VERBEEK, P. P. (2009). «Cultivating Humanity: towards a Non-Humanist Ethics of Technology». En: J.K.B. OLSEN, E. SELINGER y S. RIIS (eds.). New Waves in Philosophy of Technology, págs. 241-263. Hampshire-Nueva York: Palgrave Macmillan. DOI: https://doi.org/10.1057/9780230227279_12

WALLACH, W.; VALLOR, S. (2020). «Moral Machines. From Value Alignment to Embodied Virtue». En: M. LIAO (ed.). Ethics of Artificial Intelligence, págs. 383-412. Nueva York: Oxford University Press. DOI: https://doi.org/10.1093/oso/9780190905033.003.0014

ZHOU, C.; LI, Q.; LI, C.; YU, J.; LIU, Y.; WANG, G.; ZHANG, K.; JI, C.; YAN, Q.; HE, L.; PENG, H.; LI, J.; WU, J.; LIU, Z.; XIE, P.; XIONG, C.; PEI, J.; YU, P. S.; SUN, L. (2023). «A Comprehensive Survey on Pretrained Foundation Models: A History from BERT to ChatGPT». ArXiv. DOI: https://doi.org/10.48550/arXiv.2302.09419

ZHOU, K. Z.; SANFILIPPO, M. R. (2023). «Public Perceptions of Gender Bias in Large Language Models: Cases of ChatGPT and Ernie». ArXiv. DOI: https://doi.org/10.48550/arXiv.2309.09120.