Una aproximació a ChatGPT com a eina jurídica: biaixos, capacitats i utilitats futures
Article Sidebar
Citacions a Google Acadèmic
Main Article Content
Aquest article és una primera aproximació a la capacitat que podria tenir ChatGPT per exercir com una eina directament utilitzable en la tasca jurídica d’advocats i de jutges. Per a això intentem determinar si aquest xat conversacional mostra patrons de raonament en la resolució de situacions conflictives mitjançant l’aplicació d’un test. Aquest test va consistir a caracteritzar els elements amb els quals l’aplicació va construir les seves respostes davant de nou problemes que li vam presentar. Aquesta anàlisi ens va permetre determinar que ChatGPT mostra un patró d’ús preferent d’arguments de tipus utilitarista per sobre dels de naturalesa deòntica. Així mateix, l’anàlisi ens va permetre determinar una escassa utilització per part de ChatGPT d’arguments jurídics pròpiament dits. Tots dos elements (l’orientació utilitarista i l’absència d’elements jurídics) ens van permetre concloure que ChatGPT encara és lluny de ser una eina directament utilitzable en l’exercici de l’advocacia i en el fòrum. Tanmateix, per la manera com es van construir els arguments que va produir, creiem que l’aplicació mostra un evident potencial per tal de ser emprat en funcions de sistematització de l’ordenament jurídic.
Paraules clau:
Article Details
Aquesta obra està sota una llicència internacional Creative Commons Reconeixement-SenseObraDerivada 3.0.
(c) Roberto Navarro-Dolmestch, María-Ángeles Fuentes-Loureiro, 2023
Drets d'autor
Els continguts publicats a IDP estan subjectes a una llicència de Reconeixement-Sense obres derivades 3.0 Espanya de Creative Commons, el text complet de la qual es pot consultar a http://creativecommons.org/licenses/by-nd/3.0/es/deed.ca. Així, doncs, se'n permet la còpia, distribució i comunicació pública sempre que se citi l'autor del text, la revista i la institució que els publiquen (IDP. Revista d'Internet, Dret i Política i UOC), tal com consta en la citació recomanada inclosa a cada article. No se'n poden fer obres derivades.
És responsabilitat dels autors obtenir els permisos necessaris de les imatges que estiguin subjectes a copyright.
Cessió de drets de propietat intel·lectual
L’autor cedeix sense exclusiva als editors de la revista els drets d’explotació (reproducció, distribució, comunicació pública i transformació) per a explotar i comercialitzar l’obra, sencera o en part, en tots els formats i modalitats d’explotació presents o futurs, en tots els idiomes, per tot el període de vida de l’obra i per tot el món.
L'autor ha de declarar que és l’autor original de l’obra. Els editors queden, per tant, exonerats de qualsevol obligació o responsabilitat per qualsevol acció legal que es pugui suscitar derivada de l’obra dipositada per la vulneració de drets de tercers, siguin de propietat intel·lectual o industrial, de secret comercial o qualsevol altre.
Roberto Navarro-Dolmestch, Universitat Catòlica del Maule
Doctor en Dret (2021) per la Universitat de la Corunya, a Espanya, on va presentar la seva tesi De la legalidad penal a la juridicidad proporcional como criterio de limitación de la potestad punitiva (amb excel·lent cum laude). És professor adjunt de Dret Penal a la Facultat de Ciències Socials i Econòmiques de la Universitat Catòlica del Maule, a Xile, i membre del grup d’investigació Ecrim – Criminologia, Psicologia Jurídica i Justicia Penal al Segle XXI. Com a investigador responsable, actualment executa el projecte de recerca Fondecyt – Iniciación Aplicación del Derecho Penal a la Inteligencia Artificial (núm. 11230216), finançat per l’Agència Nacional d’investigació i desenvolupament del Govern de Xile, en el qual s’emmarca l’elaboració d’aquest article. Així mateix, forma part del projecte d’investigació La responsabilidad de la inteligencia artificial: un desafío para las ciencias penales (PID2020-112637RB-I00), finançat pel Programa Estatal de Foment de la Investigació Científica i Tècnica d’Excel·lència, Subprograma Estatal de Generació de Coneixement, del Ministeri d’Economia i Competitivitat d’Espanya.
María-Ángeles Fuentes-Loureiro, Universitat de la Corunya
Doctora en Dret (2020) per la Universitat de la Corunya, a Espanya, on va presentar la seva tesi Legitimidad y contenido de la intervención penal en materia de residuos (amb excel·lent cum laude), i on treballa actualment com a professora ajudant doctora en l’àrea de Dret Penal. És membre d’ECRIM – Criminologia, Psicologia Jurídica i Justicia Penal al Segle XXI. La seva recerca prèvia se centra en qüestions de criminologia i victimologia verda, delictes contra el medi ambient, protecció animal i corrupció en l’àmbit mediambiental, urbanístic i de la contractació pública. Actualment treballa en l’ús d’eines algorítmiques i d’intel·ligència artificial en la lluita contra diferents tipus de criminalitat organitzada en el marc dels projectes La responsabilidad de la inteligencia artificial: un desafío para las ciencias penales (PID2020-112637RB-I00, finançat pel Programa Estatal de Foment de la Investigació Científica i Tècnica d’Excel·lència, Subprograma Estatal de Generació de Coneixement, del Ministeri d’Economia i Competitivitat d’Espanya) i Actuaciones colectivas y Derecho penal (PID2021-123213NB-I00), finançat per MCIN/AEI/10.13039/501100011033/ i FEDER, en el marc dels quals s’ha elaborat aquest article.
Referències
ALARIE, B.; NIBLETT, A.; YOON, A. H. (2018). «How artificial intelligence will affect the practice of law». University of Toronto Law Journal, vol. 68, n,º 1, págs. 106-124. DOI https://doi.org/10.3138/utlj.2017-0052
ALEXY, R. (2019). Ensayos sobre la teoría de los principios y el juicio de proporcionalidad. Lima: Palestra.
ALEXY, R. (2021). «Constitutional rights, proportionality, and argumentation». En: J.-R. SIECKMANN (ed.). Proportionality, balancing, and rights. Robert Alexy’s theory of constitutional rights. Cham: Springer, págs. 1-10. DOI: https://doi.org/10.1007/978-3-030-77321-2_1
ALJANABI, M.; CHATGPT (2023). «ChatGPT: Future Directions and Open possibilities». Mesopotamian journal of Cybersecurity, vol. 2023, págs. 16-17. DOI https://doi.org/10.58496/MJCS/2023/003
ASHLEY, K. D. (2017). Artificial Intelligence and Legal Analytics. New tools for law practice in the digital age. Cambridge: Cambridge University Press. DOI: https://doi.org/10.1017/9781316761380
AYDIN, Ö.; KARAARSLAN, E. (2022). «OpenAI ChatGPT Generated Literature Review: Digital Twin in Healthcare». En: Ö. Aydın (ed.). Emerging Computer Technologies, n.º 2, págs. 22-31. İzmir Akademi Dernegi. DOI: https://doi.org/10.2139/ssrn.4308687
BANG, Y.; CAHYAWIJAYA, S.; LEE, N.; DAI, W.; SU, D.; WILIE, B.; LOVENIA, H.; JI, Z.; YU, T.; CHUNG, W.; DO, Q. V.; XU, Y.; FUNG, P. (2023). «A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on Reasoning, Hallucination, and Interactivity». ArXiv. DOI: https://doi.org/10.48550/arXiv.2302.04023
BARNES, J. (1998). «El principio de proporcionalidad. Estudio preliminar». Cuadernos de Derecho Público, n.º 5, págs. 15-49.
BARTNECK, C.; LÜTGE, C.; WAGNER, A.; WELSH, S. (2021). An introduction to ethics in robotics and AI. Cham: Springer. DOI: https://doi.org/10.1007/978-3-030-51110-4
BÉRANGER, J. (2021). Societal Responsibility of Artificial Intelligence. Towards an Ethical and Eco-responsible AI. Londres-Hoboken: ISTE/Wiley.
BERNAL PULIDO, C. (2014). El principio de proporcionalidad y los derechos fundamentales. El principio de proporcionalidad como criterio para determinar el contenido de los derechos fundamentales vinculantes para el legislador. 4.ª edición. Bogotá: Universidad Externado de Colombia. DOI: https://doi.org/10.2307/j.ctv13vdfvn
BEU, D. S.; BUCKLEY, M. R.; HARVEY, M. G. (2003). «Ethical decision-making: a multidimensional construct». Business Ethics: A European Review, vol. 12, n.º 1, págs. 88-107. DOI: https://doi.org/10.1111/1467-8608.00308
BOMMARITO, M. J.; KATZ, D. M. (2022). «GPT Takes the Bar Exam». SSRN. DOI: https://doi.org/10.2139/ssrn.4314839
BORJI, A. (2023). «A Categorical Archive of ChatGPT Failures». Research Square. DOI: https://doi.org/10.21203/rs.3.rs-2895792/v1
CHACE, C. (2018). Artificial intelligence and the two singularities. Boca Raton: CRC Press.
DIGNUM, V. (2019). Responsible artificial intelligence. How to develop and use AI in a responsible way. Cham: Springer. DOI: https://doi.org/10.1007/978-3-030-30371-6
FARINA, M.; LAVAZZA, A. (2023). «ChatGPT in society: emerging issues». Frontiers in Artificial Intelligence, vol. 6, págs. 1-7. DOI https://doi.org/10.3389/frai.2023.1130913
FERRARA, E. (2023). «Should ChatGPT be Biased? Challenges and Risks of Bias in Large Language Models». ArXiv. DOI: https://doi.org/10.48550/arXiv.2304.03738
HAGENDORFF, T.; FABI, S.; KOSINSKI, M. (2023). «Human-like intuitive behavior and reasoning biases emerged in large language models but disappeared in ChatGPT». Nature Computational Science. n.º 3. págs. 833-838. DOI: https://doi.org/10.1038/s43588-023-00527-x
HALEEM, A.; JAVAID, M.; SINGH, R. P. (2022). «An era of ChatGPT as a significant futuristic support tool: A study on features, abilities, and challenges». BenchCouncil Transactions on Benchmarks, Standards and Evaluations, vol. 2, n.º 4, pág. 100089. DOI: https://doi.org/10.1016/j.tbench.2023.100089
KAPLAN, A.; HAENLEIN, M. (2020). «Rulers of the world, unite! The challenges and opportunities of artificial intelligence». Business Horizons, vol. 63, n.º 1, págs. 37-50. DOI: https://doi.org/10.1016/j.bushor.2019.09.003
KOCO’N, J.; CICHECKI, I.; KASZYCA, O.; KOCHANEK, M.; SZYDLO, D.; BARAN, J.; BIELANIEWICZ, J.; GRUZA, M.; JANZ, A.; KANCLERZ, K.; KOCO’N, A.; KOPTYRA, B.; MIELESZCZENKO-KOWSZEWICZ, W.; MILKOWSKI, P.; OLEKSY, M.; PIASECKI, M.; RADLI’NSKI, L.; WOJTASIK, K.; WO’ZNIAK, S.; KAZIENKO, P. (2023). «ChatGPT: Jack of all trades, master of none». Information Fusion, vol. 99, pág. 101861. DOI: https://doi.org/10.1016/j.inffus.2023.101861
LEITH, P.; HOEY, A. (1998). TheComputerised Lawyer. A Guide to the Use of Computers in the Legal Profession. 2.ª edición. Springer.
LI, W.; WU, W.; CHEN, M.; LIU, J.; XIAO, X.; WU, H. (2022). «Faithfulness in Natural Language Generation: A Systematic Survey of Analysis, Evaluation and Optimization Methods». ArXiv. DOI: https://doi.org/10.48550/arXiv.2203.05227
LILLO L., R. (2016). «El uso de nuevas tecnologías en el sistema judicial. Experiencias y precauciones». Biblioteca virtual CEJA [en línea]. Disponible en: https://biblioteca.cejamericas.org/bitstream/handle/2015/3868/ElUsodeNuevasTecnologiasenelSistemaJudicial_ExperienciasyPrecauciones.pdf?sequence=1&isAllowed=y
LOEVINGER, L. (1949). «Jurimetrics. The Next Step Forward». Minnesota Law Review, vol. 33, págs. 455-493.
LOEVINGER, L. (1963). «Jurimetrics: The Methodology of Legal Inquiry». Law and Contemporary Problems, vol. 28, n.º 1, págs. 5-35. DOI: https://doi.org/10.2307/1190721
MCGEE, R. W. (2023). «Is Chat Gpt Biased Against Conservatives? An Empirical Study». SSRN. DOI: https://doi.org/10.2139/ssrn.4359405
MIRÓ LLINARES, F. (2018). «Inteligencia Artificial y justicia penal: más allá de los resultados lesivos causados por robots». Revista de Derecho Penal y Criminología, n.º 20, págs. 87-130. DOI: https://doi.org/10.5944/rdpc.20.2018.26446
MOTOKI, F.; NETO, V. P.; RODRIGUES, V. (2023). «More human than human: measuring ChatGPT political bias». Public Choice. DOI: https://doi.org/10.1007/s11127-023-01097-2
MOYA GARCÍA, R. (2003). «Jurimetría, una breve aproximación». Jurimetría. Revista Chilena de Informática Jurídica, n.º 2, págs. 5-9. DOI: https://doi.org/10.5354/0717-9154.2003.10794
PERLMAN, A. (2022). «The implications of ChatGPT for legal services and society». SSRN. DOI: https://doi.org/10.2139/ssrn.4294197
RAY, P. P.; (2023). «ChatGPT: A comprehensive review on background, applications, key challenges, bias, ethics, limitations and future scope». Internet of Things and Cyber-Physical Systems, vol. 3, págs. 121-154. DOI: https://doi.org/10.1016/j.iotcps.2023.04.003
ROZADO, D. (2023). «The Political Biases of ChatGPT». Social Sciences, vol. 12, n.º 3. DOI: https://doi.org/10.3390/socsci12030148
RUTINOWSKI, J.; FRANKE, S.; ENDENDYK, J.; DORMUTH, I.; PAULY, M. (2023). «The Self-Perception and Political Biases of ChatGPT». ArXiv. DOI: https://doi.org/10.48550/arXiv.2304.07333
RYAN, J.W. (1968). «Jurimetrics». University of New Brunswick Law Journal, vol. 18, págs. 103-113.
SINGH, S.; RAMAKRISHNAN, N. (2023). «Is ChatGPT Biased? A Review». OSF Preprints. DOI: https://doi.org/10.31219/osf.io/9xkbu
TAN, J.; WESTERMANN, H.; BENYEKHLEF, K. (2023). «ChatGPT as an Artificial Lawyer?» En: L. K. BRANTING (ed.). Workshop on Artificial Intelligence for Access to Justice (AI4AJ 2023). Braga: CEUR Workshop Proceedings [en línea]. Disponible en: https://ceur-ws.org/Vol-3435/short2.pdf
URCHS, S.; THURNER, V.; ASSENMACHER, M.; HEUMANN, C.; THIEMICHEN, S. (2023). «How Prevalent is Gender Bias in ChatGPT? Exploring German and English ChatGPT Responses». arXiv. DOI: https://doi.org/10.48550/arXiv.2310.03031
VASWANI, A.; SHAZEER, N. M.; PARMAR, N.; USZKOREIT, J.; JONES, L.; GOMEZ, A. N.; KAISER, L.; POLOSUKHIN, I. (2017). «Attention is All you Need». ArXiv. DOI: https://doi.org/10.48550/arXiv.1706.03762
VERBEEK, P. P. (2009). «Cultivating Humanity: towards a Non-Humanist Ethics of Technology». En: J.K.B. OLSEN, E. SELINGER y S. RIIS (eds.). New Waves in Philosophy of Technology, págs. 241-263. Hampshire-Nueva York: Palgrave Macmillan. DOI: https://doi.org/10.1057/9780230227279_12
WALLACH, W.; VALLOR, S. (2020). «Moral Machines. From Value Alignment to Embodied Virtue». En: M. LIAO (ed.). Ethics of Artificial Intelligence, págs. 383-412. Nueva York: Oxford University Press. DOI: https://doi.org/10.1093/oso/9780190905033.003.0014
ZHOU, C.; LI, Q.; LI, C.; YU, J.; LIU, Y.; WANG, G.; ZHANG, K.; JI, C.; YAN, Q.; HE, L.; PENG, H.; LI, J.; WU, J.; LIU, Z.; XIE, P.; XIONG, C.; PEI, J.; YU, P. S.; SUN, L. (2023). «A Comprehensive Survey on Pretrained Foundation Models: A History from BERT to ChatGPT». ArXiv. DOI: https://doi.org/10.48550/arXiv.2302.09419
ZHOU, K. Z.; SANFILIPPO, M. R. (2023). «Public Perceptions of Gender Bias in Large Language Models: Cases of ChatGPT and Ernie». ArXiv. DOI: https://doi.org/10.48550/arXiv.2309.09120.