Ús de la intel·ligència artificial
A la revista Haidé. Estudis maragallians estem compromesos amb la integritat científica i la transparència en l'ús de la intel·ligència artificial (IA). Aquesta política estableix directrius clares sobre l'ús adequat d'eines d'IA per autors, revisors i editors.
1. Principis generals
D'acord amb les directrius de la Declaració de COPE i les millors pràctiques a la comunitat científica:
- Les eines d'IA no poden complir amb els criteris d'autoria, ja que no poden assumir la responsabilitat del contingut científic.
- No poden gestionar conflictes d'interessos, drets d'autor ni prendre decisions ètiques per si soles.
2.Ús de l'IA per part dels autors
2.1. Declaració d'ús:
Els autors han de declarar explícitament l'ús de qualsevol eina d'IA en la redacció o anàlisi dels seus manuscrits. S'ha de especificar el programari utilitzat, les funcions aplicades i les seccions del manuscrit on s'ha fet servir.
2.2. Responsabilitat de l'originalitat:
L'autor és responsable de l'originalitat del contingut generat o assistit per IA. El material generat no ha de vulnerar drets de tercers ni plagiar continguts existents.
2.3. Revisió de contingut assistit per IA:
Els autors són responsables de revisar i verificar acuradament qualsevol contingut generat per IA per evitar biaixos, errors o inexactituds.
3. Ús de l'IA en la revisió per parells
3.1. Declaració de l'ús de l'IA per part dels revisors
Si els revisors utilitzen IA per ajudar en l'avaluació d'un manuscrit, han de declarar aquest ús. L'IA pot servir com a suport, però el judici crític i l'avaluació final han de ser realitzats per éssers humans.
3.2. Avaluació de manuscrits
L'IA no ha de substituir la responsabilitat del revisor en l'avaluació científica. El procés ha de ser realitzat principalment per humans, i l'ús de l'IA ha de ser complementari.
4. Ús de l'IA per part de l'equip editorial
L'equip editorial pot utilitzar l'IA en tasques administratives i d'edició, com el formatatge de manuscrits o la detecció de plagi, sempre sota una supervisió humana rigorosa per garantir la coherència i qualitat.
5. Ètica en l'ús de l'IA
L'ús de l'IA no ha de conduir, sota cap circumstància, a la manipulació de dades, plagi o violacions de propietat intel·lectual. Qualsevol mal ús de l'IA, intencionat o no, serà tractat d'acord amb les polítiques de COPE i altres normatives ètiques de l'editorial.
6. Avaluació i actualització de la política
Aquesta política serà revisada regularment per adaptar-se als avenços tecnològics en IA i per garantir les millors pràctiques dins de la publicació científica.
7. Consequències del incompliment
L'incompliment d'aquesta política pot comportar sancions com la retirada del manuscrit o la prohibició d'enviar futurs treballs a Haidé. Estudis maragallians.