Política Editorial sobre el uso de Inteligencia Artificial
La revista científica Peruvian Journal of Management (PJM), comprometida con los más altos estándares de integridad académica, ética editorial y transparencia científica, adopta formalmente las directrices internacionales sobre el uso responsable de inteligencia artificial (IA) en el proceso de publicación científica.
En este marco:
- Reconoce y aplica las políticas editoriales de referencia establecidas por Elsevier, Springer Nature y Wiley.
- Adopta como marco ético las recomendaciones del Committee on Publication Ethics (COPE) para abordar el uso y posibles abusos de IA en manuscritos científicos.
- Establece una política clara, estructurada y actualizable que guíe a autores, revisores y editores en el uso transparente, ético y legal de tecnologías basadas en IA.
La revista PJM se compromete a:
- Actualizar sus políticas conforme evolucionen las normativas internacionales sobre IA,
- Educar a su equipo editorial y revisores sobre el uso ético de estas tecnologías,
- Y garantizar que toda implementación tecnológica refuerce la calidad, transparencia y confianza en el proceso editorial.
El avance y la disponibilidad de herramientas de inteligencia artificial (IA), particularmente aquellas basadas en modelos de lenguaje generativo, ha transformado diversos aspectos del quehacer académico. Frente a este escenario, la revista científica Peruvian Journal of Management (PJM) establece las siguientes directrices editoriales, con base en las políticas internacionales de editoriales líderes y las recomendaciones del Committee on Publication Ethics (COPE).
Estas directrices tienen como objetivo:
- Garantizar la integridad científica y la transparencia editorial en el uso de IA durante todo el ciclo de publicación,
- Promover un uso ético, responsable y supervisado de las herramientas de IA por parte de autores, revisores y editores,
- Prevenir riesgos asociados a la generación no declarada de contenido, a la violación de la confidencialidad, o al uso indebido de tecnologías que aún presentan limitaciones técnicas, legales y éticas.
Las siguientes secciones abordan cómo se debe gestionar el uso de IA en áreas clave del proceso editorial: redacción de manuscritos, tratamiento de imágenes, revisión por pares, evaluación editorial, herramientas internas y manejo ético de casos sospechosos.
1. Uso de IA como autor
Uso permitido (bajo supervisión humana):
- Elsevier permite el uso de herramientas de IA generativa únicamente para mejorar el lenguaje y la legibilidad del manuscrito, siempre bajo revisión humana.
- Springer Nature permite el uso de IA para tareas de corrección de estilo, gramática o tono sin necesidad de declaración. No obstante, si la IA fue utilizada para generar contenido, debe declararse en la sección de Métodos.
- Wiley promueve el uso de IA como herramienta de apoyo para generar ideas, sintetizar información o refinar contenido, bajo la responsabilidad directa del autor.
Obligaciones del autor:
- Declarar de manera transparente el uso de IA, cuando corresponda, en el manuscrito (especialmente si generó contenido nuevo).
- Supervisar y revisar críticamente el contenido generado por IA para evitar errores, omisiones o sesgos.
- Asumir plena responsabilidad sobre el contenido presentado, independientemente del uso de herramientas tecnológicas.
Restricciones:
- Ninguna herramienta de IA puede ser considerada autor o coautor del manuscrito, ya que no puede asumir responsabilidad ética, legal ni científica.
- No se permite utilizar IA generativa para crear o alterar imágenes, salvo excepciones metodológicas claramente justificadas y declaradas.
- La omisión de la declaración del uso de IA, cuando esta fue determinante en la generación del contenido, se considera una falta de transparencia.
2. Uso de la IA como revisor
Restricciones:
- Elsevier, Springer Nature y COPE coinciden en que los revisores no deben utilizar herramientas de IA generativa para analizar manuscritos, redactar informes de evaluación o corregir el estilo de sus textos.
- Subir un manuscrito, en parte o en su totalidad, a una plataforma de IA constituye una violación a la confidencialidad del proceso de revisión por pares y puede infringir derechos de autor o leyes de protección de datos.
Responsabilidades del revisor:
- Elaborar el informe de evaluación de forma íntegra y autónoma, con juicio crítico propio y responsabilidad plena sobre su contenido.
- Evaluar el uso declarado de IA por parte del autor como parte del análisis de calidad, originalidad y transparencia del trabajo presentado.
- Abstenerse de realizar suposiciones o acciones discriminatorias basadas en el país de origen, disciplina o trayectoria del autor.
Actuación ante dudas:
- En caso de sospecha razonable sobre el uso indebido de IA por parte del autor, se recomienda comunicar la inquietud al editor de forma respetuosa y sin emitir juicios concluyentes sin evidencia.
3. Uso de la IA como editor
Restricciones:
- No se permite el uso de IA generativa para analizar manuscritos, redactar cartas de decisión, emitir dictámenes editoriales ni procesar comunicaciones vinculadas al proceso editorial.
- Todo contenido editorial y correspondencia relacionada con los manuscritos debe considerarse confidencial y no puede ser introducido en plataformas de IA generativa.
Uso técnico permitido:
- El uso de tecnologías asistidas por IA no generativa está permitido exclusivamente para funciones técnicas y automatizadas como:
- Verificación de plagio.
- Sugerencia de revisores.
- Detección de deficiencias estructurales o faltantes formales en los manuscritos.
Condiciones para su implementación:
- Las herramientas utilizadas deben haber sido éticamente evaluadas, garantizar la protección de la identidad de los involucrados y contar con mecanismos para prevenir sesgos, en línea con los principios de IA Responsable (como los establecidos por RELX).
- El proceso de toma de decisiones editoriales debe ser realizado exclusivamente por seres humanos.
Responsabilidades del editor:
- Supervisar el cumplimiento de las políticas de uso de IA por parte de autores y revisores.
- Consultar directamente a los autores ante cualquier duda razonable sobre el uso de IA, y documentar la comunicación de forma respetuosa y transparente.
- Actuar con firmeza en caso de que existan pruebas claras de uso indebido, tomando decisiones editoriales en línea con los principios éticos de COPE.
Consideraciones generales
- Las decisiones editoriales deben basarse en evidencia objetiva, evitar suposiciones sin fundamento y no discriminar por origen geográfico, disciplina o nivel de experiencia.
- El uso de IA en el proceso editorial debe responder a principios de integridad científica, respeto a la confidencialidad, transparencia, supervisión humana y rendición de cuentas.
- COPE recomienda que, en casos donde existan sospechas razonables, se priorice el diálogo directo con los autores antes de tomar acciones concluyentes, y que se eviten rechazos basados exclusivamente en sospechas no verificadas.