Uso de inteligencia artificial
RELART adhiere a las recomendaciones del International Committee of Medical Journal Editors (ICMJE) y a las buenas prácticas promovidas por el Committee on Publication Ethics (COPE) en relación con el uso de herramientas de inteligencia artificial (IA) en la comunicación científica.
Alcance
El uso de sistemas de IA —en particular aquellos con capacidades generativas (modelos de lenguaje, generación de imágenes o herramientas automatizadas de análisis de datos)— deberá ser declarado de manera explícita cuando haya intervenido en cualquier etapa de la elaboración del manuscrito, incluyendo:
- Redacción, edición o corrección de textos.
- Traducción o reformulación de contenidos.
- Análisis, procesamiento o visualización de datos.
- Generación de imágenes, gráficos, tablas u otros recursos.
- Apoyo en la revisión bibliográfica o síntesis de información.
Responsabilidad de los autores
El uso de herramientas de IA no sustituye la autoría ni la responsabilidad intelectual. Los autores son plenamente responsables de:
- La exactitud, integridad y originalidad del contenido.
- La verificación de datos, citas y referencias.
- La ausencia de sesgos, errores o información fabricada.
Los autores deberán informar de manera clara qué herramientas fueron utilizadas, con qué finalidad y en qué medida intervinieron en el desarrollo del trabajo.
No se admite la generación automática de contenidos científicos sin supervisión humana ni validación crítica.
Transparencia
La información sobre el uso de IA deberá incluirse en el manuscrito en la sección correspondiente según su tipo de uso:
- Cuando se utilice para redacción o edición, deberá declararse en la sección de Agradecimientos.
- Cuando se utilice para análisis de datos, generación de resultados o figuras, deberá describirse en la sección de Metodología.
Evaluación por pares
Los evaluadores no deberán utilizar herramientas de IA que comprometan la confidencialidad del manuscrito. En caso de emplear herramientas de apoyo, no podrán delegar en ellas la evaluación académica ni la emisión del dictamen.
Principios éticos
Se consideran prácticas inadecuadas:
- La generación de contenidos, datos o referencias inexistentes.
- La manipulación de imágenes o resultados mediante IA sin declaración explícita.
- El ocultamiento del uso de herramientas de IA.
El uso indebido de estas tecnologías podrá ser considerado una falta ética y dar lugar al rechazo del manuscrito o a otras medidas editoriales.
Uso y mención de herramientas de IA
Al momento del envío, los autores deberán declarar si han utilizado herramientas de inteligencia artificial y describir su uso. Esta información podrá ser consignada en la carta de solicitud. Asimismo, deberá incluirse en el manuscrito en la sección correspondiente.
Las herramientas de IA no deben ser consideradas fuentes primarias de conocimiento científico ni autoras del trabajo. Su mención deberá limitarse a fines metodológicos o descriptivos.
Ejemplo (uso metodológico)
- OpenAI. ChatGPT (versión del 15 de julio de 2023) [modelo de lenguaje de gran tamaño]. San Francisco (CA): OpenAI; 2023 [citado 2026 Mar 24]. Disponible en: https://chat.openai.com
Ejemplo de cita en el texto
“…se utilizó una herramienta de inteligencia artificial para asistencia en la redacción (1).”


