La inteligencia artificial generativa llegó para quedarse, por tal motivo es importante comprender el uso correcto que podemos darle a estas herramientas y los límites a respetar. Aunque este es un tema que se está desarrollando muy rápidamente y aun no hay una postura concluyente, ya varias editoriales se han pronunciado al respecto para prevenir a los autores sobre posibles usos de la IAG.
En el siguiente cuadro se presentan los criterios de algunas editoriales científicas.
Editorial | Criterios de Autoría sobre IA y LLM |
---|---|
arXiv | Considera que los autores de trabajos científicos utilizan herramientas de lenguaje impulsadas por IA para realizar y preparar el informe, desde aquellas más sencillas hasta las más sofisticadas y acotan que dichas herramientas si bien pueden gestar resultados útiles y provechosos, del mismo modo pueden generar resultados erróneos o engañosos; por lo tanto, admiten que es necesario conocer los tipos de herramientas utilizadas en los trabajos científicos (instrumentos, software; IAG) y que éstas sean descritas conforme a los estándares temáticos en la sección metodología, para su evaluación e interpretación, destacando que son los autores de un artículo quienes asumen la total responsabilidad del contenido generado. |
Committee on Publication Ethics (COPE) | COPE se suma a los lineamientos de la mayoría de las editoriales para ratificar que las herramientas tecnológicas asistidas por IA o modelos de lenguaje grande (LLM) no pueden comparecer como autores de un artículo al no cumplir con los requisitos de autoría. Es decir, como entidades no jurídicas, no pueden afirmar la presencia o ausencia de conflictos de intereses, ni gestionar acuerdos de derechos de autor y licencias. Los autores, son totalmente los responsables del contenido de su manuscrito, incluyendo aquellas partes producidas por una herramienta de IA; por lo tanto, en ellos recae el peso de cualquier incumplimiento de la ética de publicación. Si los autores utilizan alguna de las herramientas de IA antes mencionadas, ya sea para la redacción de un manuscrito, producción de imágenes o elementos gráficos, o en la recopilación y análisis de datos, éstos deberán explicarlo transparentemente en la sección de “Materiales y Métodos” (u otra similar) en el artículo, a modo de justificar qué tipo de herramienta de IA o LLM se utilizó y cómo fue utilizada. |
Elsevier | Cuando los autores utilicen IA y tecnologías asistidas por IA en el proceso de redacción, estas deben utilizarse únicamente para mejorar la legibilidad y el lenguaje de la obra y no para suplir tareas clave de la autoría tales como: producir conocimientos científicos, médicos o pedagógicos, extraer conclusiones científicas o brindar recomendaciones clínicas. Al aplicar la tecnología, deberá realizarse con supervisión y control de humanos, y todo el trabajo deberá revisarse y editarse esmeradamente, considerando que la IA puede generar un tono autoritario, pero incorrecto, incompleto o sesgado. Son los autores los responsables del contenido de la obra y no deben incluir ni citar a la IA ni a las tecnologías asistidas por IA como autor o coautor; ellos deben garantizar la originalidad del trabajo y que no se vulneren los derechos de terceros. Por otra parte, los autores deben divulgar en sus manuscritos el uso de IA y tecnologías asistidas por IA e incluir en el trabajo publicado una declaración al respecto para fomentar la transparencia y la confianza entre autores, lectores, revisores, editores y colaboradores, facilitando el cumplimiento de los términos de uso de la herramienta o tecnología pertinente. |
Emerald Publishing | Los artículos, estudios de casos y capítulos enviados a Emerald para su consideración y revisión deben tratarse como confidenciales; por lo que no deben compartirse, ni cargarlos en una herramienta de IA o en un modelo de lenguaje grande (LLM) para su evaluación, ya que violaría la confidencialidad del autor, al igual que cualquier derecho de privacidad y propiedad de datos. Del mismo modo, lo anterior se aplicaría para el informe de revisión por pares, debido a los sesgos en los conjuntos de datos de estos modelos y la confiabilidad de su capacidad para evaluar el contenido, con el riesgo de generar resultados falsos, defectuosos o inexactos. |
International Committee of Medical Journal Editors (ICMJE) | Refiere que, los autores no deben citar ni incluir a las tecnologías asistidas por IA tales como modelos LLM, chatbots o creadores de imágenes, como autor o coautor, debido a que estas herramientas tecnológicas no pueden ser responsables de la claridad, integridad y originalidad del trabajo; por tanto, la responsabilidad recae en los humanos. Al enviar un artículo, la revista debe exigir a los autores que informen si utilizaron dichas tecnologías asistidas por IA en la elaboración del trabajo; esto significa que, de ser utilizadas, deberán explicarlo tanto en la carta de presentación como en la sección correspondiente (metodología, agradecimientos u otra sujeta a la política de la editorial) en el trabajo enviado. Los autores deben cuidadosamente revisar y editar el resultado considerando que la IA puede generar un resultado que parezca confiable, como también otro que esté incorrecto, incompleto o parcial. |
Sage | Reconoce el valor de los grandes modelos lingüísticos (LLM) y la IA Generativa como herramientas de productividad que pueden favorecer a los autores en la generación de ideas iniciales para estructurar, resumir o preparar sus artículos; además de perfeccionar el lenguaje, etc., antes de ser enviado. Sin embargo, igual destaca que, todos los modelos lingüísticos poseen limitaciones que impiden replicar el pensamiento creativo y crítico humano y que, por lo tanto, los bots de IA similares a ChatGPT, Claude entre otros, no deben figurar como autores en el manuscrito. Sage convoca a los autores a indicar con claridad en la sección de “Métodos o Agradecimientos” del trabajo, (según corresponda) el tipo de modelo lingüístico utilizado y revelar cómo se utilizó. Verificar la validez, exactitud e idoneidad tanto del contenido como de las citas generadas por los modelos LLM, así como subsanar cualquier inconsistencia, errores o potenciales sesgos. |
Science | Refiere que las tecnologías asistidas por IA como los modelos de lenguaje extenso (LLM), los chatbots y los creadores de imágenes, no cumplen con los criterios de autoría de las revistas científicas; por lo tanto, no pueden figurar como autores o coautores, ni pueden ser creadas o coescritas por herramientas de IA. Los autores que utilicen tecnologías asistidas por IA como componentes de su estudio de investigación o como ayudas en la redacción o presentación del manuscrito deben indicarlo en la carta de presentación y en la sección de “Agradecimientos” del manuscrito. Igual se debe proporcionar información detallada en la sección de “Métodos”, se debe divulgar el mensaje completo utilizado en la producción del trabajo, así como la herramienta de IA y su versión. Los autores son responsables de la precisión e integridad del trabajo, asegurándose de citar adecuadamente las fuentes y de revisar cuidadosamente el trabajo para protegerse contra el sesgo que pueda introducir la IA. Los revisores no pueden utilizar tecnología de inteligencia artificial para generar o escribir sus revisiones porque esto podría violar la confidencialidad del manuscrito. |
Springer Nature | Los modelos de lenguaje extensos LLM, como ChatGPT (u otros similares), actualmente no satisfacen los criterios de autoría de la casa editora. Ellos destacan que la atribución de autoría conlleva a la responsabilidad por el trabajo, por ende, no puede ser aplicable de manera efectiva a los LLM. Al aplicar cualquier herramienta o modelo LLM, éstos deben justificarse adecuadamente en la sección de “Métodos” o en otra sección alternativa del manuscrito. Reconocen que el rápido avance de la creación de imágenes con IA generativa ha dado pie a nuevos problemas legales relacionados con los derechos de autor y la integridad de la investigación. Sin embargo, la editorial sigue estrictamente la legislación vigente sobre derechos de autor y las mejores prácticas en materia de ética de publicación. Por otra parte, refieren que, si bien las trabas legales relacionadas con las imágenes y vídeos creados con IA continúan sin ser resueltos en gran medida, las revistas Springer Nature, no pueden permitir su uso para publicaciones; exceptuando las imágenes y el arte adquirido de forma legalmente aceptable por agencias con las que tienen relaciones contractuales. Otras excepciones, incluyen imágenes y videos a los que se hace referencia directa en un artículo que tratan específicamente sobre IA, las cuales serán revisadas caso por caso. |
Taylor & Francis | Plantea que los autores son responsables de la originalidad, validez e integridad del contenido de sus envíos. Por lo que de utilizarse herramientas de IA generativa (LLM, chatbots, etc.) para la creación de contenidos, se espera que los autores estén conscientes de que el uso de tales herramientas tecnológicas, deberán cumplir con los criterios de autoría y principios éticos de la editorial. Taylor & Francis apoya el uso responsable de herramientas de IA generativa que respeten altos estándares de seguridad de datos, confidencialidad y protección de derechos de autor, además de, reconocerlas y declararlas adecuadamente en el trabajo creado. |
Wiley | Wiley puntualiza que cuando un autor utilice una herramienta AI Generativa para crear contenido en alguna parte del manuscrito, debe declararse y detallar transparentemente su uso en la sección “Métodos” o “Agradecimientos” según corresponda. El autor es totalmente responsable de la precisión de la información desarrollada por algún tipo de herramienta asistida de IA, así como de hacer la referencia correcta a cualquier trabajo de apoyo sujeto a esa información. Las herramientas AI Generativa no deben utilizarse para crear, alterar o manipular datos y resultados de investigación originales sin la dirección de seres humanos. Tampoco pueden ser responsables del diseño de investigación o de un trabajo publicado, ya que es un requisito general de autoría y en materia legislativa no están facultadas para tener o ceder derechos de autor. Por lo tanto, en congruencia con la declaración de COPE sobre autoría y herramientas de IA, no pueden ejercer el rol de autor ni figurar como tal en un artículo. |
En cuanto al uso, mejoramiento o creación de las imágenes hay consenso en prohibir el uso de IAG. Existen herramientas como Proofig (https://www.proofig.com/) que revisan y detectan la integridad de las imágenes e informan si éstas son reales o alteradas.
arXiv. (2023). arXiv announces new policy on ChatGPT and similar tools. https://blog.arxiv.org/2023/01/31/arxiv-announces-new-policy-on-chatgpt-and-similar-tools
Committee on Publication Ethics. (2023). Authorship and AI tools: COPE position statement. https://publicationethics.org/cope-position-statements/ai-author
Elsevier. (2023). The use of generative AI and AI-assisted technologies in writing for Elsevier. https://beta.elsevier.com/about/policies-and-standards/the-use-of-generative-ai-and-ai-assisted-technologies-in-writing-for-elsevier
Emerald Publishing. (2023). Publishing ethics: Find out more about publication ethics and our policies. https://www.emeraldgrouppublishing.com/publish-with-us/ethics-integrity/research-publishing-ethics
International Committee of Medical Journal Editors. (2023). Recommendations for the conduct, reporting, editing, and publication of scholarly work in medical journals. https://www.icmje.org/icmje-recommendations.pdf
Sage. (2023). ChatGPT and generative AI: Use of large language models and generative AI tools in writing your submission. https://us.Sagepub.com/en-us/nam/chatgpt-and-generative-ai
Springer Nature. (2023). Artificial intelligence (AI). Nature Portfolio. https://www.nature.com/nature-portfolio/editorial-policies/ai
Taylor & Francis Group. (2023). Defining authorship in your research paper: Co-authors, corresponding authors, and affiliations. Author Services. https://authorservices.taylorandfrancis.com/editorial-policies/defining-authorship-research-paper
Wiley. (2023). Best practice guidelines on research integrity and publishing ethics. https://authorservices.wiley.com/ethics-guidelines/index.html