Políticas de IA

En Ciencia y Filosofía somos conscientes “de la gran mayoría de los artículos, como los modelos de lenguaje de IA parecen expandirse a un ritmo exponencial y sus capacidades tienden a desarrollarse a un ritmo sin precedentes, [lo anterior ha motivado] polémicas y dilemas importantes en términos de cómo cambiarán la escritura académica y la producción de conocimiento.”

Por tal motivo, hemos dividido la política acerca de la Inteligencia Artificial en los siguientes pronunciamientos.

La IA no es un autor es un asistente de investigación que son útiles para ayudar a explicar artículos, explorar datos y formatear citas.

Riesgos: dependen de a) sesgos en los datos; b) información incorrecta e inexacta o engañosa de “importancia crítica, particularmente las referencias alucinadas reflejadas en los trabajos académicos, en los datos completamente fabricados utilizados con fines empíricos.

Lo anterior genera inquietudes sobre la confiabilidad de la herramienta en la escritura científica. Los textos creados con IA muestran una alta tasa de error desde un aspecto fáctico que cuestiona su uso en ciertas áreas de investigación como los análisis bibliométricos.

En cuanto a la calidad, los textos generados por IA suelen ser de menor calidad y exhaustividad; sin embargo, también vale la pena acentuar que cada vez es más difícil diferenciar entre textos generados por IA y textos escritos por humanos, fundamentalmente en los textos que causan preocupaciones sobre la precisión de la investigación y el compromiso de la calidad en aras de la productividad.

Ética: inquietudes sobre la definición de autoría, la rendición de cuentas y la aplicación de estándares éticos en la publicación académica. El aspecto legal de las preocupaciones éticas, incluyen riesgos como violaciones de derechos de autor y plagio derivados de información no verificada o incorrecta generada por ChatGPT.

La preocupación acerca de la “creatividad” ya no puede limitarse a la capacidad de escribir, sino también a usar ChatGPT u otros grandes modelos de lenguaje (LLM) para escribir creativamente”, lo que en última instancia cuestiona la esencia misma de la autoría y la escritura académica y puede ser una idea principal en la era de la investigación asistida por IA.

Innovación e integración académica: el uso de ChatGPT para la investigación conlleva un aumento de las alucinaciones de la IA, especialmente en términos de referencias lo que puede resultar alarmante en vista de los crecientes problemas en torno a la falta de capacidad o, en ciertos casos, de rigor, en la revisión por pares.

Recomendamos el uso cauteloso de la IA en la literatura científica para preservar los estándares de publicación y la confiabilidad con una rigurosa supervisión humana, es decir el estricto cumplimiento de las leyes de derechos de autor y las regulaciones académicas al utilizar herramientas de IA para limitar los posibles daños.

También se puede destacar que la integridad académica, aunque en peligro por el uso excesivo de ChatGPT en la escritura, puede estar protegida, ya que es más fácil detectar o resaltar errores de datos o datos o resultados falsos a través de ChatGPT

Se recomienda autorregulación, el pensamiento crítico y la interacción ética con la IA en contextos educativos, cualquier intención que sea ajena a la política de IA propuesta aquí, será motivo de rechazo de artículo.

Referencia

Lenvdai GF. ChatGPT en la escritura académica: un análisis cienciométrico de la literatura publicada entre 2022 y 2023. Revista de Investigación Empírica sobre Ética de la Investigación Humana . 2025;20(3):131-148. doi: 10.1177/15562646251350203