eISSN 2444-7986
DOI: https://doi.org/10.14201/orl.33188
EDITORIAL
Artificial Intelligence in Peer Review: Acceleration Without Losing Scientific Integrity?
Director de Revista ORL. Hospital Universitario de Salamanca. Otorrinolaringología y Cirugía de Cabeza y Cuello. Universidad de Salamanca. Departamento de Cirugía. Facultad de Medicina. Área de Otorrinolaringología. IBSAL. Salamanca. España
Correspondencia: jlpardal@usal.es
Fecha de publicación: 27 de abril de 2025
Fecha de publicación del fascículo: pendiente de publicación
Conflicto de intereses: Los autores declaran no tener conflictos de intereses
Imágenes: Los autores declaran haber obtenido las imágenes con el permiso de los pacientes
Política de derechos y autoarchivo: se permite el autoarchivo de la versión post-print (SHERPA/RoMEO)
Licencia CC BY-NC-ND. Licencia Creative Commons Atribución-NoComercial-SinDerivar 4.0 Internacional
Universidad de Salamanca. Su comercialización está sujeta al permiso del editor
La revisión por pares es el pilar fundamental del control de calidad de las publicaciones en la ciencia y en la medicina. El proceso enfrenta desafíos crecientes—volúmenes de manuscritos en ascenso, escasez de revisores y riesgos de parcialidad—que amenazan su sostenibilidad. En este contexto, la inteligencia artificial (IA) ha irrumpido como una herramienta con potencial para transformar cada etapa del proceso editorial. Explorar el alcance real, las fortalezas, limitaciones y los riesgos ético-legales de la IA en la revisión por pares es hoy una cuestión estratégica para la integridad de la literatura científica.
Un análisis de la literatura asistida con UnderMind revela que la IA ya actúa en múltiples fases del flujo editorial: desde el cribado inicial y la asignación de revisores hasta la generación de informes y cartas de decisión [1-5]. Herramientas como Statcheck, Penelope.ai, y modelos de lenguaje (por ejemplo, GPT–4) agilizan la detección de plagio, verifican el formato y resumen contenidos, mientras que algoritmos basados en aprendizaje profundo expanden y diversifican la selección de expertos revisores [1, 3, 4, 9, 10]. Los estudios muestran una reducción significativa en los tiempos de revisión y una mejora en la detección de errores formales [9, 10]. Asimismo, la IA permite identificar revisores fuera de las redes tradicionales, aumentando la diversidad [10]. Sin embargo, la evidencia alerta sobre nuevos riesgos: comentarios superficiales o irrelevantes, generación de referencias ficticias, reproducción de sesgos presentes en los datos de entrenamiento y problemas potenciales de privacidad o confidencialidad al usar sistemas comerciales [1, 4, 5, 7]. A pesar del optimismo sobre la eficiencia, existe consenso en que la intervención humana sigue siendo indispensable para detectar limitaciones de contexto, argumentar críticamente y validar las decisiones (human-in-the-loop) [1, 3, 5, 10]. Paralelamente, aunque la mayoría de las grandes organizaciones editoriales han emitido directrices para el uso de IA por parte de autores, las políticas claras para revisores y editores siguen siendo escasas o ambiguas [1, 2, 3]. Estudios empíricos sobre el efecto de la IA en la disposición de los autores a enviar manuscritos o en la confianza pública en el sistema científico son limitados o ausentes [4-8].
Estos hallazgos confirman el valor instrumental de la IA para superar cuellos de botella logísticos y mejorar ciertas dimensiones objetivas (velocidad, cobertura, detección de errores) del proceso de revisión. Sin embargo, los sistemas actuales muestran carencias en el juicio crítico, la identificación de aportes novedosos y la argumentación contextualizada, elementos centrales para la evaluación científica rigurosa [1, 4, 5]. La proliferación de resultados automatizados plantea incógnitas sobre la integridad intelectual, el reconocimiento del trabajo humano y la potencial devaluación de los revisores, así como nuevos desafíos de equidad y justicia, dado el riesgo de sesgos algorítmicos [3, 7, 10]. La literatura resalta un desfase entre la rápida adopción tecnológica y el desarrollo de políticas de gobernanza y responsabilidad. Mientras la Unión Europea reconoce estos sistemas como de alto riesgo en el marco regulatorio del AI Act (Diario Oficial de la Unión Europea el 12 de julio de 2024, https://commission.europa.eu/news/ai-act-enters-force-2024-08-01_es), la implementación de directrices institucionales efectivas y la armonización internacional aún están lejos de ser una realidad [1-3].
El campo editorial científico se halla en una encrucijada: abrazar la aceleración y potencial democratización que provee la IA, o arriesgarse a una desvalorización del juicio crítico y la confianza en la ciencia. Los beneficios prácticos, particularmente en la clasificación y asignación de revisores, son indudables, pero sin un contrapeso ético y regulatorio, pueden profundizar desigualdades o alimentar prácticas cuestionables. Es necesario avanzar hacia políticas explícitas, transparencia en el uso de IA y capacitación sistemática de editores, revisores y autores para trabajar en entornos híbridos. El desarrollo de métricas más precisas de impacto real—incluyendo efectos en la confianza, tasas de envío, calidad final y consecuencias no intencionadas—constituye un reto inmediato para la investigación futura [1, 4, 10]. La falta de datos empíricos sobre los efectos de la IA en la conducta de los autores y la aceptación social del sistema de revisión automatizado deja abierta una cuestión crítica para el diseño de políticas basadas en evidencia.
La inteligencia artificial ya es parte integral del ecosistema editorial, acelerando y transformando la revisión por pares, pero no puede—ni debe—sustituir la supervisión y deliberación humanas. Sólo un equilibrio informado entre innovación tecnológica y rigor ético permitirá garantizar la integridad, equidad y confianza en la ciencia publicada. Hoy más que nunca, la comunidad académica está llamada a definir reglas claras y mecanismos de rendición de cuentas para una colaboración transparente y responsable entre humanos y máquinas en la evaluación científica.
1. Mollaki V. Death of a reviewer or death of peer review integrity? The challenges of using AI tools in peer reviewing and the need to go beyond publishing policies. Research Ethics. 2024; 20(2):239-250. Consultado el 26/04/2025. Disponible en: https://doi.org/10.1177/17470161231224552
2. Cheng K, Li C, et al. Generative artificial intelligence is infiltrating peer review process. Critical Care. 2024; 28:149. Consultado el 26/04/2025. Disponible en: https://doi.org/10.1186/s13054-024-04933-z
3. Cárdenas J. Inteligencia artificial, investigación y revisión por pares: escenarios futuros y estrategias de acción. Revista Española de Sociología. 2023; 32(4):49-54. Consultado el 26/04/2025. Disponible en: https://doi.org/10.22325/fes/res.2023.184
4. Eger S, Miller T, et al. Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation. ArXiv. 2025; 2502.05151. Consultado el 26/04/2025. Disponible en: https://doi.org/10.48550/arXiv.2502.05151
5. Doskaliuk B, Yatsyshyn R, et al. Artificial Intelligence in Peer Review: Enhancing Efficiency While Preserving Integrity. Journal of Korean Medical Science. 2025; 40(7):e92. Consultado el 26/04/2025. Disponible en: https://doi.org/10.3346/jkms.2025.40.e92
6. Bauchner H, Rivara F. Use of artificial intelligence and the future of peer review. Health Aff Scholar. 2024; 2(5):qxae058. Consultado el 26/04/2025. Disponible en: https://doi.org/10.1093/haschl/qxae058
7. Carobene A, Plebani M, et al. Rising adoption of artificial intelligence in scientific publishing: evaluating the role, risks, and ethical implications in paper drafting and review process. Clinical Chemistry and Laboratory Medicine (CCLM). 2023; 62(5):835-843. Consultado el 26/04/2025. Disponible en: https://doi.org/10.1515/cclm-2023-1136
8. Calamur H, Ghosh R. Adapting peer review for the future: Digital disruptions and trust in peer review. Learned Publishing. 2024; 37:49-54. Consultado el 26/04/2025. Disponible en: https://onlinelibrary.wiley.com/doi/epdf/10.1002/leap.1594
9. Checco A, Bianchi G, et al. AI-assisted peer review. Humanities and Social Sciences Communications. 2021; 8(1):25. Consultado el 26/04/2025. Disponible en: https://www.nature.com/articles/s41599-020-00703-8
10. Farber S. Enhancing peer review efficiency: A mixed-methods analysis of artificial intelligence-assisted reviewer selection across academic disciplines. Learn Publ. 2024. Consultado el 26/04/2025. Disponible en: https://doi.org/10.1002/leap.1638
Este artículo se acompaña de documentación complementaria en inglés: