Un nuevo estudio ha descubierto que la herramienta de inteligencia artificial ChatGPT ha sido utilizada para escribir miles de estudios científicos sin que se haya declarado adecuadamente. Esta práctica, que podría suponer un problema importante para la integridad de la investigación científica, ha generado gran preocupación en la comunidad científica.
¿Cómo se ha utilizado ChatGPT?
Los investigadores del estudio, publicado en la revista «Nature», analizaron más de 8 millones de artículos científicos publicados en los últimos años. Encontraron que más de 10.000 de estos artículos contenían texto que había sido generado por ChatGPT.
¿Por qué es problemático?
El uso de ChatGPT para escribir estudios científicos sin declararlo adecuadamente puede tener varias consecuencias negativas:
- Falta de transparencia: Los lectores de los estudios científicos no saben que el texto ha sido generado por una IA, lo que dificulta evaluar la credibilidad del estudio.
- Posible plagio: En algunos casos, el texto generado por ChatGPT puede ser muy similar al de otros estudios existentes, lo que podría considerarse plagio.
- Errores y datos falsos: La IA puede cometer errores o generar datos falsos, lo que podría tener graves consecuencias si se utiliza en estudios científicos.
¿Qué se puede hacer?
Los autores del estudio recomiendan a los editores de revistas científicas que adopten medidas más estrictas para detectar y prevenir el uso de IA en la redacción de estudios científicos. También piden a los investigadores que sean más transparentes sobre el uso de herramientas de IA en su trabajo.
Este estudio pone de relieve la necesidad de un debate más amplio sobre el uso de la inteligencia artificial en la investigación científica. Es importante establecer directrices claras sobre cómo se puede utilizar la IA de manera responsable y ética para evitar que esta tecnología comprometa la integridad de la ciencia.
Esta semana, en el programa La mañana de COPE Canarias, hablamos sobre esta costumbre y cómo se ha descubierto.