Un nuevo estudio publicado en Revista de investigación médica en Internet El 31 de mayo de 2023, el Dr. Martin Majewski y sus colegas revelaron que los modelos de lenguaje de inteligencia artificial (IA) como ChatGPT (Global Pre-Trained Chat Transformers) pueden generar artículos científicos fraudulentos que parecen notablemente originales. Este hallazgo plantea preocupaciones críticas sobre la integridad de la investigación científica y la credibilidad de los artículos publicados.
Investigadores de la Universidad Charles, República Checa, buscaron investigar las capacidades de los modelos de lenguaje de IA existentes para crear artículos médicos fraudulentos de alta calidad. El equipo utilizó el popular chatbot ChatGPT, que se ejecuta en el modelo de lenguaje GPT-3 desarrollado por OpenAI, para generar un artículo científico completamente inventado en el campo de la neurocirugía. Las preguntas y las indicaciones se refinan a medida que ChatGPT genera respuestas, lo que permite una calidad de salida mejorada iterativamente.
Los resultados de este estudio de prueba de concepto fueron sorprendentes: el modelo de lenguaje de IA logró producir un artículo fraudulento que se parecía mucho a un artículo científico real en términos de uso de palabras, estructura de oraciones y sintaxis general. El artículo incluía secciones estándar como resumen, introducción, métodos, resultados y discusión, así como tablas y otros datos. Sorprendentemente, todo el proceso de creación del artículo tomó solo una hora sin ningún entrenamiento especial para el usuario humano.
Si bien el artículo generado por IA parecía complejo e impecable, después de un examen minucioso, los lectores expertos pudieron identificar errores semánticos y errores particularmente en las referencias: algunas referencias eran incorrectas, mientras que otras no existían. Esto subraya la necesidad de una mayor vigilancia y mejores métodos de detección para combatir el posible uso indebido de la IA en la investigación científica.
Los resultados de este estudio subrayan la importancia de desarrollar pautas éticas y mejores prácticas para el uso de modelos de lenguaje de IA en investigaciones y escritos científicos reales. Los paradigmas como ChatGPT tienen el potencial de mejorar la eficiencia y la precisión de la generación de documentos, el análisis de resultados y la edición de idiomas. Al usar estas herramientas con cuidado y responsabilidad, los investigadores pueden aprovechar su poder y minimizar el riesgo de abuso o mal uso.
En un comentario al artículo del Dr. Majowski, se publicó aquíEl Dr. Pedro Pallister discute la necesidad de priorizar la reproducción y la visibilidad de los trabajos académicos, ya que estos sirven como salvaguardas esenciales contra el florecimiento de la investigación fraudulenta.
A medida que la IA continúa avanzando, se vuelve imperativo que la comunidad científica verifique la precisión y credibilidad del contenido generado por estas herramientas e implemente mecanismos para detectar y prevenir el fraude y la mala conducta. Si bien ambos artículos coinciden en que debe haber una mejor manera de verificar la precisión y la credibilidad del contenido generado por IA, la forma en que se puede lograr es menos clara. Como punto de partida, el Dr. Pallister sugiere: «Al menos deberíamos indicar cuánto ayudó la IA a escribir y analizar el artículo». Otra posible solución propuesta por Majowski y sus colegas es hacer obligatorio el envío de conjuntos de datos.
El artículo «La inteligencia artificial puede generar artículos médicos científicos fraudulentos pero de aspecto auténtico: se abre la caja de Pandora» de JMIR Publications en su titular, Revista de investigación médica en Internet y accesible aquí.
Por favor cite lo siguiente:
Májovský M, Černý M, Kasal M, Komarc M, Netuka D La inteligencia artificial puede producir artículos médicos científicos fraudulentos pero de apariencia auténtica: J Med Internet Res 2023 Pandora’s Box Opened; 25: e46924
URL: https://www.jmir.org/2023/1/e46924/
hacer: 10.2196 / 46924
###
Acerca de las publicaciones de JMIR
JMIR Publications es la principal editorial digital de acceso abierto de más de 30 revistas académicas y otros productos innovadores de comunicación científica centrados en la intersección de la salud y la tecnología. Su revista insignia, Journal of Medical Internet Research, es la revista de salud digital líder en el mundo en términos de amplitud y claridad de contenido, y es la revista más grande en el campo de la informática médica.
Para obtener más información sobre las publicaciones de JMIR, visite jmirpublications.com O póngase en contacto con nosotros a través de GorjeoY LinkedinY YouTubeY FacebookY Instagram.
Oficina central: 130 Queens Quay East, Unidad 1100, Toronto, ON, M5A 0P6 Canadá
Contacto con los medios: [email protected]
El contenido de esta comunicación está sujeto a los términos de la licencia Creative Commons Attribution License (https://creativecommons.org/licenses/by/4.0/), que permite su uso, distribución y reproducción sin restricciones en cualquier medio, siempre que se cite correctamente la obra original publicada por JMIR Publications.
revista
Revista de investigación médica en Internet
Título del artículo
La inteligencia artificial puede generar artículos médicos científicos fraudulentos pero de aspecto auténtico: se abre la caja de Pandora
La fecha en que se publicó el artículo.
31 de mayo de 2023
Descargo de responsabilidad: AAAS y Eurek Alert! No es responsable de la exactitud de los boletines enviados en EurekAlert! A través de organizaciones colaboradoras o por utilizar cualquier información a través del sistema EurekAlert.
«Experto en Internet. Lector. Fanático de la televisión. Comunicador amistoso. Practicante de alcohol certificado. Aficionado al tocino. Explorador. Malvado adicto a los tweets».
More Stories
Se filtraron materiales de marketing de Google Pixel 8a
La mina de Quebec «alineó los planetas» y ganó la lotería de 7 millones de dólares
Olvídese de Nintendo Switch 2, Tetris y 7-Eleven como consola de juegos portátil