mayo 3, 2024

Blog de Habeas Data

Encuentra toda la información nacional e internacional sobre españa. Seleccione los temas sobre los que desea saber más

La inteligencia artificial desata una caja de Pandora: la generación ChatGPT

Una imagen generada por inteligencia artificial, en respuesta a una solicitud. "La caja de Pandora se abrió con un médico de pie junto a ella.  Pintura al óleo al estilo de Henri Matisse

Imagen: Imagen generada por AI, en respuesta a la solicitud «Abriendo una Caja de Pandora con un Doctor parado al lado. Pintura al óleo al estilo de Henri Matisse», (Generador: DALL-E2 / OpenAI, 9 de marzo de 2023, Enviada por: Martín Majowski).
Escena más

Crédito: Creado con DALL-E2, un sistema de inteligencia artificial de OpenAI; Copyright: N/A (imagen generada por IA);

Un nuevo estudio publicado en Revista de investigación médica en Internet El 31 de mayo de 2023, el Dr. Martin Majewski y sus colegas revelaron que los modelos de lenguaje de inteligencia artificial (IA) como ChatGPT (Global Pre-Trained Chat Transformers) pueden generar artículos científicos fraudulentos que parecen notablemente originales. Este hallazgo plantea preocupaciones críticas sobre la integridad de la investigación científica y la credibilidad de los artículos publicados.

Investigadores de la Universidad Charles, República Checa, buscaron investigar las capacidades de los modelos de lenguaje de IA existentes para crear artículos médicos fraudulentos de alta calidad. El equipo utilizó el popular chatbot ChatGPT, que se ejecuta en el modelo de lenguaje GPT-3 desarrollado por OpenAI, para generar un artículo científico completamente inventado en el campo de la neurocirugía. Las preguntas y las indicaciones se refinan a medida que ChatGPT genera respuestas, lo que permite una calidad de salida mejorada iterativamente.

Los resultados de este estudio de prueba de concepto fueron sorprendentes: el modelo de lenguaje de IA logró producir un artículo fraudulento que se parecía mucho a un artículo científico real en términos de uso de palabras, estructura de oraciones y sintaxis general. El artículo incluía secciones estándar como resumen, introducción, métodos, resultados y discusión, así como tablas y otros datos. Sorprendentemente, todo el proceso de creación del artículo tomó solo una hora sin ningún entrenamiento especial para el usuario humano.

READ  Esto es lo nuevo en iOS 16.3 hasta ahora

Si bien el artículo generado por IA parecía complejo e impecable, después de un examen minucioso, los lectores expertos pudieron identificar errores semánticos y errores particularmente en las referencias: algunas referencias eran incorrectas, mientras que otras no existían. Esto subraya la necesidad de una mayor vigilancia y mejores métodos de detección para combatir el posible uso indebido de la IA en la investigación científica.

Los resultados de este estudio subrayan la importancia de desarrollar pautas éticas y mejores prácticas para el uso de modelos de lenguaje de IA en investigaciones y escritos científicos reales. Los paradigmas como ChatGPT tienen el potencial de mejorar la eficiencia y la precisión de la generación de documentos, el análisis de resultados y la edición de idiomas. Al usar estas herramientas con cuidado y responsabilidad, los investigadores pueden aprovechar su poder y minimizar el riesgo de abuso o mal uso.

En un comentario al artículo del Dr. Majowski, se publicó aquíEl Dr. Pedro Pallister discute la necesidad de priorizar la reproducción y la visibilidad de los trabajos académicos, ya que estos sirven como salvaguardas esenciales contra el florecimiento de la investigación fraudulenta.

A medida que la IA continúa avanzando, se vuelve imperativo que la comunidad científica verifique la precisión y credibilidad del contenido generado por estas herramientas e implemente mecanismos para detectar y prevenir el fraude y la mala conducta. Si bien ambos artículos coinciden en que debe haber una mejor manera de verificar la precisión y la credibilidad del contenido generado por IA, la forma en que se puede lograr es menos clara. Como punto de partida, el Dr. Pallister sugiere: «Al menos deberíamos indicar cuánto ayudó la IA a escribir y analizar el artículo». Otra posible solución propuesta por Majowski y sus colegas es hacer obligatorio el envío de conjuntos de datos.

READ  Meta dice que ha creado un modelo de próxima generación de plegamiento de proteínas • The Register

El artículo «La inteligencia artificial puede generar artículos médicos científicos fraudulentos pero de aspecto auténtico: se abre la caja de Pandora» de JMIR Publications en su titular, Revista de investigación médica en Internet y accesible aquí.

Por favor cite lo siguiente:

Májovský M, Černý M, Kasal M, Komarc M, Netuka D La inteligencia artificial puede producir artículos médicos científicos fraudulentos pero de apariencia auténtica: J Med Internet Res 2023 Pandora’s Box Opened; 25: e46924

URL: https://www.jmir.org/2023/1/e46924/

hacer: 10.2196 / 46924

###

Acerca de las publicaciones de JMIR

JMIR Publications es la principal editorial digital de acceso abierto de más de 30 revistas académicas y otros productos innovadores de comunicación científica centrados en la intersección de la salud y la tecnología. Su revista insignia, Journal of Medical Internet Research, es la revista de salud digital líder en el mundo en términos de amplitud y claridad de contenido, y es la revista más grande en el campo de la informática médica.

Para obtener más información sobre las publicaciones de JMIR, visite jmirpublications.com O póngase en contacto con nosotros a través de GorjeoY LinkedinY YouTubeY FacebookY Instagram.

Oficina central: 130 Queens Quay East, Unidad 1100, Toronto, ON, M5A 0P6 Canadá

Contacto con los medios: [email protected]

El contenido de esta comunicación está sujeto a los términos de la licencia Creative Commons Attribution License (https://creativecommons.org/licenses/by/4.0/), que permite su uso, distribución y reproducción sin restricciones en cualquier medio, siempre que se cite correctamente la obra original publicada por JMIR Publications.


Descargo de responsabilidad: AAAS y Eurek Alert! No es responsable de la exactitud de los boletines enviados en EurekAlert! A través de organizaciones colaboradoras o por utilizar cualquier información a través del sistema EurekAlert.