mayo 2, 2024

Blog de Habeas Data

Encuentra toda la información nacional e internacional sobre españa. Seleccione los temas sobre los que desea saber más

Serie de estrategias de inteligencia artificial: explicabilidad

Serie de estrategias de inteligencia artificial: explicabilidad

Dado el potencial de alucinaciones de la IA, es comprensible que los usuarios quieran Enlaces fuente O referencias para mostrar dónde encuentra sus respuestas el modelo de lenguaje grande (LLM). En esta tercera entrega de nuestra serie de seis partes, analizamos el desafío de la falta de explicabilidad de la IA generativa (específicamente, la incapacidad de los titulares de un LLM para citar fuentes) y una solución llamada RAG para que los desarrolladores implementen resultados interpretables.

Como recordará de nuestro primer artículo, Cómo funcionan (o no) los LLM, los LLM no obtienen respuestas de sus datos de capacitación. En cambio, generan posibles secuencias de palabras basadas en los patrones de lenguaje que aprendieron de los datos de entrenamiento. En esencia, tLos datos de entrenamiento individuales que se introducen en un LLM son como trozos de fruta individuales que se introducen en una licuadora. Una vez entrenado el modelo, lo que queda es como jugo de fruta. Así como no se pueden extraer del jugo trozos enteros de fruta original, Los LLM no pueden hacer referencia a los datos fuente originales detrás de las respuestas generadas.

Aunque LLM puede generar una referencia de fuente o una URL si la solicita, es probable que se trate de una alucinación. Se sabe que los MBA populares fabrican o alucinan no sólo información, sino también información que parece legítima. citas cientificas y las URL que pretenden ser fuentes de esa información.

Sin embargo, el año pasado, modelos como ChatGPT han mejorado en evitar el desafío obsesivo de las referencias al negarse a proporcionar URL de origen o sugerir fuentes potenciales para verificar. En el siguiente ejemplo, le pregunté a LLM de dónde viene su respuesta de que Rusia es el país más grande por superficie terrestre. Explicó que sus respuestas provienen de una combinación de datos de diferentes fuentes, lo que significa que no pretendió obtener la respuesta de un sitio web específico.

READ  Se espera que la línea de iPhone 14 comience con un aumento de 6 GB de RAM

Trapo al rescate

En nuestro artículo anterior, discutimos cómo funciona RAG (Impulsar la recuperación de generación) es una solución de software para alucinaciones. RAG también acude al rescate en busca de aclaraciones. Dado que la generación de recuperación aumentada implica obtener respuestas conocidas de una fuente de datos existente, los programadores saben exactamente de dónde vino la respuesta y pueden proporcionar esa fuente exacta al usuario. Este tipo de prueba, junto con el acceso a grandes cantidades de datos confiables, determinará quiénes serán los líderes entre las empresas de tecnología que aprovechen las fortalezas conversacionales de la IA generativa para brindar información basada en hechos (no fuentes de LLM).

Enhanced Products utiliza LLM sobre FactSet RAG para incluir respuestas en nuestros datos confiables. Las respuestas a solicitudes basadas en hechos se recuperan de nuestras bases de datos controladas y no se generan a partir de los datos de entrenamiento de un modelo de lenguaje grande.

Por ejemplo, FactSet Mercurio RAG se utiliza para los banqueros junior no solo para proporcionar resultados precisos, sino también para brindar aclaraciones a través de la función «probarlo». En esto Captura de pantalla, pregunta al usuario sobre los cinco principales bancos de Virginia con más de 10 sucursales. Mercury devuelve la respuesta en el chat y proporciona contexto o fuentes adicionales (en este caso, un mapa de sucursales bancarias) para mejorar la precisión y credibilidad de la respuesta. Los usuarios siempre pueden profundizar en la base de datos de FactSet o en la fuente exacta que proporcionó la respuesta. Si Mercury no tiene una respuesta realista en su base de datos, lo dirá, en lugar de dejar que LLM alucine la respuesta.

READ  Según los informes, el ex director de aprendizaje automático de Apple se unió al equipo DeepMind de Google

03-Hechos-Mercurio

Conclusión

La IA generativa puede ayudar a las organizaciones a aumentar la productividad, mejorar las experiencias de los clientes y empleados y acelerar las prioridades comerciales. Comprender las implicaciones y soluciones para interpretar los resultados de los modelos generativos de IA ayudará a las organizaciones y a las personas a ser proveedores y usuarios eficaces de tecnologías de IA.

Mientras tanto, estad atentos a la cuarta parte de esta serie de seis partes la próxima semana: Respuestas inconsistentes y conocimientos obsoletos. Si te perdiste los artículos anteriores, échales un vistazo:

Serie de estrategias de inteligencia artificial: cómo funciona (o no) el LLM

Serie Estrategias de Inteligencia Artificial: 7 formas de superar las alucinaciones

Esta publicación de blog tiene fines informativos únicamente. La información contenida en esta publicación de blog no es asesoramiento legal, fiscal o de inversión. FactSet no respalda ni recomienda ninguna inversión y no asume ninguna responsabilidad por ningún resultado relacionado directa o indirectamente con cualquier acción o inacción basada en la información contenida en este artículo.