abril 20, 2024

Blog de Habeas Data

Encuentra toda la información nacional e internacional sobre españa. Seleccione los temas sobre los que desea saber más

Chatbots, inteligencia artificial y el futuro de la privacidad

Chatbots, inteligencia artificial y el futuro de la privacidad

Los chatbots están de moda en este momento. Han sido objeto de numerosas investigaciones. Noticias e innumerables Publicaciones en Twitter, y muchas empresas están invirtiendo miles de millones de dólares para desarrollar aún más la tecnología. Solo hemos llegado a la punta del iceberg, pero los chatbots y otras herramientas generativas de inteligencia artificial llegaron para quedarse e inevitablemente revolucionarán la forma en que interactuamos con la tecnología y entre nosotros.

Aunque la IA y el aprendizaje automático no son nuevos, la IA generativa es diferente porque ya está integrada en la cultura del consumidor. En lugar de que las empresas utilicen la IA y el aprendizaje automático para mejorar sus productos y servicios entre bastidores, los consumidores utilizan chatbots y otras herramientas de IA para el uso diario. Esto ya conduce a consecuencias inesperadas. por ejemplo, algunos direcciones de educación Chatbots prohibidos porque creen que usarlos conducirá a resultados educativos negativos para los estudiantes. Mientras tanto, en el contexto del reclutamiento, los chatbots juegan un papel Rol activo en el proceso de contratación, afectando tanto a los solicitantes de empleo como al personal de RRHH que podría ser sustituido por estos sistemas. Los problemas sociales no resueltos relacionados con la difusión de la IA están evolucionando tan rápido como la propia tecnología.

El crecimiento de los chatbots y las herramientas de inteligencia artificial relacionadas puede tener una consecuencia no deseada en la privacidad del consumidor. La recopilación de datos es fundamental para el desarrollo de herramientas de IA. Los chatbots en particular descargan miles de millones de usuarios puntos de datos en línea para entrenar y actualizar sus modelos de lenguaje predictivo. De hecho, si le pregunta a ChatGPT qué información usa, le dirá que «se entrenó en un gran conjunto de datos de texto, que consta de miles de millones de palabras, frases y oraciones», que incluían «una variedad de fuentes de texto, que incluyen libros, artículos, sitios web y otros contenidos digitales». «. En términos de fuentes, la última actualización de ChatGPT, GPT-4, Supuestamente fue entrenado utilizando datos disponibles públicamente (incluidos datos de Internet), así como datos con licencia de los desarrolladores.

READ  Ranking de los 5 coches remolque más rápidos de GTA Online

Cuando se le pregunta, ChatGPT insiste en que no tiene ninguna información personal sobre los usuarios. Pero la realidad es más compleja, en parte porque las reglas que rigen la información personal están evolucionando casi tan rápido como la propia tecnología de IA. Las nuevas leyes de privacidad que entrarán en vigencia, como la Ley de derechos de privacidad de California, aplican una definición ampliada de información personal, que incluye inferencias que una empresa puede hacer sobre un consumidor con fines de creación de perfiles. Esta definición ampliada es importante porque muestra cómo incluso la información disponible públicamente que puede quedar fuera del alcance de las leyes de privacidad relevantes puede generar posibles problemas de privacidad.

Por ejemplo, cuanto más uso un chatbot en particular, más aprenderá sobre mí. Esta es la naturaleza de la inteligencia artificial. Por supuesto, procesará directamente la información que brindo, pero también teóricamente puede hacer ciertas suposiciones bien informadas sobre mí. Estas suposiciones pueden basarse en mi edad, género, ocupación, intereses y los miles de millones de puntos de datos adicionales que he procesado sobre otros usuarios potencialmente similares. Esta información es valiosa porque es exactamente el tipo de datos deterministas en los que confían los anunciantes para fines de orientación. Si los chatbots y las herramientas de inteligencia artificial relacionadas realmente se generalizan, podrían proporcionar a los anunciantes una gran cantidad de información nueva para ofrecer anuncios personalizados que sean potencialmente más precisos que los tipos de datos que utilizan actualmente. Esto genera algunos beneficios potenciales para los consumidores, pero también exacerba las preocupaciones que podamos tener sobre el modelo de publicidad dirigida en general, un área que ya ha estado bajo un intenso escrutinio por parte de los reguladores de la privacidad.

READ  Todo lo que Apple podría anunciar en su evento Scary Fast: chips M3, MacBook Pro, iMac y más

También existen posibles preocupaciones de privacidad sobre lo que una herramienta de IA generativa puede decirle a un usuario sobre otras personas. Por ahora, al menos en teoría, un chatbot no daría información no pública sobre otra persona si se le pregunta. Pero uno puede imaginar fácilmente un escenario en el que una empresa desarrolle un chatbot que no esté sujeto a las mismas restricciones. De manera similar a cómo un chatbot puede hacer inferencias prescriptivas sobre sus usuarios, también puede desarrollar las mismas suposiciones sobre cualquier persona en Internet utilizando sus Me gusta, tweets, comentarios y otros puntos de datos disponibles públicamente. Luego está el escenario «yo, bot», donde un actor potencialmente malicioso puede usar un chatbot para robar contraseñas y otros datos confidenciales con fines ilegítimos. Estos son solo algunos de los posibles problemas de protección de datos que plantea el auge de la IA generativa.

Para ser claros, la Ley de Privacidad ya contiene algunas reglas que se aplican a estos temas. Existen estándares para lo que es y no es información personal, es decir, se deben tener en cuenta las definiciones específicas de información anónima, agregada y disponible públicamente. Al procesar información personal, es probable que se apliquen avisos, consentimientos, contratos y una gran cantidad de otros requisitos. Existen regulaciones adicionales para casos de uso específicos, como la publicidad dirigida y la toma de decisiones automatizada. También existen obligaciones relacionadas con la seguridad de los datos de la información personal y las leyes que se aplican cuando se violan ciertas categorías de información.

Si bien las leyes actuales de privacidad de datos brindan al menos alguna forma de protección para los consumidores con respecto a esta tecnología emergente, tenemos la oportunidad de abordar de manera proactiva las implicaciones de privacidad únicas de la IA generativa antes de que se arraigue más en nuestra vida diaria. En lugar de regular desde atrás, como hemos tratado de hacer con la publicidad dirigida, podemos establecer reglas sobre el uso de datos y los propósitos de la IA generativa desde el principio. Este enfoque podría mitigar algunas preocupaciones inesperadas que podríamos tener con esta tecnología, al menos desde la perspectiva de la privacidad.

READ  El adaptador Apple Pencil para el nuevo iPad enfrenta un retraso de carga de hasta un mes

Sin embargo, incluso si estamos de acuerdo en que abordar de manera proactiva las preocupaciones de privacidad en la IA generativa es el enfoque correcto, todavía hay preguntas sobre la implementación. Por ejemplo, ¿quién debería tomar la iniciativa en la organización sobre este tema? ¿Deberían las reglas provenir del Congreso de los EE. UU., o deberían los estados liderar, como lo han hecho con amplias propuestas de privacidad? ¿Es esta un área que la Comisión Federal de Comercio de EE. UU. debe abordar con sus reglas en el futuro, o deberíamos confiar en la autorregulación de la industria como lo es en el espacio publicitario dirigido? También hay problemas de alcance. ¿Deberían abordarse los problemas de privacidad relacionados con la IA como parte de la regulación de la privacidad en general, por ejemplo, a través de leyes como la CPRA, o deberíamos tener reglas separadas para que la IA aborde específicamente toda la gama de problemas potenciales relacionados con esta tecnología, como se ha sugerido? ¿En Europa y Canadá?

Estos son solo algunos de los muchos temas que darán forma al debate sobre la regulación de la IA generativa. Si estas conversaciones ocurren más temprano que tarde y conducen al desarrollo de un marco regulatorio apropiado, podremos integrar esta tecnología en evolución en nuestra vida diaria y al mismo tiempo sentirnos cómodos con los riesgos asociados, incluidos los relacionados con la privacidad del consumidor.