Las herramientas conversacionales impulsadas por IA se están generalizando, lo cual es una preocupación para muchos investigadores de la desinformación. Esta semana, Google anunció Bard, su respuesta a ChatGPT de Open AI, y duplicó el lanzamiento de funciones mejoradas de IA para muchos de sus productos principales en un evento en París. De manera similar, Microsoft anunció que ChatGPT pronto se integraría con Bing, su motor de búsqueda muy criticado. En los próximos meses, estas herramientas conversacionales estarán ampliamente disponibles, pero ya están surgiendo algunos problemas.
Las IA conversacionales se construyen utilizando un marco de red neuronal llamado Modelos de lenguaje grande (LLM) y son increíblemente buenos para generar texto que es gramaticalmente coherente y parece plausible y similar a un humano. Pueden hacer esto porque están entrenados con cientos de gigabytes de texto humano, la mayoría extraídos de Internet. Para generar texto nuevo, el modelo funciona prediciendo el siguiente “token” (básicamente una palabra o fragmento de una palabra compleja) dada una secuencia de tokens (muchos investigadores han hecho esto con los ejercicios de “Rellenar el espacio en blanco” comparados). hacer en la escuela).
Por ejemplo, le pedí a ChatGPT que escribiera sobre eso ciencia pop y comenzó con la declaración “ciencia popular es una revista de ciencia y tecnología publicada por primera vez en 1872″. Aquí está bastante claro que está rastreando su información desde lugares como nuestra página Acerca de y nuestra página de Wikipedia y calculando cuáles son las palabras de seguimiento probables de una oración que comienza: “ciencia popular es…” El párrafo continúa en una línea similar, con cada oración siendo el tipo de cosas que siguen naturalmente en el contenido en el que se entrena ChatGPT.
Desafortunadamente, este método de predecir las próximas palabras y oraciones plausibles significa que las IA conversacionales a menudo pueden ser objetivamente incorrectas, y si aún no conoce la información, puede ser engañado fácilmente para que suene como si supieran lo que habla. ciencia pop técnicamente ya no es una revista, pero Google lo demostró aún mejor con la presentación de Bard. (Esta es también la razón por la cual los modelos de lenguaje extenso pueden regurgitar teorías de conspiración y otro contenido objetable si no están específicamente capacitados para hacerlo).
Una de las preguntas de demostración en el anuncio de Google (que todavía está en vivo al momento de escribir este artículo) fue “¿Qué nuevos descubrimientos del telescopio espacial James Webb puedo contarle a mi hijo de 9 años?” En respuesta, Bard ofreció tres viñetas , incluido uno, que afirmó que “JWST ha capturado las primeras imágenes de un planeta fuera de nuestro sistema solar”.
Si bien eso suena como esperar el telescopio espacial más grande jamás construido, y el JWST descubre exoplanetas, no encontró el primero. Según Reuters y la NASA, ese honor es para el Very Large Telescope (VLT) del Observatorio Europeo Austral, que encontró uno en 2004. Si esto hubiera sido como parte de una solicitud de asesoramiento de Bard y no como parte de un anuncio muy público, no habría habido docenas de expertos en astronomía listos para intervenir y corregirlo.
Microsoft adopta un enfoque más directo. El borde encontró que las nuevas preguntas frecuentes de Bing afirman que “la IA puede cometer errores” y que “Bing a veces tergiversa la información que encuentra, y es posible que vea respuestas que suenan convincentes pero que están incompletas, son inexactas o inapropiadas”. ejercer su propio juicio y comprobar los hechos que ofrece la IA. (También dice que puede preguntarle a Bing: “¿De dónde obtuvo esta información?” para averiguar qué fuentes utilizó para generar la respuesta).
Aún así, esto se siente como un policía de Microsoft. Sí, las personas deberían ser escépticas con la información que leen en línea, pero Microsoft también tiene la responsabilidad de garantizar que las herramientas que pone a disposición de millones de usuarios no solo inventen cosas y las presenten como si fueran ciertas. Los motores de búsqueda como Bing son una de las mejores herramientas que la gente tiene para verificar los hechos: no deberían aumentar la cantidad de información errónea que existe.
Y esa obligación puede ser legalmente exigible. La Ley de Servicios Digitales de la UE, que entrará en vigor en algún momento de 2024, incluye disposiciones para prevenir específicamente la difusión de información errónea. El incumplimiento de la nueva ley podría resultar en multas de hasta el 6 por ciento de la facturación anual de una empresa. Con la reciente serie de cuantiosas multas impuestas por la UE a las empresas tecnológicas de EE. UU., y la disposición existente de que los motores de búsqueda deben eliminar ciertos tipos de información que se demuestre que son inexactos, parece plausible que el bloque de 27 países adopte una postura dura sobre la IA. Información errónea sobre productos generados que se muestra de forma destacada en Google o Bing. Ya se ven obligados a adoptar una postura más dura sobre otras formas de desinformación generada, como deepfakes y cuentas de redes sociales falsas.
Como estas IA conversacionales pronto estarán disponibles de forma amplia y gratuita, es probable que veamos más discusiones sobre cuán apropiado es su uso, especialmente porque afirman ser una fuente autorizada de información. Mientras tanto, consideremos que es mucho más fácil para este tipo de IA crear tonterías gramaticalmente consistentes que escribir una respuesta razonablemente verificada a una consulta.