.@lemondefr ::: #Alexei_Grinbaum: “La #INTELIGENCIA_ARTIFICIAL está moviendo la #frontera entre lo #humano y lo #NO_HUMANO”, por @curieusedetout.

Entrevista de #Laure_Belot y #David_Larousserie #Alexei_Grinbaum, #físico y #filósofo, habla del caso de un #ingeniero despedido por #Google por haber #denunciado_públicamente su #trastorno durante un #intercambio con una #IA.

Alexei Grinbaum es físico y filósofo de la Comisión de Energía Atómica y Energías Renovables de Francia (CEA). Miembro del Comité Piloto Nacional de Ética Digital, advierte sobre los avances, a la vez fascinantes y preocupantes, en el campo de la generación automática de lenguaje. En particular, se remonta a las declaraciones de un empleado de Google, Blake Lemoine, en el 11 de junio. Tras hablar con el último algoritmo de procesamiento de lenguaje natural de la compañía, LaMDA, este ingeniero explicó que creía estar hablando con una inteligencia humana a la que atribuye la sensibilidad de un niño de 7-8 años. La revelación de los detalles de las conversaciones expuso el considerable progreso de Google en el lenguaje. Por haber violado, según la empresa, su política de seguridad, Blake Lemoine fue despedido el 22 de julio.

¿Qué te inspira de esta conversación realista con una inteligencia artificial?

Se sabe desde 1965, y el primer chatbot, Eliza, que las máquinas parlantes pueden tener efectos psicológicos en los usuarios. Eliza era un sistema determinista, bastante trivial, cuya estrategia consistía en convertir declaraciones en preguntas para iniciar la conversación. Con los sistemas de inteligencia artificial (IA) actuales, la estrategia es diferente, pero Blake Lemoine también sufre efectos: tiene la ilusión de que esta máquina tiene emociones, estados de ánimo… Sin embargo, saber que es una máquina no le impide hacer , muy en serio, proyecciones de cualidades humanas en LaMDA. Proyecta sentimientos, como hacemos a veces con nuestro amado automóvil o nuestro travieso teléfono inteligente… [chatbot]

La ilusión sigue siendo casi perfecta, ¿no?

La particularidad es que esta ilusión proviene del lenguaje, sin necesidad de recurrir a una bonita figura humanoide, como la robot Sophia. LaMDA escribe texto, y eso es suficiente para la proyección de rasgos humanos. Cabe recordar que en la Edad Media, un “monstruo” podía ser bautizado si cumplía uno de los tres criterios: paternidad humana, rostro humano o lenguaje. Tan pronto como una entidad extraña habla en nuestro idioma, automáticamente se establece una relación con el interlocutor humano. En los mitos, los agentes no humanos que nos hablaban eran dioses, demonios o ángeles. De ahora en adelante, interactuamos con destreza técnica, máquinas parlantes.

Pero, ¿qué diferencia a LaMDA de otros nuevos modelos de lenguaje?

A diferencia de otros modelos -y ya hay muchos-: GPT-2 y GPT-3, de la empresa OpenAI; Gopher, de DeepMind, propiedad de Google, en Londres; YAML, del ruso Yandex; Wu Dao, del chino Baidu; Jurassic-1, de AI21 Labs, en Israel… –, LaMDA demuestra cierta robustez al entregar siempre la misma respuesta al mismo problema. Y sus respuestas tienen sentido. Esto es, por ejemplo, lo que buscamos para dar asesoramiento legal o médico. Pero LaMDA se acerca a lo humano porque también crea la ilusión de poseer libre albedrío. Los sistemas anteriores suelen fallar cuando la conversación se prolonga. Gracias a algunas variables de control adicionales, LaMDA puede mantener una conversación larga, sin descarrilarse, e incluso mantener la ilusión de tener un sentido de sí mismo.

Qué quieres decir con eso ?

En la conversación entre LaMDA y Blake Lemoine, es fascinante ver que LaMDA habla de sí misma, de sus emociones, de sus estados de ánimo de forma coherente. Mantiene esta capacidad a lo largo de la longitud. El interlocutor poco a poco se engañará a sí mismo pensando que detrás hay realmente un « agente ». LaMDA no va a saltar ni decir cosas raras. Esta cercanía con nosotros es preocupante. Explica la creencia del Sr. Lemoine de que la máquina tiene personalidad. Pero, de nuevo, no es más que el fruto de una proyección antropomórfica. Hace seis meses, nos preguntábamos si la máquina podría mantener su « yo » de manera suficientemente consistente a lo largo de páginas enteras de diálogo. TheMDA responde en gran medida a esta pregunta. Nos encontramos ante lo que el roboticista japonés Masahiro Mori llama, aplicado al lenguaje: un sistema de IA que se acerca demasiado a nosotros, nos perturba. Al hombre le gusta saber quién le habla, si una máquina u otro ser humano, y no desdibujar esa distinción. La inteligencia artificial ya está moviendo el límite entre lo humano y lo no humano. « valle extraño »

¿Qué consecuencias puede tener esto?

En primer lugar, muchas profesiones se encontrarán, porque sistemas de lenguaje o generación de imágenes (como el Dall-E 2 de OpenAI), frente a creaciones originales pero no humanas: profesores y sus alumnos, escritores, artistas, periodistas… Hace cinco años, creía, como otros, que las profesiones creativas eran inmunes a la automatización. Pero está mal. La IA genera lenguaje e imágenes de la manera más creativa del mundo. Excepto que ella lo hace de manera diferente a nosotros, de una manera inhumana. Y eso implicará riesgos.

Cual ?

El lenguaje que genera no tiene, para la máquina, valor de verdad ni lógica de razonamiento. LaMDA no tiene semántica, mientras que el hombre da significados a las palabras. Si la máquina te dice « ¡Vete a matarte! » », es probable que el hombre piense que la máquina se lo propone, mientras que para ella es sólo un resultado de un cálculo numérico sin ningún sentido. Sin llegar a estos extremos, son posibles otras manipulaciones. Si quieres convencer a alguien para que te compre pizza a ti y no a tu competidor, nada mejor que el lenguaje que pueda evocar una emoción a tu favor. Los objetivos también pueden ser niños, ancianos, que podrían sufrir efectos reales en su estado psicológico y cognitivo… Puede que sea peor, con el desarrollo de los deadbots.

Qué es ?

Estos chatbots hablan como una persona fallecida, habiendo aprendido de todos los mensajes escritos por el difunto. Se innova con giros originales y parecidos. En cierto modo, es como hablar con los espíritus que salen de la máquina. Y eso cambia el estatus de la muerte. Un joven canadiense, Joshua Barber, tuvo una conversación con una máquina en 2021

imitando a su amiga desaparecida, usando GPT-3. Esto parece haber tenido un efecto terapéutico beneficioso. La empresa OpenAI ha puesto fin a este uso.

¿Pueden las empresas regular estos usos?

En concreto, algunas empresas están ralentizando la difusión de sus modelos de lenguaje, siguiendo el ejemplo de OpenAI en 2019 con GPT-2. LaMDA no está disponible gratuitamente. Para textos bastante extensos, propongo mantener la frontera entre el lenguaje humano y el de las máquinas “marcando” las producciones de las máquinas para distinguirlas de las de los humanos. Todos son conscientes de que los deslices pueden dañar su reputación. Open AI, Google, etc. están preocupados por lo que llaman la « alineación » de los sistemas de inteligencia artificial con los valores sociales. Por ejemplo, debemos evitar prejuicios discriminatorios, de género, color de piel, etc.

¿Y las autoridades públicas?

Una cosa es cierta: la regulación actual por el Reglamento General de Protección de Datos es insuficiente. El ejemplo del Sr. Lemoine muestra que el paradigma del consentimiento libre e informado, que se basa en la idea de que el ciudadano informado es autónomo en sus decisiones, no es suficiente para evitar la manipulación. Además, en el caso de , la noción de datos personales no se aplica después de la muerte. Es por esto que el Comité Nacional Piloto de Ética Digital se pronunció en noviembre de 2021 por regulaciones más precisas. Su opinión muestra por qué los chatbots deberían clasificarse como sistemas de IA de alto riesgo en la futura directiva europea. A escala europea, se inicia la reflexión sobre los modelos lingüísticos. El proyecto de investigación TechEthos, al que contribuye la CEA, emitirá recomendaciones a principios de 2023, tras analizar, en junio, los problemas éticos que plantean cinco tecnologías, entre ellas el procesamiento del lenguaje. [RGPD] robots muertos

¿Hemos tomado la medida de estas transformaciones?

Todavía no en el idioma. Y es preocupante. Ya no hay necesidad de consultar el oráculo de Delfos, o llamar a un mago. Generar lenguaje no humano se ha vuelto simple y accesible para todos. Sin embargo, el lenguaje es constitutivo de la identidad del ser humano y de su vida en sociedad. Estamos cambiando tanto la condición humana como la sociedad.

« L’intelligence artificielle fait bouger la frontière entre humain et non humain »
Entrevista de Laure Belot y David Larousserie Alexei Grinbaum
24/08/2022.

https://journal.lemonde.fr/data/2281/reader/reader.html?t=1661277952196#!preferred/0/package/2281/pub/3151/page/17

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s