Subscribe Us

TECNOLOGÍA. Los debates con máquinas impulsadas por Inteligencia Artificial ya están aquí

 

Noam Slonim de IBM Research junto al sistema de debate de IA de la corporación, Project Debater. Fuente: Eric Risberg / AP / Shutterstock

¿Puede una máquina impulsada por inteligencia artificial (IA) persuadir con éxito a una audiencia en un debate con un humano? Los investigadores de IBM Research en Haifa, Israel, creen que sí.

Describen los resultados de un experimento en el que una máquina entabla un debate en directo con una persona. Las audiencias calificaron la calidad de los discursos que escucharon y calificaron el desempeño del polemista automático como muy cercano al de los humanos. Tal logro es una demostración sorprendente de lo lejos que ha llegado la IA al imitar el uso del lenguaje a nivel humano ( N. Slonim et al. Nature 591 , 379–384; 2021 ). 

A medida que se desarrolla esta investigación, también es un recordatorio de la necesidad urgente de contar con directrices, si no regulaciones, sobre la transparencia en la IA, al menos, para que las personas sepan si están interactuando con un humano o una máquina. Los debates con IA podrían algún día desarrollar habilidades de manipulación, fortaleciendo aún más la necesidad de supervisión.

El sistema de IA de IBM se llama Project DebaterEl formato del debate consistió en una declaración de apertura de 4 minutos de cada lado, seguida de una secuencia de respuestas y luego un resumen. Los temas debatidos fueron de amplio alcance; en un intercambio, por ejemplo, la IA se enfrentó a un polemista galardonado sobre el tema de si el estado debería subsidiar las escuelas preescolares. El público calificó favorablemente los argumentos de la IA, por delante de los de otros sistemas de debate automatizados. Sin embargo, aunque Project Debater pudo igualar a sus oponentes humanos en las declaraciones de apertura, no siempre coincidió con la coherencia y fluidez del habla humana.

Project Debater es un algoritmo de aprendizaje automático, lo que significa que se entrena con datos existentes. Primero extrae información de una base de datos de 400 millones de artículos de periódicos, combinándolos en busca de texto que esté semánticamente relacionado con el tema en cuestión, antes de recopilar material relevante de esas fuentes en argumentos que se pueden utilizar en el debate. El mismo proceso de minería de texto también generó refutaciones a los argumentos del oponente humano.

Sistemas como este, que se basan en una versión de aprendizaje automático llamada aprendizaje profundo ("deep learning"), están dando grandes pasos en la interpretación y generación del lenguaje. Entre ellos se encuentra el modelo de lenguaje llamado Generative Pretrained Transformer (GPT), ideado por OpenAI, una empresa con sede en San Francisco, California. GPT-2 fue uno de los sistemas superados por Project Debater. Desde entonces, OpenAI ha desarrollado GPT-3, que se entrenó utilizando 200 mil millones de palabras de sitios web, libros y artículos, y se ha utilizado para escribir historias, manuales técnicos e incluso canciones.

El año pasado, GPT-3 se utilizó para generar un artículo de opinión para el periódico The Guardian , publicado después de ser editado por un humano. "No tengo ningún deseo de acabar con los humanos", escribió. "De hecho, no tengo el menor interés en hacerte daño de ninguna manera". Pero esto es cierto solo en la medida en que GPT-3 no tiene deseos o intereses en absoluto, porque no tiene mente. Eso no es lo mismo que decir que es incapaz de causar dañoDe hecho, debido a que los datos de entrenamiento se obtienen de la producción humana, los sistemas de inteligencia artificial pueden terminar imitando y repitiendo los prejuicios humanos, como el racismo y el sexismo .

Los investigadores son conscientes de esto y, aunque algunos están haciendo esfuerzos para dar cuenta de tales sesgos, no se puede dar por sentado que las corporaciones lo harán. A medida que los sistemas de inteligencia artificial mejoran en la elaboración de argumentos persuasivos, ¿debería quedar siempre claro si uno está participando en un discurso con un humano o con una máquina? Existe un caso convincente de que se debe informar a las personas cuando su diagnóstico médico proviene de la IA y no de un médico humano. Pero, ¿debería aplicarse lo mismo si, por ejemplo, la publicidad o el discurso político son generados por IA?

Los humanos siempre deberían tener derecho a saber si están interactuando con una máquina, lo que seguramente incluiría el derecho a saber si una máquina está tratando de persuadirlos. Es igualmente importante asegurarse de que la persona u organización detrás de la máquina pueda ser rastreada y responsabilizada en caso de que las personas resulten dañadas.

En este momento, es difícil imaginar que sistemas como Project Debater tengan un gran impacto en los juicios y decisiones de las personas, pero la posibilidad se avecina a medida que los sistemas de inteligencia artificial comienzan a incorporar características basadas en las de la mente humana. A diferencia de un enfoque de debate de aprendizaje automático, el discurso humano se guía por suposiciones implícitas que hace un hablante sobre cómo su audiencia razona e interpreta, así como qué es lo que puede persuadirlos, lo que los psicólogos llaman una teoría de la mente.

La IA seguramente resultará atractiva para aquellas empresas que buscan persuadir a las personas para que compren sus productos. Ésta es otra razón para encontrar una manera, a través de la regulación si es necesario, para garantizar la transparencia y reducir los daños potenciales. Además de cumplir con los estándares de transparencia, se podría requerir que los algoritmos de IA se sometan a ensayos similares a los requeridos para los nuevos medicamentos, antes de que puedan ser aprobados para uso público.

Como lo demostró repetidamente el ex presidente de los Estados Unidos, Donald Trump, los oradores eficaces no necesitan ser lógicos, coherentes ni sinceros para lograr persuadir a las personas de que los sigan. Aunque es posible que las máquinas aún no puedan replicar esto, sería prudente proponer una supervisión regulatoria que anticipe daños, en lugar de esperar a que surjan problemas.


Publicar un comentario

0 Comentarios