Investigadores de la Universidad de Stanford se han inspirado en el universo Sims para crear un pequeño pueblo cuyos personajes están animados por inteligencias artificiales generativas, cada «agente generativo» tiene sus recuerdos, su personalidad y lidera las interacciones sociales de forma independiente con otras personas.
también te interesará
[EN VIDÉO] ¿Cómo definir la relevancia de la inteligencia artificial? La inteligencia artificial (IA), cada vez más presente en nuestro mundo, permite a las máquinas imitar…
Imagine un mundo en el que no podamos distinguir la diferencia entre los robots humanoides humanoides y los humanos. Un mundo donde estos robots tendrían interacciones entre ellos muy parecidas a las de los humanos, con conversaciones que permitieran la formación de opiniones, recuerdos, planes para el futuro, sentimientos románticos.
Estos comportamientos fueron simulados con precisión por investigadores de la Universidad de Stanford en los Estados Unidos. Crearon 25 entidades animadas por inteligencias artificiales generativas (IA) que se comunicaban entre sí. Cada uno tenía su propia personalidad, habilidades y objetivos diferentes. Estas IA también tenían recuerdos de experiencias pasadas que construyeron sus personalidades y opiniones. Este mundo virtual poblado por estos personajes está inspirado en el de los Sims, pero con la ventaja de la IA generativa y las interacciones mediante lenguaje natural.
El Ciclo del Robot, Volumen 6: Los Robots y el Imperio
Para diseñar la IA de estos personajes, los investigadores mezclaron modelos de lenguaje (LLM) como GPT-3 o Bert. También crearon las memorias de los agentes. Estos «agentes generadores» se dedican a las mismas actividades que nosotros, comen, duermen, trabajan, se reúnen, practican deportes, etc. Entre las pruebas, los investigadores pudieron observar el comportamiento social en este pequeño caldo social virtual. Uno de los aspectos más destacados del simulador fue su idea de organizar una fiesta para celebrar el Día de San Valentín. En los dos días siguientes, los propios «agentes generadores» repartieron las invitaciones y se coordinaron y organizaron para llevar a cabo esta fiesta.
Observación, planificación, reflexión.
La experiencia de cada agente se basó en tres módulos principales: observación, planificación y reflexión. Así, la IA que observa, memoriza datos sensoriales (habla y visión) en forma de lenguaje natural. Estos datos luego se almacenan para evolucionar el agente. En cuanto a la planificación, se basa precisamente en estas memorias.
¿Vamos a implantar falsos recuerdos a la orden? Respuestas en el nuevo número de Mag’ Futura
Permiten que el agente los utilice para generar el programa de sus próximas acciones. Este programa también se almacena para su uso en el futuro. Finalmente, el módulo de reflexión permite sintetizar los recuerdos del agente a lo largo del tiempo en forma de lenguaje natural. Esto ayuda a resumir experiencias, sentimientos y generar opiniones. Nuevamente, los reflejos se almacenan en el búfer. Estos tres componentes trabajan en conjunto y esto es lo que permite a los agentes generar comportamientos realistas y consistentes de acuerdo con sus habilidades, gustos y personalidad. Con este proceso, todos inician discusiones e interacciones con otros agentes y participantes humanos en lenguaje natural.
Más creíble que los humanos en algunos puntos
Para verificar la credibilidad de los agentes virtuales, los investigadores reclutaron a 25 participantes para juzgar la calidad de estos agentes generativos y verificar la consistencia de sus comportamientos. También agregaron agentes que estaban controlados por humanos. Al final, las IA obtuvieron una calificación más alta que los humanos por su consistencia en el comportamiento. Por otro lado, en los criterios de personalidad y emoción, los participantes consideraron que los agentes estaban menos dotados. En este punto, los investigadores encontraron que esta falta de realismo se deriva de las limitaciones del modelo, que se basa únicamente en el lenguaje natural. Le falta todo lo que es no verbal.
“Tengo miedo de que algún día deje de trabajar y todos me olviden”: Bard, el chatbot de Google, deprimido
Al mejorar este tipo de simulación, los científicos esperan poder profundizar en el estudio de las teorías sociológicas. Pero esta simulación también es motivo de preocupación. Recuerda fuertemente el espíritu de la serie Westwold en la que los robots humanoides simulan las actividades sociales de un pequeño pueblo en un western. En este parque de diversiones, los humanos pueden interactuar con los robots de una manera realista y única, y cumplir cualquiera de sus deseos sobre estos robots. Esto muy rápidamente se convierte en abuso con una pérdida total de moralidad por parte de los humanos. Al final del día, los robots se apagan y su memoria se borra para volver a empezar al día siguiente. La simulación de Smallville demuestra finalmente que no estamos muy lejos de este tipo de ficción.