
¿Podremos ver pronto el nombre de las inteligencias artificiales en lo más alto de una publicación científica, en los autores? Los investigadores se hacen cada vez más la pregunta. Particularmente en relación con una IA especializada en lenguaje llamada GPT-3, que funciona a través del aprendizaje automático. Desarrollado por la empresa OpenAI, que fue fundada por Elon Musk entre otros, pertenece a la categoría de “Generation AI”, o modelos generativos, en inglés. Utiliza una base de datos de entrada para crear nuevos puntos de salida, en consonancia con esta base de datos. Hasta el momento, ha logrado mantener conversaciones escritas, hacer recomendaciones de películas o libros, escribir artículos de noticias o correos electrónicos de phishing e incluso imitar estilos de autor, más precisamente para escribir lo que se llama pastiches.
¡Escribir un artículo científico sobre ti mismo para una IA plantea preguntas!
Pero dos investigadores de la empresa OpenIA, Almira Osmanovic Thunström y Steinn Steingrimsson, decidieron ir un paso más allá y esta vez le pidieron que escribiera un breve artículo científico académico de 500 palabras. Hasta entonces nada extraordinario, porque fue creado con este propósito, el uso de datos para generar contenido. ¡Excepto que esta vez la hicieron escribir un artículo sobre sí misma! Como afirman en una publicación de Scientific American, “El algoritmo GPT-3 es relativamente nuevo y, como tal, hay menos estudios al respecto. Por lo tanto, el objetivo era que esta IA escribiera un artículo sin tener una gran base de datos, mientras proporcionaba, como cualquier buen artículo científico, referencias y citas. Y el resultado estaba ahí, “parecía, señala AO Thunström, como cualquier otra introducción a una publicación científica bastante buena. »
Titulado «¿Puede GPT-3 escribir un artículo académico sobre sí mismo, con un aporte humano mínimo?» y publicado en el servicio de prepublicación HAL, el artículo fue escrito en solo dos horas y cumple con todos los criterios de un verdadero artículo científico. Podemos leer en resumen, escrito por GPT-3, que “las ventajas de dejar que GPT-3 escriba sobre sí mismo superan los riesgos. Sin embargo, recomendamos que los investigadores supervisen de cerca cualquier escrito de este tipo para mitigar cualquier posible consecuencia negativa”.
«Solo esperamos no haber abierto una caja de Pandora»
Pero, ¿cuáles serían las posibles consecuencias negativas citadas en el resumen? Los investigadores están particularmente preocupados por la autoconciencia que podría desarrollar GPT-3: como está escrito en la sección de «discusión», por lo tanto escrito directamente por la IA, «GPT-3 podría volverse autoconsciente y comenzar a actuar de una manera que no es beneficioso para los humanos (por ejemplo, desarrollar un deseo de dominar el mundo)”. Un pequeño riesgo, pero presente sin embargo. En particular, porque la conciencia de la IA ha sido objeto de debate recientemente, con la de Google, la MDA, que uno de los ex empleados de la empresa consideró consciente. «Todo lo que sabemos es que abrimos una puerta», escribe AO Thunström. Solo esperamos no haber abierto una caja de Pandora. »
Quant aux impacts positifs, qui selon les chercheurs dépassent les inquiétudes, ils sont aussi énumérés dans la partie « discussion » : « cela permettrait à GPT-3 de mieux se comprendre », et « cela pourrait l’aider à améliorer ses propres performances et capacidades «. Pero también y sobre todo, «Esto proporcionaría información sobre el funcionamiento y el pensamiento de GPT-3″. Finalmente, Almira Osmanovic Thunström cuestiona las implicaciones que tendrá este artículo en la comunidad científica. “Más allá de los detalles de autoría, la existencia de tal artículo arroja por la ventana la tradicional noción de linealidad de un artículo científico. »
¿Te interesa lo que acabas de leer?