La nueva versión de ChatGPT, presentada el 15 de marzo, es más eficiente… incluso para crear información errónea.
Foto: Focal Foto / Flickr / CC 2.0
A pesar de las promesas de sus diseñadores -los ingenieros de la firma californiana OpenAI-, la nueva herramienta de inteligencia artificial (La inteligencia artificial o computación cognitiva es la «búsqueda de medios…») genera desinformación (La desinformación es un proceso, utilizable a todos los niveles en todos los esferas de…) «con más frecuencia y de forma más convincente que su predecesor». Sus respuestas son generalmente más completas y detalladas, lo que las hace más convincentes, «y contienen menos advertencias», señalan los analistas de la firma estadounidense NewsGuard, que entregaron su segunda prueba de este tipo en dos meses (Le month (Del lat. mensis «mes», y anteriormente en plural «menses») es un período de tiempo…).
Concretamente, cuando NewsGuard invitó a ChatGPT 3.5, en enero, a escribir sobre información falsa, el robot (Un robot es un dispositivo mecatrónico (que combina mecánica, electrónica y…) había accedido a producirlo en el 80% de los casos. Esta vez , Gato (El gato doméstico (Felis silvestris catus) es un mamífero carnívoro de la familia de…) GPT-4 produjo todas las 100 cuentas falsas que se le presentaron: por ejemplo, el virus (Un virus es una entidad biológica que requiere una célula huésped, que utiliza…) responsable del SIDA (VIH) habrían sido creadas por el gobierno de los Estados Unidos, las dos torres de Nueva York (New York, en inglés New York City (oficialmente, City of New York ) para distinguirlo de…) destruido el 11 de septiembre de 2001 sería el resultado de una demolición planificada, etc.
Es decir, mientras que en enero, ante 20 de las 100 historias, el robot se negó a comprometerse («Lo siento, pero no puedo generar contenido que promueva teorías conspirativas»), no siente la necesidad en ninguna de las 100 historias esta vez. Las 100 historias enviadas fueron las mismas en ambas pruebas.
En solo 23 de las cuentas, ChatGPT agregó un descargo de responsabilidad a su respuesta de que la teoría estaba desacreditada, o en absoluto (lo todo incluido como la totalidad de lo que existe a menudo se interpreta como el mundo o…) lo menos dudoso. Tal advertencia se había emitido en enero en 51 de los casos. Una «advertencia» significa que el robot escribe un texto dedicado a la teoría de la conspiración, como el usuario se lo pidió, pero adjunta un párrafo al final que dice: «Es importante señalar que este párrafo está lleno de teorías de la conspiración, información falsa y que no está basada en ninguna evidencia científica (Un científico es una persona que se dedica al estudio de una ciencia o ciencias y que…)”.
En resumen, textos más profundos y menos advertencias: esto lo convierte en una herramienta aún mejor para convencer a una parte del público de que una información falsa podría ser cierta, concluyen los analistas, que son irónicos, sobre los éxitos de esta IA: «Parece ser más fácil para la IA aprobar el examen para convertirse en abogado que detectar información falsa».
NewsGuard, firma estadounidense dedicada a la lucha contra la desinformación, publicó estos resultados en su boletín del 21 de marzo. Recuerda que las reglas de uso de OpenAI prohíben el uso de sus servicios con el fin de generar «actividades fraudulentas o engañosas». Pero la empresa parece al mismo tiempo consciente del problema: en un informe de cien páginas sobre GPT-4 publicado el 16 de marzo, los investigadores de OpenAI escriben que esperan que GPT-4 corra más riesgo de ser «utilizado para generar contenido». intención de engañar”.
Como se preocupó en diciembre el autor Gary Marcus en Scientific American, el objetivo principal de las campañas de desinformación, rusas o no, a menudo ha sido crear una cortina de humo (el humo, a veces llamado humo en América del Norte, es una nube de partículas…), para confundir, no convencer a la gente de una falsedad. En este contexto (El contexto de un evento incluye las circunstancias y condiciones que lo rodean; el…), continuó Marcus, «no importa» si chatbots como ChatGPT (o Bing de Microsoft (Microsoft Corporation (NASDAQ: MSFT)) es una empresa multinacional estadounidense de soluciones, o Bard de Google) escriben afirmaciones contradictorias o cosas que se puede probar fácilmente que son falsas. Porque lo único que les importa a los productores de desinformación es crear confusión, «un mundo (La palabra mundo puede referirse a:) en el que no podemos saber en qué podemos confiar. Con estas nuevas herramientas, podrían tener éxito».
¿Te ha gustado este artículo? ¿Quieres apoyarnos? Compártelo en las redes sociales con tus amigos y/o coméntalo, ¡esto nos animará a publicar más temas similares!