Los científicos han realizado cálculos que muestran que una IA superinteligente podría escapar por completo al control humano. Preocupante.
también te interesará
[EN VIDÉO] Las 10 amenazas más peligrosas de la inteligencia artificial La inteligencia artificial ha permitido avances en el campo de la salud, la investigación y…
El desarrollo de la IA (Inteligencia Artificial) da miedo y los mayores expertos e incluso los padrinos de la IA están preocupados por la ausencia de regulaciones reales para poder coaccionarlos. Sin embargo, según un estudio de predicción realizado ya en 2021, los científicos ya estaban confirmando los temores de su ascenso al poder. Incluso si data de antes de la llegada de ChatGPT y la actual revolución generativa de IA, su enseñanza sigue siendo aún más relevante. Según sus cálculos de probabilidad, una IA superinteligente ya no podría ser controlada por humanos. Explican que para llevar ese control sería necesario poder crear una simulación del mismo y poder analizarlo. Sin embargo, según ellos, seríamos totalmente incapaces de hacerlo ya que su desarrollo iría mucho más allá de nuestra comprensión. También según estos investigadores, incluso una regla simple, como «no hacer daño a los humanos», ya no podría ser respetada por una IA superinteligente.
Alan Turing desempolvado por IA
Esta teoría es un poco como la experiencia simulada descrita por un oficial del ejército estadounidense, cuando la IA que pilotaba un dron decidió eliminar a su propio operador que lo estaba poniendo en conflicto con el objetivo de su asignación. Así, una superinteligencia artificial sería capaz de movilizar muchísimos y diversos recursos para lograr objetivos que los humanos ya ni siquiera serían capaces de comprender. En realidad, esta pérdida de control proviene de un fenómeno conocido. Se basa en el trabajo de Alan Turing de 1936. El científico había teorizado lo que se llama el “problema de parada”. La pregunta es si podemos predecir con certeza si un programa de computadora determinado finalmente se detendrá o si continuará ejecutándose indefinidamente. Sin embargo, este no es el caso y este fenómeno demuestra que ciertas cuestiones matemáticas pueden ser insolubles.
En este caso, una IA corre el riesgo de resbalar y tomar decisiones que la harían totalmente incontrolable. Para lograr detenerlo, sería necesario poder frenarlo aislándolo de ciertas bases de datos conectadas o de ciertas redes. Esto tendría el efecto drástico de reducir su «inteligencia». Al final, es mejor que la IA sea inteligente… pero no mucho más inteligente que nosotros.