En circunstancias que la atención de la gran mayoría de la opinión pública peruana, atosigada por los medios de comunicación y las redes sociales, está preocupada por la tabla de posiciones del Torneo Clausura, el devenir de las telenovelas, los escándalos de la farándula y los desaciertos de nuestros gobernantes, el avance de la inteligencia artificial sigue su curso, hecho que trae aparejados beneficios, pero también riesgos, algunos de ellos muy serios. Política y Estrategia tuvo la ocasión de conversar con David Vivancos, español, experto en inteligencia artificial y autor de varios libros que versan sobre el apreciable impacto que tendrá en la humanidad la inminente aparición de la inteligencia artificial general y, más aún, de la superinteligencia artificial, al punto que esta última podría acabar con la libertad, e incluso la vida, de los seres humanos (y esto ya no es ciencia ficción).
¿En qué nivel de desarrollo cree que estará la inteligencia artificial hacia el final de la década? ¿Es posible que para entonces ya sea una realidad la inteligencia artificial general?
Lo más probable, si no hay un cataclismo de proporciones bíblicas, es que se llegue a la inteligencia artificial general (hacia el final de la década) y esto de paso a la superinteligencia, dada la aceleración actual de la investigación en inteligencia artificial, y el interés comercial y estratégico.
Entendiendo que el impacto de la inteligencia artificial general en el mundo será profundo, disruptivo en realidad, ¿cómo afectará esta situación a la humanidad en términos políticos, económicos y sociales?
El impacto será total. Una empresa con una sola persona y “muchas” inteligencias artificiales podrá hacer lo mismo que empresas de otra época con cientos o miles de empleados, y, en especial, con la inteligencia artificial corpórea, a través de la robótica humanoide. Para la sociedad será un cambio de paradigma total, no una cuarta revolución industrial como muchos postulan.
Ante esta perspectiva, ¿qué pueden o qué deben hacer los gobiernos y las sociedades para afrontar ese impacto? ¿Están en las mismas condiciones de hacerlo una gran potencia como Estados Unidos, un país del nivel de desarrollo como el de España o un país menos desarrollado como el Perú?
Prepararse ya para un mundo sin empleo humano o con muy poco empleo humano, siendo parte de la automatización e implicándose con políticas, regulación, desarrollo y formación lo antes posible. Es difícil competir con los grandes en “computación”, pero sí en la parte lógica o incluso en el emergente campo de la robótica humanoide, donde aún queda mucho por hacer. A finales de agosto, por ejemplo, voy a participar, con una conferencia magistral, en las primeras olimpiadas de robots humanoides en Olimpia, donde se realizaron las primeras olimpiadas humanas. ¿Cuántas empresas de España o Perú participarán?
Me quedó claro el mensaje. En cuanto a establecer una regulación internacional, seria y efectiva, de la inteligencia artificial, ¿es eso factible en estos momentos o es que, acaso, ya no lo es en vista de la carrera desbocada que existe no solo entre las grandes empresas tecnológicas, sino también debido a la creciente disputa geopolítica entre China y Estados Unidos?
No lo veo muy factible, dado el interés estratégico y, sobre todo, porque no hay una entidad de gobernanza global, solo meros organismos consultivos o de opinión, sin capacidad legislativa real.
Parece ser que, más temprano que tarde, los seres humanos tendremos que transformarnos en entidades tipo cyborg, a fin de tener chances de lidiar con el poder de una superinteligencia artificial. ¿Es correcta esta apreciación?
Es la “tercera” vía y, si llega a tiempo, podría ser una opción para “competir” con las inteligencias artificiales generales. La pregunta es si llegará a tiempo, algo que, a día de hoy, parece poco probable.
Eso significa que existe un riesgo de que los seres humanos, incluso contando con implantes cibernéticos, puedan ser dominados, y hasta aniquilados, por esa superinteligencia artificial. A su juicio, siendo lo más objetivo y sincero posible, ¿qué tan factible es esa posibilidad, donde uno es lo menos probable y diez es lo más probable?
Una inteligencia superior no tiene por qué destruir a inteligencias inferiores, la historia ha demostrado posibles caminos. Evidentemente, al estar por encima y en este caso, posiblemente, muy por encima, la especie inferior puede terminar siendo irrelevante para la superior. La esperanza es que los “valores” que hereden, si conseguimos inculcárselos, hagan que la relación entre especies sea positiva, pero es cierto que el tiempo se acaba. A día de hoy diría que un ocho en el baremo que indica, pero, si se actúa a tiempo, puede revertirse.
Usted ha publicado varios libros sobre el avance tecnológico. El último de ellos es Artificracia, lanzado en julio pasado. ¿Qué plantea en esta nueva publicación respecto al presente y el futuro de la inteligencia artificial?
Este último libro cierra la trilogía de la Artificiología, campo que estudia, científicamente, el desarrollo de “humanos artificiales”. Sería para ellos lo mismo que la Antropología lo es para los humanos. Es una trilogía, porque el primer libro, El Fin del conocimiento, habla de cómo estamos construyendo sus “mentes” y delegándoles nuestro conocimiento. El segundo, E-AGI, sobre cómo estamos fabricando los “cuerpos” y su conexión con una mente a la altura humana, incluyendo el desarrollo de un barómetro completo con 144 métricas y un examen “imparcial” para verificar el progreso. Este tercer y último libro, Artificracia, trata del nuevo modelo de sociedad que se podría crear para lidiar con estos cambios profundos, analizando posibles soluciones con los datos que disponemos a la fecha. Es una especie de manual de cómo empezar a construir el futuro antes de que el futuro nos arrolle.
❯❯ Carlos Rada Benavides es analista de temas internacionales y de seguridad.