Esta cuestión ha centrado le debate de la primera mesa redonda del seminario, que este jueves ha inaugurado la reina en San Millán de la Cogolla (La Rioja), organizado por la Fundación San Millán y la Fundéu BBVA —patrocinada por la Agencia EFE y BBVA—.
«Todos tenemos el sentimiento de pertenencia a un grupo que llamamos humanidad», que «es el resultado de un encuentro con otros que están en un territorio común» y «con los que compartimos ancestros comunes, a los que luego llamamos dioses», ha indicado el catedrático de Humanidades de la Universidad Carlos III Antonio Rodríguez de las Heras.
Ha admitido que no ha llegado el momento de confrontar el grupo común de la humanidad con el de extraterrestres «y no sabemos qué pasaría si los vemos», pero «sí ha llegado un momento en la evolución en el que nos sentimos parte del planeta» y «el siguiente paso es el de confrontarnos con un robot».
«Es el momento de preguntar qué hacemos, ¿excluimos a las máquinas de nuestro grupo o las integramos?», ha cuestionado, «y si las aceptamos, no sé si se puede decir que seguimos siendo humanidad».
Para él, «no hay nada que nos lleve a pensar que no estamos en otro paso de la evolución, en un avance más de la humanidad», marcado por la integración de las máquinas, que «no se parecen a nosotros, sino a nuestros dioses, porque son omnipresentes, omniscientes y omnipotentes» y eso es «escalofriante».
«En estas coordenadas hay que plantearse grandes responsabilidades éticas, en especial la de ser ejemplares a la hora de manejar la información que le damos a las máquinas», ha concluido.
Frente a este planteamiento, el director del grupo Ciencia, Razón y Fe (CRYF) de la Universidad de Navarra, Javier Sánchez Cañizares, ha considerado que «la cuestión ética de verdad es si dejamos que las máquinas evolucionen» porque «hay una diferencia entre lo natural y lo artificial».
«En principio, las máquinas se definen por sus fines y cuando alguien crea algo que no controla, lo desecha, con lo que si un día va a haber una supermáquina que esté fuera de nuestro control, tenemos el deber de no dejar que eso suceda», ha defendido.
Así, frente a quienes defienden el desarrollo completo de la inteligencia artificial, «tenemos el deber de evitar que las máquinas se escapen de nuestro control», ha afirmado, y «sería una traición al ser humano permitir que una inteligencia artificial se salga de su fin».
En otro punto de vista sobre este tema, la investigadora de la Universty College London, María Pérez-Ortiz, ha recalcado que lo que se llama inteligencia artificial es «la inteligencia de muchísimos ingenieros que piensan qué algoritmo va a ser mejor y lo codifican».
Ha asegurado que, «al final, ese algoritmo, en cualquier tipo de proceso, enseña los mejores resultados de los mil posibles que ha procesado» y,«por supuesto, no se muestran los errores garrafales a los que han llegado, que los hay».
Por eso, ha afirmado, la inteligencia artificial «es básicamente estadística y computación de datos» y «en lo que hay que buscar ética es en el manejo de esos datos» y «saber qué hay detrás de quien los controla».
Porque, en esa misma línea, «lo que nos da miedo de las máquinas es que se parecen a nosotros y que la inteligencia artificial tiene mucho de inteligencia natural», ha afirmado la lingüista computacional Leticia Martín-Fuertes.
«Cuando hablamos de ética, todavía hay muchas preguntas que los humanos nos tenemos que hacer antes de pedirle a las máquinas algo parecido, porque ellas son un espejo de lo mejor y de lo peor del ser humano», ha concluido.