Ese es uno de los asuntos que se ha abordado esta semana en el seminario El español y las máquinas: lenguaje, ética y periodismo, organizado por la Fundación del Español Urgente (promovida por la Agencia EFE y BBVA) y la Fundación San Millán de la Cogolla.
Periodistas, ingenieros, filósofos, lingüistas, informáticos… debatieron en el monasterio riojano de Yuso, considerado la cuna del español, sobre los aspectos éticos, comunicativos y lingüísticos de la interacción entre personas y máquinas, ya presente en nuestro día a día (asistentes de voz, buscadores, chatbots…) y que, según todos los especialistas, crecerá de forma exponencial.
¿Ética para máquinas?
Vivimos tiempos vertiginosos en el mundo de la inteligencia artificial; las tecnologías que la hacen posible han pisado el acelerador y debemos aprender a convivir con máquinas cada vez menos discernibles de los humanos.
Debemos acostumbrarnos a convivir con máquinas cada vez más parecidas a nosotros
Esas son algunas de las reflexiones con las que el profesor José Ignacio Latorre, catedrático de Física Teórica de la Universidad de Barcelona y uno de los mayores expertos en computación cuántica y aplicaciones de inteligencia artificial, lanzó en la inauguración del encuentro.
Un recorrido por la historia de la ciencia y un repaso de los últimos avances dejó a los asistentes en el límite de lo que, en ese ámbito, se denomina «singularidad»: la posibilidad de crear máquinas con tal capacidad de aprendizaje que puedan a su vez crear máquinas mejores que ellas mismas y así sucesivamente, de modo que acabarían escapando al control humano y darían lugar a cambios inimaginables en nuestra relación con las máquinas y en nuestra propia concepción como seres humanos.
¿Ciencia ficción? No del todo en opinión de expertos como Latorre, para quien debemos acostumbrarnos a convivir con máquinas cada vez más parecidas a nosotros y que no solo podrán ejecutar las tareas que les encomendemos sino que tomarán sus propias decisiones.
Otros expertos no creen que se alcance nunca esa «singularidad» y algunos, como el físico y teólogo Javier Sánchez Cañizares, director del Grupo Ciencia, Razón y Fe de la Universidad de Navarra, plantean si, ante esa posibilidad, no tenemos el deber ético de impedir que suceda, de evitar la existencia de inteligencias fuera del control humano.
Pero ¿quién y cómo pone límites a esa evolución tecnológica que podría, hipotéticamente, escapársenos de las manos? ¿Cómo hacemos para que los sistemas de inteligencia artificial nos ayuden y nos hagan la vida más fácil y no nos sustituyan o nos anulen?
¿Eso que hacen las máquinas es periodismo?
La aplicación de los sistemas de inteligencia artificial al ámbito de la comunicación y el periodismo fue otro de los grandes ejes del debate.
Esther Paniagua, periodista independiente especializada en asuntos de tecnología e innovación, expuso el estado actual de la cuestión. Al margen de muchas otras tareas, las máquinas ya son hoy capaces de crear contenido para los medios de comunicación de forma automática a partir de datos. Por ejemplo, esos robots, alimentados por las bases de datos de la Bolsa o de La Liga son capaces de redactar noticias sobre la jornada bursátil o sobre un partido de fútbol. Y hacerlo en un español, si no brillante, al menos correcto.
Ya lo hacen en muchos medios, y según un estudio de varias universidades estadounidenses y alemanas, resultan más creíbles para los lectores que los periodistas humanos, aunque también menos fáciles de leer.
Para Paniagua, en este campo, las máquinas pueden producir mucho más contenido que los humanos, ser más precisas, detectar mejor las informaciones falsas…, pero carecen de cualidades imprescindibles para hacer periodismo: capacidad para la comunicación compleja, pensamiento experto, capacidad de adaptación, juicio subjetivo…
Sin ellas, opina, la máquinas pueden «crear contenido para los medios», pero no »hacer periodismo»: no explicar ni interpretar la realidad.
¿Serán capaces de hacerlo algún día? María Pérez Ortiz, investigadora posdoctoral en inteligencia artificial de University College de Londres no lo cree: «Las redes neuronales que se usan para producir contenido se basan en tecnologías que tratan de imitar a los humanos; pueden ser tan buenas como un humano, pero no mejores. Estamos intentando imitar a seres humanos, pero sin creatividad».
Así pues tenemos ya máquinas capaces de crear contenido con rapidez, precisión, fiabilidad, pero no de aportar creatividad ni capacidad de interpretación. ¿Cómo queremos usarlas?
Los lectores tienen derecho a saber si lo que están leyendo ha sido redactado por una persona o por un algoritmo
Olalla Novoa, periodista y directora de servicios de contenido digital de la consultora Prodigioso Volcán cree que la automatización puede ser muy positiva porque facilita el acceso a datos; «las máquinas pueden ayudar al periodista, pueden ser su asistente».
Pero emplearlas para sustituir a los profesionales e inundar el ecosistema comunicativo con contenidos producidos con un coste infinitamente menor que los creados por personas es una tentación muy fuerte en un mundo en el que no parece primar la calidad.
Una vez más, la duda que encabeza esta crónica: ¿máquinas para ayudar o máquinas para sustituir?
En lo que parece haber un acuerdo general, como señaló David Llorente —de la empresa Narrativa, que ya produce cada día miles de noticias de forma automática— es en que, en este nuevo panorama, los lectores tienen derecho a saber si lo que están leyendo ha sido redactado por una persona o por un algoritmo. Porque los contenidos generados por unas y otros no son siempre distinguibles.
Así que quizá convenga decir que esta crónica, para bien o para mal, ha sido redactada al cien por cien por manos humanas. Una advertencia que hoy puede parecer superflua, pero que quizá se convierta en habitual antes de lo que pensamos.