Si tratásemos de hacer la lista de las personas con las que nos hemos comunicado al cabo de un día (con las que hemos hablado en persona, a las que hemos llamado o escrito un correo, con las que nos hemos relacionado en una red o un chat…) seguramente nos resultaría sencillo: Isabel, Juan, María…
Pero no solemos ser tan conscientes de que buena parte de nuestra comunicación diaria la mantenemos con otros interlocutores muy distintos: máquinas, robots, algoritmos que intervienen en una cantidad sorprendente de aspectos de nuestra vida diaria. Nos ayudan a encontrar información, a comprar un billete de tren, a seleccionar las noticias más interesantes, a solucionar reclamaciones o dudas…
Y todo eso sin necesidad de comunicarnos con ellas en lenguajes extraños o códigos para iniciados, sino en nuestro propio idioma, en el mismo español de todos los días en el que está escrito este texto.
Son Alexa, Siri, Cortana, Irene y cientos, miles de máquinas más (muchas de ellas sin nombre o sin uno que conozcamos quienes nos comunicamos con ellas) que, al menos en teoría, han llegado para hacernos la vida más fácil.
Buena parte de nuestra comunicación diaria la mantenemos con máquinas, robots, algoritmos… que hablan nuestra lengua
Esa creciente interacción entre personas y máquinas ha llegado a nuestras vida para quedarse y puede estar solo enseñando la punta del iceberg de un enorme potencial de dimensiones difíciles de prever. La tecnología que la hace posible avanza con pasos de gigante.
Hace apenas unos días fue noticia la publicación —y la posterior despublicación— en una web de la NASA de un artículo en el que Google aseguraba haber alcanzado la llamada supremacía cuántica, es decir, que habría logrado desarrollar ese nuevo tipo de computación hasta el punto de lograr resolver en apenas minutos problemas de una complejidad a los que ni los más potentes ordenadores convencionales podrían dar solución.
La superación de estos límites tecnológicos y el desarrollo de cada vez más complejos sistemas de inteligencia artificial hacen prever que nuestra relación con las máquinas —por emplear un término coloquial que engloba a robots, algortimos…— será cada vez mayor.
Y ello pone sobre la mesa cuestiones éticas, pero también otras relacionadas con el lenguaje (con independencia de cómo se «entiendan» entre ellas, esas máquinas hablan con nosotros en lenguaje natural, en nuestro propio idioma) y con el ámbito de la comunicación.
De todas ellas se va hablar esta semana en el XIV Seminario Internacional de Lengua y Periodismo que organizan la Fundación San Millán de la Cogolla y la Fundación del Español Urgente, promovida por la Agencia EFE y BBVA.
Ética, comunicación, lengua…
Inaugurado, como ya es tradición, por la reina Letizia, el encuentro comenzará el jueves 2 con una conferencia a cargo de José Ignacio Latorre, catedrático de Física Teórica en la Universidad de Barcelona, especializado en el estudio de aplicaciones de inteligencia artificial y en la teoría de la información cuántica y autor de libros como Cuántica, tu futuro en juego y Ética para máquinas.
Los aspectos éticos de esta nueva realidad ocuparán la primera de las mesas de debate del seminario. Presentada por el catedrático emérito de Humanidades en la Universidad Carlos III de Madrid Antonio Rodríguez de las Heras pondrá sobre la mesa asuntos como si la inteligencia artificial avanzada pone en cuestión la superioridad intelectual de los humanos. ¿Pueden las máquinas mentir? ¿Podrán tomar decisiones por nosotros?
En la segunda mesa, introducida por la periodista Esther Paniagua, se plantearán las cuestiones que surgen de la interacción de personas y máquinas en el mundo de la comunicación. La presencia de robots que ya redactan informaciones en muchos medios ¿obliga a repensar el papel de los profesionales? ¿Suponen, como defienden algunos, una amenaza casi apocalíptica para la profesión y, de rebote, para la libertad real de comunicación e información, o son más bien una oportunidad para salvar una y mejorar las otras?
El seminario propone el intercambio de puntos de vista entre físicos, ingenieros, informáticos, lingüistas, periodistas, filósofos, teólogos…
La tercera y última de las mesas, que presentará el investigador en procesamiento de lenguaje natural de la Universidad del País Vasco Rodrigo Agerri, se centrará en los aspectos lingüísticos y en concreto los que afectan al español con una perspectiva de ida y vuelta. Por un lado, las máquinas «hablan» el español que alguien les enseña o que aprenden a través de los sistemas de aprendizaje automático; ¿qué variedades y sesgos tiene esa lengua?, ¿qué saben o pueden aprender las máquinas de matices emocionales?, ¿qué problemas se derivan de la traducción automática?… Y, por otro, ¿cómo afecta todo esto a la evolución del español?
Ingenieros, filósofos, lingüistas…
Para tratar cuestiones tan diversas, pero tan relacionadas entre sí, el seminario propone la reunión y el intercambio de puntos de vista de destacados profesionales de áreas muy distintas, entre ellos, ingenieros y especialistas en informática y procesamiento del lenguaje natural, como Rodrigo Agerri (Universidad del País Vasco), David Llorente (Narrativa), Elisa Martín Garijo (IBM), Juan Murillo (BBVA), María Pérez Ortiz (University College London) y Luis Alfonso Ureña (Sociedad Española para el Procesamiento del Lenguaje Natural).
También filólogos y lingüistas, varios de ellos especializados en lingüística computacional, como Leticia Martín-Fuertes (Google), Amelia Sanz Cabrerizo (Universidad Complutense de Madrid) y Carmen Torrijos (Instituto de Ingeniería del Conocimiento).
Entre los escritores y periodistas invitados figuran Ekaitz Cancela, María Garrido, Esteban Hernández, Olalla Novoa, Esther Paniagua y Marta Peirano. Completan la lista de participantes los mencionados Latorre y Rodríguez de las Heras y el físico y teólogo Javier Sánchez Cañizares (Universidad de Navarra).