La última jornada del Foro de Humanismo Tecnológico de Esade se centró en el futuro de la inteligencia artificial.

Es una carrera de fondo en la que la tecnología va dos pasos por delante de las humanidades. Con la batalla perdida de que la corriente humanista se ponga en cabeza, el Foro de Humanismo Tecnológico de Esade acogió en la última de sus jornadas de reflexión el debate ‘Proyecciones futuras de la inteligencia artificial’. Una mesa de reflexión en la que libertad, arte y educación se postularon como fieles compañeros de una tecnología que no tiene por qué ir reñida con los valores puramente humanistas. Aunque quedó claro que es posible un horizonte en el que se complementen, también que es necesario que se enmarque dentro de un marco regulador.

Asumida la implantación de la inteligencia artificial (IA) en todas las facetas de nuestras vidas, “las humanidades tienen que aportar a este desafío”. Un encuentro de dos conceptos que se habían posicionado como opuestos pero que son estructurales en el desarrollo de la sociedad.

Facundo Ponce de León, director del departamento de Humanidades de la Universidad Católica del Uruguay, planteó la necesidad de que las humanidades no intenten llegar más rápido que la tecnología, sino que lleguen mejor y primero. “Tenemos perdida la batalla de llegar más rápido”, afirmó.

“Pero lamentablemente parece que llegamos siempre tarde. Viene primero la tecnología y luego nosotros”, reafirmó Trinidad Zaldívar, Jefa de la División de Asuntos Culturales, Solidaridad y Creatividad en la Oficina de Relaciones Externas del Banco Interamericano de Desarrollo (BID). Así, las humanidades “son un refugio para cualquier persona donde encontrar esa explicación y sentido a lo que está sucediendo”.

Zaldívar, desde el punto de vista de los humanistas, confió en que se puede empujar una agenda “en la que las humanidades puedan amplificarse más allá del ámbito de la escuela y que la persona pueda desarrollar estas habilidades para interactuar mejor con el mundo de las máquinas”.

Es decir, trascender al ámbito público. “Hay que convertir todos los espacios públicos en potenciales aulas” para que haya más espacios de intermediación con la capacidad de responder a los retos que plantea la actual tecnología, en opinión de Judit Carrera, directora del Centro de Cultura Contemporánea de Barcelona (CCCB).

Unas humanidades que actúan como guardianes de una vida humana que es vida pública de manera intrínseca. “No hay visibilidad sin vía pública”, zanjó Ponce de León. “Tiene que haber un elemento de lo público como uno de los grandes desafíos en cuanto a la IA, y no que se quede en el ámbito de las empresas privadas”, apuntó el profesor.

Unas grandes tecnológicas cuestionadas por la dudosa aplicación de ética al trabajo que realizan. Y que ha estallado en plena crisis de la Covid-19. “En este sentido la pandemia ha revelado de alguna forma la importancia de cruzar el pensamiento científico con las humanidades”, señaló Carrera. La directora del CCCB no concibe unas humanidades que no respondan al estado, entendido como una crítica al abuso de poder y del intento de “domesticar el pensamiento”.

Consecuencias que pueden darse por parte de unas tecnologías deshumanizadas que se han convertido en parte de la vida diaria de nuestras sociedades. Por eso, todos los ponentes de este ciclo han coincidido: hace falta regulación, pero también autorregulación. “Nuestros gobiernos tienen que ser mucho más responsables y tratar de adelantarse lo más posible a las consecuencias de la aplicación de estas tecnologías”, advirtió Zaldívar.

Los efectos del descontrol de estas tecnologías podrían verse no en la realidad, pero sí en la imaginación. Ridley Scott ya lo predijo en Blade Runner, película que salió a colación durante este evento. “Es un tema actual pero del que se lleva hablando desde hace mucho tiempo: la ciencia ficción ya planteaba escenarios donde la IA predominaba”, agregó la trabajadora del BID.

Inteligencia artificial, ¿otra forma de dominación arbitraria?

Es la pregunta que se hizo Victoria Camps, catedrática emérita de Filosofía moral y política de la Universidad Autónoma de Barcelona. Si bien no es el primer caso de lo que denomina dominación arbitraria (lo que se enmarca en la libertad negativa, al influir en la autonomía personal y voluntad individual), hay otros como la que ha sufrido tradicionalmente la mujer.

“¿Cómo afecta la acumulación de datos a la libertad?”, se preguntó la catedrática. “Hay una libertad positiva y otra negativa. Desde el punto de vista filosófico, es una libertad insuficiente. Una libertad que está detrás de la capacidad de autonomía personal, de aquello que los individuos quieren, que desean”.

Camps remite al republicanismo la explicación de esta libertad negativa. Esta corriente filosófica, nada que ver con la entendida en el plano político que aboga por un estado federal, es crítica con la ideología liberal “porque parte de la convicción de que el liberalismo no ha sabido construir un sujeto que es un ciudadano”.

Uno de los riesgos inherentes que conlleva esta concepción negativa de libertad es, en una sociedad desarrollada, el uso incontrolado de la información personal. “Las plataformas quieren acumular datos sobre nosotros, y cuantos más tienen, más suben y crecen sus beneficios. Con ellos pretenden ofrecer algo que sirve a los intereses de clientes y usuarios”, razonó Camps.

La filósofa relacionó la dinámica de las grandes tecnológicas con el comportamiento del mundo de la publicidad. “Hablan de la tecnología digital como persuasiva. En el sentido de lo que hace la publicidad, porque básicamente lo que hace es influir en el comportamiento y comprar lo que nos vende”.

Así los usuarios de esta tecnología tienden a aceptar el “control y la vigilancia” que ejercen los algoritmos en nuestras vidas. La propia Camps lo ejemplificó con lo que le pasa cada vez que enciende su dispositivo Kindle. “En el inicio aparecen una serie de recomendaciones adaptadas a mis gustos”.

Sumado al algoritmo, otro de los riesgos lo relaciona con la renuncia a la privacidad que aceptan los ciudadanos con el fin de usar los servicios de sus dispositivos.

Y al usarlos, en concreto al utilizar las redes, Camps advirtió de que llegan a influir “no solo sobre qué hacer sino sobre cómo hacerlo”.

“Esto es una limitación de la libertad frente a la cual lo importante es tenerlo en cuenta. Porque aparte de limitarnos y seleccionar o preferir por nosotros sin que nos demos cuenta, tiene efectos perversos en otros campos como en la política”. Ejemplos que enmarcó en una de estas redes: Twitter. “Obligan al mensaje rápido: un mensaje más extremista y morboso. Lo que está en los extremos acaba siendo viral”, zanja.

No obstante, Camps abrió una puerta a la esperanza dentro de la propia filosofía. “Tenemos que cuestionarnos hasta qué punto queremos que los algoritmos nos conozcan mejor que nosotros mismos. Como humanos racionales no podemos renunciar a conocernos. Tenemos que aprender sobre cómo pueden actuar los algoritmos sobre nosotros mismos y prevenirlo”.

Apostar por la tecnología bajo nuestra responsabilidad

Otro de los enfoques que se trataron dentro del ciclo ‘Conversaciones’ fue el de abordar una IA que es necesaria en nuestras sociedades. Pero sin “desresponsabilizarla”, como acuñó José Ramón López Portillo, académico, empresario, diplomático, consultor y funcionario público mexicano.

“No nos puede quitar responsabilidad”, reiteró. Si bien estas herramientas ofrecen la posibilidad de dar “saltos cuánticos” en cuanto al bienestar, también ofrecen su cara más amarga: potenciar la desigualdad entre los que pueden acceder a ella y los que no.

“En la tecnología, hay un problema ético moral que a mí me remiten a un determinado paradigma cultural. Esta asimetría o desigualdad no solo se da en términos de desarrollo económico. También se da en otros enfoques de la sociedad”, refrendó Andrés Ordóñez, diplomático y director de la Universidad Nacional Autónoma de México en Europa.

De ahí la importancia de un elemento perpetuo durante el evento: el humanismo. “La educación tiene que regresar a comprender esta parte creativa en los niños y los jóvenes”, destacó López Portillo.

Una educación de la que se tiene que hablar “en plural”, cree Ordóñez. “Lo que nos caracteriza es una unidad y una diversidad. Por supuesto que tenemos ese potencial y es uno de los proyectos a los que tenemos que lanzarnos de inmediato”.

No sin olvidar la importancia geopolítica que tiene la IA en el mundo actual, tema que trató López Portillo. “Si uno sospecha que China va a tener la ventaja en IA, EEUU y Europa van a hacer lo mismo”.

La inteligencia artificial en la era Biden

Si se habla de inteligencia artificial, inevitablemente se tiende a pensar en uno de los países donde más desarrollo e impulso ha tenido esta: los Estados Unidos. Una nación en pleno proceso de transición y cuyos planes en cuanto a minimización de la brecha digital y mayor regulación sobre las grandes tecnológicas serán algunos de los puntos clave de la nueva legislatura del presidente electo Joe Biden que comienza en enero de 2021.

“Hay numerosos temas de política tecnológica que van a ser prioritarios para Biden. Algunos: desde luego que el primero será el de los gigantes tecnológicos. Se espera que interceda en el tema de las fake news o en el poder desestabilizador de estas en las sociedades sin revisión gubernamental”, adelantó Juan Verde, estratega gubernamental y corporativo, defensor de una economía verde.

El reto de Biden consiste en que la tecnología llegue a la mayoría. Verde utilizó un símil para referirse a esta cuestión: “Tenemos que asegurarnos que la revolución digital logre más ganadores que perdedores”.

Otro de los planes de la nueva administración será aumentar el despliegue del internet de banda ancha en zonas rurales, según comentó Verde. “La necesidad de tener internet se ha convertido en urgente y sobre todo en tiempos de pandemia”.

En cuanto al marco regulador, desveló que volverá la ley de neutralidad en la red que ya impulsó Obama. “Así se impide que los proveedores de servicios de internet cobren precios distintos por el mismo servicio de internet”.

Pero no girará en torno a retomar políticas en suspenso. También dijo que se trabaja en una Ley Federal de Privacidad de Datos y una de las apuestas más destacadas: la Agencia Federal para la Inteligencia Artificial.

“Biden ha dicho que esta debe obedecer y servir a los derechos humanos. Debe ser una fuerza para el bien. Podemos esperar una gran inversión por parte del gobierno de EEUU para desarrollar la IA”.

Artistas nacidos de la mano de la IA

Como parte de ese futuro humanista que convive con unas sociedades donde predomina la tecnología, el ámbito del arte también se replantea su esencia. Jorge Barreto Xavier es director General de Educación, Desarrollo Social y Cultura del Valle de Oeiras. Y no descarta que, en un futuro próximo, “las máquinas tengan un estatuto propio como artistas”.

Fuera de lo que hoy día son utopías, lo que sí ocurre es el uso de IA por parte de los artistas. Porque lejos de ser contrapuestos, arte e IA pueden convivir y complementarse. “La libertad nunca ha estado condicionada para los artistas”, esgrimió.

Argumento al que se sumó también la Comisaria y directora de Arts del CERN, Mónica Bello. “La IA nos da pie a pensar en ello. Un mecanismo tecnológico que da pie a la creatividad humana”.

Si bien el arte se basa en experiencias que se enmarcan en la realidad, ahora la tecnología plantea realidades modificadas. “Lo que hace este sistema tecnológico es alterar la realidad en la que vivimos. Hay artistas que han trabajado mucho en este tema”, prosiguió Bello.

La directora de Arts del CERN no se olvidó igualmente de mencionar una de las mayores preocupaciones en torno al tema: la regulación de la IA. Fue contundente: “ante una fragilidad alterada, tenemos que regular”.

Dejar una respuesta

Please enter your comment!
Please enter your name here