La madurez de la inteligencia artificial (IA) hace que ya nadie escape a sus efectos en la toma de decisiones, en lo banal y en lo trascendente. Es definitiva su integración en las políticas corporativas y en el trabajo de las administraciones públicas.

Diferentes expertos han debatido en el 6º Encuentro Empresarial Leganés Tecnológico sobre cómo casa este firme avance con cuestiones éticas, legales y morales, teniendo en cuenta que el ser humano porta, quiera o no, más de un centenar de sesgos a la hora de diseñar e implementar los algoritmos que marcan nuestras vidas.

La apuesta de Pablo de Manuel Triantafilo, director ejecutivo de Capital Certainty Initiative es la de hacer innovación con propósito. Así, han creado su propio marco ético basado en diferentes verticales y con un indiciador principal vinculado a la supervivencia de la humanidad.

“Nos centramos en situaciones que pueden desencadenar inestabilidades sociales o riesgos físicos. Intentamos aumentar la resiliencia de los más vulnerables, que son los que primero sufren los efectos en la toma masiva de decisiones”. Como ha expuesto De Manuel a modo de ejemplo, la empresa trabaja en 4 proyectos en el África Subsahariana, uno de ellos encaminado a la sustitución del queroseno por energía solar.

“Formamos a estos colectivos, les enseñamos a ahorrar y el objetivo es que ellos mismos tomen decisiones e inviertan en su comunidad”. La IA les ayuda a llegar a 117.000 comunidades. “El algoritmo sabe cómo y dónde difundir el mensaje, argumentos que tienden a la positividad frente al pesimismo intrínseco del ser humano”.

En la cita, que también ha servido para celebrar el XX aniversario de la Asociación Empresarial del Parque Científico y Tecnológico de Leganés, ha intervenido Fernando Broncano, Catedrático de Lógica y Filosofía de la Ciencia UC3M, y responsable del GI HERMES de la UC3M.

“La IA no sólo tiene los sesgos de los humanos, sino que los amplifica”, señalaba el experto, para quien esto es especialmente peligroso en algunas situaciones como la toma de decisiones de las máquinas en algunos juzgados norteamericanos, donde el sesgo racial influye de modo notable.

Para abordar con garantías estas cuestiones, Broncano aboga por una vuelta parcial a la metodología de la ‘vieja’ IA, ahora casi en desuso, caracterizada por “estructuras muy complejas y por tratar de imitar el conocimiento humano cuando lo hace bien, cuando usa razones”.

A su juicio, ayudaría la puesta en marcha de un intermediario, en forma de Agencia, como ocurrió en su momento con otras industrias. “La IA está ahora en la misma situación que las farmacéuticas en el SXIX. Son necesarias agencias de control en todo el mundo. Rebajarán la presión sobre las empresas y los protocolos ayudarán a resolver problemas legales rápidamente”.

Broncano llamaba a las empresas a ser más pacientes con el lanzamiento de nuevos productos. “Ha llegado el momento de tener cierta calma. Estamos jugando con cosas muy serias como los esquemas financieros, las pensiones, los seguros, los RRHH o la salud”.

AMETIC es uno de los organismos que pelea actualmente por la creación de una Agencia Europea de Inteligencia Artificial. Enrique Serrano, vicepresidente de su Comisión de Inteligencia Artificial y Big Data señalaba que, entre sus funciones, está lograr que el uso de la IA en las empresas tenga un retorno en la sociedad.

“En torno a un 20 % de proyectos de IA se queda en el cajón.  Sucede sobre todo por miedo al impacto que puedan tener o porque no se controlan totalmente los datos. Son fundamentalmente empresas que trabajan con clientes y que temen cruzar la línea del RGPD”.

Serrano ha apuntado que en AMETIC han elaborado un documento publico con el que pretenden velar por la aplicación de principios éticos en el entorno de la IA. “Somos un órgano con cierto poder de influencia en instituciones y gobiernos, también a escala europea (a través de Digital Europe). La agencia europea es necesaria porque precisamos de más supervisión”.

Ana Belén Muñoz, investigadora y docente de Derecho del trabajo y de la Seguridad Social de la UC3M, ponía el foco sobre los conflictos éticos entre máquinas y humanos en el ámbito laboral y en cómo el actual marco regulatorio necesita actualizarse.

Junto a algunas ventajas, como que los robots asuman los trabajos más penosos y repetitivos, Muñoz destacaba que la principal amenaza será la pérdida de empleos, “para todos los sectores y todo tipo de cualificaciones”. “La regulación actual –añadía- no piensa en la irrupción tecnológica. Sólo hubo cambios provocados para adaptarse a la última crisis económica”.

Muñoz advertía de que la llegada de la IA a las empresas afectará a los tiempos de trabajo y de descanso, a la redacción de nuevos convenios colectivos o a la privacidad del trabajador que pasará su jornada codo con codo con un nuevo ‘compañero’ capaz de recabar todo tipo de datos del comportamiento humano. “Y ante un accidente laboral, ¿quién responde?, ¿lo hace el trabajador, la máquina o el empresario?, la normativa europea tiene que considerar todos estos elementos”.

Nerea Luis, Al Engineer en Sngular y Doctorada 'cum laude' en Inteligencia Artificial por la UC3M, defiende que a la hora de desarrollar un sistema inteligente hay que ampliar miras para no caer en la discriminación, un aspecto de relevancia en el que ya han cometido errores Google o Amazon.

“Hasta hace no mucho sólo nos preocupaba programar nuestro código y desplegarlo. A los ingenieros nos ha faltado una perspectiva mas humanista. Ya no basta con evaluar y clasificar tus datos, hay que pensar un poco más allá”.

Nerea Luis cree que viviremos unos años “interesantes” en los que se unirán humanismo y tecnología. “No hace falta que todos seamos programadores en un equipo. Nosotros tenemos lingüistas, expertos legales, ingenieros, científicos… Todos trabajamos sobre un conjunto más o menos abstracto y somos capaces de construir un sistema y desplegarlo de manera ética”.

Dejar una respuesta

Please enter your comment!
Please enter your name here