[jet_engine component="meta_field" field="antetitulo"]

Ética y responsabilidad en el uso de la Inteligencia artificial

El Foro Sociedad Digital ha planteado varias cuestiones, como si los algoritmos afectan a la sostenibilidad o qué grado de humanidad tiene una IA
inteligencia artificial sostenibilidad
Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on email

Fundación Telefónica ha organizado la tercera sesión del Foro Sociedad Digital 2021, donde cuatro expertos se han reunido para hablar sobre la ética y responsabilidad en el uso de la Inteligencia artificial. En el evento se han planteado varias cuestiones como si los algoritmos afectan a la sostenibilidad o qué grado de factor humano debe haber en una IA. La Inteligencia artificial tiene un gran impacto en los negocios y ya no hay ninguna empresa grande que no esté trabajando en esta temática. Pero también es verdad que tiene algunos efectos no deseados, o no intencionados. ¿Cuáles son los retos a superar?

Nacho Rivera, cofundador y CEO de The Overview Effect, ha considerado que la filantropía y los modelos de negocio sostenibles deben existir a la vez. Según él, al final, si se piensa en la agenda a la cual nos enfrentamos como humanidad –o los retos globales como el desarrollo sostenible, con temáticas sociales, medioambientales o económicas–, siempre se va a necesitar de filantropía o de altruismo. 

“Pero hay que entender que el impacto positivo de sostenibilidad es una oportunidad de generar valor a los modelos de negocio. Venimos de muchos años de áreas de responsabilidad social corporativa alejada de los negocios, donde al final dependía de un área que se encargaba de devolver a la sociedad. Creo que se está transformando. La sostenibilidad se está convirtiendo en algo transversal a las compañías y, en ese sentido, por muchas tendencias que haya, hay un mercado de oportunidad se está empezando a ver como un generador de valor”, ha explicado.

Cuando ha hablado de problemáticas como el cambio climático y cómo utilizar la IA para crear soluciones, cree que hay que pensar de una manera que culturalmente no estamos preparados para pensar. “Hacerlo desde un prisma más global, donde el sector público, el privado, la ciencia, la universidad trabaje de una manera colaborativa y donde se junten sectores y compañías con retos comunes. Al final, estos retos de los que hablamos requieren de que los sectores trabajen de manera coordinada, compartan datos como nunca se han compartido y que también tengamos maneras de gobernar globalmente estos retos”.

En España, ha indicado, estamos en una doble transformación. "Hay una transformación digital que sigue. Estamos al principio de una transformación de sostenibilidad, que en las compañías está como la digitalización en los 2000. Y creo que la clave es combinar ambas cosas. ¿Qué hay más importante que garantizar el propio futuro, no solo del planeta, sino del propio modelo de negocio, que es dependiente del planeta?”, se ha preguntado.

El problema de la Inteligencia artificial

“Es evidente que la Inteligencia artificial nos puede ayudar mucho como Humanidad. Tiene que ser global. Y creo que se esta haciendo todo muy deprisa. La Onteligencia artificial, por ejemplo, en la universidad, siempre ha estado ahí. Pero a nivel conceptual, la IA ya estaba bien elaborada. El problema es que ahora se le quiere confiar todo a esta tecnología. Se está poniendo el foco en solucionar problemas, que es de lo que se trata, la tecnología está para solucionar problemas. Pero se está haciendo todo tan deprisa, que nos estamos dejando a un lado el ver cómo lo estamos haciendo, cómo está impactando”, ha explicado, por su parte, Coral Calero, experta en software verde. “Y hay un problema”.

La IA maneja grandes cantidades de datos –y más que va a manejar–, porque la sociedad se ha acostumbrado a generar datos de manera continua y no se encarga de borrarlos ni depurarlos. “Consideramos que tenemos que estar en la nube como si fuera el cielo. Y no: la nube son ordenadores que requieren de energía”, ha señalado. 

“Es cierto que se están haciendo muchos esfuerzos, por ejemplo, en centros de datos, para conseguir que estén bien almacenados y que se nutran de energías alternativas y demás. Pero eso no es suficiente”.

Hay algunas estimaciones, aunque pocas, porque es un campo que está empezando, que dicen que entrenar a un algoritmo de procesamiento de lenguaje natural, solo el entrenamiento, equivale a la vida útil de cinco coches. “Cinco coches puede parecer poco para la de coches que hay”, ha advertido. “Pero cuidado: solo un algoritmo, y solo su entrenamiento. Los algoritmos que hay a nuestro alrededor, que son muchísimos, gestionan millones y millones de datos”. 

Por otro lado, los percentiles más altos de precisión de un algoritmo, para pasar de un 80% a un 90% de precisión en un algoritmo de Inteligencia artificial, puede suponer el poder ejecutarlo en un PC o tener que necesitar un clúster de superordenadores. Ahora, ha asegurado, se usa el clúster de superordenadores, “porque lo que queremos es una máxima precisión, queremos solucionar el problema. Y, a lo mejor, nos tenemos que plantear que con un 80% solucionamos el problema”. Y, por lo tanto, ha planteado, se estaría ahorrando mucha energía. 

"La ética es de los seres humanos”

Idoia Salazar, cofundadora, presidenta, y codirectora del Área de Ética y responsabilidad de OdiseIA, por su parte, ha afirmado que la ética en la Inteligencia artificial tiene algo fundamental, que es entender que la ética sigue siendo la de los seres humanos. “Tener cuidado con el uso de los algoritmos de la IA es nuestra responsabilidad”.

Según ella, tenemos que vigilarlo, los datos que damos, las variables de entrenamiento… Y muchas veces no es suficiente. “Realmente, muchas veces, esas particularidades no están en contexto, como la raza o el sexo. El ser humano tiene que estar muy pendiente de todas estas cuestiones, más allá de haber tenido cuidado con la abstracción de estas variables”.

Y ha destacado: “No se puede dejar autonomía a los algoritmos de Inteligencia artificial en cuestiones de impacto, en algo que puedan causar un daño o un perjuicio, como el acceso a una determinada empresa. No dejemos que un departamento de recursos humanos se lave las manos y sea la tecnología quien decida quién entra o quién no”. 

En ese tipo de decisiones, ha asegurado, hay algo más que un análisis meramente objetivo de unos datos. Cuando se toman ciertas decisiones, muchas veces no se es tan objetivo. Ni se debe serlo: “Hay veces que tomamos decisiones dependiendo del contexto porque consideramos que puede ser mejor para el impacto de una empresa, o en un hospital. Por ahora, no lo tiene la máquina. Siempre que podamos automatizarlo no tendremos problemas, pero siempre puede haber algún tipo de consecuencia. Hay que entender que es una ayuda al ser humano y complementa nuestras decisiones”.

Estado actual vs. Estado sostenible

El concepto de robot es un poco difuso”, ha indicado, por último, Ignacio Gavilán, fundador y CEO de Reingeniería Digital. “Hay cuatro tipos. Primero, el industrial, el brazo articulado que está en fábricas. En diez años se ha triplicado su crecimiento y es estable. Segundo, el robot de servicio, que hacen tareas de índole doméstica o de servicio en empresas. Como por ejemplo, los robots aspiradoras. También están los robots software, los que no tienen realidad física, pero que se comportan como un robot. Están en un hardware de propósito general y tiene un comportamiento inteligente. Y luego están, los que de cara al tema ético, más interesan, que son los robots sociales. Un tipo robots cuyo objetivo es relacionarse con personas”. 

Y ha puesto ejemplos, como Sofía, “que tiene mucho de marketing, pero que tiene mucho de social” o Pepper, “que es otro, más sencillo". Asimismo, de cara a los retos y oportunidades, en cuanto a empleos, una problemática social, en el fondo no se sabe muy bien lo que va a pasar. 

“Hay informes que dicen que sí, que se destruirá empleo pero se crearán otros y que de manera neta van a crecer. Hay quien dice que no, que se va a destruir empleo… Sinceramente, creo que no lo sabemos”. 

“Realmente –ha continuado–, si automatizamos es para generar de forma más eficiente los mismos productos y servicios. Esto quiere decir que la riqueza de la sociedad no debería verse perjudicada, sino todo lo contrario, por la robotización y la automatización. Eso querría decir que en caso de que se dé, que no estamos seguros, una situación de desempleo masivo, habría riqueza suficiente para repartirla. Otra cosa es que hagamos bien ese reparto y otra cosa es que la transición entre el Estado actual y el Estado sostenible fuera posible”.

Gavilán suele decir, ha recordado, que en ese camino hay ganadores y perdedores. “Siempre los ha habido. Por eso se necesitarían políticas estatales, de empresa, si tienen esa responsabilidad social, y responsabilidad individual, porque el primer interesado en ser útil y empleable es cada uno”. 

Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on email

Últimas noticias

Recomendadas

Deja un comentario

Anuario de la Innovación en España 2020