Tecnología Social
IA

Justicia algorítmica y diversidad de talento, garantías para una IA humanista

En el marco de una nueva entrega de Conversaciones humanitarias generadoras de talento impulsadas por Fundación Cruz Roja, Nuria Oliver, Cristina Aranda y José María Lasalle debaten sobre la importancia de promover una IA ética, responsable y humanista.

Inteligencia Artificial

El avance irrefrenable de la inteligencia artificial (IA) ha obligado a tecnólogos, reguladores y sociedad civil a echar mano del pensamiento crítico para reflexionar sobre los límites de la tecnología, beneficios y riesgos asociados. Son innumerables los desafíos derivados de la popularización de la IA; sin embargo, sobre todos ellos, destaca por su magnitud y calado el reto de promover una IA ética, responsable y centrada en el ser humano.

En el marco de una nueva entrega de Conversaciones humanitarias generadoras de talento, Fundación Cruz Roja abre un nuevo espacio de debate para abordar precisamente esta cuestión. Una conversación a tres voces protagonizada por expertos de renombre. Entre ellos, Nuria Oliver, directora científica y cofundadora de Fundación Ellis Alicante; Cristina Aranda, doctora en lingüística teórica y aplicada y cofundadora de Mujeres Tech; y José María Lasalle, director del Foro de Humanismo Tecnológico de ESADE y autor del libro Civilización artificial. Tres nombres propios que han coincidido en la necesidad imperante de impulsar el pensamiento humanístico en la sociedad para desarrollar una tecnología de IA con tintes sociales.

“Nos encontramos ante un escenario de inevitabilidad de la IA”, comenta Lasalle; y es precisamente esa inexorabilidad la que debe dar lugar a “una reflexión profunda sobre el sentido de la propia tecnología”. Una visión que cobra especial relevancia dado que “está cambiando la fisionomía del mundo tal y como la conocemos hasta la fecha”. En este sentido el representante de la ESADE, echando la vista atrás, reconoce que este nuevo paradigma “nos obliga a tener presente la agenda de desigualdades que acompañó al desarrollo de la revolución industrial”. Para evitar que vuelva a ocurrir, incide, “cualquier tipo de anticipación debe ser abordada de una manera prudencial, especialmente teniendo en consideración que la profundidad de la IA nos obliga a tener unas capacidades reforzadas”.

Así, partiendo de la base de que “necesitamos IA para abordar algunos de los grandes retos sociales del milenio, no tenemos otra opción que garantizar que ésta esté centrada en las personas”, infería Oliver. Sus aplicaciones y beneficios son infinitos, como también lo son sus limitaciones éticas y morales. Precisamente por este motivo, proseguía la cofundadora de Ellis Alicante, “es necesaria una visión humanitaria y humanista para garantizar una IA ética, responsable y orientada al bien social”.

 

De la teoría a la práctica: aterrizando casos de uso sociales

La tecnología, defiende Aranda a capa y espada, “nos permite transformar el mundo”. “La IA es una increíble herramienta que ayuda a las personas a solucionar necesidades concretas”. De hecho, incide la doctora en lingüística teórica y aplicada, “las IA generativas van a tener cada vez más presencia en la sociedad”. Es Oliver quien da muestra de ello: “La intersección entre el contexto de fines humanitarios y la IA es cada vez más intensa y extensa. Un claro ejemplo de ello tiene que ver con la aplicación de la citada tecnología para atajar los objetivos de desarrollo sostenible de Naciones Unidas”.

Sin embargo, ahí no queda todo. “Una de las grandes revoluciones de la IA se está viviendo en el ámbito sanitario, donde ha llegado a impactar en la toma de decisiones médicas como el diagnóstico y el tratamiento hasta los propios procesos e infraestructuras de hospitales y ambulatorios”. Pero este no es el único sector, su aplicación en esferas como la educación, la energía, el medioambiente o las ciudades inteligentes son inimaginables.

 

Diversidad de talento

La irrupción y disrupción de la IA en el contexto popular actual obliga también, en palabras de Aranda, a redefinir las necesidades de talento especializado para garantizar una IA ética y responsable. “Las personas somos el epicentro de todo”, comenta la fundadora de Mujeres Tech, “desde el ámbito de las humanidades y las ciencias sociales es necesario incorporar perfiles de este calado para abordar las cuestiones persona-máquina”. Siguiendo este hilo, argumenta: “La IA está impactando en las democracias, en la sociedad, por lo que se necesita una diversidad de perfiles que antes no existía para abordar este despliegue de manera segura”. “No hay que endemoniar a la tecnología, hay que ser responsable en su desarrollo y uso”, espetaba.

 

Atajando los sesgos

En el camino hacia esta meta emerge el concepto de justicia algorítmica; es decir, la aplicación de principios éticos y de equidad en el desarrollo y uso de algoritmos de aprendizaje automático. “No podemos ser naive”, dice Oliver, “la IA, como los humanos, no es perfecta, hay que tener en cuenta los sesgos, la privacidad, la manipulación subliminal del comportamiento humano… Hay una serie de retos en los que tenemos que investigar libres de intereses económicos”.

Al ser preguntados sobre la fórmula para evitar una IA plagada de sesgos, Oliver centra el foco en los datos con los que se entrenan las redes neuronales. La calidad de la captura y explotación de los mismos determinará lo sesgado o no que esté un algoritmo. Además, irrumpe Lasalle, “la IA va incorporando mecanismos autorreferenciales a medida que va aprendiendo, por lo que muchas veces es complicado para los ingenieros definir dónde existen los sesgos”. “Existen muchos [sesgos] que intervienen, por lo que la diversidad de equipos es clave”, vuelve a señalar Aranda.

Sin embargo, comenta Oliver, hay forma de atajar estos sesgos con un “rebalanceo de los datos”. Por ejemplo, señala, mediante la incorporación de técnicas de preprocesamiento que, basadas en datos sintéticos, representen grupos infrapersonificados; incluyendo el propio concepto de justicia en las redes de aprendizaje del algoritmo; o, mediante métodos postprocesados, logrando que este aprenda un nuevo criterio de decisión más justo a partir de un modelo que puede estar sesgado. “Estos métodos se pueden entrelazar para modelar matemáticamente el concepto de justicia de los algoritmos y poder medirlo”, concluye Oliver.



TE PUEDE INTERESAR...

CASOS DE ÉXITO

Accede a nuestra publicación de canal

DealerWorld Digital

Documentos ComputerWorld

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS