Borrar
¿Quieres despedir a tu mascota? Puedes hacerlo en el nuevo canal de EL COMERCIO
juan carlos román

«No es posible una inteligencia artificial sin sesgos, pero podemos contribuir a hacerla más inclusiva cada vez que utilizamos las redes sociales»

La investigadora y divulgadora Cecilia Celeste Danesi participa en las Jornadas de Inteligencia Artificial organizada por FEDA esta mañana en el Hotel ABBA Playa

Jueves, 7 de noviembre 2024, 21:47

Comenta

¿Es posible una inteligencia artificial sin sesgos? Esta es la pregunta bajo la que Cecilia Celeste Danesi, investigadora del Instituto de Estudios Europeos y Derechos Humanos (UPSA) y divulgadora y asesora en inteligencia artificial, géneros y derechos dirigió su conferencia dentro del marco de la Jornada de Inteligencia Artificial organizada por la Federación de Empresas y Directivas Asturianas (FEDA) celebrada esta mañana en el Hotel ABBA Playa. La respuesta de Danesi era clara: «No, no es posible». A riesgo de parecer negativa, explicó que esto se debe a que «los datos que arroja esta tecnología son un reflejo de la sociedad, no se puede crear una IA totalmente neutral».

Pero, ¿de qué manera afecta estos sesgos algorítmicos? La censura de esta tecnología parte desde ejemplos tan sencillos como los estereotipos de género que se refuerzan a través de los filtros de belleza de las redes sociales hasta la forma de evaluar a los potenciales candidatos a un puesto de trabajo. «En 2014, se evaluó el sistema de IA de Amazon y se descubrió que puntuaba a los aspirantes femeninos de forma inferior frente a los masculinos porque el sistema había sido entrenado con los datos de los últimos diez años de la compañía, donde la mayoría de personas que accedían a puestos jerárquicos eran hombres y, por tanto, la tecnología aprendió a evaluarlos de forma más positiva», ejemplificó Danesi.

Con el paso del tiempo, no se ha visto un cambio propicio a esta situación. «Hoy en día, diez años más tarde, una investigación de la Universidad de Washington analizó distintos modelos de lenguaje y probó que esos sistemas para la contratación de personal tenía sesgos de género y racistas». Para revertir esta situación y disminuir su impacto, «las empresas deben desarrollar un plan de gobernanza ética». Algo en lo que Danesi trabaja codo con codo con distintas compañías y también desde la plataforma 'Women4EthicalAI' de la UNESCO, donde han realizado una serie de recomendaciones a la hora de auditar esta tecnología. «Se evalua quienes son los encargados de desarrollar esa IA así como los encargados de revisarla, si hay una diversidad y si tienen los conocimientos base en derechos humanos y gobernanza de la ética de la IA». Asimismo, también se evaluá el impacto previo que puede llegar a tener ese algoritmo para conocer cuál va a ser el público al que puede llegar, así como sus características.

No solo las empresas deben estar atentas a esos sesgos, a nivel personal también se puede colaborar en la lucha por hacer una inteligencia artificial más neutra. «Cada vez que usamos las redes sociales o chat GPT estamos entrenando y enseñado al algoritmo. Todo con lo que interactuamos le enseña gustos, preferencias y crea un perfil social. Esto puede ser algo bueno, porque le podemos ayudar a ser más inclusivo, pero también se puede utilizar para discriminar», advirtió. «Tenemos que tener mucha conciencia cuando interactuamos con estos algoritmos. Nosotros también influimos en las predicciones y resultados que arrojen en el sistema».

Pero, ¿de qué forma podemos contribuir? «Hay que tener un ojo crítico y comprobar bien qué se comparte y qué no y ver que no sea falso, estar capacitados y formados en este sentido y concienciar a nuestro círculo de los riesgos de compartir todo», concluyó.

Publicidad

Publicidad

Publicidad

Publicidad

Esta funcionalidad es exclusiva para suscriptores.

Reporta un error en esta noticia

* Campos obligatorios

elcomercio «No es posible una inteligencia artificial sin sesgos, pero podemos contribuir a hacerla más inclusiva cada vez que utilizamos las redes sociales»

«No es posible una inteligencia artificial sin sesgos, pero podemos contribuir a hacerla más inclusiva cada vez que utilizamos las redes sociales»