En un mundo cada vez más dominado por la tecnología, la inteligencia artificial (IA) se ha convertido en un componente esencial de nuestras vidas. No obstante, esta tecnología no está exenta de críticas, especialmente en lo que respecta a los prejuicios inherentes a sus algoritmos. Gabriela Arriagada, destacada investigadora en ética y filosofía, aborda esta problemática en su nuevo libro, «Los sesgos del algoritmo: Hacia una inteligencia artificial inclusiva y justa».
Conversamos con Arriagada sobre las motivaciones detrás de su obra y su perspectiva sobre los desafíos éticos de la IA. «Lo importante es que logremos un impacto justo. Queremos que los sistemas de creación de IA tengan ciertas directrices éticas», comentó Arriagada en Palabra Que Es Noticia, subrayando la necesidad de una orientación moral en el desarrollo de estas tecnologías.
Motivaciones personales y neurodivergencia
Arriagada también compartió aspectos personales que influyeron en su carrera, como ser diagnosticada con autismo: «Una de las cosas más bellas que me ha pasado es mi diagnóstico tardío. Mientras estaba estudiando mi doctorado en Inglaterra, uno de mis supervisores me dijo: claramente eres autista». Esta revelación, según Arriagada, ha sido crucial en su comprensión y enfoque hacia la neurodivergencia. «Yo creo que nos estamos empoderando en esa rareza. Yo soy neurodivergente, a mí me gusta que me digan autista. Para nosotros no es solo un diagnóstico, es quienes somos, es decir, aquí estamos».
La motivación personal ha sido un motor poderoso en su trabajo. «Las motivaciones personales que he tenido en ética es que me importaban mucho las decisiones de otros. Siempre tenía el sentimiento de justicia muy arraigado». Este sentido de justicia la llevó a profundizar en los estudios de ética aplicada a la inteligencia artificial. «Yo veía que todos hablaban de justicia como el criterio técnico que teníamos que trabajar y yo decía, todo esto tiene un contexto, personas, emociones».
Sesgos en la IA
En cuanto a los sesgos, Arriagada destaca su complejidad y diversidad. «Gran parte de mi trabajo lo he dedicado a los sesgos. La gente lo entendía a instancias, decían esto es un sesgo técnico». Sin embargo, ella advierte que el problema es más profundo. «El problema es que no lo entendían en un mundo, en un contexto. Quizá no podías traer todos los datos que necesitabas para un análisis». Arriagada identifica varios tipos de sesgos: «Hay sesgos sociales, que se pueden traspasar en los sesgos de información. Luego, los sesgos técnicos, que son fundamentos propios del algoritmo que aprende algo y lo sigue replicando. Y luego están los sesgos cognitivos que nosotros tomamos».
La autora también reflexionó sobre la imposibilidad de eliminar completamente los sesgos de la IA. «Lo que siempre intento insistir a mis estudiantes es que es imposible tener una inteligencia artificial no sesgada, es imposible que no hayan sesgos. Tenemos que identificar qué sesgos sí hay».
Desafíos y responsabilidades
Arriagada destacó la responsabilidad de las empresas y la academia en este contexto. «Creo que una de las grandes respuestas que han tenido las empresas, quieran o no, son las presiones sociales. Cuando hay presión social, las grandes empresas están respondiendo, porque finalmente son sus intereses políticos y económicos los que están dominando el desarrollo de la IA”.
“El tema de la regulación se está discutiendo a nivel global, pero una de las grandes responsabilidades de nosotros como académicos es llevar a la ciudadanía a exigir estos productos, dimensionar las potencialidades de riesgo entender que significan y poner presión, porque eso es lo que puede generar un golpe a esas grandes empresas”, finalizó la académica a Palabra Que es Noticia.