Margaret Mitchell: “Las personas a las que más perjudica la inteligencia artificial no deciden sobre su regulación” | Tecnología

Share

Margaret Mitchell, nacida en Los Ángeles, prefiere no decir la edad que tiene. No queda claro si es por coquetería o porque vela por la privacidad y el buen uso de los datos. Podría ser esto último, ya que es una de las mayores expertas en ética aplicada en la tecnología, y ha dedicado su carrera a reducir los sesgos de los algoritmos. Fundó y dirigió el departamento de ética de la inteligencia artificial (IA) en Google junto a Timnit Gebru, hasta que ambas fueron despedidas con pocos meses de diferencia hace tres años. Ahora supervisa el departamento de ética en Hugging Face, es una de las 100 personas más influyentes de 2023 según la revista Time, y fue una de las conferenciantes más esperadas en la Smart City Expo celebrada en las instalaciones de Fira de Barcelona.

Pregunta. ¿Cómo reaccionan las tecnológicas cuando se advierte sobre problemas éticos?

Respuesta. A las personas con las que trabajaba en Google realmente les apasionaba. Quizá en un nivel más elevado de la compañía no estaba muy claro que lo que hacíamos era importante, quizá no lo entendían.

P. ¿Por qué la despidieron?

R. No fue porque alguien pensara que nuestros trabajos sobre ética no eran adecuados. Estuvo más relacionado con diferencias de poder, y sobre todo porque se trató a mi colíder [Timnit Gebru] como si fuese menos que sus compañeros, por racismo. No podía hacer como que no lo había visto o que no diría nada. Fue parte de una discusión más larga sobre poder y discriminación sistémica.

P. ¿A los desarrolladores de IA les importa la ética?

R. Depende de quién. He trabajado con muchos que siempre están atentos a hacer las cosas bien. Pero la cultura del mundo del desarrollo tecnológico y la ingeniería tiende a favorecer un comportamiento alfa, donde quieres ser el primero en sacar algo o con mejor resultado. Esto puede desincentivar el trabajar en consideraciones éticas.

Las perspectivas marginadas no se tratan como igual de importantes en el desarrollo de las tecnologías

P. ¿Cómo funcionan la discriminación y los sesgos en los algoritmos?

R. Empieza desde el principio: si las decisiones no las toma un grupo inclusivo de personas diversas, no serás capaz de incorporar diversidad de pensamiento en el desarrollo de tu producto. Si no se invita a la mesa a personas marginadas, los datos y la manera en que se recopilarán reflejarán la perspectiva de los que tienen poder. En las compañías tecnológicas, tienden a ser, de forma muy desproporcionada, hombres blancos y asiáticos. Y ellos no se dan cuenta de que los datos que manejan no son completos, porque reflejan su visión. Así, si las perspectivas marginadas no son tratadas como igual de importantes en el desarrollo de la IA, se crearán tecnologías que no funcionarán para personas marginadas, o hasta les harán daño. Por ejemplo, coches autónomos que no detectan a los niños, porque los datos que controlan no tienen en cuenta sus comportamientos más caóticos o erráticos. Esto ya ocurría con los airbags, que hacían más daño a las mujeres, porque habían sido diseñados sin tener en cuenta que hay personas con pechos. Hay que prestar atención a las características marginadas o que son tratadas como menores.

Margaret Mitchell, retratada después de su conferencia en el salón Smart City Expo, en Barcelona.Albert Garcia

P. ¿Cuáles son los grupos más discriminados en las IA?

R. Las mujeres negras, personas no binarias, gente de la comunidad LGTBIQ+ y personas latinas. Esto lo ves también en quién trabaja en las compañías tecnológicas y quién no.

P. ¿Cómo se puede garantizar que la tecnología respetará los valores éticos?

R. Diferentes personas pueden tener diferentes valores, y algo que me ayuda a navegar en este problema es la idea del pluralismo de valores. Me preocupa la idea de que la IA debe tener un modelo general de valores, yo prefiero la idea de una IA enfocada en tareas y valores específicos. Tienes que individualizar más los modelos para tener en cuenta los valores en cada situación, el contexto y las características de los datos que recopilas.

Las compañías tienen que revelar los detalles básicos de sus datos de entrenamiento para la inteligencia artificial

P. ¿Falta regulación y transparencia?

R. Las compañías tienen que revelar los detalles básicos de sus datos de entrenamiento para las IA. Quizá no hacerlos públicos para todos, pero sí demostrar a auditores independientes que hay equidad en sus datos y que usan un contexto real, no estereotipado.

P. ¿Qué piensa de los que pedían una pausa en el desarrollo de IA?

R. Fue algo raro. Resultó que venía de un grupo que alertaba sobre los riesgos, pero lo que quería era tener más poder influenciando a los políticos. No iba de hacer las cosas bien, iba de tener poder. Decían que se ha llegado a un punto en el que la IA es beneficiosa, así que había que parar antes de que dañara a la gente. Pero lo cierto es que ya hay gente que está siendo dañada, poblaciones no consideradas por ellos, y esto me hizo sentir asco. Claro está, ahora ellos tienen un sitio en la mesa para discutir sobre regulaciones.

P. ¿Es optimista sobre el futuro de la IA?

R. No lo soy, no. Porque creo que la gente que más probablemente se verá perjudicada por la tecnología no está en los puestos donde se habla de regulaciones, ni toma decisiones en las grandes tecnológicas. Hay cosas que se mueven, hace cuatro años nadie hablaba de ética, pero esto no significa que de aquí a 10 años estemos mejor. Hay muchos caminos beneficiosos para la humanidad y no son los que se están siguiendo.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_

You may also like...