«Debemos aspirar a desarrollar una IA que apoye a la humanidad» Dra. Emma Beauxis-Aussalet

Inteligencia Artificial

Los sesgos en IA pueden provocar la pérdida de confianza de los clientes afectando a la reputación de la marca

Cecilia Kindelán

Dra. Cecilia Kindelán

La inteligencia artificial (IA) está alterando profundamente la sociedad en la que vivimos. A nuestro alrededor existen numerosas aplicaciones dirigidas a facilitarnos la vida con este tipo de tecnología, tendencia que irá en aumento progresivamente. Junto a este desarrollo exponencial de la IA, no debemos dejar de lado los aspectos éticos de su explotación y en concreto, los sesgos que pueden formar parte de estas futuras aplicaciones. Cada día tomamos muchas decisiones, y la mayoría de veces, sin saberlo, esas decisiones están sesgadas.

Dra. Emma Beauxis-Aussalet

Recientemente, la doctora Emma Beauxis-Aussalet ha sido reconocida como una de las 100 Mujeres Brillantes en Ética de la inteligencia artificial en 2021 por WAIE (Women in AI Ethics™), una iniciativa global con sede en California que impulsa la presencia de la mujer en el campo de la Inteligencia Artificial (IA). Hace tres años obtuvo su doctorado y se ha especializado en el estudio de los sesgos y en los errores de clasificación que se pueden producir en la programación. En la actualidad, es profesora asistente de computación ética en la Universidad Libre de Amsterdam (VU) y trabaja desde el campo de la educación para promover un uso ético de la IA. Su función radica en crear métodos de medición, matrices y estadísticas correctas para poder obtener un resultado que contemple a toda nuestra sociedad, incluyendo las minorías, evitando los sesgos y los posibles errores de clasificación.

Emma Beauxis-Aussalet se define como solucionadora de problemas, considera la IA como un rompecabezas y defiende que la visualización de datos y el diseño de buenas interfaces pueden ayudar a que personas, sin ser expertas, comprendan la tecnología y vean cómo pueden influir positivamente en ella. Desde su campo de especialización, la Dra. Beauxis-Aussalet desarrolla gráficos para explicar más fácilmente cómo se cometen esos errores en la clasificación. “Cuando se trata de IA, la discriminación es un daño obvio. La ética es la voluntad de prevenir este daño y promover hacer el bien”.

El dato es la nueva moneda

En general, para las empresas el uso del análisis de datos supone una ventaja competitiva puesto que proporciona mucha información para poder tomas decisiones más eficaces, pero según la Dra. Beauxis-Aussalet “es bueno programar con calma porque, aunque con unas pocas líneas de código podemos conseguir un sistema de IA, evitar los errores de sesgo requiere esfuerzo mayor y sobre todo reflexionar sobre el contexto. Es decir, tenemos que asegurarnos que el sistema de datos introducidos contempla al conjunto de la sociedad”. El peligro de hacer una programación rápida y sin reflexión es que aparezcan otro tipo de problemas que pueda afectar al negocio. Se podría perder la confianza del consumidor o encontrarse con problemas legales. Los ingenieros deberían ser capaces de explicar, en términos relativamente sencillos, por qué sus complejos algoritmos llegan a unas conclusiones determinadas.

Si un empresario articula su compleja huella de IA en términos simples, comprensibles y honestos, sus productos tendrán un éxito más sostenible. Es inevitable que la IA esté obligada a recopilar, registrar y usar datos de una manera totalmente transparente. Las marcas que lo descubran hoy tendrán una ventaja frente a la competencia.

Gracias a la transformación digital, ahora más que nunca los clientes tienen mucha más influencia en las compañías, pudiendo ser prescriptores o detractores de productos o empresas. Es una buena noticia descubrir que la ética en el proceso de automatización pueda ser un motivo para incrementar el interés los compradores y por ende las ventas, de manera que las compañías pondrán mucho más interés en este tema y nos beneficie a todos.

Desarrollar la IA para su integración en la sociedad

La IA interpreta el mundo en un sentido, y esto ocasiona una serie de problemas relacionados con los sesgos que la ética se afana por evitar.  Un buen ejemplo es lo que ocurre con los pulsioxímetros utilizados para medir los niveles de oxígeno en sangre de una persona. Según un estudio publicado en el New England Journal of Medicine este aparato falla más en pacientes negros que en blancos. Esta herramienta sobrestima la saturación de oxígeno en estas personas y como resultado, estos pacientes, pueden estar recibiendo oxígeno suplementario inadecuado. El pulsioxímetro se desarrolló y calibró en personas de raza blanca y, como resultado, no lee la información de las personas con un tono de piel más oscuro porque puede normalizar la piel blanca como el valor por defecto. El ejemplo del dispensador automático de jabón es otro caso más en el que el sistema está sesgado y no funciona cuando las manos del usuario no son blancas. Aquí aparece un gran riesgo para las poblaciones minoritarias, porque carecemos de datos de determinadas partes de la sociedad y por lo tanto no se refleja en las tecnologías. “Tenemos una tecnología creada por hombres blancos que beneficia a hombre blancos y se quiere imponer a todo el mundo”, según Joy Buolamwini, investigadora de MIT y fundadora de la Liga de la Justicia Algorítmica. Otro ejemplo, que en este caso afecta negativamente a las mujeres, es el de las ofertas de puestos de trabajo relacionados con la investigación. Como actualmente existen más datos de hombres investigadores que de mujeres la tecnología aplicará su algoritmo y hará que los hombres reciban más ofertas de este tipo de trabajo que a las mujeres.

Para desarrollar una IA que encaje perfectamente con la sociedad es necesario:

  • Entender el impacto que tiene la IA en la sociedad. La Sociedad 5.0. es una sociedad disruptiva porque usa tecnologías disruptivas. Esto nos lleva a un cambio radical, hay que volver a pensar en conceptos muy fundamentales con los que organizábamos la sociedad (ideas básicas en las que se fundamenta la sociedad).
  • Tener presente que la tecnología después de la 4ª revolución industrial ya no es un objeto sino tecnología que se relaciona con su entorno (Internet de las cosas)
  • Ser conscientes de que el objetivo debe ser el de la cooperación entre la tecnología y el hombre. Aprovechar las ventajas del algoritmo (ve más que yo) pero combinarlo con mi experiencia profesional (por ejemplo, como médico).

Retos de la Inteligencia Artificial

Es cierto que ha habido un debate importante sobre los riesgos que plantea la inteligencia artificial para la humanidad y especialmente motivados por el concepto de “machine learning”. Esta noción está relacionada con el aprendizaje automático y profundo por el que las máquinas procesan y analizan información de una manera muy sofisticada y aprenden por sí mismas a realizar funciones complejas que antes eran exclusivas de los humanos.  Pero el riesgo de esto es que la programación que generan se convierte en una especie de caja negra para los humanos por lo que al no entenderla no podemos intervenir en ella. La IA desdibuja los límites entre la máquina y el hombre.

Si un empresario puede articular su compleja huella de IA en términos simples, comprensibles y honestos, sus productos tendrán un éxito más sostenible. Huelga decir que esto se basa en que un fundador entienda los resultados de su IA por sí mismos.

Del mismo modo, todos estamos familiarizados con la creciente reacción de los consumidores en relación con la recopilación y el uso de datos personales imprevistos o mal entendidos. Independientemente de si el gobierno actúa, es inevitable que la IA se vea obligada a recopilar, registrar y usar datos de una manera totalmente transparente. Los empresarios que lo descubran hoy tendrán una ventaja en la competencia.

La Dra. Beauxis-Aussalet comenta que otro de los riesgos de la IA es el de perpetuar los estereotipos socioculturales existentes. Para evitar esto es muy importante que los equipos de programación sean muy diversos, constituidos por personas de diferente género, raza, nacionalidad, condición económica… para obtener resultados que representen lo máximo posible a la realidad.  Además, la práctica de vigilancia de la recopilación de datos y la privacidad de los usuarios por parte de organismos internacionales sería muy positivo. Para evitar las clasificaciones incorrectas de datos y los errores de sesgo es necesario un estímulo de las empresas para que al programar los especialistas velen por el respeto de los derechos humanos y otros valores fundamentales. No se trata de elegir entre dos alternativas, sino de tener una motivación para enseñar a los algoritmos a ser éticos, aunque como vivimos en un marco plural, nuestro marco puede ser diferente. Se trata de pensar y comportarse moralmente y no sólo limitarse aplicar un programa.

 

Si bien existen algunas preocupaciones muy reales en torno a su desarrollo, la IA podría ser lo mejor si se adopta correctamente. Para esto hay que tener en cuenta:

  • Que la IA no es neutral. Las decisiones basadas en la IA son susceptibles a resultados discriminatorios, inexactos y con sesgos insertados.
  • Incluir a las minorías, a las culturas locales y a las poblaciones más vulnerables para que se vean reflejadas en la tecnología. Esto se puede conseguir cuando se tienen equipos diversos porque si a una persona no le afecta una minoría no se dará cuenta.
  • Es muy importante incluir a mujeres en el campo de IA.
  • La falta de transparencia de las herramientas de IA provoca que las decisiones de IA no siempre son inteligibles para los humanos (caja negra debido al machine learning).

Las implicaciones de la IA deben tenerse en cuenta desde el principio del desarrollo. Tomar conciencia de las posibles consecuencias es lo que nos permite abordar cuestiones éticas desde el diseño y no esperar cuando no tengamos ya opción. Debemos aspirar a una IA que apoye a la humanidad y esto implica que los valores humanos deben ser el centro del desarrollo de la IA.

¿Cómo utilizar éticamente la IA?

Si bien existen algunas preocupaciones reales sobre la posibilidad de eliminar algunos tipos de trabajos, la IA también podría crear áreas de trabajo completamente nuevas. La aplicación de la IA en las empresas también obligará a evolucionar el mercado laboral, lo que, con la preparación adecuada, podría ser algo muy bueno. La nueva demarcación social será entre las personas que tengan flexibilidad para adaptarse y capacidad de resiliencia para descubrir quiénes son y quiénes desean ser como resultado de este cambio.

A veces, los temores están bien fundados, y otras no, pero, de cualquier manera, disipemos la ansiedad en torno a la IA y centrémonos en lo bueno que nos puede aportar porque lo que es cierto es que el genio de la nueva tecnología no puede volver a meterse en la botella. Todo lo que podemos hacer es aprender a usarlo sabiamente y en nuestro beneficio. Las recomendaciones serían las siguientes:

  • Una sola persona o equipo no puede ser consciente de todo el contexto. Involucrar a múltiples partes interesadas. Promover la diversidad en los equipos.
  • Observar el impacto que realmente no se desea y examinar cómo se pueden ajustar los mecanismos para evitarlo o reducirlo.
  • No se trata solo del sistema de inteligencia artificial, sino de todo el contexto en el que se producen las cosas. Aspectos como el bien y el mal surgen en contexto. Por eso hay que ser flexible.

Para proteger el futuro, necesitamos hacer las cosas bien hoy porque las decisiones que tomamos hoy dictan dónde terminaremos mañana, por eso es tan importante ir con calma y reflexionar sobre las implicaciones.

Responsabilidad

Otra cuestión importante relacionada con la ética en la IA es comprender más claramente en dónde reside la responsabilidad. Para esto la tecnología debe ser transparente para que el usuario pueda influir en ella. Los ingenieros son responsables de las tecnologías que desarrollan y de introducirlas en la sociedad por esto necesitamos un marco que nos guíe el desarrollo de las tecnologías. Hay que educar a estos sistemas para que se hagan responsables, antes de que tomen el control y eviten el “estos errores no son culpa mía”. “Me optimizaron para ser eficiente”. “No hay ningún algoritmo que me explique cómo ser justo”. Preocupa mucho lo que hacen las corporaciones con los datos, por lo que debería haber un organismo regulador que supervise en esta era de automatización. Es necesario vincular la ética con la tecnología en un mundo en el que se encuentran muy desconectados.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *