top of page
Patrícia

Sobre ética y algoritmos a propósito de las entrevistas a Carme Torras y Marta Ruiz Costa-Jussà

Actualizado: 24 oct 2020



He tenido la suerte de entrevistar a dos de las investigadoras en Inteligencia Artificial (IA) más importantes del país: Carme Torras y Marta Ruiz Costa-Jussà, y de conversar con ellas sobre ética y algoritmos, mi tema de investigación en el marco del doctorado en Medios, Comunicación y Cultura de la UAB. Aprovecho que hoy se publica el volumen en el que aparecen las entrevistas para compartir algunas ideas sobre ética de la inteligencia artificial, ideas en las que me basé para las entrevistas y que me gustaría que sirvieran de estímulo para reflexionar en torno a este tema.


La IA está cada vez más presente y en más sectores, esto hace que los algoritmos influyan en nuestro día a día hasta el punto de intervenir en decisiones tan importantes para nuestra vida como un diagnóstico médico, procedimientos judiciales, selección de personal o en la educación, además de condicionar acciones tan cotidianas como las compras, las relaciones sociales u orientarnos en los mapas, entre muchas otras.


Creo que el propósito de la tecnología debería ser la promoción de la prosperidad humana, pero no siempre se usa con esta finalidad. Cuando en el diseño de las aplicaciones tecnológicas no se pone en el centro el bienestar del ser humano, éstas pueden convertirse en peligrosas.


Han sido muchos los autores que a lo largo de la historia han alertado de los problemas cuando, sin reparar en el beneficio social, se considera al avance tecnológico un fin en sí mismo . Lewis Mumford se refirió a esta ceguera tecnológica así: "Las adquisiciones de la técnica jamás se registran automáticamente en la sociedad: requieren igualmente valiosas invenciones y adaptaciones en política, y el irreflexivo hábito de atribuir a los perfeccionamientos mecánicos un papel directo como instrumentos de cultura y civilización pide a la máquina más de lo que ésta puede dar. Careciendo de una inteligencia y buena voluntad social cooperativa, nuestra más refinada técnica no aprovecha a nuestra sociedad del mismo modo que una bombilla de nada sirve a un mono en medio de la selva".


Más allá del mito creado por la ciencia ficción -sobre el hecho que la IA llegue a superar en inteligencia al ser humano y acabe dominándolo- existen problemas que ya sufrimos y que convendría empezar ya a resolver, porque esta tecnología evoluciona a una velocidad exponencial hasta el punto en el que es ella misma la que se autoperfecciona: aprende, se reconfigura y crea copias de sí misma. Gert Leonhart, en Tecnología vs Humanidad, dice que aún estamos a tiempo de “llevar a cabo una aproximación más holística de la gestión de la tecnología con la finalidad de salvaguardar la propia esencia de lo que significa ser humano”. ¿Y cómo aplicar la perspectiva ética a los algoritmos? Leonhard propone hacerse preguntas como estas:

- Esta idea, ¿valora los derechos humanos de cualquiera de los implicados?

- Esta idea, ¿busca reemplazar las relaciones humanas por relaciones con máquinas, o promueve de alguna forma este concepto?

- Esta idea, ¿pone la eficiencia por encima de la humanidad, y busca automatizar lo que no debería ser automatizado, como por ejemplo las interacciones humanas esenciales?


En las entrevistas a las investigadoras abordamos aspectos que tienen que ver con estos problemas, aún pendientes de solucionar y que se producen (coinciden ambas entrevistadas) porque se desarrollan aplicaciones que no están lo suficientemente maduras debido a que no se han evaluado desde un punto de vista tecnoético. Sin embargo, ambas expertas puntualizan que en el sector existe conciencia sobre la necesidad de definir marcos regulatorios y que ya se llevan a cabo numerosos proyectos en este sentido.

Muchas de las consecuencias de este diseño de sistemas inmaduros son conocidas y tienen que ver con los sesgos de los algoritmos. En las noticias ya son habituales los casos de discriminación algorítmica, como el del algoritmo que ha dejado a un joven sin casa, el de la aplicación Compass, la herramienta de la policía de los EEUU que sirve para hacer predicciones de criminalidad que discriminaba a ciudadanos afroamericanos, del caso de Amazon que discriminaba candidatas a posiciones dentro de la empresa porque el algoritmo descartaba los perfiles de género femenino, el sistema de créditos de Apple que concedía préstamos a los hombres pero no a las mujeres a pesar de cumplir los mismos requisitos económicos o el reciente caso de sexismo de algunos de los sistemas de reconocimiento de imágenes por IA más populares, que demostró una investigación de Bikolabs.


Desde la perspectiva ética también cabe mencionar los sesgos de los algoritmos de las plataformas que gobiernan nuestro ecosistema informativo y cultural como Facebook, Google, Netflix o Amazon que, al estar optimizados para conseguir engagement, favorecen la viralización de contenidos estridentes, incentivan el discurso emocional y la desinformación a la vez que promueven el capitalismo de vigilancia a través de estrategias extractivas de datos que han tratado autoras como Marta Peirano o Shoshana Zuboff.


De algunos estos casos también hablamos en las entrevistas, y tanto Torras como Costa-Jussà señalan que la raíz de estos problemas está en la mala calidad de los datos con los que se alimentan los sistemas, es decir, los sesgos algorítmicos se producen al usar bases de datos que no contienen la diversidad necesaria para abordar el problema que se quiere solucionar. En las entrevistas profundizan en este problema, lo explican de una manera muy clara y apuntan soluciones, aseguran, factibles a día de hoy.


A la vez que avanzan las tecnologías de IA también crecen las voces que alertan sobre el retroceso en las libertades que puede suponer la delegación de tareas a la automatización sin las reflexiones éticas correspondientes. José María Lassalle habla directamente del peligro de inhabilitación política del sujeto en las sociedades democráticas, de una “nueva minoría de edad que supone una marcha atrás hacia el conocimiento que promovió la ilustración, que fue iniciada en Grecia y Roma y que considera al individuo como un ser singular y libre, dueño de su persona, de su libertad, de su cuerpo y de las acciones que surgían de su decisión autónoma y responsable” y llama la atención sobre una eventual retirada del humanismo porque la tecnología "ha dejado de ser instrumental para sen inmersiva en la experiencia de lo humano".



Yuval Noah Harari razona que si los algoritmos de Netflix y Amazon pueden elegir por nosotros películas con tanta precisión, podemos acabar confiando a estos sistemas la toma de decisiones más importantes de nuestra vida: "Amazon no tiene que ser perfecto. Solo necesita ser, de media, mejor que nosotros, los humanos. Y eso no es muy difícil, porque la mayoría de las personas no se conocen muy bien a sí mismas, y la mayoría de las personas suelen cometer terribles equivocaciones en las decisiones más importantes de su vida. Más incluso que los algoritmos, los humanos adolecen de insuficiencia de datos, de programación (genética y cultural) defectuosa".



Harari advierte que la consecuencia de esa delegación del poder de decisión a las máquinas puede suponer un retroceso de lo humano "a medida que gobiernos y empresas consigan acceder al sistema operativo humano, estaremos expuestos a una andanada de manipulación, publicidad y propaganda dirigidos con precisión. Nuestras opiniones y emociones podrían resultar tan fáciles de manipular que nos viéramos obligados a fiarnos de los algoritmos de la misma manera que un piloto que sufre un ataque de vértigo no ha de hacer caso de lo que sus propios sentidos le dicen y debe depositar toda su confianza en la maquinaria".


James Bridle llama a esta confianza ciega en la máquina el sesgo de automatización y la ejemplifica con la seguridad que nos proporcionan los GPS. Explica que existen varios casos como el del grupo de turistas que metieron su coche en un lago tras recibir indicaciones del GPS para que abandonasen la carretera principal y se dirigiesen a una rampa de barcos, o el caso del parque Death Valley, en EEUU, un lugar peligroso por sus altas temperaturas, carreteras intransitables y escasez de agua en el que los guardas, ante la cantidad de accidentes similares, ya le han puesto el nombre de 'Muerte por GPS'.


Bridle explica que tras el sesgo de automatización hay otro sesgo, que es aquél que, ante un problema complejo que apremia, nuestro cerebro tiende a buscar la solución más fácil de seguir y de justificar, en sus palabras "La computación, a cualquier escala, es una argucia cognitiva, que descarga en la máquina tanto el proceso de toma de decisiones como la responsabilidad. Reajustamos nuestra visión del mundo para adaptarnos mejor a las alertas y atajos cognitivos constantes que nos proporcionan los sistemas automatizados. La computación sustituye al pensamiento consciente. Pensamos cada vez más como una máquina, o dejamos por completo de pensar".


Carme Torras explica en la entrevista que, antes, a los algoritmos se les encargaban tareas como hacer extractos bancarios. Hoy, sin embargo, se automatizan procedimientos de toma de decisiones que afectan de forma muy directa a la vida de las personas, en consecuencia, dice la investigadora y vicepresidenta del comité de ética del CSIC, la ética ha de jugar necesariamente un papel fundamental.


Las dos entrevistadas están convencidas de que la forma de integrar la IA en cualquier proyecto que lo requiera es combinar la velocidad de la máquina con las potencialidades humanas, que son, según Carme Torras, las que requieren creatividad, las que implican resolución de problemas inesperados (para los que la máquina no puede disponer de estadística) y las basadas en las relaciones humanas en general, en especial aquellas en las que es necesario empatizar para solucionar problemas humanos. Marta Ruiz Costa-Jussà insiste en que tenemos que considerar a los algoritmos como una forma de mejorar a la persona, no de sustituirla.


Ambas entrevistas están enmarcadas en el tema de los sesgos algorítmicos de género. En este sentido, tanto Torras como Costa-Jussà llaman la atención sobre la necesidad de más mujeres en las carreras de ingeniería. Para que una aplicación no tenga sesgos es fundamental que exista diversidad en los equipos de desarrollo, y eso hoy es muy difícil, porque hay muy pocas mujeres ingenieras.


Esta falta de diversidad de género en los equipos causa un problema (que apuntan también las dos) que es que las aplicaciones más utilizadas -como Facebook, Whatsapp o Wikipedia- estén siendo creadas por hombres y esto nos tiene que preocupar, porque el diseño también es reproductor de estereotipos. Para entender el porqué, Marta Ruiz Costa-Jussà hizo el paralelismo con el caso del urbanismo: Se dice que las ciudades diseñadas por mujeres serían sustancialmente distintas: habrían más zonas oscuras iluminadas, más espacios para el juego infantil… en sus palabras: “nos están diseñando la vida los hombres”.


Las entrevistas se acaban de publicar en el XII volumen de Govern Obert Les dades obertes i la intel·ligència artificial: eines per a la igualtat de gènere. Os invito a leerlas (la 4ª y 5ª de las 10), así como todas interesantísimas entrevistas realizadas por mi compañera Carina Bellver. El volumen ha sido coordinado por Storydata y editado por la Generalitat de Catalunya, Departament d’Acció Exterior, Relacions Institucionals i Transparència, Secretaria de Transparència i Govern Obert.



Bibliografía citada:

Mumford, Lewis Técnica y civilización (1979) Alianza Universidad

Leonhart, Gehrt Tecnología versus humanidad (2018) The futures agency

Lassalle, José María Ciberleviatán (2019) Arpa

Noah Harari, Yuval 21 lecciones para el siglo XXI (2018) Penguin Random House

Peirano, Marta, El enemigo conoce el sistema, (2019) Debate

Peiró, Karma (APDCAT) Intel·ligència Artificial: decisions automatitzades a Catalunya (2020), APDCAT

Zuboff, Shoshana The Age Of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, (2018) Hachette





Comments


En las redes sociales

  • X
  • LinkedIn Social Icon
Archivo
Buscar por tags
bottom of page