Una ética para la inteligencia artificial: libertad, feminismo y ecologismo

Lucía Ortiz de Zárate Alcarazo

Foto de Barbara Zandoval en Unsplash

Las tecnologías de inteligencia artificial (IA) han emergido con fuerza durante los últimos años llegando a convertirse en el foco de acaloradas discusiones no solo en el ámbito tecnológico, sino también político, académico, filosófico y la esfera pública en su conjunto. Las promesas de mejora y progreso que se atribuyen a la IA se entremezclan con las preocupaciones que generan los posibles riesgos que estas tecnologías pueden producir tanto a escala individual como en el conjunto de la ciudadanía y los sistemas democráticos.[1]

Aunque estos debates son útiles y sin duda necesarios, casi todos ellos asumen 1) que la adopción de la IA es inevitable y 2) que estas tecnologías son neutrales y sus efectos nocivos o beneficiosos dependen del uso que se haga de ellas. En este artículo abordamos brevemente tres grupos de problemas éticos –privacidad, autonomía humana y libertad; sesgos, discriminación e igualdad; y crisis ecosocial– que surgen en torno a la IA y que, de distinto modo, ponen de relieve como estas tecnologías, lejos de ser neutrales, son inherentemente políticas y, por tanto, su adopción responde a un compromiso con ciertos proyectos ideológicos[2]. Desde esta perspectiva la IA no es un conjunto de tecnologías neutrales, sino una industria que se vale de la extracción y explotación no solo de los recursos naturales, sino también de nuestros datos y nuestros cuerpos.

 Algunos problemas éticos de la IA

Privacidad, autonomía humana y libertad. Una de las componentes esenciales que necesita cualquier sistema de IA para poder funcionar son los datos. Los datos son la información, la experiencia si usamos una metáfora humana, de la que se nutren los algoritmos (los sistemas de reglas) que permiten que la IA funcione. Grosso modo, podríamos decir que los algoritmos aprenden de los datos a extraer las relaciones y los resultados más probables. Identifica patrones que se encuentran presentes en los datos y así puede hacer estimaciones precisas. Por este y otros motivos la recopilación de datos es una práctica que tiene lugar diariamente de forma masiva y que nos afecta a todos.

En este contexto, muchos planteamientos éticos vinculados a la recopilación explotación y uso de los datos se plantean en relación con los problemas que estas prácticas pueden suponer, primero, para la privacidad. Los datos que se recopilan a través de nuestros relojes inteligentes, el consumo de películas y plataformas en streaming, etc, pueden contener y eventualmente revelar información extremadamente privada sobre nuestras vida como nuestra orientación sexual[3], nuestras prácticas sexuales, nuestra vida sentimental, familiar, y muchas otras cuestiones que con casi toda seguridad no compartiríamos con una persona de poca confianza y, aún menos con un extraño[4].

Pero los problemas relacionados con los datos también pueden producir problemas en relación con la autonomía humana y la libertad individual. En relación con la autonomía humana el problema se encuentra relacionado con la pérdida de la capacidad para pensar y tomar decisiones por nosotros mismos en una sociedad donde el uso de algoritmos de IA es cada vez mayor. Pensemos que cuando Netflix o cualquier plataforma de streaming nos hace una recomendación sobre qué película o serie podríamos ver, casi automáticamente desaparece un abanico entero de posibles contenidos que podríamos haber elegido si hubiéramos sido nosotros los que hubiéramos hecho la selección. El problema aquí no es tanto que la recomendación en base a nuestras elecciones previas, sino nuestra predisposición a mantenernos dentro de las películas seleccionadas por el algoritmo.

En el caso de las plataformas de streaming esto puede ser algo anecdótico, pero ¿qué sucedería si este tipo de sistemas se usaran para recomendarnos que nuevos productos disponibles en el supermercado nos gustarán más en base a nuestras preferencias alimenticias? ¿Y si las recomendaciones fueran sobre qué carrera estudiar, qué universidad elegir, dónde veranear o con quién tenemos más posibilidades de construir una relación sentimental duradera? Nuestra tendencia no solo a considerar, sino en muchos casos a adoptar las recomendaciones de la tecnología puede resultar muy problemática si el número de ámbitos en los que estas actúan aumenta. Aunque seamos nosotros los que creemos tener la última palabra, lo cierto es que este tipo de recomendaciones acotan nuestro rango de actuación y en muchos casos eliminan siquiera la posibilidad de plantearnos otras preferencias, caminos y/o alternativas que rompan con ese sendero que los algoritmos marcan a partir de nuestros gustos previos.

Además de la pérdida de autonomía humana, la recopilación y uso masivo de datos también puede afectar a la libertad individual. En la tradición liberal que predomina en los países occidentales la libertad se entiende como la ausencia de interferencia para actuar de la forma que nosotros consideramos más adecuada siempre y cuando esta se mantenga dentro de los límites que permiten la convivencia dentro de una comunidad política[5][6]. Para ejemplificar como la IA afecta a esta idea de libertad normalmente se recurre al uso que hace China de estas tecnologías. El sistema de crédito social chino funciona a través de la recopilación de ingentes cantidades de datos sobre sus ciudadanos para sancionarlos o premiarlos en función de cómo de “cívica” haya sido su conducta. Así, por ejemplo, a los ciudadanos que hayan acumulado una serie de faltas, como ausencias a citas médicas o cruzar la calle con un semáforo en rojo, puede llegar a prohibirles realizar vuelos internacionales[7]. En este sentido, resulta evidente como ciertas formas de uso de nuestros datos puede entrar en conflicto con la libertad individual de las personas.

Aunque en Europa este tipo de sistemas estarán prohibidos según la regulación de IA[8], cabría preguntarse hasta qué punto, por ejemplo, el uso de sistemas de IA para determinar a qué personas se les otorga un crédito bancario y a quiénes se les deniega, controlar las fronteras, otorgar visados, etc., constituyen o no actos contrarios a la libertad. Si atendemos a otras formas de entender la libertad que se salgan del marco del liberalismo como, por ejemplo, la que se maneja dentro del marco del republicanismo donde la libertad no se entiende con relación al individuo, sino a la comunidad en su conjunto[9], entonces encontramos que es posible que los sistemas de IA preserven la libertad individual, es decir, no interfieran en nuestra vida, y, sin embargo, no nos permitan ser ciudadanos libres[10].

El concepto de libertad como no dominación que opera en el seno del republicanismo muestra cómo, a ojos del liberalismo, un esclavo podría ser considerado libre si tuviera un amo muy bueno que le permitiese hacer lo que quisiera. El hecho de que el esclavo elija sus actos no le hace menos esclavo, pues siempre se encuentra bajo el control de su amo. En este sentido, el republicanismo y sus versiones contemporáneas ofrecen unas nuevas lentes con las que problematizar la IA y ser más críticos con estas tecnologías. Estas reflexiones apuntan a que aún en aquellas circunstancias en las que la IA no llegase a interferir directamente en nuestra vida, el hecho de que estas tecnologías se materialicen en todos los ámbitos de nuestra vida convierte a las empresas que recopilan nuestros datos en dueños de nuestras vidas. En el capitalismo de la vigilancia en el que son otros los que disponen de nuestros datos y los que eligen cómo y cuándo usarlos, nosotros, la ciudadanía, dejamos de ser libres[11].

Sesgos, discriminación e igualdad. En relación con los datos no solo importa cuántos datos se recopilen. También hay problemas éticos que surgen en función del tipo de datos que se usen para nutrir los sistemas IA. Como mencionábamos en el apartado anterior la IA aprende de los datos con los que se le entrena, principalmente, buscando patrones de repetición que le permitan identificar las relaciones más probables en función de la frecuencia. El entrenamiento y uso de datos de mala calidad y poco representativos en el caso de la IA puede producir problemas de discriminación y, por tanto, resultados que generan situaciones incompatibles con la justicia entendida en términos de igualdad[12].

Los problemas de discriminación en la IA pueden tomar distinta forma y se pueden deber a cuestiones de raza, etnia, género, clase social, religión, lenguaje, etc[13]. Estos problemas se producen cuando los datos de los que se nutren los sistemas de IA no son representativos y, al contrario, tiende a sobrerrepresentar a unos colectivos frente a otros. En la medida que la IA, como sucede de manera generalizada en el ámbito científico-tecnológico, es marcadamente androcéntrica los datos suelen representar con mayor frecuencia a los hombres blancos antes que a cualquier otro grupo de personas. Así, desde que estas tecnologías han empezado a operar entre nosotros se han ido descubriendo este tipo de sesgos que generan discriminación.

Para ilustrar esta problemática podemos usar el ejemplo del sistema IA que hace unos años puso en marcha Amazon para optimizar su proceso de selección de personal y elegir a los mejores candidatos para un puesto[14]. Sin embargo, al poco tiempo de tener en funcionamiento este sistema, la compañía se dio cuenta de que a los currículums de mujeres se les asignaba, de manera sistemática, una puntuación más baja que a la de los hombres. Tras analizar qué estaba sucediendo descubrieron que en los datos con los que se había entrenado al algoritmo, que procedían de los procesos de selección de personal de la empresa durante los 10 años anteriores, había una desproporcionada presencia de hombres. Esto provocó que el algoritmo encontrase un patrón de repetición claro: si en el pasado más hombres se habían presentado para ocupar un puesto y habían sido seleccionados, entonces debe ser que ellos son más aptos para ese cargo. De este modo que cuando esta IA se puso en funcionamiento empezó a tomar la variable “hombre” como algo positivo, tal y como podría haber sido el tener más años de experiencia en un puesto similar o una formación especializada en el área de contratación.

Como hemos señalado antes, los sesgos también pueden producirse por cuestiones de raza. El proyecto Gender Shades analizó tres sistemas de reconocimiento facial y demostró como los rostros de personas negras eran identificados con menos precisión que los de personas blancas de manera sistemática. Uno de los sistemas, desarrollado por Microsoft, identificaba correctamente el 100% de las caras de hombres blancos, en el caso de los hombres negros el porcentaje de aciertos era del 94%. Las cifras de IBM eran incluso peores, frente al 99,7% de hombres blancos correctamente identificados el de hombres negros era del 88%. Si al color de la piel le sumamos la variable del género, entonces la diferencia es aún mayor. Frente al 100% de hombres blanco bien identificados por el sistema de Microsoft, este solo acertaba con el 79,2% de las mujeres negras. En el caso de IBM la diferencia era del 99,7% para los hombres blancos al 65,3% para las mujeres negras.

Estos y otros ejemplos muestran como la IA está sesgada en distintos sentidos, produce situaciones discriminatorias y evidencia de falta de neutralidad. Estos problemas no son fallos o errores puntuales que se den en la tecnología, sino que son el resultado de una forma de pensar, entender y hacer ciencia y tecnología desde presupuestos marcadamente androcéntricos y blancos. La IA, como el resto de las tecnologías, ha sido (y continúa siendo) imaginada, diseñada y usada no solo en el marco de un sistema patriarcal, sino también capitalista en el que la norma, el dato estándar, es el del hombre blanco occidental. Esta realidad que permea las estructuras de la IA, y todas las disciplinas científico-técnicas, son el verdadero motivo de las sistemáticas discriminaciones y situaciones de desigualdad producidas por la tecnología y evidencia que estas son indisociables de proyectos ideológicos, así como ciertos contextos políticos y sociales. Si buscamos construir sociedades justas en la que todos los ciudadanos y ciudadanas sean libres e iguales, entonces debería ser una prioridad no solo acabar con los sesgos, sino cuestionar el proyecto actual de IA. La tarea por delante no es sencilla, la igualdad en la IA no solo depende del uso de bases de datos que representen en igualdad de condiciones a los colectivos que se verán afectados por sus decisiones y/o recomendaciones, también implica revisar los propios fundamentos tecnológicos, científicos, políticos, económicos y sociales que han permitido que la IA surja con tanta fuerza y amenace con convertirse en un ser omnipresente en nuestra sociedad.

Crisis ecosocial. Desde finales del s. XX las tecnologías digitales han sido presentadas como radicalmente contrarias a las tecnologías industriales de la primera y la segunda revolución industrial y, por tanto, como limpias, respetuosas con el medioambiente, casi independientes de infraestructura y normalmente asociadas a trabajos de gran valor social que necesitan de alta cualificación. Así lo reflejan los distintos discursos sobre tecnologías como la IA que se encuentran plagados de metáforas ecológicas como “la nube”, “redes neuronales”, “montañas de datos”, “granjas de datos”, etc., que nos hacen relacionar estas tecnologías con el respeto a la naturaleza y un futuro verde[15]. Metáforas que tratan de ocultar una realidad muy distinta: que la IA, lejos de ser un ente casi etéreo similar a una nube, es tan material y contaminante como una mina.

De la mina proceden los materiales que se necesitan para fabricar las tecnologías de IA. Materiales como el cobre, el níquel, el litio, las tierras raras, etc., se han convertido en elementos esenciales cuya extracción genera un impacto ecológico tremendo y su apropiación, conflictos geopolíticos serios. Y es que, por un lado, buena parte de estos materiales críticos, también conocidos como CRM[16], se encuentran en suelo chino y ruso, así como en otros países como Brasil, India, Chile, Bolivia, etc. Solo una pequeña parte de ellos se encuentra en territorio europeo. Por otro lado, las prácticas de extracción asociadas a la minería producen erosión, pérdida de biodiversidad, devastación de la vegetación cercana, contaminación de las aguas, deforestación, etc. Además, la minería, el refinamiento de materiales, la manufactura fuera de Europa, etc., suele estar vinculada a unas condiciones laborales pésimas para los trabajadores implicados[17].

Una vez se dispone de los materiales adecuados y estos son manufacturados su transporte a Europa también produce un impacto ecológico importante. En 2017, el transporte a través de barcos mercantes, utilizados, entre otros fines, para transportar los productos y las tecnologías de IA, fue responsable del 3,1% de las emisiones globales de CO2, lo que supera, por ejemplo, las emisiones producidas por un país como Alemania[18]. Asimismo, los cables submarinos a través de los cuales se transmite gran parte de la información que necesita la IA para funcionar producen un impacto medioambiental muy alto y son una realidad normalmente opacada al hablar de IA.

La minería, el refinamiento, la manufacturación y el transporte ponen de relieve que lejos de ser realidades no contaminantes, la IA es un grupo de tecnologías que necesita de una amplísima infraestructura (mucho mayor que la de las tecnologías industriales) para funcionar. Una infraestructura que se extiende también dentro de las fronteras europeas. Los centros de datos donde se almacena la información –nuestros datos– que usa la IA también son realidades materiales que permanecen con frecuencia ocultas y que, sin embargo, consumen una gran cantidad de energía. En el año 2018, los centros de datos europeos consumieron el 2,7% de la energía eléctrica producida en la UE y las predicciones más optimistas, en el caso de que las ganancias en eficiencia energética crezcan al mismo ritmo que el consumo, estiman que este alcance el 3,21% en 2030. En el caso de que eficiencia y consumo no vayan de la mano este último podría alcanzar el 6%[19].

Y es que, ya en 2011, si la computación en la nube fuera considerado un país, esta sería el sexto país del mundo que más energía eléctrica demanda[20]. Entre 2012 y 2014 la industria de las tecnologías de la comunicación y la información (TIC) consumió tanta energía eléctrica como el tercer país más contaminante del mundo, solo detrás de EEUU y China[21]. También el entrenamiento de algoritmos como ChatGPT y otros grandes modelos de lenguaje consume grandes cantidades de energía que suelen ser pasadas por alto. Se estima que entrenar a ChatGPT-3 ha «generado 500 toneladas de CO2, el equivalente a ir y volver a la Luna en coche»[22]. Además, «el uso que se habría hecho de electricidad en enero de 2023 en OpenAI, la empresa responsable de ChatGPT, podría equivaler al uso anual de unas 175.000 familias danesas»[23], aunque se apunta que estas familias no son las que más consumen en Europa.

Finalmente, el reciclaje de los desechos electrónicos que se derivan del uso masivo de tecnología, entre ellas las de IA, no es todavía una práctica totalmente extendida en la UE. Gran parte de estos desechos se trasladan a países como Ghana o Pakistán donde son acumulados produciendo un deterioro del entorno y las especies que lo habitan a través de la acidificación de las aguas, la expulsión de gases tóxicos, la pérdida de biodiversidad, etc. Esta realidad pone de relieve una forma de funcionamiento de la IA muy distinta a la narrativa de los datos y los algoritmos que solemos escuchar. Al contrario, plantea serias dudas sobre si los discursos políticos, económicos y académicos qué presentan a la IA como una aliada fundamental para luchar contra el cambio climático están o no en lo cierto y si esta no sirve más bien para hacer greenwashing y seguir justificando y legitimando el consumo ilimitado en Occidente sin importar el impacto socioecológico que ello implique.

Conclusiones

Los problemas éticos que hemos expuesto en este texto son solo algunos de los que surgen en torno al diseño, adopción y uso de estas tecnologías[24]. La elección de estos y no otros se debe a que apuntan a problemas de fondo asociados el proyecto de IA en su conjunto, no a una simple enumeración de debates éticos que parten de la asunción de que dicho proyecto es bueno y/o deseable en sí mismo. El impacto socioecológico de la IA, junto a sus implicaciones para la libertad, las mujeres y otros colectivos vulnerables, pone de relieve que estas tecnologías son mucho más que sistemas enfocados a tomar decisiones iguales o mejores que las humanas, sino que más bien constituyen una idea, una forma de entender y ejercer el poder, una infraestructura y una industria extractivista de nuestros de recursos naturales, nuestros datos y nuestros cuerpos. En este sentido, la reflexión ética y política sobre la IA nunca debería limitarse a asumir los marcos tecnooptimistas que se nos imponen dentro del capitalismo y, más bien, debería a apuntar hacia como construir futuros ecológicos y socialmente justos en los que la tecnología no sea la única solución a nuestros problemas y la vía preferencial hacia el progreso.

Referencias:

Este texto forma parte de la colaboración entre ESPACIO PUBLICO y FUHEM ECOSOCIAL. Fue publicado en Papeles de relaciones ecosociales y cambio global, núm. 164, invierno 2023/2024, pp. 33-43.

[1]Mariarosaria Taddeo y Luciano Floridi, «How AI can be a force for good», Science361(6404), 2018, pp. 751-752.

[2] Langdon Winner, El reactor y la ballena, Gedisa, 2013.

[3] Ryan Singel, «Netflix Spilled Your Brokeback Mountain Secret, Lawsuit Claims», Wired, 17 de diciembre de 2009.

[4]Carissa Veliz, Privacidad es poder, Debate, 2021.

[5] John Stuart Mill, Sobre la libertad, Alianza, 2013.

[6] Isaiah Berlin, Sobre la libertad, Alianza, 2017.

[7] Charlotte Jee, «China’s social credit system stopped millions of people from buying travel tickets», MIT Technology Review, 4 de marzo de 2019.

[8] Lucía Ortiz de Zárate Alcarazo, «La regulación europea de la IA», ABC, 21 de marzo de 2023.

[9] Quentin Skinner, Liberty before Liberalism, Cambridge University Press, 2012.

[10] Filip Biały, «Freedom, silent power and the role of an historian in the digital age–Interview with Quentin Skinner», History of European Ideas, 48(7), 2022, pp. 871-878.

[11] Shoshana Zuboff, La era del capitalismo de la vigilancia. La lucha por un futuro humano frente a las nuevas fronteras del poder, Paidós, 2020.

[12] Lucía Ortiz de Zárate Alcarazo, «Sesgos de género en la inteligencia artificial», Revista de Occidente, 502, 2023.

[13] Naroa Martinez y Helena Matute, «Discriminación racial en la Inteligencia Artificial», The Conversation, 10 de agosto de 2020.

[14] Jeffrey Dastin, «Amazon scraps secret AI recruiting tool that showed bias against women», Reuters, 10 de octubre de 2018.

[15] Allison Carruth, «The digital cloud and the micropolitics of energy», Public Culture26(2), 2014, pp. 339-364.

[16] De sus siglas en inglés Critical Raw Materials.

[17] Kate Crawford, Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021.

[18] Zoe Schlanger. «If Shipping Were a Country, It Would Be the Sixth-Biggest Greenhouse Gas Emitter», Quartz, 17 de abril de 2018.

[19] Francesca Montevecchi, Therese Stickle, Ralph Hintemann, Simon Hinterholzer, Energy-efficient Cloud Computing Technologies and Policies for an Eco-friendly Cloud Market, Comisión Europea, 2020.

[20] Tom Dowdall, David Pomerantz y Yifei Wang, Clicking Green. How companies are creating the green internet, Greenpeace, 2014.

[21] Adrián Almazán, «¿Verde y digital?», Viento Sur: por una izquierda alternativa, 173, 2020, pp.61-73.

[22] Manuel Pascual, «El sucio secreto de la Inteligencia Artificial», El País, 23 de marzo de 2023.

[23]Ibidem

[24] Mark Coeckelbergh, Ética de la inteligencia artificial, Catedra, 2021.