Búsqueda
Mapa web
Sugerencias
Campus UNED

Inteligencia artificial: datos

AVANCE DE LA IA

En 2015, Amazon tuvo que deshacerse del algoritmo de IA que utilizaba para la selección de candidaturas de empleo por hacerse público que este sistema beneficiaba a los candidatos masculinos. Otro tanto ocurrió con el algoritmo de Google que mostraba anuncios a los usuarios, pues había quedado en descubierto que los anuncios mejor pagados eran mostrados de manera más frecuente a hombres que a mujeres.

En 2016, Propublica, una asociación estadounidense, publicó un estudio que demostraba que Compas, el sistema de IA que estaba siendo utilizado en los tribunales de ese país para calcular la probabilidad de reincidencia de los acusados, estaba sesgado contra la población negra.

En 2020, en medio de las restricciones fruto de la pandemia del Covid, Reino Unido decidió sustituir los exámenes correspondientes a la selectividad por un algoritmo que calculara la nota en función de ciertos datos. Este algoritmo resultó perjudicar a aquellos estudiantes que provenían de escuelas públicas.

INTELIGENCIA ARTIFICIAL GENERATIVA

Con la expansión de la inteligencia artificial generativa, comienza a ser frecuente encontrarse con noticias de estafas por suplantación de identidad (que imitan la voz o la forma de escribir de seres queridos), de difusión de videos falsos dirigidos a manipular política o socialmente o incluso de creación de videos pornográficos a través de deep fake.

No es posible negar que la IA, y, sobre todo, la IA Generativa han hecho acto de presencia en nuestras sociedades. El término inteligencia artificial fue nombrado "palabra del año 2022" por la FundeúRAE. Según el Artificial Intelligence Index Report 2024, un 67% de la gente considera tener un buen conocimiento de lo que es la IA, y dos tercios de la población cree que la IA cambiará en gran medida sus hábitos en los próximos años. La IA ya se está utilizando en procesos laborales, sanitarios, jurídicos, educativos, científicos, etc.

RIESGOS DE LA IA

Sin embargo, además de su enorme potencial positivo, la IA comporta grandes riesgos para nuestras sociedades.

Desde hace años, todos estos riesgos se han tratado de enfrentar a través de distintos documentos que, por mor de ser flexibles respecto a nuevos desarrollos y no ejercer demasiada carga contra la innovación, se han quedado muchas veces en papel mojado. En 2019 la UE publicó las Directrices éticas para una IA fiable y en 2020 dio un paso más allá con el Libro Blanco de la IA. En 2021 la UNESCO elaboró la Recomendación sobre la ética de la inteligencia artificial.

Superando el enfoque de soft-law, la UE decidió en 2021 proponer un nuevo Reglamento sobre la IA, que terminó publicándose definitivamente en 2024 y todavía a día de hoy no han entrado en vigor todas sus previsiones. Este RIA trata cinco grandes tipos de sistemas de IA, cuatro de ellos clasificados según el riesgo (IA prohibida, IA de alto riesgo, IA de riesgo limitado e IA de riesgo mínimo) y otro que se califica según su arquitectura (IA de propósito general). En función de su tipo, su puesta en funcionamiento en la UE será más o menos libre o limitada, debiendo cumplir una serie de principios que a través del Reglamento se convierten en norma jurídica. 

Sin limitarnos al RIA, se habla, de una u otra forma, de 7 grandes principios de la IA: respeto a los Derechos Humanos y a la autonomía humana; no discriminación e imparcialidad; protección y calidad de los datos; precisión, solidez y seguridad del sistema; transparencia y explicabilidad; colaboración humana en el diseño; responsabilidad y rendición de cuentas; y control humano.

(Desarrollado por: Ana María Marcos del Cano, Catedrática de Filosofía del Derecho de la UNED, y Miguel de Asís, becario posdoctoral UNED, tesis doctoral sobre inteligencia artificial y derecho).