• Trujillo
  • Táchira
  • Mérida
  • Andes Legales
  • Revista Andina
viernes, 16 mayo 2025
Diario de Los Andes
  • Inicio
  • Actualidad
    • Entretenimiento
    • Bienestar
  • Deportes
  • Economía
  • Mundo
  • Opinión
    • Sentido de Historia
  • Política
  • Sucesos
  • Trujillo
    • Boconó
  • Táchira
  • Mérida
  • Revista Andina
No Resultados
Ver todos los resultados
  • Inicio
  • Actualidad
    • Entretenimiento
    • Bienestar
  • Deportes
  • Economía
  • Mundo
  • Opinión
    • Sentido de Historia
  • Política
  • Sucesos
  • Trujillo
    • Boconó
  • Táchira
  • Mérida
  • Revista Andina
No Resultados
Ver todos los resultados
Diario de Los Andes

No Resultados
Ver todos los resultados
Inicio Actualidad

Algoritmos que discriminan: la inteligencia artificial vs derechos humanos

por Agencia EFE
14/12/2020
Reading Time: 4 mins read
Máquinas decidiendo quién recibe un subsidio o en qué barrio hay que reforzar la vigilancia policial. La inteligencia artificial (IA), útil, por ejemplo, en la lucha contra una pandemia, puede también perpetuar y reforzar prejuicios, como advierte la Unión Europea (UE) en un informe que se publica hoy. EFE

Máquinas decidiendo quién recibe un subsidio o en qué barrio hay que reforzar la vigilancia policial. La inteligencia artificial (IA), útil, por ejemplo, en la lucha contra una pandemia, puede también perpetuar y reforzar prejuicios, como advierte la Unión Europea (UE) en un informe que se publica hoy. EFE

Compartir en FacebookCompartir en TwitterComparteComparte

Viena, 14 dic (EFE).- Máquinas decidiendo quién recibe un subsidio o en qué barrio hay que reforzar la vigilancia policial. La inteligencia artificial (IA), útil, por ejemplo, en la lucha contra una pandemia, puede también perpetuar y reforzar prejuicios, como advierte la Unión Europea (UE) en un informe que se publica hoy.

«La IA puede ser usada potencialmente en todas las áreas de la vida y eso significa que puede chocar con todos los derechos fundamentales», resume en una entrevista con Efe David Reichel, investigador de la Agencia de Derechos Fundamentales (FRA) de la Unión Europea, responsable del informe.

Bajo el nombre «Construir un buen futuro: la inteligencia artificial y los derechos fundamentales», el trabajo se basa en docenas de entrevistas con funcionarios de la administración pública y empleados de empresas privadas que diseñan y usan esa tecnología.

Aunque el conflicto entre nuevas tecnologías y protección de datos es conocido, la FRA ha querido ir más allá y atajar la falta de conciencia sobre el potencial ataque a otros derechos, como el de no ser discriminado o a tener asistencia social, que puede suponer el uso erróneo de la IA.

 

UN ALGORITMO PARA COBRAR EL PARO

La FRA plantea escenarios en los que programas informáticos basados en algoritmos deciden, en parte, quién recibe un crédito, una póliza de seguro o un subsidio social, usando como criterio datos sobre el sexo, la edad, la raza o la nacionalidad de los solicitantes.

Lea también

Colombia ya es el tercer país del mundo con más desplazados por la violencia: 7,3 millones de personas

Colombia ya es el tercer país del mundo con más desplazados por la violencia: 7,3 millones de personas

16/05/2025
Carlos Vives honra a Escalona y Gabo con nueva versión de álbum ganador de un Latin Grammy

Carlos Vives honra a Escalona y Gabo con nueva versión de álbum ganador de un Latin Grammy

16/05/2025
Andreina Baduel denuncia desconocer si su hermano encarcelado «sigue con vida»

Andreina Baduel denuncia desconocer si su hermano encarcelado «sigue con vida»

16/05/2025
Foro Penal: «algunos presos extranjeros» en Venezuela se han comunicado con sus familias

Foro Penal: «algunos presos extranjeros» en Venezuela se han comunicado con sus familias

16/05/2025

«El uso de algoritmos por la administración pública en las prestaciones sociales despierta graves preocupaciones sobre su negativo impacto en la pobreza y la desigualdad, si se aplica erróneamente en el área de las prestaciones sociales», dice la FRA.

Reichel reconoce que esos problemas pueden darse en ámbitos como la selección de personal para determinados puestos, con herramientas de IA prefiriendo a hombres sobre mujeres porque se basan en estadísticas de ocupación ya existentes.

O en la vinculación de la criminalidad con la inmigración, al llegar a conclusiones erróneas analizando la ecuación pobreza-crimen-emigración.

 

DISCRIMINACIÓN POLICIAL

«Hay ejemplos de predicción policial que puede llevar a una excesiva vigilancia policial de ciertos barrios donde viven particularmente gente de distintos orígenes étnicos», señala Reichel.

En ese sentido, la FRA advierte que es discriminatorio crear perfiles policiales mediante algoritmos elaborados según el análisis informáticos de datos que sólo incluyen la raza, el origen étnico, el género o la religión.

Reichel dice que estos sistemas pueden no sólo perpetuar la desigualdad existente en los datos con los que se alimenta el sistema, sino también reforzarla, porque los algoritmos permiten tomar decisiones a mayor escala y con más eficacia.

La agencia de la UE señala que los prejuicios y la discriminación en la toma de decisiones por algoritmos que utilizan la inteligencia de datos, o big data, «son difíciles de detectar y de mitigar».

«A menudo, la calidad de los datos y los sesgos en ellos son la fuente de tratamientos potencialmente discriminatorios o injustos», advierte el informe.

La FRA insiste en que los sistemas de inteligencia artificial no son infalibles ya que, al fin y al cabo, están creados por humanos.

Por ejemplo, se ha demostrado que los sistemas de reconocimiento facial funcionan mucho mejor con los hombres blancos que con las mujeres negras, porque fue probado principalmente en ese grupo.

En general, Raichel reconoce el problema que supone que estos sistemas estén mayoritariamente creados por hombres jóvenes y blancos, ya que pueden trasferir a esas herramientas sus propios prejuicios y concepciones del mundo.

Por eso, afirma, es esencial asegurar la diversidad entre quienes programan los sistemas de IA y analizar sus decisiones en el contexto adecuado, para ver si las conclusiones son correctas o no.

 

ATAJAR YA EL DESAFÍO

Este reporte pretende ser tanto un aviso sobre futuros problemas, como una advertencia de situaciones que ya existen.

«Lo que vemos es que la IA ha llegado a nuestra sociedad y se usa en muchas áreas, pero también que muchas técnicas se están desarrollando aún», dice Raichel, que asegura que es el momento de atajar el desafío porque «los problemas se pueden resolver más fácilmente si empiezas a evaluar la tecnología antes de usarla».

 

¿CULPAR A UNA MÁQUINA?

Otra cuestión que destaca la FRA es la de quién es responsable cuando un sistema de inteligencia artificial toma una decisión errónea y si se puede reclamar contra una máquina.

La agencia de la UE destaca que es imprescindible que los ciudadanos sepan cuándo son sistemas automáticos los que toman decisiones, cómo se puede reclamar e incluso, recibir información, sin entrar en complejidades técnicas, sobre cómo funciona la IA.

«La complejidad no es excusa para decir ‘no somos nosotros, es el ordenador'» el que tomó la decisión, señala Reichel.

El informe no menciona el papel y la responsabilidad de empresas como Google o Facebook, pioneras en el uso masivo de la IA, porque, según el experto, el objetivo de este primer reporte era analizar usos de esas tecnología en empresas e instituciones europeas.

«Tenemos otros proyectos, para recopilar más pruebas sobre cómo puede haber prejuicios en los algoritmos», dice Raichel, quien reconoce que este informe es sólo una «instantánea» de la situación y que queda mucho trabajo por hacer. Antonio Sánchez Solís

Tags: DDHHIAInteligencia Artificial (IA)Teconología
Siguiente
La otra reconversión monetaria que avanza en Venezuela

La otra reconversión monetaria que avanza en Venezuela

Publicidad

Última hora

Colombia ya es el tercer país del mundo con más desplazados por la violencia: 7,3 millones de personas

Barcelona se lanza a la calle para festejar el triplete del Barça

Carlos Vives honra a Escalona y Gabo con nueva versión de álbum ganador de un Latin Grammy

Andreina Baduel denuncia desconocer si su hermano encarcelado «sigue con vida»

Foro Penal: «algunos presos extranjeros» en Venezuela se han comunicado con sus familias

Publicidad

Diario de Los Andes

Ediciones

  • Trujillo
  • Táchira
  • Mérida
  • Andes Legales
  • Revista Andina

Síguenos

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Resultados
Ver todos los resultados
  • Trujillo
  • Boconó
  • Táchira
  • Mérida
  • Inicio
  • Actualidad
  • Entretenimiento
  • Bienestar
  • Política
  • Deportes
  • Sucesos
  • Mundo
  • Opinión
  • Sentido de historia
  • Economía
  • Revista Andina
  • Andes Legales