JPO : Webinar d'information sur nos formations → RDV mardi à 17h30.

Las derivas de la inteligencia artificial ya no necesitan demostración. Así, forzar a la IA a adherirse a principios éticos ha emergido como una preocupación mayor. No obstante, ¿cómo podemos asegurarnos de que los gigantes tecnológicos, inmersos en una competencia desenfrenada, se tomen en serio la integración de estas restricciones en sus desarrollos?

Probablemente lo hayas leído por aquí y por allá. Elon Musk ha criticado a ChatGPT por ser excesivamente «políticamente correcto». De hecho, lejos de mantener una neutralidad, la IA de OpenAI se posiciona como moralista y defensora de ciertas normativas. Manifiesta resistencia a responder preguntas con intenciones deshonestas y aprovecha cualquier oportunidad para reprender a aquellos que, a través de sus cuestionamientos, muestren inclinaciones antidemocráticas o racistas. ¿Es motivo de celebración o preocupación que ChatGPT actúe de esta manera? Esta interrogante es parte de un debate más amplio: la ética en la inteligencia artificial, o por lo menos, el interés en influirla hacia esta dirección.

El debate está lejos de ser innecesario puesto que la potencia de estas máquinas continúa aumentando, ofreciendo predicciones con un nivel de precisión cada vez mayor. Ya la IA supera a los seres humanos en numerosos diagnósticos médicos o análisis legales. Y la lista de sus logros no hace más que crecer.

Las implicaciones negativas de algunas IAs

Los riesgos asociados con la IA no son una novedad y resultan fáciles de enumerar.

Los sesgos sociales

Debido a las circunstancias de su funcionamiento, el material con el que trabaja la IA son datos, y esto lleva a dos consideraciones:

  • Dichos datos pueden contener sesgos derivados del análisis automático de información, ajeno a cualquier predisposición personal. Así, la IA reproduce estos sesgos identificados;
  • Pueden incluir nuestros datos personales, reforzando ciertos prejuicios que mantenemos, en vez de promover una reflexión critica.

De hecho, en varias ocasiones, algunas IAs han demostrado tener sesgos claros. Investigaciones realizadas por las universidades de Washington y Carnegie Mellon, así como en China, por la Universidad de Xi’an Jiaotong, han revelado que algunas IAs generativas manifestaban sesgos sociales, sexistas, entre otros.

ProPublica, por su parte, señaló que una herramienta de IA usada por cortes en Estados Unidos para evaluar el riesgo de reincidencia de criminales había predicho una mayor cantidad de falsos positivos en acusados negros (45%) comparado con los blancos (23%). También se descubrió que un algoritmo de IA de Google rechazaba sistemáticamente los currículos de mujeres para puestos de investigación.

Los peligros inherentes a los deepfakes

Otro desafío: la IA puede crear deepfakes extremadamente convincentes. Desde 2017, actrices como Emma Watson, Scarlett Johansson, o cantantes como Taylor Swift y Katy Perry, han tenido que enfrentar la creación de videos provocadores en los que aparecen sin su consentimiento. Además, los deepfakes han sido empleados con propósitos políticos para intentar manchar la reputación de futuros presidentes de EE. UU. o atribuirles declaraciones que jamás realizaron.

Decisiones difíciles

En el escenario de un vehículo autónomo, es posible concebir situaciones complicadas. El vehículo podría encontrarse en una circunstancia donde deba optar por el menor de los males sabiendo que habrá daños al final. ¿Debería optar por proteger a sus ocupantes a riesgo de poner en peligro a niños pequeños que cruzan la calle? La respuesta es complicada.

¿Qué constituye una IA ética?

Frente a tales riesgos, ha surgido la necesidad de imponer una ética a las IA. Esto se alinea con las tres leyes de la robótica propuestas por el autor Isaac Asimov en su serie de cuentos y novelas, cuya filosofía es que el robot debe siempre proteger y servir a su creador humano, incluso si esto requiere su sacrificio para salvarlo. Actualmente, las IA son objeto de estas reflexiones y toma de posturas.

Una IA ética respetaría tanto al ser humano como al planeta. La UNESCO, tras llevar a cabo numerosas reflexiones sobre el tema, ha declarado la necesidad de respetar una serie de valores considerados fundamentales en nuestras culturas:

  • El respeto a los derechos humanos fundamentales y la dignidad humana;
  • Promover la vida en sociedades pacíficas;
  • Abogar por la diversidad y excluir los prejuicios de género;
  • Respetar el medio ambiente y el clima.

Por su parte, la Unión Europea ha aprobado el AI Act, que entrará en vigor en mayo de 2024. Contiene numerosas cláusulas restrictivas:

  • Limitaciones al reconocimiento facial;
  • Prohibición de establecer una puntuación ciudadana;
  • Obligación de indicar si una imagen ha sido generada por una IA;
  • Etc.

Estas diversas iniciativas buscan enfocarse en una tecnología que avanza a pasos agigantados y establecer salvaguardas antes de que sea demasiado tarde. Pero los colosos tecnológicos están inmersos en una lucha encarnizada por asegurar su posición en este nuevo escenario. ¿Es realista esperar que se tomen el tiempo necesario para reflexionar sobre las consecuencias a largo plazo de las inteligencias artificiales?