Las derivas de la inteligencia artificial ya no necesitan demostración. Así, forzar a la IA a adherirse a principios éticos ha emergido como una preocupación mayor. No obstante, ¿cómo podemos asegurarnos de que los gigantes tecnológicos, inmersos en una competencia desenfrenada, se tomen en serio la integración de estas restricciones en sus desarrollos?
Probablemente lo hayas leído por aquí y por allá. Elon Musk ha criticado a ChatGPT por ser excesivamente «políticamente correcto». De hecho, lejos de mantener una neutralidad, la IA de OpenAI se posiciona como moralista y defensora de ciertas normativas. Manifiesta resistencia a responder preguntas con intenciones deshonestas y aprovecha cualquier oportunidad para reprender a aquellos que, a través de sus cuestionamientos, muestren inclinaciones antidemocráticas o racistas. ¿Es motivo de celebración o preocupación que ChatGPT actúe de esta manera? Esta interrogante es parte de un debate más amplio: la ética en la inteligencia artificial, o por lo menos, el interés en influirla hacia esta dirección.
El debate está lejos de ser innecesario puesto que la potencia de estas máquinas continúa aumentando, ofreciendo predicciones con un nivel de precisión cada vez mayor. Ya la IA supera a los seres humanos en numerosos diagnósticos médicos o análisis legales. Y la lista de sus logros no hace más que crecer.
Los riesgos asociados con la IA no son una novedad y resultan fáciles de enumerar.
Debido a las circunstancias de su funcionamiento, el material con el que trabaja la IA son datos, y esto lleva a dos consideraciones:
De hecho, en varias ocasiones, algunas IAs han demostrado tener sesgos claros. Investigaciones realizadas por las universidades de Washington y Carnegie Mellon, así como en China, por la Universidad de Xi’an Jiaotong, han revelado que algunas IAs generativas manifestaban sesgos sociales, sexistas, entre otros.
Otro desafío: la IA puede crear deepfakes extremadamente convincentes. Desde 2017, actrices como Emma Watson, Scarlett Johansson, o cantantes como Taylor Swift y Katy Perry, han tenido que enfrentar la creación de videos provocadores en los que aparecen sin su consentimiento. Además, los deepfakes han sido empleados con propósitos políticos para intentar manchar la reputación de futuros presidentes de EE. UU. o atribuirles declaraciones que jamás realizaron.
En el escenario de un vehículo autónomo, es posible concebir situaciones complicadas. El vehículo podría encontrarse en una circunstancia donde deba optar por el menor de los males sabiendo que habrá daños al final. ¿Debería optar por proteger a sus ocupantes a riesgo de poner en peligro a niños pequeños que cruzan la calle? La respuesta es complicada.
Frente a tales riesgos, ha surgido la necesidad de imponer una ética a las IA. Esto se alinea con las tres leyes de la robótica propuestas por el autor Isaac Asimov en su serie de cuentos y novelas, cuya filosofía es que el robot debe siempre proteger y servir a su creador humano, incluso si esto requiere su sacrificio para salvarlo. Actualmente, las IA son objeto de estas reflexiones y toma de posturas.
Una IA ética respetaría tanto al ser humano como al planeta. La UNESCO, tras llevar a cabo numerosas reflexiones sobre el tema, ha declarado la necesidad de respetar una serie de valores considerados fundamentales en nuestras culturas:
Por su parte, la Unión Europea ha aprobado el AI Act, que entrará en vigor en mayo de 2024. Contiene numerosas cláusulas restrictivas:
Estas diversas iniciativas buscan enfocarse en una tecnología que avanza a pasos agigantados y establecer salvaguardas antes de que sea demasiado tarde. Pero los colosos tecnológicos están inmersos en una lucha encarnizada por asegurar su posición en este nuevo escenario. ¿Es realista esperar que se tomen el tiempo necesario para reflexionar sobre las consecuencias a largo plazo de las inteligencias artificiales?