JPO : Webinar d'information sur nos formations → RDV mardi à 17h30.

Shadow AI: ¿Qué es? ¿Cuáles son los desafíos?

El auge de herramientas como ChatGPT ha transformado los hábitos de trabajo. Si bien su uso promete eficiencia y ahorro de tiempo, también conlleva una desviación: la Shadow AI… Aquí te explicamos por qué esta práctica preocupa y cómo solucionarlo.

En abril de 2023, Samsung autorizó el uso de ChatGPT de manera experimental en algunas divisiones. La ambición era ayudar en la traducción de artículos, la revisión de código informático y, en general, mejorar la productividad. Sin embargo, poco después, Samsung prohibió el uso de esta IA generativa y adoptó varias medidas preventivas.

¿Qué sucedió mientras tanto? En tres ocasiones, los empleados compartieron información altamente confidencial en ChatGPT…

  • Un empleado utilizó el Chatbot para resumir notas confidenciales relacionadas con el rendimiento de un proyecto interno. Estas notas incluían estrategias y decisiones directivas.
  • Un desarrollador que deseaba corregir errores de programación copió y pegó en ChatGPT el código fuente de una aplicación propia. Dicho código incluía algoritmos exclusivos e información técnica crítica.
  • Un tercer empleado envió a ChatGPT datos de pruebas de rendimiento sobre semiconductores con el fin de obtener sugerencias de mejora.

Ante estos incidentes, Samsung se vio obligado a:

  • Prohibir el uso no supervisado de herramientas de IA externas.
  • Llevar a cabo campañas de concienciación sobre los riesgos asociados a tales prácticas.
  • Desarrollar soluciones alternativas de IA para limitar la dependencia de aplicaciones generalistas no seguras.

La IA en la sombra

La experiencia realizada por Samsung tenía la ventaja de ser oficial. En realidad, el verdadero problema concierne al uso de aplicaciones de IA como ChatGPT, Claude o Perplexity de forma aislada sin conocimiento del departamento informático. Se habla entonces de Shadow AI o IA Fantasma.

El término en sí mismo deriva de otra práctica llamada el Shadow IT, la cual se refiere al uso más general de aplicaciones sin el conocimiento del departamento informático.

La Shadow AI no es un fenómeno restringido. Un estudio realizado por Salesforce en 2023 reveló que el 18% de los empleados franceses utilizaban IA generativas en su trabajo. En el 49% de los casos, esta práctica se llevaba a cabo a pesar de prohibiciones explícitas. Cifras más recientes sugieren que cerca del 68% de los empleados franceses son adeptos a la Shadow AI. Usualmente, utilizan ChatGPT o Claude para corregir textos con fines internos o analizar datos relacionados con el rendimiento de la empresa. Sin embargo, esta práctica no está exenta de riesgos.

Las motivaciones

La facilidad de acceso a herramientas como ChatGPT explica por qué la Shadow AI se ha desarrollado de esta manera. Los empleados buscan mejorar su eficiencia o resolver fácilmente problemas complejos. Así, un responsable de marketing puede sentirse tentado a usar la IA para desarrollar campañas sobre productos a lanzar, pero aún confidenciales. Sin embargo, muchos colaboradores desconocen los riesgos de seguridad y legales asociados al uso de soluciones de IA no supervisadas.

También ocurre que algunos empleados consideran que el departamento informático tarda demasiado en responder a sus solicitudes. En consecuencia, pueden sentirse tentados a acudir a soluciones que consideran prácticas y eficaces, ya que a menudo son gratuitas.

¿Cuáles son los riesgos asociados a la Shadow AI?

Sin embargo, la Shadow AI expone a las empresas a riesgos de diversa índole.

Fugas de datos

La falta de supervisión del uso de la IA puede hacer que los empleados exposen inadvertidamente información sensible. Una investigación reciente realizada en el Reino Unido destacó que una de cada 5 empresas en el Reino Unido se había enfrentado a una fuga de datos debido al uso de IA generativa por parte de sus empleados.

Inconsistencias

La Shadow AI puede provocar inconsistencias en los procesos internos. Cuando varios departamentos utilizan herramientas diferentes, puede resultar en inconsistencias que complican la toma de decisiones y reducen la eficacia global.

No conformidad con las normativas

Las empresas están obligadas a cumplir con ciertas normas sobre el tratamiento de datos, como el RGPD. El uso no controlado de herramientas de IA puede llevar a violaciones involuntarias de estas normativas. Las multas por no conformidad pueden alcanzar hasta el 4% de la facturación.

Daño a la reputación

Es posible que los resultados generados por IA no cumplan con los estándares de calidad de una empresa y degraden así la confianza de los consumidores. Así, Sports Illustrated fue cuestionada por publicar artículos generados por IA.

¿Cómo solucionarlo?

Se pueden tomar tres enfoques para combatir la Shadow AI:

  • prohibirla.
  • acompañar la inclusión de la IA en el entorno de trabajo.
  • concienciar a los colaboradores.

 

La prohibición del uso de la IA no parece ser la panacea. «Genera aún más usos ocultos de la IA», relata un directivo.

Acompañar esta evolución parece más adecuado. Se trata de preguntarse: ¿cuáles son las necesidades expresadas por los colaboradores para IA generativa? ¿Es posible adoptar una solución que pueda ser supervisada por el departamento informático?

Concienciar a los colaboradores sobre los riesgos de un uso no supervisado de la IA es el punto esencial. Así, es posible instaurar una carta de uso a la que los colaboradores estén dispuestos a adherirse.

En resumen, es importante crear herramientas supervisadas, establecer un marco claro, y sobre todo, concienciar a los equipos.

¿No está disponible?

Déjenos su dirección de correo electrónico para que podamos enviarle los nuevos artículos cuando se publiquen.