Principios básicos para que toda empresa use la IA responsablemente

El uso de la inteligencia artificial en las empresas es ya un hecho. El rápido avance y evolución de estas tecnologías vienen acompañados de desafíos: éticos, legales y de riesgo que las organizaciones no pueden pasar por alto si quieren evitar impactos negativos para su personal, y también para la sociedad. 

Análisis del sector 

Dependiendo el sector de la empresa, es importante detectar el tipo de IA que se utiliza para su actividad. Por ejemplo, los riesgos que existen usando la IA en medicina no son los mismos que en marketing. Así mismo, también hay que tener en cuenta los diferentes tipos de IA, puesto que no todas las herramientas o sistemas que usan inteligencia artificial proyectan los mismos riesgos para usuarios, ciudadanos y sociedad.  

Implementar una estructura de gobernanza y supervisión 

Implementar una estructura de gobernanza y supervisión de la IA es fundamental para la empresa, puesto que permitirá crear políticas y protocolos a seguir para el uso de sistema de IA dentro de la empresa. 

Entre las buenas prácticas que se pueden adoptar destacamos las siguientes medidas: 

  • Definir un comité de ética  
  • Definir los roles y responsabilidades respecto al uso corporativo de la IA 
  • Establecer mecanismo de rendición de cuentas y responsabilidades 
  • Llevar a cabo auditorías periódicas 

Dado que las buenas prácticas para IA son esenciales y muy amplias en cada territorio sectorial, a continuación ofrecemos unos principio básicos en los que un negocio puede guiarse para fortalecer su estructura interna haciendo un buen uso de la IA. 

Un enfoque poliédrico 

  1. CUMPLIMIENTO DE LA “LEY IA” 

    Desde el 1 de agosto pasado, el Reglamento Europeo de Inteligencia Artificial (RIA) ha comenzado a entrar en vigor de manera progresiva, marcando el inicio de una nueva fase en el panorama digital. Para empresas y otras organizaciones, esto representa un desafío de gran envergadura, en el que surgen múltiples preguntas y cuestiones a resolver 

    • Apoyarse en asesoría legal sobre el uso de la IA y las leyes aplicables a su uso. 
    • Mantenerse actualizado sobre novedades y cambios normativos sobre el reglamento regulador. Este enlace ayudará a solventar dudas. Sin embargo, para una mayor claridad, es recomendable buscar asesoramiento jurídico profesional y seguir las orientaciones nacionales. 
    • Basar en leyes vigentes todas las políticas internas sobre el uso y desarrollo de la IA en la empresa. Asimismo, se debe formar y capacitar a los empleados sobre estas políticas. 
  2. ADOPTAR PRINCIPIOS ÉTICOS 

    Las empresas deben integrar principios éticos en cada etapa del ciclo de vida de sus sistemas de IA: desde el diseño hasta el monitoreo continuo de su implementación. Así, la tecnología beneficiará a todos de manera justa y equitativa. Algunas de estas buenas prácticas son: 

    • Establecer un reglamento marco conciso que incluya aspectos como la justicia, privacidad, transparencia, sostenibilidad y responsabilidad. 
    • Reunir a todas las partes interesadas en el desarrollo de estos principios e involucrarlas en el proceso, incluyendo a empleados de diferentes departamentos, expertos en ética y representantes de la comunidad. 
    • Crear un comité para que revise las decisiones y procesos relacionados con la IA para que se garantice el cumplimiento del reglamento marco. 
  3. EVITAR SESGOS 

    La Universidad Internacional de La Rioja (UNIR), recalca en enfatizar el sesgo como daño en la reputación de la empresa y sus consecuencias legales. Evitar el uso de estos sistemas sin ningún tipo de discriminación (sexo, etnia, credo, religión, edad, discapacidad, afinidad política, orientación sexual nacionalidad, ciudadanía, estado civil, estatus socioeconómico o cualquier otra condiciona personal, física o social) de usuario o público objetivo evitará decisiones injustas y discriminatorias. 

     Para ello, se recomienda: 

    • Usar fuentes de dato diversos y de calidad para el entrenamiento de la IA para que los conjuntos de datos sean representativos de todos los grupos sociales. 
    • Auditar periódicamente los sistemas IA para evitar riesgos y analizar el impacto que podría conllevar cualquier tipo de sesgo. 
    • Fomentar la diversidad en los equipos de desarrollo de IA para salvaguardar diferentes enfoques. 
  4. FORMACIÓN DEL PERSONAL 

    La capacitación del personal respecto al uso de la IA forma parte esencial de las buenas prácticas porque amplía el rango de conocimiento y responsabilidad del uso justo de la tecnología. Se pueden adoptar las siguientes medidas: 

    • Ofertar programas de formación periódicamente sobre aspectos técnicos, éticos y legales de la IA. De la misma manera que el punto anterior, cuanto mayor sea el alcance, sin sesgos, mayor será la comprensión global de la empresa en las implicaciones de esta tecnología. 
    • Promover los valores de la empresa entorno a la puesta en valor de la ética y la responsabilidad del uso de la IA. 
  5. SER TRANSPARENTES 

    Desde la parte de desarrollo hasta el usuario final, se debe ser transparente en la creación y el uso de estos sistemas para asegurar que las decisiones tomadas por la IA sean comprensibles para todo el mundo. Algunos ejemplos de transparencia: 

    • Diseñar una interfaz de usuario clara para el usuario final, acompañada de una explicación comprensible de cómo y por qué la IA toma cierta decisiones. 
    • Facilitar el acceso a la información relevante sobre la IA para todas las partes interesadas: clientes, empleados y reguladores. 
  6. PROTECCIÓN DE DATOS 

    Las IA no sólo pueden manejar datos personales en el desempeño de su actividad, sino que también pueden ser entrenadas con conjuntos de datos personales. Por eso, la inteligencia artificial y la privacidad están directamente relacionadas. Se pueden adoptar las siguientes medidas: 

    • Utilizar datos anónimos en el entrenamiento de la IA; esto reduce riesgos en cuanto a vulneraciones de privacidad.  
    • Cuando se traten datos de usuarios, obtener siempre su consentimiento informando previamente la finalidad por la que se recopilan de manera clara, posibles riesgos y qué derechos tienen para defenderse. 
  7. SOSTENIBILIDAD 

    Se debe garantizar la sostenibilidad y desarrollo equilibrado y responsable de sistemas basados en IA; adoptando una postura innovadora y colaborativa sobre el impacto ambiental para ayudar a reducir el consumo de agua y electricidad.  

    Con este propósito, el Programa Nacional de Algoritmos Verdes se ofrece como una plataforma para la innovación sostenible. A través de técnicas, certificación y el apoyo a la investigación el programa fomenta el diseño de algoritmos que sean más eficientes y consuman menos energía manteniendo el mismo rendimiento. 

    Al reducir el consumo energético de los algoritmos, se reduce la huella de carbono y se abrirá el camino a nuevas vías de innovación. Esta solución puede servir de base para nuevas áreas de actuación como la gestión de recursos naturales, reducción de residuos y la eficiencia energética en infraestructuras. 

    En conclusión, implementar unas buenas prácticas en el uso de IA como las descritas en descritas, se impulsa a que las empresas minimicen y mitiguen algunos de los riesgos y desafíos éticos más significativos. 

Categorías