ACTUALIDAD

Riesgos de la inteligencia artificial: cómo gestionarlos en las empresas

La adopción de la inteligencia artificial abre oportunidades para la eficiencia y la innovación, pero también plantea riesgos legales, éticos, sociales y ambientales que requieren una gestión responsable y multidisciplinaria.

Riesgos de la inteligencia artificial: cómo gestionarlos en las empresas

La adopción de la inteligencia artificial abre oportunidades para la eficiencia y la innovación, pero también plantea riesgos legales, éticos, sociales y ambientales que requieren una gestión responsable y multidisciplinaria.

Desde nuestra experiencia en Atlas Value Management Colombia, observamos cómo las diferentes herramientas de inteligencia artificial integradas a otro tipo de tecnologías están generando nuevas formas de trabajar. Es cada vez más frecuente que en diferentes organizaciones se implementen estas tecnologías, con diferentes finalidades, incluyendo automatización de actividades repetitivas, reconocimiento de imágenes, voz, texto; interacción con clientes, proveedores y empleados, generación de contenidos, toma de decisiones automatizadas. Todos estos encaminados a capturar valor a través de la eficiencia de los procesos, mejorar la productividad de sus colaboradores, generar nuevas fuentes de ingresos y agilizar sus procesos de transformación complejos.

Así como la inteligencia artificial genera beneficios, simultáneamente emergen riesgos que deben ser adecuadamente identificados, medidos y controlados a través de las metodologías y procesos de gestión de riesgos de las compañías, y que promuevan el uso responsable de dichas herramientas. Desde la perspectiva de la organización y, en particular, de las áreas de gestión de riesgos, resulta clave participar activamente en la evaluación de estos riesgos, aportando independencia y rigor en el análisis de controles, procesos y cumplimiento normativo. A continuación, acorde con lo que hemos analizado a nivel interno en Atlas Value Management, analizaremos cuatro de los riesgos que consideramos son comunes al uso de la inteligencia artificial y que deben ser gestionados por nuestras organizaciones.

Riesgo incumplimiento legal: propiedad intelectual y derechos de autor

Los modelos de inteligencia artificial generativa nos permiten la producción de diferentes contenidos, de imagen, sonido, textos, que pueden apoyar la gestión comercial y el diseño de piezas publicitarias. Es relevante que las organizaciones implementen controles que permitan validar que los contenidos que se generen a través de estas herramientas no violen las normas sobre derechos de autor y propiedad intelectual de cada país.

Explicabilidad y transparencia: la confianza en los algoritmos

A medida que los algoritmos de inteligencia artificial se vuelven más complejos y autónomos, muchas decisiones críticas dependen de sistemas cuya lógica interna puede resultar difícil de entender incluso para quienes los desarrollan o administran.

La falta de explicabilidad implica que las personas responsables no siempre pueden justificar o detallar cómo y por qué se alcanzó una determinada conclusión o recomendación. Esto se traduce en un entorno de desconfianza tanto dentro de la organización como en las personas usuarias finales, especialmente cuando los resultados afectan directamente a la toma de decisiones estratégicas, la asignación de recursos o la evaluación de personas.

Por ello, es fundamental que las empresas implementen mecanismos y metodologías que permitan auditar y comprender el funcionamiento de los modelos de inteligencia artificial. Por otro lado, la transparencia, entendida como la capacidad de comunicar de manera clara y accesible los criterios y procesos detrás de una solución automatizada, es esencial para el cumplimiento normativo, la ética y la aceptación social de estas tecnologías.

Sesgos algorítmicos: garantizar equidad y no discriminación

La implementación de la inteligencia artificial en distintos procesos organizacionales conlleva el riesgo de reproducir o incluso amplificar sesgos existentes en los datos con los que se entrenan los modelos, lo que puede traducirse en decisiones discriminatorias o inequitativas hacia ciertos grupos de personas. Estos sesgos pueden surgir de datos históricos incompletos o representaciones desbalanceadas, lo que provoca resultados que no reflejan la diversidad social o cultural. Es fundamental que las organizaciones adopten mecanismos para identificar, monitorear y corregir posibles fuentes de discriminación algorítmica, promoviendo así la equidad y la igualdad de oportunidades en todos los ámbitos en los que se empleen sistemas de inteligencia artificial.

Impacto social y ambiental: más allá de lo tecnológico

La integración de sistemas de inteligencia artificial en los procesos organizacionales puede generar efectos significativos sobre el entorno social y ambiental. Entre los riesgos sociales se encuentran la posible afectación a la privacidad, la automatización de empleos que podría provocar desplazamiento laboral, y el impacto en comunidades vulnerables por decisiones tomadas por algoritmos.

En el ámbito ambiental, el uso intensivo de recursos computacionales para entrenar y operar modelos de inteligencia artificial conlleva un alto consumo energético y la generación de residuos electrónicos, lo que puede contribuir a la huella de carbono de la organización. Es fundamental que las compañías implementen estrategias para mitigar estos impactos, tales como procesos de evaluación del ciclo de vida de las tecnologías, adopción de infraestructuras energéticamente eficientes y promoción de la inclusión social frente a la automatización, asegurando así que la adopción de inteligencia artificial sea responsable y sostenible.


Conclusión

En conclusión, la adopción de la inteligencia artificial en las organizaciones ofrece oportunidades únicas para transformar procesos, fomentar la eficiencia y generar valor, pero también introduce una variedad de riesgos que deben ser gestionados de manera integral.

Los riesgos que analizamos en este artículo fueron incumplimiento de normas de propiedad intelectual, explicabilidad y transparencia, sesgos que afectan la equidad y el impacto social y ambiental. Es importante resaltar que los riesgos que analizamos no se presentan de manera aislada, sino que están estrechamente vinculados con otros desafíos inherentes al uso de estas tecnologías, como el tratamiento adecuado de datos personales, la confidencialidad de la información, la ciberseguridad, entre otros.

El manejo responsable de la inteligencia artificial exige que las compañías desarrollen políticas robustas que contemplen la gestión integral de los riesgos, incluyendo los mencionados en este artículo y los otros factores de riesgos que pueden afectar a las empresas. En este camino, la organización y, en particular, las áreas de gestión de riesgos desempeñan un papel esencial al ofrecer una mirada independiente y objetiva sobre la eficacia de los controles, la mitigación de riesgos y el cumplimiento regulatorio. Gestionar los riesgos descritos en este texto y aquellos asociados de manera transversal demanda un enfoque ético, multidisciplinario y preventivo, que promueva tanto la innovación como la confianza de las personas usuarias y la sociedad. Solo así se logrará que la implementación de la inteligencia artificial sea realmente sostenible y beneficiosa para todos los actores involucrados.

Compartir en:

xx
Scroll al inicio