La Inteligencia Artificial (IA) ya transforma la manera en que las organizaciones operan y toman decisiones, por lo que BSI Group ha lanzado una iniciativa global diseñada para capacitar a las empresas en la adopción segura y responsable de esta tecnología.
En respuesta a una creciente demanda de directrices globales, BSI presenta el estándar internacional BS ISO/IEC 42001:2023, una guía que se centra en establecer un marco sólido para la gestión de sistemas de IA, abordando los riesgos, impactos de IA, responsabilidades y controles clave necesarios.
La reciente encuesta Trust in AI realizada por BSI a 10 mil personas en nueve países revela que el 61% de la población mundial solicita directrices internacionales para el uso seguro de la IA. A pesar de que el 38% ya utiliza esta tecnología en su vida diaria, persisten preocupaciones significativas en torno a la ética y la seguridad.
La investigación concluyó que cerrar la brecha de confianza en la IA y en la tecnología es clave para potenciar sus beneficios para la sociedad y el planeta. “Se trata de equilibrar la innovación tecnológica con la responsabilidad ética en el desarrollo y despliegue de la IA, así como crear marcos de gobernanza que aseguren la supervisión y el uso apropiado de la IA en todos los niveles de la organización”, señaló Chanel Medellín, instructora en BSI México durante el evento IA Responsable: Navegando el futuro con ética y confianza y destacó que el 93% de los líderes empresariales a nivel mundial reconocen la importancia de un enfoque ético en la IA.
La confianza, una piedra angular
El estándar BS ISO/IEC 42001:2023 no solo proporciona una estructura para la gestión segura de la IA, sino que también se alinea con las exigencias internacionales para establecer mecanismos y promover la transparencia y la explicabilidad en sus sistemas de IA. Esto es especialmente relevante en sectores críticos como la salud, donde los diagnósticos médicos asistidos por IA requieren un alto grado de precisión y confiabilidad.
Al respecto, Susan Taylor Martin, directora ejecutiva de BSI, afirmó: “La IA es una tecnología transformadora. La publicación del primer estándar internacional de sistemas de gestión de IA es un paso importante para capacitar a las organizaciones para que gestionen responsablemente la tecnología, lo que a su vez ofrece la oportunidad de aprovecharla para acelerar el progreso hacia un futuro mejor y un mundo sostenible. BSI se enorgullece de estar a la vanguardia para garantizar la integración segura y confiable de la IA en toda la sociedad”.
“Los diagnósticos médicos, los vehículos autónomos y los asistentes digitales, son sólo algunos ejemplos de productos que ya se benefician de la IA”, añadió.
Desafíos éticos y regulatorios
La integración de la IA plantea desafíos significativos, como la mitigación de sesgos en los algoritmos y la protección de la privacidad de los datos.
“Abordar los desafíos clave de la IA, como la transparencia, uso ético, la discriminación, y la privacidad de datos -estableciendo marcos claros de responsabilidad y rendición de cuentas- es importante para asegurar que estos sistemas generen el valor esperado gestionando los riesgos de manera adecuada”, comentó Alfonso Figueroa, Technology Risk Director de KTSA.
“La colaboración y participación de la iniciativa privada, la sociedad civil, entidades reguladoras y gubernamentales es un factor crítico de éxito para asegurar beneficios integrales de la inteligencia artificial (IA)”.
Para apoyar a las organizaciones en este entorno en constante evolución, BSI ofrece programas de capacitación y servicios de garantía de la IA, diseñados para garantizar que las tecnologías se utilicen de manera ética y responsable.
Manuela Gazzard, directora del grupo de servicios regulatorios de BSI, concluyó: “Es esencial que complementemos la innovación con una implementación segura y ética. Nuestro compromiso es ayudar a las organizaciones a maximizar el potencial de la IA mientras aseguramos que se convierta en una fuerza positiva para la sociedad”.