El aprovechamiento del potencial de las máquinas inteligentes, garantizando resultados satisfactorios para las empresas que los poseen, dependerá de cómo confiemos en estas máquinas y cuánto dure esa confianza. Se torna imprescindible establecer unas normas éticas y valores con las que la gente esté segura y se reconozca, según Gartner.
“Para que la gente confíe en las máquinas inteligentes deben aceptar su uso”, comentó Fran Buytendijk, vicepresidente de investigación y analista de esta consultora. “La habilidad de ganar confianza debe formar parte de cualquier plan de implantación de inteligencia artificial o máquinas inteligentes, y será un importante punto de venta en la comercialización de esta tecnología. Los CIO deben ser capaces de monitorizar estas máquinas por si el uso público tiene consecuencias no previstas y así responder inmediatamente”, agregó.
Para asegurarnos de que las máquinas inteligentes se comportan de manera ética y podremos confiar en ellas el futuro, los CIO deben prepararse para su programación y debate sobre ética. Gartner identifica cinco niveles de programación y desarrollo de sistemas basados en el impacto ético:
El nivel 0 corresponde a la programación “no ética”. En el no hay consideraciones explicitas acerca del comportamiento ético de la tecnología. El fabricante de tecnología asume muy poca responsabilidad, aparte de que la tecnología debe proporcionar las funciones prometidas de seguridad y fiabilidad.
El nivel 1 o de supervisión ética. No tienen ninguna programación ética, pero el uso y desarrollo de las tecnologías pueden traer consecuencias. Pueden usarse las máquinas inteligentes pero estará bajo responsabilidad del usuario aquel uso que les den y los resultados que obtengan con ellas. La mayor responsabilidad está en manos de quienes las utilicen.
El nivel 2, el de la programación ética, se está explorando ahora a la vez que los asistentes personales virtuales (VPAs) están comenzando a usarse. La perspectiva de uso cambia. Mientras en los otros dos niveles los usuarios era profesionales desarrollando un trabajo, en este nivel los usuarios son normalmente clientes o ciudadanos.
La responsabilidad está repartida entre el usuario, el proveedor de servicios y el diseñador. Los usuarios son responsables del contenido y las interacciones que ellos empiezan, pero no de la respuesta que ellos reciben. Mientras que el diseñador es responsable de considerar las consecuencias no intencionadas del uso de la tecnología. Por su parte, el proveedor de servicios tiene una clara responsabilidad de interaccionar de manera ética con los usuarios, mientras enseña correctamente la tecnología y monitoriza el uso y comportamiento.
El nivel 3, o de programación ética evolutiva. Introduce la programación ética como una parte de una máquina que aprende y evoluciona. Cuanto más inteligente es y aprende, más empieza en su diseño original, y más su conducta se convierte en algo individual. Cambia de nuevo el concepto de usuario, en el nivel 2 aún tenía el control, mientras que en el nivel 3 muchas tareas son realizadas de manera automática por las máquinas.
Cuanta menos responsabilidad tiene el usuario más necesario es la confianza para que se adopten. Este nivel requiere una revisión de las normas y legislación actuales.
Y por último, el nivel 4, las máquinas capaces desarrollar un comportamiento ético. Gartner no espera que esto vaya a suceder en un futuro cercano, no hace falta que se planee ahora. Sin embargo, contempla la posibilidad de que las máquinas podrían ser autónomas y en ese caso necesitarían ser enseñadas y su comportamiento poder evolucionar. En este nivel desaparece el concepto de usuario.
– CIO España