Contenido Exclusivo

Crece el uso de la Inteligencia Artificial para controlar el teletrabajo

El uso de herramientas de seguimiento de la productividad de los trabajadores remotos basadas en la Inteligencia Artificial (IA) está experimentando un importante crecimiento a raíz de la pandemia de COVID-19.

Se trata de soluciones pensadas para analizar el comportamiento de los trabajadores de la misma manera que se utilizan otras similares para entender a los compradores o clientes. Son tecnologías que proporcionan un registro básico de la actividad con alertas o, en versiones más sofisticadas, pueden intentar detectar acciones positivas o comportamientos inadecuados mediante un análisis multivariable.

Desde Gartner señalan el auge de estos sistemas basados en Inteligencia Artificial aunque también predicen que para 2023 el 10% de los trabajadores tratará de engañarlos. “Los trabajadores descubrirán rápidamente las lagunas de las estrategias de vigilancia basadas en la IA. Es posible que lo hagan por diversas razones, como el interés por una menor carga de trabajo, un mejor salario o simplemente por despecho. Algunos pueden incluso considerar que engañar a las herramientas de vigilancia basadas en IA es más un juego que ganar que faltar al respeto a una métrica que la dirección tiene derecho a conocer”, apunta Whit Andrews, vicepresidente de análisis de Gartner.

El analista destaca que el cambio permanente hacia el teletrabajo a tiempo completo o parcial puede ser costoso y requerir cambios culturales.

“Para las culturas de gestión que están acostumbradas a confiar en la observación directa del comportamiento de los empleados, el trabajo remoto refuerza el mandato de supervisar digitalmente la actividad de los trabajadores, en algunos casos a través de la IA”, añade Andrews, indicando, por otro lado, que un alto porcentaje de trabajadores considera que estas herramientas no son atractivas.

En este punto, afirma, los responsables de TI que estén considerando el despliegue de herramientas de monitorización de productividad habilitadas por la IA deben examinar las fuentes de datos, el diseño de la experiencia del usuario y el caso de uso inicial previsto para estas herramientas antes de invertir en ellas. Tienen además que determinar si el propósito y el alcance de la recopilación de datos benefician a los empleados que trabajan de forma correcta. “Los que decidan invertir en estos sistemas deben asegurarse de que la tecnología se está implementando de forma ética y tienen que probar que su diseño está centrado en las personas”.

Lo Más Reciente

Tenable descubre nuevas técnicas de ataque en software de código abierto

El equipo de investigación de seguridad en la nube...

Shopperbot: robot mexicano que ayuda a tomar mejores decisiones de compra

Como parte de las soluciones para impulsar la hiperpersonalización...

Los ‘Scam-Yourself Attacks’ aumentan 614% en el tercer trimestre del año: informe

Los 'Scam-Yourself Attacks' o "ataques de estafa”, en los...

Newsletter

Recibe lo último en noticias e información exclusiva.

Tenable descubre nuevas técnicas de ataque en software de código abierto

El equipo de investigación de seguridad en la nube de Tenable descubrió nuevas técnicas de ataque en los Lenguajes Específicos de Dominio (DSLs, por...

“Mejorar la visibilidad en el ecosistema tecnológico, interno y de cara al cliente” : José Armando López Flores, CISO de Crediclub

“Queremos ser esa institución financiera que cubra con las expectativas de los clientes a través de garantizarles que su patrimonio estará seguro”. Con el objetivo...

Shopperbot: robot mexicano que ayuda a tomar mejores decisiones de compra

Como parte de las soluciones para impulsar la hiperpersonalización en la atención al cliente por medio de la tecnología, PepsiCo México desarrolló a Shopperbot....