« Reconnaissance des émotions » l’IA juge si vous êtes heureux au travail, sait que vous faites semblant

« Reconnaissance des émotions » l'IA juge si vous êtes heureux au travail, sait que vous faites semblant

Imaginez ceci : vous êtes au travail, embourbé par les innombrables choses sur votre liste de choses à faire, et essayez de trouver la motivation nécessaire pour arriver jusqu’au vendredi. Pire encore, vous ne pouvez pas froncer les sourcils, bâiller, renfrogner un collègue ennuyeux ou trahir vos vraies émotions parce que quelque chose vous regarde.

Bien que cela puisse sembler une intrigue bizarre du dernier roman de science-fiction, cela pourrait malheureusement être la réalité pour certains employés travaillant dans de grandes organisations en Chine.

La société de technologie chinoise Taigusys a développé un système de reconnaissance des émotions par IA, prétendant détecter et examiner les expressions faciales des humains.

Il ne se contente pas de donner une analyse minute par minute de ce que quelqu’un pourrait ressentir, mais peut même générer des rapports détaillés pour suivre comment ils se présentent sur une période de temps. Ce système a été découvert pour la première fois dans un rapport d’enquête du Guardian.

Sur le site de Taigusys, il répertorie plusieurs sociétés multinationales parmi sa clientèle, dont de grands noms tels que Huawei, China Mobile et PetroChina. Il est important de noter, cependant, qu’il n’y a aucune preuve que ces organisations utilisent le produit de reconnaissance des émotions de l’IA de Taigusys.

De nombreux chercheurs ont cependant mis en doute l’exactitude d’un tel logiciel d’IA, ainsi que ses qualités éthiques.

Alors que Taigusys prétend que le logiciel aidera à « relever de nouveaux défis » et à « réduire les conflits » sur le lieu de travail, être constamment suivi pour voir si vous êtes heureux ou ennuyé pourrait rendre le travail encore plus stressant qu’il ne l’est déjà.

L’algorithme d’IA analyse les mouvements des muscles faciaux et les signaux biométriques d’un individu, les évaluant à plusieurs échelles pour déterminer son état émotionnel.

Les émotions « bonnes » incluent le bonheur et la surprise, tandis que les émotions « négatives » sont celles telles que le chagrin, la confusion et la colère. Le logiciel est même capable de détecter des émotions «neutres» telles que la concentration, également, rapporte Insider.

En plus du facteur effrayant du logiciel, Taigusys prétend qu’il peut même détecter lorsqu’un individu fait semblant de sourire. Si l’on dépasse les paramètres recommandés pour les « émotions négatives », le logiciel peut générer un rapport, les recommandant pour un « soutien émotionnel ».

Bien que cela puisse sembler plutôt utile sur le papier, on ne sait pas si les organisations offriront vraiment de l’aide aux employés ou les retireront complètement de la masse salariale.

Des chercheurs en éthique, tels que Daniel Leufer, analyste des politiques européennes à l’organisation à but non lucratif de droits civiques numériques Access Now, ont expliqué que même si le logiciel fonctionnait, il constituerait une « violation flagrante » des droits de l’homme, y compris le droit d’un individu à la vie privée et à la liberté expression.

“Le pire de tout, toutes ces violations se produisent potentiellement même si la reconnaissance des émotions n’est pas scientifiquement possible. Le fait même que les gens le croient, et créent et déploient des systèmes prétendant le faire, a des effets réels sur les gens”, a-t-il expliqué.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Translate »