Algunas empresas han rechazado voluntariamente la IA emocional. Microsoft, por ejemplo, anunció en junio de 2022 que retiraría las capacidades de reconocimiento de emociones de Azure Face API (adjunto con la inferencia de condición, momento, sonrisa, vello facial, trenza y maquillaje) como parte de una revisión de su Típico de IA Responsable.
La directora responsable de IA de la empresa, Natasha Crampton, explicó el cambio al citar “la descuido de consenso investigador sobre la definición de ’emociones’, los desafíos en cómo las inferencias se generalizan entre casos de uso, regiones y datos demográficos, y las mayores preocupaciones sobre la privacidad en torno a este tipo de capacidad”. A Microsoft incluso le preocupaba que dicha tecnología “pueda someter a las personas a estereotipos, discriminación o denegación injusta de servicios”.
Entonces, si adecuadamente existen usos reales y aperos para la IA emocional en algunos casos, la ciencia detrás de ella es débil, los resultados a menudo son engañosos, a los empleados generalmente no les gusta y la encuentran agobiante, es probable que haya prejuicios incorporados, es probable que se produzcan violaciones de la privacidad y es posible que ni siquiera sea reglamentario a nivel internacional o incluso en todos los estados de Estados Unidos.
