De quoi s’agit-il ?
La possibilité pour les humains d’interagir avec la technologie par le biais d’expressions faciales et de gestes naturels utilisés quotidiennement pour communiquer améliore nettement la réactivité et la sécurité des machines et renforce considérablement notre confiance dans leurs actions et décisions.
Objectif et contexte
Estimation de la posture humaine :
- Estimation de la position des parties du corps et des interconnexions à partir de preuves visuelles
- Deep Learning: CNN (réseau neuronal convolutif)
- Intrants : Images/vidéos/standard
Reconnaissance des émotions :
- Reconnaissance des émotions parmi les sept émotions humaines universelles : joie, tristesse, colère, peur, surprise, dégoût et neutralité
- Deep Learning: CNN (réseau neuronal convolutif)
- Intrants : Images/vidéos/standard
Applications commerciales :
- Robotique (robots de service à la personne)
- Voitures autonomes (surveillance du comportement du conducteur / suivi des piétons)
- Réalité virtuelle / augmentée (reconstruction du schéma corporel / aide aux personnes handicapées)
Réalisations à notre actif
Actuellement en phase « TRL 4_Laboratory testing of prototype component or process » (essais en laboratoire des composants ou processus du prototype).
Valeur ajoutée et avantages pour le client
- Coût réduit : Utilisation de caméras standard
- Solutions en temps réel
- Robustesse : Occultation, plusieurs personnes