Intéressant

Un nouvel algorithme de suivi manuel pourrait être un grand pas en avant dans la reconnaissance de la langue des signes

Un nouvel algorithme de suivi manuel pourrait être un grand pas en avant dans la reconnaissance de la langue des signes


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Plusieurs entreprises, comme SignAll et Kintrans, ont créé des systèmes de traduction en langue des signes. Bien que des systèmes sophistiqués, ceux-ci ne sont pas encore généralisés.

La mission ultime de ces entreprises est de permettre aux millions de personnes qui utilisent la langue des signes de communiquer facilement avec n'importe qui.

Désormais, un nouvel algorithme de suivi manuel des laboratoires d'IA de Google pourrait être un grand pas en avant pour faire de ce type de logiciel ambitieux tout ce qu'il avait promis à l'origine.

CONNEXION: CETTE APP SMARTPHONE PEUT SAUVER VOTRE VIE AVEC JUSTE 3 MOTS

Perception de la main en temps réel

En n'utilisant rien d'autre qu'un smartphone et son appareil photo, le nouveau système de Google AI Labs crée une carte très détaillée de la main d'une personne qu'elle peut ensuite suivre pour la communication.

"Alors que les approches de pointe actuelles reposent principalement sur des environnements de bureau puissants pour l'inférence, notre méthode permet d'obtenir des performances en temps réel sur un téléphone mobile et même de s'adapter à plusieurs mains", ont déclaré les chercheurs de Google Valentin Bazarevsky et Fan Zhang dans un article de blog.

«Une perception solide des mains en temps réel est une tâche de vision par ordinateur résolument difficile, car les mains s'obstruent souvent les unes les autres (par exemple, les occlusions des doigts / paume et les secousses de la main) et manquent de motifs de contraste élevé.»

Comme le rapporte TechCrunch, des entreprises, comme SignAll, se sont tournées vers des appareils photo à détection de profondeur afin de suivre les mouvements de la main. Même ainsi, suivre les mouvements de la main, avec des doigts qui s'obscurcissent et bougent rapidement, est une tâche difficile.

Calculs plus rapides

L'une des façons dont les chercheurs ont fait en sorte que leur algorithme calcule plus rapidement les signaux manuels était de simplifier le processus autant que possible - moins de données entraînant moins de temps de traitement.

Premièrement, le système s'entraîne sur la paume d'une personne, plutôt que de prendre les dimensions de la main entière. Ensuite, un algorithme séparé examine les doigts ainsi que la paume et attribue 21 coordonnées sur les jointures, le bout des doigts, etc.

Pour que l'IA apprenne ces coordonnées, les chercheurs ont dû les ajouter manuellement 21 points à certains 30 000 images des mains dans diverses poses et situations d'éclairage.

Stimuler de nouvelles voies de recherche

Les développeurs ont ouvert leur code dans l'espoir que d'autres trouveront des moyens innovants de l'utiliser et de l'améliorer. Le système utilise le cadre de réalité augmentée MediaPipe existant de Google.

«Nous espérons que fournir cette fonctionnalité de perception de la main à la communauté de recherche et développement au sens large se traduira par l'émergence de cas d'utilisation créatifs, stimulant de nouvelles applications et de nouvelles voies de recherche», disent-ils dans leur communiqué de blog.

Il y a probablement encore un long chemin à parcourir avant une reconnaissance vraiment efficace de la langue des signes - la communication par la langue des signes repose sur les gestes de la main, les expressions faciales et d'autres indices. Néanmoins, c'est un pas passionnant dans la bonne direction.


Voir la vidéo: Mais je taime - Langue des Signes Française Grand corps Malade u0026 Camille Lellouche (Mai 2022).