Open asilai opened 2 years ago
Selon ces certains mots dis le dispositif crée un nouveau slide en fonction de ce mot. Cette fonctionnalité peut être utile pour raconter un scénario.
Cette compréhension des mots peut aussi générer une image pour illustrer nos propos. Par exemple si je parle d'une artiste comme beyoncé, elle apparaîtrait sous forme de png. Très similaire à l'apparition des dons comme dans twitch.
Je serais intéressé pour m’occuper de cette issue. Les navigateurs disposent d’une API de reconnaissance vocale qui pourrait être utilisée afin de changer de slide.
Pour ce qui est de l’illustration de propos, ça demandera un peu plus de travail, mais une recherche d’image sur un service similaire à DuckDuckGo images suivant une commande vocale pourrait également se faire. Ma seule crainte est que la reconnaissance vocale ne reconnaisse pas forcément les noms propres.
Bon, j’ai pas mal tourné en rond avec cette issue, je vais faire un résumé de ce qui a mené à mon commit https://github.com/Phundrak/ChaoticumSeminario/commit/69ae3a6adf75a3f3fa3b8f1b95568e4f51520fc1 (j’ai fait un squash de tous mes commits histoire que l’historique soit un peu plus propre que je ne sais pas combien de commits « test »).
Actuellement, la reconnaissance vocale ne fonctionne pas sous Firefox, le navigateur n’arrive pas à se connecter à un service de reconnaissance vocale. Chromium y arrive, mais la reconnaissance ne fonctionne que durant cinq à dix secondes, même si on indique qu’elle doit être continue. On peut faire ensorte qu’elle se relance à ce moment-là (voir le code lignes 46 à 48 dans mon commit), mais cela demande une intervention de l’utilisateur pour donner à nouveau l’autorisation à Chromium d’utiliser le micro. Pas idéal comme situation.
J’ai aussi un autre problème plus technique qui est d’accéder aux
fonction pour changer de slide ou de page. Pour l’instant, la fonction
newAlea
n’est pas accessible depuis le fichier asset/js/voice.js
,
mais je pense qu’elle pourrait l’être si on déplace le code qui y
correspond dans un autre fichier Javascript, type asset/js/alea.js
.
Je n’ai pas encore essayé par contre, j’ai passé tout mon temps sur le
point précédent.
Pour l’instant, on a donc une reconnaissance vocale à utilisage multiple pour quelques secondes qui peut reconnaitre une commande, même au sein d’une phrase plus complète (par exemple, un « page suivante » peut être reconnu dans « et sur la page suivante, on peut voir... »). En théorie, ça permet d’appeler des fonctions auxquelles le fichier aurait accès, mais j’ai déjà addressé le problème lié.
On peut se servir du micro afin qu'il puisse lors de notre discours comprendre un mot en particulier et que le dispositif passe à la slide suivante sans télécommande ou devoir se déplacer jusqu'à l'ordinateur.