DeepLens : Amazon veut révolutionner le web avec l’A.I.

Posté le Définitions Technologie
DeepLens Amazon

Objets connectés et A.I.

Les Amazon Echo, Google Home, ou les appareils similaires, et tous les smartphones avec lesquels vous avez communiqué avec Siri, Alexa ou Cortana, sont directement reliés à des serveurs. Qui sont eux-même exécutés par une A.I. (Artificial Intelligence – Intelligence Artificielle). Au niveau du volume, la catégorie des applications d’A.I. les plus déployées se concentre sur la reconnaissance vocale. Tandis que la bande passante devient de plus en plus performante et les fonctions Cloud plus accessibles, la reconnaissance des objets depuis des vidéos ou des photo ne devraient plus tarder. Et c’est là qu’intervient DeepLens.

Qu’est-ce que c’est DeepLens ?

En novembre 2017, Amazon Web Services (AWS) a tenté une expérience, afin de déterminer quand est-ce que la reconnaissance d’objet serait possible, et de confiance. Comme Echo, DeepLens est un appareil Amazon qui s’adapte au déploiement à domicile. Mais contrairement à Echo, il s’agit d’un ordinateur quad-core à processeur Linux, basé sur l’atomiste X5 d’Intel. De plus, il possède une caméra qui sert à scanner quelque chose ou quelqu’un en particulier. Côté serveurs, ceux d’Amazon exécutent des algorithmes qui analysent le contenu entrant des vidéos, à la recherche de quelque chose familier. C’est à dire toute partie de l’image qui aurait déjà été identifiée et ciblée par la database.

Le CEO d’AWS, Andy Jassy, avait déclaré l’année dernière lors du ReInvent 2017 : « nous pensons que vous pourrez profiter de votre premier modèle de Deep Learning et à vision par ordinateur en dix minutes » « dès que vous ouvrirez sa boite ». De plus, il ajouta « vous pouvez le programmer pour réaliser tout ce dont vous pouvez imaginer. Par exemple, vous pouvez imaginer programmer la caméra avec des modèles de visions digitales qui reconnaitraient votre plaque d’immatriculation et ouvriraient directement votre porte de garage. Ou vous pourriez le programmer pour vous envoyer une alerte lorsque le chien sera monté sur le canapé ».

Néanmoins, il faut faire attention au mot « imaginer ». En effet, c’est le terme typique que les vendeurs emploient lorsqu’ils ont besoin que vous utilisiez votre imagination… Pour combler les manques de leurs propres produits. Ainsi, DeepLens est loin d’être prêt pour sa commercialisation.

Enjeux

DeepLens est une expérimentation, à laquelle vous pouvez participer pour 249$. Enfin si vous avez un peu d’expérience dans la formation de réseaux convulsifs (oui ça existe). C’est aussi une expérimentation importante pour Amazon, notamment afin de rentabiliser les services d’A.I. basés sur le Cloud.

Google est devenu le grand champion de la recherche sur internet lorsqu’il a trouvé un moyen de générer des bénéfices de la publicité en ligne. Grâce au moindre mot-clé, et à la moindre requête. Au fur et à mesure que de plus en plus de recherches et transactions du même type utilisent la voix (voire la vidéo – ce qui consomme plus de bande passante), le coût du traitement de ces opérations a augmenté. Et vu que les campagnes Adwords sont devenues banales, augmenter les tarifs est devenu impossible.

Et si le marché des mots-clés s’effondre, le web tel qu’on le connaît s’en ira. Donc il est temps de découvrir la nouvelle génération de transactions pertinentes, et rentables. Ainsi, DeepLens s’aventure au-delà du territoire d’Echo, dans l’embryon incertain d’un nouveau marché encore inconnu. Avec toute la ténacité d’un grand groupe, qui possède à la fois le capital nécessaire et les moyens de commettre quelques erreurs… Si ça donne à Amazon l’opportunité de tirer parti de son expertise naissante dans le Deep Learning pour conquérir un nouveau secteur.

Que fait DeepLens ?

Il existe quelques applications, dont l’une a été inspirée par un épisode de la série de HBO « Silicon Valley ». Ainsi, celle-ci tente d’identifier un hot dog en se basant sur les data qu’elle a précédemment collecté en analysant des images et des vidéos de hot dogs. En fait, cette phrase résume très bien l’avancement de DeepLens…

DeepLens : application d'essai

Il en existe d’autres. Par exemple, l’une d’entre elles peut estimer le nombre de degrés d’inclinaison de la tête d’une personne. Une autre tente de reconnaître les images de chats parmi des images de chiens mélangés avec des félins. Et puis une autre application essaye de reconnaître les actions associées avec environ trois douzaines d’activités. Celles-ci incluent couper de la nourriture avec un couteau ou encore jouer de la batterie.

Lors d’une conférence à Londres en avril dernier, Julien Simon d’AWS a fit la démonstration d’une des applications d’essai de DeepLens. Ainsi, celle-ci pouvait identifier les chaises, les personnes et les bouteilles dans une pièce. Ce que ça a surtout révélé, c’est que DeepLens ne peut pas faire grand chose tout seul !

DeepLens et la bouteille

Ainsi, lorsque DeepLens a réussi à identifier une bouteille placée au premier rang, M. Simon déclara qu’il était heureux, mais pas non plus extatique. « C’est ça le truc, il doit sélectionner le bon élément parmi seulement une vingtaine de propositions. Donc il est peu probable qu’il le définisse en mouton, mais on ne sait jamais… Bien sur, vous voulez former vos propres modèles, diriger vos propres projets… Et c’est d’ailleurs l’idée : laisser les gens créer des applications sympas ».

Mais la véritable A.I. de consommation, capable d’identifier plusieurs gammes d’objets dans leur ensemble, n’est pas encore d’actualité. Le but d’Amazon est de pousser les gens intéressés à payer pour avoir l’opportunité de participer à ce projet. Et à le rendre possible.

Sous la surface (pas tellement profondément), DeepLens est un kit d’outils expérimental clairement conçu pour les programmeurs de haut niveau. Ça ressemble un peu à un add-on de motion-tracking pour convole (mais bien conçu).

Google ne fait pas la même chose ?

Un mois avant l’annonce d’Amazon en 2017, Google avait déclaré l’existence d’un projet appelé Google Clips, utilisant un appareil assez petit pour être porté. Néanmoins, comparé à DeepLens, Clips n’est pas un kit d’outil d’A.I. expérimental. Mais plutôt un appareil qui utilise la détection de mouvements (ce que Google appelle A.I.) pour capturer ce qui doivent être juste des actions. Sans avoir besoin d’une interaction humaine. Même si l’objectif de Clips est ainsi assez limité, ça permet à Google de maintenir sa place dans la course à l’A.I. dans le monde de l’IoT.

Partagez cet article !