L’Objectifier ne sait qu’allumer et éteindre, mais il a un œil aux aguets et un réseau neuronal dans son Raspberry Pi. Suffisant pour lui apprendre de petits tours, à la manière d’un animal domestique.
Objectifier est un élégant boîtier en bois naturel qui rappelle ses origines nordiques. Normal, c’est le projet de fin d’études de Bjørn Karmann à l’Institut de design interactif de Copenhague.
A première vue, on croit avoir affaire à de la domotique dialoguée façon Alexa, l’assistant vocal d’Amazon, et qu’on va intimer des ordres à l’Objectifier. Sauf que l’objet n’est pas sensible à la voix : il peut apprendre de ce qu’il voit grâce au machine learning – apprentissage automatique. Sauf que (bis), pas de code entre lui et nous. On est plus proche de comment s’y prendre avec un chien, qui ne comprend pas notre langue mais qui se met à sauter partout dès qu’on prend sa laisse.
«En tant que maker, je voulais mettre la puissance de l’apprentissage automatique entre les mains de monsieur Tout-le-Monde.»
Bjørn Karmann
L’Objectifier, équipé d’une prise 220V pour y brancher n’importe quel appareil électrique, sait faire deux choses : allumer et éteindre. Avec sa caméra et son logiciel d’apprentissage, il est capable d’interpréter un objet, un geste ou un mouvement comme une commande.
Principe de base de l’apprentissage de l’Objectifier:
Tout va reposer sur la créativité de l’utilisateur qui choisira l’évènement à associer à l’aide d’un application minimaliste de type oui/non. S’il faut s’armer de patience pour que l’Objectifier percute, au final, la satisfaction est plus grande qu’avec une commande préprogrammée.
Test d’utilisateurs de l’Objectifier:
Comment ça marche ? L’Objectifier repose sur la programmation spatiale où objets, mouvements deviennent l’équivalent des fonctions d’un programme. Bjørn Karmann est passé par cinq prototypes, tous basés sur le programme open source Wekinator, qui prend en charge, parmi d’autres méthodes d’apprentissage, la vision par ordinateur.
Les différentes versions avaient pour but de rendre l’objet le plus intuitif possible pour le non-programmeur. Le premier prototype, par exemple, Pupil, présente la base de l’interaction avec des boutons poussoir (validation des données, traitement et feedback), que l’on va retrouver dans l’application. Côté matériel, le prototype final repose sur un Raspberry Pi 3, un Pi Zero et une Pi Camera et, côté logiciel, sur Wekinator, Processing et Openframeworks.
Bjørn Karmann, 24 ans, s’était déjà fait repérer lors de l’édition 2016 de Youfab. Il était finaliste du concours international de fabrication numérique organisé par le réseau des Fabcafés (né à Tokyo), avec son globe géophonique Newsglobus (on vous en parlait ici). Depuis, il n’a pas tardé à trouver un travail : il est creative technologist chez Tellart à Amsterdam. Sa dernière création en tant que designer d’interaction multidisciplinaire, le Pyrograph, réalisée avec Nicolas Armand et Lars Kaltenbach, est une imprimante à fer à repasser qui produit des images brûlées !
Le site de Bjørn Karmann