![]() |
||||
L’Echo des TOs #4
Virtual Insanity |
Chaque mois, nous vous proposons l’écho des TOs. Focus sur les sujets phares de Xebia, retours d’expérience, présentation de projets internes, etc. Les Technical Officers de Xebia vous partagent leurs actualités.
- Écho des TOs n°1 – From the clouds
- Écho des TOs n°2 – How deep is your love?
- Écho des TOs n°3 – Quand le mobile rencontre la Data
Bienvenue dans ce quatrième écho des TOs
Nous en parlons de plus en plus souvent, mais on ne la voit que rarement en production : nous parlons aujourd’hui de la Réalité Augmentée.
Pour lire cet Echo en musique
Passé Simple
(Re)devenue à la mode suite à la WWDC 2017, la Réalité Augmentée sur mobile est aujourd’hui une fonctionnalité dont aucun fournisseur de systèmes d’exploitation ne veut se priver : en partant d’Android, avec le projet Tango, précurseur (dès 2014) des frameworks modernes, en passant par ARKit pour iOS, jusqu’à ARCore pour Android sorti de beta depuis quelques mois.
La promesse est simple : transformer votre téléphone en un viseur permettant d’enrichir ce que vos yeux observent, au travers d’un système de capteurs et de logiciels capables de reconstruire le modèle tridimensionnel de l’espace qui vous entoure.
Présent : Talks & ARticles
Côté Xebia, nous avons eu hâte d’explorer les nouveaux cas d’usage proposés par cette technologie et nous nous sommes attachés à fournir, au cours des 12 derniers mois, une vision détaillée à nos auditeurs en conférence ainsi qu’à nos lecteurs.
Plus concrètement, deux talks ont été présentés en conférences :
Update Your Reality with Vision and ARKit, par Julien Datour à la FrenchKit
Cliquer ici pour voir la vidéo.
Réalité Augmentée pour les terminaux iOS, par Julien Datour et Simone Civetta à la XebiCon
Cliquer ici pour voir la vidéo.
Nous avons également publié une série de 3 articles :
- ARKit en 5 étapes
- ARKit et Vision : détecter et positionner un objet
- ARKit et Vision : positionner et dessiner un objet
La série illustre comment démarrer avec la bibliothèque ARKit et, surtout, comment se servir des frameworks de vision par ordinateur (tels que Vision) et de Réalité Augmentée afin de mettre à jour automatiquement nos cartes de jeu des frameworks iOS.
Futur antérieur : AR + ML
Si, d’un côté, les technologies sous-jacentes de l’AR passent par la vision par ordinateur, les expériences les plus réussies dans ce domaine requièrent une compréhension avancée de l’environnement autour de nous. Et bien sûr, qui dit reconnaissance et compréhension, dit (souvent) Machine Learning.
Notamment, la reconnaissance de features finalisée à l’AR est un cas d’usage particulièrement intéressant du binôme Machine Learning + Mobile : le contexte demande en effet une exécution des modèles en temps réel et donc d’exploiter les {C,G}PU de nos terminaux à cette fin…
Ceci nous amène à l’un de nos projets internes : une application capable de reconnaitre en temps réel, grâce à Core ML + FaceNet, les Xebians qui transitent devant la caméra de notre iPhone, et d’ajouter en AR, à côté de leurs visages, les informations essentielles le concernant. Une première version du projet, mené par Julien Datour, Simone Civetta et Yoann Benoit, a été présentée lors du DataXDay.
[BREAK] Catch you @MDupoisson! The app « Chaperon Rouge » is developed by @XebiaFr and can recognize every Xebians! Go on their stand to learn more #DeepLearning #ArtificialIntelligence pic.twitter.com/arRrksXElW
— #DataXDay (@DataXDay) 17 mai 2018
Le projet continue !
La réalité augmentée est l’un des sujets phares chez Xebia en 2018.
Vous souhaitez continuer d’en savoir plus ? Rendez-vous à la XebiCon’18, le 20 novembre prochain, pour découvrir les conférences sur la Réalité Augmentée et (re)tester l’application !
Ils sont cités dans l’article (et les avez peut-être déjà rencontrés) :
Ils sont cités dans l’article, et vous les avez peut-être déjà croisés
Simone Civetta | Julien Datour | Yoann Benoit |
|
|
|