Régulièrement, nous vous proposons l’écho des TOs. Focus sur les sujets phares de Xebia, retours d’experience, présentation de projets internes, etc. Les Technical Officers de Xebia vous partagent leurs actualités.
- Écho des TOs n°1 – From the clouds
- Écho des TOs n°2 – How deep is your love?
- Écho des TOs n°3 – Quand le mobile rencontre la Data
Bienvenue dans ce quatrième écho des TOs
Nous en parlons de plus en plus souvent, mais on ne la voit que rarement en production : nous parlons aujourd’hui de la Réalité Augmentée.
Pour lire cet Echo en musique
Passé Simple
(Re)devenue à la mode suite à la WWDC 2017, la Réalité Augmentée sur mobile est aujourd’hui une fonctionnalité dont aucun fournisseur de systèmes d’exploitation ne veut se priver : en partant d’Android, avec le projet Tango, précurseur (en 2014) des frameworks modernes, en passant par ARKit, jusqu’à ARCore sorti de beta depuis quelques mois.
La promesse est simple : transformer votre téléphone en un viseur permettant d’enrichir ce que vos yeux observent, au travers d’un système de capteurs et de logiciels capables de reconstruire le modèle tridimensionnel de l’espace qui vous entoure.
Présent : Talks & ARticles
Côté Xebia, nous avons eu hâte d’explorer les nouveaux cas d’usage proposés par cette technologie et nous nous sommes attachés à fournir, au cours des 12 derniers mois, une vision détaillée à nos auditeurs en conférence ainsi qu’à nos lecteurs.
Plus concrètement, deux talks ont été présentés en conférence :
Update Your Reality with Vision and ARKit, à la FrenchKit
https://www.youtube.com/watch?v=J2Hyhh9fN2U&t=131s[/youtube]
Réalité Augmentée pour les terminaux iOS, à la XebiCon
Également, nous avons publié une série de 3 articles :
- ARKit en 5 étapes
- ARKit et Vision : détecter et positionner un objet
- ARKit et Vision : positionner et dessiner un objet
La série illustre comment démarrer avec la bibliothèque ARKit et, surtout, comment se servir des frameworks de vision par ordinateur (tels que Vision) et de Réalité Augmentée afin de mettre à jour automatiquement nos cartes de jeu des frameworks iOS.
Futur antérieur : AR + ML
Si, d’un côté, les technologies sous-jacentes de l’AR passent par la vision par ordinateur, les expériences les plus réussies dans ce domaine requièrent une compréhension avancée de l’environnement autour de nous. Et bien sûr, qui dit reconnaissance et compréhension, dit (souvent) Machine Learning.
Notamment, la reconnaissance de features finalisée à l’AR est un cas d’usage particulièrement intéressant du binôme Machine Learning + Mobile : le contexte demande en effet une exécution des modèles en temps réel et donc d’exploiter les {C,G}PU de nos terminaux à cette fin…
Ceci nous amène à l’un de nos projets internes : une application capable de reconnaitre en temps réel, grâce à Core ML + FaceNet, les Xebians qui transitent devant la caméra de notre iPhone, et d’ajouter en AR, à côté de leurs visages, les informations essentielles le concernant. Le projet, mené par Julien Datour, Simone Civetta et Yoann Benoit, a été présenté lors du DataXDay.
[BREAK] Catch you https://twitter.com/MDupoisson?ref_src=twsrc%5Etfw »>@MDupoisson</a>! The app « Chaperon Rouge » is developed by https://twitter.com/XebiaFr?ref_src=twsrc%5Etfw »>@XebiaFr</a> and can recognize every Xebians! Go on their stand to learn more https://twitter.com/hashtag/DeepLearning?src=hash&ref_src=twsrc%5Etfw »>#DeepLearning</a> https://twitter.com/hashtag/ArtificialIntelligence?src=hash&ref_src=twsrc%5Etfw »>#ArtificialIntelligence</a> https://t.co/arRrksXElW »>pic.twitter.com/arRrksXElW
— #DataXDay (@DataXDay) https://twitter.com/DataXDay/status/997071103515389952?ref_src=twsrc%5Etfw »>17 mai 2018
L’application sera de nouveau à tester lors de la XebiCon’18 !
Ils sont cités dans l’article (et les avez peut-être déjà rencontrés) :
Ils sont cités dans l’article, et vous les avez peut-être déjà croisés
Simone Civetta | Julien Datour | Yoann Benoit |
|
|
|