Unreal Engine 4.18: Réalité Augmentée avec ARCore (Android) et ARKit (iOS)

Je prof­ite du dernier Twitch d’Epic sur la Réal­ité Aug­men­tée pour abor­der cette nou­veauté de la 4.18. A quoi ça sert ?  L’idée, c’est d’utiliser la caméra de votre smart­phone pour filmer l’environnement réel, y détecter des sur­faces planes et y dépos­er des objets virtuels… Enfin, ça va beau­coup plus loin, mais l’idée est là. Allons voir cela d’un peu plus près.

Pour le moment,  il est pos­si­ble d’utiliser la plate­forme Android et iOS de façon qua­si-unifiée (on ver­ra qu’il y a quelques dif­férences, mais on s’en sort au final). Quand je dis unifié, je veux dire qu’on peut facile­ment réalis­er une appli­ca­tion qui sera pack­agée pour l’une ou l’autre des plate­formes, en changeant peu de code (ou en inté­grant la dif­férence directe­ment dans le code).  Le Twitch est disponible sur Youtube, le voici:

On com­mence à par­ler d’AR à 4 min 45s.  Je vais vous résumer un peu la chose. En 4.18, la ges­tion de l’AR passe par des plu­g­ins: Google ARCore et Apple ARK­it. Bizarrement, chez moi le sec­ond est activé par défaut et pas le pre­mier. Bref, il faut vous assur­er que le bon soit coché.

L’équipe d’Epic nous pro­pose ce Sam­ple Project. L’intérêt, c’est qu’on dis­pose dedans des Blue­prints néces­saire pour créer rapi­de­ment une appli­ca­tion d’AR.

Pour le tester, vous devez vous assur­er d’avoir un smart­phone com­pat­i­ble. Même si AR Core est prévu pour fonc­tion­ner sur de nom­breux smart­phones Android “à terme”, le SDK Pre­view ne fonc­tion­nera que sur un Sam­sung Galaxy S8 ou un Google Pix­el (+XL, 2, XL). Cela devrait arriv­er pour les autres courant 2018. Prob­a­ble­ment une con­séquence du pro­jet Tan­go.

Tout d’abord, il faut paramétr­er l’environement pour Android (sous Windows/Linux) ou iOS (Mac). Pour Android, il vous fau­dra installer Nvidia Code­Works, tout est dans la doc­u­men­ta­tion. Bon, si vous n’avez pas le matos, vous ne pour­rez pas tester, mais vous pou­vez déjà étudi­er les blue­prints cor­re­spon­dants.

Dans project set­tings, on a une nou­velle option qui per­met de déclencher au lance­ment le mode AR:

Si on ouvre ARPlay­er­Pawn, on trou­ve un traite­ment dis­so­cié, si c’est Android ou iOS.

Il reste encore des dif­férences dans l’implémentation des 2 plate­formes. Notam­ment, sur la façon de détecter l’ensemble des plans (ARK­it est un peu plus opaque – nor­mal, c’est Apple). Mais l’objectif d’Epic est d’obtenir au final un frame­work unifié d’accès à l’AR (32 min). De même, l’idée est de pou­voir utilis­er un espace plus large que celui de la caméra: c’est l’exemple de la table en “L” qu’on va par­courir en plusieurs fois, le but est que le sys­tème “mémorise” qu’il s’agit du même espace. Ce n’est pas encore implé­men­té, mais cela fait par­tie des chal­lenges que ce sont fixés les équipes d’Epic.

Avec ce sam­ple, on peut déjà réalis­er des pro­jets intéres­sants. Les fonc­tions de base sont présentes, il ne reste plus qu’à dévelop­per vos pro­pres fonc­tions.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.