ARKit utilizza la Visual Inertial Odometry (VIO) per tracciare ed identificare il contesto reale che ruota intorno ad un iDevice. VIO fonde i dati raccolti dal sensore di una videocamera con i dati CoreMotion. Questi due input permettono ad un dispositivo di capire come spostare gli oggetti digitali nell'ambiente in cui è collocato senza la necessità di ulteriori calibrazioni attraverso sensori esterni.

ARKit

Tramite ARKit i device equipaggiati con iOS 11 potranno analizzare la scena ripresa dalla fotocamera per trovare i piani orizzontali che la costituiscono, come per esempio i tavoli, le finestre, le mensole o qualsiasi altro elemento di arredo; nello stesso modo ARKit può anche individuare piccoli oggetti posizionati al di sopra di queste superfici. Verrà stimato in automatico anche il livello di luminosità disponibile in un stanza, cosi da poter applicare la giusta quantità di ombre e le luci più corrette agli oggetti digitali.

ARKit è stato pensando per girare sui SoC Apple A9 e A10, queste CPU assicurano un apporto sufficiente di risorse per offrire un'esperienza ottimale di realtà aumentata. Il team di Apple ha inoltre reso compatibili queste interfacce per la programmazione con diversi engine grafici tra cui Unity e Unreal Engine, in modo tale da mettere a disposizione dei developer di terze parti tutti gli strumenti di cui hanno bisogno per realizzare le proprie applicazioni.

Chi fosse interessato a sviluppare da subito questo tipo di soluzioni potrà farlo da subito scaricando iOS 11 Beta e l'ultima Beta di Xcode 9 che include l'iOS 11 SDK per l'implementazione di feature AR.

Via Developer Apple

CommentaDi' la tua

Il tuo indirizzo email non sarà mostrato pubblicamente. I campi obbligatori sono contrassegnati da *