Google tanzt seinen let­zten Tan­go: Gestern wurde die Ein­stel­lung des Pro­jek­ts Tan­go angekündigt. Stattdessen will der Konz­ern mit der neuen Aug­ment­ed-Real­i­ty-Plat­tform ARCore durch­starten.

Bis­lang hink­te Googles Aug­ment­ed Real­i­ty der Konkur­renz etwas hin­ter­her: Die mobile AR-Plat­tform Tan­go set­zte spezielle Sen­soren voraus, was allerd­ings einen Mehraufwand für die Her­steller bedeutete. Nur zwei Geräte am Markt boten über­haupt die entsprechende Tech­nik an, die Preise waren entsprechend hoch. Aus dieser Nis­che will Google nun aber her­aus­treten und stoppte kurz­er­hand das Pro­jekt Tan­go, wie Google­Watch­Blog verkün­dete. Der Nach­fol­ger, ARCore, ori­en­tiert sich hinge­gen an Apples ARK­it. iPhones und iPads über­lässt Google aber weit­er­hin dem Konkur­renten und entwick­elt seine AR-Soft­ware-Lösung für den Android-Markt.

Software statt Hardware – die Zukunft der Augmented Reality

Während Google mit dem Pro­jekt Tan­go noch auf Spezial­hard­ware set­zte, agiert ARCore allein auf Soft­ware­ba­sis. Das hat zwar den Nachteil, dass weniger Funk­tio­nen zur Ver­fü­gung ste­hen und auch nicht so präzise gear­beit­et wer­den kann, wie es bei der Hard­ware der Fall wäre. Doch was nützt die Tech­nik, wenn es kaum Anwen­dun­gen gibt und selb­st die Entwick­ler bei der Pro­gram­mierung sin­nvoller Apps zöger­lich sind? Der Wech­sel zur Soft­ware ermöglicht es Google hinge­gen, seine AR-Tech­nolo­gie massen­tauglich zu machen.

Auf tech­nis­ch­er Ebene set­zt Google dafür auf die fol­gen­den Schw­er­punk­te: Motion Track­ing, Envi­ron­ment Under­stand­ing und Light Esti­ma­tion. Das heißt, dass sich virtuelle Objek­te im Raum platzieren und dort von allen Seit­en betra­cht­en lassen. Gegebe­nen­falls kön­nen sie auch inter­agieren und sich bewe­gen. Das Motion Track­ing sorgt dafür, dass die Kam­era alle Bewe­gun­gen fest­stellt und so dafür sor­gen kann, dass das virtuell platzierte Objekt fest an seinem Platz bleibt. Wo sich dieser befind­et, lässt sich dank Envi­ron­ment Under­stand­ing recht ein­fach fest­stellen: Die Soft­ware erken­nt hor­i­zon­tale Flächen. So wirkt alles sehr echt und nicht deplatziert. Damit es noch echter wirkt, steuert der Algo­rith­mus der Light Esti­ma­tion die passenden Lichtver­hält­nisse bei, sodass das virtuelle Objekt sich so gut wie möglich im Raum ein­passen kann.

Mit zunehmender Ver­bre­itung wer­den sicher­lich auch die Funk­tio­nen immer zahlre­ich­er wer­den. Entwick­ler kön­nen sich die Soft­ware bere­its auf der offiziellen Inter­net­seite herun­ter­laden. Alle Smart­phone-Besitzer mit Android Oreo kön­nen sich eben­falls schon über neue Funk­tio­nen freuen. Im kom­menden Win­ter will Google den Kreis ausweit­en und bis zu 100 Mil­lio­nen Geräte unter­stützen.