Компания Google работает над реализацией бесконтактного интерфейса, с помощью которого мы сможем управлять смартфонами, планшетами и прочими электронными устройствами с помощью жестов руками, не касаясь никаких физических органов управления (сенсорный экран, кнопки, пульт ДУ и пр.).

Мини радар Google Project Soli подключенный к смартфону или планшету позволяет управлять ими бесконтактными жестами и даже… набирать текст не касаясь экрана

В рамках проекта Soli компанией был создан мини радар, который позволяет не только управлять отдельными элементами интерфейса подключенного к нему смартфона, но и даже... набирать текст просто шевеля в воздухе пальцами.

 

 

Мы уже видели устройства, которые позволят управлять нашими смартфонами или планшетами с помощью жестов, но большинство из ни их подобно умному кольцу Samsung пользователь должен одевать на себя.

 

Радар созданный Google в рамках проекта Project Soli лишен этого недостатка, что можно увидеть в ролике, опубликованном в Сети его разработчиками:

 

 

Впечатляет, не правда ли? Если компании удастся встроить этот радар в экраны наших смартфонов, возможности управления ими поднимутся на новый, совершенно другой уровень.

 

Больше подробностей о ходе работ по проекту Soli мы, вероятнее всего, узнаем уже в мае этого, 2016 года на конференции разработчиков Google I/O, которая будет проходить в Маунтин-Вью с 18 по 20 мая.

 


Похожие материалы:

Система управления взглядом Eye Tribe будет доступна для планшетов и смартфонов (Видео) 

Apple работает над экранами, которые смогут распознавать бесконтактные жесты в трех измерениях? 

FingerAngle. Новая, весьма многообещающая сенсорная технология для экранов мобильных устройств (Видео) 

Будущее носимых устройств Samsung: умные поясные ремни, наручный контроллер виртуальной реальности и возможность передавать звук через тело человека