Технология, которая позволит использовать поверхность тела для управления смарт-часами
Основной проблемой в современных смарт-часах, помимо их слабой автономности, является неудобство использовать сенсорный дисплей. Это обусловлено небольшим экраном часов, а также еще более небольшими элементами управления в тех случаях, когда требуются навигационные клавиши. Идея Digital Crown в Apple Watch выглядит неплохо, однако для оценки ее удобства стоит дождаться появления этих часов в продаже.
[embedded content]
Однако, есть еще одна интересна идея, как сделать управление на смарт-часах более удобным — использовать для этого область на руке рядом с часами. Герад Лапут (Gierad Laput), аспирант университета Карнеги-Меллон и его товарищи по Future Interfaces Group описали принцип работы органов управления, которые проецируются на руку человека. Для этого используется 4 лазерных диода со статичными изображениями органов управления. Инфракрасные датчики определения положения позволяют определить, когда пользователь нажимает на проецируемую область. Эту технологию можно использовать, чтобы отказаться от сенсорного экрана в принципе.
Компания планирует сделать возможность проецировать различные элементы управления, которые будут меняться в зависимости от запущенного приложения, а с развитием технологий хочет задействовать все большую площадь руки для использования ее в качестве источника ввода информации. Однако, это история из далекого будущего.
Эта разработка была проспонсирована такими компаниями, как Qualcomm и Google. Это не означает, что данная технология управления появится в часах от Qualcomm или будет поддерживаться в Android Wear, однако сам факт того, что крупные компании помогают развиваться таким проектам дает понять их заинтересованность в совершенствовании существующей навигации.
Александр Городников, ht_news@corp.mail.ru
Источник: Wired
[embedded content]
Однако, есть еще одна интересна идея, как сделать управление на смарт-часах более удобным — использовать для этого область на руке рядом с часами. Герад Лапут (Gierad Laput), аспирант университета Карнеги-Меллон и его товарищи по Future Interfaces Group описали принцип работы органов управления, которые проецируются на руку человека. Для этого используется 4 лазерных диода со статичными изображениями органов управления. Инфракрасные датчики определения положения позволяют определить, когда пользователь нажимает на проецируемую область. Эту технологию можно использовать, чтобы отказаться от сенсорного экрана в принципе.
Компания планирует сделать возможность проецировать различные элементы управления, которые будут меняться в зависимости от запущенного приложения, а с развитием технологий хочет задействовать все большую площадь руки для использования ее в качестве источника ввода информации. Однако, это история из далекого будущего.
Эта разработка была проспонсирована такими компаниями, как Qualcomm и Google. Это не означает, что данная технология управления появится в часах от Qualcomm или будет поддерживаться в Android Wear, однако сам факт того, что крупные компании помогают развиваться таким проектам дает понять их заинтересованность в совершенствовании существующей навигации.
Александр Городников, ht_news@corp.mail.ru
Источник: Wired
Ещё новости по теме:
18:20