Неожиданное исчезновение барьера между тем, что происходит в реальности, и цифровым мирком на дисплее карманного устройства, не может не производить впечатление. Обычно гаджеты не "осознают", что за пределами их крохотного экранчика что-то происходит, пока пользователь не нажмет на соответствующую кнопку. Когда в таких устройствах появляются датчики, позволяющие им осмысленно реагировать на окружающий мир, они превращаются в идеальные элементы материального интерфейса.

Всем известны элементарные операции, на которых строится GUI, - клик, двойной клик, перетаскивание. Азбука материального интерфейса состоит из движений, которые человек совершает при использовании устройства. Самая простая и распространенная операция, которую уже поддерживают многие гаджеты, - это автоматическое изменение ориентации экрана при повороте устройства. Если в современном мобильном телефоне есть акселерометр - скорее всего, он встроен для этого. Однако ему находят и другие применения. Производители карманных устройств вошли во вкус и шаг за шагом расширяют "язык жестов", который понимает их продукция.

Мобильники Sony Ericsson перемешивали музыку при встряхивании задолго до появления iPod nano со встроенным акселерометром. Другой жест, постепенно получающий распространение, служит для отключения звука. Чтобы заставить замолчать звонок Samsung i900 или Nokia 8800 Arte, достаточно перевернуть устройство лицевой стороной вниз. В некоторых "раскладушках" Sony Ericsson с той же целью изобретательно применена встроенная камера: телефон затихает, если помахать над ним рукой. В Samsung подумывают о развитии этой идеи и весной запатентовали сложную систему знаков, которые устройства смогут распознавать при помощи все той же камеры. На первый взгляд даже слишком сложную - чтобы ее запомнить, нужны усилия.

Более разумным кажется подход компании Gesturetek, которая сооружает интерактивные дисплеи c середины восьмидесятых и собаку съела на системах управления с помощью жестов. Несколько лет назад она заинтересовалась мобильными телефонами и разработала программный "движок" под названием EyeMobile. С его помощью отслеживать перемещения устройства в пространстве можно даже в том случае, когда акселерометра нет. Информация о направлении и скорости движения извлекается из видеосигнала, получаемого со встроенной камеры.

В Gesturetek не стали изобретать собственный язык знаков и попытались придать дополнительный смысл естественным жестам, которые владельцы телефонов делают и так. Например, характерное вертикальное движение, которым мобильник подносят к уху, программа интерпретирует как команду снять трубку, а чтобы перелистнуть страницу, устройством нужно тряхнуть в соответствующем направлении. Эту технологию используют в нескольких телефонах, которые продаются в Японии (правда, главным образом для мобильных игр[Именно EyeMobile использован в мобильной версии знаменитой Katamari Damacy.]), но у Gesturetek уже есть варианты этого движка для Windows Mobile и Symbian и даже приложения, поддерживающие управление с помощью EyeMobile: браузер, карты и галерея.

Самые интересные особенности интерфейса iPhone тоже основаны на принципе непосредственного взаимодействия с объектами. И в Apple догадываются, что сильная сторона их детища именно в этом, а не в дизайне и красивых иконках. "Люди не понимают, что мы изобрели новый класс интерфейсов", - говорил год назад Джобс, а затем пояснял: все дело в том, что в интерфейсе iPhone почти отсутствуют глаголы. Особенность, к которой пытался привлечь внимание глава Apple, действительно очень важна. Пользователь традиционного графического интерфейса сначала выбирает объект, а затем указывает в меню действие, которое над ним необходимо совершить, - тот самый "глагол", о котором говорил Джобс. Пользователю материального интерфейса меню с "глаголами" ни к чему: он берет объект и сам, своими руками делает с ним то, что нужно. Так работают мультитач-жесты, воспринимаемые эппловским телефоном, так работает прокрутка в браузере и картах iPhone, так работают инерционные списки.

Мелочь? Конечно. Но учтите, что развитие материальных интерфейсов лишь начинается. Они, конечно, не вытеснят привычный GUI - лучшим способом ввода текста так и останется клавиатура. Однако перевести взаимодействие человека с машиной на новый уровень им вполне по силам. Дайте только срок.

reactable

Журнал

Синтезатор reactable, разработанный в Португалии пять лет назад - прямой наследник системы metaDESK, на которой Хироси Исии из медиа-лаборатории MIT оттачивал концепцию материального интерфейса в 1997 году. reactable тоже состоит из стола-дисплея, на который проецируется компьютерное изображение, и набора материальных кубиков-иконок (создатели reactable называют их "тангибли"). Необычность reactable в том, что это не столько синтезатор, сколько музыкальный конструктор. У каждого кубика - своё назначение. Некоторые из них интерпретируются системой как генераторы звуковых частот, другие представляют собой фильтры, третьи - это кубики-секвенсоры. Когда кубик оказывается на столе, он немедленно включается в работу, а на поверхности reactable появляются линии, соединяющие его с другими. Чтобы изменить настройки модуля синтезатора (например, увеличить частоту, которую он генерирует), достаточно повернуть соответствующий ему "тангибль" вокруг своей оси. Передвижения кубиков отслеживает камера, спрятанная под полупрозрачной поверхностью стола.

Исполнение даже несложной мелодии на reactable превращается в целое представление. Чтобы совладать с таким музыкальным инструментом, требуется хорошая координация движений и изрядная сноровка - почти такая же, как для игры на терменвоксе. Вдобавок, справиться в одиночку с изобилием "тангиблей", каждый из которых требует внимания, очень трудно - нужны помощники. Зато и зрелище выходит крайне интересным.


Перейти на страницу:
Изменить размер шрифта: