요약: 지난주, Facebook은 휴먼 컴퓨터 상호 작용 (HCI)의 미래에 대한 3부작 시리즈를 시작했습니다. 첫 번째 포스트에서는 문맥/상황 인지 AI 기반 인터페이스를 기반으로, 이용자가 직접 공유한 정보를 활용해 원하는 시간에 원하는 작업을 제안하는 추론 기능을 가진 AR 안경에 대한 향후 10년 간의 비전을 소개했습니다. 오늘은 보다 단기간 내에 실현될 가능성이 높은 연구에 대해 공유드리고자 합니다. 기능 면에서는 다소 제한적이지만 가까운 시일 내 사용 가능한 문맥/상황 인지 AI를 결합한 손목 기반 입력 방식으로, 이용자와 이용자의 환경에 맞춰 동적으로 적응하는 시스템입니다. 아울러 올해 후반에는, 하루종일 편안하게 착용할 수 있는 올데이(all-day) 웨어러블 디바이스를 개발하는 소프트 로보틱스 분야의 획기적인 연구를 소개하고, Facebook의 햅틱 장갑 연구에 관한 최신 소식도 함께 전해드릴 예정입니다.
Facebook 리얼리티 랩(FRL) 리서치는 사람과 기기 사이에서 양자택일을 강요하지 않는 증강 현실(AR)을 위한 인터페이스를 만들고 있습니다. Facebook은 항시 이용 가능한 AR 안경을 사용하여 더 자연스럽고 직관적으로 상호작용하는 방법을 개발하고 있으며, 이를 통해 장소의 제약을 넘어 사람들과 소통하는 방법을 바꿀 수 있다고 믿습니다.
FRL을 총괄하는 앤드류 보스워스(Andrew Bosworth) 이렇게 표현합니다: “원하는 곳이라면 전 세계 어디로든 순간이동하여 인생에서 가장 중요한 사람들과 서로의 경험을 공유 할 수 있다고 상상해보십시오. 바로 이것이 AR 안경이 약속하는 미래입니다. 현실 세계와 가상 세계의 융합을 통해 일상 생활의 근본을 변화시키고 더 나은 방법을 제공하는 것이죠.”
AR 안경은 휴대폰처럼 좁은 손바닥으로 이용자의 관심을 유도하는 대신, 이용자가 보는 것과 동일하게 세상을 바라봅니다. 때문에 처음으로 사람을 컴퓨팅 경험의 중심에 두고, 디지털 세계를 3차원으로 실현해 실제 세상에서의 커뮤니케이션, 탐색, 학습, 공유, 활동을 가능하게 합니다.
휴먼 컴퓨터 인터랙션(HCI)의 미래는 불편함이 거의 없는 것은 물론, 학습과 사용이 수월하고, 높은 안정성과 개인정보 보호 수준을 포함하며, 언제나 현실 세계에 온전히 존재하도록 해주는 고성능 인터페이스가 필요합니다. 이러한 인터페이스가 디지털 세상과 상호작용하는 기본 방식으로 자리잡기 위해서는 많은 혁신이 필요할 것입니다. 그 중 가장 중요한 요소 두 가지는 사람의 의도를 이해하는 문맥/상황 인지 AI, 그리고 시스템과 간편하게 커뮤니케이션하고 명령을 내릴 수 있도록 이용자의 불편함을 최소화한 입력 방식(ultra-low-friction input)입니다. AI는 이용자와 이용자의 주변에 대한 이해를 바탕으로 다양한 상황 속 이용자가 필요로 하는 정보나 원하는 것을 심층적으로 예측하고, 맞춤 옵션을 제시합니다. 새로운 입력 방식은 이용자가 보다 쉽고 빠르게 원하는 옵션을 선택할 수 있도록 도와줄 것입니다. 마치 손가락을 튕겨 언제나 클릭할 수 있는 가상 버튼처럼 말이죠.
그러나 이런 시스템은 수년 후에나 가능해질 것입니다. 그래서 오늘 우리는 보다 가까운 미래에 실현될 수 있는 버전을 자세히 살펴보고자 합니다. 이는 가까운 미래에 사용 가능하지만 기능 면에서는 다소 제한적인 문맥/상황 인지 AI를 결합한 손목 기반 입력 방식으로, 이용자와 이용자의 환경에 맞춰 동적으로 적응하는 시스템입니다.
FRL Research(당시 Oculus Research)가 처음 설립된 6년 전, Facebook은 AR 안경 사용에 이상적인 입력 디바이스를 구상하기 시작했습니다. Facebook의 목표는 사람들의 다양한 필요를 충족할 수 있고 일상 속 마주하는 모든 상황에서 손쉽게 사용할 수 있는 유비쿼터스 입력 기술을 개발하는 것이었습니다. 시스템은 직관적이고, 언제든 사용할 수 있고, 일상에 방해되지 않으며, 사용이 간편해야 했습니다. 이상적으로는 가상의 사물을 조작하거나 문서를 편집하는 등 집중이 요구되는 기기와의 상호작용 유형을 처리하기 위한 풍성하고 넓은 대역폭을 지원해야 했습니다. 더불어 온종일 착용하고 사용할 수 있을 만큼 충분히 편한 외형과 높은 전력 효율성을 갖추는 것도 중요했습니다.
이처럼 요구 사항은 매우 많았지만, 가능성을 타진해보니 두 가지 사실이 명확해졌습니다. 첫째, 당시 존재하는 그 어떤 기기도 이 모든 기준을 충족할 수 없다는 것이었습니다. 둘째, 손목에 착용하는 기기가 이러한 기준을 충족하는데 가장 근접한 솔루션이라는 점입니다.
손목형 기기를 지향하는 이유
왜 손목형이어야 할까요? 현재 사용할 수 있는 다른 입력 방식도 많이 있고, 모두 그 유용성을 증명해왔습니다. 음성 인식 기술은 직관적이지만 개인정보 보호 수준이나 안정성이 낮습니다. 휴대폰이나 게임기처럼 주머니에 보관할 수 있는 별도 기기의 경우, 이용자와 환경을 연결하는 데 있어 불편함이 가중되는 단점이 있습니다. 모든 가능성을 연구한 결과, 손목형 입력 디바이스가 가장 적합하다는 명확한 답을 얻을 수 있었습니다. 손목은 보통 많은 사람들이 시계를 착용하는 위치이므로 일상생활이나 사회적 상황에 적절하게 어울릴 수 있고, 온종일 기기를 착용하기에 편안한 부위입니다. 또 세상과 소통하기 위해 주로 사용되는 수단인 손과도 바로 연결되어 있어 손의 광범위한 제어 능력을 활용할 수 있습니다. 덕분에 보다 직관적이고, 효과적이며, 만족스러운 상호작용이 가능해집니다.
손목형 웨어러블 기기는 쉽게 컴퓨팅, 배터리, 안테나 플랫폼 역할을 하면서 여러 센서 배열을 지원한다는 장점도 있습니다. 이후 남은 과제는 풍부한 입력을 위한 명확한 방법을 찾는 것이었는데, 잠재적으로 가장 이상적인 솔루션은 근전도검사(EMG)였습니다.
EMG는 센서를 기반으로 척수에서 손목을 통해 손으로 전달되는 전기적 운동 신경 신호를 디지털 명령으로 변환시켜 기기의 기능을 제어하는 데 사용합니다. 이러한 시그널을 통해 다양한 상황에 맞게 조정될 수 있는 간결한 개인 맞춤형 1비트 명령을 기기에 전달할 수 있습니다.
손목으로 통하는 이 신호는 아주 명확해서 손가락을 1mm만 움직여도 EMG가 그 움직임을 유추할 수 있습니다. 이는 입력을 매우 간편하게 만듭니다. 궁극적으로는 손가락 하나를 움직이려는 의도까지 감지하게 될 수도 있습니다.
인터페이스 담당 이사 토마스 리어던(Thomas Reardon)은 “신경 인터페이스를 통해 이루고자 하는 목표는 신체를 움직이는 뇌 바깥에 있는 신경인 말초 신경계의 출력을 이용하여 기계를 직접 제어할 수 있도록 하는 것입니다”라고 전했습니다. “입력하거나 살짝 미는 동작이 아니라 신경계를 통해 우리 신체와 동일한 방식으로 의도를 표현하는 것입니다. 손목 밴드는 연장 신경계에서 뉴런의 전기적 활동을 사용하여 기기와 상호작용할 수 있는 완전히 새롭고 직관적인 방법을 내포하고 있습니다.”
EMG 기술에 대해 명확히 짚고 넘어가야할 점은, EMG가 독심술은 아니라는 것입니다. 예를 들어, 여러 장의 사진이 있다면 그 중 몇 장을 선택해 다른 사람과 공유하는 것이 일반적입니다. 생각과 행동의 관계도 이와 비슷합니다. 이용자는 여러가지 생각을 가지고 있지만, 실제 행동으로 이어지는 것은 그 중 일부에 불과합니다. 그 선택의 과정에서, 뇌는 손과 손가락에 신호를 보내 타이핑이나 화면 밀기 등의 동작을 수행하기 위해 특정한 방식으로 움직이도록 명령합니다. EMG는 이미 뇌에서 결정한 행동을 수행하기 위해 보내는 ‘신호’를 손목에서 읽어내고, 이를 디지털 명령어로 전환해 디바이스에 전달하는 기술입니다. 휴대 전화에서 음악을 선택하거나, 마우스를 클릭하고 키보드로 입력 할 때, 신호를 기반으로 미리 기기에 전송된 명령에 따라 작업을 수행하면 그 속도가 훨씬 빨라집니다.
손목을 통한 동적 제어
EMG 기술이 처음 상용화될 초기 단계에서는 버튼을 누르는 행위처럼 간단한 소위 “클릭”이라는 컨트롤 기능부터 사용 가능할 것으로 보입니다. 엄지와 검지를 붙였다 떼는 것처럼 이용자가 어디에 있든, 어떤 행동을 하고 있든 관계 없이 쉽게 할 수 있는 동작 기반 제스처를 기반으로 합니다. 별도의 실행 단어 없이 손가락을 붙였다 떼기만 해도 작동하기 때문에 불편함이 거의 없는 최초의 AR 기반 유비쿼터스 상호작용이라고 할 수 있습니다.
하지만 이는 시작에 불과합니다. 다가올 미래, EMG는 보다 풍부하고 다양한 컨트롤 기능들을 제공할 것입니다. 아래 시연 영상에서 볼 수 있듯이, AR분야에서는 실제로 가상 UI와 개체를 터치하고 이동할 수 있게 될 것입니다. 또한 마치 스타워즈의 ‘포스(Force)’와 같은 초능력처럼 멀리 떨어져있는 가상 물체를 움직일 수도 있을 겁니다.
궁극적으로, EMG 기술을 통해 별도의 기기 없이 테이블이나 무릎 위에서 오늘날 키보드를 사용하는 것 보다 훨씬 빠른 속도로 타이핑을 하게 될 가능성이 높습니다. 초기 연구 결과는 매우 고무적입니다. 실제로 2019년 FRL에 합류 한 이후, CTRL-labs 팀은 개인의 타이핑 속도와 기술에 적응하는 맞춤형 키보드 모델을 훈련하는 데 걸리는 시간을 크게 감소시키는 진전을 이루었습니다.
리어던은 “신경 인터페이스의 목표는 인간과 컴퓨터 간 상호작용의 긴 역사를 뒤엎고, 기계가 아닌 인간에게 더 큰 통제권을 선사하는 것입니다. 우리는 인간이 전체 경험의 절대 중심에 있는 컴퓨팅 경험을 지향합니다”라고 설명합니다.
QWERTY 키보드를 예로 들어보겠습니다. 발명된 지 150년이 지났지만, 이 키보드는 아직도 개선해야할 점이 매우 많죠. 하지만 시간이 지남에 따라 오타를 비롯한 이용자 고유의 입력 방식을 학습하고, 이에 적응하는 가상 키보드가 있다면 어떨까요? 이용자, 그리고 다른 모든 이들이 하나의 동일한 형식의 물리적 키보드를 학습하는 것이 아니라, 키보드가 서서히 이용자 개인에 맞춰 변화하는 식이죠. 따라서 기계적 입력 인터페이스보다 훨씬 빠른 입력이 가능해지고, 이용자가 곧 키보드이기 때문에 언제라도 사용할 수 있을 것입니다. 무엇보다, 가상 타이핑 또는 클릭과 같은 컨트롤 방식의 장점은 사람들이 이미 그 방식에 능숙하다는 사실입니다.
적응형 인터페이스와 지능형 클릭을 위한 여정
그렇다면 좀 더 가까운 시일 내에 실제로 사용할 수 있는 기술은 무엇이 있으며, 이를 상용화하기 위해서는 어떤 과정이 필요할까요?
호르보예 벤코(Hrvoje Benko) FRL 리서치 사이언스(FRL Research Science) 이사는 “우리는 이 손목 밴드 웨어러블 디바이스가 불편함이 거의 없고 항상 이용할 수 있는 AR 안경용 입력 방식이 될 것이라고 확신합니다. 그러나 그것이 모든 방면에서 완벽한 단일 솔루션이라고 할 수는 없습니다. 마우스도 결국에는 GUI의 한 부분에 불과한 것과 마찬가지입니다. 손목 밴드 웨어러블 디바이스는 의도 예측 기술, 이용자와 그의 현실 속 특정 상황에 맞춰가는 사용자 모델링의 지원을 받아야 합니다”라고 말했습니다.
원하는 작업을 수행하기 위해 메뉴를 클릭하고 직접 살펴보는 대신, 시스템에서 메뉴를 선정해 제공하고 간단한 “클릭” 제스처로 선택만 할 수 있다면 어떨까요? 이것이 바로, 미세한 제스처의 입력, 적응형 인터페이스와 결합한 “지능형 클릭(intelligent click)”이라는 개념입니다.
탄야 용커(Tanya Jonker) FRL 리서치 사이언스 관리자는 “근본적으로 AI는 이용자가 미래에 무엇을 원하게 될지 어느 정도 이해할 수 있습니다”라고 설명합니다. “예를 들어 이용자가 조깅을 하러 밖에 나갔다면, 시스템은 과거의 행동에 기반해 이용자가 조깅 플레이리스트를 재생할 가능성이 높다고 판단합니다. 그리고 화면에 ‘조깅 플레이리스트를 재생할까요?’라는 옵션을 표시합니다. 이것이 바로 적응형 인터페이스의 작동 방식입니다. 이용자는 미세한 제스처를 사용하여 간편하게 제안된 옵션을 확인하거나 변경할 수 있습니다. 지능형 클릭은 이렇게 상황적 관련성이 높은 행동을 불편함이 거의 없는 방식으로 수행할 수 있도록 합니다. 이는 인터페이스가 이용자의 개인적인 행동 이력과 선택에 기반해 관련성이 높은 옵션을 보여주고 최소한의 입력 제스처로 실행할 수 있도록 하기 때문입니다.”
한 번의 상호작용마다 절약되는 시간이 단 몇 초라고 해도, 쌓이면 긴 시간을 아낄 수 있습니다. 하지만 그보다 더 중요한 것은 이러한 미세한 제스처가 이용자의 생각이나 움직임의 흐름을 방해하지 않아야 한다는 점입니다. 예를 들어, 디지털 세상에 접속하기 전 원하는 앱을 열기 위해 하고 있던 행동을 멈출 필요가 없다면, 생각보다 많은 시간을 절약할 수 있을 겁니다. AR 안경과 진정으로 우리의 삶을 개선하고 현재를 살아가도록 하려면, 필요한 경우에만 디지털 정보를 제공하고 이후에는 다시 자연스럽게 배경적인 역할만 할 수 있도록 물러나는 적응형 인터페이스가 필요합니다.
용커는 “인터페이스는 이용자가 계속해서 주의를 기울여야 하는 것이 아니라, 필요할 때 등장했다 사라져야 합니다. 또한, 효과적인 제안 시스템에 대한 이용자의 아주 간단한 피드백만을 기반으로 자체적인 기능 조정을 수행하고, 결과적으로는 시스템 전체의 개선이 이루어져야 합니다”라고 말했습니다.
적응형 인터페이스를 구현하기 위해서는 이처럼 까다로운 요구 사항을 만족시켜야 하며, 기술적 어려움도 아직 많이 남아 있습니다. 이용자와 그가 처한 상황을 파악하고 해석하는 인터페이스를 구축하려면 머신 러닝, HCI 그리고 이용자 인터페이스 디자인의 발전이 고루 필요합니다.
용커는 “예를 들어 시스템이 이용자의 위치와 중요하게 생각하는 물체, 또는 활동 인식과 같은 사항에 대해 학습할 경우, 이용자가 신발을 신고 집을 떠날 때 음악 앱을 자주 실행했음을 자동적으로 알게됩니다. 이후 음악을 재생할 것인지 묻고 클릭 한 번으로 이용자가 이를 확인할 수 있도록 합니다. 이보다 더욱 간단하고 실행 가능한 예는 현재 연구 과정에서 탐색해 나가고 있습니다”고 전했습니다.
햅틱에 중점 두기
손가락 튕기기나 미세한 제스처처럼 불편함이 거의 없는 입력 방식으로 적응형 인터페이스와 상호작용할 수 있지만, 피드백 루프를 완성하기 위해서는 다른 방법이 필요합니다. 바로 시스템이 다시 이용자와 커뮤니케이션하도록 만드는 것입니다. 여기서 햅틱(감각)이 중요한 역할을 합니다.
션 켈러(Sean Keller) FRL 리서치 사이언스 디렉터는 “태어나서 처음으로 무언가를 잡는 행동부터 손과 손가락으로 개체를 조작하고 키보드로 입력하는 것에 이르기까지, 우리는 매우 풍부한 피드백 루프를 경험하게 됩니다. 여기에서 무언가를 보고 손과 손가락으로 행동하며 세상과 상호작용하고 감각을 느끼게 되는 것입니다. 우리는 이러한 햅틱 신호를 활용해 세상에 대해 배우도록 진화해왔습니다. 햅틱은 우리에게 도구를 사용하는 방법과 섬세한 제어 방법을 알려줍니다. 메스를 사용하는 의사부터 건반의 강도를 느끼며 연주하는 피아니스트까지, 모두 햅틱에 의존합니다. 손목 밴드는 아직 시작 단계에 있고 현실에서 실제 개체와 상호작용할 때 느낄 수 있는 모든 감각을 복제할 수는 없지만, 상당 부분을 구현해내기 시작했습니다.”
가상의 활과 화살을 사용한다고 가정해 보죠. 이 때 손목기반 햅틱을 사용해 활의 현을 뒤로 당기는 감각과 비슷한 햅틱을 구현하면 올바른 동작을 하고 있다는 확신이 들 수 있습니다.
사용자의 기본 설정에 따라 ‘긴급’으로 표시된 메일을 받으면 진동과 떨림을 여러 번 느끼고, 일반적인 이메일은 한 번만 떨리거나 햅틱 피드백이 전혀 없을 수 있습니다. 전화가 오면 손목의 조임 정도가 증가하거나 감소함으로써 이용자가 전화를 받거나 무시해도 괜찮은지를 알려줍니다. 시각적 피드백이 거의 또는 전혀 없이 동작을 수행할 수 있는 것이고, 이는 전화를 받거나 음성 메일로 전환하는 지능형 클릭에 해당됩니다. 이 모든 것들이 HCI가 사용자와 기기 간의 양방향 대화 역할을 하도록 하는 돕는 햅틱 피드백의 대표적인 예입니다.
니콜라스 콜로네스(Nicholas Colonnese) FRL 리서치 사이언스 관리자는 “햅틱은 다양한 감정도 전달할 수 있는데, 우리는 이를 햅틱 이모티콘이라고 합니다. 문맥/상황에 맞게 다양한 햅틱 피드백에 따라 인기 있는 이모티콘과 매칭시켜 이용자가 이를 사용할 수 있도록 합니다. 이는 더 나은 소셜 커뮤니케이션을 위한 새롭고 재미있는 방식이 될 수 있습니다.”라고 말합니다.
Facebook은 현재 손목 밴드 햅틱 학습에 도움이 될만한 여러 일회성 연구 프로토타입을 살펴보고 있습니다. 이 중 한 가지가 ‘벨로밴드(Bellowband)’로, 8개의 공압 벨로가 손목을 둘러싸고 있는 부드럽고 가벼운 손목 밴드입니다. 벨로 안의 공기를 제어하여 흥미로운 압력 및 진동 햅틱 피드백을 만들어낼 수 있습니다. 이는 햅틱 피드백의 유형을 결정하는 데 도움을 주는 초기 연구 프로토타입입니다.
또 다른 프로토타입은 Tactile and Squeeze Bracelet Interface(촉각 및 조임 브레이슬릿 인터페이스)의 줄임말인 ‘Tasbi’입니다. Tasbi는 6개의 진동 촉각 작동기와 새로운 손목 조임 매커니즘으로 구성되어 있습니다. 연구팀은 벨로밴드와 Tasbi를 사용해 가상 버튼의 뻣뻣함 차이를 테스트하는 등 수많은 가상 상호작용을 실험했습니다. 이러한 프로토타입은 실제 객체 및 활동과 구별이 불가능한 햅틱 피드백을 위한 중요한 단계입니다. 이는 감각 치환(sensory substitution)이라고 불리는 생물학적 현상 덕분에 가능하며, 시각, 청각, 촉각적인 자극을 결합해 가상 경험의 새로운 차원을 만들어가게 됩니다.
아직은 초기 단계이지만 미래는 유망합니다.
켈러는 “햅틱 연구의 진전은 우리가 실제로 풍부한 커뮤니케이션을 만들 수 있다는 확신을 갖게 합니다. 사람들은 촉각을 통해, 그리고 잠재적으로는 손목 밴드만으로 언어를 배울 수 있습니다. 이는 이제 막 열리기 시작한 완전히 새로운 세계이며, 이 중 많은 부분이 손목 위의 햅틱 시스템에서 시작됩니다”라고 말합니다.
기본적인 연구 문제로서의 개인정보 보호, 보안 및 안전
일상생활 속에서 AR을 활용할 수 있도록 인간 중심의 인터페이스를 구축하려면, 개인정보 보호, 보안 및 안전이 손목 기반의 상호작용에 대한 모든 탐색에서 근본적인 연구 문제로 간주되어야 합니다. AR의 상호작용 경험에서 사람들이 정보에 입각해 결정을 내릴 수 있도록 어떻게 도움을 줄 수 있는지 물어봐야 하죠. 사람들이 자신과 디바이스 사이에 의미 있는 경계를 생성하도록 만들려면 어떻게 해야 할까요?
켈러는 “윤리적 문제의 전체 범위를 이해하고 해결하려면 사회 수준의 참여가 필요하다”며 “독자적으로는 해결할 수 없는 문제이기 때문에 실제 시도하고 있지는 않지만, 새로운 기술을 발명하면서 배운 지식을 지역 사회와 공유하고 우려 사항을 공개적으로 제기해 해결해나가는 데 주력하고 있다”고 말합니다.
자사 연구원들이 명성 있는 학술지에 자신의 연구 결과를 게재하도록 지원하고, 오늘 이에 관해 이야기를 해보려는 이유도 이 때문입니다. Facebook은 이 기술이 소비자 제품의 일부가 되기에 앞서, HCI의 미래가 어떤 모습일지, 그리고 어떤 모습이 되어야 할지에 대해 공개적이고 투명하게 논의가 되어야 한다고 믿습니다.
캘러는 “Facebook의 기술이 사회에 어떤 긍정적 영향과 부정적인 영향을 미칠 수 있을지 늘 깊이 생각합니다. 무엇보다 투명성과 지적 정직성을 우리가 행하고 구축하는 모든 것의 중심에 두고, 이에 대한 원칙을 철저히 고수하며 연구 개발을 추진하고 있다”고 설명합니다.
Facebook은 기술 개발과 더불어, 중요한 신경 윤리 문제들을 논의하기 위해 구체적인 조치를 취하고 있습니다. FRL 리서치의 신경 윤리 프로그램에는 제품에서 발생할 수 있는 잠재적인 위해를 표면화하고 완화하기 위한 Responsible Foresight 워크숍은 물론, 개발 중에 발생할 수 있는 잠재적인 문제를 식별하고 조치를 취하는 데 도움을 주는 Responsible Innovation 워크숍이 포함되어 있습니다. 또한 업계 전체가 이러한 문제를 해결할 수 있도록 돕기 위해 학계의 윤리학자들과 협력하며, 윤리 전문가를 팀에 배치해 데이터 관리 등 고려 사항을 해결하는 과정을 지원하도록 하고 있습니다.
AR의 가능성을 계속 탐구해나가면서, Facebook은 항상 사람을 우선으로 책임있는 혁신을 위한 원칙을 모든 연구 문제에 적용할 것입니다.
가능성의 세계
손목에 센서를 착용하면, 마찰이 거의 없는 방식으로 가상 물체와 상호작용하거나 거실의 분위기 등을 제어할 수 있습니다. 손 없이 태어난 사람은 가상으로 손을 조작하는 법을 배울 수도 있습니다.
리어돈은 “우리는 우리의 창의력, 대행 기관, 행동들을 현실 세계 속 가능성에 국한해 제한하고 있습니다. 더 많은 작업을 빠르게 수행함으로써 더욱 많은 실험과 새로운 것들을 개발하고 탐색할 수 있게 하는 것이 바로 차세대 컴퓨팅 플랫폼의 핵심입니다.”라고 말합니다.
우리는 사람들이 가상 세계와 현실 세계 중 양자택일을 할 필요가 없다고 믿습니다. 초저 마찰의 손목 기반 입력, 상황 인식 AI로 구동되는 적응형 인터페이스와 햅틱 피드백을 통해 현재 놓여져 있는 순간에서 벗어나지 않고 디바이스와 소통하며, 사람들과 더욱 긴밀히 연결되고 삶을 개선해 나갈 수 있습니다.
켈러는 “혁신과 발견을 위한 또 다른 무대 속, 기존에 속해있던 세계는 물론 우리가 컴퓨팅 기술을 발전시키기 위해 고수했던 규칙들이 변화하고 있다. 이러한 변화는 지금 그 일부가 될 수 있는 수많은 기회 중 하나”라고 전했습니다.