[CES 2025] Neural Lab의 AirTouch, 손끝의 제스처로 일상을 혁신하다

2025-01-08 01:30

AirTouch의 향후 계획은 어떻게 되나요?

Apple Vision Pro나 Microsoft Kinect와 비교했을 때 AirTouch의 가장 큰 장점은 무엇인가요?

AirTouch의 구체적인 사용 사례나 데모를 볼 수 있나요?


[CES 2025] Neural Lab의 AirTouch, 손끝의 제스처로 일상을 혁신하다

출처: 언블록미디어

#CES2025 - Neural Lab의 AirTouch는 표준 웹캠만으로 작동하는 혁신적 터치프리 제스처 기술로 CES 2025에서 주목 - Neural Lab의 AirTouch는 터치프리 제스처 기술로 작업 효율과 접근성을 혁신하며, 산업과 일상에 새로운 가능성을 제시 [Unblock Media] Neural Lab의 AirTouch 기술이 CES 2025에서 많은 주목을 받았다. 이 기술은 터치프리 인터페이스를 통해 제스처 기반 제어를 가능하게 하며, 헐리우드 영화에서 보던 공상과학 기술을 실제로 구현해냈다. AirTouch 시연에 따르면, 3D 손 추적 및 눈동자 인식 기술이 높은 정확도를 제공하며, 초기 학습 시간이 약 15초로 짧았다. AirTouch는 Apple Vision Pro와 유사한 제스처를 단 5분 만에 애플리케이션에 통합할 수 있으며, 표준 웹캠만으로 작동하여 추가 하드웨어가 필요하지 않다. Microsoft의 Kinect와 비교했을 때 보다 경제적이며, Apple Watch의 두 번 탭 기능과 비교하면 더 다양한 제스처를 지원하여 사용자 편의성을 높였다. Neural Lab의 소프트웨어는 Android 11 이상, Windows 10 이상, 그리고 Linux를 포함한 다양한 운영 체제에서 작동하며, 태블릿, 키오스크, 3D 디스플레이 및 모바일 폰과 같은 다양한 장치와 호환된다. 이는 터치 컨트롤이 더 직관적이라는 점에서 출발하여, 접근성이 어려운 세대를 위해 개발되었다. Neural Lab은 팬데믹 동안 창립자 Sherry Chang이 부모님과 원활히 소통하지 못한 개인적 경험에서 출발했다. Zoom 통화조차도 기술적 장벽으로 어려움을 겪으며, Sherry와 공동 창립자 Oliver Chen은 기술이 왜 이렇게 복잡한지에 대해 고민하기 시작했다. 이들은 ‘사람처럼 직관적인 기술’을 만들겠다는 목표로 Neural Lab을 설립하여 누구나 쉽게 사용할 수 있는 AirTouch를 개발했다. 이는 사람과 디바이스 간의 간극을 메우며 기술 접근성을 재정의하고 있다. AirTouch는 사용자의 의도를 인식하여 불필요한 제스처를 무시하고 현재 9가지 제스처를 지원하며, 최대 15가지로 커스터마이즈 할 수 있다. CTO Oliver Chen의 발표 자료에 따르면, 의료 및 산업 분야에서 AirTouch의 9가지 기본 제스처는 작업 효율을 40% 이상 개선할 가능성이 있다고 말했다. 경제적 측면에서, AirTouch는 개인 사용자에게 월 30달러, 기업에게 월 300달러의 구독료로 제공된다. 초기 설치 비용이 낮고 유지 관리를 위한 별도의 비용이 거의 들지 않아 ROI가 높다는 점도 주요 장점이다. Forbes의 기술 스타트업 분석가에 따르면, 월 30달러 구독료는 일반 소비자가 비슷한 기술에 대해 지출하는 평균 비용보다 약 20% 낮은 수준으로 평가된다. 상업적인 적용 사례도 다양하다. 예를 들어, MRI 스캔을 제어하는 외과의사나 프레젠테이션 동안 슬라이드를 넘기는 등의 상황에서 유용하다. 의료용 제스처 제어 관련 연구에서는 터치프리 제어가 감염 위험을 30% 줄인 사례가 보고됐으며, 이를 AirTouch에도 적용 가능할 것으로 보인다. Neural Lab의 성공은 설립자들의 깊은 전문성과 개인적인 경험에서 비롯된다. CEO Sherry Chang은 20년 이상의 소프트웨어 개발과 인공지능 분야 경험을 바탕으로 Neural Lab의 기술적 기틀을 마련했다. Intel에서 AI 운영 최고 설계자로 근무하며 15개의 AI 및 보안 특허를 취득한 그녀는 글로벌 기업에서 지능형 시스템을 설계하고 일상 사용자에게 최적화된 인터페이스를 개발하는 데 앞장섰다. CTO Oliver Chen은 AI 및 비전 프로세싱 분야의 선구자로, Intel에서 Movidius라는 획기적인 비전 프로세싱 기술을 성공적으로 론칭했다. 그의 기술은 도쿄 올림픽 방송에서 세계적인 관객 경험을 혁신하며 그 진가를 발휘했다. 더불어, 프레젠테이션을 진행하는 중 AirTouch를 통해 슬라이드를 넘기는 실제 사용 경험도 담겼다. 사용자들은 빈 손으로 화면 앞에서 가볍게 제스처를 취하는 것만으로 손쉽게 프레젠테이션을 제어할 수 있다. 사용 사례를 살펴보면, 3D 화면과 웹페이지 브라우저를 포함한 다양한 환경에서 시연됐다. 3D 화면에서는 다양한 손 제스처로 개체를 제어하였으며, 웹페이지 브라우저에서는 손 제스처로 커서를 이동시키고 클릭하는 동작을 수행했다. 초기에는 약간의 오류가 있었지만, 몇 번의 시도로 익숙해질 수 있었다. Interesting Engineering에 따르면, AirTouch는 사용자가 손과 웹캠만으로 홀로그램 및 가상 인터페이스와 상호 작용할 수 있게 해준다. 이는 미래지향적 사용자 경험을 제공할 수 있는 주요 요소로 평가된다. 결론적으로, AirTouch는 터치프리 제스처 제어를 통해 기술 접근성을 크게 향상시키며 다양한 용도로 적용 가능한 혁신적인 기술로 자리매김할 가능성이 높다. 경제적, 기술적 측면에서의 이점을 통해 Neural Lab의 발전 가능성도 매우 긍정적으로 평가된다.
기사 정보
카테고리
기술
발행일
2025-01-08 01:30
NFT ID
181
뉴스 NFT 상세
최신소식을 메일로 받아보세요.

Chat with AI agents

unblock media floating button