뉴스

“눈길 따라 로봇 움직이고·물건 잡고”…스마트 콘택트렌즈 개발

¬ìФ´ë지

UNIST 연구진, 원격제어 스마트 렌즈 개발

눈동자의 움직임으로 로봇을 제어하는 콘택트렌즈 개념도.UNIST 제공

눈짓만으로 로봇을 움직일 수 있는 스마트 콘택트렌즈가 국내에서 개발됐다. 무겁고 복잡한 기존 확장현실(XR) 기기를 대신할 차세대 초경량 XR 인터페이스 기술로 활용될 것으로 기대된다.

UNIST 기계공학과 정임두 교수(인공지능대학원 겸직) 연구팀은 로봇 팔을 원격 제어할 수 있는 스마트 콘택트렌즈를 개발했다고 15일 밝혔다. 매우 작은 센서를 렌즈에 직접 인쇄하는 특수 기술과, 센서의 저해상도 신호를 고해상도로 복원하는 인공지능(AI) 기술을 결합한 것이 핵심이다.

연구진이 개발한 렌즈 위에는 100개(10x10)의 빛 검출 센서가 집적돼 있다. 이 센서들이 눈을 움직일 때마다 달라지는 빛 분포를 읽어내 시선 방향을 추적하는 원리로 작동한다. 렌즈는 위·아래·좌·우는 물론 대각선 방향까지 구분할 수 있으며, 이 시선 정보가 로봇팔로 전달돼 팔이 움직인다. 눈을 깜빡일 경우 물건을 집을 수도 있다.

센서를 찍어내는 특수프린팅 공정 기술.UNIST 제공

연구진은 둥근 렌즈 표면에 센서를 직접 프린팅할 수 있도록 ‘메니스커스 픽셀 프린팅(MPP)’ 기술도 개발했다. 이 기술은 노즐 끝에 맺힌 센서 원료 잉크를 렌즈 표 면에 콕콕 찍어내는 것이 핵심이다. 메니스커스는 액체의 볼록하거나 오목한 곡면을 말하는데, 이 곡면 덕분에 잉크가 배출되는 힘과 잉크 퍼짐을 막는 힘이 균형을 이뤄 잉크를 원하는 양만큼 찍어낼 수 있게 됐다. 잉크를 건조하면 빛을 감지하는 페로브스카이트 물질만 남아 센서 역할을 하게 된다.

이 새로운 기술은 일반 센서 제작과 달리 센서 패턴을 새기기 위한 마스크가 필요 없고 다양한 안구 곡률에 맞춰 센서를 인쇄할 수 있어 개별 맞춤형 렌즈를 만들 수 있다는 장점이 있다.

렌즈라는 작은 공간 탓에 신호 해상도가 떨어지는 문제는 AI 기술로 해결했다. 실제로는 100개의 센서가 있지만, 딥러닝 기반의 초해상도 기술을 적용해 최대 6400개(80x80)의 센서가 있는 것과 같은 신호 데이터를 얻어낸 것이다. 재구성에 필요한 시간도 0.03초로 짧아 정보가 실시간 수준으로 로봇 팔에 전달될 수 있다.

안구 모형을 이용한 실험에서 연구진은 눈동자 움직임만으로 물체를 집어 옮기는 동작까지 수행했으며 방향 인식 정확도는 99.3% 수준을 기록했다.

연구팀은 “하드웨어적 공정 혁신과 AI 기반 신호 복원 소프트웨어 기술을 결합해 렌즈라는 초소형 폼팩터의 공간적 제약을 극복한 기술”이라고 설명했다. 정임두 교수는 “별도의 컨트롤러 없이 인간의 시각 정보를 로봇 제어 신호로 직접 변환하는 고도화된 인간-기계 상호작용(HRI) 시스템 구현이 가능함을 증명했다”며 “향후 증강현실 기반 산업용 로봇 원격 제어, 재난·재해 환경에서의 탐사 로봇 운용, 국방 분야의 무인체계 및 드론 조종, 의료 및 재활 지원 시스템, 스마트 모빌리티 인터페이스 등 다양한 분야로 확장될 수 있는 잠재력을 지닌다“고 밝혔다.

한편 이번 연구는 UNIST 기계공학과 공병훈, 김도현 연구원이 제1저자로 참여했으며 과학기술정보통신부 한국연구재단과 정보통신기획평가원 및 산업통상자원부의 기술개발사업 지원으로 이뤄졌다. 연구 결과는 재료 과학 분야 세계적 학술지인 ‘어드밴스드 펑셔널 머티리얼즈(Advanced Functional Materials)’에 3월 11일 게재된 데 이어 최신호 전면 표지 논문으로 선정될 예정이다.

¹ì‹ 2026´ëª…궁금˜ì‹ ê°€

지ê¸ë°”로 AI가 분석˜ëŠ” 가•교¬ì£¼ 리포¸ë 받아보세

´ëª… œë‚˜ë¦¬ì˜¤ •인˜ê¸°