로봇이 산업현장과 일상으로 확장되는 과정에서 반복적으로 제기되는 질문이 있다. “로봇은 물체를 얼마나 정확히 집을 수 있는가”가 아니라, “로봇은 접촉, 즉 촉감을 이해할 수 있는가”라는 질문이다. 물체를 누르고, 당기고, 봉합하고, 조작하는 과정에서 발생하는 힘(force)은 인간에게는 직관적인 정보지만, 로봇이 취득하기에는 여전히 가장 어려운 기술적 과제로 남아 있다.

최근 로봇 분야에서는 힘과 접촉을 직접 측정하기보다, 시각·동작 정보 등을 학습해 추정하려는 연구 흐름이 확산하고 있다. 이러한 맥락에서 동국대학교 기계로봇에너지공학과 임수철 교수 연구팀의 접근이 하나의 사례로 소개되고 있다. 임 교수 연구는 고가의 힘 센서에 의존해 온 기존 로봇 구조를 재검토하고, 로봇이 이미 보유한 시각 정보와 동작 정보를 학습 기반으로 결합해 접촉 상황을 이해하도록 하는 데 초점을 둔다.

동국대학교 기계로봇 에너지공학과 임수철 교수 /사진=임수철 교수 연구팀

이 연구의 출발점은 원격 조작(teleoperation)이다. 재난 대응, 원격 유지보수, 위험 환경 작업에서 텔레오퍼레이션은 필수 기술로 꼽히지만, 힘 정보를 어떻게 전달하고 해석할 것인가는 오랫동안 해결되지 않은 과제로 남아 있었다. 힘 센서는 높은 비용과 내구성 한계를 지니며, 통신 환경이 불안정한 상황에서는 센서 데이터가 시스템 신뢰성에 부담으로 작용하는 경우도 적지 않다.

임 교수 연구팀은 이러한 구조적 한계에서 출발해 “힘을 직접 측정하지 않고도 추정할 수 있다면 텔레오퍼레이션의 적용 범위는 넓어질 수 있다”는 가설을 제시했다. 연구팀은 영상 데이터와 로봇의 상태 데이터를 학습시켜, 접촉 상황에서 발생하는 힘을 실시간으로 예측하는 모델을 제안했다. 이 방식은 고가의 힘 센서에 대한 의존도를 낮출 힘 추정 프레임워크로 소개된다.

해당 연구는 센서를 추가하지 않고도 힘을 추정할 수 있어 시스템 비용 부담을 줄일 수 있고, 센서 고장이나 지연 문제를 완화할 수 있다는 점에서 의미가 있다. 재난 대응 로봇이 잔해를 밀거나 원격 유지보수 로봇이 기계 부품을 다루는 상황에서, 로봇이 시각과 동작 패턴만으로 접촉 강도를 추정할 수 있음을 보여주는 연구 사례다. 이 연구는 ‘Vision-Based Interaction Force Estimation for Robot Grip Motion without Tactile/Force Sensor’라는 제목으로 2023년 국제학술지 Expert Systems with Applications에 게재됐다.

이러한 시각 기반 힘 추정 연구는 이후 수술 로봇이라는 고부가가치 응용 분야로도 확장됐다. 임 교수 연구팀은 봉합(suture)과 같은 정밀 의료 작업에서도 시각 정보만으로 인장력을 예측할 수 있음을 실험적으로 검토하고, 관련 결과를 International Journal of Control, Automation and Systems에 발표했다.

수술 로봇은 힘 센서의 정확성뿐 아니라 멸균, 내구성, 비용 문제를 함께 고려해야 하는 시스템이다. 임 교수의 연구는 텔레오퍼레이션 연구에서 축적된 접근을 의료 환경에 맞게 확장 적용함으로써, 센서 의존도를 낮추면서 정밀 제어를 지원할 수 있는 설계 방향을 제시한다. 이는 의료 로봇 분야에서 비용 구조 개선 가능성과 적용 가능성을 함께 논의한 연구 사례로 평가된다.

나아가 임 교수는 2024년 DexTough 연구를 통해 촉각 데이터를 중심으로 로봇이 물체를 탐색하고 조작하도록 학습시키는 프레임워크를 제안했다. 해당 연구는 제조·물류 현장에서 협동 로봇 활용과 공정 자동화 고도화에 참고될 수 있는 기술적 접근으로 소개되고 있다.

임수철 교수 연구팀의 연구는 텔레오퍼레이션에서 출발해 수술 로봇, 산업 자동화로 이어지는 하나의 연구 흐름을 형성하고 있다. 이 흐름의 중심에는 “로봇이 물리적 세계를 어떻게 이해하는가”라는 질문이 놓여 있다. 해당 연구들은 개별 성과를 넘어, 의료와 산업 현장에서 로봇과 인간의 상호작용을 확장하기 위한 기술적 참고 사례로 활용될 수 있다는 점에서 의미가 있다.

홈으로 이동 상단으로 이동