본 발명은 이상의 점을 고려하여 구성된 것으로, 바람직하지 않은 외장을 배제하여 고장의 발생을 미연에 방지할 수 있는 로봇 시스템, 로봇 장치 및 그 외장, 오락성을 향상시킬 수 있는 로봇 시스템, 로봇 장치 및 그 외장을 제안하고자 하는 것이다.
이러한 과제를 해결하기 위해 본 발명에서는 로봇 장치 및 외장으로 구성되는 로봇 시스템의 외장에 소정의 인증용 패턴을 설치하는 동시에 장착된 외장의 인증용 패턴에 의거해서 해당 외장을 인증하는 인증 수단을 로봇 장치에 설치하도록 했다. 그 결과, 이 로봇 시스템은 바람직하지 않은 외장이 로봇에 장착된 경우에 이를 검출할 수 있어 바람직하지 않은 외장을 배제하여 로봇 고장의 발생을 미연에 방지할 수 있는 로봇 시스템을 실현할 수 있다.
또한, 본 발명에서는 착탈 가능하게 장착되는 외장에 설치된 소정의 인증용 패턴에 의거하여 장착된 외장의 인증을 수행하는 인증 수단을 로봇 장치에 설치하도록 했다. 그 결과, 이 로봇 장치에서는 바람직하지 않은 외장이 장착되었을 때에 이를 검출할 수 있기 때문에 바람직하지 않은 외장을 배제하여 로봇 고장의 발생을 미연에 방지할 수 있는 로봇장치를 실현할 수 있다.
아울러, 본 발명에서는 로봇 장치의 외장에 소정의 인증용 패턴을 설치하도록 했다. 그 결과 상대측 로봇 장치가 이 인증 패턴에 의거해서 바람직하지 않은 외장이 장착된 것을 검출할 수 있고, 이로써 바람직하지 않은 외장을 제거하여 로봇 고장의 발생을 미연에 방지할 수 있는 로봇 장치의 외장을 실현할 수 있다.
또한 본 발명에서는 로봇 시스템에 있어서, 고유 정보를 보유하는 정보 보유 수단을 외장에 설치하는 동시에 로봇 장치에 외장이 장착되었을 때에 외장의 정보 보유 수단에 보유된 고유 정보를 검출하는 정보 검출 수단과, 상기 검출된 고유 정보에 의거해서 동작의 표현 패턴을 필요에 따라 변화시키는 제어 수단을 로봇 장치에 설치하도록 했다. 그 결과, 본 로봇 시스템에서는 외장을 로봇 장치에 장착했을 때에 상기 외장으로부터 얻어지는 고유 정보를 로봇 장치의 동작 표현 패턴에 필요에 따라 반영시킬 수 있다. 이렇게 함에 따라 외장마다 로봇 장치의 개성을 살리면서 동작시킬 수가 있어 오락성을 각별히 향상시킬 수 있는 로봇 시스템을 실현할 수 있다.
아울러 본 발명에서는 로봇 장치에 착탈 가능하게 장착되는 외장에 있어서, 외장에 따른 고유 정보를 보유하는 정보 보유 수단을 설치하고, 로봇 장치에 장착되었을 때 로봇 장치가 정보 보유 수단에 보유된 고유 정보에 의거해서 동작 표현 패턴을 필요에 따라 변화시키도록 했다. 그 결과, 이 외장을 로봇에 장착했을 때에 상기 외장으로부터 얻어지는 고유 정보를 로봇 장치의 동작 표현 패턴에 필요에 따라 반영시킬 수 있다. 이렇게 해서 외장마다 로봇 장치의 개성을 살리면서 동작시킬 수 있고, 이로써 로봇 장치의 오락성을 각별히 향상시킬 수 있는 외장을 실현할 수 있다.
아울러 본 발명에 있어서는, 로봇 장치에 외장이 착탈 가능하게 장착되었을 때에 외장에 따른 고유 정보를 상기 외장으로부터 검출하는 정보 검출 수단과, 상기 검출된 고유 정보에 의거해서 동작 표현 패턴을 필요에 따라 변화시키는 제어 수단을 설치하도록 했다. 그 결과, 이 로봇 장치에서는 외장으로부터 얻어진 고유 정보를 로봇 장치의 동작 표현 패턴에 필요에 따라 반영시킬 수 있다. 이렇게 함에 따라 외장마다 로봇 장치의 개성을 살리면서 동작시킬 수 있고, 오락성을 각별히 향상시킬 수 있는 로봇 장치를 실현할 수 있다.
아울러, 본 발명에서는 가동부를 가지며 상기 가동부를 구동시켜 소정의 동작을 표현하는 로봇 장치와, 로봇 장치에 착탈 가능하게 장착되는 외장과, 로봇 장치에 설치되며 가동부를 구동 제어하는 제어 수단을 설치하되, 제어수단은 로봇 장치에 외장이 장착되었을 때에 가동부를 구동시켜 동작에 대한 상기 외장의 영향량을 검출하고 그 결과에 의거해서 동작 표현 패턴을 필요에 따라 변화시키도록 했다. 그 결과, 이 로봇 시스템에서는 외장을 로봇 장치에 장착한 후에 가동부를 변화시키면서 로봇 장치의 동작 표현 패턴을 필요에 따라 변화시키도록 함으로써 여러 형상, 구조 및 재질 등을 갖는 외장을 로봇 장치에 장착한 경우에도 상기 로봇 장치의 행동 및 동작에 지장이 생기는 것을 미연에 회피할 수 있게 함으로써 다종 다양한 외장을 로봇 장치에 적용시킬 수 있어 오락성을 각별히 향상시킬 수 있는 로봇 시스템을 실현할 수 있다.
아울러, 본 발명에서는 가동부를 가지며, 상기 가동부를 구동시켜 소정의 동작을 표현하는 로봇 장치에 있어서, 외장이 착탈 가능하게 장착되었을 때에 상기 가동부를 가동시켜 상기 동작에 대한 상기 외장의 영향량을 검출하고, 그 결과에 의거해서 상기 동작 표현 패턴을 필요에 따라 변화시키는 제어 수단을 설치하도록 했다. 그 결과, 이 로봇 장치에서는 외장이 장착된 후에 가동부를 변화시키면서 로봇 장치의 동작 표현 패턴을 필요에 따라 변화시키도록 함으로써 여러 형상, 구조 및 재질 등을 갖는 외장을 로봇 장치에 장착한 경우에도 상기 로봇 장치의 행동 및 동작에 지장이 생기는 것을 미연에 회피할 수 있기 때문에 다종 다양한 외장을 로봇 장치에 적용시킬 수 있어 오락성을 각별히 향상시킬 수 있는 로봇 장치를 실현할 수 있다.
이하 도면에 따라 본 발명의 일실시 형태를 상술한다.
(1) 제1 실시 형태
(1-1) 본 실시 형태에 따른 로봇 시스템의 구성
도1에 있어서, 1은 본 실시 형태에 따른 전체적인 로봇 시스템을 나타내며, 애완 로봇(2)과 이 애완 로봇(2)에 장착하는 외장 유닛(3)으로 구성되어 있다.
애완 로봇(2)에 있어서는, 도1에서 도시한 바와 같이 몸체부 유닛(10)의 전후 좌우 각각의 다리부 유닛(11A 내지 11D)이 연결되는 동시에 몸체부 유닛(10)의 전단부 및 후단부에 각각 머리부 유닛(12) 및 꼬리부 유닛(13)이 연결되어 구성된다.
이 경우, 몸체부 유닛(10)에는 도2에 도시한 바와 같이 이 애완 로봇(2)의 전체 동작을 제어하는 컨트롤러(20)와 이 애완 로봇(2)의 동력원인 밧데리(21)와 열 센서(22)와 몸체부 유닛(10)의 상면에 설치된 통기구(10A)(도1)에 대응시켜 배치된 냉각용 팬(23) 등이 수납된다.
또한, 머리부 유닛(10)에는 이 애완 로봇(2)의 "귀"에 상당하는 마이크로폰(24)과 "눈"에 상당하는 CCD(Charge Coupled Device) 카메라(25)와 터치 센서(26)와 "입"에 상당하는 스피커(27) 등이 각각 소정 위치에 배치된다.
아울러, 각 다리부 유닛(11A 내지 11D)의 관절 부분이나 각 다리부 유닛(11A 내지 11D) 및 몸체부 유닛(10)의 각 연결 부분, 머리부 유닛(12) 및 몸체부 유닛(10)의 연결 부분, 아울러 꼬리부 유닛(13) 및 몸체부 유닛(10)의 연결 부분 등에는 각각 자유도 수분의 액추에이터(28A 내지 28n)가 설치된다.
그리고 머리부 유닛(12)의 마이크로폰(24)은 사용자로부터 도시되지 않은 사운드 커멘더를 통해 음계로 주어지는 "걸어", "엎드려" 또는 "공을 쫓아가" 등의 지령음을 집음해서 얻어진 음성 신호(S1)를 컨트롤러(20)로 송출한다. 또한 CCD 카메라(25)는 주위 상황을 촬영해서 얻어진 화상 신호(S2)를 컨트롤러(20)로 송출한다.
아울러, 터치 센서(26)는 도2에서 명확하듯이 머리부 유닛(12)의 상부에 설치되며, 사용자의 "쓰다듬다" 나 "때리다" 와 같은 물리적인 작용으로 인해 받은 압력을 검출해서 그 결과를 압력 검출 신호(S3)로써 컨트롤러(20)로 송출한다.
아울러 몸체부 유닛(10)의 열 센서(22)는 몸체부 유닛(10) 내부의 열을 검출하고 그 결과를 열 검출 신호(S4)로써 컨트롤러(20)로 송출한다.
컨트롤러(20)는 마이크로폰(24), CCD 카메라(25), 터치 센서(26), 열 센서(22) 등에서 주어지는 음성 신호(S1), 화상 신호(S2), 압력 검출 신호(S3), 열 검출 신호(S4) 등에 의거해서 사용자로부터의 지령이나 물리적인 작용의 유무, 주위 상황 등을 판단한다.
그리고, 컨트롤러(20)는 이 판단 결과와 미리 메모리(20A)에 저장되어 있는 제어 프로그램에 의거해서 이어지는 행동을 결정하고, 그 결과에 따라 필요한 액추에이터(28A 내지 28n)로 제어 신호(S5A 내지 S5n)를 송출하여 이를 구동시켜 머리부 유닛(12)을 상하 좌우로 흔들게 하거나, 꼬리부 유닛(13)의 꼬리(13A)를 움직이게 하거나, 각 다리부 유닛(11A 내지 11D)을 구동시켜 보행시키는 등의 행동을 하게 한다.
또한, 이때 컨트롤러(20)는 필요에 따라 소정의 음성 신호(S6)를 스피커(27)에 부여함으로써 상기 음성 신호(S6)에 의거한 음성을 외부로 방출시키거나, 이 애완 로봇(2)의 "눈"의 위치에 설치된 도시되지 않은 LED(Light Emitting Diode)를 점등, 소등 또는 점멸시킨다.
이처럼, 이 애완 로봇(2)은 사용자로부터의 지령이나 물리적인 작용의 유무, 주위 상황 및 제어 프로그램 등에 의거해서 자율적으로 행동할 수 있도록 구성되어 있다.
한편 외장 유닛(3)(도1)은, 예를 들면 합성 수지재 등의 소정의 경도를 갖는 재료를 사용해서 형성되고, 그 내측 형상 및 치수가 애완 로봇(2)의 몸체부 유닛(10)의 상부 형상 및 치수와 거의 동일하게 선정되어 있다.
또한 외장 유닛(3)의 전단부에는 애완 로봇(2)의 몸체부 유닛(10) 및 머리부 유닛(12)을 연결하는 목부분에 대응시켜 절결부(3A)가 설치되는 동시에 상기 외장 유닛(3)의 상부에는 애완 로봇(2)의 몸체부 유닛(10)의 소정 위치에 설치된 복수의 나사구멍(10B)에 각각 대응시켜 복수의 나사용 구멍(3B)이 설치되어 있다.
이처럼, 이 로봇 시스템(1)은 애완 로봇(2)의 몸체부 유닛(10)의 상측으로부터 외장 유닛(3)을 끼워 맞춤시킨 후 상기 외장 유닛(3)의 각 나사용 구멍(3B)을통해 각각 나사(4)를 애완 로봇(2)의 몸체부 유닛(10)의 각 나사구멍(10B)에 나사 결합함으로써 외장 유닛(3)을 애완 로봇(2)에 고정한 상태로 장착할 수 있도록 구성되어 있다.
아울러, 외장 유닛(3)의 상부에는 애완 로봇(2)의 몸체부 유닛(10)의 통기구(10A)에 대응시켜 통기구용 개구부(3C)가 설치되는 동시에 외장 유닛(3)의 하단부 주위에는 애완 로봇(2)의 각 다리부 유닛(11A 내지 11D)이나 꼬리부 유닛(13)의 꼬리(13A) 장착 위치에 각각 대응시켜 절결부(3D)가 설치된다.
따라서, 이 로봇 시스템(1)은 애완 로봇(2)의 몸체부 유닛(10)의 통기구(10A)를 통해 배출되는 열을 외장 유닛(3)의 통기구용 개구부(3C)를 통해 외부로 배출할 수 있고, 또한 애완 로봇(2)이 각 다리부 유닛(11A 내지 11D)이나 꼬리(13A)를 구동시킬 때에 이들 각 다리부 유닛(11A 내지 11D) 및 꼬리(13A)와 외장 유닛(3)이 간섭하는 것을 방지할 수 있도록 구성되어 있다.
이러한 구성에 더하여, 이 로봇 시스템(1)의 경우에는 도1, 도3 및 도4a에 도시한 바와 같이, 애완 로봇(2)의 몸체부 유닛(10)의 소정 위치에는 소정 높이의 기부(30)상에 소정 형상의 요철 패턴(이하, 이것을 로봇측 요철 패턴이라 함)(31)이 형성되어 있다.
또한, 외장 유닛(3)에는 이 로봇측 요철 패턴(31)에 대응시켜 상기 로봇측 요철 패턴(31)의 볼록부(31A) 및 오목부(31B)와 각각 끼워 맞춤되는 오목부(32B) 및 볼록부(32A)로 구성되는 로봇측 요철 패턴(31)의 요철 형상을 반전한 형상의 요철 패턴(이하, 이것을 외장측 요철 패턴이라 함)(32)이 설치되어 있다.
그리고 이 실시 형태의 경우, 외장측 요철 패턴(32)의 요철 형상은 의장 등록되어 있어서 허가를 받지 않은 업자가 상기 외장측 요철 패턴(32)의 요철 형상을 이용할 수 없게 되어 있다.
따라서, 이 로봇 시스템(1)에서는 애완 로봇(2)에 외장 유닛(3)을 장착할 때에 외장 유닛(3)이 규정된 것인 경우에는 도4b와 같이 로봇측 요철 패턴(31)과 외장측 요철 패턴(32)이 끼워 맞춤됨으로써 상기 외장 유닛(3)을 애완 로봇(2)에 바르게 장착할 수 있고, 이에 반해 외장 유닛(3)이 바람직하지 않은 것인 경우에는 도4b와 같이 로봇측 요철 패턴(31)과 외장측 요철 패턴(32)이 끼워 맞춤되지 않아 상기 외장 유닛(3)을 바르게 애완 로봇(2)에 장착할 수 없도록 구성되어 있다.
아울러 이 실시 형태의 경우, 애완 로봇(2)에는 도1에 도시한 바와 같이 몸체부 유닛(10)의 통기구(10A)의 전후 위치에 상술의 로봇측 요철 패턴(31)이 각각 설치되어 있다. 그리고 애완 로봇(2)의 몸체부 유닛(10)의 상술의 각 나사구멍(10B)은 도4a와 같이 각각 2개가 1조를 이루며, 각 조마다 대응하는 로봇측 요철 패턴(31)을 사이에 두고 양옆에서 끼듯이 로봇측 요철 패턴(31) 근방에 설치되어 있다.
아울러, 상술과 같이 애완 로봇(2)에 외장 유닛(3)을 고정하기 위한 나사(4)는 도4c에 도시한 바와 같이, 각각 애완 로봇(2)의 몸체부 유닛(10)에 나사 결합되는 부분의 길이(L)가 로봇측 요철 패턴(31)의 볼록부(31A)의 높이(H1)와 외장측 요철 패턴(32)의 볼록부(32A)의 높이(H2)의 합보다 짧게 선정되어 있다.
따라서 이 로봇 시스템(1)에 있어서는, 외장 유닛(3)이 바람직하지 않은 것인 경우에는 이 도4c와 같이 외장 유닛(3)의 나사용 구멍(3B)을 통해 애완 로봇(2)의 나사구멍(10B)에 나사(4)를 나사 결합할 수가 없어 상기 외장 유닛(3)을 애완 로봇(2)에 고정할 수 없도록 구성되어 있다.
(1-2) 본 실시 형태의 동작 및 효과
이상의 구성에 있어서, 이 로봇 시스템(1)에서는 애완 로봇(2)에 외장 유닛(3)을 장착할 때에 외장 유닛(3)이 규정된 것인 경우에는 로봇측 요철 패턴(31)과 외장측 요철 패턴(32)이 끼워 맞춤됨으로써 상기 외장 유닛(3)을 바르게 장착할 수 있고, 이에 반해 외장 유닛(3)이 바람직하지 않은 것인 경우에는 로봇측 요철 패턴(31)과 외장측 요철 패턴(32)이 끼워 맞춤되지 않아서 상기 외장 유닛(3)을 바르게 장착할 수 없다.
따라서, 이 로봇 시스템(1)에서는 애완 로봇(2)의 규격에 따른 외장 유닛(3)을 제조하는 업자에 대해서만 외장측 요철 패턴(32)의 사용 허가를 부여함으로써 바람직하지 않은 외장 유닛(3)을 제거할 수 있고, 그 결과 바람직하지 않은 외장 유닛(3)의 장착으로 인한 애완 로봇(2)의 고장 등을 미연에 효과적으로 방지할 수 있다.
이상의 구성에 따르면, 외장 유닛(3)에 의장 등록된 소정 형상의 외장측 요철 패턴(32)을 형성하는 동시에 상기 외장측 요철 패턴(32)에 대응시켜 애완 로봇(2)에 상기 외장측 요철 패턴(32)의 요철을 반전한 형상의 로봇측 요철 패턴(31)을 형성하도록 함으로써 애완 로봇(2)에 바람직하지 않은 외장 유닛(3)이 장착되는 것을 미연에 효과적으로 방지할 수 있고, 이로써 바람직하지 않은 외장유닛(3)을 제거하여 애완 로봇의 고장 발생을 미연에 방지할 수 있는 로봇 시스템을 실현할 수 있다.
(1-3) 다른 실시 형태
아울러, 상술의 실시 형태에서는 본 발명을 도1과 같이 구성된 4족 보행형 애완 로봇(2)에 적용하도록 한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 장난감, 완구, 토이, 인형 등을 포함한(이하, 제2 내지 제6의실시 형태에서도 같음) 기타 여러 형태의 로봇에 폭넓게 적용할 수 있다.
또한, 상술의 실시 형태에서는 로봇측 요철 패턴(31)을 기부(30)상에 형성하도록 한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 예를 들면 도5a 및 도5b에 도시한 바와 같이 애완 로봇(2)에 외장 유닛(3)을 고정하기 위한 보스(40)를 설치하되, 상기 보스(40)의 상단면에 소정 형상의 요철 패턴(41)을 형성하는 동시에 상기 요철 패턴(41)에 대응하는 요철 패턴(42)을 외장 유닛(3)에 형성해도 된다.
아울러, 상술한 실시 형태에서는 외장 유닛(3)에 설치하는 인증용 패턴 및 애완 로봇(2)에 설치하는 인증 수단으로 입체적인 패턴(외장측 요철 패턴(32) 및 로봇측 요철 패턴(31))을 적용하도록 한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 예를 들면 외장 유닛(3)에 인증용 패턴으로 평면적인 패턴(색이나 반사율의 패턴)을 설치하는 동시에 애완 로봇(2)에 인증 수단으로 CCD 카메라 등을 설치하여 상기 CCD 카메라에 의해 촬영된 외장 유닛(3)의 인증용 패턴에 의거해서 애완 로봇(2)의 컨트롤러(20)(도2)가 외장 유닛(3)이 바람직하지 않은 것인지 아닌지를 판단하여 바람직하지 않은 것인 경우에는 애완 로봇(2)을 동작시키지 않도록 해도 된다.
또한 외장 유닛(3)에 설치하는 인증용 패턴을 도전성 도료 등의 도전성 재료를 사용해서 형성하는 동시에 애완 로봇(2)에 인증 수단으로 전극을 형성하도록 해서 외장 유닛(3)의 인증용 패턴을 전기적으로 검지하도록 해도 된다.
나아가, 예를 들면 도6에 도시한 바와 같이 외장 유닛(3)에 인증용 패턴으로 소정의 요철 패턴(직선적이라도 2차원적이라도 된다)(43)을 설치하는 한편, 애완 로봇(2)의 대응하는 위치에 복수의 터치 센서(44)를 배열(직선적이라도 2차원적이라도 된다)하여 외장 유닛(3)의 인증용 패턴(요철 패턴(43))에 의해 어느 터치 센서(44)가 압압되었는가에 따라 애완 로봇(2)의 컨트롤러(20)가 이 외장 유닛(3)이 바람직하지 않은 것인지 여부를 판단하고, 바람직하지 않은 것인 경우에는 애완 로봇(2)을 동작시키지 않도록 해도 된다.
아울러, 상술의 실시 형태에서는 외장 유닛(3)에 설치하는 인증용 패턴으로 의장 등록된 요철 패턴(외장측 요철 패턴(32))을 적용하도록 한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 요컨대 외장 유닛(3)의 요철 패턴을 특정한 사람만이 사용할 수 있도록 기술적 또는 법률적으로 규제할 수 있는 것이라면 외장측 요철 패턴(32)으로 의장 등록된 형상 이외의 형상을 폭넓게 적용할 수 있다.
이 경우에 외장 유닛(3)의 인증용 패턴으로, 예를 들면 도7에 도시한 바와 같이 상표 등록된 문자 등을 돋을새김하듯이 형성한 요철 패턴(45)을 사용해도 된다.
아울러, 상술의 실시 형태에서는 외장으로 도1과 같이 형성된 합성 수지재로 구성된 소정의 경도를 갖는 외장 유닛(3)을 적용한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 외장의 재질로 기타 여러 재질을 적용할 수 있으며, 또한 그 형태도 애완 로봇(2)의 외관의 인상을 변화시켜주는 것이 바람직하나, 기타 여러 형태를 폭넓게 적용할 수 있다.
(2) 제2 실시 형태
(2-1) 본 실시 형태에 따른 로봇 시스템(50)의 구성
도8은 제2 실시 형태에 따른 로봇 시스템(50)을 나타낸 것으로, 애완 로봇(51)에 소정의 외장부품(이하, 이것을 외장 유닛이라 함)(52)을 착탈 가능하게 장착함으로써 상기 애완 로봇(51)의 표면 전체가 외장 유닛(52)에 의해 피복될 수 있도록 구성되어 있다.
이러한 애완 로봇(51)은 몸체부 유닛(53)의 전후 좌우에 각각 다리부 유닛(54A 내지 54D)이 연결되는 동시에 몸체부 유닛(53)의 전단부 및 후단부에 각각 머리부 유닛(55) 및 꼬리부 유닛(56)이 연결되어 구성된다.
이 몸체부 유닛(53)의 내부에는 냉각 팬(도시되지 않음)이 설치되는데, 이 냉각 팬을 통해 상면(53A) 및 하면(53B)에 각각 배기구(53AX) 및 흡기구(53BX)(도9)가 형성된다. 이로써, 애완 로봇(51)에서는 냉각 팬의 구동에 따라 흡기구(53BX)로부터 흡입된 공기가 몸체부 유닛(53)의 내부를 통해 배기구(53AX)로부터 밖으로 배출되도록 해서 상기 몸체부 유닛(53)의 내부 온도가 저감될 수 있도록 구성되어 있다.
또한, 도9에 도시한 바와 같이 몸체부 유닛(53)의 하면(53B)에는 커넥터 반체(57A) 및 결합 기구부(57B)로 이루어지는 접속부(57)가 형성된 인터페이스부(이하, 이것을 본체측 인터페이스라 함)(58)가 설치되어 있다.
한편, 외장 유닛(52)은 도8에 도시한 바와 같이 진짜 개의 표피와 같은 형태를 합성섬유로 형성한 외장 본체부(52A)로 이루어지는데, 상기 외장 본체부(52A) 이면의 소정 위치에 몸체부 유닛(53)에 설치된 본체측 인터페이스부(58)의 커넥터 반체(57A) 및 결합 기구부(57B)에 대응시켜 커넥터 반체(59A) 및 결합 기구부(59B)로 구성된 접속부(59)가 형성된 인터페이스부(이하, 이것을 외장측 인터페이스부라 함)(60)가 설치되어 있다.
실제로 애완 로봇(51)에 외장 유닛(52)을 장착할 경우, 외장 유닛(52)의 외장 본체부(52A)를 애완 로봇(51)의 표면 전체를 덮듯이 씌운 후, 본체측 인터페이스부(58)의 접속부(57)에 외장측 인터페이스부(50)의 접속부(59)를 연결시키듯이 해서 커넥터 반체(57A, 59A)끼리 전기적으로 접속시키는 동시에 결합 기구부(57B, 59B)끼리 구조적으로 접속시키도록 구성되어 있다.
(2-2) 로봇 시스템(50)의 내부 구성
도10에 나타낸 로봇 시스템(50)에 있어서, 애완 로봇(51)의 몸체측 유닛(53)에는 이 애완 로봇(51) 전체의 동작을 제어하는 컨트롤러(70)와, 이 애완 로봇(51)의 동력원이 되는 밧데리(71)와, 밧데리 센서(72) 및 열 선세(73)로 구성된 내부 센서부(74)와, 결합 센서(80) 및 접속부(57)로 구성된 본체측 인터페이스부(58)와, 외부로부터 삽입되는 기록 매체(도시되지 않음)에 저장되어 있는 제어 프로그램을판독하는 정보 판독부(75)가 수납되어 있다.
또한 머리부 유닛(55)에는 "귀"에 상당하는 마이크로폰(76)과, "눈"에 상당하는 CCD(Charge Coupled Devicd) 카메라(77)와, 터치 센서(78)와, "입"에 상당하는 스피커(79) 등이 각각 소정의 위치에 설치된다.
아울러, 각 다리부 유닛(54A 내지 54D)의 관절 부분이나 각 다리부 유닛(54A 내지 54D) 및 몸체 유닛(53)의 각 연결 부분, 머리부 유닛(55) 및 몸체부 유닛(53)의 연결 부분, 그리고 꼬리부 유닛(56) 및 몸체부 유닛(53)의 연결 부분 등에는 각각 액추에이터(54AA1내지 54AAK, 54BA1내지 54BAK, 54CA1내지 54CAK, 54DA1내지 54DAK, 55A1내지 55AL, 56A1내지 56AM)가 설치되어 있다.
그리고 머리부 유닛(55)의 마이크로폰(76)은 사용자로부터 도시되지 않은 사운드 커멘더(조작 내용에 따라 다른 음계의 소리를 발생하는 커멘더)에 의해 음계로 주어지는 "걸어", "엎드려" 또는 "공을 쫓아가" 등의 지령음을 집음해서 얻어진 음성 신호(S10)를 컨트롤러(70)로 송출한다. 또한 CCD 카메라(77)는 주위의 상황을 촬영해서 얻어진 화상 신호(S11)를 컨트롤러(70)로 송출한다.
아울러, 터치 센서(78)는 도8에서 명확하듯이 머리부 유닛(55)의 상부에 설치되며, 사용자의 "쓰다듬다" 나 "때리다" 와 같은 물리적인 작용으로 받은 압력을 검출하고 그 결과를 압력 검출 신호(S12)로써 컨트롤러(70)로 송출한다.
아울러, 몸체부 유닛(53)의 밧데리 센서(72)는 밧데리(71)의 잔량을 복수의 단계로 나누어서 검출하고, 상기 각 단계의 검출 결과를 밧데리 잔량 검출신호(S13)로써 순차적으로 컨트롤러(70)로 송출한다.
또한, 몸체부 유닛(53)의 열 센서(73)는 애완 로봇(51)의 내부 온도를 검출하고, 그 결과를 열 검출 신호(S14)로써 컨트롤러(70)로 송출한다.
아울러, 몸체부 유닛(53)의 몸체측 인터페이스(58)는 결합 센서(80) 및 상술한 접속부(57)로 구성되고, 상기 접속부(57)는 커넥터 반체(57A) 및 결합 기구부(57B)로 구성되어 있다. 이 결합 센서(80)는 외장 유닛(52)의 외장측 인터페이스부(60)와의 결합 상태를 검출하고 그 결과를 외장 검출 신호(S15)로써 컨트롤러(70)로 송출한다.
컨트롤러(70)는 마이크로폰(76), CCD 카메라(77), 터치 센서(78), 밧데리 센서(72), 열 센서(73) 및 결합 센서(80)로부터 주어지는 음성 신호(S10), 화상 신호(S11), 압력 검출 신호(S12), 밧데리 잔량 검출 신호(S13), 열 검출 신호(S14) 및 외장 검출 신호(S15) 등에 의거해서 주위의 상황이나 사용자로부터의 지령, 작용 등의 유무를 판단한다.
그리고, 컨트롤러(70)는 이 판단 결과와 미리 입력된 제어 프로그램에 의거해서 이어질 행동을 결정하고, 그 결과에 의거해서 필요한 액추에이터(54AA1내지 54AAK, 54BA1내지 54BAK, 54CA1내지 54CAK, 54DA1내지 54DAK, 55A1내지 55AL, 56A1내지 56AM)를 구동시켜 머리부 유닛(55)을 상하 좌우로 흔들게 하거나, 꼬리부 유닛(56)을 움직이게 하거나, 각 다리부 유닛(54A 내지 54D)을 구동시켜 보행시키는 등의 행동을 하게 한다.
또한, 이때 컨트롤러(70)는 필요에 따라 소정의 음성 신호(S16)를 스피커(79)에 부여함으로써 상기 음성 신호(S16)에 의거한 음성을 외부로 출력시키거나, 이 애완 로봇(51)의 "눈"의 위치에 설치된 도시되지 않은 LED(Light Emitting Diode)를 점등, 소등 또는 점멸시킨다.
이처럼, 이 애완 로봇(51)은 주위 상황 및 제어 프로그램 등에 의거해서 자율적으로 행동할 수 있도록 구성되어 있다.
한편 외장 유닛(52)에 있어서, 외장 본체부(52A)에 내장된 외장측 인터페이스부(60)는 정보 기억부(81) 및 상술한 접속부(59)로 구성되고, 상기 접속부(59)는 커넥터 반체(59A) 및 결합 기구부(59B)로 구성된다. 이러한 외장측 인터페이스부(60) 내의 결합 기구부(59B)는 본체측 인터페이스부(58) 내의 결합 기구부(57B)와 분리 가능하게 결합될 수 있게 구성되어 있다.
이 외장측 인터페이스부(60) 내의 정보 기억부(81)는, 예를 들면 ROM(Random Access Memory) 등의 불휘발성 메모리로 구성되는데, 외장 유닛(52)의 종류에 따라 할당된 외장 번호마다 제조자 ID를 나타내는 정보, 제조자가 정하는 프로덕트 ID 및 로트 번호 등의 제조 허가를 나타내는 정보 및 외장 유닛을 인증하기 위한 암호화 정보 등(이하, 외장 설정 정보라 함)(D1)이 미리 저장되어 있다.
또한, 몸체부 유닛(53) 내에 설치된 정보 판독부(75)로의 삽입 대상인 기록 매체에는 상술한 외장 번호마다 외장 설정 정보(D1)의 각종 내용에 따라 각각 설정된 애완 로봇(51)의 퍼포먼스를 결정하기 위한 프로그램 정보(이하, 이것을 퍼포먼스 정보라 함)(D2)가 미리 저장되어 있다.
여기서, 외장측 인터페이스부(60)와 본체측 인터페이스부(58)의 결합 시에는 상기 외장측 인터페이스부(60)의 접속부(59)에 설치된 커넥터 반체(59A) 및 결합 기구부(59B)가 본체측 인터페이스부(58)의 접속부(57)에 설치된 대응하는 커넥터 반체(57A) 및 결합 기구부(57B)와 전기적 및 구조적으로 접속된다.
구체적으로, 본체측 인터페이스부(58) 및 외장측 인터페이스부(60)는 도11에 도시된 바와 같이 구성되어 있다.
본체측 인터페이스부(58)의 접속부(57)의 커넥터 반체(57A)에는 어스 라인(L1), 전원 라인(L2), 측정 라인(L3) 및 신호 라인(L4)의 각 접속 단자(A1 내지 A4)가 노출되어 있으며 측정 라인(L3)상의 접속 단자(A3) 및 결합 센서(80)간에는 일단이 어스와 접속된 부하저항(R1)의 타단이 접속되어 있다.
외장측 인터페이스부(60)의 접속부(59)에는 어스 라인(L5), 전원 라인(L6), 측정 라인(L7) 및 신호 라인(L8)의 각 접속단자(A5 내지 A8)가 노출되어 있으며 전원 라인(L6)으로부터 인출된 측정 라인(L7)상에는 부하저항(R2)이 설치되는데, 이 부하저항(R2)의 일단 및 타단이 각각 정보 기억부(81) 및 접속 단자(A7)와 접속되어 있다.
실제로, 외장측 인터페이스부(60)의 접속부(59)에 설치된 커넥터 반체(59A)와 본체측 인터페이스(58)의 접속부(57)에 설치된 커넥터 반체(57A)가 결합하면, 커넥터 반체(57A, 59A)간에 어스 라인(L1), 전원 라인(L2), 측정 라인(L3) 및 신호 라인(L4)의 각 접속 단자(A1 내지 A4)가 대응하는 각 라인(L5 내지 L8)의 접속단자(A5 내지 A8)와 각각 당접되어 도통한다.
이때 본체측 인터페이스부(58) 내의 결합 센서(80)는 외장측 인터페이스부(60) 및 본체측 인터페이스부(58)의 커넥터 반체(59A, 57A)를 통해 전원 라인(L6)과 접속된 측정 라인(L7)상의 부하저항(R2)의 전압치를 검출함으로써, 본체측 인터페이스부(58)와 외장측 인터페이스부(60)의 결합 상태(즉, 결합 시에는 "H"레벨, 분리 시에는 "L"레벨)를 판단한다.
그 결과, 컨트롤러(70)는 결합 센서(80)의 검출 결과가 긍정적인 경우에만 외장측 인터페이스부(60) 내의 정보 기억부(81)에 저장되어 있는 외장측 설정 정보(D1)를 판독한 후, 상기 외장 설정 정보(D1)에 의거해서 몸체부 유닛(53) 내의 정보 판독부(75)에 장진되어 있는 매개체로부터 퍼포먼스 정보(D2)를 판독하고, 상기 퍼포먼스 정보(D2)에 의거해서 애완 로봇(51)의 행동을 결정하고 그 결정에 대응해서 필요한 액추에이터(54AA1내지 56AM)를 구동시키며 필요에 따라 스피커(79)로부터 음성을 출력한다.
이처럼, 이 애완 로봇(51)은 외장 유닛(52)이 장착되었을 때, 상기 외장 유닛(52)의 외장측 인터페이스부(60) 내의 정보 기억부(81)에 저장되어있는 외장 설정 정보(D1)와 상기 외장 설정 정보(D1)에 의거해서 몸체부 유닛(53) 내의 정보 판독부(75)에 저장되어있는 기록 매체로부터 판독해낸 퍼포먼스 정보(D2)에 따라 자립적인 행동을 개성적으로 변화시킬 수 있게 구성되어 있다.
(2-3) 애완 로봇(51)의 감정·본능에 따른 행동 표현
이 애완 로봇(51)에서는 주위의 상황 및 제어 프로그램 등에 의거한 자율적인 행동에 더하여 진짜 동물과 같은 자연스런 "감정 및 본능"을 가진 것처럼 행동 및 동작을 변화시키도록 구성되어 있다.
즉, 이 애완 로봇(51)에는 "기쁨", "슬픔" 및 "분노"의 3개의 "감정 표현"이 설치되는 동시에, 본능으로 "식욕", "호기심" 및 "운동욕"의 3개의 "본능 표현"이 설치되어 있다. 그리고 컨트롤러(70)의 메모리에는 이들 각 "감정 표현" 및 "본능 표현"마다 "보행 상태", "모션(동작)", "행동" 및 "사운드(짖는 소리)"의 4개의 항목에 관한 행동 및 동작의 기초가 되는 각종 제어 파라미터 및 제어 프로그램으로 구성된 행동 및 동작 모델이 미리 저장되어 있다.
여기서 이와 같은 애완 로봇(51)의 행동 생성에 관한 컨트롤러(70)의 처리에 대해 설명한다.
도12에 도시한 바와 같이 애완 로봇(51)의 행동 생성에 관한 컨트롤러(70)의 처리 내용을 기능적으로 분류하면, 특정한 외부 상태를 인식하는 센서 입력 처리부(90), 상기 센서 입력 처리부(90)의 인식 결과를 누적해서 감정 및 본능의 상태를 표현하는 감정·본능 모델부(91), 상기 센서 입력 처리부(90)의 인식 결과에 의거해서 이어지는 행동을 결정하는 행동 결정 기구부(92), 상기 행동 결정 기구부(92)의 결정 결과 및 감정·본능 모델부(91)의 표현 결과에 의거해서 실제로 애완 로봇(51)에 행동을 표현케 하는 자세 천이 기구부(93) 및 각 액추에이터(54AA1내지 56AM)를 구동 제어하는 제어 기구부(94)로 나눌 수 있다.
이 경우, 센서 입력 처리부(90)는 마이크로폰(76), CCD 카메라(77), 터치 센서(78), 밧데리 센서(72) 및 열 센서(73)로부터 각각 주어지는 음성 신호(S10), 화상 신호(S11), 압력 검출 신호(S12), 밧데리 잔량 검출 신호(S13) 및 열 검출 신호(S14)에 의거해서 특정 상태를 인식하고, 그 결과를 상태 인식 정보(D5)로써 감정·본능 모델부(91) 및 행동 결정 기구부(92)로 송출한다.
구체적으로, 센서 입력 처리부(90)는 마이크로폰(76)으로부터 주어지는 음성 신호(S10)를 상시 감시하는데, 이 음성 신호(S10)의 스펙트럼이 "걸어", "엎드려", "공을 쫓아가" 등의 지령에 따라 사운드 커멘더로부터 출력되는 지령음과 같은 음계의 스펙트럼임을 검출했을 때에는 그 지령이 주어졌다고 인식하고 그 인식 결과를 상태 인식 정보(D5)로써 감정·본능 모델부(91) 및 행동 결정 기구부(92)로 통지한다.
또한, 센서 입력 처리부(90)는 CCD 카메라(77)로부터 주어지는 화상 신호(S11)를 상시 감시하는데, 이 화상 신호(S11)에 의거한 화상 내에, 예를 들면 "동그란 것"이나 "지면에 대해 수직이며 소정 높이 이상의 평면"을 검출했을 때에는 "볼이 있다", "벽이 있다"고 인식하고 그 인식 결과를 상태 인식 정보(D5)로써 감정·본능 모델부(91) 및 행동 결정 기구부(92)에 통지한다.
아울러, 센서 입력 처리부(90)는 터치 센서로부터 주어지는 압력 검출 신호(S12)를 상시 감시하는데, 이 압력 검출 신호(S12)에 의거해서 소정의 역치 이상이며 또한 짧은 시간(예를 들면 2초 미만)의 압력을 검출했을 때에는 "맞았다(혼났다)"라고 인식하고, 소정 역치 미만이며 또한 긴 시간(예를 들면 2초 이상)의 압력을 검출했을 때에는 "쓰다듬어 주었다(칭찬 받았다)"라고 인식하고 그 인식 결과를 상태 인식 정보(D5)로써 감정·본능 모델부(91) 및 행동 결정 기구부(92)에 통지한다.
아울러, 센서 입력 처리부(90)는 밧데리 센서(72)로부터 주어지는 밧데리 잔량 검출 신호(S13)를 상시 감시하는데, 밧데리(11)의 에너지 잔량이 적어진 것을 인식했을 때에는 그 인식 결과를 상태 인식 정보(D5)로써 감정·본능 모델부(91) 및 행동 결정 기구부(92)로 통지한다.
아울러, 센서 입력 처리부(90)는 열 센서(73)로부터 주어지는 열 검출 신호(S14)를 상시 감시하는데, 애완 로봇(51)의 내부 온도가 소정 온도 이상이 된 것을 인식했을 때에는 그 인식 결과를 상태 인식 정보(D5)로써 감정·본능 모델부(91) 및 행동 결정 기구부(92)에 통지한다.
또한, 센서 입력 처리부(90)는 본체측 인터페이스부(58) 내의 결합 센서(80)로부터 주어지는 외장 검출 신호(S15), 외장측 인터페이스부(60) 내의 정보 기억부(81)로부터 판독된 외장 설정 정보(D1) 및 몸체부 유닛(53) 내의 정보 판독부(75)로부터 판독한 퍼포먼스 정보(D2)에 의거해서 외장 유닛(52)의 장착 유무 및 상기 외장 유닛(52)에 설정된 여러 설정 정보를 인식하고 그 결과를 상태 인식 정보(D5)로써 감정·본능 모델부(91) 및 행동 결정 기구부(92)에 통지한다.
감정·본능 모델부(91)는 도13에 도시한 바와 같이 복수의 독립된 감정 모델인 감정 유닛(100A 내지 100C)으로 구성되는 기본 감정군(100)과 복수의 독립된 욕구 모델인 욕구 유닛(101A 내지 101C)으로 구성되는 기본 욕구군(101)에 대한 제어 파라미터를 컨트롤러(70)의 메모리(70A) 내에 가지고 있다. 기본 감정군(100) 가운데 감정 유닛(100A)은 "기쁨"이라는 감정을 나타내는 것이며, 감정 유닛(100B)은 "슬픔"이란 감정을 나타내는 것이며, 감정 유닛(100C)은 "분노"라는 감정을 나타내는 것이다.
감정 유닛(100A 내지 100C)은 감정의 정도를, 예를 들면 0 내지 100 레벨의 강도에 따라 각각 나타내고, 공급되는 상태 인식 정보(D5)에 의거해서 감정의 강도를 각각 시시각각 변화시킨다. 이리하여 감정·본능 모델부(91)는 시시각각 변화하는 감정 유닛(100A 내지 100C)의 강도를 조합함으로써 애완 로봇(51)의 감정 상태를 표현하고, 감정의 시간 변화를 모델화하고 있다.
또한, 기본 욕구군(101) 가운데 욕구 유닛(101A)은 "식욕"이라는 욕구를 나타내는 것이며, 욕구 유닛(101B)은 "호기심"이라는 욕구를 나타내는 것이며, 욕구 유닛(101C)은 "운동욕"이라는 욕구를 나타내는 것이다.
욕구 유닛(101A 내지 101C)은 감정 유닛(100A 내지 100C)과 마찬가지로 욕구의 정도를, 예를 들면 0 내지 100 레벨의 강도에 따라 각각 나타내고, 공급되는 상태 인식 정보(D5)에 의거해서 욕구의 강도를 각각 시시각각 변화시킨다. 이렇게 해서 감정·본능 모델부(91)는 시시각각 변화하는 욕구 유닛(101A 내지 101C)의 강도를 조합함으로써 애완 로봇(51)의 본능 상태를 표현하고, 본능의 시간 변화를 모델화하고 있다.
이와 같이 해서, 감정·본능 모델부(91)는 상태 인식 정보(D5)에 의거해서 감정 유닛(100A 내지 100C) 및 욕구 유닛(101A 내지 101C)의 강도를 각각 변화시킨다. 그리고 감정·본능 모델부(91)는 이 변화된 감정 유닛(100A 내지 100C)의 강도를 누계적으로 조합함으로써 감정의 상태를 결정하는 동시에 변화된 욕구 유닛(101A 내지 101C)의 강도를 누계적으로 조합함으로써 본능의 상태를 결정하고, 그 결정된 감정 및 본능의 상태를 감정·본능 상태 정보(D6)로써 행동 결정 기구부(92)로 송출한다.
그런데, 감정·본능 모델부(91)는 기본 감정군(100) 가운데 원하는 감정 유닛(100A 내지 100C)끼리를 상호 억제적 또는 상호 자극적으로 결합하여 상기 결합된 감정 유닛(100A 내지 100C) 가운데 한쪽 감정 유닛(100A 내지 100C)의 강도가 변화되면 이에 따라 다른 쪽 감정 유닛(100A 내지 100C)의 강도도 변화하게 되어서 자연스런 감정 및 본능을 갖는 애완 로봇(51)을 실현하고 있다.
즉 도14에 도시한 바와 같이, 감정·본능 모델부(91)는 "기쁨" 감정 유닛(100A)과 "분노" 감정 유닛(100C)을 상호 억제적으로 결합함으로써, 사용자가 칭찬을 했을 경우에는 "기쁨" 감정 유닛(100A)의 강도를 크게하는 동시에 "분노" 감정 유닛(100C)의 강도를 변화시키는 상태 인식 정보(D5)가 공급되지 않아도 "기쁨" 감정 유닛(100A)의 강도가 커짐에 따라 자연스럽게 "분노" 감정 유닛(100C)의 강도를 저하시킨다. 마찬가지로 감정·본능 모델부(91)는 "분노" 감정 유닛(100C)의 강도가 커지면 이 "분노" 감정 유닛(100C)의 강도가 커짐에 따라 자연스럽게 "기쁨" 감정 유닛(100A)의 강도를 저하시킨다.
또한, 감정·본능 모델부(91)는 "슬픔" 감정 유닛(100B)과 "분노" 감정 유닛(100C)을 상호 자극적으로 결합함으로써, 사용자에게 맞았을 때는 "분노" 감정 유닛(100C)의 강도가 커지는 동시에 "슬픔" 감정 유닛(100B)의 강도를 변화시키는상태 인식 정보(D5)가 공급되지 않아도 "분노" 감정 유닛(100C)의 강도가 커짐에 따라 자연스럽게 "슬픔" 감정 유닛(100B)의 강도를 증대시킨다. 마찬가지로 감정·본능 모델부(91)는 "슬픔" 감정 유닛(100B)의 강도가 커지면 이 "슬픔" 감정 유닛(100B)의 강도가 커짐에 따라 자연스럽게 "분노" 감정 유닛(100C)의 강도를 증대시킨다.
아울러, 감정·본능 모델부(91)는 감정 유닛(100A 내지 100C)을 서로 결합한 경우와 마찬가지로 기본 욕구군(101) 가운데 원하는 욕구 유닛(101A 내지 101C)을 상호 억제적 또는 자극적으로 결합시키면, 이 결합된 욕구 유닛(101A 내지 101C) 가운데 한쪽 욕구 유닛(101A 내지 101C)의 강도가 변화되면 이에 따라 다른 쪽 욕구 유닛(101A 내지 101C)의 강도도 변화하게 되어 자연스런 본능을 갖는 애완 로봇(51)을 실현하고 있다.
도15에 있어서, 감정·본능 모델부(91)는 후단의 행동 결정 기구부(92)로부터 애완 로봇(51) 자신의 현재 또는 과거의 행동, 예를 들면 "장시간 걸었다" 등의 행동 내용을 나타내는 행동 정보(D7)가 공급되고 있으며, 동일한 상태 인식 정보(D5)가 주어져도 상기 행동 정보(D7)가 나타내는 애완 로봇(51)의 행동에 따라 다른 감정·본능 정보(D6)를 생성하도록 구성되어 있다.
구체적으로는, 도15에 도시한 바와 같이 감정·본능 모델부(91)는 각 감정 유닛(100A 내지 100C)의 전단에 애완 로봇(51)의 행동을 나타내는 행동 정보(D7)와 상태 인식 정보(D5)를 바탕으로 각 감정 유닛(100A 내지 100C)의 강도를 증감시키기 위한 강도 정보(D8A 내지 D8C)를 생성하는 강도 증감 함수(105A 내지 105C)를각각 설치하고, 상기 강도 증감 함수(105A 내지 105C)로부터 출력되는 강도 정보(D8A 내지 D8C)에 따라 각 감정 유닛(100A 내지 100C)의 강도를 각각 증감시킨다.
예를 들면, 감정·본능 모델부(91)는 사용자에게 인사했을 때에 머리가 쓰다듬어지면, 즉 사용자에게 인사했다는 행동 정보(D7)와 머리가 쓰다듬어졌다는 상태 인식 정보(D5)가 강도 증감 함수(105A)에 주어지면 "기쁨" 감정 유닛(100A)의 강도를 증가시키는 한편, 어떠한 일을 실행중에 머리가 쓰다듬어져도, 즉 일을 실행중이라는 행동 정보(D7)와 머리가 쓰다듬어졌다는 상태 인식 정보(D5)가 강도 증감 함수(105A)에 주어져도 "기쁨" 감정 유닛(100A)의 강도를 변화시키지 않는다.
이와 같이, 감정·본능 모델부(91)는 상태 인식 정보(D5) 뿐만이 아니고 현재 또는 과거의 애완 로봇(51)의 행동을 나타내는 행동 정보(D7)도 참조하면서 각 감정 유닛(100A 내지 100C)의 강도를 결정함으로써, 예를 들면 어떠한 일을 실행중인데 사용자가 장난삼아 머리를 쓰다듬었을 때, "기쁨" 감정 유닛(100A)의 강도를 증가시키는 부자연스런 본능을 일으키는 것을 회피할 수 있다.
따라서, 감정·본능 모델부(91)는 욕구 유닛(101A 내지 101C)의 경우와 마찬가지로, 공급되는 상태 인식 정보(D5) 및 행동 정보(D7)에 의거해서 각 욕구 유닛(101A 내지 101C)의 강도를 각각 증감시키도록 구성되어 있다.
이상에 기술했듯이, 강도 증감 함수(105A 내지 105C)는 상태 인식 정보(D5) 및 행동 정보(D7)가 입력되면 미리 설정되어 있는 파라미터에 따라 강도 정보(D8A 내지 D8C)를 생성해서 출력하는 함수인데, 상기 파라미터를 애완 로봇(51)마다 다른 설정으로 함으로써, 예를 들면 화를 잘 내는 애완 로봇(51)이나 명랑한 성격의 애완 로봇(51)과 같이 상기 애완 로봇(51)에게 개성을 갖게 할 수 있다.
도12에서 행동 결정 기구부(92)는 상태 인식 정보(D5) 및 감정·본능 상태 정보(D6)에 의거해서 다음 행동을 결정하고, 그 결정된 행동의 내용을 행동 결정 정보(D9)로써 자세 천이 기구부(93)로 송출한다.
구체적으로는, 도16에 도시하는 바와 같이 행동 결정 기구부(92)는 과거에 공급된 상태 인식 정보(D5)의 이력을 동작 상태(이하, 이것을 스테이트라 함)로 나타내고, 현재 공급된 상태 인식 정보(D5)와 그 때의 스테이트에 의거해서 이 스테이트를 다른 스테이트로 천이시킴으로써 다음 행동을 결정하는 유한개의 스테이트를 갖는 유한 오토마톤(Automaton)(110)이라 불리는 알고리즘을 사용하고 있다. 이와 같이, 행동 결정 기구부(92)는 상태 인식 정보(D5)가 공급될 때마다 스테이트를 천이시키고, 상기 천이한 스테이트에 따라 행동을 결정함으로써 현재의 상태 인식 정보(D5) 뿐만 아니라 과거의 상태 인식 정보(D5)도 참조해서 행동을 결정하고 있다.
따라서, 예를 들면 "공을 쫓고 있다"라는 스테이트(ST1)에서 "공이 사라졌다"라는 상태 인식 정보(D5)가 공급되면 "서있는다"라는 스테이트(ST5)로 천이하는 한편, "자고있다"라는 스테이트(ST2)에서 "일어나라"라는 상태 인식 정보(D5)가 공급되면 "서있는다"라는 스테이트(ST4)로 천이한다. 이처럼, 이들 스테이트(ST4) 및 (ST5)는 행동은 같아도 과거의 상태 인식 정보(D5)의 이력이 다르면서 스테이트도 달라진다는 것을 알 수 있다.
실제로, 행동 결정 기구부(92)는 소정의 트리거가 있었던 것을 검출하면 현재의 스테이트를 다음 스테이트로 천이시킨다. 트리거의 구체예로는, 예를 들면 스테이트의 행동을 실행한 시간이 일정치에 달했거나 특정한 상태 인식 정보(D5), 또는 감정·본능 모델부(91)로부터 공급되는 감정·본능 정보(D6)가 나타내는 감정 유닛(100A 내지 100C) 및 욕구 유닛(101A 내지 101C)의 강도 가운데 원하는 유닛의 강도가 소정의 역치를 넘은 것 등을 들 수 있다.
그 때에 행동 결정 기구부(92)는 감정·본능 모델부(91)로부터 공급된 감정·본능 상태 정보(D6)가 나타내는 감정 유닛(100A 내지 100C) 및 욕구 유닛(101A 내지 101C)의 강도 가운데 원하는 유닛의 강도가 소정의 역치를 넘었는지의 여부에 의거해서 천이할 스테이트를 선택한다. 이로써 행동 결정 기구부(92)는, 예를 들면 동일한 상태 인식 정보(D5)가 입력되어도 감정 유닛(100A 내지 100C) 및 욕구 유닛(101A 내지 101C)의 강도에 따라 다른 스테이트로 천이하도록 구성되어 있다.
따라서, 행동 결정 기구부(92)는 공급되는 상태 인식 정보(D5)를 바탕으로, 예를 들어 눈앞에 손바닥이 내밀어지고 또한 감정·본능 상태 정보(D6)를 바탕으로 "분노" 감정 유닛(100C)의 강도가 소정의 역치 이하인 것을 검출하고, 또한 상태 인식 정보(D5)를 바탕으로 밧데리 전압이 소정 역치 이상인(즉 "배가 안 고프다") 것을 검출하면 눈앞에 손바닥이 내밀어진 것에 대해 "손"의 동작을 수행하기 위한 행동 결정 정보(D9)를 생성하고, 이것을 자세 천이 기구부(93)로 송출한다.
또한 행동 결정 기구부(92)는, 예를 들어 눈앞에 손바닥이 내밀어지고 또한 "분노" 감정 유닛(100C)의 강도가 소정의 역치 이하이며 또한 "배가 고프다" 즉 밧데리 전압이 소정의 역치 미만인 것을 검출하면 "손바닥을 핥는다"와 같은 행동을 수행시키기 위한 행동 결정 정보(D9)를 생성하고, 이것을 자세 천이 기구부(93)로 송출한다.
아울러 행동 결정 기구부(92)는, 예를 들어 눈앞에 손바닥이 내밀어지고 또한 "분노" 감정 유닛(100C)의 강도가 소정의 역치 이상인 것을 검출하면, "배가 안 고프다" 즉 밧데리 전압이 소정의 역치 이상인지 여부에 상관없이 "고개를 휙 돌리다"와 같은 행동을 수행시키기 위한 행동 결정 정보(D9)를 생성하고, 이것을 자세 천이 기구부(93)로 송출한다.
그런데, 행동 결정 기구부(92)는 감정·본능 모델부(91)로부터 공급된 감정·본능 상태 정보(D6)가 나타내는 감정 유닛(100A 내지 100C) 및 욕구 유닛(101A 내지 101C)의 강도 가운데 원하는 유닛 강도에 의거해서 천이할 스테이트에서 수행될 행동의 파라미터, 예를 들면 보행의 속도, 손발의 움직임의 크기나 속도, 소리를 낼 때의 높이나 크기 등을 결정해서 상기 행동 파라미터에 따른 행동 결정 정보(D9)를 생성해서 자세 천이 기구부(93)로 송출하도록 구성되어 있다.
이와 관련하여, 센서 입력 처리부(90)로부터 주어지는 상태 인식 정보(D5)는 감정·본능 모델부(91) 및 행동 결정 기구부(92)에 입력되는 타이밍에 따라 정보의 내용이 달라지기 때문에 감정·본능 모델부(91)와 함께 행동 결정 기구부(92)에도 입력되도록 구성되어 있다.
예를 들면, 컨트롤러(70)는 "머리가 쓰다듬어 졌다"는 상태 인식 정보(D5)가 공급되면 감정·본능 모델부(91)에 의해 "기쁘다"라는 감정·본능 상태 정보(D6)를생성하고, 상기 감정·본능 상태 정보(D6)를 행동 결정 기구부(92)에 공급하는데, 이 상태에서 "손이 눈앞에 있다"는 상태 인식 정보(D5)가 공급되면 행동 결정 기구부(92)에서 상술의 "기쁘다"라는 감정·본능 상태 정보(D6)와 "손이 눈앞에 있다"라는 상태 인식 정보(D5)에 의거해서 "기뻐하며 손을 올린다"라는 행동 결정 정보(D9)를 생성시켜 이를 자세 천이 기구부(93)로 송출시키도록 구성되어 있다.
도12에서 자세 천이 기구부(93)는 행동 결정 기구부(92)로부터 공급되는 행동 결정 정보(D9)에 의거해서 현재의 자세에서 다음 자세로 천이시키기 위한 자세 천이 정보(D10)을 생성하고, 이를 제어 기구부(94)로 송출한다. 이 경우에 현재의 자세로부터 다음 자세로 천이 가능한 자세는, 예를 들면 몸체나 손이나 발의 형상, 무게, 각 부의 결합 상태와 같은 애완 로봇(51)의 물리적인 형상과, 예를 들면 관절이 구부러지는 방향이나 각도와 같은 액추에이터(54AA1내지 56AM)의 기구에 의해 결정된다.
그러나, 이러한 천이 가능한 자세는 현재의 자세에서 직접 천이 가능한 자세와 직접 천이할 수 없는 자세로 분류된다. 예를 들면, 4다리의 애완 로봇(51)은 손발을 크게 벌리고 누운 상태에서 엎드린 상태로 직접 천이할 수는 있지만, 선 상태로 직접 천이할 수는 없으니 일단 손발을 몸체 가까이로 끌어당겨 엎드린 상태가 되고 나서 일어선다는 2단계의 동작이 필요하다. 또한 안정되게 실행할 수 없는 자세도 존재한다. 예를 들면 4다리의 애완 로봇은 서있는 자세에서 양측 앞다리를 들어 만세를 하려고 하면 쉽게 쓰러져 버린다.
따라서, 자세 천이 기구부(93)는 천이 가능한 자세를 미리 등록해 두고, 행동 결정 기구부(92)로부터 공급된 행동 결정 정보(D9)가 직접 천이 가능한 자세를 나타내는 경우에는 이 행동 결정 정보(D9)를 그대로 행동 천이 정보(D10)로써 제어 기구부(94)로 송출하는 한편, 직접 천이 불가능한 자세를 나타내는 경우에는 천이 가능한 다른 자세로 일단 천이한 후에 목적 자세까지 천이시킬 수 있는 자세 천이 정보(D10)를 생성하여 제어 기구부(94)로 송출한다. 이렇게 함으로써 애완 로봇(51)은 천이 불가능한 자세를 무리하게 실행하고자 하는 사태나 쓰러지는 사태를 회피할 수 있다.
구체적으로는, 자세 천이 기구부(93)는 애완 로봇(51)이 취할 수 있는 자세를 미리 등록하는 동시에 천이 가능한 2개의 자세 사이를 기록해 두도록 구성되어 있다.
예를 들면, 도17에 도시한 바와 같이 자세 천이 기구부(93)는 애완 로봇(51)이 취할 수 있는 자세를 노드(NODE1내지 NODE5)로 표현하고, 천이 가능한 2개의 자세 사이 즉 노드(NODE1내지 NODE5)간을 유향(有向) 아크(ARC1내지 ARC10)로 결합한 유향 그래프(111)라고 불리는 알고리즘을 사용하고 있다.
자세 천이 기구부(93)는 행동 결정 기구부(92)로부터 행동 결정 정보(D9)가 공급되면 현재의 자세에 대응한 노드(NODE1내지 NODE5)와 행동 결정 정보(D9)가 나타내는 다음에 취해야할 자세에 대응하는 노드(NODE1내지 NODE5)가 연결되도록 유향 아크(ARC1내지 ARC10)의 방향에 따르면서 노드(NODE1내지 NODE5)로부터 다음 노드(NODE1내지 NODE5)에 이르는 경로를 탐색하고, 그 탐색한 경로상에 있는 노드(NODE1내지 NODE5)를 순서대로 기록함으로써 자세 천이의 계획을 수행하도록 구성되어 있다. 이처럼 해서, 애완 로봇(51)은 천이 불가능한 자세를 무리하게 실행하고자 하는 사태나 쓰러지는 사태를 회피하면서 행동 결정 기구부(92)에서 지시된 행동을 실현할 수 있다.
자세 천이 기구부(93)는, 예를 들어 현재의 자세가 "엎드리다"라는 자세를 나타내는 노드(NODE2)에 있는 경우, "앉아"라는 행동 결정 정보(D9)가 공급되면 "엎드리다"라는 자세를 나타내는 노드(NODE2)로부터 "앉다"라는 자세를 나타내는 노드(NODE5)로 직접 천이가 가능하다는 것을 이용해서 "앉아"라는 천이 정보(D10)를 제어 기구부(94)로 보낸다.
이에 반해, 자세 천이 기구부(93)는 "걸어라"라는 행동 결정 정보(D9)가 공급되면 "엎드리다"라는 노드(NODE2)로부터 "걷다"라는 노드(NODE4)에 이르는 경로를 탐색함으로써 자세 천이 계획을 수행하고, 그 결과 "일어서라"라는 지시를 낸 후에 "걸어라"라는 지시를 내리는 자세 천이 정보(D10)를 생성해서 제어 기구부(94)로 송출한다.
도12에서 제어 기구부(94)는 자세 천이 정보(D10)를 바탕으로 액추에이터(54AA1내지 56AM)를 구동시키기 위한 제어 신호(S20)를 생성하고, 이것을 액추에이터(54AA1내지 56AM)로 송출하여 상기 액추에이터(54AA1내지 56AM)를 구동시킴으로써 애완 로봇(51)에게 원하는 동작을 하도록 구성되어 있다.
(2-4) 외장 장치 처리 순서(RT1)
이 애완 로봇(51)내의 컨트롤러(70)는 외장 유닛(52)이 장착되면 도11에 도시한 바와 같이 외장 장치 처리 순서(TR1)를 스텝(SP0)에서부터 개시하고, 이어지는 스텝(SP1)에서 몸체부 유닛(53)에 있어서의 본체측 인터페이스부(58) 내의 결합 센서(80)의 검출 상태를 감시하면서 스텝(SP2)으로 나아가 외장 유닛(52) 내의 외장측 인터페이스부(60)가 전기적 및 구조적으로 접속되었는지 여부를 상기 결합 센서(80)의 검출 결과에 의거해서 판단한다.
이 스텝(SP2)에서 컨트롤러(70)는 긍정 결과가 얻어지기를 기다린 후 스텝(SP3)으로 나아가 외장 유닛(52)에 있어서 외장측 인터페이스부(60) 내의 정보 기억부(81)로부터 외장 설정 정보(D1)를 판독해 내고, 스텝(SP4)에서 상기 외장 설정 정보(D1)에 포함되는 암호화 정보를 해독한다.
이어서 컨트롤러(70)는 스텝(SP5)에서 외장 설정 정보(D1)에 포함되는 외장 번호를 추출한 후 스텝(SP6)으로 나아가 몸체부 유닛(53) 내의 정보 판독부(75)로부터 상기 외장 번호에 대한 퍼포먼스 정보(D2)를 읽어낸다.
이어서 컨트롤러(70)는 스텝(SP7)으로 나아가 정보 판독부(75)로부터 읽어낸 퍼포먼스 정보(D2)에 포함되는 암호화 정보를 해독한 후 스텝(SP8)에서 상술한 스텝(SP4) 및 스텝(SP7)의 양쪽 해독 결과에 의거해서 애완 로봇(51)에 장착된 외장유닛(52)이 규정 상품인지 여부를 판단한다.
이 스텝(SP8)에서 긍정 결과가 얻어지면 외장 유닛(52)이 애완 로봇(51)에 장착되는 외장으로 규정적으로 인증된 것임을 의미하고, 이 때에 컨트롤러(70)는 스텝(SP9)으로 나아가 사용자의 작용에 의거한 터치 센서(78)의 온/오프 상태를 감시하면서 "쓰다듬다" 또는 "때리다"와 같은 동작이 수행되었을 때만 스텝(SP10)으로 나아간다.
이 스텝(SP10)에서 컨트롤러(70)는 "쓰다듬어졌다" 또는 "맞았다" 등의 감정(도13에 대해 상술한 감정 유닛(100A 내지 100C))의 강도를 누적적으로 조합함으로써 현재의 감정 상태를 결정한다.
이후, 컨트롤러(70)는 스텝(SP11)으로 나아가 현재의 감정 상태에 따라 다음 행동 및 음성 내용을 결정한 후 스텝(SP12)에서 외장 유닛(52)의 종류(즉 외장 번호)에 따른 퍼포먼스 정보(D2)중에서 상기 결정된 행동 내용 및 음성 내용과 합치되는 행동 내용 및 음성 내용을 선택한 후 스텝(SP13)으로 나아간다.
이에 반해, 스텝(SP8)에서 부정 결과가 얻어지면 외장 유닛(52)이 애완 로봇(51)에 장착될 외장으로 규정적으로 인증된 것이 아니라는 것을 나타내며, 이때 컨트롤러(70)는 스텝(SP14)으로 나아가 부정 외장인 것을 나타내는 음성 신호를 읽어내서 이 신호에 의거한 음성을 스피커(79)를 통해 출력시킨 후 스텝(SP13)으로 나아간다.
이 스텝(SP13)에서 컨트롤러(70)는 본체측 인터페이스부(58) 내의 결합 센서(80)의 출력 상태를 감시하면서 스텝(SP15)으로 나아가 외장 유닛(52) 내의 외장측 인터페이스부(60)가 전기적 및 구조적으로 접속되었는지 여부를 상기 결합 센서(80)의 검출 결과에 의거해서 판단한다.
이 스텝(SP14)에서 긍정 결과가 얻어졌을 때에 컨트롤러(70)는 상술한 스텝(SP12)에 있어서의 외장 유닛(52)에 따른 개성있는 행동 내용 및 음성 내용으로 애완 로봇(51)을 자율적으로 동작시키면서 그대로 스텝(SP16)으로 나아가 상기 외장 장치 처리 순서(RT1)를 종료한다.
이에 반해, 스텝(SP15)에서 부정 결과가 얻어졌을 때는 사용자에 의해 외장 유닛(52)이 애완 로봇(51)으로부터 분리되었거나, 또는 사용자의 의지와는 상관없이 어떠한 외인으로 인해 외장 유닛(53)의 외장측 인터페이스부(60)와 애완 로봇(51)의 본체측 인터페이스부(58)의 접속이 분리된 것을 나타내며, 이때 컨트롤러(70)는 재차 스텝(SP1)으로 되돌아가 상술과 동일한 처리를 반복한다.
(2-5) 본 실시 형태의 동작 및 효과
이상의 구성에 있어서, 이 애완 로봇 시스템(50)에서는 사용자가 원하는 외장 유닛(52)을 애완 로봇(51)에 장착할 때, 먼저 외장 유닛(52)의 외장측 인터페이스부(60)를 몸체부 유닛(53)의 본체측 인터페이스부(58)와 전기적 및 구조적으로 접속시킨다.
이어서, 외장 유닛(52) 내의 정보 기억부(81)에 저장되어 있는 외장 설정 정보(D1)에 의거하여 이 외장 유닛(52)이 규정 상품인지 아닌지를 판단하고, 긍정 결과가 얻어졌을 때에는 몸체부 유닛(53) 내의 정보 판독부(75)로부터 상기 외장 설정 정보(D1)에 대응하는 퍼포먼스 정보(D2)를 읽어낸다.
그 결과, 애완 로봇(51)에서는 자율적인 행동을 수행하는 중에 사용자의 작용이나 외부로부터의 어떠한 자극이 주어졌을 때, 애완 로봇(51)의 감정 또는 본능의 상태를 퍼포먼스 정보(D2)에 의거해서 결정되는 소정의 변화 상태에서 개성적으로 변화시킬 수 있다.
예를 들면, 외장 유닛(52)이 맹수나 파충류와 같은 공격적인 외관인 경우에는 통상보다 "분노"의 감정의 강도가 증대되는 정도가 빨라지는 한편, 외장 유닛(52)이 애완용 봉제인형과 같은 사랑스러운 외관인 경우에는 통상보다 "기쁨"의 감정의 강도가 증대되는 정도가 빨라진다.
그 결과, 애완 로봇(51)에서는 사용자가 머리를 쓰다듬었을 때, 공격적인 외관인 외장 유닛(52)의 경우에는 "싫은 일"로 인식하고 이에 따른 감정 표현을 수행시킬 수 있는 한편, 사랑스러운 외관인 외장 유닛(52)의 경우에는 "즐거운 일"로 인식하여 이에 따른 감정 표현을 수행시킬 수 있다.
또한 외장 유닛(52)의 질량이 비교적 무거운 경우에는 통상보다 "식욕" 욕구의 강도가 증대되는 정도가 빨라지며, 또한 통상보다 "운동욕" 욕구의 강도가 증대되는 정도가 늦어진다. 한편, 외장 유닛(52)의 질량이 비교적 가벼운 경우에는 통상보다 "식욕" 욕구의 강도가 증대되는 정도가 늦어지며 또한 통상보다 "운동욕" 욕구의 강도가 증대되는 정도가 빨라진다.
그 결과, 애완 로봇(51)에서는 비교적 질량이 무거운 외장 유닛(52)의 경우에는 밧데리(71)의 잔량 변화가 통상보다 빠른걸 고려해서 상기 밧데리(71)의 충전욕을 어필하는 듯한 행동을 실행시킴으로써 마치 진짜 동물처럼 식욕을 재촉하는상태를 사용자에게 전할 수 있다. 여기에 덧붙여, 밧데리(71)의 잔량 변화에 따라 운동량을 저감시킴으로써 밧데리(71)의 잔량이 감소함에 따라 운동량이 적은 행동을 취하게 할 수 있다.
아울러, 이 애완 로봇(51)에서는 외장 유닛(52) 내의 정보 기억부(81)에 저장해 둘 외장 설정 정보(D1)에 암호화 정보를 포함시켜 상기 암호화 정보에 의거해서 애완 로봇(51)에 장착된 외장 유닛(52)이 규정 상품인지 아닌지를 판단하도록 함으로써 제3자가 부당하게 준비한 외장 유닛(52)의 사용을 배제할 수 있는 방범성을 확보할 수 있다.
이상의 구성에 따르면, 외장 유닛(52) 내에 상기 외장 유닛(52)에 관한 외장 설정 정보(D1)가 저장된 정보 기억부(81)를 설치해 두고, 상기 외장 유닛(52)을 애완 로봇(51)에 장착했을 때, 몸체부 유닛(53) 내의 정보 판독부(75)에 저장되어 있는 외장 유닛(52)의 종류마다 설정된 퍼포먼스 정보(D2)중에서 상기 외장 설정 정보(D1)에 따라 퍼포먼스 정보(D2)를 선택적으로 읽어내서 애완 로봇(51)의 감정 및 본능의 상태를 상기 퍼포먼스 정보(D2)에 의거해서 결정된 소정의 변화 상태로 변화시키도록 함으로써 애완 로봇(51)의 실제 동작 및 행동이 개성적이 되도록 반영시킬 수 있게 되어있으며, 이로써 오락성을 각별히 향상시킬 수 있는 애완 로봇 시스템을 실현할 수 있다.
(2-6) 다른 실시 형태
상술한 실시 형태에서는 본 발명을 도8과 같이 구성된 4족 보행형 애완 로봇(51)을 기본 구성으로 한 로봇 시스템(50)에 적용한 경우에 대해 기술했으나본 발명은 이에 한정되지 않고, 요컨대 소정 동작(보행, 빛, 소리 등)을 표현하는 로봇 장치라면 기타 여러 구성의 로봇 장치에 폭넓게 적용할 수 있다.
또한, 상술의 실시 형태에서는 로봇 장치에 착탈 가능하게 장착되는 외장으로 도8에 도시한 바와 같은, 마치 진짜 개의 표피와 동일한 형태를 합성섬유로 구성한 외장 본체부(52A)로 이루어지는 외장 유닛(52)을 적용한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 다른 동물(고양이, 너구리, 말, 원숭이, 인간 등)의 표피와 동일한 형태를 각종 재료(모피, 직물, 합성수지, 금속 등)로 형성하도록 해도 된다.
아울러, 외장 유닛(52)을 구성하는 외장 본체부(52A)로 동물의 표피와 동일한 형태로 이루어지는 함성섬유를 일체 형성해서 구성된 외장 본체부(52A)를 적용한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 예를 들면 도26에 도시한 바와 같이 애완 로봇(51)의 각 부위에 따른 금속제 외장 부품(137)을 각각 별개로 설치되게 해도 된다. 이 경우에 복수의 외장 부품(137)은 머리부 부품(137A), 몸체 부품(137B), 다리부 부품(137C) 및 경부(脛部) 부품(137D)으로 구성되며, 이 가운데 몸체 부품(137B)에는 상술한 외장측 인터페이스부(60)가 설치되어 있다. 그리고 외장 부품(137)을 형성하는 재료로는 금속 이외에도 각종 재료(합성섬유, 모피, 직물, 도기, 합성수지)를 폭넓게 적용해도 된다.
또한, 상술의 실시 형태에서는 외장 유닛(52)이 애완 로봇(51)에 장착되었을 때에 제어 수단인 애완 로봇(51)의 몸체부 유닛(53) 내의 컨트롤러(70)가 상기 외장 유닛(52)에 할당되어있는 외장 설정 정보(고유 정보)(D1)에 의거해서 상기 외장설정 정보(D1) 가운데 외장 번호에 따라 퍼포먼스 정보(D2)를 결정하도록 한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 요컨대 외장 설정 정보(D1)에 의거해서 동작의 표현 패턴을 필요에 따라 변화시킬 수 있다면 기타 여러 구성으로 이루어지는 제어 수단을 적용시켜도 된다.
또한, 외장 설정 정보(D1)로는 외장 번호나 제조 허가를 나타내는 정보를 적용한 경우에 대해 기술했으나, 외장 유닛의 종류, 형상, 재질, 질량 분포, 경도 및 열 전도율 등에 관한 정보나, 상기 외장 유닛의 개성, 동작 및 행동에 관한 정보 등을 포함하도록 해도 된다. 이 경우에 제어 수단인 애완 로봇(51)의 몸체부 유닛(53) 내의 컨트롤러(70)는 정보 판독부(정보 판독 수단)(75)를 통해 읽어낸 외장 설정 정보(D1)에만 의거해서 애완 로봇(51)의 행동을 결정한 후, 그 결정에 대응해서 필요한 액추에이터(54AA1내지 56AM)를 구동시키고 필요에 따라 스피커(79)로부터 음성을 출력하도록 해도 된다.
게다가 상술의 실시 형태에서는 고유 정보로 외장 번호를 저장하는 것으로 개성을 갖게 한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 외장의 종류(예를 들면 캥거루, 곰, 토끼 등의 외장 형태)에 따라 외장이 표현하는 동물의 종류에 따른 보행 패턴, 행동 패턴 및 동작 내용 등(예를 들면, 켕거루의 경우는 깡충 깡충 뛰고, 곰의 경우에는 어슬렁어슬렁 걷는다)을 규정하는 번호나 파라미터를 고유 정보로 저장해 두도록 해도 된다.
아울러, 상술의 실시 형태에서는 외장이 로봇 장치에 장착되었을 때에 외장및 로봇 장치간을 전기적 및 구조적으로 접속하는 수단으로 외장 유닛(52) 내에 설치된 외장측 인테페이스부(60)와 애완 로봇(51) 내에 설치된 본체측 인터페이스부(58)를 적용한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 요컨대 외장 유닛(52)의 종류마다 개성을 갖게하는 동시에 서로 분리 가능하게 접속될 수 있으면 기타 여러 구성의 수단을 폭넓게 적용해도 된다.
이 경우, 상술의 실시 형태에서는 외장 유닛(52) 내에 정보 보유 수단(메모리)인 정보 기억부(81)를 설치해 두고 상기 정보 기억부(81)에 외장 유닛(3)에 따른 고유 정보를 저장하도록 했으나 본 발명은 이에 한정되지 않고, 외장 유닛(52)에는 정보 기억부(81)를 설치하지 않고 애완 로봇(51)과의 접속 부위에 고유 정보에 대응하는 특징물(마크, 바코드, 소정의 요철 패턴, 특수형상의 돌출단 등)을 설치해서 애완 로봇(51)의 접속 부위에서 특징물을 읽어서 고유 정보를 인식하도록 해도 된다. 또한 저장 수단으로는 고유 정보를 저장하는 불휘발성 메모리 이외에도 저항 등의 수동소자나 자기를 사용해서 고유 정보를 저장하거나 발광 다이오드(LED:Light Emitting Diode)의 발광 패턴을 고유 정보로 해도 된다.
또한 외장 유닛(52)과 애완 로봇(51)의 접속 상태를 외장측 인터페이스부(60)의 접속부(59)와 본체측 인터페이스부(58)의 접속부(57) 사이에서 커넥터 반체(57A, 59A)끼리 및 결합 기구부(57B, 59B)끼리가 연결되도록 구성해 두고, 본체측 인터페이스부(58)의 접속부(57) 내의 결합 센서(80)가 외장측 인터페이스부(60)의 접속부(59)와 본체측 인터페이스부(58)의 접속부(57) 내의 부하저항(R2)을 통해 얻어지는 전압치에 의거해서 접속상태를 검출하도록 한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 외장 유닛(52)과 애완 로봇(51)의 접속 상태를 검출하는 방법으로는 기타 다른 여러 검출 방법을 폭넓게 적용할 수 있다.
예를 들면, 본체측 인터페이스부(58)의 접속부(57) 또는 외장측 인터페이스부(60)의 접속부(59)중 어느 하나에 거리 검출부(도시되지 않음)를 설치하여 컨트롤러(70)가 상기 거리 검출부의 검출 결과로 얻어지는 거리 정보의 변화에 의거해서 접속부(57, 59)간의 접속 상태를 검출하도록 해도 되고, 또는 본체측 인터페이스부(58)의 접속부(57)에 광량 검출부(도시되지 않음)를 설치하여 컨트롤러(70)가 상기 광량 검출부의 검출 결과로 얻어지는 광량 변화에 의거해서 접속부(57, 59)간의 접속 상태를 검출하도록 해도 된다.
아울러 상술의 실시 형태에서는 정보 검출 수단인 애완 로봇(51)의 몸체측 유닛(53) 내의 컨트롤러(70)가 외장 유닛(52)으로부터 주어지는 외장 설정 정보(D1)(고유 정보)에 의거해서 상기 외장 유닛(52)의 종류에 따른 퍼포먼스 정보(D2)를 결정한 후 상기 퍼포먼스 정보(D2)에 의거해서 애완 로봇(51)의 행동을 결정하도록 한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 외장 설정 정보(D1)중의 형상 정보를 판단해서 애완 로봇(51)의 각 부위가 외장 유닛에 의해 간섭되지 않도록 동작시키도록 해도 되고, 또한 외장 설치 정보(D1)중의 질량 분포를 판단해서 애완 로봇(51)을 밸런스 좋게 동작시키도록 해도 된다.
아울러, 상술의 실시 형태에서는 도18에 도시한 외장 장착 처리 순서(RT1)에서 외장 유닛(52)의 외장측 인터페이스부(60)가 애완 로봇(51)의 몸체부 유닛(53)내의 본체측 인터페이스부(58)와 접속되지 않은 경우에는 외장 유닛(52)마다 할당된 외장 설정 정보(D1)의 내용을 퍼포먼스 정보(D2)에 반영시키지 않도록 한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 외장 유닛(52)의 외장측 인터페이스부(60)가 애완 로봇(51)의 몸체부 유닛(53) 내의 본체측 인터페이스부(58)와 접속되지 않은 경우에는 애완 로봇(51)의 행동 및 동작의 일부 또는 전부를 제한시키도록 해도 된다.
아울러, 상술의 실시 형태에서는 애완 로봇(51)의 몸체부 유닛(53) 내의 컨트롤러(70)에 있어서, 정보 판독 수단인 정보 판독부(75)가 외부로부터 삽입된 저장 매체(도시되지 않음)로부터 퍼포먼스 정보(D2)를 읽어서 컨트롤러(70)로 송출하도록 한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 정보 판독 수단으로 수신장치를 사용해서 외부로부터 발신되는 퍼포먼스 정보(D2)를 수신해서 다운 로드하도록 해도 된다.
(3) 제3 실시 형태
(3-1) 본 실시 형태에 따른 로봇 시스템(120)의 구성
도8과의 대응 부분에 동일한 부호를 붙여 도시한 도19는 제3 실시 형태에 따른 애완 로봇 시스템(120)을 나타내고, 애완 로봇(121)이 사용자로부터의 작용이나 사운드 커멘더를 사용한 지령 등의 조작 입력의 이력과 자기 행동 및 동작 이력에 따라 마치 진짜 동물이 "성장"하는 것과 같이 행동 및 동작을 변화시키는 기능이 탑재되어있는 점을 제외하고는 애완 로봇 시스템(50)(도8)과 동일하게 구성되어 있다.
즉 이 애완 로봇 시스템(120)의 경우, 애완 로봇(121)에는 성장 과정으로 "유년기", "소년기", "청년기" 및 "성인기"의 4개의 "성장 단계"가 설정되어 있다. 그리고 컨트롤러(122)(도10)의 메모리(122A)(도19)에는 이들 각 "성장 단계"마다 "보행 상태", "모션(움직임)", "행동" 및 "사운드(짖는 소리)"의 4개의 항목에 관한 행동 및 동작의 기초가 되는 각종 제어 파라미터 및 제어 프로그램으로 이루어지는 행동 및 동작 모델이 미리 저장되어 있다.
그리고 컨트롤러(122)는 초기에는 "유년기"의 행동 및 동작 모델에 따라, 예를 들면 "보행 상태"에 대해서는 보폭을 작게 하여 "아장아장 걸음"이 되도록, "모션"에 대해서는 단순하게 "걷다", "서다", "자다" 정도의 "단순"한 움직임이 되도록, "행동"에 대해서는 같은 행동을 반복해서 행하도록 하여 "단조로운" 행동이 되도록, 또한 "사운드"에 대해서는 음성 신호(S16)의 증폭율을 저하시켜 "작고 짧은" 울음소리가 되도록 각 액추에이터(54AA1내지 56AM) 및 음성 출력을 제어한다.
또한, 이때 컨트롤러(122)는 사운드 커멘더를 사용한 지령 입력과, "쓰다듬다" 및 "때리다"에 해당하는 터치 센서(78)를 통한 센서 입력 및 결정된 행동 및 동작의 성공 횟수 등으로 이루어지는 강화 학습과, "쓰다듬다" 및 "때리다"에 해당되지 않는 터치 센서(78)를 통한 센서 입력과, "공으로 놀다" 등의 소정의 행동 및 동작 등의 미리 정해진 "성장"에 관여하는 복수의 요소(이하, 이들을 성장 요소라 함)에 대해 그 발생을 항시 감시하여 카운트한다.
그리고, 컨트롤러(122)는 이들 성장 요소의 누적도수에 의거해서 각 성장 요소의 누적도수의 합계치(이하, 이것을 성장 요소의 총합 경험치라 함)가 미리 설정된 역치를 넘으면, 사용하는 행동 및 동작 모델을 "유년기"의 행동 및 동작 모델보다 성장 레벨(행동이나 동작의 난이도나 번잡함 등의 레벨)이 높은 "소년기"의 행동 및 동작 모델로 변경한다.
그리고, 컨트롤러(122)는 이 이후 "소년기"의 행동 및 동작 모델에 따라, 예를 들면 "보행 상태"에 대해서는 각 액추에이터(54AA1내지 56AM)의 회전 속도를 빠르게 하여 "조금은 바르게" 걷도록, "모션"에 대해서는 움직임의 횟수를 증가시켜 "조금은 고도하고 복잡"한 움직임이 되도록, "행동"에 대해서는 앞의 행동을 참조해서 다음 행동을 결정하도록 하여 "조금은 목적"을 지닌 행동이 되도록, 또한 "사운드"에 대해서는 음성 신호(S16)의 길이를 늘리고 증폭율을 올려서 "조금은 길고 강한" 울음소리가 되도록 각 액추에이터(54AA1내지 56AM), 스피커(79)로부터의 음성 출력을 제어한다.
아울러, 컨트롤러(122)는 이 이후에도 마찬가지로 성장 요소의 총합 경험치가 "청년기"나 "성인기"에 각각 대응시켜 미리 설정된 각 역치를 넘을 때마다 행동 및 동작 모델에 의해 성장 레벨이 높은 "청년기" 또는 "성인기"의 행동 및 동작 모델로 순차적으로 변경하고, 이 행동 및 동작 모델에 따라 각 액추에이터(54AA1내지 56AM)의 회전 속도나 스피커(79)에 부여하는 음성 신호(S16)의 길이나 증폭율을 서서히 올리거나 하나의 동작을 수행할 때의 각 액추에이터(54AA1내지 56AM)의 회전량 등을 변화시킨다.
그 결과, 애완 로봇(121)은 "성장 단계"가 올라간다. 즉, "유년기"로부터 "소년기", "소년기"로부터 "청년기", "청년기"로부터 "성인기"로 변화됨에 따라 "보행 상태"가 "아장아장 걸음"으로부터 "제대로 된 걸음"으로, "모션"이 "단순"에서 "고도·복잡함"으로, "행동"이 "단조로움"에서 "목적을 지닌 행동"으로, 또한 "사운드"가 "작고 짧음"으로부터 "길고 크게" 단계적으로 변화한다.
이와같이, 이 애완 로봇(121)에서는 외부로부터의 입력이나 자기 행동 및 동작의 이력에 따라 "유년기", "소년기", "청년기" 및 "성인기"의 4단계로 "성장"하도록 구성되어 있다.
이 실시 형태의 경우, 도20에 도시한 바와 같이 "소년기", "청년기" 및 "성인기"의 각 "성장 단계"에 대해 각각 복수의 행동 및 동작 모델이 준비되어 있다.
사실상, 예를 들면 "소년기"의 행동 및 동작 모델로, 움직임이 거칠고 빠른"난폭한" 성격의 행동 및 동작을 수행하는 행동 및 동작 모델(Child 1)과, 이보다 움직임이 부드럽고 느린 "느긋한" 성격의 행동 및 동작을 수행하는 행동 및 동작 모델(Child 2)이 설치되어 있다.
또한 "청년기"의 행동 및 동작 모델로, "소년기"의 "난폭한" 성격보다 더욱 움직임이 거칠고 빠른 "초조"한 성격의 행동 및 동작을 수행하는 행동 및 동작 모델(Young 1)과, 이보다 움직임이 느리며 부드러운 "보통" 성격의 행동을 수행하는 행동 및 동작 모델(Young 2)과, 이보다 한층 동작이 느리고 행동량이 적은 "느긋한" 성격의 행동 및 동작을 수행하는 행동 및 동작 모델(Young 3)이 설치되어 있다.
아울러 "성인기"의 행동 및 동작 모델로, 각각 "청년기"의 "초조"한 성격보다 움직임이 거칠고 빠르며 또한 사용자로부터의 지령에 따른 움직임을 수행하기 어려운 "공격적"인 성격의 행동 및 동작을 수행하는 행동 및 동작 모델(Adult 1)과, 이보다 움직임이 부드럽고 느리며 또한 사용자로부터의 지령에 따른 움직임을 자주 수행하는 "다소 난폭한" 성격의 행동 및 동작을 수행하는 행동 및 동작 모델(Adult 2)과, 이보다 움직임이 부드럽고 느리며 행동량이 적고 또한 사용자로부터의 지령에 따른 움직임을 반드시 수행하는 "조금 얌전한" 성격의 행동 및 동작을 수행하는 행동 및 동작 모델(Adult 3)과, 이보다 한층 더 움직임이 느리고 행동량이 적으며 또한 사용자로부터의 지령에 따른 움직임을 반드시 수행하는 "얌전한" 성격의 행동 및 동작을 수행하는 행동 및 동작 모델(Adult 4)이 설치되어 있다.
그리고, 컨트롤러(122)는 "성장 단계"를 올릴 때에 각 성장 요인의 누적도수에 의거해서 다음 "성장 단계" 내의 각 행동 및 동작 모델 가운데 하나의 행동 및 동작 모델을 선택해서 사용하던 행동 및 동작 모델을 상기 선택한 행동 및 동작 모델로 변경하도록 구성되어 있다.
이 경우, "유년기" 이후에는 다음의 "성장 단계"로 바뀔 때 현재의 "성장 단계"의 행동 및 동작 모델로부터 천이될 다음의 "성장 단계"의 행동 및 동작 모델은 정해져 있는데, 도20에서 화살표로 연결된 행동 및 동작 모델간의 천이 밖에 할 수 없다. 따라서, 예를 들면 "소년기"에서 "난폭한" 행동 및 동작을 수행하는 행동 및 동작 모델(Child 1)이 선택된 경우에는 "청년기"에서 "느긋한" 행동 및 동작을수행하는 행동 및 동작 모델(Young 3)로 천이될 수 없다.
이와 같이, 이 애완 로봇(121)에서는 마치 진짜 동물이 사육자의 사육 방법에 따라 성격을 형성해 가듯이 사용자로부터의 작용 및 지령의 입력 이력이나 자기의 행동 이력에 따라 "성장"하면서 "성격"도 변화시키도록 구성되어 있다.
(3-2) 컨트롤러(122)의 처리
여기서 이와같은 애완 로봇(121)의 행동 생성에 관한 컨트롤러(122)의 처리에 대해 설명한다.
도12와의 대응부분에 동일한 부호를 붙인 도21에 나타낸 바와 같이, 애완 로봇(121)의 행동 생성에 관한 컨트롤러(122)의 처리 내용을 기능적으로 분류하면, 특정한 상태를 인식하는 센서 입력 처리부(130)와, 상기 센서 입력 처리부(130)의 인식 결과에 의거해서 그 때의 애완 로봇(121)의 감정 및 본능의 상태를 표현하는 감정·본능 모델부(131)와, 센서 입력 처리부(130)의 인식 결과 등에 의거해서 이어지는 행동을 결정하는 행동 결정 기구부(132)와, 상기 행동 결정 기구부(132)의 결정 결과에 의거해서 실제로 애완 로봇(121)에게 행동을 표현시키는 행동 생성 기구부(133)와, 이 애완 로봇(121)의 "성장 단계"를 제어하는 성장 단계 제어 기구부(134)로 나눌 수 있다.
이 경우, 센서 입력 처리부는 마이크로폰(76), CCD 카메라(77), 터치 센서(78), 밧데리 센서(72) 및 열 센서로부터 주어지는 음성 신호(S10), 화상 신호(S11), 압력 검출 신호(S12), 밧데리 잔량 검출 신호(S13) 및 열 검출 신호(S14)에 의거해서 주위 및 자신의 상태나 사용자로부터의 특정한 작용 및 지령의 유무를 검출 및 인식하는 동시에 본체측 인터페이스부(58) 내의 결합 센서(80)로부터 주어지는 외장 검출 신호(S15), 외장측 인터페이스부(60) 내의 정보 기억부(81)로부터 읽혀진 외장 설정 정보(D1) 및 몸체부 유닛(53) 내의 정보 판독부(75)로 읽어낸 퍼포먼스 정보(D2)에 의거해서 외장 유닛(52)의 장착 유무 및 그 외장 유닛(52)에 설정된 여러 설정 정보를 인식하고 그 인식 결과를 상태 인식 정보(D20)로써 감정·본능 모델부(131) 및 행동 결정 기구부(132)에 통지한다.
또한 감정·본능 모델부(131)는 도12에 대해 상술한 제2 실시 형태의 감정·본능 모델부(91)와 마찬가지로, 그 때의 애완 로봇(121)의 감정이나 본능을 결정하고 결정된 감정 및 본능의 상태를 감정·본능 상태 정보(D21)로써 행동 결정 기구부(132)로 송출한다.
행동 결정 기구부(132)는 상태 인식 기구부(130)로부터 상태 인식 정보(D20)가 주어졌을 때나, 현재의 행동으로 옮기고 나서 일정 시간이 경과했을 때, 감정·본능 모델부(131)로부터 주어지는 감정·본능 상태 정보(D21)나 메모리(122A)에 저장된 각 행동 및 동작 모델의 "행동"에 대한 제어 파라미터 가운데 성장 단계 제어 기구부(134)에 의해 미리 지정된 행동 및 동작 모델의 "행동"에 대한 제어 파라미터 등에 의거해서 "일어서다", "자다", "걷다" 등의 다음 행동을 결정한다.
구체적으로, 행동 결정 기구부(132)는 다음의 행동을 결정하는 수법으로 도22에 도시한 바와 같이 상태를 노드(NODE0′내지 NODEn′)로 표현하고, 하나의 노드(NODE0′)로부터 다른 임의의 노드(NODE1′내지 NODEn′)로 천이할 지를 각노드(NODE0′내지 NODEn′)간을 접속하는 아크(ARC1′내지 ARCn′)에 대해 각각 설정된 천이 확률(P1′ 내지 PN′)에 의거해서 확률적으로 결정되는 확률 오토마톤이라 불리는 알고리즘을 사용하고 있다.
그리고 이 각 아크(ARC1′내지 ARCn′)에 대한 천이 확률(P1′ 내지 PN′)이 각 "성장 단계"의 각 행동 및 동작 모델마다에 각각 "행동"에 관한 제어 파라미터로써 미리 설정되어 메모리(122A)에 저장되어 있다.
그리고 행동 결정 기구부(132)는, 예를 들면 상태 인식 기구부(130)로부터 상태 인식 정보(D20)가 주어졌을 때나 현재의 상태(노드(NODE0′))로 옮기고 나서 일정 시간이 경과했을 때 등에 그 때 선택되어 있는 행동 및 동작 모델의 "행동"에 관한 제어 파라미터인 각 아크(ARC1′내지 ARCn′)에 대한 천이 확률(P1′ 내지 PN′)에 의거해서 확률 오토마톤으로 다음 상태(노드(NODE1′내지 NODEn′))를 결정하고, 결정된 상태로 천이하기 위한 행동을 행동 결정 정보(D22)로써 감정·본능 모델부(131), 행동 생성 기구부(133) 및 성장 단계 제어 기구부(134)에 통지한다.
행동 생성 기구부(133)는 상술의 각 "성장 단계"의 각 행동 및 동작 모델에 각각 대응시켜 각 행동 및 동작 모델의 "보행 상태", "모션" 및 "사운드"에 대한 각종 제어 파라미터 및 필요한 제어 프로그램을 컨트롤러(122)의 메모리(122A) 내에 포함하고 있다.
그리고, 행동 생성 기구부(133)는 행동 결정 기구부(132)로부터 행동 결정정보(D22)가 주어지면 메모리(122A)에 저장되어 있는 행동 및 동작 모델의 "보행 상태", "모션" 및 "사운드"에 대한 각종 제어 파라미터 및 필요한 제어 프로그램 가운데 성장 단계 제어 기구부(134)에 의해 미리 지정된 행동 및 동작 모델의 각종 제어 파라미터 및 필요한 제어 프로그램에 의거해서 행동 결정 기구부(132)에 의해 결정된 행동을 실행하기 위한 구체적인 행동 계획을 생성한다. 사실상, 이 행동 계획은 그 행동을 실행하는데 필요한 각 액추에이터(54AA1내지 56AM)를 어느 정도 회전시킬 것인가 같은 수치로 산출된다.
그리고 행동 생성 기구부(133)는 이 구동 계획에 의거해서 필요한 액추에이터(54AA1내지 56AM)에 대한 제어 신호(S20)를 생성하고, 이들 제어 신호(S20)에 의거해서 대응하는 액추에이터(54AA1내지 56AM)를 구동 제어함으로써 행동 결정 기구부(131)에 의해 결정된 행동을 애완 로봇(121)에게 실행시킨다.
한편, 이때 상태 인식 기구부(130)는 마이크로폰(76), CCD 카메라(77), 터치 센서(78), 밧데리 센서(72) 및 열 센서(73)로부터 각각 주어지는 음성 신호(S10), 화상 신호(S11), 압력 검출 신호(S12), 밧데리 잔량 검출 신호(S13) 및 열 검출 신호(S14)에 의거해서 어떠한 상태를 인식했을 때는 이를 상태 인식 정보(D23)로써 성장 단계 제어 기구부(134)에 통지한다.
아울러, 상태 인식 기구부(130)로부터 성장 단계 제어 기구부(134)로 통지되는 어떠한 상태는 상술과 같이 행동 결정 기구부(132)에 통지되는 특정한 상태 외에, 예를 들면 "쓰다듬다"나 "때리다"에 해당되지 않을 정도의 터치 센서(78)를 통한 입력 등이 있다.
또한, 성장 단계 제어 기구부(134)는 도23A에 도시한 바와 같이 상태 인식 기구부(130)로부터 주어지는 상태 인식 정보(D23)에 의거한 각종 상태 가운데, "성장 단계"를 올릴 때의 참고 요소라 할 수 있는 상술의 성장 요소의 리스트(이하, 이것을 제1 성장 요소 리스트라 함)(135A)와 이들 성장 요소의 누적도수를 각각 계산하기 위한 도23B와 같은 카운터 테이블(이하, 이것을 제1 성장 요소 카운터 테이블이라 함)(136A)을 메모리(122A) 내에 포함하고 있다.
그리고, 성장 단계 제어 기구부(134)는 상태 인식 기구부(130)로부터 상태 인식 정보(D23)가 주어지면 이 상태 인식 정보(D23)에 의거해서 얻어지는 상태가 성장 요소인지 여부를 제1 성장 요소 리스트(135A)에 의거해서 판단하고, 이 상태가 성장 요소인 경우에는 제1 성장 요소 카운터 테이블(136A) 내의 대응하는 카운터치(경험치)를 하나 증가시킨다.
아울러, 성장 단계 제어 기구부(134)는 도24A에 도시한 바와 같이 상술의 행동 결정 기구부(132)로부터 주어지는 행동 결정 정보(D22)에 의거해서 얻어지는 행동 가운데 "성장 단계"를 올릴 때의 참고 요소라 할 수 있는 상술의 성장 요소 리스트(이하, 이것을 제2 성장 요소 리스트라 함)(135B)와 이들 성장 요소 누적도수를 각각 계수하기 위한 도24B와 같은 카운터 테이블(이하, 이것을 제2 성장 요소 카운터 테이블이라 함)(136B)을 메모리(122A) 내에 포함하고 있다.
그리고, 성장 단계 제어 기구부(134)는 행동 결정 기구부(132)로부터 행동 결정 정보(D22)가 주어지면 이 상태 인식 정보(D20)에 의거해서 얻어진 행동이 성장 요소인지 여부를 제2 성장 요소 리스트(135B)에 의거해서 판단하고, 상기 행동이 성장 요소인 경우에는 제2 성장 요소 카운터 테이블(136B) 내의 대응하는 카운터치(경험치)를 하나 증가시킨다.
아울러, 성장 단계 제어 기구부(134)는 상술과 같이 제1 또는 제2 성장 요소 카운터 테이블(136A, 136B) 내의 카운터치가 증가되었을 때는 제1 및 제2 성장 요소 카운터 테이블(136A, 136B)과 별도로 준비한 "성장 단계"를 올릴지 여부를 판정하기 위한 카운터(이하, 이것을 총합 경험치 카운터라 함)의 카운터치를 1 증가시키고, 이 이후 상기 총합 경험치 카운터의 카운터치가 현재 "성장 단계"의 종료 조건으로 미리 설정된 카운터치에 달했는지 여부를 판단한다.
그리고 성장 단계 제어 기구부(134)는 총합 경험치 카운터의 카운터치가 현재의 "성장 단계"의 종료 조건으로 미리 설정된 카운터치에 달한 경우에는 행동 및 동작 모델을 다음 "성장 단계" 내의 어느 한 행동 및 동작 모델로 천이시킬지를 제1 및 제2 성장 요소 카운터 테이블(136A, 136B) 내의 각 카운터치에 의거해서 결정하고, 결정 결과를 행동 결정 기구부(132) 및 행동 생성 기구부(133)에 통지한다. 아울러 성장 단계 제어 기구부(134)는 초기에는 "유년기"의 행동 및 동작 모델을 선택하도록 하는 지시를 행동 결정 기구부(132) 및 행동 생성 기구부(133)에 통지한다.
그 결과, 행동 결정 기구부(132)는 이 성장 단계 제어 기구부(134)로부터의 통지에 의거해서 지정된 행동 및 동작 모델의 "행동"에 대한 제어 파라미터를 선택하고, 이 이후는 이 제어 파라미터를 사용해서 상술과 같이 현재의 애완 로봇(121)의 행동에 대한 다음 행동을 결정한다.
또한, 행동 생성 기구부(132)는 성장 단계 제어 기구부(134)로부터의 통지에 의거해서 지정된 행동 및 동작 모델의 "보행 상태", "모션" 및 "사운드"에 대한 각종 제어 파라미터 및 필요한 제어 프로그램을 선택하고, 이 이후는 이 각종 파라미터 및 필요한 제어 프로그램을 사용해서 각 액추에이터(54AA1내지 56AM)나 음성 출력을 구동 제어한다.
이와 같이 해서, 컨트롤러(122)는 필요에 따라 "성장 단계"를 올리면서 자율적으로 행동할 수 있는 애완 로봇(121)에 행동을 생성시킨다.
(3-3) 성장 단계 제어 처리 순서(RT2)
여기서 성장 단계 제어 기구부(134)는 도25에 도시한 성장 단계 제어 처리 순서(RT2)에 따라 애완 로봇(121)의 "성장 단계"를 제어한다.
즉, 성장 단계 제어 기구부(134)는 첫 번째 전원 투입 후에 이 성장 단계 제어 처리 순서(RT2)를 스텝(SP20)에서부터 개시하고, 이어지는 스텝(SP21)에서 상태 인식 기구부(130)로부터 상태 인식 정보(D23)가 주어졌는지 여부를 판단한다.
성장 단계 제어 기구부(134)는 이 스텝(SP21)에서 부정 결과가 얻어지면 스텝(SP22)으로 나아가 행동 결정 기구부(132)로부터 행동 결정 정보(D22)가 주어졌는지 여부를 판단한다. 또한, 성장 단계 제어 기구부(134)는 이 스텝(SP22)에서 부정 결과가 얻어지면 스텝(SP21)으로 되돌아가서 스텝(SP21) 또는 스텝(SP22)에서 긍정 결과가 얻어질 때까지 스텝 SP21-SP22-SP21의 루프를 반복한다.
그리고, 성장 단계 제어 기구부(134)는 이내 스텝(SP21)에서 긍정 결과를 얻으면 스텝(SP23)으로 나아가 상태 인식 기구부(130)로부터 주어진 상태 인식 정보(D23)에 의거해서 얻어진 상태가 성장 요소인지 여부를 판단한다.
그리고 성장 단계 제어 기구부(134)는 이 스텝(SP23)에서 부정 결과가 얻어지면 스텝(SP21)으로 되돌아가고, 이에 반해 긍정 결과가 얻어지면 스텝(SP24)으로 나아가 제1 성장 요소 리스트(135A)의 대응하는 카운터치와 총합 경험치 카운터의 카운터치를 각각 하나씩 증가시킨다.
이어서, 성장 단계 제어 기구부(134)는 스텝(SP25)으로 나아가 총합 경험치 카운터의 카운터치가 현재의 "성장 단계"의 종료 조건으로 미리 설정된 카운터치에 달했는지 여부를 판단한다.
그리고 성장 단계 제어 기구부(134)는 이 스텝(SP25)에서 부정 결과가 얻어지면 스텝(SP21)으로 되돌아가고, 이에 반해 긍정 결과가 얻어지면 스텝(SP26)으로 나아가 행동 및 동작 모델을 다음 "성장 단계" 내의 어느 행동 및 동작 모델로 천이할지를 결정하고, 결정 결과를 행동 결정 기구부(132) 및 행동 생성 기구부(133)에 통지한 후 스텝(SP21)으로 되돌아간다.
또한 성장 단계 제어 기구부(134)는 스텝(SP22)에서 긍정 결과를 얻은 경우에는 스텝(SP27)으로 나아가 행동 결정 기구부(132)로부터 주어진 행동 결정 정보(D22)에 의거해서 얻어진 행동이 성장 요소인지 여부를 판단한다.
그리고 성장 단계 제어 기구부(134)는 이 스텝(SP27)에서 부정 결과가 얻어지면 스텝(SP21)으로 되돌아가고, 이에 반해 긍정 결과가 얻어지면 스텝(SP24)으로나아가 제2 성장 요소 리스트(135B)의 대응하는 카운터치와 총합 경험치 카운터의 카운터치를 각각 하나씩 증가시킨 후 스텝(SP25)으로 나아가고 이후는 상술과 동일한 처리를 실행한다.
(3-4) 제3 실시 형태에 따른 동작 및 효과
이상의 구성에서, 이 로봇 시스템(120)에서는 사용자가 원하는 외장 유닛(52)을 애완 로봇(121)에 장착할 때에 먼저 외장 유닛(52)의 외장측 인터페이스부(60)를 몸체부 유닛(53)의 본체측 인터페이스부(58)와 전기적 및 구조적으로 접속시킨 후, 외장 유닛(52) 내의 정보 기억부(81)에서 읽어낸 외장 설정 정보(D1)에 의거해서 이 외장 유닛(52)이 규정 상품인지 아닌지를 판단하고, 긍정 결과가 얻어졌을 때에는 몸체부 유닛(53) 내의 정보 판독부(75)로부터 이 외장 설정 정보(D1)에 대응하는 퍼포먼스 정보(D2)를 읽어낸다.
그 결과, 애완 로봇(121)은 자율적인 행동을 수행하는 중에 사용자의 작용이나 외부로부터의 임의의 자극이 주어졌을 때, 애완 로봇(121)의 "성장 단계"의 행동 및 동작 모델이 천이하는 정도를 퍼포먼스 정보(D2)에 의거해서 결정되는 소정의 변화 상태로 개성적으로 변화시킬 수 있다.
예를 들면, 외장 유닛(52)이 애니메이션 캐릭터나 애완용 봉제인형과 같은 유치한 인상을 주는 외관을 갖고있는 경우에는 통상보다 "성장 단계"의 행동 및 동작 모델이 천이하는 정도가 늦어지는 한편, 외장 유닛(52)이 경찰견과 같은 지성적인 인상을 주는 외관을 갖고있는 경우에는 통상보다 "성장 단계"의 행동 및 동작 모델이 천이하는 정도가 빨라진다.
그 결과, 애완 로봇(121)에서는 유치한 외관을 갖는 외장 유닛(52)의 경우에는 마치 진짜 동물이 상당히 긴 동안 "유년기"나 "소년기"의 과정이 있는 것처럼 행동 및 동작시킬 수 있는 한편, 지성적인 외관을 갖는 외장 유닛(52)의 경우에는 마치 진짜 동물이 바로 "청년기"나 "성인기"의 과정에 있는 것처럼 행동 및 동작시킬 수 있다.
이상의 구성에 따르면, 외장 유닛(52) 내에 상기 외장 유닛(52)에 관한 외장 설정 정보(D1)가 저장된 정보 기억부(81)를 설치해 두고, 상기 외장 유닛(52)을 애완 로봇(121)에 장착했을 때에 몸체부 유닛(53) 내의 정보 판독부(75)에 저장되어 있는 외장 유닛(53)의 종류마다 설정된 퍼포먼스 정보(D2)중에서 이 외장 설정 정보(D1)에 따른 퍼포먼스 정보(D2)를 선택적으로 읽어내서 애완 로봇(121)의 성장 단계가 올라가는 정도를 상기 퍼포먼스 정보(D2)에 의거해서 결정된 소정의 변화 상태로 변화시키도록 함으로써, 애완 로봇(121)의 실제 동작 및 행동이 개성적이 되도록 반영시킬 수 있으며, 오락성을 각별하게 향상시킬 수 있는 로봇 시스템을 실현할 수 있다.
(3-5) 다른 실시 형태
또한, 상술의 실시 형태에서는 본 발명을 도20과 같은 성장 모델을 갖는 애완 로봇(121)으로 된 로봇 시스템(120)에 적용한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 이 이외의 성장 모델을 갖는 로봇 장치를 포함해서 구성되는 기타 여러 형태의 로봇 시스템에 폭넓게 적용할 수 있다.
또한, 상술의 실시 형테에서는 외장 유닛(53)의 외관에 따라 성장 속도를 변화시킨 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 예를 들면 외장 유닛(53)의 외관에 따라 성장 모델 전체를 변화시키도록 해도 된다.
(4) 제4 실시 형태
(4-1) 본 실시 형태에 따른 로봇 시스템의 구성
도27에서 140은 본 실시 형태에 따른 전체적인 로봇 시스템을 나타낸 것으로, 애완 로봇(141)에 대해 소정의 외장 부품(이하, 이것을 외장 유닛이라 함)(142)을 착탈 가능하게 장착함으로써 상기 애완 로봇(141)의 표면 전체를 외장 유닛(142)에 의해 피복할 수 있도록 구성되어 있다.
실제로, 이러한 애완 로봇(141)은 몸체부 유닛(143)의 전후 좌우에 각각 다리부 유닛(144A 내지 144D)이 연결되는 동시에 몸체부 유닛(143)의 전단부 및 후단부에 각각 머리부 유닛(145) 및 꼬리부 유닛(146)이 연결되어 구성된다.
이 몸체부 유닛(143)의 내부에는 냉각 팬(도시되지 않음)이 설치되는데, 이 냉각 팬을 통해 상면(143A) 및 하면(143B)에는 각각 배기구(143AX) 및 흡기구(143BX)(도2)가 형성되어 있다. 이에 의해 애완 로봇(141)에서는 냉각 팬의 구동에 따라 흡기구(143BX)로부터 흡입된 공기가 몸체부 유닛(143)의 내부를 통해 배기구(143AX)로부터 밖으로 배출되도록 해서 상기 몸체부 유닛(143)의 내부 온도를 저감시킬 수 있도록 구성되어 있다.
또한, 도28에 도시한 바와 같이 몸체부 유닛(143)의 하면(143B)에는 커넥터 반체(147A) 및 결합 기구부(147B)로 구성된 접속부(147)가 형성된 인터페이스부(이하, 이를 본체측 인터페이스부라 함)(148)가 설치되어 있다.
한편, 외장 유닛(142)은 도27에 도시한 바와 같이 마치 진짜 개의 표피와 같은 형태를 합성섬유로 형성한 외장 본체부(142A)로 구성되는데, 상기 외장 본체부(142A)의 이면의 소정 위치에 몸체부 유닛(143)에 설치된 본체측 인터페이스부(148)의 커넥터 반체(147A) 및 결합 기구부(147B)에 대응시켜 커넥터 반체(149A) 및 결합 기구부(149B)로 구성된 접속부(149)가 형성된 인터페이스부(이하, 이를 외장측 인터페이스부라 함)(150)가 설치되어 있다.
실제로 애완 로봇(141)에 외장 유닛(142)을 장착할 경우, 외장 유닛(142)의 외장 본체부(142A)가 애완 로봇(141)의 표면 전체를 덮듯이 씌워지면 본체측 인터페이스부(148)의 접속부(147)에 외장측 인터페이스부(150)의 접속부(149)를 연결하도록 해서 커넥터 반체(147A, 149A) 서로를 전기적으로 접속시키는 동시에 결합 기구부(147B, 149B) 서로를 구조적으로 접속시키도록 구성되어 있다.
(4-2) 애완 로봇(141) 및 외장 유닛(142)의 구체적인 구성
이 로봇 시스템(1)에 있어서, 도29에 도시한 바와 같이 애완 로봇(141)의 몸체부 유닛(143)에는 이 애완 로봇(141) 전체의 동작을 제어하는 컨트롤러(160)와 결합센서(161) 및 접속부(147)로 이루어지는 본체측 인터페이스부(148)와 외부로부터 삽입되는 기록 매체(도시되지 않음)에 저장되어 있는 제어 프로그램을 읽어내는 정보 판독부(162)와, 가속도 센서(163) 및 각속도 센서(164)와, 이 애완 로봇(161)의 동력원이 되는 밧데리(도시되지 않음)가 수납되어 있다.
그리고, 몸체부 유닛(143)의 가속도 센서(163)는 수십 미리 초 단위로 3축(X축, Y축, Z축)방향의 가속도를 각각 검출하고, 그 결과를 가속도 검출 신호(S30)로써 컨트롤러(160)로 송출한다. 또한 각속도 센서(164)는 수십 미리 초 단위로 3각(R각, P각, Y각) 방향의 회전 각속도를 검출하고 그 결과를 각속도 검출신호(S31)로써 컨트롤러(160)로 송출한다.
또한, 머리부 유닛(145)에는 "귀"에 상당하는 마이크로폰(165)과 "눈"에 상당하는 CDD(Charge Coupled Device) 카메라(166)와 거리 센서(167)와 터치 센서(168)와 "입"에 상당하는 스피커(169) 등이 각각 소정 위치에 배치되어 있다.
그리고 머리부 유닛(145)의 마이크로폰(165)은 사용자로부터 도시되지 않은 사운드 커멘더(조작 내용에 따라 다른 음계의 소리를 발생하는 커멘더)에 의해 음계로써 주어지는 "걸어", "엎드려" 또는 "볼을 쫓아가" 등의 지령음을 집음하여 얻어진 음성 신호(S32)를 컨트롤러(160)로 송출한다.
또한, CCD 카메라(166)는 전방향의 상황을 촬영해서 얻어진 화상 신호(S33)를 컨트롤러(160)로 송출하는 동시에 적외선 거리 센서 등으로 구성된 거리 센서(167)는 전방의 대상물까지의 거리를 측정하고 그 결과를 거리 측정 신호(S34)로써 컨트롤러(160)로 송출한다.
아울러 터치 센서(168)는 도27에서 명확하듯이, 머리부 유닛(145)의 상부에 설치되어 있으며 사용자로부터 "쓰다듬다"나 "때리다"와 같은 물리적인 작용에 의해 받은 압력을 검출하고 그 결과를 압력 검출 신호(S35)로써 컨트롤러(160)로 송출한다.
아울러, 각 다리부 유닛(144A 내지 144D)의 관절 부분이나 각 다리부 유닛(144A 내지 144D) 및 몸체부 유닛(143)의 각 연결 부분, 머리부 유닛(145) 및몸체부 유닛(143)의 연결 부분, 아울러 꼬리부 유닛(146) 및 몸체부 유닛(143)의 연결 부분 등에는 각각 액추에이터(144AA1내지 144AAK, 144BA1내지 144BAK, 144CA1내지 144CAK, 144DA1내지 144DAK, 145A1내지 145AL, 146A1내지 146AM) 및 전위차계(170AA1내지 170AAK, 170BA1내지 170BAK, 170CA1내지 170CAK, 170DA1내지 170DAK, 171A1내지 171AL, 172A1내지 172AM)가 설치되어 있다.
이들 각 전위차계(170AA1내지 170AAK, 170BA1내지 170BAK, 170CA1내지 170CAK, 170DA1내지 170DAK, 171A1내지 171AL, 172A1내지 172AM)는 각각 대응하는 액츄에이터(144AA1내지 144AAK, 144BA1내지 144BAK, 144CA1내지 144CAK, 144DA1내지 144DAK, 145A1내지 145AL, 146A1내지 146AM)의 출력축의 회전 각도를 검출하고 그 결과를 각도 검출 신호로써 컨트롤러(160)로 송출한다.
아울러, 몸체부 유닛(143)의 몸체측 인터페이스부(148)는 결합 센서(161) 및 상술한 접속부(147)로 구성되고, 상기 접속부(147)는 커넥터 반체(147A) 및 결합 기구부(147B)로 구성되어 있다. 이 결합 센서(161)는 외장 유닛(142)의 외장측 인터페이스부(150)와의 결합 상태를 검출하고, 그 검출 결과를 외장 검출 신호(S36)로써 컨트롤러(160)로 송출한다.
컨트롤러(160)는 마이크로폰(165), CCD 카메라(166), 거리 센서(167), 터치 센서(168), 가속도 센서(163), 각속도 센서(164) 및 결합 센서(161)로부터 주어지는 음성 신호(S32), 화상 신호(S33), 거리 측정 신호(S34), 압력 검출 신호(S35),가속도 검출 신호(S30), 각속도 검출 신호(S31) 및 외장 검출 신호(S36) 등에 의거해서 주위의 상황이나 사용자로부터의 지령, 작용 등의 유무를 판단한다.
그리고, 컨트롤러(160)는 이 판단 결과와 미리 입력된 제어 프로그램에 의거해서 이어질 행동을 결정하고, 그 결과에 의거해서 필요한 액추에이터(144AA1내지 144AAK, 144BA1내지 144BAK, 144CA1내지 144CAK, 144DA1내지 144DAK, 145A1내지 145AL, 146A1내지 146AM)를 구동시킴으로써 머리부 유닛(145)을 상하 좌우로 흔들게 하거나, 꼬리부 유닛(146)을 움직이게 하거나, 각 다리부 유닛(144A 내지 144D)을 구동시켜 보행시키는 등의 행동을 수행하게 한다.
또한 이때 컨트롤러(160)는 필요에 따라 소정의 음성 신호(S37)를 스피커(169)에 부여함으로써 이 음성 신호(S37)에 의거한 음성을 외부로 출력시키고 있으며, 이 애완 로봇(141)의 "눈"의 위치에 설치된 도시되지 않은 LED(Light Emitting Diode)를 점등, 소등 또는 점멸시킨다.
이와 같이 해서, 이 애완 로봇(141)에 있어서는 주위의 상황 및 제어 프로그램 등에 의거해서 자율적으로 행동할 수 있도록 구성되어 있다.
한편 외장 유닛(142)에 있어서, 외장 본체부(142A)에 내장된 외장측 인터페이스부(150)는 정보 기억부(173) 및 상술한 접속부(149)로 구성되고, 상기 접속부(149)는 커넥터 반체(149A) 및 결합 기구부(149B)로 구성되어 있다. 이러한 외장측 인터페이스부(150) 내의 결합 기구부(149B)는 본체측 인터페이스부(148) 내의 결합 기구부(147B)와 분리 가능하게 결합될 수 있게 구성되어 있다.
이 외장측 인터페이스부(150) 내의 정보 기억부(173)는, 예를 들면 ROM(Random Access Memory) 등의 불휘발성 메모리로 구성되고, 외장 유닛(142)의 종류에 따라 할당된 외장 번호마다 제조자 ID를 나타내는 정보, 제조자가 정한 프로덕트 ID 및 로트 번호 등의 제조 허가를 나타내는 정보, 아울러 외장 유닛의 인증을 수행하기 위한 암호화 정보 등의 설정 정보(이하, 외장 설정 정보라 함)(D1)가 미리 저장되어 있다.
또한 몸체부 유닛(143) 내에 설치된 정보 판독부(162)의 삽입 대상이 되는 기록 매체에는 상술의 외장 번호마다 외장 설정 정보(D30)의 각종 내용에 따라 각각 설정된 애완 로봇(141)의 퍼포먼스를 결정하기 위한 프로그램 정보(이하, 이것을 퍼포먼스 정보라 함)(D31)와 상기 각 외장의 질량 분포를 나타내는 정보(이하, 이것을 질량 분포 정보라 함)(D32)가 미리 저장되어 있다.
또한 정보 판독부(162)에는 외장이 장착되지 않은 상태이며, 또한 4다리를 모두 펴서 서있는 기준 자세에 있을 때의 애완 로봇(141)의 무게 중심 위치에 관한 정보(이하, 이것을 초기 무게 중심 위치 정보라 함)(D33)가 미리 저장되어 있다.
여기서, 외장측 인터페이스부(150)와 본체측 인터페이스부(148)의 결합 시에는 상기 외장측 인터페이스부(150)의 접속부(149)에 설치된 커넥터 반체(149A) 및 결합 기구부(149B)가 본체측 인터페이스부(148)의 접속부(147)에 설치된 대응하는 커넥터 반체(147A) 및 결합 기구부(147B)와 전기적 및 구조적으로 접속된다.
구체적으로, 본체측 인터페이스부(148) 및 외장측 인터페이스부(150)는 도30에 도시한 바와 같이 구성되어 있다.
본체측 인터페이스부(148)의 접속부(147)의 커넥터 반체(147A)에는 어스 라인(L1), 전원 라인(L2), 측정 라인(L3) 및 신호 라인(L4)의 각 접속 단자(A1 내지 A4)가 노출되어 있으며, 측정 라인(L3)상의 접속 단자(A3) 및 결합 센서(161)간에는 일단이 어스와 접속된 부하저항(R1)의 타단이 접속되어 있다.
외장측 인터페이스부(150)의 접속부(149)에는 어스 라인(L5), 전원 라인(L6), 측정 라인(L7) 및 신호 라인(L8)의 각 접속 단자(A5 내지 A8)가 노출되어 있으며, 전원 라인(L6)으로부터 인출된 측정 라인(L7)상에는 부하저항(R2)이 설치되는데, 이 부하저항(R2)의 일단 및 타단이 각각 정보 기억부(171) 및 접속 단자(A7)에 접속되어 있다.
실제로, 외장측 인터페이스부(150)의 접속부(149)가 설치된 커넥터 반체(149A)와 본체측 인터페이스(148)의 접속부(147)에 설치된 커넥터 반체(147a)가 결합하면 커넥터 반체(147A, 149A)간에 어스 라인(L1), 전원 라인(L2), 측정 라인(L3) 및 신호 라인(L4)의 각 접속 단자(A1 내지 A4)가 대응하는 각 라인(L5 내지 L8)의 접속 단자(A5 내지 A8)와 각각 당접하여 도통한다.
이때 본체측 인터페이스부(148) 내의 결합 센서(161)는 외장측 인터페이스부(150) 및 본체측 인터페이스부(148)의 커넥터 반체(149A, 147A)를 통해 전원 라인(L6)과 접속된 측정 라인(L7)상의 부하저항(R2)의 전압치를 검출함으로써 본체측 인터페이스부(148)와 외장측 인터페이스부(150)의 결합 상태(즉, 결합시에는 "H"레벨, 분리시에는 "L"레벨)를 판단한다.
그 결과, 컨트롤러(160)는 결합 센서(161)의 검출 결과가 긍정적인 경우에만외장측 인터페이스부(150) 내의 정보 기억부(173)에 저장되어 있는 외장 설정 정보(D30)를 읽어낸 후, 그 외장 설정 정보(D30)에 의거해서 몸체부 유닛(143) 내의 정보 판독부(162)에 장진되어 있는 기록 매체로부터 퍼포먼스 정보(D31)를 읽어내고 그 퍼포먼스 정보(D31)에 의거해서 애완 로봇(141)의 행동을 결정하고 그 결정에 대응해서 필요한 액추에이터(144AA1내지 146AM)를 구동시키며 필요에 따라 스피커(169)로부터 음성을 출력한다.
이와 같이 해서, 이 애완 로봇(141)은 외장 유닛(142)이 장착되었을 때에 상기 외장 유닛(142)의 외장측 인터페이스부(150) 내의 정보 기억부(173)에 저장되어 있는 외장 설정 정보(D30)와, 상기 외장 설정 정보(D30)에 의거해서 몸체부 유닛(143) 내의 정보 판독부(162)에 저장되어 있는 기록 매체로부터 읽어낸 퍼포먼스 정보(D31)에 따라 자율적인 행동을 개성적으로 변화시킬 수 있도록 구성되어 있다.
이러한 구성에 더하여, 이 애완 로봇(141)의 컨트롤러(160)는 애완 로봇(141)을 작동시킬 때에 가속도 센서(163), 각속도 센서(164), CCD 카메라(166) 및 거리 센서(167)로부터 각각 공급되는 가속도 검출 신호(S30), 각속도 검출 신호(S31), 화상 신호(S33) 및 거리 측정 신호(S34) 등에 의거해서 외장 유닛(142)의 장착 전후의 애완 로봇(141)의 무게 중심 위치의 오차를 보정(즉, 무게 중심의 영향을 받는 제어 파라미터의 기준치를 변경)한다.
이하, 이와 같은 컨트롤러(160)의 처리에 대해 설명한다. 먼저 이 애완 로봇(141)의 보행 제어를 위한 각종 파라미터에 대해 설명한다. 이 애완 로봇(141)의 경우, 보행 제어는 몸체부 유닛(143) 내의 저장 판독부(22)에 저장된 도31에 도시한 22개의 파라미터에 의해 기술될 제어 프로그램에 의거해서 수행된다.
그리고, 이들 파라미터는 보행 기준 자세를 결정하는 파라미터, 다리부 유닛(144A 내지 144D)의 운동을 결정하는 파라미터, 몸체 전체의 운동을 결정하는 파라미터로 구성된다. 이하, 이들 파라미터에 대해 설명한다.
먼저 도32에 도시한 바와 같이, 4다리를 모두 펴고 서있는 기준 자세에 있는 애완 로봇(141)의 몸체부 유닛(143)에 중심 좌표를 설정한다. 이 중심 좌표를 절대 좌표계에 대해 설정했을 때, 보행의 기준 자세에서는 다리부 유닛(144A 내지 144D)을 구부려서 몸을 수그리는 자세를 취하게 되어, 절대 좌표계에서 상술의 중심 좌표는 상하 방향과 전후 방향으로 이동하게 된다. 이 값을 "body center x" 및 "body center z"라는 파라미터로 제어한다.
또한 이 보행의 기준 자세는 병행 이동뿐만이 아니고 몸체부 유닛(143)을 전경 또는 후경할 경우도 있어, 이를 "body pitch"라는 파라미터로 제어한다. 아울러 이 기준 자세에서 다리부 유닛(144A 내지 144D)의 접지 위치도 보행에 영향을 미친다. 파라미터를 줄일 목적으로 전후 다리부 유닛(144A 내지 144D)에 대해 개각 방향의 오프 세트는 동일한 값으로 하고, 이를 "all legs y"라는 파라미터로 제어한다.
아울러 전후 방향으로의 오프 세트는 전측의 다리부 유닛(144A, 144B)을 "front legs z", 후측의 다리부 유닛(144C, 144D)을 "rear legs z"라는 파라미터로제어한다. 이상이 보행의 기준 자세에 대한 파라미터이다.
한편, 다리부 유닛(144A 내지 144D)의 운동을 제어하는 파라미터로는 아래와 같은 것이 있다. 하나의 다리부 유닛(144A 내지 144D)의 운동을 단순화한 것을 도33에 나타낸다.
먼저 보행의 스텝 길이를 결정하는 파라미터를 "step length"라 한다. 또한 유각(遊脚)시에 들어올려지는 다리부 유닛(144A 내지 144D)의 높이 및 그 시간을 각각 "swing hight" 및 "swing time"이라는 파라미터로 제어한다.
"swing multi"는 1다리의 1주기의 접지 시간과 유각 시간의 비율을 부여하는 파라미터이고, 이에 의해 각 다리부 유닛(144A 내지 144D)의 접지 시간과 유각 시간을 제어한다. 아울러 이 파라미터는 예를 들면, 서행 보행 스타일(정보행)에서 속보 보행 스타일(동보행) 또는 페이스 보행 스타일(동보행)으로의 이행 처리를 서로 다른 알고리즘으로 행할 때의 각 다리부 유닛(144A 내지 144D)을 들어올리는 방법의 파라미터로 사용할 수도 있다.
보행시에 애완 로봇(141)의 몸체부 유닛(143)을 상대적으로 전후 좌우의 병진 운동 또는 롤, 피치(pitch), 요우(yaw)의 회전 운동을 가하는 것으로 보행의 안정성이나 스피드를 개선할 수 있다. 이들은 각각 "ample body x", "ample body y", "ample body z", "ample roll", "ample pitch" 및 "ample yaw"와 같은 파라미터로 제어한다.
"min. gain", "shift" 및 "length"는 애완 로봇(141)의 보행 동작에 사용되는 액추에이터(서보 모터)(144AA1내지 146AM)의 PID제어의 게인에 관한 제어를 결정하기 위한 파라미터이다. 이들 파라미터에 의해 접지시에 충격을 흡수할 수 있는 부드러운 PID 게인을 부여하는 것으로 매끄러운 보행을 실현할 수 있는 가능성을 지니게 했다. 실제로, PID 게인중 P게인만을 다음 수학식
에 의해 제어한다.
여기서 "leg phase"는 〔shift + length〕를 치역(値域)으로 갖는 것이다. 즉, P게인은 "g min"에서 "g max"의 값을 싸인 커브를 그리며 변화되고, 그 위상은 "shift"라는 파라미터로 부여하는 위치에서 최대가 되는 것이다. 단, "g max"는 미리 주어져 있으며, 위상에 관해서는 0〔°〕에서 전방향으로 들어올려 지고 180〔°〕에서 후방향으로 지면을 차고, 360〔°〕에서 초기 위치로 되돌아가는 것이다.
[L-R] 및 [F-H]는 도34 및 도35에 도시한 바와 같이 우전측의 다리부 유닛(5A)을 기준으로 각각 다리부 유닛(144A 내지 144D)이 유각하기 시작하면서 좌전측의 다리부 유닛(144B) 또는 우후측의 다리부 유닛(144D)이 유각하기 시작하기까지의 보행 동작 1주기에 대한 비율을 부여하는 파라미터인데, 예를 들면 정보행(서행 보행 스타일)의 경우는 도35a, 준동 보행의 경우는 도35b, 동보행(속보 보행스타일)의 경우는 도35c와 같이 된다.
이와 같이 해서, 외장 유닛(142)이 장착되지 않은 상태이며 또한 4다리를 모두 펴서 서있는 기준 자세에 있는 애완 로봇(141)에 대해, 도36a에 도시한 바와 같이 좌우 전측 및 좌우 후측의 다리부 유닛(144A 내지 144D)의 접지 위치에 가해지는 하중 및 상술한 중심 좌표를 중심으로 하는 방향 벡터를 각각 mFL, mFR, mRL, mRR및 rFL, rFR, rRL, rRR이라고 했을 때, 애완 로봇(141)의 무게 중심 위치를 나타내는 벡터(R0)는 다음 수학식
으로 나타내어지고, 도36b에 도시한 바와 같이 외장 유닛(142)의 질량을 M이라고 하면, 이 외장 유닛(142)을 애완 로봇(141)에 장착했을 때에 좌우 전측 및 좌우 후측의 다리부 유닛(141A 내지 141D)의 접지 위치에 가해지는 하중(mFL′ mFR′ mRL′ mRR′)은 다음 수학식
으로 나타내는 관계가 된다. 이에 따라, 외장 유닛(142)을 장착한 후의 애완로봇(141)의 무게 중심 위치를 나타내는 벡터(R1)는 다음 수학식
으로 나타내어진다. 따라서 외장 유닛(142)를 장착하기 전후에 애완 로봇(141)의 무게 중심 위치의 오차 벡터(E)는 다음 수학식
으로 나타내어진다. 이러한 오차 벡터(E)의 값이 0이 되도록 상술한 보행에 관한 각 파라미터를 변경함으로써 외장 유닛(142)을 장착한 후의 애완 로봇(141)이 상기 외장 유닛(142)을 장착하기 전과 마찬가지로 균형있게 잘 보행할 수 있다.
예를 들어 오차 벡터(E)=(0, 0, 5)의 경우, 즉 외장 유닛(142)을 장착한 것에 의해 애완 로봇(141)의 무게 중심 위치가 Z축 방향으로 5밀리 이동한 경우에는 이를 받아서 보행에 관한 각 파라미터("body center z", "front legs z", "rear legs z")를 변경함으로써 보행을 안정되게 제어할 수 있다.
(4-2) 외장 장착 시의 캐리브레이션 처리 순서(RT3)
실제로 외장 유닛(142)이 장착되면 이 애완 로봇(141) 내의 컨트롤러(160)는 도11에 도시하는 캐리브레이션 처리 순서(RT3)를 스텝(SP30)부터 개시하고, 이어지는 스텝(SP31)에서 몸체부 유닛(143)의 본체측 인터페이스부(148) 내의 결합 센서(161)의 검출 상태를 감시하면서 스텝(SP32)으로 나아가 외장 유닛(142) 내의 외장측 인터페이스부(150)가 전기적 구조적으로 접속되었는지 여부를 상기 결합 센서(161)의 검출 결과에 의거해서 판단한다.
이 스텝(SP32)에서 컨트롤러(160)는 긍정 결과가 얻어지기를 기다린 후 스텝(SP33)으로 나아가 외장 유닛(152)의 외장측 인터페이스부(150) 내의 정보 기억부(173)로부터 외장 설치 정보(D30)를 읽어낸 후 이어지는 스텝(SP34)으로 나아가 상기 외장 설정 정보(D30)에 포함되는 외장 번호를 추출한다.
이어서 컨트롤러(160)는 스텝(SP35)에서 몸체부 유닛(143) 내의 정보 판독부(162)로부터 상기 외장 번호에 대응하는 질량 분포 정보(D32)와 애완 로봇(141)에 설정된 초기 무게 중심 위치 정보(D33)를 읽어낸 후 스텝(SP36)으로 나아간다.
이 스텝(SP36)에서 컨트롤러(160)는 질량 분포 정보(D32) 및 초기 무게 중심 위치 정보(D33)에 의거해서 외장 유닛(142)이 장착된 후이며 또한 4다리를 모두 편 기준 자세인 애완 로봇(141)의 무게 중심 위치에 관한 정보(이하, 이것을 단순히 무게 중심 위치 정보라 함)를 계산해서 구하고 스텝(SP37)으로 나아간다.
이 스텝(SP37)에서 컨트롤러(160)는 외장 유닛(142)의 장착 후에 계산에 의해 구해진 무게 중심 위치 정보가 초기 무게 중심 위치 정보(D33)와 일치하는지 여부를 판단하고, 부정 결과가 얻어졌을 때에는 스텝(SP38)으로 나아가 애완 로봇(141)에 퍼포먼스 정보(D31)에 의거한 기준 자세(4다리를 모두 편 자세나 충전시의 앉은 자세 등) 및 기준 동작(보행 동작, 앉는 동작 등)을 각각 소정 시간 실행시키면서 가속도 센서(163), 각속도 센서(164), CCD 카메라(166) 및 거리 센서(167)로부터 각각 공급되는 가속도 검출 신호(S30), 각속도 검출 신호(S31), 화상 신호(S33) 및 거리 측정 신호(S34)를 집계한다.
이에 반해 스텝(SP37)에서 긍정 결과가 얻어졌을 때는 외장 유닛(142)이 장착된 전후라도 4다리를 모두 편 기준 자세에 있는 애완 로봇(141)의 무게 중심 위치는 변화되지 않은 것을 나타내고 있으며, 이때 컨트롤러(160)는 그대로 스텝(SP39)으로 나아가 상기 캐리브레이션 처리 순서(RT3)를 종료한다.
다음으로 컨트롤러(160)는 스텝(SP40)으로 나아가 각 센서(163, 164, 166, 167)로부터 얻어지는 검출 신호(S30, S31, S33, S34)의 집계 결과에 의거해서 퍼포먼스 정보(D31)에 의거한 기준 자세 및 기준 동작을 할 때의 밸런스 상태가 각각 소정의 기준치를 채우는지 여부를 판단한다. 이 경우, 각 기준치는 상술한 초기 무게 중심 위치 정보(D33)에 의거해서 기준 자세 및 기준 동작마다 각각 컨트롤러(160)의 계산에 의해 구해지는 것이다.
이 스텝(SP40)에서 부정 결과가 얻어지는 것은 퍼포먼스 정보(D31)에 의거한 기준 자세 및 기준 동작 가운데 기준치를 채우지 못하는 자세 및 동작이 존재하는 것을 의미하며, 이때 컨트롤러(160)는 스텝(SP41)으로 나아가 상기 기준치를 채우지 못하는 자세 및 동작의 오차를 계산한 후 스텝(SP42)으로 나아간다.
이 스텝(SP42)에서 컨트롤러(160)는 상기 기준치를 채우지 못하는 자세 및 동작의 오차를 보정한 후, 재차 스텝(SP38)으로 되돌아가 상술과 같은 처리를 반복한다(이하, 이와 같은 보정을 캐리브레이션에 의한 보정이라 함).
한편, 스텝(SP40)에서 긍정 결과가 얻어지는 것은 퍼포먼스 정보(D31)에 의거한 기준 자세 및 기준 동작의 모두가 기준치를 채우는 것을 나타내며, 이때 컨트롤러(160)는 그대로 스텝(SP39)으로 나아가 상기 캐리브레이션 처리 순서(RT3)를 종료한다.
이후 컨트롤러(160)는 외장 유닛(142)이 장착된 애완 로봇(141)을 상기 장착 전과 동일한 상태로 밸런스를 유지하면서 퍼포먼스 정보(D31)에 의거한 자율적인 행동 및 동작을 실행시킬 수 있다.
(4-3) 제4 실시 형태에서의 동작 및 효과
이상의 구성에 있어서, 이 로봇 시스템(140)은 사용자가 원하는 외장 유닛(142)을 애완 로봇(141)에 장착했을 때, 애완 로봇(141)에서는 외장 유닛(142)으로부터 얻어지는 외장 설정 정보(D30)에 의거해서 몸체부 유닛(143) 내의 정보 판독부(162)에 저장되어 있는 질량 분포 정보(D32) 및 외장 유닛(142)이 장착된 후의 기준 자세에 있는 애완 로봇(141)의 무게 중심 위치 정보를 계산한다.
그리고, 이 애완 로봇(141)의 무게 중심 위치가 외장 유닛(142)의 장착 전후에 차이가 있을 때, 상기 애완 로봇(141)에게 퍼포먼스 정보(D31)에 의거한 기준 자세 및 기준 동작을 수행시키면서, 이 가운데 외장 유닛(142)을 장착하기 전의 애완 로봇(141)의 자세 및 동작과 비교해서 오차가 생기는 경우에는 상기 오차를 보정하도록 함으로써, 외장 유닛(142)를 장착한 후에 애완 로봇(141)의 무게 중심 위치가 변화된 경우에도 외장 유닛(142) 장착 전과 마찬가지로 외장 유닛(142)이 장착된 후의 애완 로봇(141)을 균형있게 자율적으로 행동 및 동작시킬 수 있다. 그 결과, 로봇 시스템(140)에서는 다종 다양한 질량 분포를 갖는 외장 유닛(142)을 애완 로봇(141)에 대해 용이하게 적용할 수 있다.
이상의 구성에 따르면, 외장 유닛(142)을 장착한 후에 애완 로봇(141)에게 기준 자세 및 기준 동작을 수행시키면서 외장 유닛(142)을 장착하기 전의 애완 로봇(141)의 무게 중심 위치와의 오차를 계산하고 그 오차를 보정하도록(즉, 캐리브레이션에 의한 보정을 한다) 함으로써, 여러 질량 분포를 갖는 외장 유닛(142)을 장착한 경우에도 애완 로봇(141)의 행동 및 동작의 균형이 깨지는 것을 미연에 회피할 수 있고, 이로써 다종 다양한 외장 유닛(142)을 애완 로봇(141)에 대해 용이하게 적용할 수 있는 만큼 오락성을 각별히 향상시킬 수 있는 로봇 시스템을 실현할 수 있다.
(5) 제5 실시 형태
(5-1) 제5 실시 형태에 의한 로봇 시스템(180)의 구성
도27과의 대응부분에 동일한 부호를 붙이고 도시한 도38은 제5 실시 형태에 의한 로봇 시스템(180)을 나타낸 것으로, 애완 로봇(181)의 몸체부 유닛(143) 내에 설치된 정보 판독부(162)(도28)의 삽입 대상인 기록 매체에 외장 유닛(142)에 따른 외장 번호마다 상기 외장 유닛(142)의 질량 분포 정보(D32)가 저장되지 않고, 애완 로봇(141)이 이러한 질량 분포 정보(D32)를 이용하지 않고 상술과 같은 캐리브레이션 처리를 수행하도록 구성된 점을 제외하고 상술한 제4 실시 형태와 동일하게 구성되어 있다.
(5-2) 외장 장치 시의 캐리브레이션 처리 순서(RT4)
실제로 이 애완 로봇(181) 내의 컨트롤러(182)(도29)는 외장 유닛(142)이 장착되면 도39에 도시한 캐리브레이션 처리 순서(RT4)를 스텝(SP50)에서부터 개시하고, 이어지는 스텝(SP51)에서 애완 로봇(181)에게 퍼포먼스 정보(D31)에 의거한 기준 자세 및 기준 동작을 각각 소정 시간 실행시키면서 가속도 센서(163), 각속도 센서(164), CCD 카메라(166) 및 거리 센서(167)로부터 각각 공급되는 가속도 검출 신호(S30), 각속도 검출 신호(S31), 화상 신호(S33) 및 거리 측정 신호(S34)를 집계한다.
이어서, 컨트롤러(182)는 스텝(SP52)으로 나아가 몸체부 유닛(143) 내의 정보 판독부(162)로부터 애완 로봇(181)에 설정된 초기 무게 중심 위치 정보(D33)를 읽어낸 후 스텝(SP53)으로 나아간다.
이 스텝(SP53)에서 컨트롤러(182)는 각 센서(163, 164, 166, 167)로부터 얻어지는 검출 신호(S30, S31, S33, S34)의 집계 결과에 의거해서 퍼포먼스 정보(D31)에 의거한 기준 자세 및 기준 동작을 할 때의 밸런스 상태가 각각 소정의 기준치를 채우는지 여부를 판단한다. 이 경우, 각 기준치는 상술한 초기 무게 중심 위치 정보(D33)에 의거해서 기준 자세 및 기준 동작마다 각각 컨트롤러(182)의 계산에 의해 구해지는 것이다.
이 스텝(SP53)에서 부정 결과가 얻어지는 것은 퍼포먼스 정보(D31)에 의거한 기준 자세 및 기준 동작 가운데 기준치를 채우지 못하는 자세 및 동작이 존재하는 것을 의미하며, 이때 컨트롤러(182)는 스텝(SP54)으로 나아가 상기 기준치를 채우지 못하는 자세 및 동작의 오차를 계산한 후 스텝(SP55)으로 나아간다.
이 스텝(SP55)에서 컨트롤러(182)는 상기 기준치를 채우지 못하는 자세 또는 동작의 오차를 보정한 후, 재차 스텝(SP51)으로 되돌아가 상술과 같은 캐리브레이션에 의한 보정 처리를 반복한다.
한편, 스텝(SP53)에서 긍정 결과가 얻어지는 것은 퍼포먼스 정보(D31)에 의거한 기준 자세 및 기준 동작의 모두에 대해 기준치를 채운다는 것을 나타내며, 이때 컨트롤러(182)는 그대로 스텝(SP56)으로 나아가 상기 캐리브레이션 처리 순서(RT4)를 종료한다.
이후 컨트롤러(182)는 외장 유닛(142)이 장착된 애완 로봇(181)을 장착 전과 동일한 상태로 밸런스를 유지하면서 퍼포먼스 정보(D31)에 의거한 자율적인 행동 및 동작을 실행시킬 수 있다.
(5-3) 제5 실시 형태의 동작 및 작용
이상의 구성에 있어서 이 로봇 시스템(180)에서는 사용자가 원하는 외장 유닛(142)을 애완 로봇(181)에 장착했을 때, 상기 애완 로봇(181)에게 퍼포먼스 정보(D31)에 의거한 기준 자세 및 기준 동작을 수행시키면서, 그 가운데 외장 유닛(142)을 장착하기 전의 애완 로봇(181)의 자세 또는 동작과 비교해서 오차가 생기는 경우에는 이 오차를 보정하도록 함으로써, 외장 유닛(142)을 장착한 후에 애완 로봇(181)의 무게 중심 위치가 변화된 경우에도 외장 유닛(142) 장착 전과 마찬가지로 외장 유닛(142)이 장착된 후의 애완 로봇(181)을 균형있게 자율적으로 행동 및 동작시킬 수 있다.
그 결과, 로봇 시스템(180)에서는 다종 다양한 질량 분포를 갖는 외장 유닛(142)을 애완 로봇(181)에 대해 용이하게 적용할 수 있다.
또한, 애완 로봇(181)에 있어서 몸체부 유닛(143) 내의 정보 판독부(162)에 외장 유닛 각각의 질량 분포에 관한 정보를 미리 저장해 둘 필요가 없어도 되는 만큼 본 외장 유닛이 신규로 제조된 것이어도 용이하게 애완 로봇(181)에 적용할 수 있다.
이상의 구성에 따르면, 외장 유닛(142)을 장착한 후에 애완 로봇(181)에게 기준 자세 및 기준 동작을 수행시키면서 외장 유닛(142)을 장착하기 전의 애완 로봇(181)의 무게 중심 위치와의 오차를 계산하고 그 오차를 보정하도록(즉, 캐리브레이션에 의한 보정을 한다) 함으로써, 여러 질량 분포를 갖는 외장 유닛(142)을 장착한 경우에도 애완 로봇(181)의 행동 및 동작의 균형이 깨지는 것을 미연에 회피할 수 있고, 이로써 다종 다양한 외장 유닛(142)을 애완 로봇(181)에 용이하게 적용할 수 있는 만큼 오락성을 각별히 향상시킬 수 있는 로봇 시스템을 실현할 수 있다.
(5-4) 다른 실시 형태
상술한 제4 및 제5 실시 형태에서는 본 발명을 도27과 같이 구성된 4족 보행형 애완 로봇(141, 181)에 적용한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 요컨대 소정 동작을 표현하는 가동부를 갖는 로봇 장치라면 기타 여러 구성의 로봇 장치에 폭넓게 적용할 수 있다.
또한 상술한 제4 및 제5 실시 형태에서는 애완 로봇(141, 181)에 착탈 가능하게 장착되는 외장으로 도27에 도시한 바와 같은 마치 진짜 개의 표피와 같은 형태를 합성섬유로 형성한 외장 본체부(142A)로 구성되는 외장 유닛(142)을 적용한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 다른 동물(고양이, 너구리, 말, 원숭이, 인간 등)의 표피와 동일한 형태를 각종 재료(모피, 직물, 합성수지, 금속 등)로 형성하도록 해도 된다.
아울러, 외장 유닛(142)을 구성하는 외장 본체부(142A)로는 동물의 표피와 동일한 형태로 이루어지는 함성섬유를 일체 성형해서 구성된 외장 본체부(142A)를 적용한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 애완 로봇(141)의 각 부위에 따른 금속제 외장 부품(도시되지 않음)을 각각 별개로 설치해도 된다. 이 경우, 복수의 외장 부품은 머리부, 몸체부, 다리부 및 경부(脛部)로 이루어지며, 이 가운데 몸체부에 상술한 외장측 인터페이스부(150)를 설치하도록 한다. 그리고 외장 부품을 형성하는 재료로는 금속 이외에도 각종 재료(합성섬유, 모피, 직물, 도기, 합성수지 등)를 폭넓게 적용해도 된다.
또한 상술의 제4 및 제5 실시 형태에서는 제어 수단인 애완 로봇(141, 181)의 몸체부 유닛(143) 내의 컨트롤러(160, 182)가 애완 로봇(141, 181)에 외장 유닛(142)이 장착되었을 때에 상기 외장 유닛(142)에 할당되어있는 외장 설정 정보(D30)에 의거해서 상기 외장 설정 정보(D30) 가운데 외장 번호에 따른 퍼포먼스 정보(D31)를 결정하도록 한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 외장 설정 정보(D30)에 의거해서 퍼포먼스 정보(D31)의 내용을 변화시켜도 된다.
또한, 외장 설정 정보(D30)로는 외장 번호나 제조 허가를 나타내는 정보를 적용한 경우에 대해 기술했으나, 외장 유닛의 종류, 형상, 재질, 질량 분포, 경도 및 열 전도율 등에 관한 정보나, 상기 외장 유닛(142)의 개성, 동작 및 행동에 관한 정보 등을 포함하도록 해도 된다. 이 경우에 제어 수단인 애완 로봇(141, 181)의 컨트롤러(160, 182)는 정보 판독부(165)를 통해 읽어낸 외장 설정 정보(D31)에만 의거해서 애완 로봇(141, 181)의 행동을 결정한 후, 그 결정에 대응해서 필요한 액추에이터(144AA1내지 146AM)를 구동시키며 필요에 따라 스피커(169)로부터 음성을 출력하도록 해도 된다.
게다가 상술의 제4 및 제5 실시 형태에서는, 외장 유닛(142)이 애완 로봇(141, 181)에 장착되었을 때에 외장 유닛(142) 및 애완 로봇(141, 181)간을 전기적 및 구조적으로 접속하는 수단인 외장측 인테페이스부(150)와 본체측 인터페이스부(148)가 도30과 같이 구성되도록 한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 요컨대 분리 가능하게 접속될 수 있으면 기타 여러 구성을 폭넓게 적용해도 된다.
이 경우, 상술의 실시 형태에서는 외장 유닛(142) 내에 정보 기억부(173)를 설치해 두고, 상기 정보 기억부(173)에 외장 유닛(142)에 할당되어 있는 고유 정보를 저장하도록 했으나 본 발명은 이에 한정되지 않고, 외장 유닛(142)에 정보 기억부(173)를 설치하지 않고 애완 로봇(141, 181)과의 접속 부위에 고유 정보에 대응하는 특징물(마크, 바코드, 소정의 요철 패턴, 특수형상의 돌출단 등)을 설치해서애완 로봇(141, 181)의 접속 부위에서 특징물을 읽어서 고유 정보를 인식하도록 해도 된다. 또한 저장 수단으로는 고유 정보를 저장하는 불휘발성 메모리 이외에도 저항 등의 수동 소자나 자기를 사용해서 고유 정보를 저장하거나 발광 다이오드(LED:Light Emitting Diode)의 발광 패턴을 고유 정보로 해도 된다.
아울러, 상술의 제4 및 제5 실시 형태에서는 애완 로봇(141, 181)의 컨트롤러(160, 182)에 있어서, 정보 판독부(162)가 외부로부터 삽입된 기록 매체(도시되지 않음)로부터 퍼포먼스 정보(D31)를 읽어내서 컨트롤러(160, 182)로 송출하도록 한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 정보 판독 수단으로 수신 장치를 사용해서 외부로부터 발신되는 퍼포먼스 정보(D31)를 수신해서 다운 로드하도록 해도 된다.
아울러 상술의 제4 및 제5 실시 형태에서는 제어수단인 애완 로봇(141, 181)의 컨트롤러(182)가 외장 유닛(142)으로부터 주어지는 외장 설정 정보(D30)에 의거해서 퍼포먼스 정보(D31)에 의거한 기준 자세 및 기준 동작을 각각 소정 시간 실행시키면서 이들 기준 자세 및 기준 동작이 각각 초기 무게 중심 위치 정보(D33)를 기준으로 한 기준치를 채우는지 여부를 오차 검출 수단인 가속도 센서(163), 각속도 센서(164), CCD 카메라(166) 및 거리 센서(167)로부터 얻어지는 각 검출 신호(S30, S31, S33, S34)의 집계결과에 의거해서 판단하도록 한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 요컨대 컨트롤러(160, 182)가 각 구성 유닛(가동부)(143 내지 146)의 동작에 대한 외장 유닛(142)의 영향량을 검출할 수 있으면 기타 여러 구성의 제어 수단을 적용해도 된다.
이 경우, 각 구성 유닛(가동부)(143 내지 146)의 동작에 대한 외장 유닛(142)의 영향량을 상술한 각종 센서(163, 164, 166, 167)를 사용해서 외장 유닛(142) 장착 전에 대한 제어 오차를 구한 후 그 제어 오차를 보정하도록 한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 예를 들면 전위차계(170AA1내지 172AM)나 터치 센서(168)등의 여러 센서를 사용해서 각 구성 유닛(가동부)(143 내지 146)의 동작에 대해 외장 유닛(142) 장착 후의 영향량을 검출하도록 해도 된다.
또한 상술의 제4 및 제5 실시 형태에서는 퍼포먼스 정보(D31)에 의거한 기준 자세 및 기준 동작의 기준치를 애완 로봇(141, 181)에 설정된 초기 무게 중심 위치 정보(D33)에 의거해서 제어 수단인 컨트롤러(160, 182)가 설정하도록 한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 퍼포먼스 정보(D31)에 의거한 기준 자세 및 기준 동작의 기준치를 외장 유닛(142)마다 미리 설정해 두도록 해도 된다.
아울러, 상술의 제4 및 제5 실시 형태에서는 초기 무게 중심 정보(D33)를 바탕으로 외장 설정 정보(D30)중 질량 분포 정보(D32)를 판단해서 애완 로봇(141, 181)을 균형있게 잘 동작시키도록 한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 제어수단인 컨트롤러(160, 182)가 애완 로봇(141, 181)이 외장 유닛(142)에 장착되었을 때에 각 구성 유닛(가동부)(143 내지 146)을 구동시켜 동작에 대한 상기 외장 유닛(142)의 영향량을 검출하고, 그 검출 결과에 의거해서 동작의 표현 패턴을 필요에 따라 변화시킬 수 있다면 이 이외에도 예를 들면, 애완로봇(141, 181)의 전체 및 각 유닛의 형상 정보, 각 액추에이터(144AA1내지 146AM)의 가동 범위, 링크 길이 및 구속되는 자유도 등을 판단해서 애완 로봇(141, 181)의 각 유닛이 외장 유닛(142)에 의해 간섭되지 않도록 동작시키도록 해도 된다.
이 경우, 제어 수단인 컨트롤러(160, 182)가 외장 유닛(142)이 장착된 후에 애완 로봇(141, 181)에게 기준 자세 및 기준 동작을 수행시키면서 각 액추에이터(144AA1내지 146AM)의 가동 범위를 대응하는 전위차계(170AA1내지 172AM)의 각도 검출 결과에 의거해서 계산하고, 각 액추에이터(144AA1내지 146AM)가 상기 가동 범위 내에서만 가동될 수 있도록 설정하면 된다.
아울러, 각 다리부 유닛(144A 내지 144D)의 관성 모멘트 정보나 CCD 카메라(166)의 포커스 특성 및 시야각, 마이크로폰(165)의 가청 특성 및 터치 센서(168)의 촉각 특성 등을 판단해서 애완 로봇(141, 181)을 균형있게 잘 동작시키거나 애완 로봇(141, 181)의 각 유닛을 외장 유닛(142)에 의해 간섭되지 않도록 동작되게 해도 된다.
아울러, 상술의 제4 및 제5 실시 형태에서는 외장 유닛(142)이 애완 로봇(141, 181)에 장착되었을 때, 애완 로봇(141, 181)이 소정의 자세 또는 동작(운동 패턴 및 보행 패턴)이 되도록 각 액추에이터(144AA1내지 146AM)(가동부)를 동작시키는 제어 수단으로 몸체부 유닛(143) 내에 설치된 컨트롤러(160, 182)를 적용한 경우에 대해 기술했으나 본 발명은 이에 한정되지 않고, 애완 로봇(141, 181) 전체를 소정의 자세 및 동작시킬 수 있다면 기타 여러 구성의 것을 적용해도 된다.
(6) 제6 실시 형태
(6-1) 본 실시 형태에 따른 로봇 시스템의 구성
도40에서 190은 본 실시 형태에 따른 로봇 시스템을 전체적으로 나타낸 것이며, 로봇 본체(191)와 이 로봇 본체(191)에 장착되는 외장 유닛(192)으로 구성된다.
로봇 본체(191)에 있어서는, 몸체부 유닛(193)의 전후 좌우에 각각 다리부 유닛(194A 내지 194D)이 연결되는 동시에 몸체부 유닛(193)의 전단부에 머리부 유닛(195)이 연결되어 구성된다.
이 경우, 몸체부 유닛(193)에는 도41에 도시한 바와 같이 이 로봇 본체(191)의 동작을 제어하는 컨트롤러(200)와, 이 로봇 본체(191)의 동력원인 밧데리(201)와, 밧데리 센서(202) 및 온도 센서(203) 등으로 이루어지는 내부 센서부(204) 등이 수납되어 있다.
또한, 머리부 유닛(195)에는 이 로봇 본체(191)의 실질적인 "눈"으로 기능하는 CCD 카메라(205), "귀"로 기능하는 마이크로폰(206), 터치 센서(207) 및 거리 센서(208) 등으로 이루어지는 외부 센서부(209)와, "입"으로 기능하는 스피커(210) 등이 각각 소정 위치에 배치되어 있다.
아울러, 각 다리부 유닛(194A 내지 194D)의 관절 부분이나 각 다리부 유닛(194A 내지 194D) 및 몸체부 유닛(193)의 각 연결 부분 또한 머리부 유닛(195) 및 몸체부 유닛(193)의 연결부분 등에는 각각 대응하는 자유도 수분의액추에이터(2111내지 211N)가 설치되어 있다.
그리고 머리부 유닛(195)의 CCD 카메라(205)는 주위의 상황을 촬영해서 얻어진 화상 신호(S40A)를 컨트롤러(200)로 송출한다. 또한 마이크로폰(206)은 사용자로부터 도시되지 않은 사운드 커멘더를 통해 음계로 주어지는 사운드 커멘더를 통해 음계로 주어지는 "걸어", "엎드려" 또는 "공을 쫓아가" 등의 지령음을 집음하여 얻어진 음성 신호(S40B)를 컨트롤러(200)로 송출한다.
또한, 터치 센서(207)는 도40에서 명확하듯이 머리부 유닛(195)의 상부에 설치되며, 사용자의 "쓰다듬다" 나 "때리다" 와 같은 물리적인 작용으로 받은 압력을 외장 유닛(192)을 통해 검출하고, 그 결과를 압력 검출 신호(S40C)로 컨트롤러(200)로 송출하는 한편, 거리 센서(208)는 전방에 위치하는 물체까지의 거리를 측정하고, 그 결과를 거리 측정 신호(S40D)로써 컨트롤러(200)로 송출한다.
아울러 밧데리 센서(202)는 밧데리(201)의 잔량을 검출하고 그 결과를 밧데리 잔량 검출 신호(S41A)로써 컨트롤러(200)로 송출하고, 온도 센서(203)는 로봇 본체(191) 내부의 온도를 검출하고 그 결과를 온도 검출 신호(S41B)로써 컨트롤러(200)로 송출한다.
컨트롤러(200)는 외부 센서부(209)의 CCD 카메라(205), 마이크로폰(206), 터치센서(207) 및 거리 센서(208)로부터 각각 공급되는 화상 신호(S40A), 음성 신호(S40B), 압력 검출 신호(S40C) 및 거리 측정 신호(S40D)(이하, 이들을 묶어서 외부 센서 신호(S40)라 함)와 내부 센서부(204)의 밧데리 센서(202) 및 온도센서(203)로부터 각각 주어지는 밧데리 잔량 검출 신호(S41A) 및 온도 검출 신호(S41B)(이하, 이들을 묶어서 내부 센서 신호(S41)라 함) 등에 의거해서 로봇 본체(193)의 주위 및 내부의 상황이나 사용자로부터의 지령, 작용의 유무를 판단한다.
그리고 컨트롤러(200)는 이 판단결과와 미리 메모리(200A)에 저장되어 있는 제어 프로그램에 의거해서 이어질 행동을 결정하고, 결정 결과에 의거해서 필요한 액추에이터(2111내지 211n)를 구동시킴으로써 머리부 유닛(195)을 상하 좌우로 흔들게 하거나 각 다리부 유닛(2111내지 211n)을 구동시켜 보행시키는 등의 행동을 수행하게 한다.
또한, 이 때에 컨트롤러(200)는 필요에 따라 소정의 음성 신호(S42)를 스피커(210)에 부여함으로써 상기 음성 신호(S42)에 의거한 음성을 외부로 출력시킨다.
이렇게 해서, 이 로봇 본체(191)에서는 주위 및 내부의 상황이나 사용자로부터의 지령 및 작용의 유무에 의거해서 자율적으로 행동할 수 있도록 구성되어 있다.
한편, 외장 유닛(191)은 도40에서 명확하듯이 머리부 전면 피복부재(220A), 머리부 후면 피복부재(220B), 몸체 상부 피복부재(221A) 및 몸체 하부 피복부재(221B)와 흉부 피복부재(222)와 4조의 다리부 외측 피복부재(225A 내지 225D), 다리부 내측 피복부재(226A 내지 226D) 및 다리부 접지부 피복부재(227A 내지 227D)로 구성되어 있다.
이 경우, 머리부 전면 피복부재(220) 및 머리부 후면 피복부재(221)는 로봇 본체(191)의 머리부 유닛(195)에 전후 방향에서 끼워 맞춤하듯이 소정 상태로 장착될 수 있고, 몸체부 상부 피복부재(222) 및 몸체부 하부 피복부재(223)는 로봇 본체(191)의 몸체부 유닛(193)의 상하 방향으로부터 끼워 맞춤하듯이 해서 장착될 수 있고, 흉부 피복부재(222)는 로봇 본체(191)의 몸체부 유닛(193)의 흉부에 끼워 맞춤하듯이 장착될 수 있고, 아울러 각 다리부 외측 피복부재(225A 내지 225D), 다리부 내측 피복부재(226A 내지 226D) 및 다리부 접지부 피복부재(227A 내지 227D)는 로봇 본체(191)의 각 다리부 유닛(194A 내지 194D)에 각각 외측 방향, 내측 방향 및 하측 방향에서 끼워 맞춤하듯이 장착되도록 구성되어 있다.
따라서, 외장 유닛(192)의 머리부 전면 피복부재(220) 및 머리부 후면 피복부재(221)의 소정 위치에는 로봇 본체(191)의 CCD 카메라(205), 거리 센서(207) 및 마이크로폰(206)의 각 배치 위치에 각각 대응시켜서 소정의 크기의 구멍(220A, 220B, 221A1, 221A2)이 설치되어 있고, 이것에 의해 로봇 본체(191)가 머리부 전면 피복부재(220) 및 머리부 후면 피복부재((201)에 방해받는 일 없이 상기의 구멍(220A, 220B, 221A1, 221A2)을 통해 CCD 카메라(205), 마이크로폰(206) 및 거리 센서(208)에 의해 주위의 상황을 촬영하고 외부음을 집음하며 전방의 물체까지의 거리를 측정할 수 있도록 구성되어 있다.
아울러 이 실시 형태의 경우, 머리부 전면 피복부재(220)의 거리 센서(208)와 대응하는 구멍(220B)에는 소정의 투과율을 갖는 반투명부재(이하, 이것을 캐너피(canopy)라 함)(228)가 덮여 있으며, 이에 의해 거리 센서(208)의 측거부가 외부로 노출되서 야기되는 사용자가 느끼는 위화감을 미연에 방지할 수 있도록 구성되어있다.
이러한 구성에 더하여 이 로봇 시스템(190)의 경우, 외장 유닛(192)의 머리부 후면 피복부재(220)에는 EEPROM(Electric Erasable Programmable ROM) 등으로 구성된 불휘발성 메모리(230)가 설치되어 있다. 그리고 이 메모리(230)에는 도42에 도시한 바와 같이 외장 유닛(192)의 형명을 식별하기 위한 외장 형명 정보와, 그 외장 유닛(192)의 장착 대상인 로봇 본체(191)의 형을 나타내는 대상 본(bone)형명 정보와, 후술할 머리부 후면 피복부재(220)의 접속부(231)에 포함되는 각 외부 단자에 어떤 디바이스가 접속되어 있는지를 나타내는 포트 정보와, 그 외장 유닛(192)에 대해 미리 설정된 성격에 따라 소정의 보정 정보로 이루어지는 성격 정보와, 외장 유닛(192)의 캐너피(228)의 광학 특성에 따라 소정의 보정 처리를 행하기 위한 보정 정보로 구성되는 캐너피 정보와, 그 외장 유닛(192)을 장진한 경우의 로봇 본체(191)의 동작에 관한 파라미터를 보정하기 위한 각종 보정 정보로 구성되는 외장 물리 정보 등의 외장 유닛(192)에 관한 각종 정보(이하, 이것을 외장 정보라 함)가 저장되어 있다.
또한, 이 로봇 시스템(190)에서는 외장 유닛(192)의 머리부 후면 피복부재(220) 내측의 소정 위치에 복수의 외부 접속 단자를 갖는 접속부(이하, 이것을 외장측 접속부라 함)(231)가 배치되는 동시에 이와 대응하는 로봇 본체(191)의 소정 위치에 복수의 외부 접속 단자를 갖는 접속부(이하, 이것을 로봇측 접속부라 함)(232)가 설치되어 있는데, 머리부 후면 피복부재(220)를 로봇 본체(192)에 소정 상태로 장착했을 때, 외장측 접속부(231) 및 로봇측 접속부(232)가 전기적으로 접속되고, 로봇 본체(191)의 컨트롤러(200)가 이들 외장 측 접속부(231) 및 로봇측 접속부(232)를 통해 순차적으로 머리부 후면 피복부재(221)의 메모리(230)로부터 외장 정보를 읽어낼 수 있도록 구성되어 있다.
그리고 로봇 본체(191)의 컨트롤러(220)는 전원이 투입되었을 때, 먼저 로봇측 접속부(232)를 통해 외장 유닛(192)의 메로리(230)에 액서스하고, 이러한 외장 정보를 읽어낼 수 없는 경우(예를 들면 외장 유닛이 장진되어있지 않은 경우)에는 그 후 동작되지 않으며, 이에 반해 외장 정보를 읽어낸 경우에는 상기 읽어낸 외장 정보에 의거해서 장진된 외장 유닛(192)의 형 인식이나 그 외장 유닛(192)이 그 로봇 본체(191)의 형에 대응하는 것인지 여부의 인식 및 외장측 접속부(231)의 각 포트에 어떤 디바이스 등이 접속되어 있는지의 인식 등을 수행하는 동시에 외장 정보에 포함되는 성격 정보나 캐너피 정보 및 외장 물리 정보에 의거해서 대응하는 파라미터 등을 변경한다.
아울러 로봇 본체(191)의 컨트롤러(220)는 이 이후 상기와 같이 해서 변경된 각종 파라미터에 따라 상술과 같이 로봇 본체(191)의 행동을 제어한다. 이렇게 해서 로봇 시스템(190)에서는 로봇 본체(191)에 장진된 외장 유닛(192)의 종류에 따라 로봇 본체(191)가 표현하는 행동을 변화시키도록 구성되어 있다.
(6-2) 컨트롤러(220)의 처리
다음에는 로봇 시스템(190)에 있어서의 로봇 본체(191) 내의 컨트롤러(220)의 구체적인 처리에 대해 설명한다.
컨트롤러(220)는 메모리(200A)에 저장된 제어 프로그램에 따라 상술과 같은 각종 처리를 실행한다. 그리고 이러한 컨트롤러(220)의 처리 내용을 기능적으로 분류하면 도43에 도시한 바와 같이 외부 및 내부의 상태를 인식하는 상태 인식부(240)와, 상태 인식부(240)의 인식 결과에 의거해서 감정 및 본능의 상태를 결정하는 감정·본능 모델부(241)와, 상태 인식부(240)의 인식결과 및 감정·본능 모델부(241)의 출력에 의거해서 이어질 행동을 결정하는 행동 결정부(242)와, 행동 결정부(242)의 결과에 따른 행동을 로봇 본체(191)에 생성(표현)시키는 행동 생성부(243)로 나눌 수 있다.
이하, 이들 상태 인식부(240), 감정·본능 모델부(241), 행동 결정부(242) 및 행동 생성부(243)에 대해 상세히 설명한다.
(6-2-1) 상태 인식부(240)의 구성
상태 인식부(240)는 외부 센서부(209)(도41)로부터 주어지는 외부 센서 신호(S40)와 내부 센서부(204)(도41)로부터 주어지는 내부 센서 신호(S41)에 의거해서 특정 상태를 인식하고, 그 결과를 상태 인식 정보(S50)로써 감정·본능 모델부(241) 및 행동 결정부(242)에 통지한다.
사실상, 상태 인식부(240)는 외부 센서부(209)인 CCD 카메라(205)(도41)로부터 주어지는 화상 신호(S40A)를 항시 감시하고, 이 화상 신호(S40A)에 의거한 화상 내에, 예를 들면 "동그란 것"이나 "어떠한 물건"을 검출했을 때는 "공이 있다", "장애물이 있다"라고 인식하고 그 결과를 감정·본능 모델부(241) 및 행동결정부(242)에 통지한다.
또한, 이때 상태 인식부(240)는 외부 센서(209)인 거리 센서(208)로부터 주어지는 거리 검출 신호(S40D)에 의거해서 그 물체까지의 거리를 검출하고, 그 결과를 감정·본능 모델부(241) 및 행동 결정부(242)에 통지한다.
또한 상태 인식부(240)는 마이크로폰(206)(도41)으로부터 주어지는 음성 신호(S40B)를 항시 감시하고, 그 음성 신호(S40B)에 의거해서 "걸어", "엎드려", "공을 쫓아" 등의 명령음이 입력된 것이 확인되면 그 결과를 감정·본능 모델부(241) 및 행동 결정부(242)에 통지한다.
아울러, 상태 인식부(240)는 터치 센서(207)(도41)로부터 주어지는 압력 검출 신호(S40C)를 항시 감시하고, 이 압력 검출 신호(S40C)에 의거해서 소정의 역치 이상이며 또한 단시간(예를 들면 2초 미만)의 압력을 검출했을 때는 "맞았다(혼났다)"라고 인식하고, 소정 역치 마만이며 긴 시간(예를 들면 2초 이상)이며 또한 광범위한 압력을 검출했을 때에는 "쓰다듬어주었다(칭찬받았다)"라고 인식하고 그 결과를 감정·본능 모델부(241) 및 행동 결정부(242)에 통지한다.
아울러, 상태 인식부(240)는 내부 센서(204)인 온도 센서(203)(도41)로부터 주어지는 온도 검출 신호(S41B)를 항시 감시하고, 이 온도 검출 신호(S41B)에 의거해서 소정 온도 이상의 온도를 검출했을 때에는 "내부 온도가 상승했다"고 인식하고 그 결과를 감정·본능 모델부(241) 및 행동 결정부(242)로 통지한다.
(6-2-2) 감정·본능 모델부(241)의 구성
감정·본능 모델부(241)는 "기쁨", "슬픔", "놀라움", "공포", "혐오" 및 "노여움"의 총 6가지의 감정에 대해 각 감정마다 그 감정의 강도를 나타내는 파라미터를 유지하고 있다. 그리고 그 감정·본능 모델부(241)는 이들 각 감정의 파라미터치를 각각 상태 인식부(240)로부터 상태 인식 정보(S50)로써 주어지는 "맞았다" 나 "쓰다듬어주었다" 등의 특정한 인식 결과와 후기와 같이 행동 결정부(242)로부터 주어지는 결정된 출력 행동을 나타내는 행동 결정 정보(S51)와 경과 시간 등에 의거해서 순차 갱신한다.
구체적으로는, 감정·본능 모델부(241)는 상태 인식 정보(S50)에 의거해서 얻어진 인식 결과 및 행동 결정 정보(S51)에 의거한 출력 행동이 그 감정에 대해 작용하는 정도(미리 설정되어 있다)와 다른 감정으로부터 받는 억제 및 자극의 정도와 경과 시간 등에 의거해서 소정의 연산식에 의해 산출되는 그 감정의 변화량△E〔t〕, 현재 그 감정의 파라미터치를 E〔t〕, 인식 결과 등에 따라 그 감정을 변화시키는 비율을 나타내는 계수를 ke라고 하고, 소정의 주기에서 다음 수학식
을 이용해서 다음 주기에서의 그 감정의 파라미터치 E〔t+1〕를 산출한다.
그리고 감정·본능 모델부(241)는 그 연산 결과를 현재의 감정 파라미터치 E〔t+1〕와 치환하도록 해서 그 감정의 파라미터치를 갱신한다. 그리고, 각 인식결과나 각 출력 행동에 대해 어느 감정의 파라미터치를 갱신할 지는 미리 정해져 있는데, 예를 들면 "맞았다"라는 인식 결과가 주어졌을 경우에는 "분노"의 감정 파라미터치가 올라가는 동시에 "기쁨"의 감정 파라미터치가 내려가고, "쓰다듬어졌다"라는 인식 결과가 주어진 경우에는 "기쁨"의 감정 파라미터치가 올라가는 동시에 "슬픔" 및 "노여움"의 각 감정의 파라미터치가 내려간다.
이와 마찬가지로 감정·본능 모델부(241)는 "운동욕", "애정욕", "식욕", "호기심" 및 "수면욕"의 서로 독립된 5가지의 욕구에 대해 이들 욕구마다 그 욕구의 강도를 나타내는 파라미터치를 유지하고 있다. 그리고 감정·본능 모델부(241)는 이들 각 욕구의 파라미터치를 각각 상태 인식부(240)로부터의 인식 결과나 경과 시간 및 행동 결정부(242)로부터의 통지 등에 의거해서 순차적으로 갱신한다.
구체적으로는, 감정·본능 모델부(241)는 "운동욕", "애정욕" 및 "호기심"에 대해서는 로봇 본체(191)의 출력 행동, 경과 시간 및 인식 결과 등에 의거해서 소정의 연산식에 의해 산출되는 그 욕구의 변동량△I〔k〕, 현재의 그 욕구의 파라미터치를 I〔k〕, 그 욕구의 감도를 나타내는 계수를 ki라고 하고, 소정 주기에서 다음 수학식
을 이용해서 다음 주기에서의 그 욕구의 파라미터치 I〔k+1〕를 산출하고, 이 연산결과를 현재의 그 욕구의 파라미터치I〔k〕와 치환하여 그 욕구의 파라미터치를 갱신한다. 이 경우, 출력 행동이나 인식 결과 등에 대해 어느 욕구의 파라미터치를 변화시킬지는 미리 정해져 있는데, 예를 들면 행동 결정부(242)로부터 어떤 행동을 수행했다는 통지가 있었을 때에는 "운동욕"의 파라미터치가 내려간다.
또한 감정·본능 모델부(241)는 "식욕"에 대해서는 상태 인식부(240)를 통해 주어지는 밧데리 잔량 검출 신호(S42A)(도41)에 의거해서 밧데리 잔량을 BL이라 하고 소정 주기에서 다음 수학식
에 의해 "식욕"의 파라미터치 I〔k+1〕을 산출하여 이 산출 결과를 현재의 식욕 파라미터치 I〔k〕와 치환하여 이 "식욕"의 파라미터치를 갱신한다.
아울러, 감정·본능 모델부(241)는 "수면욕"에 대해서는 하루를 1동기로 하고 소정 시간마다 파라미터치를 증감 변경한다.
그리고 본 실시 형태에서는 각 감정 및 각 욕구의 파라미터치가 각각 0에서 100까지의 범위에서 변동되도록 규제되어 있으며 또한 계수 ke,ki의 값도 각 감정 및 각 욕구마다 개별로 설정되어 있다.
(6-2-3) 행동 결정부(242)의 구성
행동 결정부(242)는 상태 인식부(240)로부터 주어지는 상태 인식 정보(50)와감정·본능 모델부(241)에 있어서의 각 감정 및 각 욕구의 파라미터치와 미리 메모리(200A)에 저장된 행동 모델과 경과 시간 등에 의거해서 다음의 행동을 결정하고, 결정 결과를 행동 결정 정보(S51)로써 감정·본능 모델부(241) 및 행동 생성부(243)로 출력한다.
이 경우, 행동 결정부(242)는 다음의 행동을 결정하는 방법으로 도44에 도시한 바와 같이 하나의 노드(상태)(NODE0″)로부터 같거나 혹은 다른 임의의 어느 노드(NODE0″내지 NODEn″)로 천이할 지를 각 노드(NODE0″내지 NODEn″)간을 접속하는 아크(ARC0″내지 ARCn″)에 대해 각각 설정된 천이 확률(P0″내지 Pn″)에 의거해서 확률적으로 결정하는 확률 오토마톤이라 불리는 알고리즘을 사용하고 있다.
보다 구체적으로는, 메모리(200A)에는 행동 모델로써 각 노드(NODE0″내지 NODEn″)마다 도45에 도시한 바와 같은 상태 천이표(244)가 저장되어 있으며, 행동 결정부(242)가 이 상태 천이표(244)에 의거해서 다음 행동을 결정한다.
상태 천이표(244)에서는 그 노드(NODE0″내지 NODEn″)의 천이 조건인 입력 이벤트(상태 인식부(240)의 인식 결과)가 "입력 이벤트"의 행에 우선순위로 열기되고, 그 조건에 대한 또 다른 조건이 "데이터명" 및 "데이터 범위"의 행의 대응하는 열에 기술되어 있다.
따라서, 도45의 상태 천이표(244)에서 정의된 노드(NODE100″)에서는 "볼을 검출했다(BALL)"라는 인식 결과가 주어진 경우, 그 인식 결과와 함께 주어지는 그볼의 "크기(SIZE)"가 "0에서 100의 범위(0, 100)"인 것이나 "장애물을 검출(OBSTACLE)"이라는 인식 결과가 주어진 경우에는 그 인식 결과와 함께 주어지는 그 장애물까지의 "거리(DISTANCE)"가 "0에서 1000의 범위(0, 1000)"인 것이 자기 또는 다른 노드(NODE0″내지 NODEn″)로 천이하기 위한 조건이 된다.
또한 이 노드(NODE100″)에서는 인식 결과의 입력이 없는 경우에도 행동 결정부(242)가 주기적으로 참조하는 감정·본능 모델부(241)의 각 감정 및 각 욕구의 파라미터치중 "기쁨(JOY)", "놀라움(SURPRISE)" 또는 "슬픔(SADNESS)"의 어느 한 감정의 파라미터치가 "50에서 100의 범위(50, 100)"일 때는 자기 또는 다른 노드(NODE0″내지 NODEn″)로 천이할 수 있다.
아울러 상태 천이표(244)에서는 "다른 노드로의 천이 확률"의 란의 "천이할 노드" 열에 그 노드(NODE0″내지 NODEn″)로부터 천이할 수 있는 몇 개의 노드(NODE0″내지 NODEn″)가 열기되는 동시에 "입력 이벤트명", "데이터명" 및 "데이터의 범위"의 각 행에 기술된 모든 조건이 갖추어진 경우의 그 노드(NODE0″내지 NODEn″)로의 천이 확률이 "다른 노드로의 천이 확률" 란의 그 노드(NODE0″내지 NODEn″)의 행에 기술되고, 이 때 출력되는 행동 및 동작이 "출력 행동"의 행에 기술된다. 또한, "다른 노드로의 천이 확률" 란의 각 행의 천이 확률의 합은 100〔%〕이다.
따라서 이 노드(NODE100″)에서는, 예를 들면 "볼을 검출(BALL)"하고 그 볼의 "크기(SIZE)"가 "0에서 1000의 범위(0, 1000)"라는 인식 결과가 주어진 경우에는 "30〔%〕의 확률로 "노드(NODE120″)(node120)"으로 천이할 수 있고, 그 때에 "ACTION 1"의 행동 또는 동작이 출력되게 된다.
그리고 행동 모델은 이와같은 상태 천이표(244)로써 기술된 노드(NODE0″내지 NODEn″)가 몇 개씩 연결되도록 해서 형성된다.
이렇게 해서 행동 결정부(242)는 상태 인식부(240)로부터 상태 인식 정보(S50)가 주어졌을 때나, 마지막으로 행동을 표현하고 나서 일정 시간이 경과했을 때 등에 메모리(200A)에 저장되어 있는 행동 모델 가운데 대응되는 노드(NODE0″내지 NODEn″)의 상태 천이표(244)를 이용해서 다음의 행동이나 동작("출력 행동"의 행에 기술된 행동 또는 동작)을 확률적으로 결정하고, 결정 결과를 행동 결정 정보(S51)로써 감정·본능 모델부(242) 및 행동 생성부(243)로 출력한다.
(6-2-4) 행동 생성부(243)의 구성
행동 생성부(243)는 로봇 본체(191)에 각종 행동을 표현시킬 때, 각 액추에이터(2111내지 211n)를 어느 정도 구동할지를 규정한 각 행동마다의 데이터 파일(이하, 이를 모션 파일이라 함)이나 복수의 음성 데이터 파일(이하, 이를 사운드 파일이라 함)을 메모리(200A) 내에 갖고 있다.
그리고 행동 결정부(242)로부터 주어지는 행동 결정 정보(S51)에 의거해서필요에 따라 대응하는 모션 파일을 메모리(200A)로부터 읽어내고, 상기 모션 파일에 의거해서 액추에이터(2111내지 211n)로 구동 신호(S521내지 S52n)를 송출하거나 대응하는 사운드 파일을 재생하여 얻어진 음성 신호(S42)를 스피커(210)(도41)로 출력한다.
그 결과, 구동 신호(S521내지 S52n)에 의거해서 필요한 액추에이터(2111내지 211n)가 구동되고, 음성 신호(S42)에 의거한 음성이 스피커(210)로부터 출력됨으로써 상술과 같이 행동 결정부(242)에서 결정된 행동 또는 동작이 로봇 본체(191)에 의해 표현된다.
이렇게 해서, 이 로봇 시스템(190)은 컨트롤러(200)의 제어 아래 주위 및 내부의 상황이나 사용자로부터의 지령 및 작용의 유무 등에 의거해서 자율적으로 행동할 수 있도록 구성되어 있다.
(6-3) 로봇 본체(191)의 초기 설정 처리
다음에는 이 로봇 시스템(190)의 로봇 본체(191)의 컨트롤러(200)의 초기 설정 처리에 대해 설명한다.
이 로봇 시스템(190)에서는 상술과 같이 전원 투입 후 먼저 로봇 본체(191)의 컨트롤러(200)가 외장 유닛(192)의 메모리(230)에 액서스하여 외장 정보를 읽어내고, 상기 외장 정보에 의거해서 필요한 파라미터 등을 변경하는 등의 초기 설정 처리를 수행한다.
사실상, 이 로봇 시스템(190)의 경우는 외장 유닛(192)의 머리부 전면 피복부재(221)의 메모리(230)에 상술한 성격 정보로써 행동 모델을 생성하는 각 상태 천이표(244)(도45)중의 대응하는 상태 천이표(244) 내의 대응하는 천이 확률(P0″내지 Pn″)(도44)의 변경치나 행동 모델에 있어서 대응하는 노드(NODE0″내지 NODEn″)의 상태 천이표(244) 자체가 저장되어 있다.
그리고 로봇 본체(191)의 컨트롤러(200)는 외장 유닛(192)의 메모리(230)로부터 읽어낸 외장 정보에 포함되는 이러한 성격 정보에 의거해서 대응하는 상태 천이표(244) 내의 대응하는 천이 확률(P0″내지 Pn″)을 변경하거나 대응하는 노드(NODE0″내지 NODEn″)의 상태 천이표(244)의 새로운 상태 천이표(244)로 바꾸어 넣는다.
또한 외장 유닛의 메모리(230)에는 캐너피 정보로 거리 센서(208)(도41)의 출력 전압을 오프 세트 보정하기 위한 오프 세트치가 저장되어 있다.
즉, 캐너피(228)(도40)를 통해 거리 센서(208)에 의해 전방에 위치하는 물체까지의 거리를 측정하는 경우, 도46 및 도47에 도시한 바와 같이 거리 센서(208)로의 입사각에 대한 캐너피(228)의 기울기 각도나 도48 및 도49에 도시한 바와 같이 캐너피(228)의 색에 따라 측정 오차가 생긴다. 그리고 도46 및 도48에 있어서, 최좌행의 수치는 각각 측정 대상인 물체까지의 거리를 나타내며, 그 외의 각 행 내의 수치는 각각 거리 센서(208)의 광축과 수직인 상태를 0도로 한 경우의 캐너피(228)의 각 기울기 각도에 대한 거리 센서(208)의 출력 전압을 나타낸다. 또한 도47 및 도49에서 종축은 거리 센서(208)의 출력 전압, 횡축은 측정 대상인 물체까지의 거리를 나타낸다.
이로 인해, 이 로봇 시스템(190)에서는 외장 유닛(192)의 메모리(230)에 상기 외장 유닛(192)에 있어서의 캐너피(208)의 기울기 각도나 색에 따른 거리 센서(208)(도41)의 출력 전압을 오프 세트 보정하기 위한 오프 세트치가 저장되어 있다.
그리고, 로봇 본체(191)의 컨트롤러(200)는 외장 유닛(192)의 메모리(200A)로부터 읽어낸 외장 정보에 포함되는 이러한 캐너피 특성 정보에 의거해서 거리 측정 신호(S40D)에 의거하여 전방의 물체까지의 거리를 상태 인식부(240)에서 인식할 때의 상기 거리 측정 신호(S40D)에 대한 오프 세트치를 변경한다.
아울러 외장 유닛(192)의 메모리(230)에는 외장 물리 정보로 외장 유닛(192)을 로봇 본체(192)에 장진했을 때의 로봇 시스템(190) 전체의 무게 중심 위치를 나타내는 무게 중심 위치 정보나, 외장 유닛(192)을 장착했을 때의 각 가동부의 관성 모멘트 등을 나타내는 동작 정보 및 외장 유닛(192)을 장착했을 때에 각 가동부의 가동범위를 나타내는 가동 범위 정보가 저장되어 있다.
그리고, 로봇 본체(191)의 컨트롤러(200)는 외장 유닛(192)의 메모리(230)로부터 읽어낸 외장 정보가 포함되는 이러한 외장 물리 정보 가운데 무게 중심 정보에 의거해서 메모리(200A)에 저장되어 있는 도31에 대해 상술한 보행 제어를 위한 파라미터나 다른 대응하는 파라미터를 변경한다.
이와 같이 해서, 이 로봇 시스템(190)에서는 외장 유닛(192)의 메모리(230)에 저장된 외장 정보에 의거해서 로봇 본체(191) 내부의 파라미터 등을 변경하고,이로써 로봇 본체(191)에 장착된 외장 유닛(192)에 따른 행동을 상기 로봇 본체(191)에게 표현시킬 수 있도록 구성되어 있다.
(6-4) 본 실시 형태의 동작 및 효과
이상의 구성에 있어서, 이 로봇 시스템(190)에서는 로봇 본체(191)의 전원 투입 시에 컨트롤러(200)가 외장 유닛(192)의 메모리(230)로부터 외장 정보를 읽어내고, 이 외장 정보에 의거해서 필요한 파라미터를 변경한다.
따라서, 이러한 외장 정보로 외장 유닛(192)의 모양이나 색 등의 형태에 따른 외장 정보를 저장해 둠으로써 로봇 본체(191)에 그 외장 유닛(192)의 형태에 따른 행동을 표현시키도록 할 수 있다.
이상의 구성에 따르면, 외장 유닛(192)에 상기 외장 유닛(192)의 형태에 따른 외장 정보가 저장된 메모리(230)를 설치하는 동시에 로봇 본체(191)의 컨트롤러(200)가 전원 투입시에 이러한 외장 정보를 읽어내고, 그 외장 정보에 의거해서 로봇 본체(191)의 행동이나 동작을 제어하기 위한 파라미터를 변경하도록 함에 따라 외장 유닛(192)의 형태에 따른 행동이나 동작을 로봇 본체(191)에게 표현시킬 수 있으며, 이로써 오락성을 각별히 향상시킬 수 있는 로봇 시스템을 실현할 수 있다.