[go: up one dir, main page]

KR20220145570A - Method and apparatus for tactile sensing - Google Patents

Method and apparatus for tactile sensing Download PDF

Info

Publication number
KR20220145570A
KR20220145570A KR1020210052306A KR20210052306A KR20220145570A KR 20220145570 A KR20220145570 A KR 20220145570A KR 1020210052306 A KR1020210052306 A KR 1020210052306A KR 20210052306 A KR20210052306 A KR 20210052306A KR 20220145570 A KR20220145570 A KR 20220145570A
Authority
KR
South Korea
Prior art keywords
tactile
sensing
subnetwork
user
simulation model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020210052306A
Other languages
Korean (ko)
Other versions
KR102529082B1 (en
Inventor
최지웅
임성호
장재은
김경수
박지호
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020210052306A priority Critical patent/KR102529082B1/en
Publication of KR20220145570A publication Critical patent/KR20220145570A/en
Application granted granted Critical
Publication of KR102529082B1 publication Critical patent/KR102529082B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L1/00Measuring force or stress, in general
    • G01L1/20Measuring force or stress, in general by measuring variations in ohmic resistance of solid materials or of electrically-conductive fluids; by making use of electrokinetic cells, i.e. liquid-containing cells wherein an electrical potential is produced or varied upon the application of stress
    • G01L1/22Measuring force or stress, in general by measuring variations in ohmic resistance of solid materials or of electrically-conductive fluids; by making use of electrokinetic cells, i.e. liquid-containing cells wherein an electrical potential is produced or varied upon the application of stress using resistance strain gauges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L5/00Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes
    • G01L5/22Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes for measuring the force applied to control members, e.g. control members of vehicles, triggers
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Manipulator (AREA)

Abstract

촉각 감지 장치가 개시된다. 본 장치는 기 학습된 촉각 모사 모델을 저장하는 메모리 및 감지 타깃으로부터 획득한 시계열적 터치 신호 및 슬라이딩 신호를 촉각 모사 모델에 입력하여, 소정의 사용자 또는 사용자 그룹에 매핑된 촉각 레벨에 대응하는 촉각 정보를 제공하는 제어부를 포함한다. 상기 장치가 제공됨에 따라 사용자 편의가 제공될 수 있다.A tactile sensing device is disclosed. The device inputs a time-series touch signal and sliding signal obtained from a memory for storing a pre-learned tactile simulation model and a detection target into the tactile simulation model, and tactile information corresponding to a tactile level mapped to a predetermined user or user group. It includes a control unit that provides As the device is provided, user convenience can be provided.

Description

촉각 감지 방법 및 장치{METHOD AND APPARATUS FOR TACTILE SENSING}Tactile sensing method and device

본 개시는 사용자의 촉각을 모사하여 촉각을 감지하는 방법과 장치 및 해당 촉각 감지 방법을 수행하는 프로그램을 저장한 기록 매체에 관한 것이다.The present disclosure relates to a method and apparatus for simulating a user's tactile sense and sensing a tactile sense, and a recording medium storing a program for performing the tactile sensing method.

오감 기반의 디지털 체험은 전자 디바이스 제조 기술 및 신호 처리 기술의 진보에 힘입어 계속 발전하고 있다. VR(Virtual Reality) 기술은 시각 및 청각 센세이션(Sensation)을 불러 일으켰으며, 3 차원 상의 영상 및 스테레오 사운드를 제공하는 개인화 서비스가 VR 기술 및 AR(Augmented Reality) 기술을 통해 제공되고 있는 실정이다.Digital experiences based on the five senses continue to evolve thanks to advances in electronic device manufacturing technology and signal processing technology. VR (Virtual Reality) technology has caused visual and auditory sensations, and personalized services that provide three-dimensional images and stereo sound are being provided through VR technology and AR (Augmented Reality) technology.

몰입감 있는 디지털 체험을 위해, 정확하게 촉각을 감지하고 이를 효과적으로 전달하는 것이 핵심인데, 시각 및 청각과는 다르게, 촉각을 감지하여 표현하고 전달하는데 기술적 어려움이 있었다.For an immersive digital experience, it is key to accurately detect touch and effectively deliver it. Unlike sight and hearing, there were technical difficulties in detecting, expressing, and delivering touch.

아울러, 사용자 별 촉각은 개인차가 있으므로, 단순히 촉각을 감지하더라도 특정 사용자의 촉각을 모사하는데는 기술적 어려움이 있었다. 이에, 사용자 맞춤형으로 촉각을 감지하는 방법이 필요하다.In addition, there is a technical difficulty in imitating the touch of a specific user even if the sense of touch is simply sensed because there is individual difference in the sense of touch for each user. Accordingly, there is a need for a method for sensing a tactile sense in a user-customized manner.

한편, 상기와 같은 정보는 본 발명의 이해를 돕기 위한 백그라운드(background) 정보로서만 제시될 뿐이다. 상기 내용 중 어느 것이라도 본 발명에 관한 종래 기술로서 적용 가능할지 여부에 관해, 어떤 결정도 이루어지지 않았고, 또한 어떤 주장도 이루어지지 않는다.On the other hand, the above information is only presented as background information to help the understanding of the present invention. No decision has been made, nor is any claim made as to whether any of the above is applicable as prior art to the present invention.

한국공개특허 제10-2018-0099283호(공개일: 2018.09.05)Korean Patent Application Laid-Open No. 10-2018-0099283 (published on September 5, 2018)

본 발명이 해결하고자 하는 일 과제는 사용자 별 촉각을 모사하여 촉각을 감지하는 장치 및 방법을 제공하는 데에 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide an apparatus and method for sensing a touch by simulating a user-specific touch.

본 발명의 또 다른 과제는, 신경망 알고리즘을 이용하여 사용자 또는 사용자 그룹에 매핑하는 촉각 레벨에 대응하는 촉각 정보를 제공하는 장치 및 방법을 제공하는 데에 있다.Another object of the present invention is to provide an apparatus and method for providing tactile information corresponding to a tactile level mapped to a user or a user group using a neural network algorithm.

본 발명의 또 다른 과제는, 촉각 재현 장치에 사용자에 대응하는 촉각 정보를 제공하는 장치 및 방법을 제공하는 데에 있다.Another object of the present invention is to provide an apparatus and method for providing tactile information corresponding to a user to a tactile reproduction apparatus.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. will be able

상기 과제를 달성하기 위하여, 본 발명의 일 실시 예에 따른 촉각 감지 장치는 기 학습된 촉각 모사 모델을 저장하는 메모리; 및 감지 타깃(Target)으로부터 획득한 시계열적 터치 신호 및 슬라이딩 신호를 상기 촉각 모사 모델에 입력하여, 소정의 사용자 또는 사용자 그룹에 매핑된 촉각 레벨에 대응하는 촉각 정보를 제공하는 제어부;를 포함할 수 있다.In order to achieve the above object, a tactile sensing apparatus according to an embodiment of the present invention includes: a memory for storing a pre-learned tactile simulation model; and a control unit that inputs a time-series touch signal and a sliding signal obtained from a detection target into the tactile simulation model, and provides tactile information corresponding to a tactile level mapped to a predetermined user or user group. have.

본 발명의 일 실시 예에 따른 프로세서에 의해 수행되는 촉각 감지 방법은 감지 타깃(Target)으로부터 획득한 시계열적 터치 신호 및 슬라이딩 신호를 기 학습된 촉각 모사 모델에 입력하는 단계; 및 소정의 사용자 또는 사용자 그룹에 매핑된 촉각 레벨에 대응하는 촉각 정보를 제공하는 단계를 포함할 수 있다.A tactile sensing method performed by a processor according to an embodiment of the present invention includes: inputting a time-series touch signal and a sliding signal obtained from a sensing target into a pre-trained tactile simulation model; and providing tactile information corresponding to a tactile level mapped to a predetermined user or user group.

본 발명의 일 실시 예에 따른 촉각 감지 방법은 컴퓨터상에서 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체 내에 저장될 수 있다. The tactile sensing method according to an embodiment of the present invention may be stored in a computer-readable recording medium in which a program to be executed on a computer is recorded.

상기 프로그램은, 프로세서에 의한 실행 시, 상기 프로세서가, 감지 타깃(Target)으로부터 획득한 시계열적 터치 신호 및 슬라이딩 신호를 기 학습된 촉각 모사 모델에 입력하는 동작; 및 소정의 사용자 또는 사용자 그룹에 매핑된 촉각 레벨에 대응하는 촉각 정보를 출력하는 동작을 수행하도록 하는 실행 가능한 명령을 포함할 수 있다.When the program is executed by a processor, the processor includes: an operation of inputting, by the processor, a time-series touch signal and a sliding signal obtained from a detection target into a pre-learned tactile simulation model; and an executable command for outputting tactile information corresponding to a tactile level mapped to a predetermined user or user group.

본 발명에서 이루고자 하는 기술적 과제들의 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The means of solving the technical problems to be achieved in the present invention are not limited to the solutions mentioned above, and other solutions not mentioned are clear to those of ordinary skill in the art to which the present invention belongs from the description below. will be able to be understood

본 발명의 다양한 실시 예에 의해, 사용자 별 촉각을 모사하여 촉각을 감지하는 장치가 제공됨으로써, 사용자 편의가 제고될 수 있으며, 사용자 별로 정확한 촉각 감지 프로세스가 수행될 수 있다.According to various embodiments of the present disclosure, an apparatus for sensing tactile sense by simulating a tactile sense for each user is provided, thereby improving user convenience and performing an accurate tactile sensing process for each user.

본 발명의 효과는 이상에서 언급한 발명의 효과들로 제한되지 않으며, 언급하지 않은 또 다른 발명의 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects of the invention mentioned above, and the effects of other inventions not mentioned above can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. There will be.

도 1은 본 발명의 일 실시 예에 따른 감지 대상으로부터 촉각을 감지하는 장치를 개략적으로 설명하기 위한 도면,
도 2는 본 발명의 일 실시 예에 따른 촉각 감지 장치의 구성을 나타내는 블록도,
도 3은 본 발명의 일 실시 예에 따른 촉각 센서를 탑재한 촉각 감지 장치의 구성을 나타내는 블록도,
도 4는 본 발명의 일 실시 예에 따른 학습 단계에서 촉각 모사 모델에 입력되는 레이블 정보를 설명하기 위한 도면,
도 5는 본 발명의 일 실시 예에 따른 촉각 모사 모델의 작동을 설명하기 위한 알고리즘을 나타내며,
도 6(a) 내지 도 6(c)는 본 발명의 다양한 실시 예에 따른 복수 참가자의 촉각 결정을 설명하기 위한 도면들,
도 7은 본 발명의 일 실시 예에 따른 Tolerance 범위의 변화에 따른 정확도의 변화를 설명하기 위한 도면,
도 8은 본 발명의 일 실시 예에 따른 학습 전후로 사용자 및 사용자에 대응하는 촉각 감지 장치의 촉각 결정을 비교한 그래프, 그리고,
도 9는 본 발명의 일 실시 예에 따른 촉각 감지 방법을 설명하기 위한 시퀀스도이다.
1 is a diagram schematically illustrating an apparatus for sensing a tactile sense from a sensing target according to an embodiment of the present invention;
2 is a block diagram showing the configuration of a tactile sensing device according to an embodiment of the present invention;
3 is a block diagram showing the configuration of a tactile sensing device equipped with a tactile sensor according to an embodiment of the present invention;
4 is a diagram for explaining label information input to a tactile simulation model in a learning step according to an embodiment of the present invention;
5 shows an algorithm for explaining the operation of a tactile simulation model according to an embodiment of the present invention;
6 (a) to 6 (c) are diagrams for explaining the tactile determination of a plurality of participants according to various embodiments of the present invention;
7 is a view for explaining a change in accuracy according to a change in the tolerance range according to an embodiment of the present invention;
8 is a graph comparing a user and a tactile determination of a tactile sensing device corresponding to the user before and after learning according to an embodiment of the present invention;
9 is a sequence diagram illustrating a tactile sensing method according to an embodiment of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명의 예시적인 실시예들에 대하여 설명한다. 본 발명은 서로 다른 다양한 형태들로 구현될 수 있으며, 본 명세서에 설명된 실시예들로 한정되는 것으로 해석되어서는 안 된다. 도면에서 구성요소들, 계층들 및 영역들의 상대적인 크기는 설명의 명확성을 위해 과장될 수 있다. Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings. The present invention may be embodied in a variety of different forms, and should not be construed as being limited to the embodiments described herein. The relative sizes of components, layers, and regions in the drawings may be exaggerated for clarity of description.

도 1은 본 발명의 일 실시 예에 따른 감지 대상으로부터 촉각을 감지하는 장치(Ro 1, Ro N)를 개략적으로 설명하기 위한 도면이다. 1 is a diagram schematically illustrating an apparatus (Ro 1, Ro N) for sensing a tactile sense from a sensing target according to an embodiment of the present invention.

촉각 감지 장치(Ro 1, Ro N)는 사용자 각각(USER 1, USER N)에 대응될 수 있으며, 사용자 각각(USER 1, USER N)의 촉각 특성을 모사하여 감지 타깃(Ta, Target)으로부터 촉각 정보를 추출할 수 있다.The tactile sensing devices (Ro 1, Ro N) may correspond to each user (USER 1, USER N), and by simulating the tactile characteristics of each user (USER 1, USER N), the tactile sense from the sensing target (Ta, Target) information can be extracted.

촉각 감지 장치(Ro 1, Ro N)는 사용자 맞춤형 아바타 로봇으로 구현될 수 있으며, 대표적으로 제1 촉각 감지 장치(Ro1)로 구성 및 기능을 개략적으로 설명하기로 한다.The tactile sensing devices Ro 1 and Ro N may be implemented as a user-customized avatar robot, and the configuration and function of the first tactile sensing device Ro1 will be schematically described.

제1 촉각 감지 장치(Ro 1)는 로봇 암(Ar 1)에 배치된 촉각 센서(Se 1)를 이용하여, 감지 타깃(Ta)의 촉각 정보를 추출하며, 추출된 촉각 정보는 제1 사용자(USER 1)의 촉각 레벨에 대응하는 촉각 정보일 수 있다. The first tactile sensing device Ro 1 extracts tactile information of the detection target Ta by using the tactile sensor Se 1 disposed on the robot arm Ar 1 , and the extracted tactile information is transmitted to the first user ( It may be tactile information corresponding to the tactile level of USER 1).

여기서, 촉각 센서(Se 1)는 하나 이상의 촉각 센서가 레이어를 형성하여 배치될 수 있다. 특히, 촉각 센서(Se 1)는 열과 행으로 구성된 촉각 센서 어레이를 포함할 수 있다. 제1 촉각 감지 장치(Ro 1)는 로봇 암(Ar 1)이 수직 및/또는 수평 운동하도록 로봇 암(Ar 1)을 구동시킬 수 있다.Here, the tactile sensor Se 1 may be disposed by forming a layer of one or more tactile sensors. In particular, the tactile sensor Se 1 may include a tactile sensor array composed of columns and rows. The first tactile sensing device Ro 1 may drive the robot arm Ar 1 to vertically and/or horizontally move the robot arm Ar 1 .

제1 촉각 감지 장치(Ro 1)는 감지 타깃(Ta)에 대해, 터치 입력을 통해, 감지 타깃(Ta)의 단단함 정도(경도, Hardness)를 측정할 수 있으며, 슬라이딩 입력을 통해 감지 타깃(Ta)의 거칠기 정도(표면 지형)를 측정할 수 있다. The first tactile sensing device Ro 1 may measure the degree of hardness (hardness) of the sensing target Ta through a touch input with respect to the sensing target Ta, and may measure the sensing target Ta through a sliding input. ) can measure the degree of roughness (surface topography).

도 2는 본 발명의 일 실시 예에 따른 촉각 감지 장치(100)(100A)의 구성을 나타내는 블록도이다.2 is a block diagram showing the configuration of the tactile sensing apparatus 100 (100A) according to an embodiment of the present invention.

촉각 감지 장치(100)(100A)는 도 1과 같이 로봇으로 구현될 수 있으며, 촉각 감지 로봇을 포함하지 않고 연산을 주로 수행하는 장치로 구현될 수 있다. 도 2의 촉감 감지 장치(100)(100A)는 연산을 주로 수행하는 장치로 상정하여 대표적으로 설명하기로 한다.The tactile sensing apparatuses 100 and 100A may be implemented as a robot as shown in FIG. 1 , and may be implemented as a device that mainly performs calculations without including a tactile sensing robot. The tactile sensing apparatuses 100 and 100A of FIG. 2 are assumed to be devices that mainly perform calculations and will be representatively described.

촉각 감지 장치(100)는 메모리(150) 및 연산을 수행하는 제어부(190)를 포함할 수 있다. The tactile sensing apparatus 100 may include a memory 150 and a control unit 190 that performs an operation.

우선, 메모리(150)는 다양한 반도체를 이용하여 구현될 수 있으며, 미리 학습된 촉각 모사 모델(TM)을 저장할 수 있다. 촉각 모사 모델(TM)은 학습이 완료된 모델일 수 있으며, 학습 과정에 있는 모델일 수도 있다. 선택적 실시 예로, 메모리(150)가 필요 연산 수행에 필요한 촉각 모사 모델(TM)의 데이터만 저장하고, 외부 기기에 저장된 추가 데이터가 필요 시점에 수신되어 연산에 이용될 수도 있다.First, the memory 150 may be implemented using various semiconductors, and may store a pre-trained tactile simulation model TM. The tactile simulation model (TM) may be a model in which learning has been completed, or may be a model in the learning process. In an optional embodiment, the memory 150 may store only the data of the tactile simulation model TM necessary for performing the necessary operation, and additional data stored in the external device may be received at a necessary time and used for the operation.

촉각 모사 모델(TM)은 소정의 사용자 또는 사용자 그룹에 매핑된 촉각 레벨에 대응하는 촉각 정보를 출력하도록 이미 학습된 신경망 기반의 모델일 수 있다. The tactile simulation model TM may be a neural network-based model already trained to output tactile information corresponding to a tactile level mapped to a predetermined user or user group.

여기서, 사용자에 매핑된 촉각 레벨은 해당 사용자의 촉각을 소정 수준(가령, 유사도 5% 범위 내)에서 모사한 촉각 레벨(촉각 감지 수준)이며, 사용자 그룹에 매핑된 촉각 레벨은 소정 범위 내에서 동일 또는 유사한 촉각 레벨을 지닌 사용자 그룹의 촉각 레벨(촉각 감지 수준)일 수 있다.Here, the tactile level mapped to the user is a tactile level (tactile sense level) that simulates the user's tactile sense at a predetermined level (for example, within a 5% similarity range), and the tactile sense level mapped to the user group is the same within a predetermined range. Alternatively, it may be a tactile level (tactile sense level) of a group of users having a similar tactile level.

또한, 촉각 정보는 특정 감지 타깃의 결정된 경도 정보 및 거칠기 정보일 수 있으며, 이를 표현한 확률 분포 정보를 포함할 수 있다. 확률 분포 정보는 히스토그램으로 표현될 수 있으며, 특정 감지 타깃의 부드러운 정도 및 거친 정도를 나타낼 수 있다.In addition, the tactile information may be determined hardness information and roughness information of a specific detection target, and may include probability distribution information expressing them. The probability distribution information may be expressed as a histogram, and may indicate a degree of smoothness and a degree of roughness of a specific detection target.

제어부(190)는 감지 타깃(Target)으로부터 획득한 시계열적 터치 신호 및 슬라이딩 신호를 촉각 모사 모델(TM)에 입력하여, 소정의 사용자 또는 사용자 그룹에 매핑된 촉각 레벨에 대응하는 촉각 정보를 제공할 수 있다. The controller 190 inputs the time-series touch signal and the sliding signal obtained from the detection target to the tactile simulation model TM to provide tactile information corresponding to the tactile level mapped to a predetermined user or user group. can

도 3은 본 발명의 일 실시 예에 따른 촉각 센서를 탑재한 촉각 감지 장치(100)(100B)의 구성을 나타내는 블록도이다. 도 3에 도시된 촉각 감지 장치(100)(100B)는 연산 수행뿐만 아니라, 감지 타깃으로 촉각 정보를 다이렉트로 수집하는 장치일 수 있다.3 is a block diagram illustrating the configuration of the tactile sensing apparatuses 100 and 100B on which the tactile sensor is mounted according to an embodiment of the present invention. The tactile sensing devices 100 and 100B illustrated in FIG. 3 may be devices that not only perform calculations but also directly collect tactile information as a sensing target.

촉각 감지 장치(100)는 촉각 센서(110), 로봇 암(120), 디스플레이(130), 촉각 모사 모델(TM)을 저장한 메모리(150) 및 제어부(190)를 포함할 수 있다.The tactile sensing apparatus 100 may include a tactile sensor 110 , a robot arm 120 , a display 130 , a memory 150 storing a tactile simulation model TM , and a controller 190 .

촉각 센서(110)는 촉각을 감지하는 센서로, 로봇 암(120)의 소정 위치에 배치될 수 있다. 실시 예에서, 촉각 센서(110)는 로봇 암(120)의 손(Hand) 영역에 배치될 수 있다.The tactile sensor 110 is a sensor that senses a tactile sense, and may be disposed at a predetermined position of the robot arm 120 . In an embodiment, the tactile sensor 110 may be disposed in a hand region of the robot arm 120 .

로봇 암(120, Arm)은 촉각 센서(110)를 물리적으로 이동시킬 수 있는 모듈로, 제어부(190)의 제어 신호에 따라 구동될 수 있다.The robot arm 120 (Arm) is a module capable of physically moving the tactile sensor 110 , and may be driven according to a control signal of the controller 190 .

제어부(190)는 촉각 센서(110)가 감지 타깃에 압력을 가하여 시계열적 터치 신호를 획득하도록 로봇 암(120)을 제어할 수 있다. 시계열적 터치 신호는 감지 타깃의 딱딱함 정도 즉, 경도(Hardness)를 측정한 시계열적 전압값에 관련된 신호일 수 있다.The controller 190 may control the robot arm 120 so that the tactile sensor 110 applies pressure to the detection target to obtain a time-series touch signal. The time-series touch signal may be a signal related to a time-series voltage value obtained by measuring the hardness of the sensing target, that is, hardness.

또한, 제어부(190)는 촉각 센서(110)가 감지 타깃에 터치된 상태로 수평 이동하여 슬라이딩 신호를 획득하도록 로봇 암(120)을 제어할 수 있다. 즉, 슬라이딩 신호는 촉각 센서(110)가 감지 타깃의 표면을 소정의 속도 및 소정의 세기에 따라 터치된 상태로 수평 이동하면서 측정한, 울퉁불퉁 정도 즉, 표면 거칠기에 대한 신호일 수 있다.Also, the controller 190 may control the robot arm 120 to obtain a sliding signal by horizontally moving the tactile sensor 110 while being touched by the detection target. That is, the sliding signal may be a signal for the degree of bumpiness, ie, surface roughness, measured while the tactile sensor 110 horizontally moves the surface of the detection target in a touched state according to a predetermined speed and a predetermined intensity.

다만, 제어부(190)는 촉각 모사 모델(TM)에 슬라이딩 신호를 입력할 때, 수평 방향으로 이동하면서 획득한 전압값이 아닌, 획득한 전압값을 푸리에 변환(Fourier Transform)하여(주파수 도메인 상의 값으로 변환하여) 입력할 수 있다. 이는, 사람의 촉감이 인지할 수 있는 진동 주파수 범위(가령, 1KHz 내)의 신호만 획득하기 위함이며, 콤플렉스(Complex)를 달성하기 위함이기도 하며, 거칠기 정보의 취득을 보다 효과적으로 하기 위함이다.However, when inputting a sliding signal to the tactile simulation model TM, the controller 190 performs Fourier transform on the obtained voltage value, not the voltage value obtained while moving in the horizontal direction (value in the frequency domain). ) can be entered. This is to acquire only a signal of a vibration frequency range (eg, within 1 KHz) that can be perceived by human touch, to achieve a complex, and to more effectively acquire roughness information.

촉각 감지 장치(100)는 디스플레이(130)를 포함할 수 있다. 디스플레이(130)는 다양한 정보를 출력할 수 있는 모듈인데, 제어부(190)는 소정의 사용자 또는 사용자 그룹에 대한 정보 및 촉각 정보를 디스플레이(130)를 통해 출력할 수 있다.The tactile sensing apparatus 100 may include a display 130 . The display 130 is a module capable of outputting various information, and the controller 190 may output information and tactile information about a predetermined user or user group through the display 130 .

메모리(150)는 상술한 바와 같이 촉각 모사 모델(TM)을 저장하는데, 촉각 모사 모델(TM)은 소정의 사용자 또는 사용자 그룹에 매핑된 촉각 레벨에 대응하는 촉각 정보를 레이블(Label) 정보로 사용하여 훈련될 수 있다. The memory 150 stores the simulated tactile model TM as described above. The simulated tactile model TM uses tactile information corresponding to a tactile level mapped to a predetermined user or user group as label information. can be trained

도 4는 본 발명의 일 실시 예에 따른 학습 단계에서 촉각 모사 모델(TM)에 입력되는 레이블 정보를 설명하기 위한 도면이다.4 is a diagram for explaining label information input to a tactile simulation model (TM) in a learning step according to an embodiment of the present invention.

도 4를 참고하면, 감지 타깃(N1, N2~NZ)은 제1 감지 타겟(N1)이 가장 부드럽고(Soft), 제Z 감지 타깃(NZ)이 가장 거칠다(Rough). 감지 타깃(N1~NZ)의 촉각을 감지하는 사용자는 복수이며, 사용자 별로 제1 감지 타깃(N1) 내지 제Z 감지 타깃(NZ)을 만질 수 있다. Referring to FIG. 4 , in the detection targets N1 and N2 to NZ, the first detection target N1 is the softest and the Z-th detection target NZ is the roughest. A plurality of users sense the tactile sense of the detection targets N1 to NZ, and each user may touch the first detection target N1 to the Z-th detection target NZ.

여기서, 제1 감지 타깃(N1) 내지 제Z 감지 타깃(NZ)을 한번 만지는 것을 1 트라이얼이라 할 수 있다. 사용자는 N 트라이얼에 대해 반복(1T~NT)할 수 있다. 상기 제1 감지 타깃(N1) 내지 제 N 감지 타깃(NZ)은 LMT Haptic Texture 일 수 있으나, 선택적 실시 예로, 다른 재료로 구현될 수 있다.Here, touching the first detection target N1 to the Z-th detection target NZ once may be referred to as one trial. The user can repeat (1T~NT) for N trials. The first sensing target N1 to the Nth sensing target NZ may be an LMT haptic texture, but in an optional embodiment, they may be implemented with other materials.

선택적 실시 예로, 사용자는 제1 감지 타깃(N1)부터 제Z 감지 타깃(NZ)까지 소정 속도 및 소정 세기로 순차적으로 감지 타깃을 만질 수 있다. 또는, 사용자는 제1 감지 타깃(N1) 내지 제Z 감지 타깃(NZ)을 무작위 순서로 만질 수 있다.In an optional embodiment, the user may sequentially touch the detection target from the first detection target N1 to the Z-th detection target NZ at a predetermined speed and a predetermined intensity. Alternatively, the user may touch the first detection target N1 to the Z-th detection target NZ in a random order.

사용자는 특정 감지 타깃(가령, N3)에 대해 N번 만지는 테스트를 수행할 수 있으며, 트라이얼마다 동일 또는 다른 결과에 따라, 이를 히스토그램(Hist)으로 표시될 수 있다. 히스토그램(Hist)은 특정 사용자(또는 사용자 그룹)의 특정 감지 타깃(가령, N3)에 대한 촉각 레벨을 확률 분포로 나타낸 것일 수 있다.The user may perform the N touch test on a specific detection target (eg, N3 ), and according to the same or different results for each trial, this may be displayed as a histogram. The histogram may represent a tactile level for a specific detection target (eg, N3 ) of a specific user (or user group) as a probability distribution.

촉감 감지 장치(100)는 사용자(또는 사용자 그룹) 별 촉각 레벨에 대응하는 촉각 정보를 출력하도록 사용자(또는 사용자 그룹)에 매핑되는 촉각 모사 모델(TM)을 훈련(학습)시킬 수 있다.The tactile sensing apparatus 100 may train (learn) a tactile simulation model TM mapped to a user (or user group) to output tactile information corresponding to a tactile level for each user (or user group).

즉, 촉감 감지 장치(100)는 각 사용자(또는 사용자 그룹) 별 촉각 레벨을 모사하여 해당 사용자의 촉각 능력을 모사할 수 있다. 이에 따라, 사용자 맞춤형 촉각 감지가 수행될 수 있으므로, 사용자 편의가 제고될 수 있으며, 촉각 신뢰도가 향상될 수 있다. That is, the tactile sensing apparatus 100 may simulate the tactile level of each user (or user group) to simulate the tactile ability of the corresponding user. Accordingly, since user-customized tactile sensing can be performed, user convenience can be improved, and tactile reliability can be improved.

도 5는 본 발명의 일 실시 예에 따른 촉각 모사 모델(TM)의 작동을 설명하기 위한 알고리즘을 나타낸다.5 shows an algorithm for explaining the operation of the tactile simulation model (TM) according to an embodiment of the present invention.

촉각 모사 모델(TM)은 지도 학습(Supervised Learning) 기반의 신경망 모델일 수 있으며, 제1 서브 네트워크(1S), 제2 서브 네트워크(2S) 및 제3 서브 네트워크(3S)를 포함할 수 있다.The tactile simulation model TM may be a supervised learning-based neural network model, and may include a first subnetwork 1S, a second subnetwork 2S, and a third subnetwork 3S.

먼저, 제1 서브 네트워크(1S)는 시계열적 터치 신호(가령, 전압값)를 입력받아, 시계열적 터치 신호의 전압 기울기를 획득하기 위한 서브 네트워크일 수 있다. 제1 서브 네트워크(1S)는 터치 신호의 전압값이 높을수록 경도값이 높아지는 성질을 이용하는 신경망 기반의 네트워크이다. 즉, 터치 신호의 전압값이 높을수록 단단한 재료이며, 제1 서브 네트워크(1S)는 이를 결정할 수 있다.First, the first sub-network 1S may be a sub-network for receiving a time-series touch signal (eg, a voltage value) to obtain a voltage gradient of the time-series touch signal. The first sub-network 1S is a neural network-based network using a property that the hardness value increases as the voltage value of the touch signal increases. That is, the higher the voltage value of the touch signal, the harder the material, and the first subnetwork 1S may determine this.

제1 서브 네트워크(1S)는 1 차원의 컨볼루션 레이어 및 맥스 풀링 레이어를 포함할 수 있는데, 제1 서브 네트워크(1S)는 전압값의 기울기만 확인하면 되므로, 특징 추출에 있어 간단한 구조만을 포함한 것이다. 여기서, 맥스 풀링 레이어는 피크 전압값을 효율적으로 구하기 위한 레이어이다.The first subnetwork 1S may include a one-dimensional convolution layer and a max pooling layer. Since the first subnetwork 1S only needs to check the slope of the voltage value, it includes only a simple structure in feature extraction. . Here, the max pulling layer is a layer for efficiently obtaining a peak voltage value.

제2 서브 네트워크(2S)는 입력되는 주파수 신호에 기초하여, 감지 타깃의 표면 거칠기 정보를 추출하기 위한 서브 네트워크이며, DNN(Deep Neural Network, 심층 신경망 네트워크)으로 구성될 수 있다.The second subnetwork 2S is a subnetwork for extracting surface roughness information of a detection target based on an input frequency signal, and may be configured as a deep neural network (DNN).

제2 서브 네트워크(2S)는 슬라이딩 신호를 입력받을 때, 문지르는 입력을 보다 수월하게 구별하고, 복잡함을 해결하며, 사람의 촉감이 감지할 수 있는 진동 주파수의 범위를 구별하도록, 측정되는 전압값을 주파수 도메인으로 변환하는 푸리에 트랜스폼을 적용하여 값을 추출할 수 있다. 또한, 추출된 슬라이딩 신호가 제2 서브 네트워크(2S)에 입력될 수 있다.When receiving a sliding signal, the second subnetwork 2S sets the measured voltage value so as to more easily distinguish the rubbing input, solve the complexity, and distinguish the range of vibration frequencies that can be sensed by the human touch. Values can be extracted by applying a Fourier transform that transforms into the frequency domain. In addition, the extracted sliding signal may be input to the second subnetwork 2S.

제3 서브 네트워크(3S)는 제1 서브 네트워크(1S)의 출력값 및 제2 서브 네트워크(2S)의 출력값을 입력받으며, 제1 서브 네트워크(1S) 및 제2 서브 네트워크(2S)를 통합할 수 있다.The third subnetwork 3S receives the output value of the first subnetwork 1S and the output value of the second subnetwork 2S, and can integrate the first subnetwork 1S and the second subnetwork 2S. have.

제3 서브 네트워크(3S)는 소정의 사용자 또는 사용자 그룹에 매핑된 촉각 레벨에 대응하는 촉각 정보를 보다 정교하게 구분하기 위한 서브 네트워크이며, 특히, 슬라이딩 신호를 보다 정교하게 구분하기 위해, 두 번??의 풀리 커넥티드(Fully Connected) 신경망을 포함할 수 있다.The third sub-network 3S is a sub-network for more precisely discriminating tactile information corresponding to a tactile level mapped to a predetermined user or user group. It may include a fully connected neural network of ?

촉각 모사 모델(TM)은 소정의 사용자 또는 사용자 그룹에 매핑된 촉각 레벨에 대응하는 촉각 정보를 출력하도록, 제1 서브 네트워크(1S) 내지 제3 서브 네트워크(3S)의 파라미터가 반복 구간 마다 업데이트될 수 있다. 상기 파라미터는 CNN 알고리즘 또는 DNN 알고리즘의 파라미터이며, 반복시마다 업데이트될 수 있으며, 마지막 반복시(EPOC)까지 업데이트될 수 있다.The tactile simulation model TM is to output tactile information corresponding to a tactile level mapped to a predetermined user or user group, so that the parameters of the first sub-network 1S to the third sub-network 3S are updated at each repetition interval. can The parameter is a parameter of the CNN algorithm or the DNN algorithm, and may be updated at every iteration, and may be updated until the last iteration (EPOC).

촉각 모사 모델(TM)은 사용자에 매핑하는 촉각 레벨(특정 감지 타깃에 대해 특정 감지 특성을 갖는 레벨)에 대응하는 촉각 정보를 제공할 수 있다. 촉각 정보는 확률 분포에 기반하여 제공될 수 있다.The tactile simulation model TM may provide tactile information corresponding to a tactile level mapped to a user (a level having a specific sensing characteristic with respect to a specific sensing target). The tactile information may be provided based on a probability distribution.

또한, 촉각 감지 장치(100)는 출력된 사용자(또는 사용자 그룹)에 매핑된 촉각 레벨에 대응하는 촉각 정보를 촉각 재현 장치에 제공할 수 있으며, 해당 촉각 재현 장치가 해당 촉각 정보를 출력하도록, 경도 정보 및 진동 주파수 정보를 제공할 수 있다.In addition, the tactile sensing apparatus 100 may provide tactile information corresponding to the tactile level mapped to the output user (or user group) to the tactile reproducing apparatus, and the tactile reproducing apparatus outputs the corresponding tactile information. information and vibration frequency information.

촉각 모사 모델(TM)은 사용자의 촉각 레벨에 대응하는 촉각 정보와 촉감 감지 장치(100)가 사용자를 모사하여 촉각 정보를 출력할 때, 두 촉각 정보의 비교 Tolerance 를 설정할 수 있으며, 해당 Tolerance 에 부합하도록 촉감 감지 장치(100)의 촉각 정보가 사용자의 촉각 정보를 따라가도록 설정할 수 있으며, 관련 파라미터가 반복적으로 업데이트될 수 있다.In the tactile simulation model TM, when the tactile information corresponding to the user's tactile level and the tactile sensing device 100 simulates the user and outputs the tactile information, the comparison tolerance of the two tactile information can be set, and the tolerance is met. Thus, the tactile information of the tactile sensing apparatus 100 may be set to follow the user's tactile information, and related parameters may be repeatedly updated.

도 6(a) 내지 도 6(c)는 본 발명의 다양한 실시 예에 따른 복수 참가자의 촉각 결정을 설명하기 위한 도면들이다. 구체적으로, 도 6(a)는 본 발명의 일 실시 예에 따른 복수의 감지 타깃을 감지한 복수 사용자 각각이 제공한 촉각 정보의 평균을 나타내며, 도 6(b)는 본 발명의 일 실시 예에 따른 복수 참가자 전체의 촉각 결정에 대한 평균 제곱근 편차(RMSE) 대비 복수 참가자 각각의 RMSE를 함께 도시한 그래프이고, 도 6(c)는 본 발명의 일 실시 예에 따른 사용자 그룹 별 촉각 결정 표준 편차를 나타내는 그래프이다.6A to 6C are diagrams for explaining a tactile determination of a plurality of participants according to various embodiments of the present disclosure. Specifically, FIG. 6(a) shows the average of tactile information provided by each of a plurality of users who have sensed a plurality of detection targets according to an embodiment of the present invention, and FIG. 6(b) is an embodiment of the present invention. It is a graph showing the RMSE of each of a plurality of participants together with respect to the root mean square deviation (RMSE) of the tactile determination of all the participants according to the present invention. It is a graph representing

도 6(a)에서 복수의 참가자 각각은 복수의(가령, 42 종류) 감지 타깃을 멀티 트라이얼에 기반하여 촉각 감지 테스트할 수 있다. 복수의 참가자는 촉각 정보가 서로 다른 감지 타깃을 몇 번째의 감지 타깃으로 설정하는지 실험할 수 있다. 가령, 제1 참가자는 25 번째 경도와 거칠기를 갖는 감지 타겟을 23 번째 내지 27 번째로 결정한 것으로 가정하면, Tolerance를 2 로 설정하면, 이는 정답이나, Tolerance 가 1로 설정되면, 범위를 벗어난 감지일 수 있다. 또한, 중복되는 스코어는 그래프 상에 색상 차이로 구분될 수 있다.In FIG. 6( a ) , each of a plurality of participants may perform a tactile sensing test on a plurality of (eg, 42 types) detection targets based on a multi-trial. A plurality of participants may experiment with how many detection targets with different tactile information are set as detection targets. For example, assuming that the first participant decides the detection target with the 25th hardness and roughness from the 23rd to the 27th, if the Tolerance is set to 2, this is the correct answer, but if the Tolerance is set to 1, the detection date is out of range. can In addition, overlapping scores may be distinguished by a color difference on the graph.

도 6(b)를 참고하면, 촉각 결정에 대한 RMSE는 아래 [식 1]으로 도출될 수 있다. 여기서,

Figure pat00001
는 촉각 결정 정보이며, i 는 l 번째까지 수행하는 실험(Trial) 인덱스이며, s는 참가자의 수(S)이며, m은 감지 타깃의 수(M)이다. k는 최대 K이며, m 또는 s 나타낼 수 있다.Referring to FIG. 6(b) , the RMSE for the tactile determination may be derived by [Equation 1] below. here,
Figure pat00001
is the tactile determination information, i is the trial index performed up to the lth, s is the number of participants (S), and m is the number of detection targets (M). k is at most K, and can be represented by m or s.

[식 1][Equation 1]

Figure pat00002
Figure pat00002

도 6(b)를 참고하면, 참가자의 평균 촉각 결정 RMSE 를 기준으로 S 그룹 및 D 그룹으로 구분될 수 있다. S 그룹은 사용자의 대다수를 차지하는 그룹일 수 있으며, D 그룹은 S 그룹과 소정 범위 내에서 차이를 두는 그룹일 수 있다.Referring to FIG. 6(b) , it can be divided into S group and D group based on the participant's average tactile determination RMSE. The S group may be a group occupying the majority of users, and the D group may be a group having a difference from the S group within a predetermined range.

도 6(c)를 참고하면, S 그룹 및 D 그룹의 촉각 결정 정보의 표준 편차가 다르게 산출될 수 있다. 대체로, 거칠거나 부드러운 감지 타깃에서는 유사한 패턴을 보이나, 거칠수도 부드러울 수도 있는 감지 타깃에서는 패턴이 편차를 이룰 수 있다. 즉, 복수 참가자가 거칠기 정보를 헷갈릴 수 있는 너무 거칠거나 너무 부드럽지 않은 재료들에서 촉각 결정에 있어 편차가 클 수 있다. Referring to FIG. 6C , standard deviations of tactile determination information of the S group and the D group may be calculated differently. In general, a similar pattern will be seen on a rough or smooth sensing target, but the pattern may deviate from a sensing target that may be rough or soft. That is, there can be large variance in tactile determination in materials that are not too rough or too soft, where multiple participants may confuse roughness information.

도 7은 본 발명의 일 실시 예에 따른 Tolerance 범위의 변화에 따른 정확도의 변화를 설명하기 위한 도면이다.7 is a view for explaining a change in accuracy according to a change in a tolerance range according to an embodiment of the present invention.

도 7을 참고하면, Tolerance 의 범위가 넓게 설정될수록 사용자 촉각 결정의 정확도, 레이블 정보의 정확도 및 히스토그램의 정확도가 높게 설정될 수 있다.Referring to FIG. 7 , as the range of tolerance is set wider, the accuracy of the user's tactile determination, the accuracy of the label information, and the accuracy of the histogram may be set higher.

아울러, Tolerance 의 범위가 넓게 설정될수록 사용자 촉각 결정의 정확도, 레이블 정보의 정확도 및 히스토그램의 정확도가 유사하게 수렴되는 것도 관찰될 수 있다. In addition, it can be observed that the accuracy of the user's tactile determination, the accuracy of the label information, and the accuracy of the histogram converge similarly as the range of tolerance is set wider.

도 8은 본 발명의 일 실시 예에 따른 학습 전후로 사용자 및 사용자에 대응하는 촉각 감지 장치의 촉각 결정을 비교한 그래프이다.8 is a graph comparing tactile determinations of a user and a tactile sensing device corresponding to the user before and after learning according to an embodiment of the present invention.

일단, 복수 참가자의 촉각 정보(촉각 결정 정보) 및 촉각 감지 장치의 촉각 정보(촉각 결정 정보)의 차이를 나타내는 RMSE 는 아래 [식 2]와 같이 도출될 수 있다. 여기서,

Figure pat00003
는 촉감 감지 장치(100)가 제공하는 촉감 정보(촉감 결정 정보)이다.First, the RMSE representing the difference between the tactile information (tactile determination information) of a plurality of participants and the tactile information (tactile determination information) of the tactile sensing device can be derived as shown in [Equation 2] below. here,
Figure pat00003
is tactile information (tactile determination information) provided by the tactile sensing apparatus 100 .

[식 2][Equation 2]

Figure pat00004
Figure pat00004

도 8을 참고하면, 학습 이전의 사이즈 재료 및 중간 재료의 촉각 결정에 대한 RMSE 는 높게 측정되나, 학습 이후의 사이즈 재료 및 중간 재료의 촉각 결정에 대한 RMSE 는 이보다 낮게 측정될 수 있다.Referring to FIG. 8 , the RMSE for the tactile determination of the size material and the intermediate material before learning is high, but the RMSE for the tactile determination of the size material and the intermediate material after learning may be measured lower than this.

즉, 본 발명의 일 실시 예에 따른 기 학습된 촉각 모사 모델(TM)이 적용되면, 촉각 정보(촉각 결정 정보)가 보다 정확해질 수 있다.That is, when the pre-learned tactile simulation model TM according to an embodiment of the present invention is applied, tactile information (tactile determination information) may be more accurate.

도 9는 본 발명의 일 실시 예에 따른 촉각 감지 방법을 설명하기 위한 시퀀스도이다.9 is a sequence diagram illustrating a tactile sensing method according to an embodiment of the present invention.

촉각 감지 방법은 촉각 감지 장치(100)의 제어부(190)에 의해 수행될 수 있으며, 제어부(190)는 하나 이상의 프로세서를 포함할 수 있다.The tactile sensing method may be performed by the controller 190 of the tactile sensing apparatus 100 , and the controller 190 may include one or more processors.

촉각 감지 방법은 감지 타깃(Target)으로부터 획득한 시계열적 터치 신호 및 슬라이딩 신호를 기 학습된 촉각 모사 모델에 입력한다(S910).In the tactile sensing method, a time-series touch signal and a sliding signal obtained from a sensing target are input to a pre-learned tactile simulation model (S910).

그 다음, 촉각 감지 방법은 소정의 사용자 또는 사용자 그룹에 매핑된 촉각 레벨에 대응하는 촉각 정보를 제공한다(S920).Next, the tactile sensing method provides tactile information corresponding to a tactile level mapped to a predetermined user or user group (S920).

S910 단계 이전에, 촉각 감지 방법은 촉각 센서를 이용하여 감지 타깃에 압력을 가하여, 시계열적 터치 신호를 획득한다(S901). 그 후에, 촉각 감지 방법은 촉각 센서가 감지 타깃에 터치된 상태로 수평 이동하여, 슬라이딩 신호를 획득한다(S903). 상기 S901 단계 및 S903 단계는 동시에 또는 순서를 달리하여 수행될 수 있다.Before step S910, the tactile sensing method applies pressure to the sensing target using a tactile sensor to obtain a time-series touch signal (S901). After that, in the tactile sensing method, the tactile sensor moves horizontally while being touched by the sensing target to obtain a sliding signal (S903). Steps S901 and S903 may be performed simultaneously or in a different order.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한, 컴퓨터는 촉각 감지 장치(100)의 제어부(190)를 포함할 수도 있다. The present invention described above can be implemented as computer-readable code on a medium in which a program is recorded. The computer-readable medium includes all kinds of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. Also, the computer may include the control unit 190 of the tactile sensing apparatus 100 .

앞에서, 본 발명의 특정한 실시예가 설명되고 도시되었지만 본 발명은 기재된 실시예에 한정되는 것이 아니고, 이 기술 분야에서 통상의 지식을 가진 자는 본 발명의 사상 및 범위를 벗어나지 않고서 다른 구체적인 실시예로 다양하게 수정 및 변형할 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 범위는 설명된 실시예에 의하여 정하여 질 것이 아니고 청구범위에 기재된 기술적 사상에 의해 정하여져야 할 것이다.In the foregoing, specific embodiments of the present invention have been described and illustrated, but the present invention is not limited to the described embodiments, and those of ordinary skill in the art may make various changes to other specific embodiments without departing from the spirit and scope of the present invention. It will be appreciated that modifications and variations are possible. Accordingly, the scope of the present invention should not be defined by the described embodiments, but should be defined by the technical idea described in the claims.

Claims (18)

촉각 감지 장치로서,
기 학습된 촉각 모사 모델을 저장하는 메모리; 및
감지 타깃(Target)으로부터 획득한 시계열적 터치 신호 및 슬라이딩 신호를 상기 촉각 모사 모델에 입력하여, 소정의 사용자 또는 사용자 그룹에 매핑된 촉각 레벨에 대응하는 촉각 정보를 제공하는 제어부를 포함하는, 촉각 감지 장치.
A tactile sensing device comprising:
a memory for storing the pre-trained tactile simulation model; and
Tactile sensing, comprising a control unit that inputs a time-series touch signal and a sliding signal obtained from a detection target into the tactile simulation model and provides tactile information corresponding to a tactile level mapped to a predetermined user or user group; Device.
제1항에 있어서,
촉각 센서; 및
상기 촉각 센서가 소정의 위치에 배치되며, 상기 촉각 센서를 물리적으로 이동시키는 로봇 암(Arm)을 더 포함하며,
상기 제어부는,
상기 촉각 센서가 감지 타깃에 압력을 가하여 시계열적 터치 신호를 획득하도록 상기 로봇 암을 제어하고, 상기 촉각 센서가 상기 감지 타깃에 터치된 상태로 수평 이동하여 슬라이딩 신호를 획득하도록 상기 로봇 암을 제어하도록 구성되는, 촉각 감지 장치.
According to claim 1,
tactile sensor; and
The tactile sensor is disposed at a predetermined position, further comprising a robot arm (Arm) for physically moving the tactile sensor,
The control unit is
Control the robot arm so that the tactile sensor applies pressure to the detection target to obtain a time-series touch signal, and controls the robot arm to obtain a sliding signal by horizontally moving the tactile sensor while being touched on the detection target Consisting of a tactile sensing device.
제1항에 있어서,
상기 시계열적 터치 신호는 상기 감지 타깃의 경도(Hardness)를 측정하기 위한 시계열적 전압값에 관련되고,
상기 슬라이딩 신호는,
상기 감지 타깃의 표면 거칠기 정보를 추출하기 위해, 측정된 전압값이 주파수 신호로 푸리에 변환(Fourier Transform)되어 상기 촉각 모사 모델에 입력되는, 촉감 감지 장치.
According to claim 1,
The time-series touch signal is related to a time-series voltage value for measuring the hardness of the sensing target,
The sliding signal is
In order to extract the surface roughness information of the sensing target, the measured voltage value is Fourier transformed into a frequency signal and input to the tactile simulation model.
제1항에 있어서,
상기 촉각 모사 모델은,
소정의 사용자 또는 사용자 그룹에 매핑된 촉각 레벨에 대응하는 촉각 정보를 레이블(Label) 정보로 사용하여 훈련되는, 촉감 감지 장치.
According to claim 1,
The tactile simulation model is,
A tactile sensing device, which is trained by using tactile information corresponding to a tactile level mapped to a predetermined user or user group as label information.
제1항에 있어서,
상기 촉각 모사 모델은 지도 학습 기반의 신경망 모델이며, 제1 내지 제3 서브 네트워크를 포함하며,
상기 제1 서브 네트워크의 출력값 및 상기 제2 서브 네트워크의 출력값이 상기 제3 서브 네트워크의 입력값으로 사용되며,
소정의 사용자 또는 사용자 그룹에 매핑된 촉각 레벨에 대응하는 촉각 정보를 출력하도록, 상기 제1 서브 네트워크 내지 제3 서브 네트워크의 파라미터가 반복 구간 마다 업데이트되는, 촉감 감지 장치.
According to claim 1,
The tactile simulation model is a supervised learning-based neural network model, and includes first to third subnetworks,
an output value of the first subnetwork and an output value of the second subnetwork are used as an input value of the third subnetwork;
The tactile sensing apparatus, wherein parameters of the first to third subnetworks are updated for each repetition interval so as to output tactile information corresponding to a tactile level mapped to a predetermined user or user group.
제5항에 있어서,
상기 제1 서브 네트워크는,
시계열적 터치 신호의 전압 기울기를 획득하기 위한 서브 네트워크이며, 1차원 컨볼루션 레이어 및 맥스 풀링 레이어를 포함하는, 촉감 감지 장치.
6. The method of claim 5,
The first subnetwork is
A tactile sensing device, which is a subnetwork for obtaining a voltage gradient of a time-series touch signal, and includes a one-dimensional convolutional layer and a max pooling layer.
제6항에 있어서,
상기 제2 서브 네트워크는,
입력되는 주파수 신호에 기초하여, 감지 타깃의 표면 거칠기 정보를 추출하기 위한 서브 네트워크이며, DNN(Deep Neural Network)으로 구성되는, 촉감 감지 장치.
7. The method of claim 6,
The second subnetwork,
A tactile sensing device, comprising: a sub-network for extracting surface roughness information of a sensing target based on an input frequency signal, and configured of a deep neural network (DNN).
제7항에 있어서,
상기 제3 서브 네트워크는,
상기 제1 서브 네트워크 및 상기 제2 서브 네트워크를 통합하는 서브 네트워크이며,
소정의 사용자 또는 사용자 그룹에 매핑된 촉각 레벨에 대응하는 촉각 정보를 보다 정교하게 구분하기 위한 서브 네트워크인, 촉감 감지 장치.
8. The method of claim 7,
The third subnetwork,
a sub-network integrating the first sub-network and the second sub-network;
A tactile sensing apparatus, which is a sub-network for more precisely classifying tactile information corresponding to a tactile level mapped to a predetermined user or user group.
제1항에 있어서,
디스플레이를 더 포함하며,
상기 촉각 모사 모델이 출력하는 촉각 정보는, 소정의 사용자 또는 사용자 그룹에 매핑된 촉각 레벨에 대응하는 촉각 정보를 나타내는 확률 분포를 포함하며,
상기 제어부는,
상기 소정의 사용자 또는 사용자 그룹에 대한 정보 및 상기 촉각 정보를 상기 디스플레이를 통해 출력하도록 구성되는, 촉각 감지 장치.
According to claim 1,
further comprising a display,
The tactile information output by the tactile simulation model includes a probability distribution indicating tactile information corresponding to a tactile level mapped to a predetermined user or user group,
The control unit is
and outputting information on the predetermined user or user group and the tactile information through the display.
프로세서에 의해 수행되는 촉각 감지 방법으로서,
감지 타깃(Target)으로부터 획득한 시계열적 터치 신호 및 슬라이딩 신호를 기 학습된 촉각 모사 모델에 입력하는 단계; 및
소정의 사용자 또는 사용자 그룹에 매핑된 촉각 레벨에 대응하는 촉각 정보를 제공하는 단계를 포함하는, 촉각 감지 방법.
A tactile sensing method performed by a processor, comprising:
inputting a time-series touch signal and a sliding signal obtained from a detection target into a pre-trained tactile simulation model; and
A tactile sensing method comprising the step of providing tactile information corresponding to a tactile level mapped to a predetermined user or user group.
제10항에 있어서,
상기 입력하는 단계 이전에,
촉각 센서를 이용하여 감지 타깃에 압력을 가하여, 시계열적 터치 신호를 획득하는 단계; 및
상기 촉각 센서가 상기 감지 타깃에 터치된 상태로 수평 이동하여, 슬라이딩 신호를 획득하는 단계를 더 포함하는, 촉각 감지 방법.
11. The method of claim 10,
Before the input step,
obtaining a time-series touch signal by applying pressure to a detection target using a tactile sensor; and
The tactile sensing method further comprising the step of obtaining a sliding signal by horizontally moving the tactile sensor while being touched by the detection target.
제10항에 있어서,
상기 시계열적 터치 신호는 상기 감지 대상의 경도(Hardness)를 측정하기 위한 시계열적 전압값에 관련되고,
상기 슬라이딩 신호는,
상기 감지 대상의 표면 거칠기 정보를 추출하기 위해, 측정된 전압값이 주파수 신호로 푸리에 변환(Fourier Transform)되어 상기 촉각 모사 모델에 입력되는, 촉각 감지 방법.
11. The method of claim 10,
The time-series touch signal is related to a time-series voltage value for measuring the hardness of the sensing target,
The sliding signal is
In order to extract the surface roughness information of the sensing target, the measured voltage value is Fourier transformed into a frequency signal and input to the tactile simulation model.
제10항에 있어서,
상기 촉각 모사 모델은,
소정의 사용자 또는 사용자 그룹에 매핑된 촉각 레벨에 대응하는 촉각 정보를 레이블(Label) 정보로 사용하여 훈련되는, 촉각 감지 방법.
11. The method of claim 10,
The tactile simulation model is,
A tactile sensing method, which is trained by using tactile information corresponding to a tactile level mapped to a predetermined user or user group as label information.
제10항에 있어서,
상기 촉각 모사 모델은 지도 학습 기반의 신경망 모델이며, 제1 내지 제3 서브 네트워크를 포함하며,
상기 제1 서브 네트워크의 출력값 및 상기 제2 서브 네트워크의 출력값이 상기 제3 서브 네트워크의 입력값으로 사용되며,
소정의 사용자 또는 사용자 그룹에 매핑된 촉각 레벨에 대응하는 촉각 정보를 출력하도록, 상기 제1 서브 네트워크 내지 제3 서브 네트워크의 파라미터가 반복 구간 마다 업데이트되는, 촉각 감지 방법.
11. The method of claim 10,
The tactile simulation model is a supervised learning-based neural network model, and includes first to third subnetworks,
an output value of the first subnetwork and an output value of the second subnetwork are used as an input value of the third subnetwork;
The tactile sensing method, wherein parameters of the first to third subnetworks are updated for each repetition interval so as to output tactile information corresponding to a tactile level mapped to a predetermined user or user group.
제14항에 있어서,
상기 제1 서브 네트워크는,
시계열적 터치 신호의 전압 기울기를 획득하기 위한 서브 네트워크이며, 1차원 컨볼루션 레이어 및 맥스 풀링 레이어를 포함하는, 촉각 감지 방법.
15. The method of claim 14,
The first subnetwork is
A tactile sensing method, which is a subnetwork for obtaining a voltage gradient of a time-series touch signal, and includes a one-dimensional convolutional layer and a max pooling layer.
제15항에 있어서,
상기 제2 서브 네트워크는,
입력되는 주파수 신호에 기초하여, 감지 대상의 표면 거칠기 정보를 추출하기 위한 서브 네트워크이며, DNN(Deep Neural Network)으로 구성되는, 촉각 감지 방법.
16. The method of claim 15,
The second subnetwork,
A tactile sensing method, which is a sub-network for extracting surface roughness information of a sensing target based on an input frequency signal, and is composed of a deep neural network (DNN).
제16항에 있어서,
상기 제3 서브 네트워크는,
상기 제1 서브 네트워크 및 상기 제2 서브 네트워크를 통합하는 서브 네트워크이며,
소정의 사용자 또는 사용자 그룹에 매핑된 촉각 레벨에 대응하는 촉각 정보를 보다 정교하게 구분하기 위한 서브 네트워크인, 촉각 감지 방법.
17. The method of claim 16,
The third subnetwork,
a sub-network integrating the first sub-network and the second sub-network;
A tactile sensing method, which is a sub-network for more precisely classifying tactile information corresponding to a tactile level mapped to a predetermined user or user group.
컴퓨터상에서 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체에 있어서,
상기 프로그램은, 프로세서에 의한 실행 시, 상기 프로세서가,
감지 타깃(Target)으로부터 획득한 시계열적 터치 신호 및 슬라이딩 신호를 기 학습된 촉각 모사 모델에 입력하는 동작; 및
소정의 사용자 또는 사용자 그룹에 매핑된 촉각 레벨에 대응하는 촉각 정보를 출력하는 동작을 수행하도록 하는 실행 가능한 명령을 포함하는, 컴퓨터 판독 가능한 기록 매체.
In a computer-readable recording medium recording a program for execution on a computer,
When the program is executed by a processor, the processor
inputting a time-series touch signal and a sliding signal obtained from a detection target into a pre-trained tactile simulation model; and
A computer-readable recording medium comprising executable instructions for outputting tactile information corresponding to a tactile level mapped to a predetermined user or user group.
KR1020210052306A 2021-04-22 2021-04-22 Method and apparatus for tactile sensing Active KR102529082B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210052306A KR102529082B1 (en) 2021-04-22 2021-04-22 Method and apparatus for tactile sensing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210052306A KR102529082B1 (en) 2021-04-22 2021-04-22 Method and apparatus for tactile sensing

Publications (2)

Publication Number Publication Date
KR20220145570A true KR20220145570A (en) 2022-10-31
KR102529082B1 KR102529082B1 (en) 2023-05-03

Family

ID=83803153

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210052306A Active KR102529082B1 (en) 2021-04-22 2021-04-22 Method and apparatus for tactile sensing

Country Status (1)

Country Link
KR (1) KR102529082B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240106312A (en) * 2022-12-29 2024-07-08 경희대학교 산학협력단 Apparatus and method for haptic texture prediction

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017033381A1 (en) * 2015-08-25 2017-03-02 川崎重工業株式会社 Robot system
JP2017119336A (en) * 2015-12-28 2017-07-06 ヴイストン株式会社 Robot, robot control method and robot program
KR20180099283A (en) 2017-02-28 2018-09-05 주식회사 비햅틱스 Tactile stimulation providing method and computer readable medium
KR20190087892A (en) * 2018-01-17 2019-07-25 재단법인대구경북과학기술원 Device and Method for detecting tactile sense
KR20190089628A (en) * 2018-01-23 2019-07-31 삼성전자주식회사 Method and system for processing Neural network model using a plurality of electronic devices
KR20200020426A (en) * 2018-08-17 2020-02-26 재단법인대구경북과학기술원 Tactile sensing device, tactile sensing method and tactile learning method
KR102124844B1 (en) * 2018-12-31 2020-06-22 재단법인 대구경북과학기술원 Device, system and method for recognizing tactility
JP2021022005A (en) * 2019-07-24 2021-02-18 トヨタ紡織株式会社 Information processing device and control method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017033381A1 (en) * 2015-08-25 2017-03-02 川崎重工業株式会社 Robot system
JP2017119336A (en) * 2015-12-28 2017-07-06 ヴイストン株式会社 Robot, robot control method and robot program
KR20180099283A (en) 2017-02-28 2018-09-05 주식회사 비햅틱스 Tactile stimulation providing method and computer readable medium
KR20190087892A (en) * 2018-01-17 2019-07-25 재단법인대구경북과학기술원 Device and Method for detecting tactile sense
KR20190089628A (en) * 2018-01-23 2019-07-31 삼성전자주식회사 Method and system for processing Neural network model using a plurality of electronic devices
KR20200020426A (en) * 2018-08-17 2020-02-26 재단법인대구경북과학기술원 Tactile sensing device, tactile sensing method and tactile learning method
KR102124844B1 (en) * 2018-12-31 2020-06-22 재단법인 대구경북과학기술원 Device, system and method for recognizing tactility
JP2021022005A (en) * 2019-07-24 2021-02-18 トヨタ紡織株式会社 Information processing device and control method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240106312A (en) * 2022-12-29 2024-07-08 경희대학교 산학협력단 Apparatus and method for haptic texture prediction

Also Published As

Publication number Publication date
KR102529082B1 (en) 2023-05-03

Similar Documents

Publication Publication Date Title
Culbertson et al. Modeling and rendering realistic textures from unconstrained tool-surface interactions
KR101967415B1 (en) Localized learning from a global model
JP6566906B2 (en) Haptic CAPTCHA
RU2644520C2 (en) Non-contact input
CN104137038B (en) Smart touchscreen keyboard with finger authentication
Emgin et al. Haptable: An interactive tabletop providing online haptic feedback for touch gestures
US10423232B2 (en) Automated haptic setting generation
CN113392742A (en) Abnormal action determination method and device, electronic equipment and storage medium
JP2017529635A5 (en)
US10909224B2 (en) Information processing device, information processing method, and program for tampering detection
WO2017114062A1 (en) Terminal equipment-based fingerprint and press detection method, and application method and corresponding device thereof
CN118984985A (en) Gesture and voice controlled interface devices
KR20190140402A (en) Systems and methods for designing haptics using speech commands
KR20200056287A (en) Systems and methods for generating haptic effects based on visual characteristics
CN118917976B (en) Method and system for analyzing first aid effectiveness based on simulated human
KR102529082B1 (en) Method and apparatus for tactile sensing
CN109448131B (en) Kinect-based virtual piano playing system construction method
CN116051917A (en) Method for training image quantization model, method and device for searching image
KR20130067856A (en) Apparatus and method for performing virtual musical instrument on the basis of finger-motion
KR20180129301A (en) Method and apparatus for emulating behavior of robot
CN115699018A (en) Computer-implemented or hardware-implemented entity recognition method, computer program product and device for entity recognition
Junput et al. Touch it, rub it, feel it! Haptic rendering of physical textures with a low cost wearable system
KR102542481B1 (en) Method, apparatus and system for reproducing tactile sense
TW201248456A (en) Identifying contacts and contact attributes in touch sensor data using spatial and temporal features
WO2013054347A2 (en) A method and system for detecting boundary of coarticulated units from isolated speech

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20210422

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20221020

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20230420

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20230428

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20230428

End annual number: 3

Start annual number: 1

PG1601 Publication of registration