[go: up one dir, main page]

KR20160031366A - Apparatus and method of controlling an electric instrument and the electric instrument system - Google Patents

Apparatus and method of controlling an electric instrument and the electric instrument system Download PDF

Info

Publication number
KR20160031366A
KR20160031366A KR1020140121403A KR20140121403A KR20160031366A KR 20160031366 A KR20160031366 A KR 20160031366A KR 1020140121403 A KR1020140121403 A KR 1020140121403A KR 20140121403 A KR20140121403 A KR 20140121403A KR 20160031366 A KR20160031366 A KR 20160031366A
Authority
KR
South Korea
Prior art keywords
fluid
parameter
information
camera
acquiring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020140121403A
Other languages
Korean (ko)
Other versions
KR102165996B1 (en
Inventor
임지순
조은비
손민식
Original Assignee
임지순
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 임지순 filed Critical 임지순
Priority to KR1020140121403A priority Critical patent/KR102165996B1/en
Publication of KR20160031366A publication Critical patent/KR20160031366A/en
Application granted granted Critical
Publication of KR102165996B1 publication Critical patent/KR102165996B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H5/00Instruments in which the tones are generated by means of electronic generators
    • G10H5/02Instruments in which the tones are generated by means of electronic generators using generation of basic tones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/441Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/541Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

본 발명의 일 실시예는 유체를 수용하는 수용부를 촬영한 영상을 포함하는 상기 수용부에 관련된 신호를 획득하는 단계; 상기 신호로부터 상기 유체에 소정의 대상체가 접촉하는 위치 정보를 획득하고, 상기 위치 정보에 대응하는 음의 파라미터를 생성하는 단계; 및 상기 파라미터에 기초하여 오디오 신호를 출력하는 단계;를 포함하는 전자 악기 제어 방법을 개시한다.An embodiment of the present invention includes a method of acquiring a fluid, the method comprising: acquiring a signal related to the receiving portion including an image of a receiving portion that receives fluid; Acquiring positional information of a predetermined object in contact with the fluid from the signal, and generating a negative parameter corresponding to the positional information; And outputting an audio signal based on the parameter.

Description

전자악기 제어 방법 및 장치, 전자악기 시스템{Apparatus and method of controlling an electric instrument and the electric instrument system}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic musical instrument control method and apparatus,

본 발명의 실시예들은 전자악기 제어 방법 및 장치, 전자악기 시스템에 관한 것이다.Embodiments of the present invention relate to an electronic musical instrument control method and apparatus, and an electronic musical instrument system.

신시사이저로 대표되는 전자 악기에는 물리적인 매개체를 통해 음이 발생되는 악기와 전자적인 방법으로 음이 발생되는 악기로 나뉜다. 특히 MIDI(Musical Instrument Digital Interface)로 대표되는 전자 악기 표준 신호 규격은 음의 제어에 대한 매개 변수를 대부분 7bit 를 가지는 부호로 변환하여 전송함으로써 악기의 음원부와 제어부를 독립적으로 분리시키는 데에 기술적으로 기여하였다. 다양한 센서 하드웨어 기술을 이용하여 악기의 제어부를 구현하고, 제어부의 정보를 전자 악기 표준 신호 규격을 통해 음원부로 전송하는 기술을 통해, 전자 관악기나 전자 드럼과 같은 악기가 만들어졌고 시장의 일부를 장악하고 있다.An electronic musical instrument represented by a synthesizer is divided into a musical instrument in which a sound is generated through a physical medium and a musical instrument in which a sound is generated in an electronic manner. In particular, the electronic musical instrument standard signal standard, which is represented by MIDI (Musical Instrument Digital Interface), transforms the parameters of the sound control to a code having 7 bits in most cases, thereby technically separating the sound source unit and the control unit of the musical instrument Contributed. Instruments such as electronic wind instruments and electronic drums have been created through the technology of implementing the control part of the musical instrument using various sensor hardware technologies and transmitting the information of the control part to the sound source part through the electronic musical instrument standard signal standard, have.

본 발명의 실시예들은 청각, 촉각, 시각적 효과를 부여할 수 있는 전자악기 제어 방법, 장치, 및 이를 컴퓨터에서 실행하기 위한 컴퓨터 프로그램, 및 전자악기 시스템을 제공한다.Embodiments of the present invention provide an electronic musical instrument control method and apparatus capable of imparting auditory, tactile, and visual effects, a computer program for executing the same on a computer, and an electronic musical instrument system.

본 발명의 일 실시예는 유체를 수용하는 수용부를 촬영한 영상을 포함하는 상기 수용부에 관련된 신호를 획득하는 단계; 상기 신호로부터 상기 유체에 소정의 대상체가 접촉하는 위치 정보를 획득하고, 상기 위치 정보에 대응하는 음의 파라미터를 생성하는 단계; 및 상기 파라미터에 기초하여 오디오 신호를 출력하는 단계;를 포함하는 전자 악기 제어 방법을 개시한다.An embodiment of the present invention includes a method of acquiring a fluid, the method comprising: acquiring a signal related to the receiving portion including an image of a receiving portion that receives fluid; Acquiring positional information of a predetermined object in contact with the fluid from the signal, and generating a negative parameter corresponding to the positional information; And outputting an audio signal based on the parameter.

본 발명의 다른 실시예는 유체를 수용하는 수용부를 촬영한 영상을 포함하는 상기 수용부에 관련된 신호를 획득하는 신호 획득부; 상기 수용부에 관련된 신호로부터 상기 유체에 소정의 대상체가 접촉하는 위치 정보를 획득하고, 상기 위치 정보에 대응하는 음의 파라미터를 생성하는 파라미터 생성부; 및 상기 파라미터에 기초하여 오디오 신호를 출력하는 오디오 신호 출력부;를 포함하는 전자 악기 제어 장치를 개시한다.Another embodiment of the present invention is directed to an image processing apparatus comprising: a signal acquiring unit acquiring a signal related to the accommodating unit including an image of an accommodating portion accommodating a fluid; A parameter generation unit for acquiring positional information on a predetermined object to be contacted with the fluid from a signal related to the accommodation unit and generating a negative parameter corresponding to the positional information; And an audio signal output unit for outputting an audio signal based on the parameter.

본 발명의 또 다른 실시예는 유체를 수용할 수 있는 수용부; 상기 수용부의 적어도 일 단면을 촬영하는 카메라를 포함하며, 상기 카메라에 의해 촬영된 영상을 포함하는 상기 수용부에 관련된 신호를 획득하는 센싱부; 상기 센싱부에 의해 획득된 신호에 기초하여 상기 유체에 소정의 대상체가 접촉하는 위치 정보를 획득하고, 상기 위치 정보에 대응되는 음의 파라미터를 생성하고, 상기 파라미터에 기초하여 오디오 신호를 생성 및 출력하는 제어부; 및 상기 오디오 신호를 수신하고 상기 오디오 신호에 기초하여 음향을 출력하는 출력 장치;를 포함하는 전자 악기 시스템을 개시한다.Another embodiment of the present invention is a fluidized-bed forming apparatus comprising: a receiving portion capable of receiving a fluid; A sensing unit including a camera for photographing at least one end face of the accommodating portion, the sensing unit acquiring a signal related to the accommodating portion including the image photographed by the camera; Acquiring position information of a predetermined object in contact with the fluid based on the signal obtained by the sensing unit, generating a negative parameter corresponding to the position information, and generating and outputting an audio signal based on the parameter ; And an output device for receiving the audio signal and outputting sound based on the audio signal.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다. Other aspects, features, and advantages will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명의 실시예들에 관한 전자악기 제어 방법 및 장치, 전자악기 시스템은 사용자가 느끼는 촉각적 효과를 청각적 효과로 표현함으로써 사용자에게 다양한 감각적 만족을 제공한다.An electronic musical instrument control method and apparatus and an electronic musical instrument system according to embodiments of the present invention provide a variety of sensory satisfaction to a user by expressing a tactile effect felt by a user with an auditory effect.

본 발명의 실시예들에 관한 전자악기 제어 방법 및 장치, 전자악기 시스템은 좀 더 쉽고 직관적인 전자 악기에 대한 사용자의 니즈에 부합한다.The electronic musical instrument control method and apparatus and electronic musical instrument system according to the embodiments of the present invention meet the user's needs for an electronic musical instrument that is easier and more intuitive.

본 발명의 실시예들에 관한 전자 악기 시스템은 연속적인 물리적 매질을 이용하여 복수의 음을 발생시킴으로써, 사용자에게 동시에 복수의 음의 높이와 크기를 동시에 실시간으로 제어할 수 있는 연주의 자유도를 제공한다.The electronic musical instrument system according to the embodiments of the present invention provides a degree of freedom of performance in which a user can simultaneously control a plurality of sound heights and sizes simultaneously in real time by generating a plurality of sounds using a continuous physical medium .

도 1은 본 발명의 일 실시예에 따른 전자악기 시스템(1)을 개략적으로 나타낸 구성도이다.
도 2는 본 발명의 일 실시예에 따른 수용부(10)와 센싱부(20)의 예를 상세하게 도시한 것이다.
도 3은 도 2에 도시된 센싱부(20)의 변형예를 도시한 것이다.
도 4은 본 발명의 일 실시예에 따른 제어부(30)의 구성을 도시한 블록도이다.
도 5는 센싱부(20)에 촬영된 영상의 예를 도시한 것이다.
1 is a schematic diagram showing an electronic musical instrument system 1 according to an embodiment of the present invention.
FIG. 2 shows an example of the receiving unit 10 and the sensing unit 20 in detail according to an embodiment of the present invention.
FIG. 3 shows a modification of the sensing unit 20 shown in FIG.
4 is a block diagram showing the configuration of the control unit 30 according to an embodiment of the present invention.
FIG. 5 shows an example of an image photographed by the sensing unit 20. As shown in FIG.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. The effects and features of the present invention and methods of achieving them will be apparent with reference to the embodiments described in detail below with reference to the drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or corresponding components throughout the drawings, and a duplicate description thereof will be omitted .

이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.In the following embodiments, the terms first, second, and the like are used for the purpose of distinguishing one element from another element, not the limitative meaning. In the following examples, the singular forms "a", "an" and "the" include plural referents unless the context clearly dictates otherwise. In the following embodiments, terms such as inclusive or possessive are intended to mean that a feature, or element, described in the specification is present, and does not preclude the possibility that one or more other features or elements may be added.

도 1은 본 발명의 일 실시예에 따른 전자악기 시스템(1)을 개략적으로 나타낸 구성도이다. 1 is a schematic diagram showing an electronic musical instrument system 1 according to an embodiment of the present invention.

일 실시예에 따른 전자악기 시스템(1)은 유체에 접촉하는 대상체의 위치를 기반으로, 음향을 생성하여 출력한다. 일 실시예에 따른 전자악기 시스템(1)에 따르면, 사용자는 신체 일부, 또는 소정의 물체를 유체에 접촉시킴으로써, 직관적으로 음향을 생성 및 출력시킬 수 있다.The electronic musical instrument system 1 according to an embodiment generates and outputs sound based on the position of the object in contact with the fluid. According to the electronic musical instrument system 1 according to the embodiment, the user can intuitively generate and output sound by contacting a part of the body or a predetermined object with the fluid.

일 실시예에 따라 제공되는 전자악기 시스템(1)은 유체를 수용하는 수용부(10), 수용부를 촬영하는 카메라를 포함하여 각종 신호를 감지하는 센싱부(20), 감지된 신호에 기초하여 오디오 신호를 생성함으로써, 전자악기 시스템의 출력 음향을 생성하는 제어부(30), 및 상기 오디오 신호에 기초하여 음향을 출력하는 출력 장치(40)를 포함한다.An electronic musical instrument system 1 provided according to an embodiment includes a receiving portion 10 for receiving a fluid, a sensing portion 20 for sensing various signals including a camera for photographing the receiving portion, A control unit 30 for generating an output sound of the electronic musical instrument system by generating a signal, and an output device 40 for outputting sound based on the audio signal.

일 실시예에 따른 수용부(10)는 유체를 수용한다. 사용자는 오디오 신호를 발생시키기 위해 수용부(10)에 수용된 유체에 소정의 대상체를 접촉시킬 수 있다. 상기 대상체는, 사용자의 신체 일부, 예컨대 손가락일 수 있으나, 이에 한정하지 않으며, 막대기 등의 물체일 수도 있다.The receptacle 10 according to one embodiment receives fluid. The user can bring a predetermined object into contact with the fluid accommodated in the accommodating portion 10 to generate an audio signal. The object may be a part of the user's body, for example, a finger, but is not limited thereto, and may be an object such as a stick.

일 실시예에 따른 센싱부(20)는 수용부(10)로부터 다양한 신호를 센싱할 수 있다. 일 실시예에 따른 센싱부(20)는 수용부(10)를 촬영하는 카메라를 포함할 수 있다. 일 실시예에 따른 센싱부(20)는 수용부(10)를 다양한 각도에서 촬영할 수 있도록 복수의 카메라를 포함할 수 있다. 일 실시예에 따른 센싱부(20)는 수용부(10)에 수용된 유체 표면의 진동을 감지하는 진동 센서를 포함할 수 있다. 센싱부(20)는 유체 내에 구비되어 대상체까지의 거리를 측정하는 하나 이상의 초음파 센서, 또는 적외선 센서를 포함할 수 있다. 센싱부(20)는 대상체가 유체에 접촉되었음을 인식할 수 있도록 적절한 위치에 설치된 압력 센서를 포함할 수 있다. 센싱부(20)는 유체 내의 전류장을 인식하는 전류장 센서를 포함할 수 있다. 센싱부(20)는 센싱된 각종 신호를 제어부(30)로 출력한다.The sensing unit 20 according to an exemplary embodiment may sense various signals from the accommodation unit 10. [ The sensing unit 20 according to an exemplary embodiment may include a camera for photographing the accommodation portion 10. [ The sensing unit 20 according to an exemplary embodiment may include a plurality of cameras so as to capture the accommodation unit 10 at various angles. The sensing unit 20 according to an embodiment may include a vibration sensor that senses vibration of a fluid surface accommodated in the accommodating portion 10. The sensing unit 20 may include one or more ultrasonic sensors provided in the fluid to measure the distance to the object, or an infrared sensor. The sensing unit 20 may include a pressure sensor installed at an appropriate position to recognize that the object is in contact with the fluid. The sensing portion 20 may include a current field sensor that recognizes the current field in the fluid. The sensing unit 20 outputs various sensed signals to the control unit 30. [

한편, 카메라로 수용부(10)를 촬영하였을 때 대상체가 식별될 수 있도록, 수용부(10)는 소정의 임계값 이상의 투명도를 갖는 물질로 형성될 수 있다. 또한, 수용부(10)에 수용되는 유체 역시 소정의 임계값 이상의 투명도를 갖는 물질로 구비될 수 있다. 예를 들어, 유체는 물일 수 있다.On the other hand, the receiving portion 10 may be formed of a material having transparency of a predetermined threshold value or more so that the object can be identified when the receiving portion 10 is photographed with the camera. Also, the fluid received in the accommodating portion 10 may be formed of a material having transparency of a predetermined threshold value or more. For example, the fluid may be water.

일 실시예에 따른 제어부(30)는 센싱부(20)가 인식한 신호를 획득하고, 신호를 분석하여 대상체의 위치 정보를 획득하고, 위치 정보에 기반하여 오디오 신호를 생성한다. 예를 들어, 제어부(30)는 신호를 분석하여 위치 정보를 획득하고, 위치 정보에 기반하여 음(sound)에 대한 파라미터를 설정하고, 파라미터에 기초하여 오디오 신호를 생성한다 . The control unit 30 according to an embodiment acquires a signal recognized by the sensing unit 20, analyzes the signal to acquire positional information of the object, and generates an audio signal based on the positional information. For example, the control unit 30 analyzes the signal to acquire the position information, sets a parameter for the sound based on the position information, and generates an audio signal based on the parameter.

위치 정보는 유체 표면을 기준으로 하는 평면 좌표 정보 및 깊이 정보를 포함할 수 있다. 위치 정보는 카메라에 의해 촬영된 영상의 처리에 의해 얻어지거나, 초음파 센서, 또는 적외선 센서의 센싱값으로부터 얻어지거나, 압력 센서의 센싱값으로부터 얻어질 수 있다. 또는 복수의 압력 센서가 구비된 경우, 임계값 이상의 수압이 감지되는 압력 센서의 위치로부터 대상체의 위치 정보가 얻어질 수 있다. 또는 전류장 센서로부터 전류장의 왜곡이 감지되면, 전류장 왜곡 위치 내지는 왜곡 패턴으로부터 대상체의 위치 정보가 얻어질 수 있다.The location information may include plane coordinate information and depth information relative to the fluid surface. The position information may be obtained by processing the image photographed by the camera, obtained from the sensing value of the ultrasonic sensor or the infrared sensor, or may be obtained from the sensing value of the pressure sensor. Or when a plurality of pressure sensors are provided, the positional information of the object can be obtained from the position of the pressure sensor at which the water pressure above the threshold value is sensed. Alternatively, if distortion of the current field is detected from the current field sensor, the positional information of the object can be obtained from the current long-distortion position or the distortion pattern.

일 실시예에 따른 출력 장치(40)는 오디오 신호를 획득하고, 음향(sound)을 출력한다. 출력 장치(40)로서, 일반적인 출력 장치가 사용될 수 있다.The output device 40 according to one embodiment obtains an audio signal and outputs a sound. As the output device 40, a general output device can be used.

한편, 일 실시예에 따르면 상술한 것과 같이 제어부(30)가 오디오 신호를 출력하고 이를 획득한 출력 장치(40)가 음향을 출력하도록 설계될 수 있지만, 변형도 가능하다. 예를 들어, 제어부(30)는 파라미터 세트만을 출력하고, 이를 획득한 출력 장치(40)가 파라미터 세트에 기반하여 음향을 출력하도록 설계될 수도 있다. 음원 소스가 제어부(30)에 마련되는 경우, 제어부(30)는 직접 음원 소스를 이용하여 오디오 신호를 생성할 수 있지만, 음원 소스가 출력 장치(40)에 마련되는 경우, 예를 들어 출력 장치가 신디사이저인 경우, 제어부(30)는 음원에 대한 파라미터 세트만을 제공하고, 출력 장치가 해당 파라미터 세트에 대응되는 음향을 출력할 수 있다. 이와 같은 수준의 설계 변경은 본 발명의 실시예들에 적용 가능하다.According to an embodiment, the control unit 30 may be designed to output an audio signal and the output device 40 that has obtained the audio signal output audio, but may be modified. For example, the control unit 30 may output only the parameter set, and the output device 40 that has acquired the parameter set may be designed to output sound based on the parameter set. When the sound source is provided in the control unit 30, the control unit 30 can generate the audio signal using the direct sound source. However, when the sound source is provided in the output unit 40, In the case of a synthesizer, the control unit 30 may provide only the parameter set for the sound source, and the output device may output the sound corresponding to the parameter set. Such a level of design change is applicable to the embodiments of the present invention.

도 1에 도시되지 않았으나, 수용부(10)에는 별도의 가이드 부재가 마련될 수 있다. 가이드 부재는 사용자에게 수용부(10) 상에서의 위치 기준을 안내한다. 예를 들어, 가이드 부재는 수용부(10)의 일 축을 따라 나열되며, 상기 나열된 가이드 부재는 파라미터의 기준이 되는 지점마다 설치되어 파라미터 예측 가능성을 제공한다. 예를 들어 파라미터가 음계인 경우, 어느 위치에 대상체를 접촉시키면 어느 음계의 음이 발생될 것인지를 사용자가 예측할 수 있도록 한다.Although not shown in FIG. 1, a separate guide member may be provided in the accommodating portion 10. The guide member guides the user to the position reference on the receptacle 10. For example, the guide members may be arranged along one axis of the receiving portion 10, and the guide members may be installed at every point of reference of the parameter to provide parameter predictability. For example, when the parameters are scales, it is possible for the user to predict which scales will be produced by touching the object at any position.

도 1에 도시되지 않았으나, 전자악기 시스템(1)은 종래기술에서와 같이 음향의 파라미터를 직접 조작할 수 있는 사용자 조작부를 더 포함할 수 있다. 사용자 조작부는 수용부(10)와는 독립적으로 구비되는 것일 수 있다.
Although not shown in Fig. 1, the electronic musical instrument system 1 may further include a user operation portion capable of directly operating the parameters of the sound as in the prior art. The user operation unit may be provided independently of the accommodating portion 10. [

도 2는 본 발명의 일 실시예에 따른 수용부(10)와 센싱부(20)의 예를 상세하게 도시한 것이다. FIG. 2 shows an example of the receiving unit 10 and the sensing unit 20 in detail according to an embodiment of the present invention.

도 2를 참조하면, 수용부(10)에는 유체가 담기고, 센싱부(도 1의 20)는 수용부(10)로부터 각종 신호를 센싱한다. 도 2를 참조하면, 센싱부(20)로써 카메라(21) 및 진동센서(22)가 구비된 것을 볼 수 있으며, 센싱부(20)는 더 많은 센서들을 구비할 수도 있음은 물론이다.Referring to FIG. 2, fluid is contained in the accommodation portion 10, and the sensing portion (20 in FIG. 1) senses various signals from the accommodation portion 10. 2, it can be seen that the sensing unit 20 includes the camera 21 and the vibration sensor 22, and the sensing unit 20 may include more sensors.

먼저, 카메라(21)는 유체가 담긴 수용부(10)를 촬영한다. 도 2를 참조하면, 카메라(21)는 수용부(10)를 정면에서 촬영할 수 있다. 이와 같이 정면에서 촬영된 영상을 분석하면, 유체 표면을 기준으로 대상체(도 2에서는 손가락)의 깊이 정보와, 대상체의 1차원 위치 정보가 획득될 수 있다. First, the camera 21 takes a photograph of the accommodation portion 10 containing the fluid. Referring to FIG. 2, the camera 21 can photograph the accommodation portion 10 from the front. By analyzing the image photographed from the front as described above, the depth information of the object (the finger in Fig. 2) and the one-dimensional position information of the object can be obtained on the basis of the fluid surface.

도 2에는 하나의 카메라(21)만 도시되었으나, 일 실시예에 따른 전자악기 시스템은 수용부(10)를 아래 방향에서 촬영하는 카메라 및/또는 측면에서 촬영하는 카메라를 더 포함할 수 있다. 이와 같이 여러 방향에서 수용부(10)를 촬영함에 따라, 대상체의 위치 정보를 다양한 기준으로 획득할 수 있다. Although only one camera 21 is shown in FIG. 2, the electronic musical instrument system according to an embodiment may further include a camera for photographing the receptacle 10 from below and / or a camera for photographing from the side. By photographing the accommodating portion 10 in various directions as described above, the positional information of the object can be obtained on various criteria.

위치 정보는 유체의 표면을 기준으로 하는 깊이 정보(z), 및 유체의 표면을 평면으로 하는 2차원 좌표(x,y) 중 적어도 하나의 좌표 정보를 포함할 수 있다. 예컨대, 도 2에 도시된 카메라(21)를 이용하여 촬영한 영상으로부터는, 깊이 정보(z) 및 유체의 표면을 평면으로 하는 2차원 좌표 중 하나의 좌표 정보(x)를 획득할 수 있다.The positional information may include at least one coordinate information among depth information (z) based on the surface of the fluid, and two-dimensional coordinates (x, y) with the surface of the fluid as a plane. For example, from the image photographed using the camera 21 shown in Fig. 2, it is possible to obtain coordinate information (x) of one of two-dimensional coordinates in which the depth information z and the surface of the fluid are plane.

효과적인 위치 정보의 획득을 위하여, 카메라(21)의 종류는 다양하게 설정 가능하다. 예컨대, 일반 카메라가 사용될 수 있을 뿐 아니라 적외선 카메라가 사용될 수 있다. 카메라가 적외선 센싱을 응용한 깊이 카메라로 구비되는 경우, 촬영된 영상으로부터 깊이 정보(z) 및 유체의 표면을 평면으로 하는 2차원 좌표 중 카메라(21)에 의해 촬영되는 영상의 가로 방향(x) 좌표를 획득할 수 있을 뿐 아니라, 적외선 센싱으로부터 얻어진 깊이 정보로부터 카메라(21)를 기준으로 깊이 축에 해당하는 y좌표 정보까지 획득할 수 있다. In order to obtain effective position information, the type of the camera 21 can be variously set. For example, a general camera can be used as well as an infrared camera can be used. When the camera is equipped with a depth camera using infrared sensing, the depth direction (z) of the captured image and the horizontal direction (x) of the image taken by the camera 21 among the two- Coordinates can be obtained, and y-coordinate information corresponding to the depth axis can be obtained from the depth information obtained from the infrared sensing based on the camera 21. [

진동센서(22)는 유체 표면의 진동을 센싱한다. 진동 센서(22)는 자이로 센서, 가속도 센서, 각속도 센서 등으로 대체될 수도 있다. 진동 센서(22)는 유체에 젖지 않도록 방수 처리되거나, 밀폐 처리될 수 있고, 진동 센서(22)를 유체에 띄우기 위한 별도의 구성, 예컨대 공기주머니, 스티로폼 등을 구비할 수 있다.The vibration sensor 22 senses the vibration of the fluid surface. The vibration sensor 22 may be replaced with a gyro sensor, an acceleration sensor, an angular velocity sensor, or the like. The vibration sensor 22 may be waterproofed or hermetically sealed to prevent the fluid from getting wet, and may have a separate structure for floating the vibration sensor 22, for example, an air bag, styrofoam, or the like.

도 2에 도시되지 않았으나, 센싱부(20)는 유체 내에 구비되어 대상체까지의 거리를 측정하는 하나 이상의 초음파 센서, 또는 적외선 센서를 더 포함할 수 있다. 센싱부(20)는 대상체가 유체에 접촉되었음을 인식할 수 있도록 적절한 위치에 설치된 압력 센서를 더 포함할 수 있다. 압력 센서는 예를 들어 수용부(10)의 바닥에 일정 간격으로 설치될 수 있다. 임계값 이상의 수압이 감지된 압력 센서의 위치로부터, 대상체의 위치 정보가 획득될 수 있다.Although not shown in FIG. 2, the sensing unit 20 may further include at least one ultrasonic sensor or an infrared sensor, which is provided in the fluid and measures the distance to the object. The sensing unit 20 may further include a pressure sensor installed at an appropriate position to recognize that the object is in contact with the fluid. For example, the pressure sensors may be installed at regular intervals on the bottom of the receiving portion 10. [ The positional information of the object can be obtained from the position of the pressure sensor at which the water pressure higher than the threshold value is sensed.

도 2에 도시되지 않았으나, 수용부(10)의 일 벽면에는 유체를 향하여 빛을 조사하는 조명 패널이 구비될 수 있다. 이와 같이 유체에 빛이 조사되면 카메라(21)를 통해 취득된 영상에서 대상체의 식별이 더 용이해지는 효과가 있다. 예를 들어, 대상체가 있는 부분은 좀 더 어둡게 나타나며, 나머지 영역은 좀 더 밝게 나타나게 되어, 에지 인식의 정확성이 향상되는 효과가 있다.
Although not shown in FIG. 2, an illuminating panel for irradiating light toward the fluid may be provided on a wall surface of the accommodating portion 10. When the fluid is irradiated with light as described above, there is an effect that it becomes easier to identify the object from the image acquired through the camera 21. [ For example, the area where the object exists is darker and the rest area becomes brighter, which improves the accuracy of edge recognition.

카메라(21)에 의해 획득되는 영상 및 이의 분석 방법에 대하여서는 도 5와 함께 후술한다.
An image obtained by the camera 21 and a method of analyzing the image will be described later with reference to FIG.

도 3은 도 2에 도시된 센싱부(20)의 변형예를 도시한 것이며, 도 2에 관한 설명과 중복되는 내용은 생략하기로 한다. 따라서 이하에서 도 3과 관련하여 설명되지 않은 것이라도 도 2에 관하여 이상에서 기술된 내용이 도 3에도 적용될 수 있다.FIG. 3 shows a modification of the sensing unit 20 shown in FIG. 2, and a description overlapping with the description of FIG. 2 will be omitted. Thus, although not described below with respect to FIG. 3, the description described above with respect to FIG. 2 may also be applied to FIG.

도 3을 참조하면, 수용부(10)에는 유체가 담기고, 센싱부(도 1의 20)는 수용부(10)로부터 각종 신호를 센싱한다. 도 3을 참조하면, 센싱부(20)로써 카메라(21) 및 진동센서(22)가 구비된 것을 볼 수 있으며, 센싱부(20)는 더 많은 센서들을 구비할 수도 있음은 물론이다.Referring to FIG. 3, a fluid is contained in the accommodation portion 10, and a sensing portion (20 in FIG. 1) senses various signals from the accommodation portion 10. Referring to FIG. 3, it can be seen that the camera 21 and the vibration sensor 22 are provided as the sensing unit 20, and the sensing unit 20 may include more sensors.

도 3을 참조하면, 수용부(10)의 정면을 촬영하는 카메라(21)의 위치를 변경하기 위해서, 수용부(10)의 정면 모습을 아래 방향으로 반사시키는 반사부재(50)가 더 구비될 수 있다. 반사부재(50)로 인해 수용부(10)의 정면 모습을 아래에서도 촬영 가능하며, 이에 따라 더 효과적인 전자악기 시스템의 구성이 가능하다.3, in order to change the position of the camera 21 for photographing the front face of the accommodation portion 10, there is further provided a reflection member 50 for reflecting the front face of the accommodation portion 10 downward . The front surface of the accommodating portion 10 can be photographed even from below because of the reflective member 50, thereby making it possible to constitute a more effective electronic musical instrument system.

예를 들어, 카메라(21)를 수용부(10)의 아래에 두고, 수용부(10)와 카메라(21)를 고정시켜주는 틀을 구비하게 되면 전자악기의 높이는 높아지더라도 전자악기가 차지하는 바닥 면적이 현저히 줄어들게 된다. 또한 카메라(21)의 위치를 고정하는 것이 더 수월해지며, 사용자에 의해 위치가 변동될 가능성이 더 줄어들게 된다. For example, if the camera 21 is placed below the receiving portion 10 and a frame for fixing the receiving portion 10 and the camera 21 is provided, the height of the electronic musical instrument is increased, Is greatly reduced. In addition, it is easier to fix the position of the camera 21, and the possibility that the position is changed by the user is further reduced.

또한, 수용부(10)보다 아래 위치에, 반사부재(50)를 통해 반사되는 수용부(10)의 정면 모습을 촬영하는 카메라(21)와, 수용부(10)를 아래에서 바라보는 모습을 촬영하는 별도의 카메라(미도시)를 나란히 구비할 수도 있고, 이에 따르면 본 발명의 전자악기 시스템이 차지하는 공간을 줄일 수 있고, 다양한 공간 활용이 가능해진다.
A camera 21 for photographing a front view of the receiving portion 10 reflected through the reflecting member 50 at a position lower than the receiving portion 10; A separate camera (not shown) for photographing may be provided side by side. According to this, space occupied by the electronic musical instrument system of the present invention can be reduced, and various spaces can be utilized.

도 4은 본 발명의 일 실시예에 따른 제어부(30)의 구성을 도시한 블록도이다.4 is a block diagram showing the configuration of the control unit 30 according to an embodiment of the present invention.

도 4를 참조하면, 제어부(30)는 센싱부(20)로부터 신호를 획득하는 신호 획득부(310), 획득된 신호에 기초하여 음(sound) 파라미터를 생성하는 파라미터 생성부(320), 음 파라미터에 기초하여 최종 오디오 신호를 생성 및 출력하는 오디오 신호 출력부(330)를 포함한다.4, the control unit 30 includes a signal acquisition unit 310 that acquires a signal from the sensing unit 20, a parameter generation unit 320 that generates a sound parameter based on the acquired signal, And an audio signal output unit 330 for generating and outputting a final audio signal based on the parameters.

일 실시예에 따른 신호 획득부(310)는 센싱부(20)로부터 영상을 획득할 수 있다. 일 실시예에 따른 신호 획득부(310)는 센싱부(20)로부터 유체 표면의 진동 센싱값을 획득할 수 있다. The signal acquisition unit 310 may acquire an image from the sensing unit 20 according to an exemplary embodiment. The signal acquisition unit 310 may acquire a vibration sensing value of the fluid surface from the sensing unit 20. [

파라미터 생성부(320)는 신호 획득부(310)에 의해 획득된 영상을 분석하여, 대상체의 위치 정보를 생성하고, 위치 정보에 기초하여 음 파라미터를 생성한다. The parameter generating unit 320 analyzes the image obtained by the signal obtaining unit 310, generates position information of the target object, and generates a sound parameter based on the position information.

파라미터 생성부(320)는 유체 표면을 기준으로 서로 이격된 대상체는 별도의 대상체로 인식할 수 있다. 예를 들어, 파라미터 생성부(320)는 한 사람이 여러 개의 손가락을 유체에 각각 담갔을 때, 각각의 손가락이 유체 내부에서는 서로 이격되어 있다면 각각의 손가락을 별도의 대상체로 인식할 수 있다. 이에 따라, 각 대상체의 위치 정보를 각각 생성할 수 있다.The parameter generating unit 320 can recognize a target object separated from the fluid surface as a separate target. For example, the parameter generation unit 320 can recognize each finger as a separate object when each finger is immersed in fluid, when a person immerses several fingers in the fluid, respectively. Thus, the position information of each object can be generated.

파라미터 생성부(320)는 인식된 각각의 대상체마다 음을 매칭한다. 예를 들어, 3개의 대상체가 인식되면 각각의 대상체에 음을 매칭하여 총 3개의 음을 정의하며, 3개의 음에 대한 파라미터를 각각 생성한다. 파라미터 생성부(320)는 각 대상체의 위치 정보에 기초하여, 각 대상체에 매칭되는 음의 파라미터를 생성한다. 예를 들어, 제1 대상체의 위치 정보에 기초하여 제1 음 파라미터 세트를 생성하고, 제2 대상체의 위치 정보에 기초하여 제2 음 파라미터 세트를 생성할 수 있다. 각 파라미터 세트는 예를 들어, 음의 높이, 크기, 바이브레이션, 음색(디스토션 등의 효과) 등의 파라미터 중 적어도 하나를 포함할 수 있다.The parameter generator 320 matches the sound for each recognized object. For example, when three objects are recognized, a total of three notes are defined by matching the notes to each object, and parameters for three notes are generated, respectively. The parameter generation unit 320 generates negative parameters matched to each object based on the positional information of each object. For example, the first tone parameter set may be generated based on the position information of the first object, and the second tone parameter set may be generated based on the position information of the second object. Each parameter set may include at least one of parameters such as, for example, a pitch, a size, a vibration, a tone (an effect such as distortion), and the like.

파라미터 생성부(320)가 영상에서 대상체를 인식하는 방법으로, 영상 내에서의 에지(edge) 인식 알고리즘, 대상체의 패턴 인식 알고리즘, 대상체의 색상 인식 알고리즘 등 다양한 알고리즘이 사용될 수 있다.Various algorithms such as an edge recognition algorithm in an image, a pattern recognition algorithm of a target object, and a color recognition algorithm of a target object can be used as a method for the parameter generator 320 to recognize an object in an image.

파라미터 생성부(320)는 유체 표면의 진동 센싱값을 이용하여 파라미터를 더 생성할 수 있다. 예를 들어, 유체 표면의 진동 센싱값을 이용하여 각 음의 서스테인, 바이브레이션, 음색 등의 파라미터를 더 생성할 수 있다.The parameter generating unit 320 may further generate the parameter using the vibration sensing value of the fluid surface. For example, parameters such as sustain, vibration, and tone of each sound can be further generated using the vibration sensing value of the fluid surface.

오디오 신호 출력부(330)는 파라미터 생성부(320)에 의해 생성된 하나 이상의 음에 대한 파라미터 세트에 기초하여, 도 1의 출력 장치(40)에서 출력 가능한 포맷의 오디오 신호를 출력한다. 오디오 신호 출력부(330)에 의해 출력되는 오디오 신호는 출력 장치(40)로 전달되며, 출력 장치(40)는 오디오 신호로부터 음향을 출력하게 된다.
The audio signal output unit 330 outputs an audio signal of a format that can be output from the output device 40 of Fig. 1, based on the parameter set for one or more notes generated by the parameter generation unit 320. [ The audio signal output by the audio signal output unit 330 is transmitted to the output apparatus 40, and the output apparatus 40 outputs sound from the audio signal.

도 5는 센싱부(20)에 촬영된 영상을 이용하여 파라미터를 생성하는 예를 도시한 것이다.FIG. 5 shows an example of generating a parameter using the image photographed by the sensing unit 20. As shown in FIG.

도 5에 도시된 영상(40)은 센싱부(20)에 의해 촬영되어 제어부(30)에 전송된 것일 수 있다. 영상(40)을 참조하면, 사용자의 손가락 중 세 개 손가락이 유체에 접촉한 것을 볼 수 있다. 이하에서 상기 세 개 손가락 각각을 제1 대상체(421), 제2 대상체(422), 제3 대상체(423)라고 지칭하기로 한다. The image 40 shown in FIG. 5 may be captured by the sensing unit 20 and transmitted to the control unit 30. Referring to the image 40, it can be seen that three of the fingers of the user are in contact with the fluid. Hereinafter, each of the three fingers will be referred to as a first object 421, a second object 422, and a third object 423.

도 5를 참조하면, 파라미터 생성부(도 4의 320)는 영상(40)을 분석하여 대상체(421, 422, 423)의 위치 정보를 획득한다. 제1 대상체(421)의 위치 정보로써 깊이 정보(z1)와 좌표 정보(x1)를, 제2 대상체(422)의 위치 정보로써 깊이 정보(z2)와 좌표 정보(x2)를, 제3 대상체(423)의 위치 정보로써, 깊이 정보(z3)와 좌표 정보(x3)를 획득한다. 깊이 정보(z1, z2, z3)의 기준이 되는 지점은 유체의 표면(41)을 직접 인식함으로써 설정될 수도 있지만, 편리를 위하여 처음부터 고정된 위치로 설정될 수도 있음은 물론이다.Referring to FIG. 5, the parameter generation unit 320 of FIG. 4 analyzes the image 40 to acquire position information of the objects 421, 422, and 423. The depth information z1 and the coordinate information x1 are used as the position information of the first object 421 and the depth information z2 and the coordinate information x2 are used as the position information of the second object 422, 423, the depth information z3 and the coordinate information x3 are obtained. The point at which the depth information z1, z2, z3 is referred to may be set by directly recognizing the surface 41 of the fluid, but it goes without saying that it may be set to a fixed position from the beginning for convenience.

도 5에 예시된 바에 따르면 파라미터 생성부(320)는 3개 음에 대한 파라미터 세트를 생성할 것이다. 예컨대, 제1 대상체(421)에 대하여서는 x1에 대응되는 음 높이와 z1에 대응되는 음 세기를 갖는 제1 음(sound)에 대한 파라미터 세트를, 제2 대상체(422)에 대하여서는 x2에 대응되는 음 높이와 z2에 대응되는 음 세기를 갖는 제2 음에 대한 파라미터 세트를, 제3 대상체(423)에 대하여서는 x3에 대응되는 음 높이와 z3에 대응되는 음 세기를 갖는 제3 음에 대한 파라미터 세트를 생성할 것이다. 예를 들어, 제1 음은 도, 제2 음은 레, 제3 음은 미에 대응될 수 있다.According to the example illustrated in FIG. 5, the parameter generator 320 will generate a set of parameters for three notes. For example, for the first object 421, a parameter set for a first sound having a sound height corresponding to x1 and a sound intensity corresponding to z1 is set to x2 for the second object 422 For the third target 423, a parameter set for the third note having the pitch intensity corresponding to z3 and a parameter set for the second note having the pitch intensity corresponding to z2 for the third target object 423, Parameter set. For example, the first note may correspond to a figure, the second note may correspond to a lie, and the third note may correspond to a bee.

x축 좌표 값과 음 높이의 관계, 및 z축 좌표 값과 음 세기의 관계는 기저장된 계산 방법에 따라 정의되거나, 룩업테이블(LUT)로 정의될 수 있다. 예를 들어 계산 방법이 기저장되는 경우, x축 좌표 값을 변수에 대입하여 음 높이를 얻고, z축 좌표 값을 변수에 대입하여 음 세기를 얻는다. 축업테이블이 기 정의되는 경우에는, x축 좌표 값에 해당하는 범위에 매칭된 음 높이를 얻고, z축 좌표 값에 해당하는 범위에 매칭된 음 세기를 얻는다. The relationship between the x-axis coordinate value and the sound pitch, and the relationship between the z-axis coordinate value and the sound intensity can be defined according to pre-stored calculation methods or can be defined by a lookup table (LUT). For example, when the calculation method is stored, the tone height is obtained by assigning the x-axis coordinate value to the variable, and the z-axis coordinate value is assigned to the variable to obtain the tone intensity. When the axis-up table is predefined, the tone height matched to the range corresponding to the x-axis coordinate value is obtained and the tone intensity matched to the range corresponding to the z-axis coordinate value is obtained.

각 파라미터에 대하여 서로 다른 산출 방법이 사용될 수 있다. 예를 들어, 음 높이에 대하여서는 룩업테이블을 이용한 산출 방법이 사용되며, 음 세기에 대하여서는 기 저장된 수학식을 이용하는 산출 방법이 사용될 수 있다.Different calculation methods can be used for each parameter. For example, a calculation method using a lookup table is used for the tone height, and a calculation method using the previously stored mathematical expression can be used for the tone strength.

진동 센서로부터 획득된 진동 센싱값이 존재하는 경우, 파라미터 생성부(320)는 모든 음(제1 음, 제2 음, 제3 음)에 대하여 새로운 파라미터를 생성할 수 있다. 예를 들어, 모든 음에 대하여 진동 센싱값에 대응되는 정도의 바이브레이션 파라미터를 생성할 수 있다.If there is a vibration sensing value obtained from the vibration sensor, the parameter generator 320 may generate a new parameter for all notes (first note, second note, third note). For example, it is possible to generate a vibration parameter corresponding to the vibration sensing value for all notes.

한편 도 5에 도시되지 않았으나, x축에 직교하며 유체의 표면에 평행한 방향의 y축 좌표값이 별도의 카메라에 의해 촬영된 영상으로부터 획득될 수 있으며, y축 좌표값을 이용하여 파라미터를 더 생성할 수 있다. 예를 들어, y축 좌표값은 음의 피치 조정 정도에 대응될 수 있다. 사용자는 대상체의 위치를 y축으로 이동시킴으로써 음의 피치를 조절할 수 있다. 상기 y값에 매칭되는 파라미터는 예시일 뿐이며, 다양한 파라미터가 매칭될 수 있다.
Although not shown in FIG. 5, a y-axis coordinate value orthogonal to the x-axis and parallel to the surface of the fluid can be obtained from an image captured by a separate camera, and the y-axis coordinate value Can be generated. For example, the y-axis coordinate value may correspond to a negative pitch adjustment degree. The user can adjust the pitch of the sound by moving the position of the object along the y-axis. The parameter matched to the y value is only an example, and various parameters may be matched.

전술한 본 발명의 실시예들에 따르면 사용자는 손가락의 위치를 자유 자재로 변경하면서 유체에 담그는 방식으로 전자악기를 직관적으로 연주할 수 있다. 전술한 본 발명의 실시예들에 따르면, 사용자는 수용부(10)의 일단에서 타단까지 유체 내에서 손가락을 연속적으로 이동시킴으로써, 글리산도 주법의 연주를 할 수 있다. 전술한 본 발명의 실시예들에 따르면, 사용자는 여러 개의 손가락을 유체에 담가서 화음을 연주할 수 있다. 전술한 본 발명의 실시예들에 따르면, 사용자는 여러 음을 동시에 발생시키면서 각 음의 파라미터를 자유자재로 조절할 수 있다. 전술한 본 발명의 실시예들에 따르면, 사용자는 유체에 접촉하는 촉각적 감각이 청각적 감각으로 피드백되는 경험을 할 수 있으며, 이는 사용자의 욕구를 자극하며 다양한 종류의 악기를 체험하고자 하는 니즈에 부합한다.
According to the above-described embodiments of the present invention, the user can intuitively play the electronic musical instrument in such a manner that the user freely changes the position of the finger while immersing it in the fluid. According to the embodiments of the present invention described above, the user can perform playing in the glyphometric method by continuously moving the fingers in the fluid from one end of the receptacle 10 to the other end. According to the embodiments of the present invention described above, a user can play a chord by immersing several fingers in fluid. According to the embodiments of the present invention described above, the user can arbitrarily adjust the parameters of each sound while simultaneously generating a plurality of sounds. According to the embodiments of the present invention described above, the user can experience the feedback of the tactile sensation touching the fluid to the auditory sensation, which can stimulate the user's desire, It matches.

10: 수용부
20: 센싱부
21: 카메라
22: 진동센서
30: 제어부
40: 출력 장치
10:
20: sensing unit
21: Camera
22: Vibration sensor
30:
40: Output device

Claims (7)

유체를 수용하는 수용부를 촬영한 영상을 포함하는 상기 수용부에 관련된 신호를 획득하는 단계;
상기 신호로부터 상기 유체에 소정의 대상체가 접촉하는 위치 정보를 획득하고, 상기 위치 정보에 대응하는 음의 파라미터를 생성하는 단계; 및
상기 파라미터에 기초하여 오디오 신호를 출력하는 단계;를 포함하는 전자 악기 제어 방법.
Acquiring a signal related to the receiving portion including an image of a receiving portion for receiving the fluid;
Acquiring positional information of a predetermined object in contact with the fluid from the signal, and generating a negative parameter corresponding to the positional information; And
And outputting an audio signal based on the parameter.
제1 항에 있어서,
상기 위치 정보는
상기 유체의 표면의 높이 또는 기설정된 높이를 기준으로 하는 깊이 정보와, 상기 유체의 표면을 평면으로 하는 2차원 좌표 중 적어도 하나의 좌표 정보를 포함하고,
상기 생성하는 단계는 상기 깊이 정보에 대응되는 제1 파라미터 및 상기 좌표 정보에 대응되는 제2 파라미터를 포함하는 파라미터 세트를 생성하는 전자 악기 제어 방법.
The method according to claim 1,
The location information
Wherein the information includes at least one of depth information based on a height of the surface of the fluid or a preset height and two-dimensional coordinates in which the surface of the fluid is a plane,
Wherein the generating step generates a parameter set including a first parameter corresponding to the depth information and a second parameter corresponding to the coordinate information.
제1 항에 있어서,
상기 획득하는 단계는 유체 내에 구비된 하나 이상의 초음파 센서로부터 획득된 상기 대상체까지의 거리, 또는 상기 영상을 촬영하는 카메라에 구비되는 적외선 센서로부터 획득된 상기 카메라로부터 상기 대상체까지의 거리를 더 획득하고,
상기 생성하는 단계는 상기 거리 정보를 더 참조하여 상기 위치 정보를 획득하는 전자 악기 제어 방법.
The method according to claim 1,
Wherein the acquiring step further acquires the distance from the at least one ultrasonic sensor provided in the fluid to the object or the distance from the camera to the object obtained from the infrared sensor provided in the camera for photographing the image,
Wherein the generating step acquires the position information by further referring to the distance information.
제1 항에 있어서,
상기 생성하는 단계는 상기 영상으로부터 복수의 대상체가 접촉하는 위치 정보를 각각 획득하고, 상기 복수의 위치 정보에 대응하는 음의 파라미터를 각각 생성하고,
상기 출력하는 단계는 상기 파라미터에 기초하여 상기 복수의 음을 동시에 출력하기 위한 오디오 신호를 출력하는 전자 악기 제어 방법.
The method according to claim 1,
Wherein the generating step acquires positional information on a plurality of objects from the image, respectively, generates negative parameters corresponding to the plurality of positional information,
Wherein the outputting step outputs an audio signal for simultaneously outputting the plurality of sounds based on the parameter.
유체를 수용하는 수용부를 촬영한 영상을 포함하는 상기 수용부에 관련된 신호를 획득하는 신호 획득부;
상기 수용부에 관련된 신호로부터 상기 유체에 소정의 대상체가 접촉하는 위치 정보를 획득하고, 상기 위치 정보에 대응하는 음의 파라미터를 생성하는 파라미터 생성부; 및
상기 파라미터에 기초하여 오디오 신호를 출력하는 오디오 신호 출력부;를 포함하는 전자 악기 제어 장치.
A signal acquiring unit acquiring a signal related to the accommodating part including an image of a housing part accommodating the fluid;
A parameter generation unit for acquiring positional information on a predetermined object to be contacted with the fluid from a signal related to the accommodation unit and generating a negative parameter corresponding to the positional information; And
And an audio signal output unit for outputting an audio signal based on the parameter.
유체를 수용할 수 있는 수용부;
상기 수용부의 적어도 일 단면을 촬영하는 카메라를 포함하며, 상기 카메라에 의해 촬영된 영상을 포함하는 상기 수용부에 관련된 신호를 획득하는 센싱부;
상기 센싱부에 의해 획득된 신호에 기초하여 상기 유체에 소정의 대상체가 접촉하는 위치 정보를 획득하고, 상기 위치 정보에 대응되는 음의 파라미터를 생성하고, 상기 파라미터에 기초하여 오디오 신호를 생성 및 출력하는 제어부; 및
상기 오디오 신호를 수신하고 상기 오디오 신호에 기초하여 음향을 출력하는 출력 장치;를 포함하는 전자 악기 시스템.
A receiving portion capable of receiving fluid;
A sensing unit including a camera for photographing at least one end face of the accommodating portion, the sensing unit acquiring a signal related to the accommodating portion including the image photographed by the camera;
Acquiring position information of a predetermined object in contact with the fluid based on the signal obtained by the sensing unit, generating a negative parameter corresponding to the position information, and generating and outputting an audio signal based on the parameter ; And
And an output device for receiving the audio signal and outputting sound based on the audio signal.
청구항 제 6항에 있어서, 상기 전자 악기 시스템은
상기 수용부의 일 면의 모습을 반사하여 상기 카메라로 입사시키는 반사 부재,
상기 수용부의 벽면에서 상기 유체를 향하여 광을 조사하는 조명 패널, 및
상기 수용부 상의 위치 기준을 사용자에게 안내하기 위해 구비되는 가이드 부재;를 더 포함하고,
상기 카메라는 상기 반사 부재를 촬영함으로써 상기 수용부의 일 면에 대한 영상을 촬영하는 전자 악기 시스템.

The electronic musical instrument system according to claim 6, wherein the electronic musical instrument system
A reflecting member which reflects a state of one surface of the receiving portion and makes the incident light incident on the camera,
An illumination panel for irradiating light toward the fluid at a wall surface of the accommodation portion,
And a guide member provided to guide a position reference on the receiving portion to a user,
Wherein the camera captures an image of one surface of the accommodating portion by photographing the reflective member.

KR1020140121403A 2014-09-12 2014-09-12 Apparatus and method of controlling an electric instrument and the electric instrument system Active KR102165996B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140121403A KR102165996B1 (en) 2014-09-12 2014-09-12 Apparatus and method of controlling an electric instrument and the electric instrument system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140121403A KR102165996B1 (en) 2014-09-12 2014-09-12 Apparatus and method of controlling an electric instrument and the electric instrument system

Publications (2)

Publication Number Publication Date
KR20160031366A true KR20160031366A (en) 2016-03-22
KR102165996B1 KR102165996B1 (en) 2020-10-15

Family

ID=55644830

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140121403A Active KR102165996B1 (en) 2014-09-12 2014-09-12 Apparatus and method of controlling an electric instrument and the electric instrument system

Country Status (1)

Country Link
KR (1) KR102165996B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090033637A1 (en) * 2007-07-30 2009-02-05 Han Jefferson Y Liquid multi-touch sensor and display device
KR20130067856A (en) * 2011-12-14 2013-06-25 한국전자통신연구원 Apparatus and method for performing virtual musical instrument on the basis of finger-motion

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090033637A1 (en) * 2007-07-30 2009-02-05 Han Jefferson Y Liquid multi-touch sensor and display device
KR20130067856A (en) * 2011-12-14 2013-06-25 한국전자통신연구원 Apparatus and method for performing virtual musical instrument on the basis of finger-motion

Also Published As

Publication number Publication date
KR102165996B1 (en) 2020-10-15

Similar Documents

Publication Publication Date Title
US9465461B2 (en) Object detection and tracking with audio and optical signals
JP5095811B2 (en) Mobile communication device and input device for the mobile communication device
US9183689B2 (en) Compact assistive reading device
US20150199025A1 (en) Object detection and tracking for providing a virtual device experience
US10489669B2 (en) Sensor utilising overlapping signals and method thereof
US9201499B1 (en) Object tracking in a 3-dimensional environment
US20020061217A1 (en) Electronic input device
EP2230581A2 (en) Tactility conversion system, and method for providing tactile feedback
Bujacz et al. Sonification: Review of auditory display solutions in electronic travel aids for the blind
KR20140060297A (en) Method for detecting motion of input body and input device using same
WO2012124730A1 (en) Detection device, input device, projector, and electronic apparatus
WO2013135299A1 (en) Extending the free fingers typing technology and introducing the finger taps language technology
KR20160109819A (en) Electronic device, sensing method of playing string instrument and feedback method of playing string instrument
US10444825B2 (en) Drift cancelation for portable object detection and tracking
WO2017073520A1 (en) Object recognition system, object recognition method, program, and computer storage medium
JP5623138B2 (en) Information processing apparatus and operation method thereof
US10126820B1 (en) Open and closed hand detection
WO2022014445A1 (en) Detecting device, and detecting method
KR20130067856A (en) Apparatus and method for performing virtual musical instrument on the basis of finger-motion
US20120201417A1 (en) Apparatus and method for processing sensory effect of image data
KR102165996B1 (en) Apparatus and method of controlling an electric instrument and the electric instrument system
KR101050107B1 (en) Video controller
US20130106689A1 (en) Methods of operating systems having optical input devices
RU196533U1 (en) SMART SPEAKER WITH MEDIA FILTRATION OF TOF SENSOR VALUES
JP4765705B2 (en) Music control device

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20140912

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20180509

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20140912

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20191227

Patent event code: PE09021S01D

E90F Notification of reason for final refusal
PE0902 Notice of grounds for rejection

Comment text: Final Notice of Reason for Refusal

Patent event date: 20200623

Patent event code: PE09021S02D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20200915

PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20201008

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20201012

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20230710

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20240812

Start annual number: 5

End annual number: 5