WO2019102897A1 - 制御装置、および制御方法、電子機器、並びにプログラム - Google Patents
制御装置、および制御方法、電子機器、並びにプログラム Download PDFInfo
- Publication number
- WO2019102897A1 WO2019102897A1 PCT/JP2018/041901 JP2018041901W WO2019102897A1 WO 2019102897 A1 WO2019102897 A1 WO 2019102897A1 JP 2018041901 W JP2018041901 W JP 2018041901W WO 2019102897 A1 WO2019102897 A1 WO 2019102897A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- control
- unit
- identification signal
- controller
- target device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4126—The peripheral being portable, e.g. PDAs or mobile phones
- H04N21/41265—The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4131—Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42222—Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42225—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details characterized by types of remote control, e.g. universal remote control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q9/00—Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
Definitions
- the present disclosure relates to a control device, a control method, an electronic device, and a program, and more particularly to a control device, a control method, an electronic device, and a program that enables remote control of various control target devices by a natural operation method. .
- Patent Document 1 A control device capable of remotely operating a control target device has been proposed (see Patent Document 1).
- the display unit provided on the control device side is used, and the type of the device and the controllable parameters and feedback are displayed when it is directed to the target, and the display content is visually recognized. Operation is required.
- the present disclosure has been made in view of such a situation, and in particular, enables a variety of control target devices to be remotely controlled by a natural operation method.
- the control device is a control device that receives an identification signal for identifying the control target device from a control target device that transmits or receives a wireless signal having directivity. And a control unit that transmits a control command for controlling the control target device specified by the identification signal to the control target device that has transmitted the identification signal, and the identification signal reception unit includes: The control device receives the identification signal that identifies the control target device when the orientation of the main body is adjusted to be able to receive the identification signal.
- the control unit may further include a direction detection unit that detects the direction of the main body of the control device, and the control unit may change the direction of the main body of the control device detected by the direction detection unit.
- the control command for controlling the control target device specified by the identification signal may be generated, and the generated control command may be transmitted to the control target device that has transmitted the identification signal.
- the control unit is configured to calculate a control parameter for controlling the control target device specified by the identification signal based on the change in the direction of the main body detected by the direction detection unit, and control according to the control parameter A command may be generated to be transmitted to the control target apparatus that has transmitted the identification signal.
- control unit In the control unit, the control target specified by the identification signal based on an amount of rotation when the main body of the control device detected by the direction detection unit rotates so as to twist around a predetermined axis.
- a control parameter for controlling the apparatus may be calculated, a control command according to the control parameter may be generated, and the identification signal may be transmitted to the control target apparatus that has transmitted the identification signal.
- a vibration unit may be further included to vibrate the main body of the control device, and the control unit may vibrate the vibration unit according to the control parameter.
- the control unit may vibrate the vibrating unit at a predetermined time interval and at a predetermined intensity according to the control parameter.
- control unit can vibrate the vibrating unit at a time interval according to the control parameter and at an intensity according to the control parameter.
- control unit can vibrate the vibrating unit at a constant interval and at a time interval corresponding to the control parameter.
- the control unit After the control target device that has transmitted the identification signal executes the control command, the control unit receives feedback information indicating the state of the control target device, and the vibration is generated based on the feedback information.
- the parts can be made to vibrate.
- An audio output unit for generating an audio can be further included, and the control unit can cause the audio output unit to output an audio according to the control parameter.
- the control target device may be a speaker device, and the control command may be a command for controlling the volume of the speaker device.
- the control target device may be a television receiver, and the control command may be a command for controlling a channel of the television receiver.
- the control target device may be a lighting device, and the control command may be a command for controlling the brightness of the lighting device.
- the control target device may be a projector device, and the control command may be a command for controlling movement of content projected on a wall surface by the projector device.
- the control unit may further include a vibration unit that vibrates the main body of the control device, and an imaging unit that captures an image of a wall surface on which the content is projected by the projector device, and the control unit includes the imaging unit.
- the vibration unit is vibrated according to the unevenness due to the texture on the moving line for moving the content. You can do so.
- the device to be controlled can be made to emit the identification signal by infrared light of a predetermined light emission pattern, an electromagnetic wave output by a directional antenna, or an ultrasonic wave output by a directional speaker.
- a control method is a control method of a control device, including identification to receive an identification signal for identifying the control target device from a control target device that transmits or receives a wireless signal having directivity. And a control process of transmitting a control command for controlling the control target device specified by the identification signal to the control target device that has transmitted the identification signal, the identification signal reception process including It is a control method of receiving the said identification signal which identifies the said control object device, when the direction of the main body of a control apparatus is adjusted to the state which can receive the said identification signal.
- a program is a program that causes a computer that controls a control device to function, and is an identification signal that identifies the control target device from a control target device that transmits or receives a wireless signal having directivity.
- An identification signal receiving unit for receiving the control signal, and a control unit for transmitting a control command for controlling the control target device specified by the identification signal to the control target device that has transmitted the identification signal;
- the signal receiving unit is a program for receiving the identification signal for identifying the control target device when the direction of the main body of the control device is adjusted to be able to receive the identification signal.
- an identification signal for identifying the control target device is received from the control target device that transmits or receives a wireless signal having directivity, and the control target device specified by the identification signal Identifying a control target device when a control command for controlling the control signal is transmitted to the control target device that has transmitted the identification signal, and the direction of the main body of the control device is adjusted to be able to receive the identification signal.
- An identification signal is received.
- the electronic device is an electronic device controlled by a control device, and generates an identification signal for identifying itself as the electronic device by a wireless signal having directivity.
- a control unit configured to control an operation by executing a control command for controlling the electronic device transmitted from the control device by recognizing the electronic device as a control target device based on the identification signal.
- the identification signal is received by the control device as the identification signal identifying the electronic device when the orientation of the main body of the control device is adjusted to be able to receive the identification signal.
- an electronic device controlled by a control device wherein a wireless signal having directivity is used to generate an identification signal for identifying itself as the electronic device, and based on the identification signal Operation is controlled by executing a control command for controlling the electronic device transmitted from the control device by recognizing the electronic device as a control target device, the identification signal being the control device
- the control device When the direction of the main body of the electronic device is adjusted to be able to receive the identification signal, it is received by the control device as the identification signal for identifying the electronic device.
- the control device of the present disclosure allows a plurality of control target devices to be switched by natural operation for remote control.
- FIG. 1 shows a configuration example of a control system for realizing the control device of the present disclosure.
- the control system 11 of the present disclosure includes a controller (control device) 31, a speaker device 32, a television receiver (TV) 33, a lighting device 34, and a wireless communication network 35.
- the controller 31 controls the volume of the speaker device 32, the channel of the television receiver (TV) 33, and the brightness of the lighting device 34 by remote control.
- the speaker device 32, the television receiver (TV) 33, and the lighting device 34 emit infrared light by emitting infrared light with a light emission pattern corresponding to the unique ID, and thereby emit an infrared light code.
- the controller 31 includes an infrared light receiving unit 55, and when the infrared light receiving unit 55 of the controller 31 is directed to a device to be controlled (a device to be controlled), an infrared light code from the device to be controlled Is received.
- the controller 31 recognizes the device specified based on the infrared light code received by the infrared light receiving unit 55 as a control target device.
- the infrared light receiving unit 55 is directed to the speaker device 32 so that the infrared light receiving unit 55 causes the red light of the speaker device 32 to be controlled.
- An ambient light code is received.
- the controller 31 recognizes the speaker device 32 as a control target device.
- the infrared light code from the television receiver 33 is directed by directing the infrared light receiving unit 55 'to the television receiver 33 as in the controller 31'. Is received.
- the controller 31 'recognizes the television receiver 33 as a control target device.
- the infrared light receiving section 55 ′ ′ is directed to the lighting device 34 like the controller 31 ′ ′, whereby the infrared light code from the lighting device 34 is received. Therefore, the controller 31 ′ ′ recognizes the lighting device 34 as a control target device.
- the controller 31, the speaker device 32, the television receiver (TV) 33, and the lighting device 34 can communicate with each other via a wireless communication network 35 such as WiFi or Bluetooth (registered trademark), for example.
- a wireless communication network 35 such as WiFi or Bluetooth (registered trademark), for example.
- the controller 31 establishes a control state by wireless communication via the wireless communication network 35 with the device recognized as the control target based on the infrared light code.
- the controller 31 includes an acceleration sensor and a gyro sensor, and when the control state is established, for example, as shown in FIG. 1, it is indicated by + or ⁇ in the figure centering on the axis Ax of the main body Measure the amount of rotation in the direction. Then, the controller 31 obtains a control parameter for controlling the volume, channel or brightness according to the measured amount of rotation, generates a control command based on the obtained control parameter, and transmits the control command via the wireless communication network 35. And transmit to the control target device.
- the speaker device 32, the television receiver (TV) 33, or the lighting device 34 to be controlled has a volume, a channel, and a brightness based on a control command transmitted from the controller 31 via the wireless communication network 35. Control. Further, the speaker device 32, the television receiver (TV) 33, or the lighting device 34 to be controlled transmits the state after control by the control command to the controller 31 as feedback information.
- the controller 31 receives feedback information indicating volume, channel, or brightness, which is transmitted from the speaker device 32, the television receiver (TV) 33, or the lighting device 34 after control by the control command.
- the controller 31 Since the controller 31 is provided with a vibration actuator, the controller 31 controls the vibration actuator to generate vibrations representing the current volume, channel and brightness according to the feedback information. In response to this vibration, the user simply holds the controller 31, and the volume, channel, and so on after control by the control command in the speaker device 32, the television receiver (TV) 33, or the lighting device 34 is performed. Or you can recognize the brightness.
- the user directs the controller 31 to a device to be controlled, and controls the volume, channel or brightness, which is the control parameter of the control object, by only rotating the main body of the controller 31 about the axis Ax. It becomes possible.
- the controller 31 vibrates according to feedback information indicating a state after control by the control command of the control target device.
- the user can recognize the volume, channel, or brightness of the control target device after being controlled by the control command according to the state of vibration.
- the upper part is a top view and a side view of the appearance of the main body of the controller 31, and the lower part is a sectional structural view from the upper surface and a sectional structural view from the side.
- the controller 31 is a flat plate-like bar with rounded corners as a whole, and an infrared light receiving unit 55 is provided at one end.
- the infrared light receiving unit 55 receives the unique infrared light code transmitted from the speaker device 32, the television receiver (TV) 33, or the lighting device 34 described above. That is, the controller 31 is held in a state where the infrared light receiving unit 55 on the right side in the drawing is directed to the control target device.
- the controller 31 is internally provided with a control module 51, a speaker 52, a vibration actuator 53, tact switches 54-1 to 54-3, and an infrared light receiving unit 55. ing.
- the control module 51 includes a processor or the like that controls the overall operation of the controller 31. More specifically, the control module 51 includes a control unit 71 (FIG. 4), an acceleration sensor 72 (FIG. 4), a gyro sensor 73 (FIG. 4), and a communication unit 74 (FIG. 4).
- the control unit 71 (FIG. 4), the acceleration sensor 72 (FIG. 4), the gyro sensor 73 (FIG. 4), and the communication unit 74 (FIG. 4) will be described later in detail with reference to FIG.
- the speaker 52 is controlled by the control module 51, and various states of the control target device after the remote control is performed based on the information indicating that the communication with the control target device of the remote control is established, and the feedback information. Generate a voice to notify you.
- the vibration actuator 53 is controlled by the control module 51, and based on information indicating that communication with the remote control target device has been established, or feedback information, various types of control target devices after remote control is performed. Generate a vibration to notify the status.
- the tact switches 54-1 to 54-3 are configured to come in contact with the exterior surface as shown in the upper part of FIG. 2 from the inside, and lightly press from the outside with a finger clicks like a button It has a possible structure, and outputs an operation signal corresponding to the operation content to the control module 51.
- the tact switches 54 are simply referred to as the tact switches 54, and the other configurations are also referred to.
- the infrared light receiving unit 55 receives an infrared light code transmitted from the speaker device 32, the television receiver (TV) 33, or the illumination device 34, which is a control target device, to the received infrared light code.
- the corresponding signal is output to the control module 51.
- the controller 31 has such a size that it can be gripped by the human hand as a user, and grips and uses the infrared light receiving unit 55 in a state in which it is directed forward (in the direction in which the control target device exists). . Then, while holding the controller 31, the user controls the control target device by rotating it in the direction in which + or-in the drawing is displayed, around the axis Ax in FIG.
- the controller 31 includes the control module 51, the speaker 52, the vibration actuator 53, the tact switches 54-1 to 54-3, and the infrared light receiving unit 55 described above. Further, the control module 51 includes a control unit 71, an acceleration sensor 72, a gyro sensor 73, and a communication unit 74.
- the control unit 71 is configured of a processor or the like, and controls the entire operation of the control module 51.
- the acceleration sensor 72 measures the acceleration in the three-dimensional direction of the main body of the controller 31, and outputs the measured acceleration to the control unit 71.
- the gyro sensor 73 detects the angular velocity and the angle of the controller 31 and outputs the detected angular velocity and angle to the control unit 71.
- the communication unit 74 establishes a control state by communicating with the speaker device 32, the television receiver (TV) 33, or the lighting device 34, which is the control target device, via the wireless communication network 35 composed of WiFi, Bluetooth, or the like. Control device to be controlled by transmitting a command according to the control parameter.
- the controller 31 establishes a control state with a specific device
- the controller 31 recognizes a specific device as a control target device and puts it in a controllable state.
- the control unit 71 detects the presence or absence of the infrared light code from the control target device based on the signal output according to the light reception state of the infrared light from the infrared light receiving unit 55.
- control unit 71 specifies the control target based on the infrared light code, controls the communication unit 74, and controls the control target device via the wireless communication network 35. Establish.
- control unit 71 may control the speaker 52 to notify that the control state has been established as a sound.
- control unit 71 controls the vibration actuator 53 to generate the vibration corresponding to the current volume, channel and brightness of the control target device based on the feedback information, and controls the speaker 52. Output the corresponding voice.
- the user can recognize that the control state has been established and can also recognize the current state of the control target device.
- the controller 71 controls the controller based on the information of the acceleration from the acceleration sensor 72 and the information of the angular velocity and the angle from the gyro sensor 73. By detecting the change in posture 31, for example, the amount of rotation about the axis Ax is calculated.
- the control unit 71 calculates control parameters of the control target device according to the calculated rotation amount, generates a corresponding control command, controls the communication unit 74, and transmits the control command to the control target device.
- the vibration actuator 53 generates a vibration corresponding to the control parameter of the current control target device based on the feedback information supplied from the control target device.
- control parameter is a control parameter that controls the volume, the channel, and the brightness.
- control parameters for volume and brightness are continuous variables, but the control parameters for controlling the channel are discrete variables.
- control unit 71 controls the vibration actuator 53 to control the intensity according to the magnitude of the control parameter. And, while vibrating for a time corresponding to the magnitude of the control parameter, the speaker 52 is controlled to output the corresponding sound.
- the vertical axis represents the vibration intensity of the vibration actuator 53 (and the volume of the sound output from the speaker 52) and the control parameter CV
- the horizontal axis represents the vibration actuator 53.
- the vibration interval and the time representing the output interval of the sound output from the speaker 52 are shown.
- the vibration actuator 53 is vibrated at the time interval and the strength corresponding to the magnitude of the control parameter CV, and the sound is output from the speaker 52 at the corresponding timing and volume.
- the control unit 71 controls the vibration actuator 53 to be the same regardless of the magnitude of the control parameters.
- the vibration actuator 53 is vibrated for a longer time than the control parameter which is a continuous variable at a strength and at a time interval corresponding to the magnitude of the control parameter, or an audio is output from the speaker 52.
- the vibration of intensity St11 is output from the vibration actuator 53 for the length of time t11 to time t12 at time intervals of time t0 to t11.
- An audio of a similar volume and volume, which has a similar interval and length and corresponds to the same intensity St1 is output from the speaker 52.
- the vibration actuator 53 is vibrated at a constant intensity St11, at a constant length from time t11 to time t12, and at a time interval according to the magnitude of the control parameter DV, and the speaker with corresponding timing and volume It is output from 52.
- the speaker device 32 receives, for example, an audio signal from an audio amplifier (not shown) and an audio signal from a television receiver (TV) 33 from the outside, and outputs an amplified audio or the like.
- the speaker device 32 includes a control unit 91, an infrared light emitting unit 92, a communication unit 93, a volume controller 94, a speaker 95, and an external input unit 96.
- the control unit 91 is configured of a processor or the like, and controls the overall operation of the speaker device 32.
- the infrared light emitting unit 92 is controlled by the control unit 91, and emits an infrared light code including the unique ID of the speaker device 32 in a predetermined pattern.
- the communication unit 93 is controlled by the control unit 91, communicates with the controller 31 via the wireless communication network 35 such as WiFi or Bluetooth, and receives a control command corresponding to a control parameter for controlling the volume, and the control unit Output to 91.
- the wireless communication network 35 such as WiFi or Bluetooth
- the volume controller 94 is controlled by the control unit 91, and outputs the input audio signal to the speaker 95 with a volume (volume) according to the control command to output as an audio.
- the external input unit 96 receives an input of an audio signal from an audio amplifier (not shown) and an audio signal from a television receiver (TV) 33, and outputs the input to the control unit 91.
- the control unit 91 acquires the control command received via the communication unit 93, and supplies the control command to the volume controller 94.
- the volume controller 94 adjusts the volume of the speaker 95 based on the control command, and causes the speaker 95 to output an audio signal supplied via the external input unit 96 as an audio.
- the television receiver (TV) 33 selects a predetermined channel, receives a broadcast wave of the selected channel, decodes the image signal and the audio signal from the broadcast wave, and decodes the image signal and the audio signal.
- An image is generated and displayed based on a certain image signal, and sound is output based on an audio signal which is a decoding result.
- the television receiver 33 includes a control unit 111, an infrared light emitting unit 112, a communication unit 113, a channel controller 114, a tuner 115, a display unit 116, a speaker 117, a volume controller 118, and an external input unit 119. Is equipped.
- the control unit 111 is configured of a processor and the like, and controls the overall operation of the television receiver 33.
- the infrared light emitting unit 112 is controlled by the control unit 111, and emits an infrared light code including the unique ID of the television receiver 33 in a predetermined pattern.
- the communication unit 113 is controlled by the control unit 111, communicates with the controller 31 via the wireless communication network 35 composed of WiFi, Bluetooth, etc., and receives a control command corresponding to a control parameter for controlling a channel, Output to 111.
- the control unit 111 controls the channel controller 114 to control the tuner 115 to select a channel based on the control command.
- the tuner 115 is controlled by the channel controller 114, receives a broadcast wave from a channel designated based on a control command, and decodes the received broadcast wave to generate an image signal and an audio signal. Then, the tuner 115 outputs the generated image signal to the display unit 116 for display, and outputs the generated audio signal to the speaker 117 for audio output.
- the external input unit 119 receives an input of an image signal and an audio signal from an external device (not shown), and outputs the input to the control unit 111.
- control unit 111 acquires the control command received through the communication unit 113, controls the channel controller 114 based on the control command, and broadcasts the channel designated by the control command to the tuner 115. Let the waves be received.
- the tuner 115 receives a broadcast wave of the corresponding channel, decodes the signal of the received broadcast wave, extracts an image signal and an audio signal, and outputs the image signal to the display unit 116 for display, as well as an audio signal. Are output to the speaker 117 and output as sound.
- the volume controller 118 is controlled by the control unit 111, and outputs the input audio signal to the speaker 117 at a volume according to the control command to output as an audio.
- the configuration of the volume controller 118 is basically the same as that of the speaker device 32. For this reason, even in the television receiver 33, it is possible to remotely control the volume by the controller 31, but here, only the operation when remote controlling the channel to the television receiver 33 will be described. .
- the control unit 111 acquires a control command received via the communication unit 113, controls the channel controller 114 based on the control command, and controls a channel received by the tuner 115.
- the tuner 115 receives the broadcast wave of the designated channel, decodes the received broadcast wave, generates an image signal and an audio signal, and outputs the image signal to the display unit 116 to display as an image.
- an audio signal is output to the speaker 117 and output as audio.
- the lighting device 34 functions as a lighting device in a room.
- the lighting device 34 includes a control unit 131, an infrared light emitting unit 132, a communication unit 133, an illuminance controller 134, a light emitting unit 135, and an external input unit 136.
- the control unit 131 is configured by a processor or the like, and controls the overall operation of the lighting device 34.
- the infrared light emitting unit 132 is controlled by the control unit 131, and emits an infrared light code including the unique ID of the illumination device 34 in a predetermined pattern.
- the communication unit 133 is controlled by the control unit 131, communicates with the controller 31 via the wireless communication network 35 composed of WiFi, Bluetooth, etc., receives a control command according to a control parameter for controlling the brightness, and performs control. Output to the part 131.
- the illuminance controller 134 is controlled by the control unit 131 and causes the light emitting unit 135 to emit light at the brightness according to the control command.
- the external input unit 136 receives inputs of various signals from an external device (not shown) and outputs the signals to the control unit 131.
- the control unit 131 acquires the control command received via the communication unit 133, controls the illuminance controller 134 based on the control command, and adjusts the brightness of the light emitting unit 135 to emit light.
- the flowchart of FIG. 8 explains the processing of the speaker device 32, the flowcharts of FIG. 9 to FIG. 11 explain the processing of the controller 31, and the flowchart of FIG. 12 shows the processing of the television receiver 33.
- the flowchart of FIG. 13 illustrates the process of the illumination device 34.
- a process of controlling the speaker device 32 will be described, and a process of controlling the television receiver 33 and the lighting device 34 will be described.
- step S11 the control unit 91 controls the infrared light emitting unit 92 to emit an infrared light code indicating a unique ID of the speaker device 32 in a predetermined pattern.
- step S12 the control unit 91 controls the communication unit 93 to be recognized as a control target from the controller 31, determines whether or not the control state has been established, and is recognized as a control target. If it is not notified that the control state has been established, the process returns to step S11.
- the speaker device 32 repeats the processing of steps S11 and S12 until it is recognized as a control target and the control state is established.
- step S31 the control unit 71 of the controller 31 controls the infrared light receiving unit 55 to determine whether an infrared light code including an ID for identifying the speaker device 32 is received. Do. For example, when the user grips the controller 31 and directs the infrared light receiving unit 55 to the direction of the speaker device 32 to control the speaker device 32, the infrared light code from the speaker device 32 is received. Then, in step S31, for example, the infrared light code from the speaker device 32 is considered to be received, and the process proceeds to step S32.
- step S32 the control unit 71 controls the communication unit 74 to recognize the speaker device 32 as a control target via the wireless communication network 35, and notifies that the control state has been established.
- step S12 (FIG. 8) a notification indicating that the control target has been recognized and the control state has been established is received, and the processing proceeds to step S13.
- step S13 the control unit 91 controls the communication unit 93 to establish a control state by the controller 31 via the wireless communication network 35.
- step S14 the control unit 91 inquires of the volume controller 94, reads out information of control parameters indicating the current volume, and controls the communication unit 93 as feedback information to make the controller 31 transmit.
- step S33 the control unit 71 of the controller 31 controls the communication unit 74 to determine whether feedback information has been transmitted from the speaker device 32 to be controlled and transmitted. Repeat the same process until it comes.
- step S33 when it is considered that feedback information has been transmitted by the process of step S14, the process proceeds to step S34.
- step S34 the control unit 71 controls the vibration actuator 53, and corresponds to the volume of the current speaker device 32, which is feedback information received via the communication unit 74 as described with reference to FIG.
- the control unit 71 controls the speaker 52, and as described with reference to FIG. 4, a control parameter corresponding to the volume of the current speaker device 32, which is feedback information received via the communication unit 74.
- the sound information in the current speaker device 32 is fed back by generating sound at the time interval and the intensity (volume) corresponding to.
- the user can establish the control state only by pointing the infrared light receiving unit 55 to the speaker device 32 to be controlled, and recognize that the control state is established by vibration and voice. Can be recognized, and the volume of the current speaker device 32 can also be recognized.
- step S35 the controller 71 controls the main body of the controller 31 centering on the axis Ax in FIG. 1, for example, based on the detection results of the acceleration sensor 72 and the gyro sensor 73 in a state where the tact switch 54 is pressed. It is determined whether or not a rotation that twists in the + direction or-direction in the drawing is applied.
- step S35 for example, in a state in which the tact switch 54 is pressed, and when it is considered that a rotation is applied to twist the main body of the controller 31 around the axis Ax in FIG. 1, the process proceeds to step S36. move on.
- step S36 the control unit 71 detects the amount of rotation based on the detection results of the acceleration sensor 72 and the gyro sensor 73, and generates a control parameter according to the amount of rotation. That is, the control unit 71 generates a control parameter such as increasing or decreasing the volume of the speaker device 32 according to the amount of rotation.
- step S37 the control unit 71 generates a control command corresponding to the generated control parameter, controls the communication unit 74, and transmits the control command to the speaker device 32.
- step S15 the control unit 91 of the speaker device 32 controls the communication unit 93 to determine whether or not a control command has been transmitted from the controller 31.
- step S15 when the control command is transmitted by the process of step S37, the process proceeds to step S16.
- step S16 the control unit 91 controls the volume controller 94 to control the volume of the speaker 95 in response to the control parameter corresponding to the control command. That is, the control unit 91 instructs the volume controller 94 how much to increase the volume or how much to decrease the volume based on the control parameter.
- the volume controller 94 controls the volume output from the speaker 95 based on this command.
- step S17 the control unit 91 inquires of the volume controller 94, acquires information on the current sound volume, controls the communication unit 93, and causes the controller 31 to transmit the information as feedback information.
- step S18 the control unit 91 controls the communication unit 93 to determine whether or not the controller 31 has been notified that the controller 31 has deviated from the control target. It returns to step S15.
- step S15 when the control command is not transmitted, the processes of steps S16 and S17 are skipped.
- steps S15 to S18 is repeated until the controller 31 notifies that the controller 31 has deviated from the control target, and the process of controlling the volume is repeated each time a control command is transmitted.
- step S38 the control unit 71 of the controller 31 controls the communication unit 74 to determine whether feedback information has been transmitted from the speaker device 32, and the same processing is performed until it is transmitted. repeat.
- step S38 when feedback information is transmitted by the process of step S17, the process proceeds to step S39.
- step S39 the control unit 71 controls the communication unit 74 to receive the transmitted feedback information. Then, the control unit 71 controls the vibration actuator 53 and, as described with reference to FIG. 4, the volume of the continuous variable in the speaker device 32 which is the feedback information received via the communication unit 74. Generates vibrations at time intervals and intensities corresponding to control parameters corresponding to In addition, the control unit 71 controls the speaker 52, and as described with reference to FIG. 4, it is feedback information received via the communication unit 74, and has a volume consisting of continuous variables in the current speaker device 32. Sound is generated at time intervals and intensities (volumes) corresponding to corresponding control parameters.
- step S40 when the control unit 71 transmits the control command even once, whether the elapsed time from the last transmission of the control command has exceeded a predetermined time or not, or transmits the control command If not, it is determined whether or not an elapsed time since the control state is established has exceeded a predetermined time.
- step S40 when neither the elapsed time since the last transmission of the control command nor the elapsed time since the control state was established, the process returns to step S35.
- step S35 when the rotation of the main body of the controller 31 is not detected in step S35, the processes of steps S36 to S39 are skipped.
- steps S35 to S40 are repeated until the elapsed time of the predetermined time elapses, and the state in which the rotation operation of the controller 31 for controlling the volume of the speaker device 32 is accepted is continued.
- step S40 when the control command is transmitted even once, the control state is the time when the elapsed time since the last transmission of the control command has exceeded a predetermined time or when the control command is not transmitted. If the elapsed time since the establishment is over for a predetermined time, the process proceeds to step S41.
- step 41 the control unit 71 controls the communication unit 74 to notify the speaker device 32 of the fact that it is out of the control target, and releases the control state.
- step S42 the control unit 71 determines whether or not termination of the remote operation control process is instructed. If the termination is not instructed, the process returns to step S31. Further, in step S42, when termination of the remote control processing is instructed, the processing is terminated.
- step S18 the speaker device 32 is notified in step S18 (FIG. 8) that it is out of the control target, the process proceeds to step S19.
- step S19 the control unit 91 controls the communication unit 93 to release the control state of the controller 31 via the wireless communication network 35.
- step S20 the control unit 91 determines whether or not termination of the remote operation control process is instructed. If the termination is not instructed, the process returns to step S11. Further, in step S20, when the end of the remote operation control process is instructed, the process ends.
- the controller 31 is rotated without leaving an interval of a predetermined time or more, and while the control command for adjusting the volume is continuously transmitted to the speaker device 32, or Even if the control command is not transmitted, the controller 31 may be rotated for a predetermined time to transmit the control command for controlling the sound volume to the speaker device 32 to adjust the sound volume. It will be possible to continue.
- the user can urge the establishment of the control state by holding the controller 31 and directing the infrared light receiving unit 55 to the speaker device 32 to be controlled, and when the control state is established, vibration and sound are generated.
- the establishment of the control state can be recognized, and at the same time, the state of the volume of the speaker device 32 at that time can be recognized.
- a control command for causing the speaker device 32 to adjust the volume can be adjusted simply by performing an operation to twist around the axis Ax in FIG. 1 while pressing the tact switch 54.
- the volume of the speaker device 32 can be adjusted based on the control command.
- information indicating the current volume is returned as feedback information, and can be recognized by vibration and sound.
- a control state is not performed when a twisting operation for controlling the volume of the speaker device 32 using the controller 31 is not performed for a predetermined time or more. Is released.
- the speaker device 32 can be remotely controlled by such a series of natural operations.
- step S81 the control unit 111 controls the infrared light emitting unit 112 to emit an infrared light code indicating a unique ID for identifying the television receiver 33 in a predetermined pattern.
- step S82 the control unit 111 controls the communication unit 113 to be recognized as a control target from the controller 31, determines whether or not the control state has been established, and is recognized as a control target. If it is not notified that the control state has been established, the process returns to step S81.
- the television receiver 33 repeats the processing of steps S81 and S82 until it is recognized as a control target and the control state is established.
- step S31 the infrared code from the speaker device 32 has not been transmitted in step S31 (FIG. 9). the process proceeds to step S43.
- step S43 the control unit 71 of the controller 31 controls the infrared light receiving unit 55 to determine whether an infrared light code including an ID for identifying the television receiver 33 has been received. Do. For example, when the user holds the controller 31 and directs the infrared light receiving unit 55 to the television receiver 33 in order to control the television receiver 33, the red light from the television receiver 33 can be obtained.
- step S43 for example, the infrared light code from the television receiver 33 is received, and the process proceeds to step S44.
- step S44 the control unit 71 controls the communication unit 74 to recognize the television receiver 33 as a control target via the wireless communication network 35, and notifies that the control state has been established.
- step S82 (FIG. 12) a notification that is recognized as a control target and indicating that a control state has been established is received, and the processing proceeds to step S83.
- step S83 the control unit 111 controls the communication unit 113 to establish a control state by the controller 31 via the wireless communication network 35.
- step S84 the control unit 111 inquires the channel controller 114, reads out information on control parameters indicating the current channel, controls the communication unit 113 as feedback information, and causes the controller 31 to transmit.
- step S45 the control unit 71 of the controller 31 controls the communication unit 74 to determine whether feedback information has been transmitted from the television receiver 33 to be controlled, and transmits the feedback information. Repeat the same process until it is done.
- step S45 when it is considered that feedback information has been transmitted by the process of step S84, the process proceeds to step S46.
- step S46 the control unit 71 controls the vibration actuator 53, and the discrete information in the current television receiver 33, which is feedback information received via the communication unit 74, as described with reference to FIG. Vibrations are generated at time intervals and intensities corresponding to control parameters corresponding to the variable channel.
- the control unit 71 controls the speaker 52 and is a discrete variable in the current television receiver 33, which is feedback information received via the communication unit 74 as described with reference to FIG. Audio is generated at time intervals and intensities (volumes) corresponding to control parameters corresponding to channels.
- the user merely establishes the control state by pointing the infrared light receiving unit 55 to the television receiver 33 to be controlled, and recognizes that the control state is established by vibration and voice. And the channel of the current television receiver 33 can also be recognized.
- step S47 with the tact switch 54 depressed, the controller 71 determines the main body of the controller 31 centering on the axis Ax of FIG. 1 based on the detection results of the acceleration sensor 72 and the gyro sensor 73, for example. It is determined whether a twisting rotation has been applied.
- step S47 for example, when it is determined that the tact switch 54 is pressed and that rotation such that the main body of the controller 31 is twisted around the axis Ax in FIG. 1 is performed, the process proceeds to step S48. move on.
- step S48 the control unit 71 detects the amount of rotation based on the detection results of the acceleration sensor 72 and the gyro sensor 73, and generates a control parameter according to the amount of rotation. That is, the control unit 71 generates control parameters such as increasing or decreasing the channel of the television receiver 33 according to the amount of rotation.
- step S49 the control unit 71 generates a control command according to the generated control parameter, controls the communication unit 74, and transmits the control command to the television receiver 33.
- step S85 the control unit 111 of the television receiver 33 controls the communication unit 113 to determine whether a control command has been transmitted from the controller 31 or not.
- step S85 when the control command is transmitted by the process of step S49, the process proceeds to step S86.
- step S86 the control unit 111 controls the channel controller 114 to control the channel in the tuner 115 based on the control parameter corresponding to the control command.
- control unit 111 instructs the channel controller 114 how much to increase or decrease the channel based on the control parameter.
- the channel controller 114 controls the channel selected by the tuner 115 based on this command.
- the channel selected by the tuner 115 is switched, the broadcast wave of the channel switched and received is received, and the received broadcast wave is decoded to generate an image signal and an audio signal. Then, an image based on the generated image signal is displayed on the display unit 116, and an audio corresponding to the generated audio signal is output from the speaker 117.
- step S87 the control unit 111 inquires the channel controller 114, acquires information on the current channel, controls the communication unit 113, and causes the controller 31 to transmit the information as feedback information.
- step S88 the control unit 111 controls the communication unit 113 to determine whether or not the controller 31 has been notified that the controller 31 has deviated from the control target. It returns to step S85.
- step S85 when the control command has not been transmitted, the processing in steps S86 and S87 is skipped.
- steps S85 to S88 is repeated until the controller 31 notifies that the controller 31 has deviated from the control target, and the process of controlling the channel is repeated each time a control command is transmitted.
- step S50 the control unit 71 of the controller 31 controls the communication unit 74 to determine whether or not feedback information has been transmitted from the television receiver 33, and so on until it is transmitted. Repeat the process of In step S50, when feedback information is transmitted by the process of step S87, the process proceeds to step S51.
- step S51 the control unit 71 controls the communication unit 74 to receive the transmitted feedback information. Then, the control unit 71 controls the vibration actuator 53 and, as described with reference to FIG. 4, the feedback information received via the communication unit 74 is a discrete variable in the current television receiver 33. Vibration is generated at time intervals and intensities corresponding to control parameters corresponding to a certain channel. In addition, the control unit 71 controls the speaker 52 and is a discrete variable in the current television receiver 33, which is feedback information received via the communication unit 74 as described with reference to FIG. Audio is generated at time intervals and intensities (volumes) corresponding to control parameters corresponding to channels.
- step S52 when the control unit 71 transmits the control command even once, it determines whether the elapsed time from the last transmission of the control command has passed a predetermined time or more, or does not transmit the control command. In this case, it is determined whether an elapsed time after the control state is established has exceeded a predetermined time. In step S52, when neither the elapsed time since the control command was transmitted last nor the elapsed time after the control state is established, the process returns to step S47.
- step S47 When the rotation of the main body of the controller 31 is not detected in step S47, the processes of steps S48 to S51 are skipped.
- step S52 when the control command has been transmitted even once, the control state is the time when the elapsed time since the last transmission of the control command has exceeded a predetermined time or when the control command has not been transmitted. If the elapsed time since the establishment is over for a predetermined time, the process proceeds to step S53.
- step S53 the control unit 71 controls the communication unit 74 to notify the television receiver 33 that the object is out of the control target, and cancels the control state.
- step S88 in the television receiver 33, when it is notified in step S88 (FIG. 12) that it is out of the control object, the process proceeds to step S89.
- step S 89 the control unit 111 controls the communication unit 113 to release the control state via the wireless communication network 35.
- step S90 the control unit 111 determines whether or not termination of the remote operation control process is instructed. If the termination is not instructed, the process returns to step S81. Further, in step S90, when termination of the remote control processing is instructed, the processing is terminated.
- control state is established, while the controller 31 is rotated and the control command for adjusting the channel to the television receiver 33 continues to be transmitted without an interval of a predetermined time or more. Or, even if the control command is not transmitted, the control command for controlling the channel is transmitted to the television receiver 33 by rotating the controller 31 for a predetermined time, and the channel is set.
- An adjustable state continues.
- the establishment of the control state can be promoted, and when the control state is established, vibration is generated.
- a command can be sent, and based on the control command, the channel of the television receiver 33 is adjusted.
- information indicating the current channel is returned as feedback information from the television receiver 33, and can be recognized by vibration and sound.
- the control state is released when a predetermined time passes.
- step S101 the control unit 131 controls the infrared light emitting unit 132 to emit an infrared light code indicating a unique ID for identifying itself in a predetermined pattern.
- step S102 the control unit 131 controls the communication unit 133 to be recognized as a control target from the controller 31, determines whether or not it is notified that the control state has been established, and is recognized as a control target. If it is not notified that the control state has been established, the process returns to step S101.
- the lighting device 34 repeats the processing of steps S101 and S102 until it is recognized as a control target and the control state is established.
- step S54 if the infrared code from the television receiver 33 has not been transmitted in step S43 (FIG. 10), the process proceeds to step S54.
- step S54 the control unit 71 of the controller 31 controls the infrared light receiving unit 55 to determine whether an infrared light code including an ID for identifying the lighting device 34 has been received. For example, when the user holds the controller 31 and directs the infrared light receiving unit 55 in the direction of the lighting device 34 to control the lighting device 34, the infrared light code from the lighting device 34 is received. In step S54, for example, the infrared light code from the illumination device 34 is received, and the process proceeds to step S55.
- step S55 the control unit 71 controls the communication unit 74 to recognize the illumination device 34 as a control target via the wireless communication network 35, and notifies that the control state has been established.
- step S102 (FIG. 13) a notification indicating that the control object has been recognized and the control state has been established is received, and the process proceeds to step S103.
- step S103 the control unit 131 controls the communication unit 133 to establish a control state by the controller 31 via the wireless communication network 35.
- step S104 the control unit 131 inquires of the illuminance controller 134 to read out information on control parameters indicating the current brightness, and controls the communication unit 133 as feedback information to transmit the information to the controller 31.
- step S56 the control unit 71 of the controller 31 controls the communication unit 74 to determine whether feedback information has been transmitted from the lighting device 34 to be controlled and transmitted. Repeat the same process until it comes.
- step S56 when it is considered that feedback information has been transmitted by the process of step S104, the process proceeds to step S57.
- step S57 the control unit 71 controls the vibration actuator 53, as described with reference to FIG. 4, from the continuous variable in the current lighting device 34, which is feedback information received via the communication unit 74. Vibration is generated at time intervals and intensities corresponding to control parameters corresponding to In addition, the control unit 71 controls the lighting device 34, and as described with reference to FIG. 4, the brightness which is the feedback information received via the communication unit 74 and which is a continuous variable in the current lighting device 34 The voice is generated at time intervals and intensities (volumes) corresponding to control parameters corresponding to
- the user establishes the control state only by pointing the infrared light receiving unit 55 to the lighting device 34 that is to be controlled, and recognizes that the control state is established by vibration and voice. And the brightness of the current lighting device 34 can also be recognized.
- step S58 the controller 71 controls the main body of the controller 31 centering on the axis Ax in FIG. 1, for example, based on the detection results of the acceleration sensor 72 and the gyro sensor 73 in a state where the tact switch 54 is pressed. It is determined whether a twisting rotation has been applied. In step S58, for example, when it is determined that the tact switch 54 is pressed and that rotation such that the main body of the controller 31 is twisted around the axis Ax in FIG. 1 is performed, the process proceeds to step S59. move on.
- step S59 the control unit 71 detects the amount of rotation based on the detection results of the acceleration sensor 72 and the gyro sensor 73, and generates a control parameter according to the amount of rotation. That is, the control unit 71 generates control parameters such as how bright or dark the brightness of the lighting device 34 according to the amount of rotation.
- step S60 the control unit 71 generates a control command according to the generated control parameter, controls the communication unit 74, and transmits the control command to the lighting device 34.
- step S105 the control unit 131 of the lighting device 34 controls the communication unit 133 to determine whether or not a control command has been transmitted from the controller 31.
- step S105 when the control command is transmitted by the process of step S60, the process proceeds to step S106.
- step S106 the control unit 111 controls the illuminance controller 134 to control the brightness of the light emitting unit 135 in accordance with the control parameter corresponding to the control command.
- the control unit 131 instructs the illuminance controller 134 how bright the light emitting unit 135 emits light or how dark the light emitting unit 135 is to be.
- the illuminance controller 134 controls the brightness of light emitted from the light emitting unit 135 based on the command. As a result, the brightness of the light emitting unit 135 is adjusted.
- step S107 the control unit 131 inquires the illuminance controller 134 to acquire information on the current brightness, and controls the communication unit 133 to transmit the information as feedback information to the controller 31.
- step S108 the control unit 131 controls the communication unit 133 to determine whether or not the controller 31 has been notified that the controller 31 has deviated from the control target. It returns to step S105.
- step S105 when the control command is not transmitted, the processing of steps S106 and S107 is skipped.
- steps S105 to S108 is repeated until the controller 31 notifies that the controller 31 has deviated from the control target, and the process of controlling the brightness is repeated each time a control command is transmitted.
- step S61 the control unit 71 of the controller 31 controls the communication unit 74 to determine whether feedback information has been transmitted from the lighting device 34, and the same processing is performed until it is transmitted. repeat.
- step S61 when feedback information is transmitted by the process of step S107, the process proceeds to step S62.
- step S62 the control unit 71 controls the communication unit 74 to receive the transmitted feedback information. Then, the control unit 71 controls the vibration actuator 53 and, as described with reference to FIG. 4, the brightness including the continuous variable in the current lighting device 34 which is the feedback information received via the communication unit 74. Vibration is generated at time intervals and intensities corresponding to control parameters corresponding to In addition, the control unit 71 controls the speaker 52 and, as described with reference to FIG. 4, the brightness which is the feedback information received via the communication unit 74 and which is the continuous variable in the current lighting device 34 The sound is generated at time intervals and intensities (volumes) corresponding to control parameters corresponding to
- step S63 if the control unit 71 has transmitted the control command even once, whether the elapsed time since the last transmission of the control command has exceeded a predetermined time or not, or if the control command has not been transmitted It is determined whether an elapsed time after the control state is established has exceeded a predetermined time. In step S63, when neither the elapsed time since the control command was last transmitted nor the elapsed time after the control state is established, the process returns to step S58.
- step S58 when the rotation of the main body of the controller 31 is not detected in step S58, the processes of steps S59 to S62 are skipped.
- step S63 when the control command has been transmitted even once, the control state is established when the elapsed time since the last transmission of the control command has exceeded a predetermined time or when the control command has not been transmitted. If the elapsed time since the command has been passed has exceeded the predetermined time, the process proceeds to step S64.
- step 64 the control unit 71 controls the communication unit 74 to notify the lighting device 34 that the object is out of the control target, and cancels the control state.
- step S108 the lighting device 34 is notified in step S108 (FIG. 13) that it has deviated from the control object, and the process proceeds to step S109.
- step S109 the control unit 131 controls the communication unit 133 to release the control state via the wireless communication network 35.
- step S110 the control unit 131 determines whether or not termination of the remote operation control process is instructed. If the termination is not instructed, the process returns to step S101. In addition, in step S110, when the end of the remote control control process is instructed, the process ends.
- the controller 31 is rotated and the control command for adjusting the brightness to the illumination device 34 is continuously transmitted without leaving an interval of a predetermined time or more, Alternatively, even if the control command is not transmitted, the controller 31 is rotated for a predetermined time to transmit the control command for controlling the brightness to the lighting device 34 to adjust the brightness. It will continue to be able to
- the user can urge the establishment of the control state by holding the controller 31 and pointing the infrared light receiving unit 55 to the lighting device 34 that is desired to be controlled, and when the control state is established, vibration and voice
- the establishment of the control state can be recognized, and at the same time, the state of the brightness of the illumination device 34 at that time can be recognized.
- a control command for causing the lighting device 34 to adjust the brightness simply by performing an operation to twist around the axis Ax in FIG. 1 while pressing the tact switch 54. And the brightness of the lighting device 34 is adjusted based on the control command. At this time, information indicating the current brightness is returned from the lighting device 34 as feedback information, and can be recognized by vibration and voice.
- the control state is released when a predetermined time has elapsed.
- the single controller 31 promotes establishment of the control state only by directing the infrared light receiving unit 55 to the control target device among the speaker device 32, the television receiver 33, and the lighting device 34.
- the control state can be established and the volume, channel and brightness states of the device to be controlled can be recognized.
- control state it is possible to control the volume, the channel, and the brightness by rotating so as to twist around a predetermined axis Ax while pressing the tact switch 54.
- the establishment of the control state is canceled when a predetermined time passes.
- control parameters can set continuous variable parameters and discrete variable parameters.
- the continuous variable parameter is a control value which takes a continuous value, and is, for example, volume, brightness, and the like.
- the discrete variable parameter is a control value which takes a jump value, and is, for example, the power supply or the function ON / OFF, the channel of the television receiver 33, or the like.
- the volume is a continuous variable parameter
- the channel being a discrete variable parameter and the volume being a continuous variable parameter
- the light quantity may be a continuous variable parameter.
- the preset temperature as a continuous variable parameter and the preset air volume are used.
- the light blocking angle is a continuous variable parameter.
- the unlocking / locking is a discrete variable parameter.
- the continuous variable parameters volume, brightness, setting temperature, setting air volume, and light blocking angle can not be set to continuous values such as large / medium / small or high / low, selectable control If the value is limited or if it is desired to simplify the control, it may be treated as a discrete variable parameter.
- control target device is recognized based on the unique ID recognized by the infrared light code consisting of infrared light emitted by the infrared light emitting units 92, 112, 132 has been described.
- the control target device may be recognized by a method other than infrared light, and for example, light other than infrared light (however, non-visible light is preferable) It may be used, or an electromagnetic wave (so-called radio) having directivity, an ultrasonic wave or the like may be used.
- Second embodiment An example in which the control target device is controlled by setting the control state by directing the infrared light receiving unit 55 of the controller 31 to the control target device and rotating it about the axis Ax has been described. If there is content implemented by the target device, the content may be controlled.
- FIG. 15 shows a configuration example of a control system according to the second embodiment of this disclosure.
- the control system 11 of FIG. 15 includes a controller 31, a projector device 201, and a wireless communication network 35.
- the controller 31 In the control system 11 of FIG. 15, in the projection areas Z1 and Z2 projected onto the wall surfaces K1 and K2 by the projector device 201, the content such as the photograph P1 is projected, and the controller 31 outputs the photograph P1 which is the content. It is selected and projected on the projection areas Z1 and Z2.
- a camera is newly provided in the vicinity of the infrared light receiving unit 55, and any content is recognized by recognizing the content such as the photograph P1 projected on the wall surfaces K1 and K2 as an image. Recognize your choice.
- the controller 31 recognizes that the picture P1 has been selected, and notifies that the picture P1, which is the content, is selected by vibration and sound.
- the photograph P1 moves and is displayed on the projection area Z1 according to the change in orientation, for example, as shown by the controllers 31a to 31e as shown in FIG.
- the photographs P1 are projected and displayed to sequentially move to the photographs P2 to P5 correspondingly.
- the grid is a position, which is set at a predetermined interval in advance, at which a picture, which is content, can be stopped on the projection areas Z1 and Z2 which are projection planes of the projector device 201.
- positions indicated by dotted lines are set to grids G1 to G3.
- the photograph P1 is moved between the grids G1 and G2 as shown by the photograph P11.
- the tact switch 54 is released, the photograph P11 does not stay at the position shown by the dotted line in the figure, and either the grid G1 or G2 or the central position (other than the central position) of the photograph P11 is Move so as to be attracted to the closer grid and stop.
- the controller 31 when the controller 31 selects the picture P1 and moves it in the arrow direction (left direction in the figure), the controller 31 changes the wall surface K1 according to the texture of the wall surfaces K1 and K2 on the moving path. , K2 when the unevenness of the surface is expressed by vibration, when it comes in contact with the angle C that is the boundary with the wall surfaces K1 and K2, or when there is a step above the wall surfaces K1 and K2, A mimic sound is generated, and the selected content is rendered as if it were physically dragging on wall surfaces K1 and K2.
- FIG. 16 ⁇ Physical Configuration Example of Controller When Remotely Controlling Content Shown in FIG. 15>
- FIG. 16 an example of the physical configuration of the controller 31 when remotely controlling content as shown in FIG. 15 will be described.
- the components provided with the same functions as the components in FIG. 15 will be described.
- the configuration different from the controller 31 of FIG. 2 is that a camera 221 is newly provided.
- the camera 221 is an image sensor composed of a complementary metal oxide semiconductor (CMOS) or a charge coupled device (CCD), and captures an image in substantially the same direction as the infrared light receiving unit 55 and outputs the captured image to the control unit 71. .
- CMOS complementary metal oxide semiconductor
- CCD charge coupled device
- the controller 31 of FIG. 16 differs from the controller 31 of FIG. 3 in that the camera 221 is provided, and the operation of the control unit 71 is correspondingly different.
- the control unit 71 selects the content according to the presence or absence of the content of the picture projected on the projection areas Z1 and Z2 of the wall surfaces K1 and K2 in the image captured by the camera 221 at the timing when the tact switch 54 is pressed. Recognize that it was done. In the case where a plurality of photographs are taken by the camera 221, for example, it may be considered that a photograph close to the center in the image is selected.
- the control unit 71 detects a change in the pointing direction of the controller 31 in a state in which the tact switch 54 is pressed. Then, the control unit 71 generates a control command for moving the selected picture as the content to the position corresponding to the pointing direction of the controller 31, controls the communication unit 74, and transmits the control command to the projector device 201. Send.
- control unit 71 estimates the texture of the surface of the wall surfaces K1 and K2 shown in FIG. 15 based on the image captured by the camera 221, and makes the surface unevenness of the wall surfaces K1 and K2 based on the estimation result. Based on this, the vibration actuator 53 is controlled to vibrate. Further, the control unit 71 controls the speaker 52 to output sound based on the unevenness of the surfaces of the wall surfaces K1 and K2 based on the estimation result.
- the projector device 201 projects and displays a picture as stored content on a wall surface. At this time, the control command corresponding to the movement of the controller 31 is received to move the projection position of the photograph.
- the projector device 201 includes a control unit 241, an infrared light emitting unit 242, a communication unit 243, a projection control unit 244, a projection unit 245, and a storage unit 246.
- the control unit 241 is configured of a processor or the like, and controls the overall operation of the projector device 201. In addition, the control unit 241 reads the photo stored in the storage unit 246 as content, outputs it to the projection control unit 244, and projects it from the projection unit 245 on, for example, the wall surfaces K1 and K2 in FIG. Display in Z1 and Z2.
- the infrared light emitting unit 242 is controlled by the control unit 241, and emits an infrared light code including the unique ID of the projector device 201 in a predetermined pattern.
- the communication unit 243 is controlled by the control unit 241, establishes communication with the controller 31 via the wireless communication network 35 composed of WiFi, Bluetooth, etc., and receives a control command corresponding to the control parameter. Output to
- the projection control unit 244 is controlled by the control unit 91, and controls the projection position of the input audio signal, for example, in the projection areas Z1 and Z2 as the content according to the control command. Project on the wall.
- the control unit 71 estimates the unevenness expressing the texture of the surfaces of the wall surfaces K1 and K2 based on the image captured by the camera 221, controls the vibration actuator 53 and the speaker 52, and reproduces it by vibration and sound.
- the control unit 71 estimates that the surface on the movement line is, for example, an uneven surface as shown by a waveform W1 in FIG.
- the horizontal axis of the waveforms W1 to W3 in FIG. 19 is the movement position when moving in the arrow direction on the images T1 to T3 in FIG. 19, and the vertical axis is the height of the surface shape at each movement position. expressing.
- control unit 71 controls the vibration actuator 53 to generate vibration so as to reproduce a sawtooth waveform as shown by the waveform W1.
- the control unit 71 also controls the speaker 52 to generate sound so as to reproduce a sawtooth waveform as shown by the waveform W1.
- the control unit 71 estimates the surface on the movement line as, for example, a surface with a step as shown by the waveform W2 in FIG.
- control unit 71 controls the vibration actuator 53 to reproduce a waveform close to a pulse waveform as shown by the waveform W2, and when passing through a recess that occurs irregularly, such as a tip Generate vibration.
- control unit 71 controls the speaker 52 to reproduce a waveform close to a pulse waveform as shown by the waveform W2, and when passing through a recess that occurs irregularly, a sound such as a pop is generated. generate.
- the control unit 71 estimates the surface on the movement line as, for example, a surface having a step as shown by the waveform W3 in FIG.
- control unit 71 controls the vibration actuator 53 so as to reproduce a waveform close to a pulse waveform with a fine period as shown by the waveform W3, when passing through the continuous concave portions, Generate vibrations like
- control unit 71 controls the speaker 52 to reproduce a waveform close to a pulse waveform having a fine cycle as shown by the waveform W3, and when passing through a continuous concave portion, a sound such as a trick Generate
- the control unit 71 estimates the surface shape based on the image captured by the camera 221, and generates the vibration and the sound using the waveform according to the estimation result.
- a depth sensor may be used to actually measure the distance to the wall surface, measure the surface unevenness, and form a waveform based on the measurement result.
- the distance to the wall surface may be measured and stored in advance by the depth sensor, and information on the surface unevenness may be obtained and used by using the stored measurement result.
- the grid defines the position at which the projector device 201 projects a picture as content.
- FIG. 15 shows an example of grids G1 to G3 which are set at predetermined intervals in the horizontal direction.
- the photos are stopped only at the horizontal position defined by the grid, so for example, the horizontal direction does not require fine positioning in the horizontal direction. Can be aligned with the position set as a grid.
- the left end of the circle content C11 contacts the grid G1 It may be made to stay as it is.
- the controller 31 selects and moves the content consisting of circles, and when the pressing of the tact switch 54 is released at the position of the content C1 shown in the left part of FIG. Is projected so as to be attracted to the grid G1, and as shown by the content C11, the movement is stopped and stopped when the left end portion contacts the grid G1.
- the central part of the circular content C12 may be kept in contact with the grid G2.
- the right end of the circular content C13 may be stopped so as to contact the grid G3.
- the controller 31 selects and moves the content consisting of circles, and when the pressing of the tact switch 54 is released at the position of the content C3 shown in the right part of FIG. Is projected so as to be attracted to the grid G3, and the movement is stopped and stopped when the right end portion contacts the grid G3 as shown by the content C13.
- the grids may be set in the vertical direction or grids may be set in the horizontal and vertical directions. May be
- step S131 the control unit 241 of the projector device 201 reads out the data of the photo stored in the storage unit 246 as content, and outputs the data to the projection control unit 244.
- the projection control unit 244 controls the projection unit 245 to project the supplied photograph as content, for example, in the projection areas Z1 and Z2 on the wall surfaces K1 and K2 in FIG.
- step S132 the control unit 241 of the projector device 201 controls the infrared light emitting unit 242 to emit an infrared light code indicating a unique ID for identifying itself in a predetermined pattern.
- step S133 the control unit 241 controls the communication unit 243 to be recognized as a control target from the controller 31, determines whether or not it is notified that the control state has been established, and is recognized as a control target. If it is not notified that the control state has been established, the process returns to step S132.
- the projector device 201 repeats the processes of steps S132 and S133 until it is recognized as a control target and the control state is established.
- step S151 the control unit 71 of the controller 31 controls the infrared light receiving unit 55 to determine whether an infrared light code including an ID for identifying the projector device 201 has been received. Do. For example, when the user holds the controller 31 and directs the infrared light receiving unit 55 toward the projector device 201 to control the projector device 201, the infrared light code from the projector device 201 is received. In step S151, for example, the infrared light code from the projector device 201 is received, and the process proceeds to step S152.
- step S152 the control unit 71 controls the communication unit 74, recognizes the projector device 201 as a control target via the wireless communication network 35, and notifies that the control state has been established.
- step S133 (FIG. 21) a notification indicating that the control object has been recognized and the control state has been established is received, and the process proceeds to step S134.
- step S134 the control unit 241 controls the communication unit 243 to establish a control state by the controller 31 via the wireless communication network 35.
- step S135 the control unit 241 controls the communication unit 93 to transmit information indicating that the control state has been established as feedback information to the controller 31.
- step S153 the control unit 71 of the controller 31 controls the communication unit 74 to determine whether feedback information has been transmitted from the projector device 201 to be controlled and transmitted. Repeat the same process until it comes.
- step S153 when it is considered that feedback information has been transmitted by the process of step S135, the process proceeds to step S154.
- step S154 the control unit 71 controls the vibration actuator 53, and vibrates at a predetermined intensity indicating that the current control state of the projector device 201 is established, which is feedback information received via the communication unit 74.
- the control unit 71 controls the speaker 52, and is feedback information received via the communication unit 74, at a predetermined intensity (volume) indicating that the current control state of the projector device 201 is established.
- the user merely establishes the control state by pointing the infrared light receiving unit 55 to the projector device 201 to be controlled, and recognizes that the control state is established by vibration and voice. Becomes possible.
- step S155 the control unit 71 determines whether the content is in the image captured by the camera 221, and the content of the photograph is present near the center position, and whether the tact switch 54 is pressed or not. It is determined whether or not is selected.
- step S155 If it is determined in step S155 that any content is selected, the process proceeds to step S156. If the content is considered to be selected, the control unit 71 causes the projector device 201 to project the selected content on the projection areas Z1 and Z2 based on the image captured by the camera 221. Detect the position.
- step S156 the control unit 71 controls the vibration actuator 53 to generate vibration with an intensity indicating that the content is selected. Further, the control unit 71 controls the speaker 52 to generate an audio with an intensity (volume) indicating that the content is selected.
- control unit 71 changes the orientation of infrared light receiving unit 55 and camera 221 as shown by controllers 31a to 31e shown in FIG. It is determined whether rotation has been added to indicate that movement of the position where the content is to be projected is instructed. In step S157, for example, when the content is selected and rotation is added to the orientation of the main body of the controller 31, and it is considered that an operation to move the content is performed, the process proceeds to step S158. move on.
- step S158 the control unit 71 detects the amount of rotation based on the detection results of the acceleration sensor 72 and the gyro sensor 73, and generates a control parameter according to the amount of rotation. That is, the control unit 71 generates a control parameter for instructing the movement of the content, which includes the movement direction and the movement amount of the content, according to the rotation amount.
- control unit 71 In step S159, control unit 71 generates a control command according to the generated control parameter, and at which position on the projection area Z1, Z2 of projector device 201 the currently selected content is the content
- the communication unit 74 is controlled and transmitted to the projector device 201 together with the content identification information to be identified.
- step S136 the control unit 241 of the projector device 201 controls the communication unit 243 to determine whether or not a control command instructing movement of content has been transmitted from the controller 31.
- step S136 when the control command is transmitted by the process of step S159, the process proceeds to step S137.
- step S137 the control unit 241 supplies the content control information and the control command to the projection control unit 244.
- the projection control unit 244 controls the projection unit 245 to move the photo, which is the selected content, in the moving direction specified by the control command, based on the content specifying information and the control command. To project within the projection areas Z1 and Z2 so as to move only by.
- step S136 when the control command instructing movement of the content is not transmitted, the process of step S137 is skipped.
- the processing up to this point it is possible to specify the content to be controlled by directing it to the content consisting of the photograph to be selected. . Furthermore, the display position of the content can be moved by changing the imaging direction of the camera 221 in the direction in which the content to be controlled is desired to be moved.
- step S160 the control unit 71 estimates the texture of the projection plane on the movement line on which the content is moved, based on the image captured by the camera 221.
- step S161 the control unit 71 controls the vibration actuator 53 to generate vibration with a strength based on the estimation result of the texture. Further, as described with reference to FIG. 19, the control unit 71 controls the speaker 52 to generate voice at an intensity (volume) based on the estimation result of the texture.
- step S162 the control unit 71 determines, based on the estimation result of the texture, whether or not there is a step larger than a predetermined value on the flow line of the content including the selected photograph. If it is determined in step S162 that there is a step larger than the predetermined value, the process proceeds to step S163.
- step S163 the control unit 71 controls the vibration actuator 53 at the timing when the selected content passes through the step, and generates a vibration with a strength higher than a predetermined strength that causes the controller to recognize that the step is crossed.
- the control unit 71 controls the speaker 52 to generate a sound larger than a predetermined volume, such as, for example, “Kotsutsu” that causes the speaker 52 to recognize that the user has stepped over the step.
- the user continues to move the selected content to a position where contact with the angle C where the projection areas Z1 and Z2 cross, the vibration and voice cause the user to select the selected content at the angle C. It will be possible to get a feeling of hitting.
- step S162 If it is determined in step S162 that there is no step larger than the predetermined value on the flow line of the content of the picture, the process of step S163 is skipped.
- step S164 the control unit 71 determines whether the pressing of the tact switch 54 is released and the selection of the content is released. If it is determined in step S164 that the content selection has not been canceled, the process returns to step S157.
- step S157 when the rotation of the main body of the controller 31 is not detected in step S157, the processes of steps S158 to S162 are skipped.
- steps S157 to S164 is repeated until the content selection is cancelled, and it becomes possible to move the content, and the processing of outputting vibration or sound according to the texture on the flow line is repeated.
- step S164 when the pressing of the tact switch 54 is released and the selection of the content is released, the process proceeds to step S165.
- step S165 the control unit 71 generates a control command for moving the content so as to be attracted to the grid at the closest position according to the position of the moved content, and controls the communication unit 74 together with the content specifying information. And transmits it to the projector device 201.
- control unit 71 controls the vibration actuator 53 to generate a vibration that causes the content to be attracted to the grid position. Further, the control unit 71 controls the speaker 52 to generate a sound giving an impression that the content is attracted to the grid position.
- step S138 the control unit 241 controls the communication unit 243 to transmit a control command for moving the content so as to be attracted to the grid at the closest position according to the position of the moved content. Determine if it has arrived.
- step S138 when the control command for moving the content to be attracted to the grid is transmitted, the process proceeds to step S139.
- step S139 the control unit 241 supplies the projection control unit 244 with a control command for moving the content so as to be attracted to the grid and the content specifying information.
- the projection control unit 244 controls the projection unit 245, and based on the control command and the content identification information, the content identified by the content identification information is the most at the current position as described with reference to FIG. It is projected to move to a grid close to you.
- step S138 when the control command for moving the content to be attracted to the grid is not transmitted, the process of step S139 is skipped.
- step S140 the control unit 241 controls the communication unit 243 to determine whether or not the controller 31 has been notified that the controller 31 has deviated from the control target. It returns to step S136.
- step S166 if the control unit 71 has transmitted the control command even once, whether the elapsed time since the last transmission of the control command has exceeded a predetermined time or not, or if the control command has not been transmitted It is determined whether an elapsed time after the control state is established has exceeded a predetermined time. In step S166, when the elapsed time since the last transmission of the control command and the elapsed time since the control state was established do not elapse for a predetermined time or more, the process returns to step S155.
- step S166 when the elapsed time from the last transmission of the control command has passed a predetermined time or more, or when the control command is not transmitted, the elapsed time from the establishment of the control state is a predetermined time If the above has elapsed, the process proceeds to step S167.
- step 167 the control unit 71 controls the communication unit 74 to notify the projector device 201 that the object is out of the control target, and cancels the control state.
- step S168 the control unit 71 determines whether or not termination of the remote operation control process is instructed. If the termination is not instructed, the process returns to step S151. In addition, when termination of the remote control processing is instructed in step S168, the processing is terminated.
- step S140 when being notified that it is out of the control target in step S140 (FIG. 21), the process proceeds to step S141.
- step S141 the control unit 241 controls the communication unit 243 to release the control state via the wireless communication network 35.
- step S142 the control unit 91 determines whether or not termination of the remote control control process is instructed. If the termination is not instructed, the process returns to step S132. Further, in step S142, when the end of the remote control control process is instructed, the process ends.
- the controller 31 is rotated without spacing for a predetermined time or more, and the content is selected and moved in the projection areas Z1 and Z2 where the content is projected by the projector device 201
- the control command for controlling the movement of the content is transmitted by rotating the controller 31 for a predetermined period of time while the control command for causing the transmission continues to be transmitted or even when the control command is not transmitted. And the state in which the content can be moved is continued.
- the user can hold the controller 31, direct the camera 221 to the content to be controlled, and press the tact switch 54 to select the content to be controlled.
- the control command for instructing the moving direction and the moving amount is transmitted by rotating the imaging direction of the camera 221 of the controller 31 in the moving direction of the content while pressing the tact switch 54.
- the content movement can be controlled based on the control command.
- the texture of the wall on the flow line along with the movement of the content is estimated, and the vibration and the sound corresponding to the texture are generated, so that the content of the photo only projected on the wall is physically It becomes possible to have the feeling that the existing photograph is moved in a dragging manner on the wall surface.
- the control state is released when a predetermined time elapses.
- a dedicated device is not provided by connecting an additional device having a configuration such as an infrared light emitting unit, which is required for control of the controller 31, to the device via an external terminal such as USB, for example. It may be possible to use an apparatus or a control target apparatus.
- FIG. 23 shows a configuration in which an additional device 331 having an infrared light emitting unit is additionally connected to the speaker device 32 in which the infrared light emitting unit required for control by the controller 31 is not provided. It is shown.
- the speaker device 32 of FIG. 23 includes a control unit 301, a storage unit 302, a communication unit 303, a volume controller 304, a speaker 305, and an external input unit 306.
- the communication unit 303, the volume controller 304, and the speaker 305 are the same as the communication unit 93, the volume controller 94, and the speaker 95 shown in FIG.
- the control unit 301 substantially realizes the same function as the control unit 91 when the additional device 331 is connected via the external input unit 306 made of USB (Universal Serial Bus) or the like.
- the addition device 331 further includes a control unit 351, a storage unit 352, an infrared light emitting unit 353, and an external output unit 354.
- the control unit 351 controls the entire operation of the additional device 331.
- the storage unit 352 stores drivers and programs required when being controlled by the controller 31.
- the external output unit 354 is configured of, for example, a USB terminal or the like, and is connected to the external input unit 306 of the speaker device 32.
- control unit 351 supplies the driver and the program stored in the storage unit 352 to the speaker device 32.
- the control unit 301 acquires a driver and a program supplied from the additional device 331 and stores the driver and the program in the storage unit 302. Then, the control unit 301 implements the same function as the control unit 91 by executing the driver and the program stored in the storage unit 302. At this time, the control unit 301 supplies an ID identifying itself to the control unit 351 of the addition device 331.
- the control unit 351 causes the storage unit 352 to store an ID for identifying the connected speaker device 32. Then, the control unit 351 generates an infrared light code based on the ID for identifying the speaker device 32 stored in the storage unit 352, and causes the infrared light emitting unit 353 to emit light.
- the controller 31 can realize remote control control processing even with an apparatus such as the speaker device 32 in the right part of FIG. 23 which is not provided with an infrared light emitting unit and the like. Become.
- any other device may be used as long as it has a configuration including the external input unit 306.
- the controller 31 such as an infrared light emitting unit
- the television receiver 33, the lighting device 34, the projector device 201, and the like may not be provided with the configuration necessary for control.
- a wireless signal consisting of an infrared light code having directivity, represented by infrared light, identifying itself.
- the controller 31 which is a control device, a wireless signal is received to be recognized as a control target, and an example of establishing a control state has been described.
- controller 31 which is the control device transmits a wireless signal having directivity such as an infrared light code identifying itself to the control target device and the control target device receives the wireless signal from the controller 31,
- a directional radio signal composed of an infrared light code for identifying H. may be transmitted to the controller 31 to establish the control state.
- the controller 31 is further provided with a directional wireless signal transmission unit for transmitting a directional wireless signal such as infrared light, and, for example, one of the tact switches 54-1 to 54-3 is operated. Send a wireless signal.
- the control target device is further provided with a directional wireless signal receiving unit for receiving a directional wireless signal such as infrared light, and for example, a wireless signal consisting of infrared light from the controller 31 is received At this time, the infrared light emitting units 92, 112, 132, 242, or 353 emit light in a predetermined pattern made of an infrared light code.
- FIG. 24 shows a configuration example of a general-purpose personal computer.
- This personal computer incorporates a CPU (Central Processing Unit) 1001.
- An input / output interface 1005 is connected to the CPU 1001 via the bus 1004.
- a ROM (Read Only Memory) 1002 and a RAM (Random Access Memory) 1003 are connected to the bus 1004.
- the input / output interface 1005 includes an input unit 1006 including an input device such as a keyboard and a mouse through which the user inputs an operation command, an output unit 1007 for outputting a processing operation screen and an image of a processing result to a display device, programs and various data.
- a storage unit 1008 including a hard disk drive to be stored, a LAN (Local Area Network) adapter, and the like are connected to a communication unit 1009 that executes communication processing via a network represented by the Internet.
- a magnetic disc including a flexible disc
- an optical disc including a compact disc-read only memory (CD-ROM), a digital versatile disc (DVD)
- a magneto-optical disc including a mini disc (MD)
- a semiconductor A drive 1010 for reading and writing data to a removable medium 1011 such as a memory is connected.
- the CPU 1001 reads a program stored in the ROM 1002 or a removable medium 1011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, is installed in the storage unit 1008, and is loaded from the storage unit 1008 to the RAM 1003. Execute various processes according to the program.
- the RAM 1003 also stores data necessary for the CPU 1001 to execute various processes.
- the CPU 1001 loads the program stored in the storage unit 1008 into the RAM 1003 via the input / output interface 1005 and the bus 1004, and executes the program. Processing is performed.
- the program executed by the computer (CPU 1001) can be provided by being recorded on, for example, a removable medium 1011 as a package medium or the like. Also, the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
- the program can be installed in the storage unit 1008 via the input / output interface 1005 by mounting the removable media 1011 in the drive 1010.
- the program can be received by the communication unit 1009 via a wired or wireless transmission medium and installed in the storage unit 1008.
- the program can be installed in advance in the ROM 1002 or the storage unit 1008.
- the program executed by the computer may be a program that performs processing in chronological order according to the order described in this specification, in parallel, or when necessary, such as when a call is made. It may be a program to be processed.
- a system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same case. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device housing a plurality of modules in one housing are all systems. .
- the present disclosure can have a cloud computing configuration in which one function is shared and processed by a plurality of devices via a network.
- each step described in the above-described flowchart can be executed by one device or in a shared manner by a plurality of devices.
- the plurality of processes included in one step can be executed by being shared by a plurality of devices in addition to being executed by one device.
- the present disclosure can also have the following configurations. ⁇ 1> It is a control device, An identification signal receiving unit that receives an identification signal that identifies the control target device from the control target device that transmits or receives a wireless signal having directivity; A control unit that transmits a control command for controlling the control target device specified by the identification signal to the control target device that has transmitted the identification signal; The identification signal receiving unit receives the identification signal that identifies the control target device when the direction of the main body of the control device is adjusted to be able to receive the identification signal.
- the apparatus further includes a direction detection unit that detects the direction of the main body of the control device, The control unit generates a control command for controlling the control target device specified by the identification signal based on the change in the direction of the main body of the control device detected by the direction detection unit, and the control generated The control apparatus according to ⁇ 1>, wherein a command is transmitted to the control target apparatus that has transmitted the identification signal.
- the control unit calculates, based on the change in the direction of the main body detected by the direction detection unit, a control parameter for controlling the control target device specified by the identification signal, and according to the control parameter The control device according to ⁇ 2>, generating a control command and transmitting the control signal to the control target device that has transmitted the identification signal.
- the control unit is specified by the identification signal based on a rotation amount when the main body of the control device detected by the direction detection unit is rotated so as to twist around a predetermined axis.
- the control device according to ⁇ 3> calculating a control parameter for controlling a control target device, generating a control command according to the control parameter, and transmitting the identification signal to the control target device that has transmitted the identification signal.
- the vibration control apparatus further includes a vibration unit that vibrates the main body of the control device, The control device according to ⁇ 4>, wherein the control unit vibrates the vibration unit according to the control parameter.
- control device The control device according to ⁇ 5>, wherein the control unit vibrates the vibration unit at a predetermined time interval and at a predetermined intensity according to the control parameter.
- control unit vibrates the vibration unit at a time interval according to the control parameter and at an intensity according to the control parameter.
- the control unit receives feedback information indicating a state of the control target device after the control target device that has transmitted the identification signal executes the control command, and based on the feedback information,
- the control device according to ⁇ 5> wherein the vibration unit is vibrated.
- ⁇ 10> further including an audio output unit for generating audio;
- the control device according to ⁇ 3> wherein the control unit causes the voice output unit to output voice according to the control parameter.
- the control target device is a speaker device, The control device according to any one of ⁇ 1> to ⁇ 9>, wherein the control command is a command for controlling the volume of the speaker device.
- the control target device is a television receiver, The control apparatus according to any one of ⁇ 1> to ⁇ 9>, wherein the control command is a command for controlling a channel of the television receiver.
- the control target device is a lighting device, The control device according to any one of ⁇ 1> to ⁇ 9>, wherein the control command is a command for controlling the brightness of the lighting device.
- the control target device is a projector device, The control device according to any one of ⁇ 1> to ⁇ 9>, wherein the control command is a command for controlling movement of content projected onto a wall surface by the projector device.
- a vibration unit that vibrates the main body of the control device; Further including an imaging unit for imaging a wall surface on which the content is projected by the projector device; The control unit estimates the texture of the wall surface based on the image captured by the imaging unit, and when moving the content to be projected onto the wall surface, the unevenness due to the texture on the moving line for moving the content is used.
- the control device according to ⁇ 14>, which vibrates the vibration unit.
- the control target device emits the identification signal by infrared light of a predetermined light emission pattern, an electromagnetic wave output by a directional antenna, or an ultrasonic wave output by a directional speaker ⁇ 1> to ⁇ 15
- the controller according to any one of>.
- a control method of a control device Identification signal reception processing for receiving an identification signal for identifying the control target device from the control target device for transmitting or receiving a wireless signal having directivity; Control processing for transmitting a control command for controlling the control target device specified by the identification signal to the control target device that has transmitted the identification signal; The identification signal reception process receives the identification signal for identifying the control target device when the direction of the main body of the control device is adjusted to be able to receive the identification signal.
- a program that causes a computer that controls a control device to function, An identification signal receiving unit that receives an identification signal that identifies the control target device from the control target device that transmits or receives a wireless signal having directivity; Have a computer function as a control unit that transmits a control command for controlling the control target device specified by the identification signal to the control target device that has transmitted the identification signal, The identification signal receiving unit receives the identification signal identifying the control target device when the direction of the main body of the control device is adjusted to be able to receive the identification signal.
- An electronic device controlled by the control device An identification signal generation unit that generates an identification signal that identifies itself as the electronic device by a wireless signal having directivity;
- a control unit configured to control an operation by executing a control command for controlling the electronic device transmitted from the control device by recognizing the electronic device as a control target device based on the identification signal; Including The identification signal is received by the control device as the identification signal identifying the electronic device when the direction of the main body of the control device is adjusted to be able to receive the identification signal.
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Selective Calling Equipment (AREA)
Abstract
本開示は、自然な操作方法で様々な制御対象装置を切り替えて遠隔操作することができるようにする制御装置、および制御方法、電子機器、並びにプログラムに関する。 複数の制御対象装置が固有のIDからなる赤外光コードを所定のパターンで発光している。ユーザは、コントローラを把持し、制御対象装置に赤外光受光部を向ける。このとき、コントローラが受光した赤外光コードにより特定される制御対象装置に対して制御状態を確立する。制御状態が確立された後は、ユーザにより、コントローラ本体が回転されると回転量に応じた制御パラメータを算出して、制御パラメータに応じた制御コマンドを制御対象装置に送信し、制御対象装置を制御する。本開示は、リモートコントローラに適用することができる。
Description
本開示は、制御装置、および制御方法、電子機器、並びにプログラムに関し、特に、自然な操作方法で様々な制御対象装置を遠隔操作できるようにした制御装置、および制御方法、電子機器、並びにプログラムに関する。
制御対象装置を遠隔操作することが可能な制御装置が提案されている(特許文献1参照)。
上述した特許文献1の技術においては、制御装置側に備えられた表示部を利用し、対象に向けると機器の種類と制御可能なパラメータやフィードバックが表示され、表示内容を視認した上で、対応した操作が求められる。
このため、上述の制御装置を使った遠隔操作では、ユーザは基本的に操作対象装置を注視することが多いにも関わらず、制御装置自体の表示部をフィードバックとして利用する必要があり、ユーザの視線は、前方の制御対象装置と、手元の制御装置の表示部とを頻繁に行き来することになり、使い勝手の低下を招く。
このような事態を回避するため、例えば、触覚フィードバックを構成することが考えられるが、ボタン押下や単純な振動だけでは、単に何かが起こった以上の情報が伝えられない。
本開示は、このような状況に鑑みてなされたものであり、特に、自然な操作方法で様々な制御対象装置を遠隔操作できるようにさせるものである。
本開示の第1の側面の制御装置は、制御装置であって、指向性を有する無線信号を送信または受信する制御対象装置から、前記制御対象装置を識別する識別信号を受信する識別信号受信部と、前記識別信号により特定される前記制御対象装置を制御する制御コマンドを、前記識別信号を送信した前記制御対象装置に送信する制御部とを含み、前記識別信号受信部は、前記制御装置の本体の方向が前記識別信号を受信できる状態に調整されたとき、前記制御対象装置を識別する前記識別信号を受信する制御装置である。
前記制御装置の本体の方向を検出する方向検出部をさらに含ませるようにすることができ、前記制御部には、前記方向検出部により検出された前記制御装置の本体の方向の変化に基づいて、前記識別信号により特定される前記制御対象装置を制御する制御コマンドを生成し、生成した前記制御コマンドを、前記識別信号を送信した前記制御対象装置に送信させるようにすることができる。
前記制御部には、前記方向検出部により検出された本体の方向の変化に基づいて、前記識別信号により特定される前記制御対象装置を制御する制御パラメータを算出させ、前記制御パラメータに応じた制御コマンドを生成させ、前記識別信号を送信した前記制御対象装置に送信させるようにすることができる。
前記制御部には、前記方向検出部により検出された前記制御装置の本体が、所定の軸を中心に捻るように回転したときの回転量に基づいて、前記識別信号により特定される前記制御対象装置を制御する制御パラメータを算出させ、前記制御パラメータに応じた制御コマンドを生成させ、前記識別信号を送信した前記制御対象装置に送信させるようにすることができる。
前記制御装置の本体を振動させる振動部をさらに含ませるようにすることができ、前記制御部には、前記制御パラメータに応じて、前記振動部を振動させるようにすることができる。
前記制御部には、前記制御パラメータに応じて、所定の時間間隔で、かつ、所定の強度で前記振動部を振動させるようにすることができる。
前記制御部には、前記制御パラメータが連続変量である場合、前記制御パラメータに応じた時間間隔で、かつ、前記制御パラメータに応じた強度で前記振動部を振動させるようにすることができる。
前記制御部には、前記制御パラメータが離散変量である場合、前記制御パラメータに応じた時間間隔で、かつ、一定の強度で前記振動部を振動させるようにすることができる。
前記制御部には、前記識別信号を送信した前記制御対象装置が、前記制御コマンドを実行した後における、前記制御対象装置の状態を示すフィードバック情報を受信させ、前記フィードバック情報に基づいて、前記振動部を振動させるようにすることができる。
音声を発生する音声出力部をさらに含ませるようにすることができ、前記制御部は、前記制御パラメータに応じて、前記音声出力部より音声を出力させるようにすることができる。
前記制御対象装置は、スピーカ装置とすることができ、前記制御コマンドは、前記スピーカ装置の音量を制御するコマンドとすることができる。
前記制御対象装置は、テレビジョン受像器とすることができ、前記制御コマンドは、前記テレビジョン受像器のチャンネルを制御するコマンドとすることができる。
前記制御対象装置は、照明装置とすることができ、前記制御コマンドは、前記照明装置の明るさを制御するコマンドとすることができる。
前記制御対象装置は、プロジェクタ装置とすることができ、前記制御コマンドは、前記プロジェクタ装置により壁面に投影されるコンテンツの移動を制御するコマンドとすることができる。
前記制御装置の本体を振動させる振動部と、前記プロジェクタ装置により前記コンテンツが投影される壁面を撮像する撮像部とをさらに含ませるようにすることができ、前記制御部には、前記撮像部により撮像される画像に基づいて、前記壁面のテクスチャを推定させ、前記壁面に投影されるコンテンツを移動させる際、前記コンテンツを移動させる動線上の前記テクスチャによる凹凸に応じて、前記振動部を振動させるようにすることができる。
前記制御対象装置には、所定の発光パターンの赤外光、指向性アンテナにより出力される電磁波、又は指向性スピーカにより出力される超音波により、前記識別信号を発するようにさせることができる。
本開示の第1の側面の制御方法は、制御装置の制御方法であって、指向性を有する無線信号を送信または受信する制御対象装置から、前記制御対象装置を識別する識別信号を受信する識別信号受信処理と、前記識別信号により特定される前記制御対象装置を制御する制御コマンドを、前記識別信号を送信した前記制御対象装置に送信する制御処理とを含み、前記識別信号受信処理は、前記制御装置の本体の方向が前記識別信号を受信できる状態に調整されたとき、前記制御対象装置を識別する前記識別信号を受信する制御方法である。
本開示の第1の側面のプログラムは、制御装置を制御するコンピュータを機能させるプログラムであって、指向性を有する無線信号を送信または受信する制御対象装置から、前記制御対象装置を識別する識別信号を受信する識別信号受信部と、前記識別信号により特定される前記制御対象装置を制御する制御コマンドを、前記識別信号を送信した前記制御対象装置に送信する制御部としてコンピュータを機能させ、前記識別信号受信部は、前記制御装置の本体の方向が前記識別信号を受信できる状態に調整されたとき、前記制御対象装置を識別する前記識別信号を受信するプログラムである。
本開示の第1の側面においては、指向性を有する無線信号を送信または受信する制御対象装置から、前記制御対象装置を識別する識別信号が受信され、前記識別信号により特定される前記制御対象装置を制御する制御コマンドが、前記識別信号を送信した前記制御対象装置に送信され、前記制御装置の本体の方向が前記識別信号を受信できる状態に調整されたとき、前記制御対象装置を識別する前記識別信号が受信される。
本開示の第2の側面の電子機器は、制御装置により制御される電子機器であって、指向性を有する無線信号により、前記電子機器である自らを識別する識別信号を発生する識別信号発生部と、前記識別信号に基づいて、前記電子機器が制御対象装置として認識されることにより、前記制御装置より送信される前記電子機器を制御する制御コマンドを実行することにより、動作を制御する制御部とを含み、前記識別信号は、前記制御装置の本体の方向が前記識別信号を受信できる状態に調整されたとき、前記電子機器を識別する前記識別信号として前記制御装置により受信される。
本開示の第2の側面においては、制御装置により制御される電子機器であって、指向性を有する無線信号により、前記電子機器である自らを識別する識別信号が発生され、前記識別信号に基づいて、前記電子機器が制御対象装置として認識されることにより、前記制御装置より送信される前記電子機器を制御する制御コマンドを実行することにより、動作を制御され、前記識別信号は、前記制御装置の本体の方向が前記識別信号を受信できる状態に調整されたとき、前記電子機器を識別する前記識別信号として前記制御装置により受信される。
本開示の一側面によれば、自然な操作方法で様々な制御対象装置を遠隔操作させることが可能となる。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.変形例
4.ソフトウェアにより実行させる例
1.第1の実施の形態
2.第2の実施の形態
3.変形例
4.ソフトウェアにより実行させる例
<<1.第1の実施の形態>>
本開示の制御装置は、複数の制御対象装置を自然な操作により切り替えて遠隔操作できるようにさせるものである。
本開示の制御装置は、複数の制御対象装置を自然な操作により切り替えて遠隔操作できるようにさせるものである。
図1は、本開示の制御装置を実現するための制御システムの構成例を示している。
本開示の制御システム11は、コントローラ(制御装置)31、スピーカ装置32、テレビジョン受像器(TV)33、照明装置34、および無線通信ネットワーク35より構成されている。
コントローラ31は、スピーカ装置32の音量、テレビジョン受像器(TV)33のチャンネル、照明装置34の明るさを遠隔操作により制御する。
より具体的には、スピーカ装置32、テレビジョン受像器(TV)33、および照明装置34は、それぞれ固有IDに応じた発光パターンで赤外光を発光することで、赤外光コードを発している。コントローラ31は、赤外光受光部55を備えており、コントローラ31の赤外光受光部55が、制御対象としたい装置(制御対象装置)に向けられると、制御対象装置からの赤外光コードが受信される。コントローラ31は、赤外光受光部55により受光された赤外線コードに基づいて特定される装置を制御対象装置として認識する。
すなわち、図1のコントローラ31のように、スピーカ装置32を制御対象としたいときには、赤外光受光部55を、スピーカ装置32に向けることで、赤外光受光部55により、スピーカ装置32の赤外光コードが受光される。これによりコントローラ31は、スピーカ装置32を制御対象装置として認識する。
また、テレビジョン受像器33を制御対象としたいときには、コントローラ31’のように、赤外光受光部55’をテレビジョン受像器33に向けることで、テレビジョン受像器33からの赤外光コードが受光される。これにより、コントローラ31’は、テレビジョン受像器33を制御対象装置として認識する。
そして、照明装置34を制御対象としたいときには、コントローラ31’’のように、赤外光受光部55’’を照明装置34に向けることで、照明装置34からの赤外光コードが受光されるので、コントローラ31’’は、照明装置34を制御対象装置として認識する。
コントローラ31、スピーカ装置32、テレビジョン受像器(TV)33、および照明装置34は、例えば、WiFiやブルートゥース(登録商標)などの無線通信ネットワーク35を介して、相互に通信することができる。
コントローラ31は、赤外光コードに基づいて、制御対象として認識した装置と、無線通信ネットワーク35を介して無線通信により制御状態を確立する。
コントローラ31は、加速度センサやジャイロセンサを備えており、制御状態が確立されると、例えば、図1で示されるように、本体の軸Axを中心にして、図中の+または-で示される方向への回転量を計測する。そして、コントローラ31は、計測された回転量に応じて音量、チャンネル、または明るさを制御する制御パラメータを求め、求めた制御パラメータに基づいて、制御コマンドを生成して、無線通信ネットワーク35を介して、制御対象装置に送信する。
制御対象となるスピーカ装置32、テレビジョン受像器(TV)33、または照明装置34は、無線通信ネットワーク35を介してコントローラ31より送信されてくる制御コマンドに基づいて、音量、チャンネル、および明るさを制御する。また、制御対象となるスピーカ装置32、テレビジョン受像器(TV)33、または照明装置34は、制御コマンドによる制御後の状態をフィードバック情報としてコントローラ31に送信する。
コントローラ31は、スピーカ装置32、テレビジョン受像器(TV)33、または照明装置34から送信されてくる、制御コマンドによる制御後の、音量、チャンネル、または明るさを示すフィードバック情報を受信する。
コントローラ31には、振動アクチュエータが設けられているので、コントローラ31は、振動アクチュエータを制御して、フィードバック情報に応じて、現状の音量、チャンネル、および明るさを表現する振動を発生する。この振動に応じて、ユーザは、コントローラ31を把持するだけで、スピーカ装置32、テレビジョン受像器(TV)33、または照明装置34における、制御コマンドによる制御がなされた後の、音量、チャンネル、または明るさを認識することができる。
したがって、ユーザは、コントローラ31を制御対象としたい装置に向けて、制御対象の制御パラメータである、音量、チャンネル、または明るさを、コントローラ31本体を、軸Axを中心として回転させるだけで制御することが可能となる。また、この際、制御対象装置の制御コマンドによる制御後の状態を示すフィードバック情報に応じて、コントローラ31が振動する。これにより、ユーザは、振動の状態に応じて、制御コマンドにより制御がなされた後の制御対象装置の音量、チャンネル、または明るさを認識することができる。
結果として、コントローラと制御対象装置との間で視線移動させることなく、様々な装置を、自然な動作で遠隔操作することが可能となる。
<コントローラの物理的な構成例>
次に、図2を参照して、コントローラ31の物理的な構成例について説明する。尚、図2においては、上部がコントローラ31の本体の外観の上面図および側面図であり、下部が、上面からの断面構造図、および側面からの断面構造図である。
次に、図2を参照して、コントローラ31の物理的な構成例について説明する。尚、図2においては、上部がコントローラ31の本体の外観の上面図および側面図であり、下部が、上面からの断面構造図、および側面からの断面構造図である。
コントローラ31は、図2の上部で示されるように、全体として角が丸くされた、平らな板状の棒であり、一方の端部に赤外光受光部55が設けられている。この赤外光受光部55は、上述したスピーカ装置32、テレビジョン受像器(TV)33、または照明装置34から送信される固有の赤外光コードを受光する。すなわち、コントローラ31は、図中において右側の赤外光受光部55が制御対象装置に向けられた状態で把持される。
また、コントローラ31は、図2の下部で示されるように、その内部において、制御モジュール51、スピーカ52、振動アクチュエータ53、タクトスイッチ54-1乃至54-3、および赤外光受光部55を備えている。
制御モジュール51は、コントローラ31の全体の動作を制御するプロセッサなどから構成される。より詳細には、制御モジュール51は、制御部71(図4)、加速度センサ72(図4)、ジャイロセンサ73(図4)、および通信部74(図4)を備えている。尚、制御部71(図4)、加速度センサ72(図4)、ジャイロセンサ73(図4)、および通信部74(図4)については、詳細を、図4を参照して後述する。
スピーカ52は、制御モジュール51により制御され、遠隔操作の制御対象装置との通信が確立されたことを示す情報や、フィードバック情報に基づいて、遠隔操作がなされた後の制御対象装置の各種の状態を通知する音声を発生する。
振動アクチュエータ53は、制御モジュール51により制御され、遠隔操作の制御対象装置との通信が確立されたことを示す情報や、フィードバック情報に基づいて、遠隔操作がなされた後の制御対象装置の各種の状態を通知する振動を発生する。
タクトスイッチ54-1乃至54-3は、図2の上部で示されるような外装面に対して内側から接触するように構成されており、指で外側から軽く押さえることでボタンのようにクリックが可能な構造となっており、操作内容に応じた操作信号を制御モジュール51に出力する。尚、タクトスイッチ54-1乃至54-3のそれぞれについて、特に区別する必要がない場合、単に、タクトスイッチ54と称するものとし、その他の構成も同様に称する。
赤外光受光部55は、制御対象装置である、スピーカ装置32、テレビジョン受像器(TV)33、または照明装置34より送信される赤外光コードを受光し、受光した赤外光コードに対応する信号を制御モジュール51に出力する。
すなわち、コントローラ31は、ユーザである人間の手で把持できる程度の大きさであり、赤外光受光部55を制御対象装置が存在する方向に(前方に)向けた状態で把持して使用する。そして、ユーザは、コントローラ31を握った状態で、図1の軸Axを中心として、図中の+または-が表示される方向に回転させることで、制御対象装置を制御する。
<コントローラの構成例>
次に、図3を参照して、コントローラ31の詳細な構成例について説明する。
次に、図3を参照して、コントローラ31の詳細な構成例について説明する。
コントローラ31は、上述した制御モジュール51、スピーカ52、振動アクチュエータ53、タクトスイッチ54-1乃至54-3、および赤外光受光部55を備えている。また、制御モジュール51は、制御部71、加速度センサ72、ジャイロセンサ73、および通信部74より構成されている。
制御部71は、プロセッサなどから構成されており、制御モジュール51の動作の全体を制御する。
加速度センサ72は、コントローラ31の本体の3次元方向の加速度を計測し、制御部71に出力する。
ジャイロセンサ73は、コントローラ31の角速度および角度を検出して制御部71に出力する。
通信部74は、WiFiやブルートゥースなどからなる無線通信ネットワーク35を介して、制御対象装置となるスピーカ装置32、テレビジョン受像器(TV)33、または照明装置34と通信することで制御状態を確立し、制御パラメータに応じたコマンドを送信して、制御対象装置を制御する。
ここで、「コントローラ31が特定の装置との制御状態を確立する」とは、「コントローラ31が、特定の装置を制御対象装置として認識し、制御できる状態にする」ことである。
制御部71は、赤外光受光部55からの赤外光の受光状態に応じて出力される信号に基づいて、制御対象装置からの赤外光コードの有無を検出する。
制御部71は、赤外光コードが受信されると、赤外光コードに基づいて制御対象を特定し、通信部74を制御して、無線通信ネットワーク35を介して制御対象装置との制御状態を確立する。
このとき、制御部71は、スピーカ52を制御して、制御状態が確立されたことを音声として通知するようにしてもよい。
また、制御状態が確立されると、制御対象装置から、現状の音量、チャンネル、および明るさを示す情報が、フィードバック情報として通知される。これにより、制御部71は、振動アクチュエータ53を制御して、フィードバック情報に基づいて、制御対象装置の、現状の音量、チャンネル、および明るさに対応する振動を発生させると共に、スピーカ52を制御して、対応する音声を出力させる。
このような動作により、ユーザは、制御状態が確立されたことを認識すると共に、現状の制御対象装置の状態を認識することができる。
制御状態が確立されると、制御対象装置を制御できる状態となるので、制御部71は、加速度センサ72からの加速度の情報、および、ジャイロセンサ73からの角速度および角度の情報に基づいて、コントローラ31の姿勢変化を検出することで、例えば、軸Axを中心としたときの回転量を算出する。
制御部71は、求めた回転量に応じて、制御対象装置の制御パラメータを算出し、対応する制御コマンドを生成して、通信部74を制御して、制御対象装置に送信する。
<振動アクチュエータの動作>
振動アクチュエータ53は、制御対象装置から供給されるフィードバック情報に基づいて、現状の制御対象装置の制御パラメータに応じた振動を発生させる。
振動アクチュエータ53は、制御対象装置から供給されるフィードバック情報に基づいて、現状の制御対象装置の制御パラメータに応じた振動を発生させる。
ここでは、制御対象は、スピーカ装置32、テレビジョン受像器(TV)33、または照明装置34であるので、制御パラメータは、音量、チャンネル、および明るさを制御する制御パラメータとなる。ここで、音量と明るさの制御パラメータは、連続変量であるが、チャンネルを制御する制御パラメータは、離散変量である。
そこで、スピーカの音量や照明の明るさを制御する制御パラメータについては、図4の上段で示されるように、制御部71は、振動アクチュエータ53を制御して、制御パラメータの大きさに応じた強度で、かつ、制御パラメータの大きさに応じた時間だけ振動させると共に、スピーカ52を制御して、対応する音声を出力させる。
尚、図4においては、上下共に、縦軸が振動アクチュエータ53の振動強度(、およびスピーカ52から出力される音声の音量)、並びに、制御パラメータCVを表しており、横軸が振動アクチュエータ53の振動間隔、および、スピーカ52から出力される音声の出力間隔を表す時間を表している。
すなわち、図4の上段で示されるように、連続変量である音量または明るさを表す、制御パラメータがCV1であるときには、時刻t0乃至t1の時間間隔で、時刻t1乃至時刻t2の長さだけ、強さSt1の振動が振動アクチュエータ53から出力され、時刻t0乃至t1の時間間隔で、時刻t1乃至時刻t2の長さだけ、強さSt1に相当する音量の音声がスピーカ52から出力される。
すなわち、制御パラメータCVの大きさに応じた時間間隔と強度で振動アクチュエータ53が振動されて、対応するタイミングと音量でスピーカ52から音声が出力される。
また、テレビジョン受像器33のチャンネルを制御する制御パラメータについては、図4の下段で示されるように、制御部71は、振動アクチュエータ53を制御して、制御パラメータの大きさによらず同一の強度で、かつ、制御パラメータの大きさに応じた時間間隔で、連続変量である制御パラメータよりも、長い時間、振動アクチュエータ53を振動させたり、スピーカ52から音声を出力する。
すなわち、例えば、チャンネルを表現する離散変量からなる制御パラメータがDV1であるときには、時刻t0乃至t11の時間間隔で、時刻t11乃至時刻t12の長さだけ、強さSt11の振動が振動アクチュエータ53から出力され、同様の間隔と長さで、かつ、同様の強さSt1に相当する音量の音声がスピーカ52から出力される。
すなわち、一定の強度St11で、時刻t11乃至時刻t12の一定の長さで、かつ、制御パラメータDVの大きさに応じた時間間隔で、振動アクチュエータ53が振動されて、対応するタイミングと音量でスピーカ52から出力される。
このように、制御パラメータが連続変量であるか、または、離散変量であるかに応じて、異なる振動、または、音声により制御対象装置の状態を認識することが可能となる。結果として、ディスプレイなどにフィードバック情報が表示される場合と異なり、視線を動かすことなく、制御対象装置の状態を確認することが可能となる。
<スピーカ装置の構成例>
次に、図5のブロック図を参照して、スピーカ装置32の構成例について説明する。
次に、図5のブロック図を参照して、スピーカ装置32の構成例について説明する。
スピーカ装置32は、例えば、図示せぬオーディオアンプからの音声信号や、テレビジョン受像器(TV)33からの音声信号を外部から受け付けて、増幅するなどした音声を出力する。
より詳細には、スピーカ装置32は、制御部91、赤外光発光部92、通信部93、ボリュームコントローラ94、スピーカ95、および外部入力部96を備えている。
制御部91は、プロセッサなどから構成されており、スピーカ装置32の全体の動作を制御する。
赤外光発光部92は、制御部91により制御され、スピーカ装置32の固有のIDを含む赤外光コードを所定のパターンで発光する。
通信部93は、制御部91により制御され、WiFiやブルートゥースなどからなる無線通信ネットワーク35を介して、コントローラ31と通信し、音量を制御する制御パラメータに応じた制御コマンドを受信して、制御部91に出力する。
ボリュームコントローラ94は、制御部91により制御され、入力された音声信号を制御コマンドに応じたボリューム(音量)でスピーカ95に出力して音声として出力させる。
外部入力部96は、図示せぬオーディオアンプからの音声信号や、テレビジョン受像器(TV)33からの音声信号の入力を受け付けて、制御部91に出力する。
制御部91は、通信部93を介して受信した制御コマンドを取得し、制御コマンドをボリュームコントローラ94に供給する。ボリュームコントローラ94は、制御コマンドに基づいて、スピーカ95の音量を調整して、外部入力部96を介して供給された音声信号をスピーカ95より音声として出力させる。
<テレビジョン受像器の構成例>
次に、図6のブロック図を参照して、テレビジョン受像器33の構成例について説明する。
次に、図6のブロック図を参照して、テレビジョン受像器33の構成例について説明する。
テレビジョン受像器(TV)33は、例えば、所定のチャンネルを選局して、選局したチャンネルの放送波を受信して、放送波より画像信号と音声信号とをそれぞれデコードし、デコード結果である画像信号に基づいて画像を生成して表示すると共に、デコード結果である音声信号に基づいて音声を出力する。
より詳細には、テレビジョン受像器33は、制御部111、赤外光発光部112、通信部113、チャンネルコントローラ114、チューナ115、表示部116、スピーカ117、ボリュームコントローラ118、および外部入力部119を備えている。
制御部111は、プロセッサなどから構成されており、テレビジョン受像器33の全体の動作を制御する。
赤外光発光部112は、制御部111により制御され、テレビジョン受像器33の固有のIDを含む赤外光コードを所定のパターンで発光する。
通信部113は、制御部111により制御され、WiFiやブルートゥースなどからなる無線通信ネットワーク35を介して、コントローラ31と通信し、チャンネルを制御する制御パラメータに応じた制御コマンドを受信して、制御部111に出力する。
制御部111は、チャンネルコントローラ114を制御し、制御コマンドに基づいたチャンネルをチューナ115が選局するように制御させる。
チューナ115は、チャンネルコントローラ114より制御され、制御コマンドに基づいて指定されているチャンネルより放送波を受信し、受信した放送波を、デコードして画像信号と音声信号とを生成する。そして、チューナ115は、生成した画像信号を表示部116に出力して表示させ、生成した音声信号をスピーカ117に出力して音声として出力させる。
外部入力部119は、図示せぬ外部の装置より、画像信号および音声信号の入力を受け付けて、制御部111に出力する。
すなわち、制御部111は、通信部113を介して受信した制御コマンドを取得し、制御コマンドに基づいて、チャンネルコントローラ114を制御して、チューナ115に対して、制御コマンドにより指定されたチャンネルの放送波を受信させる。
チューナ115は、対応するチャンネルの放送波を受信し、受信した放送波の信号をデコードして、画像信号および音声信号を抽出し、画像信号を表示部116に出力して表示させると共に、音声信号をスピーカ117に出力して音声として出力させる。
ボリュームコントローラ118は、制御部111により制御され、入力された音声信号を制御コマンドに応じた音量でスピーカ117に出力して音声として出力させる。尚、ボリュームコントローラ118の構成は、基本的にスピーカ装置32と同様である。このため、テレビジョン受像器33においても、コントローラ31によりボリュームを遠隔操作することも可能であるが、ここでは、テレビジョン受像器33に対してはチャンネルを遠隔操作するときの動作のみを説明する。
制御部111は、通信部113を介して受信した制御コマンドを取得し、制御コマンドに基づいて、チャンネルコントローラ114を制御して、チューナ115が受信するチャンネルを制御する。これにより、チューナ115は、指定されたチャンネルの放送波を受信し、受信した放送波をデコードして、画像信号および音声信号を生成し、画像信号を表示部116に出力して画像として表示させると共に、音声信号をスピーカ117に出力して音声として出力させる。
<照明装置の構成例>
照明装置34は、室内の照明器具として機能するものである。
照明装置34は、室内の照明器具として機能するものである。
より詳細には、照明装置34は、制御部131、赤外光発光部132、通信部133、照度コントローラ134、発光部135、および外部入力部136を備えている。
制御部131は、プロセッサなどから構成されており、照明装置34の全体の動作を制御する。
赤外光発光部132は、制御部131により制御され、照明装置34の固有のIDを含む赤外光コードを所定のパターンで発光する。
通信部133は、制御部131により制御され、WiFiやブルートゥースなどからなる無線通信ネットワーク35を介して、コントローラ31と通信し、明るさを制御する制御パラメータに応じた制御コマンドを受信して、制御部131に出力する。
照度コントローラ134は、制御部131により制御され、制御コマンドに応じた明るさで発光部135を発光させる。
外部入力部136は、図示せぬ外部デバイスからの各種の信号の入力を受け付けて、制御部131に出力する。
制御部131は、通信部133を介して受信した制御コマンドを取得し、制御コマンドに基づいて、照度コントローラ134を制御して、発光部135の明るさを調整して発光させる。
<図1の制御システムによる遠隔操作制御処理>
次に、図8乃至図13のフローチャートを参照して、図1の制御システム11による遠隔操作制御処理について説明する。
次に、図8乃至図13のフローチャートを参照して、図1の制御システム11による遠隔操作制御処理について説明する。
尚、図8のフローチャートがスピーカ装置32の処理を説明したものであり、図9乃至図11のフローチャートがコントローラ31の処理を説明したものであり、図12のフローチャートがテレビジョン受像器33の処理を説明したものであり、図13のフローチャートが照明装置34の処理を説明したものである。
スピーカ装置32を制御する場合の処理について説明し、テレビジョン受像器33、および照明装置34を制御する処理について説明する。
<スピーカ装置の遠隔操作制御処理>
まず、スピーカ装置の遠隔操作制御処理について説明する。
まず、スピーカ装置の遠隔操作制御処理について説明する。
ステップS11(図8)において、制御部91は、赤外光発光部92を制御して、スピーカ装置32の固有のIDを示す赤外光コードを所定のパターンで発光させる。
ステップS12において、制御部91は、通信部93を制御して、コントローラ31から制御対象として認識されて、制御状態が確立されたことが通知されたか否かを判定し、制御対象として認識されて制御状態が確立されたことが通知されていない場合、処理は、ステップS11に戻る。
すなわち、制御対象として認識されて、制御状態が確立されるまで、スピーカ装置32は、ステップS11,S12の処理を繰り返す。
一方、ステップS31(図9)において、コントローラ31の制御部71は、赤外光受光部55を制御して、スピーカ装置32を識別するIDを含む赤外光コードが受光されたか否かを判定する。例えば、ユーザがコントローラ31を把持し、スピーカ装置32を制御対象にするために、赤外光受光部55をスピーカ装置32の方向に向けることにより、スピーカ装置32からの赤外光コードが受光されると、ステップS31において、例えば、スピーカ装置32からの赤外光コードが受光されたものとみなされて、処理は、ステップS32に進む。
ステップS32において、制御部71は、通信部74を制御して、スピーカ装置32に対して、無線通信ネットワーク35を介して、制御対象として認識し、制御状態を確立したことを通知する。
この処理により、ステップS12(図8)において、制御対象として認識されて制御状態が確立されたことを示す通知が受信されて、処理は、ステップS13に進む。
ステップS13において、制御部91は、通信部93を制御して、無線通信ネットワーク35を介した、コントローラ31による制御状態を確立した状態とする。
ステップS14において、制御部91は、ボリュームコントローラ94に問い合わせて、現状の音量を示す制御パラメータの情報を読み出し、フィードバック情報として、通信部93を制御して、コントローラ31に送信させる。
ステップS33(図9)において、コントローラ31の制御部71は、通信部74を制御して、制御対象となっているスピーカ装置32からフィードバック情報が送信されてきたか否かを判定し、送信されてくるまで、同様の処理を繰り返す。ステップS33において、ステップS14の処理によりフィードバック情報が送信されてきたとみなされた場合、処理は、ステップS34に進む。
ステップS34において、制御部71は、振動アクチュエータ53を制御し、図4を参照して説明したように、通信部74を介して受信されたフィードバック情報である、現在のスピーカ装置32における音量に相当する制御パラメータに対応する時間間隔と強度で振動を発生させることにより、現在のスピーカ装置32における音量の情報をフィードバックする。また、制御部71は、スピーカ52を制御し、図4を参照して説明したように、通信部74を介して受信されたフィードバック情報である、現在のスピーカ装置32における音量に相当する制御パラメータに対応する時間間隔と強度(音量)で音声を発生させることにより、現在のスピーカ装置32における音量の情報をフィードバックする。
すなわち、ここまでの処理により、ユーザは、制御対象にしたいスピーカ装置32に赤外光受光部55を向けるだけで、制御状態を確立させ、制御状態が確立したことを振動と音声により認識することが可能になると共に、現在のスピーカ装置32の音量も認識することができる。
ステップS35において、制御部71は、タクトスイッチ54が押下された状態で、かつ、加速度センサ72およびジャイロセンサ73の検出結果に基づいて、例えば、図1の軸Axを中心にコントローラ31の本体を図中の+方向または-方向に捻るような回転が加えられたか否かを判定する。ステップS35において、例えば、タクトスイッチ54が押下された状態で、かつ、図1の軸Axを中心にコントローラ31の本体を捻るような回転が加えられたとみなされた場合、処理は、ステップS36に進む。
ステップS36において、制御部71は、加速度センサ72およびジャイロセンサ73の検出結果に基づいて、回転量を検出し、回転量に応じた制御パラメータを生成する。すなわち、制御部71は、回転量に応じて、スピーカ装置32の音量をどの程度大きくする、または、小さくするといった制御パラメータを生成する。
ステップS37において、制御部71は、生成した制御パラメータに応じた制御コマンドを生成し、通信部74を制御してスピーカ装置32に送信する。
ステップS15(図8)において、スピーカ装置32の制御部91は、通信部93を制御して、コントローラ31から制御コマンドが送信されてきたか否かを判定する。ステップS15において、ステップS37の処理により、制御コマンドが送信されてくると、処理は、ステップS16に進む。
ステップS16において、制御部91は、ボリュームコントローラ94を制御して、制御コマンドに対応する制御パラメータに対応してスピーカ95の音量を制御させる。すなわち、制御部91は、制御パラメータに基づいて、音量をどれだけ大きくする、または、どの程度音量を小さくするのかをボリュームコントローラ94に対して指令する。ボリュームコントローラ94は、この指令に基づいて、スピーカ95より出力される音量を制御する。
ステップS17において、制御部91は、ボリュームコントローラ94に対して問い合わせて、現状の音量の情報を取得し、通信部93を制御して、フィードバック情報として、コントローラ31に送信させる。
ステップS18において、制御部91は、通信部93を制御して、コントローラ31から制御対象から外れたことが通知されたか否かを判定し、制御対象から外れたことが通知されない場合、処理は、ステップS15に戻る。
また、ステップS15において、制御コマンドが送信されてきていない場合、ステップS16,S17の処理はスキップされる。
すなわち、コントローラ31から制御対象から外れたことが通知されるまでは、ステップS15乃至S18の処理が繰り返されて、制御コマンドが送信されてくる度に、音量を制御する処理が繰り返される。
ステップS38(図9)において、コントローラ31の制御部71は、通信部74を制御して、スピーカ装置32からフィードバック情報が送信されてきたか否かを判定し、送信されてくるまで、同様の処理を繰り返す。ステップS38において、ステップS17の処理によりフィードバック情報が送信されてきた場合、処理は、ステップS39に進む。
ステップS39において、制御部71は、通信部74を制御して、送信されてきたフィードバック情報を受信する。そして、制御部71は、振動アクチュエータ53を制御し、図4を参照して説明したように、通信部74を介して受信されたフィードバック情報である、現在のスピーカ装置32における連続変量からなる音量に相当する制御パラメータに対応する時間間隔と強度で振動を発生させる。また、制御部71は、スピーカ52を制御し、図4を参照して説明したように、通信部74を介して受信されたフィードバック情報である、現在のスピーカ装置32における連続変量からなる音量に相当する制御パラメータに対応する時間間隔と強度(音量)で音声を発生させる。
ステップS40において、制御部71は、1度でも制御コマンドを送信したときは、最後に制御コマンドを送信してからの経過時間が所定時間以上経過したか否か、または、制御コマンドを送信していないときは、制御状態が確立されてからの経過時間が所定時間以上経過したか否かを判定する。ステップS40において、最後に制御コマンドが送信されてからの経過時間も、制御状態が確立されてからの経過時間も、所定時間以上経過していない場合、処理は、ステップS35に戻る。
また、ステップS35において、コントローラ31の本体の回転が検出されていない場合、ステップS36乃至S39の処理がスキップされる。
すなわち、1度でも制御コマンドを送信したときは、最後に制御コマンドを送信してからの経過時間が所定時間以上経過するまで、制御コマンドを送信していないときは、制御状態が確立されてからの経過時間が所定時間以上経過するまで、ステップS35乃至S40の処理が繰り返されて、スピーカ装置32の音量を制御するための、コントローラ31の回転操作が受け付けられる状態が継続される。
そして、ステップS40において、1度でも制御コマンドを送信した場合、最後に制御コマンドを送信してからの経過時間が所定時間以上経過したとき、または、制御コマンドを送信していない場合、制御状態が確立されてからの経過時間が所定時間以上経過したとき、処理は、ステップS41に進む。
ステップ41において、制御部71は、通信部74を制御して、スピーカ装置32に対して制御対象から外れたことを通知し、制御状態を解除する。
ステップS42において、制御部71は、遠隔操作制御処理の終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS31に戻る。また、ステップS42において、遠隔操作制御処理の終了が指示された場合、処理は、終了する。
これに応じて、スピーカ装置32においては、ステップS18(図8)において、制御対象から外れたことが通知されると、処理は、ステップS19に進む。
ステップS19において、制御部91は、通信部93を制御して、無線通信ネットワーク35を介したコントローラ31による制御状態を解除する。
ステップS20において、制御部91は、遠隔操作制御処理の終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS11に戻る。また、ステップS20において、遠隔操作制御処理の終了が指示された場合、処理は、終了する。
すなわち、制御状態が確立された後、所定時間以上の間隔を空けずに、コントローラ31が回転されて、スピーカ装置32に対して音量を調整するための制御コマンドが送信され続けている間、または、制御コマンドが送信されることがなくても、所定時間の間は、コントローラ31を回転させることで、スピーカ装置32に対して音量を制御する制御コマンドを送信して、音量を調整することができる状態が継続される。
そして、スピーカ装置32の音量を制御する処理がなされない状態が所定時間継続すると、制御状態が解除される。
すなわち、ユーザは、コントローラ31を把持して、制御対象にしたいスピーカ装置32に赤外光受光部55を向けると制御状態の確立を促すことができ、制御状態が確立されると、振動と音声により制御状態の確立を認識することができると同時に、その時のスピーカ装置32の音量の状態を認識することができる。
さらに、制御状態が確立した後は、タクトスイッチ54を押下しながら、図1の軸Axを中心として捻るような操作をするだけで、スピーカ装置32に対して音量を調整させるための制御コマンドを送信することができ、制御コマンドに基づいて、スピーカ装置32の音量が調整される。この際、スピーカ装置32からは、フィードバック情報として、現状の音量を示す情報が返信されて、振動と音声により認識することができる。
そして、スピーカ装置32の音量が所望の大きさになった後は、コントローラ31を用いたスピーカ装置32の音量を制御するような捻る操作がなされない状態が、所定の時間以上経過すると、制御状態が解除される。
このような一連の自然な操作で、スピーカ装置32を遠隔操作することが可能となる。
<テレビジョン受像器の遠隔操作制御処理>
次に、テレビジョン受像器の遠隔操作制御処理について説明する。
次に、テレビジョン受像器の遠隔操作制御処理について説明する。
ステップS81(図12)において、制御部111は、赤外光発光部112を制御して、テレビジョン受像器33を識別するための固有のIDを示す赤外光コードを所定のパターンで発光させる。
ステップS82において、制御部111は、通信部113を制御して、コントローラ31から制御対象として認識されて、制御状態が確立されたことが通知されたか否かを判定し、制御対象として認識されて制御状態が確立されたことが通知されていない場合、処理は、ステップS81に戻る。
すなわち、制御対象として認識されて、制御状態が確立されるまで、テレビジョン受像器33は、ステップS81,S82の処理を繰り返す。
一方、ステップS31(図9)において、スピーカ装置32からの赤外線コードが送信されてきていない場合、処理は、ステップS43に進む。
ステップS43(図10)において、コントローラ31の制御部71は、赤外光受光部55を制御して、テレビジョン受像器33を識別するIDを含む赤外光コードが受信されたか否かを判定する。例えば、ユーザがコントローラ31を把持し、テレビジョン受像器33を制御対象とするために、赤外光受光部55をテレビジョン受像器33の方向に向けることにより、テレビジョン受像器33からの赤外光コードが受光されると、ステップS43において、例えば、テレビジョン受像器33からの赤外光コードが受光され、処理は、ステップS44に進む。
ステップS44において、制御部71は、通信部74を制御して、テレビジョン受像器33に対して、無線通信ネットワーク35を介して、制御対象として認識し、制御状態を確立したことを通知する。
この処理により、ステップS82(図12)において、制御対象として認識されて、制御状態が確立されたことを示す通知が受信されて、処理は、ステップS83に進む。
ステップS83において、制御部111は、通信部113を制御して、無線通信ネットワーク35を介した、コントローラ31による制御状態を確立した状態とする。
ステップS84において、制御部111は、チャンネルコントローラ114に問い合わせて、現状のチャンネルを示す制御パラメータの情報を読み出し、フィードバック情報として、通信部113を制御して、コントローラ31に送信させる。
ステップS45(図10)において、コントローラ31の制御部71は、通信部74を制御して、制御対象となっているテレビジョン受像器33からフィードバック情報が送信されてきたか否かを判定し、送信されてくるまで、同様の処理を繰り返す。ステップS45において、ステップS84の処理によりフィードバック情報が送信されてきたとみなされた場合、処理は、ステップS46に進む。
ステップS46において、制御部71は、振動アクチュエータ53を制御し、図4を参照して説明したように、通信部74を介して受信されたフィードバック情報である、現在のテレビジョン受像器33における離散変量であるチャンネルに相当する制御パラメータに対応する時間間隔と強度で振動を発生させる。また、制御部71は、スピーカ52を制御し、図4を参照して説明したように、通信部74を介して受信されたフィードバック情報である、現在のテレビジョン受像器33における離散変量であるチャンネルに相当する制御パラメータに対応する時間間隔と強度(音量)で音声を発生させる。
すなわち、ここまでの処理により、ユーザは、制御対象にしたいテレビジョン受像器33に赤外光受光部55を向けるだけで、制御状態を確立させ、制御状態が確立したことを振動と音声により認識することが可能になると共に、現在のテレビジョン受像器33のチャンネルも認識することができる。
ステップS47において、制御部71は、タクトスイッチ54が押下された状態で、かつ、加速度センサ72およびジャイロセンサ73の検出結果に基づいて、例えば、図1の軸Axを中心にコントローラ31の本体を捻るような回転が加えられたか否かを判定する。ステップS47において、例えば、タクトスイッチ54が押下された状態で、かつ、図1の軸Axを中心にコントローラ31の本体を捻るような回転が加えられたとみなされた場合、処理は、ステップS48に進む。
ステップS48において、制御部71は、加速度センサ72およびジャイロセンサ73の検出結果に基づいて、回転量を検出し、回転量に応じた制御パラメータを生成する。すなわち、制御部71は、回転量に応じて、テレビジョン受像器33のチャンネルをどの程度大きくする、または、小さくするといった制御パラメータを生成する。
ステップS49において、制御部71は、生成した制御パラメータに応じた制御コマンドを生成し、通信部74を制御してテレビジョン受像器33に送信する。
ステップS85(図12)において、テレビジョン受像器33の制御部111は、通信部113を制御して、コントローラ31から制御コマンドが送信されてきたか否かを判定する。ステップS85において、ステップS49の処理により、制御コマンドが送信されてくると、処理は、ステップS86に進む。
ステップS86において、制御部111は、チャンネルコントローラ114を制御して、制御コマンドに対応する制御パラメータに基づいて、チューナ115におけるチェンネルを制御させる。
すなわち、制御部111は、制御パラメータに基づいて、チャンネルをどれだけ大きくする、または、どの程度チャンネルを小さくするのかをチャンネルコントローラ114に対して指令する。チャンネルコントローラ114は、この指令に基づいて、チューナ115より選局されるチャンネルを制御する。
この結果、チューナ115により選局されるチャンネルが切り替えられて、切り替えられて選局されたチャンネルの放送波が受信されて、受信された放送波がデコードされて、画像信号と音声信号が生成されて、生成された画像信号に基づいた画像が表示部116に表示されると共に、生成された音声信号に対応する音声がスピーカ117より出力される。
ステップS87において、制御部111は、チャンネルコントローラ114に対して問い合わせて、現状のチャンネルの情報を取得し、通信部113を制御して、フィードバック情報として、コントローラ31に送信させる。
ステップS88において、制御部111は、通信部113を制御して、コントローラ31から制御対象から外れたことが通知されたか否かを判定し、制御対象から外れたことが通知されない場合、処理は、ステップS85に戻る。
また、ステップS85において、制御コマンドが送信されてきていない場合、ステップS86,S87の処理はスキップされる。
すなわち、コントローラ31から制御対象から外れたことが通知されるまでは、ステップS85乃至S88の処理が繰り返されて、制御コマンドが送信されてくる度に、チャンネルを制御する処理が繰り返される。
ステップS50(図10)において、コントローラ31の制御部71は、通信部74を制御して、テレビジョン受像器33からフィードバック情報が送信されてきたか否かを判定し、送信されてくるまで、同様の処理を繰り返す。ステップS50において、ステップS87の処理によりフィードバック情報が送信されてきた場合、処理は、ステップS51に進む。
ステップS51において、制御部71は、通信部74を制御して、送信されてきたフィードバック情報を受信する。そして、制御部71は、振動アクチュエータ53を制御し、図4を参照して説明したように、通信部74を介して受信されたフィードバック情報である、現在のテレビジョン受像器33における離散変量であるチャンネルに相当する制御パラメータに対応する時間間隔と強度で振動を発生させる。また、制御部71は、スピーカ52を制御し、図4を参照して説明したように、通信部74を介して受信されたフィードバック情報である、現在のテレビジョン受像器33における離散変量であるチャンネルに相当する制御パラメータに対応する時間間隔と強度(音量)で音声を発生させる。
ステップS52において、制御部71は、1度でも制御コマンドを送信した場合、最後に制御コマンドを送信してからの経過時間が所定時間以上経過したか否か、または、制御コマンドを送信していない場合、制御状態が確立されてからの経過時間が所定時間以上経過したか否かを判定する。ステップS52において、最後に制御コマンドが送信されてからの経過時間も、制御状態が確立されてからの経過時間も、所定時間以上経過していない場合、処理は、ステップS47に戻る。
また、ステップS47において、コントローラ31の本体の回転が検出されていない場合、ステップS48乃至S51の処理がスキップされる。
そして、ステップS52において、1度でも制御コマンドを送信した場合、最後に制御コマンドを送信してからの経過時間が所定時間以上経過したとき、または、制御コマンドを送信していない場合、制御状態が確立されてからの経過時間が所定時間以上経過したとき、処理は、ステップS53に進む。
ステップS53において、制御部71は、通信部74を制御して、テレビジョン受像器33に対して制御対象から外れたことを通知し、制御状態を解除する。
これに応じて、テレビジョン受像器33においては、ステップS88(図12)において、制御対象から外れたことが通知されると、処理は、ステップS89に進む。
ステップS89において、制御部111は、通信部113を制御して、無線通信ネットワーク35を介した制御状態を解除する。
ステップS90において、制御部111は、遠隔操作制御処理の終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS81に戻る。また、ステップS90において、遠隔操作制御処理の終了が指示された場合、処理は、終了する。
すなわち、制御状態が確立された後、所定時間以上の間隔を空けずに、コントローラ31が回転されて、テレビジョン受像器33に対してチャンネルを調整するための制御コマンドが送信され続けている間、または、制御コマンドが送信されることがなくても、所定時間の間は、コントローラ31を回転させることで、テレビジョン受像器33に対してチャンネルを制御する制御コマンドを送信して、チャンネルを調整することができる状態が継続される。
そして、テレビジョン受像器33のチャンネルを制御する処理がなされない状態が所定時間継続すると、制御状態が解除される。
すなわち、ユーザは、コントローラ31を把持して、制御対象にしたいテレビジョン受像器33に赤外光受光部55を向けると制御状態の確立を促すことができ、制御状態が確立されると、振動と音声により制御状態の確立を認識することができると同時に、その時のテレビジョン受像器33のチャンネルの状態を認識することができる。
さらに、制御状態が確立した後は、タクトスイッチ54を押下しながら、図1の軸Axを中心として捻るような操作をするだけで、テレビジョン受像器33に対してチャンネルを調整させるための制御コマンドを送信することができ、制御コマンドに基づいて、テレビジョン受像器33のチャンネルが調整される。この際、テレビジョン受像器33からは、フィードバック情報として、現状のチャンネルを示す情報が返信されて、振動と音声により認識することができる。
そして、テレビジョン受像器33のチャンネルが所望のチャンネルになった後は、所定の時間が経過すると、制御状態が解除される。
このような一連の自然な操作で、テレビジョン受像器33を遠隔操作することが可能となる。
<照明装置の遠隔操作制御処理>
次に、照明装置34の遠隔操作制御処理について説明する。
次に、照明装置34の遠隔操作制御処理について説明する。
ステップS101(図13)において、制御部131は、赤外光発光部132を制御して、自らを識別するための固有のIDを示す赤外光コードを所定のパターンで発光させる。
ステップS102において、制御部131は、通信部133を制御して、コントローラ31から制御対象として認識されて、制御状態が確立されたことが通知されたか否かを判定し、制御対象として認識されて制御状態が確立されたことが通知されていない場合、処理は、ステップS101に戻る。
すなわち、制御対象として認識されて、制御状態が確立されるまで、照明装置34は、ステップS101,S102の処理を繰り返す。
一方、ステップS43(図10)において、テレビジョン受像器33からの赤外線コードが送信されてきていない場合、処理は、ステップS54に進む。
ステップS54(図11)において、コントローラ31の制御部71は、赤外光受光部55を制御して、照明装置34を識別するIDを含む赤外光コードが受信されたか否かを判定する。例えば、ユーザがコントローラ31を把持し、照明装置34を制御するために、赤外光受光部55を照明装置34の方向に向けることにより、照明装置34からの赤外光コードが受光されると、ステップS54において、例えば、照明装置34からの赤外光コードが受光され、処理は、ステップS55に進む。
ステップS55において、制御部71は、通信部74を制御して、照明装置34に対して、無線通信ネットワーク35を介して、制御対象として認識し、制御状態を確立したことを通知する。
この処理により、ステップS102(図13)において、制御対象として認識されて制御状態が確立されたことを示す通知が受信されて、処理は、ステップS103に進む。
ステップS103において、制御部131は、通信部133を制御して、無線通信ネットワーク35を介した、コントローラ31による制御状態を確立した状態とする。
ステップS104において、制御部131は、照度コントローラ134に問い合わせて、現状の明るさを示す制御パラメータの情報を読み出し、フィードバック情報として、通信部133を制御して、コントローラ31に送信させる。
ステップS56(図11)において、コントローラ31の制御部71は、通信部74を制御して、制御対象となっている照明装置34からフィードバック情報が送信されてきたか否かを判定し、送信されてくるまで、同様の処理を繰り返す。ステップS56において、ステップS104の処理によりフィードバック情報が送信されてきたとみなされた場合、処理は、ステップS57に進む。
ステップS57において、制御部71は、振動アクチュエータ53を制御し、図4を参照して説明したように、通信部74を介して受信されたフィードバック情報である、現在の照明装置34における連続変量からなる明るさに相当する制御パラメータに対応する時間間隔と強度で振動を発生させる。また、制御部71は、照明装置34を制御し、図4を参照して説明したように、通信部74を介して受信されたフィードバック情報である、現在の照明装置34における連続変量からなる明るさに相当する制御パラメータに対応する時間間隔と強度(音量)で音声を発生させる。
すなわち、ここまでの処理により、ユーザは、制御対象にしたい照明装置34に赤外光受光部55を向けるだけで、制御状態を確立させ、制御状態が確立したことを振動と音声により認識することが可能になると共に、現在の照明装置34の明るさも認識することができる。
ステップS58において、制御部71は、タクトスイッチ54が押下された状態で、かつ、加速度センサ72およびジャイロセンサ73の検出結果に基づいて、例えば、図1の軸Axを中心にコントローラ31の本体を捻るような回転が加えられたか否かを判定する。ステップS58において、例えば、タクトスイッチ54が押下された状態で、かつ、図1の軸Axを中心にコントローラ31の本体を捻るような回転が加えられたとみなされた場合、処理は、ステップS59に進む。
ステップS59において、制御部71は、加速度センサ72およびジャイロセンサ73の検出結果に基づいて、回転量を検出し、回転量に応じた制御パラメータを生成する。すなわち、制御部71は、回転量に応じて、照明装置34の明るさをどの程度明るくする、または、暗くするといった制御パラメータを生成する。
ステップS60において、制御部71は、生成した制御パラメータに応じた制御コマンドを生成し、通信部74を制御して照明装置34に送信する。
ステップS105(図13)において、照明装置34の制御部131は、通信部133を制御して、コントローラ31から制御コマンドが送信されてきたか否かを判定する。ステップS105において、ステップS60の処理により、制御コマンドが送信されてくると、処理は、ステップS106に進む。
ステップS106において、制御部111は、照度コントローラ134を制御して、制御コマンドに対応する制御パラメータに対応して発光部135における明るさを制御させる。
すなわち、制御部131は、制御パラメータに基づいて、発光部135をどれだけ明るく発光させる、または、発光部135をどの程度暗くするのかを照度コントローラ134に対して指令する。照度コントローラ134は、この指令に基づいて、発光部135より発光する明るさを制御する。この結果、発光部135の明るさが調整される。
ステップS107において、制御部131は、照度コントローラ134に対して問い合わせて、現状の明るさの情報を取得し、通信部133を制御して、フィードバック情報として、コントローラ31に送信させる。
ステップS108において、制御部131は、通信部133を制御して、コントローラ31から制御対象から外れたことが通知されたか否かを判定し、制御対象から外れたことが通知されない場合、処理は、ステップS105に戻る。
また、ステップS105において、制御コマンドが送信されてきていない場合、ステップS106,S107の処理はスキップされる。
すなわち、コントローラ31から制御対象から外れたことが通知されるまでは、ステップS105乃至S108の処理が繰り返されて、制御コマンドが送信されてくる度に、明るさを制御する処理が繰り返される。
ステップS61(図11)において、コントローラ31の制御部71は、通信部74を制御して、照明装置34からフィードバック情報が送信されてきたか否かを判定し、送信されてくるまで、同様の処理を繰り返す。ステップS61において、ステップS107の処理によりフィードバック情報が送信されてきた場合、処理は、ステップS62に進む。
ステップS62において、制御部71は、通信部74を制御して、送信されてきたフィードバック情報を受信する。そして、制御部71は、振動アクチュエータ53を制御し、図4を参照して説明したように、通信部74を介して受信されたフィードバック情報である、現在の照明装置34における連続変量からなる明るさに相当する制御パラメータに対応する時間間隔と強度で振動を発生させる。また、制御部71は、スピーカ52を制御し、図4を参照して説明したように、通信部74を介して受信されたフィードバック情報である、現在の照明装置34における連続変量からなる明るさに相当する制御パラメータに対応する時間間隔と強度(音量)で音声を発生させる。
ステップS63において、制御部71は、一度でも制御コマンドを送信した場合、最後に制御コマンドを送信してからの経過時間が所定時間以上経過したか否か、または、制御コマンドを送信していない場合、制御状態が確立されてからの経過時間が所定時間以上経過したか否かを判定する。ステップS63において、最後に制御コマンドが送信されてからの経過時間も、制御状態が確立されてからの経過時間も、所定時間以上経過していない場合、処理は、ステップS58に戻る。
また、ステップS58において、コントローラ31の本体の回転が検出されていない場合、ステップS59乃至S62の処理がスキップされる。
そして、ステップS63において、一度でも制御コマンドを送信した場合、最後に制御コマンドを送信してからの経過時間が所定時間以上経過したとき、または、制御コマンドを送信していない場合、制御状態が確立されてからの経過時間が所定時間以上経過したとき、処理は、ステップS64に進む。
ステップ64において、制御部71は、通信部74を制御して、照明装置34に対して制御対象から外れたことを通知し、制御状態を解除する。
これに応じて、照明装置34においては、ステップS108(図13)において、制御対象から外れたことが通知されると、処理は、ステップS109に進む。
ステップS109において、制御部131は、通信部133を制御して、無線通信ネットワーク35を介した制御状態を解除する。
ステップS110において、制御部131は、遠隔操作制御処理の終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS101に戻る。また、ステップS110において、遠隔操作制御処理の終了が指示された場合、処理は、終了する。
すなわち、制御状態が確立された後、所定時間以上の間隔を空けずに、コントローラ31が回転されて、照明装置34に対して明るさを調整するための制御コマンドが送信され続けている間、または、制御コマンドが送信されることがなくても、所定時間の間は、コントローラ31を回転させることで、照明装置34に対して明るさを制御する制御コマンドを送信して、明るさを調整することができる状態が継続される。
そして、照明装置34の明るさを制御する処理がなされない状態が所定時間継続すると、制御状態が解除される。
すなわち、ユーザは、コントローラ31を把持して、制御対象にしたい照明装置34に赤外光受光部55を向けると制御状態の確立を促すことができ、制御状態が確立されると、振動と音声により制御状態の確立を認識することができると同時に、その時の照明装置34の明るさの状態を認識することができる。
さらに、制御状態が確立した後は、タクトスイッチ54を押下しながら、図1の軸Axを中心として捻るような操作をするだけで、照明装置34に対して明るさを調整させるための制御コマンドを送信することができ、制御コマンドに基づいて、照明装置34の明るさが調整される。この際、照明装置34からは、フィードバック情報として、現状の明るさを示す情報が返信されて、振動と音声により認識することができる。
そして、照明装置34が所望の明るさになった後は、所定の時間が経過すると、制御状態が解除される。
このような一連の自然な操作で、照明装置を遠隔操作することが可能となる。
尚、以上においては、テレビジョン受像器33は、チャンネルを切り替える制御をする例について説明してきたが、例えば、タクトスイッチを切り替えることで、チャンネルと音量と両方を切り替えて制御できるようにしてもよい。
以上の処理により、1個のコントローラ31により、スピーカ装置32、テレビジョン受像器33、および照明装置34のうち、制御対象装置に赤外光受光部55を向けるだけで、制御状態の確立を促すことができ、制御状態が確立されると、制御状態の確立と、制御対象装置の音量、チャンネル、および明るさの状態を認識することができる。
また、制御状態が確立された後は、タクトスイッチ54を押下しながら、所定の軸Axを中心として捻るように回転させることにより、音量、チャンネル、および明るさを制御することが可能となる。
さらに、所望の音量、チャンネル、および明るさに調整された後は、所定の時間が経過すると制御状態の確立が解除される。
すなわち、これらの一連の自然の動作により、複数の制御対象装置を切り替えて制御することが可能となる。
また、以上においては、1個のコントローラ31により、スピーカ装置32、テレビジョン受像器33、および照明装置34の3種類の制御対象装置を切り替えて制御する例について説明してきたが、それ以外の装置を同様に制御することもできる。
例えば、スピーカ装置32、テレビジョン受像器33、および照明装置34に加えて、例えば、空調装置、ブラインド、およびドアなどを制御するようにしてもよい。この場合、制御パラメータは、連続変量パラメータと離散変量パラメータとを設定することができる。連続変量パラメータは、連続した値をとる制御値であり、例えば、音量や明るさ等である。また、離散変量パラメータは、飛び飛びの値を取る制御値であり、例えば、電源や機能のON/OFFやテレビジョン受像器33のチャンネル等である。
より具体的には、図14で示されるように、スピーカ装置32の場合、連続変量パラメータからなる音量とし、テレビジョン受像器33の場合、離散変量パラメータであるチャンネル、および連続変量パラメータである音量とし、照明装置34の場合、連続変量パラメータである光量(明るさ)としてもよい。また、空調装置の場合、連続変量パラメータとしての設定温度、および設定風量とし、ブラインドの場合、連続変量パラメータである遮光角度とし、ドアの場合、離散変量パラメータとなる開錠/施錠とするようにしてもよい。ただし、連続変量パラメータである音量、明るさ、設定温度、および設定風量、並びに、遮光角度などは、大/中/小、または高/低などの連続した値を設定できない場合、選択可能な制御値が限定的である場合、または、制御を簡素化したい場合等には、離散変量パラメータとして扱うようにしてもよい。
また、以上においては、赤外光発光部92,112,132により発光される赤外光からなる赤外光コードにより認識される固有のIDに基づいて、制御対象装置を認識する例について説明してきたが、指向性のある無線信号であれば、赤外光以外の手法で制御対象装置を認識するようにしてもよく、例えば、赤外光以外の光(ただし、非可視光が望ましい)を用いるようにしてもよいし、指向性を備えた電磁波(いわゆる無線)、または超音波などを用いるようにしてもよい。
<<2.第2の実施の形態>>
以上においては、コントローラ31の赤外光受光部55を制御対象装置に向けて制御状態を確立し、軸Axを中心に回転させることにより、制御対象装置を制御する例について説明してきたが、制御対象装置により実現されているコンテンツがある場合、そのコンテンツを制御できるようにしてもよい。
以上においては、コントローラ31の赤外光受光部55を制御対象装置に向けて制御状態を確立し、軸Axを中心に回転させることにより、制御対象装置を制御する例について説明してきたが、制御対象装置により実現されているコンテンツがある場合、そのコンテンツを制御できるようにしてもよい。
図15は、本開示の第2の実施の形態の制御システムの構成例が示されている。
図15の制御システム11は、コントローラ31、プロジェクタ装置201、および無線通信ネットワーク35より構成されている。
図15の制御システム11においては、プロジェクタ装置201により壁面K1,K2に対して投影されるプロジェクション領域Z1,Z2内において、写真P1のようなコンテンツを投影し、コントローラ31によりコンテンツである写真P1を選択して、プロジェクション領域Z1,Z2上を移動させて投影させる。
図15のコントローラ31は、赤外光受光部55の付近にカメラが新たに設けられており、壁面K1,K2に投影された写真P1のようなコンテンツを画像として認識することにより、どのコンテンツを選択したのかを認識する。
ここで、例えば、ユーザが、コントローラ31を把持して、プロジェクション領域Z1上に投影された写真P1に向けた状態でタクトスイッチ54を押下すると、そのタイミングで、カメラにより撮像された画像内の情報に基づいて、コントローラ31は、写真P1が選択されたことを認識し、振動と音声によりコンテンツである写真P1が選択されたことを通知する。
そして、ユーザが、コントローラ31の向きを変えると、向きの変化に応じて写真P1がプロジェクション領域Z1上を移動して表示され、例えば、図15で示されるようにコントローラ31a乃至31eで示されるように向きを変えると、対応して順次写真P1が写真P2乃至P5へと順次移動するように投影して表示される。
選択されたコンテンツを移動させるとき、タクトスイッチ54の押下が中止されると、コンテンツの選択が解除されて、選択されていたコンテンツである写真は、そのときの移動位置から最も近い位置に設定されているグリッドG1乃至G3上に移動して停止した状態で投影される。ここでグリッドとは、プロジェクタ装置201の投影面であるプロジェクション領域Z1,Z2上において、コンテンツである写真が停留できる、予め所定の間隔で設定される位置である。図15においては、点線で示される位置がグリッドG1乃至G3に設定されている。
このとき、例えば、コントローラ31により写真P1が選択されて、矢印方向に移動させる途中で、点線で示されるように、グリッドG1とG2との間に写真P11で示されるように移動されたタイミングにおいて、タクトスイッチ54が離されると、写真P11は、図中の点線で示された位置には留まらず、グリッドG1とG2とのいずれか、写真P11の中心位置(中心位置以外でもよい)が、近い方のグリッドに吸い付けられるように移動して停留する。
すなわち、図15の場合、点線で示される写真P11の中心位置は、グリッドG2とG3との中間であって、グリッドG2に近い位置であるので、写真P11の位置においてタクトスイッチ54の押下が解除されると、写真P11は、グリッドG2の位置が中心位置になるよう、吸い寄せられるように移動して、写真P2として停留する。この際、写真P11が、グリッドG2に吸い寄せられるように移動するように表示を演出すると共に、コントローラ31から吸着音のような効果音を発する。
また、コントローラ31は、図15で示されるように、写真P1を選択して、矢印方向(図中の左方向)に移動させる際、移動経路上の壁面K1,K2のテクスチャに応じて壁面K1,K2の表面の凹凸を振動により表現したり、壁面K1,K2との境界となる角Cに当接したときや、壁面K1,K2上に所定値以上の段差があるようなときには、コツンといった擬態音を発生し、選択したコンテンツを壁面K1,K2上をあたかも物理的に引き摺るように移動しているような演出をする。
<図15で示されるコンテンツを遠隔制御する際のコントローラの物理的な構成例>
次に、図16を参照して、図15で示されるようなコンテンツを遠隔制御する際のコントローラ31の物理的な構成例について説明する。尚、図16において、図2の構成と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
次に、図16を参照して、図15で示されるようなコンテンツを遠隔制御する際のコントローラ31の物理的な構成例について説明する。尚、図16において、図2の構成と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
すなわち、図16において、図2のコントローラ31と異なる構成は、新たにカメラ221が設けられた点である。カメラ221は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)からなるイメージセンサであり、赤外光受光部55とほぼ同一の方向を撮像し、撮像した画像を制御部71に出力する。
<図15のコントローラの構成例>
次に、図16を参照して、図15におけるコントローラ31の詳細な構成例について説明する。尚、図16のコントローラ31において、図3のコントローラ31と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
次に、図16を参照して、図15におけるコントローラ31の詳細な構成例について説明する。尚、図16のコントローラ31において、図3のコントローラ31と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
すなわち、図16のコントローラ31において、図3のコントローラ31と異なる点は、カメラ221が設けられた点であり、対応して制御部71の動作が異なる点である。
制御部71は、タクトスイッチ54が押下されたタイミングにおけるカメラ221により撮像された画像内の、壁面K1,K2のプロジェクション領域Z1,Z2上に投影された写真からなるコンテンツの有無により、コンテンツが選択されたことを認識する。尚、複数の写真がカメラ221により撮像されているような場合については、例えば、画像内の中心に近い写真が選択されたものとみなすようにしてもよい。
また、制御部71は、加速度センサ72およびジャイロセンサ73の検出結果に基づいて、タクトスイッチ54が押下された状態におけるコントローラ31の指し示す方向の変化を検出する。そして、制御部71は、コントローラ31の指し示す方向に対応する位置にコンテンツとなる選択された写真を移動させる制御コマンドを生成し、通信部74を制御して、プロジェクタ装置201に対して制御コマンドを送信する。
さらに、制御部71は、カメラ221により撮像された画像に基づいて、図15で示される壁面K1,K2の表面のテクスチャを推定して、推定結果に基づいた壁面K1,K2の表面の凹凸に基づいて、振動アクチュエータ53を制御して振動させる。また、制御部71は、推定結果に基づいた壁面K1,K2の表面の凹凸に基づいて、スピーカ52を制御して音声を出力させる。
<プロジェクタ装置の構成例>
次に、図18を参照して、プロジェクタ装置201の構成例について説明する。
次に、図18を参照して、プロジェクタ装置201の構成例について説明する。
プロジェクタ装置201は、記憶しているコンテンツとなる写真を壁面に投影して表示する。この際、コントローラ31の動きに応じた制御コマンドを受け付けて、写真の投影する位置を移動させる。
より詳細には、プロジェクタ装置201は、制御部241、赤外光発光部242、通信部243、投影制御部244、投影部245、および記憶部246を備えている。
制御部241は、プロセッサなどから構成されており、プロジェクタ装置201の全体の動作を制御する。また、制御部241は、記憶部246に記憶されている写真をコンテンツとして読み出し、投影制御部244に出力し、投影部245から、例えば、図15の壁面K1,K2等に投影し、プロジェクション領域Z1,Z2内に表示させる。
赤外光発光部242は、制御部241により制御され、プロジェクタ装置201の固有のIDを含む赤外光コードを所定のパターンで発光する。
通信部243は、制御部241により制御され、WiFiやブルートゥースなどからなる無線通信ネットワーク35を介して、コントローラ31との通信を確立し、制御パラメータに応じた制御コマンドを受信して、制御部241に出力する。
投影制御部244は、制御部91により制御され、入力された音声信号を制御コマンドに応じて、コンテンツとなる写真の、例えば、プロジェクション領域Z1,Z2内の投影位置を制御し、投影部245より壁面に投影させる。
<壁面のテクスチャを再生させる例>
次に、壁面K1,K2の凹凸であるテクスチャを振動と音声により再生させる例について説明する。
次に、壁面K1,K2の凹凸であるテクスチャを振動と音声により再生させる例について説明する。
制御部71は、カメラ221により撮像された画像に基づいて、壁面K1,K2の表面のテクスチャを表現する凹凸を推定し、振動アクチュエータ53およびスピーカ52を制御して、振動と音声により再現する。
より具体的には、例えば、図19の画像T1で示されるような壁面の画像がカメラ221により撮像されるような場合、コントローラ31が選択した写真からなるコンテンツを図中の矢印で示されるように左から右方向に移動させるとき、制御部71は、動線上の表面を、例えば、図19の波形W1で示されるように表面がざらついたような凹凸であるものと推定する。尚、図19の波形W1乃至W3の横軸は、図19の画像T1乃至T3上を矢印方向に移動するときの移動位置であり、縦軸は、それぞれの移動位置における表面形状の高さを表現している。
この場合、制御部71は、振動アクチュエータ53を制御して、波形W1で示されるような、のこぎり状の波形を再現するように振動を発生させる。また、制御部71は、スピーカ52を制御して、波形W1で示されるような、のこぎり状の波形を再現するように音声を発生させる。
また、例えば、図19の画像T2で示されるような壁面の画像がカメラ221により撮像されるような場合、コントローラ31が選択した写真からなるコンテンツを図中の矢印で示されるように左から右方向に移動させるとき、制御部71は、動線上の表面を、例えば、図19の波形W2で示されるような段差のある表面であるものとして推定する。
この場合、制御部71は、振動アクチュエータ53を制御して、波形W2で示されるような、パルス波形に近い波形を再現するように、不定期に発生する凹部を通過する際には、コツッといった振動を発生させる。また、制御部71は、スピーカ52を制御して、波形W2で示されるような、パルス波形に近い波形を再現するように、不定期に発生する凹部を通過する際には、コツッといった音声を発生させる。
さらに、例えば、図19の画像T3で示されるような壁面の画像がカメラ221により撮像されるような場合、コントローラ31が選択した写真からなるコンテンツを図中の矢印で示されるように左から右方向に移動させるとき、制御部71は、動線上の表面を、例えば、図19の波形W3で示されるような段差のある表面であるものとして推定する。
この場合、制御部71は、振動アクチュエータ53を制御して、波形W3で示されるような、細かい周期のパルス波形に近い波形を再現するように、連続する凹部を通過する際には、コツコツコツといった振動を発生させる。また、制御部71は、スピーカ52を制御して、波形W3で示されるような、細かい周期のパルス波形に近い波形を再現するように、連続する凹部を通過する際には、コツコツコツといった音声を発生させる。
尚、この例においては、カメラ221により撮像された画像に基づいて、制御部71が、表面形状を推定し、推定結果に応じた波形を用いて振動と音声を発生させる例について説明しているが、カメラ221に代えてデプスセンサを用いて、実際に、壁面までの距離を測定して、表面の凹凸を計測し、計測結果に基づいて波形を形成するようにしてもよい。また、予めデプスセンサにより壁面までの距離を計測して記憶しておき、記憶された計測結果を利用して表面の凹凸の情報を求めて利用するようにしてもよい。
<グリッドの例>
次に、写真からなるコンテンツの移動位置を規定するグリッドについて説明する。
次に、写真からなるコンテンツの移動位置を規定するグリッドについて説明する。
グリッドは、プロジェクタ装置201によりコンテンツである写真を投影する位置を規定するものである。例えば、図15においては、水平方向に所定の間隔で設定されるグリッドG1乃至G3の例が示されている。このグリッドG1乃至G3により、例えば、複数のコンテンツである写真を管理する場合、写真がグリッドにより規定された水平位置でのみ停留するので、例えば、水平方向に細かい位置決めをしなくても、水平方向に対して、グリッドとして設定された位置に揃えて配置させることができる。
尚、図15においては、写真であるコンテンツの中心位置が、いずれかのグリッドG1乃至G3に位置するように停留される例について説明してきたが、グリッドに揃えられるコンテンツである写真の位置は、コンテンツである写真の中心位置以外でもよい。
例えば、コントローラ31により選択されるコンテンツが、図20の左部で示されるような丸印で示されるようなマークであるような場合、丸印からなるコンテンツC11の左端部がグリッドG1に接触するように停留されるようにしてもよい。
この場合、例えば、丸印からなるコンテンツをコントローラ31で選択して移動させ、図20の左部で示されるコンテンツC1の位置で、タクトスイッチ54の押下が解除されると、コンテンツC1の左端部がグリッドG1に吸着されるように移動して投影され、コンテンツC11で示されるように左端部がグリッドG1に接触したところで移動が停止して、停留される。
また、例えば、図20の中央部で示されるように、丸印からなるコンテンツC12の中央部がグリッドG2に接触するように停留されるようにしてもよい。
この場合、例えば、丸印からなるコンテンツをコントローラ31で選択して移動させ、図20の中央部で示されるコンテンツC2の位置で、タクトスイッチ54の押下が解除されると、コンテンツC2の中央部がグリッドG2に吸着されるように移動して投影され、コンテンツC12で示されるように中央部がグリッドG2に接触したところで移動が停止して、停留される。
さらに、例えば、図20の右部で示されるように、丸印からなるコンテンツC13の右端部がグリッドG3に接触するように停留されるようにしてもよい。
この場合、例えば、丸印からなるコンテンツをコントローラ31で選択して移動させ、図20の右部で示されるコンテンツC3の位置で、タクトスイッチ54の押下が解除されると、コンテンツC3の右端部がグリッドG3に吸着されるように移動して投影され、コンテンツC13で示されるように右端部がグリッドG3に接触したところで移動が停止し、停留される。
尚、図15および図20においては、グリッドが水平方向に対して設定される例について説明してきたが、垂直方向に設定されてもよいし、水平方向および垂直方向に格子状にグリッドが設定されてもよい。
<図15の制御システムによる遠隔操作制御処理>
次に、図21,図22のフローチャートを参照して、図15の制御システム11による遠隔操作制御処理について説明する。
次に、図21,図22のフローチャートを参照して、図15の制御システム11による遠隔操作制御処理について説明する。
ステップS131(図21)において、プロジェクタ装置201の制御部241は、記憶部246より記憶されている写真のデータをコンテンツとして読み出して、投影制御部244に出力する。投影制御部244は、供給された写真を、投影部245を制御して、コンテンツとして、例えば、図15の壁面K1,K2上のプロジェクション領域Z1,Z2内に投影する。
ステップS132において、プロジェクタ装置201の制御部241は、赤外光発光部242を制御して、自らを識別するための固有のIDを示す赤外光コードを所定のパターンで発光させる。
ステップS133において、制御部241は、通信部243を制御して、コントローラ31から制御対象として認識されて、制御状態が確立されたことが通知されたか否かを判定し、制御対象として認識されて制御状態が確立されたことが通知されていない場合、処理は、ステップS132に戻る。
すなわち、制御対象として認識されて、制御状態が確立されるまで、プロジェクタ装置201は、ステップS132,S133の処理を繰り返す。
一方、ステップS151(図22)において、コントローラ31の制御部71は、赤外光受光部55を制御して、プロジェクタ装置201を識別するIDを含む赤外光コードが受信されたか否かを判定する。例えば、ユーザがコントローラ31を把持し、プロジェクタ装置201を制御するために、赤外光受光部55をプロジェクタ装置201の方向に向けることにより、プロジェクタ装置201からの赤外光コードが受光されると、ステップS151において、例えば、プロジェクタ装置201からの赤外光コードが受光され、処理は、ステップS152に進む。
ステップS152において、制御部71は、通信部74を制御して、プロジェクタ装置201に対して、無線通信ネットワーク35を介して、制御対象として認識し、制御状態を確立したことを通知する。
この処理により、ステップS133(図21)において、制御対象として認識されて制御状態が確立されたことを示す通知が受信されて、処理は、ステップS134に進む。
ステップS134において、制御部241は、通信部243を制御して、無線通信ネットワーク35を介した、コントローラ31による制御状態を確立した状態とする。
ステップS135において、制御部241は、制御状態が確立したことを示す情報をフィードバック情報として、通信部93を制御して、コントローラ31に送信させる。
ステップS153(図22)において、コントローラ31の制御部71は、通信部74を制御して、制御対象となっているプロジェクタ装置201からフィードバック情報が送信されてきたか否かを判定し、送信されてくるまで、同様の処理を繰り返す。ステップS153において、ステップS135の処理によりフィードバック情報が送信されてきたとみなされた場合、処理は、ステップS154に進む。
ステップS154において、制御部71は、振動アクチュエータ53を制御し、通信部74を介して受信されたフィードバック情報である、現在のプロジェクタ装置201の制御状態が確立されたことを示す所定の強度で振動を発生させる。また、制御部71は、スピーカ52を制御し、通信部74を介して受信されたフィードバック情報である、現在のプロジェクタ装置201の制御状態が確立されたことを示す所定の強度(音量)で音声を発生させる。
すなわち、ここまでの処理により、ユーザは、制御対象にしたいプロジェクタ装置201に赤外光受光部55を向けるだけで、制御状態を確立させ、制御状態が確立したことを振動と音声により認識することが可能になる。
ステップS155において、制御部71は、カメラ221により撮像された画像内であって、中心位置付近にコンテンツである写真が存在する状態で、かつ、タクトスイッチ54が押下されているか否かにより、コンテンツが選択されたか否かを判定する。
ステップS155において、いずれかのコンテンツが選択されたとみなされた場合、処理は、ステップS156に進む。尚、コンテンツが選択されたとみなされた場合、制御部71は、カメラ221により撮像されている画像に基づいて、選択されたコンテンツの、プロジェクタ装置201により投影されているプロジェクション領域Z1,Z2上の位置を検出する。
ステップS156において、制御部71は、振動アクチュエータ53を制御し、コンテンツが選択されたことを示す強度で振動を発生させる。また、制御部71は、スピーカ52を制御し、コンテンツが選択されたことを示す強度(音量)で音声を発生させる。
ステップS157において、制御部71は、加速度センサ72およびジャイロセンサ73の検出結果に基づいて、図15で示されるコントローラ31a乃至31eで示されるように赤外光受光部55およびカメラ221の向きが変化するように回転が加えられ、コンテンツが投影される位置の移動が指示されたか否かを判定する。ステップS157において、例えば、コンテンツが選択された状態で、かつ、コントローラ31の本体の向きに回転が加えられて、コンテンツを移動させるような操作がなされたとみなされた場合、処理は、ステップS158に進む。
ステップS158において、制御部71は、加速度センサ72およびジャイロセンサ73の検出結果に基づいて、回転量を検出し、回転量に応じた制御パラメータを生成する。すなわち、制御部71は、回転量に応じて、コンテンツの移動方向と移動量とからなる、コンテンツの移動を指示する制御パラメータを生成する。
ステップS159において、制御部71は、生成した制御パラメータに応じた制御コマンドを生成し、選択されているコンテンツが、現状でプロジェクタ装置201のプロジェクション領域Z1,Z2上のどの位置のコンテンツであるかを特定するコンテンツ特定情報と共に、通信部74を制御してプロジェクタ装置201に送信する。
ステップS136(図21)において、プロジェクタ装置201の制御部241は、通信部243を制御して、コントローラ31からコンテンツの移動を指示する制御コマンドが送信されてきたか否かを判定する。ステップS136において、ステップS159の処理により、制御コマンドが送信されてくると、処理は、ステップS137に進む。
ステップS137において、制御部241は、コンテンツ特定情報と、制御コマンドとを投影制御部244に供給する。投影制御部244は、投影部245を制御して、コンテンツ特定情報と、制御コマンドとに基づいて、選択されているコンテンツとなる写真を、制御コマンドにより特定される移動方向に特定される移動量だけ移動するようにプロジェクション領域Z1,Z2内に投影させる。
尚、ステップS136において、コンテンツの移動を指示する制御コマンドが送信されてこない場合、ステップS137の処理がスキップされる。
すなわち、ここまでの処理により、コントローラ31のカメラ221の撮像方向を向けてタクトスイッチ54を押下することで、選択したい写真からなるコンテンツに向けることにより、制御対象となるコンテンツを特定することができる。さらに、制御対象となるコンテンツを移動させたい方向に、カメラ221の撮像方向を変化させることで、コンテンツの表示位置を移動させることが可能となる。
一方、ステップS160(図22)において、制御部71は、カメラ221により撮像される画像に基づいて、コンテンツを移動させる動線上の投影面のテクスチャを推定する。
ステップS161において、制御部71は、図19を参照して説明したように、振動アクチュエータ53を制御し、テクスチャの推定結果に基づいた強度で振動を発生させる。また、制御部71は、図19を参照して説明したように、スピーカ52を制御し、テクスチャの推定結果に基づいた強度(音量)で音声を発生させる。
ステップS162において、制御部71は、テクスチャの推定結果に基づいて、選択した写真からなるコンテンツの動線上に所定値よりも大きな段差が存在するか否かを判定する。ステップS162において、所定値よりも大きな段差が存在するとみなされた場合、処理は、ステップS163に進む。
ステップS163において、制御部71は、選択されているコンテンツが段差を通過するタイミングで、振動アクチュエータ53を制御し、段差を乗り越えたことを認識させるような所定の強度よりも高い強度で振動を発生させる。また、制御部71は、スピーカ52を制御し、段差を乗り越えたことを認識させるような、例えば、「コツッ」といった所定の音量よりも大きな音声を発生させる。
すなわち、例えば、図15で示される写真P1からなるコンテンツが選択されて、矢印方向に移動されて、写真P2乃至P4で示されるように順次移動するとき、動線上のプロジェクション領域Z1のテクスチャに応じた振動と音声により、選択されたコンテンツを、プロジェクション領域Z1上を引き摺って移動させているような感覚を持つことが可能となる。
また、選択されたコンテンツの移動を継続し、プロジェクション領域Z1とZ2とが交わる角Cに当接するような位置に移動したタイミングで、振動と音声により、ユーザは、選択したコンテンツが、角Cにぶつかったような感覚を得ることが可能となる。
いずれにおいても、プロジェクタ装置201により投影されている写真からなるコンテンツを、物理的に存在するものであるかのような感覚で、壁面K1,K2上を引き摺って移動しているような感覚を持たせることが可能となる。
尚、ステップS162において、写真からなるコンテンツの動線上に所定値よりも大きな段差が存在しないとみなされた場合、ステップS163の処理は、スキップされる。
ステップS164において、制御部71は、タクトスイッチ54の押下が解放されて、コンテンツの選択が解除されたか否かを判定する。ステップS164において、コンテンツの選択が解除されていないとみなされた場合、処理は、ステップS157に戻る。
また、ステップS157において、コントローラ31の本体の回転が検出されない場合、ステップS158乃至S162の処理がスキップされる。
すなわち、コンテンツの選択が解除されるまで、ステップS157乃至S164の処理が繰り返されて、コンテンツを移動させることが可能になると共に、動線上のテクスチャに応じた振動や音声が出力される処理が繰り返される。
そして、ステップS164において、タクトスイッチ54の押下が解放されて、コンテンツの選択が解除された場合、処理は、ステップS165に進む。
ステップS165において、制御部71は、移動されたコンテンツの位置に応じて、最も近い位置のグリッドに吸着するようにコンテンツを移動させる制御コマンドを生成し、コンテンツ特定情報と共に、通信部74を制御して、プロジェクタ装置201に送信する。
このとき、制御部71は、振動アクチュエータ53を制御し、コンテンツがグリッド位置に吸着されるような動きを感じさせる振動を発生させる。また、制御部71は、スピーカ52を制御し、コンテンツがグリッド位置に吸着されるような印象を与える音声を発生させる。
ステップS138(図21)において、制御部241は、通信部243を制御して、移動されたコンテンツの位置に応じて、最も近い位置のグリッドに吸着するようにコンテンツを移動させる制御コマンドが送信されてきたか否かを判定する。
ステップS138において、グリッドに吸着するようにコンテンツを移動させる制御コマンドが送信されてきた場合、処理は、ステップS139に進む。
ステップS139において、制御部241は、投影制御部244に対して、グリッドに吸着するようにコンテンツを移動させる制御コマンドとコンテンツ特定情報とを供給する。投影制御部244は、投影部245を制御して、制御コマンドとコンテンツ特定情報に基づいて、コンテンツ特定情報により特定されるコンテンツを、図20を参照して説明したように、現状の位置における最も近い位置のグリッドに移動するように表示するように投影させる。
尚、ステップS138において、グリッドに吸着するようにコンテンツを移動させる制御コマンドが送信されてこない場合、ステップS139の処理がスキップされる。
ステップS140において、制御部241は、通信部243を制御して、コントローラ31から制御対象から外れたことが通知されたか否かを判定し、制御対象から外れたことが通知されない場合、処理は、ステップS136に戻る。
すなわち、コントローラ31から制御対象から外れたことが通知されるまでは、ステップS136乃至S140の処理が繰り返されて、コンテンツの移動を指示する制御コマンド、または、コンテンツを現在の位置から最も近いグリッドに移動させる制御コマンドが送信されてくる度に、移動させて投影させる処理が繰り返される。
ステップS166において、制御部71は、一度でも制御コマンドを送信した場合、最後に制御コマンドを送信してからの経過時間が所定時間以上経過したか否か、または、制御コマンドを送信していない場合、制御状態が確立されてからの経過時間が所定時間以上経過したか否かを判定する。ステップS166において、最後に制御コマンドが送信されてからの経過時間も、制御状態が確立されてからの経過時間も、所定時間以上経過していない場合、処理は、ステップS155に戻る。
そして、ステップS166において、最後に制御コマンドを送信してからの経過時間が所定時間以上経過した、または、制御コマンドを送信していないときは、制御状態が確立されてからの経過時間が所定時間以上経過した場合、処理は、ステップS167に進む。
ステップ167において、制御部71は、通信部74を制御して、プロジェクタ装置201に対して制御対象から外れたことを通知し、制御状態を解除する。
ステップS168において、制御部71は、遠隔操作制御処理の終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS151に戻る。また、ステップS168において、遠隔操作制御処理の終了が指示された場合、処理は、終了する。
これに応じて、プロジェクタ装置201においては、ステップS140(図21)において、制御対象から外れたことが通知されると、処理は、ステップS141に進む。
ステップS141において、制御部241は、通信部243を制御して、無線通信ネットワーク35を介した制御状態を解除する。
ステップS142において、制御部91は、遠隔操作制御処理の終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS132に戻る。また、ステップS142において、遠隔操作制御処理の終了が指示された場合、処理は、終了する。
すなわち、制御状態が確立された後、所定時間以上の間隔を空けずに、コントローラ31が回転されて、プロジェクタ装置201によりコンテンツが投影されているプロジェクション領域Z1,Z2内でコンテンツを選択して移動させる制御コマンドが送信され続けている間、または、制御コマンドが送信されることがなくても、所定時間の間は、コントローラ31を回転させることで、コンテンツの移動を制御する制御コマンドを送信して、コンテンツを移動することができる状態が継続される。
そして、プロジェクタ装置201により投影されているコンテンツの移動を制御する処理がなされない状態が所定時間継続すると、制御状態が解除される。
すなわち、ユーザは、コントローラ31を把持して、制御対象にしたいコンテンツにカメラ221を向けて、タクトスイッチ54を押下すると制御対象のコンテンツを選択することができる。
また、コンテンツが選択されると、タクトスイッチ54を押下しながら、コントローラ31のカメラ221の撮像方向をコンテンツの移動させたい方向に回転させることで移動方向と移動量とを指示する制御コマンドを送信することができ、制御コマンドに基づいて、コンテンツの移動が制御される。この際、コンテンツの移動に伴う動線上の壁面のテクスチャが推定されて、テクスチャに応じた振動と音声が発生されることにより、壁面に投影されているだけの写真からなるコンテンツを、物理的に存在する写真を、壁面上を引き摺るように移動させているような感覚を持つことが可能となる。
そして、写真からなるコンテンツを所望の位置に移動させた後は、所定の時間が経過すると、制御状態が解除される。
このような一連の自然な操作で、プロジェクタ装置201により投影される写真からなるコンテンツを、物理的に実態のある写真を、壁面上を引き摺りながら移動させているような感覚を持ちながら、遠隔操作させることが可能となる。
<<3.変形例>>
以上においては、コントローラ31により制御対象装置には、赤外光発光部のような専用の構成が設けられている場合の実施例について説明してきた。このため、コントローラ31の制御対象装置は、赤外光発光部のような専用の構成を備えた装置以外は制御できなかった。
以上においては、コントローラ31により制御対象装置には、赤外光発光部のような専用の構成が設けられている場合の実施例について説明してきた。このため、コントローラ31の制御対象装置は、赤外光発光部のような専用の構成を備えた装置以外は制御できなかった。
そこで、コントローラ31の制御に必要とされる、赤外光発光部のような構成を備えた追加装置を、例えば、USBなどの外部端子で装置に接続することにより、専用の構成を備えていない装置でも制御対象装置にできるようにしてもよい。
図23は、コントローラ31による制御に必要とされる赤外光発光部が設けられていないスピーカ装置32に、赤外光発光部を備えた追加装置331が追加して接続される場合の構成が示されている。
図23のスピーカ装置32は、制御部301、記憶部302、通信部303、ボリュームコントローラ304、スピーカ305、および外部入力部306を備えている。尚、通信部303、ボリュームコントローラ304、およびスピーカ305は、図5の通信部93、ボリュームコントローラ94、およびスピーカ95と同様であるので、その説明は省略する。
制御部301は、USB(Universal Serial Bus)などからなる外部入力部306を介して、追加装置331が接続されたとき、実質的に制御部91と同様の機能を実現する。
また、追加装置331は、制御部351、記憶部352、赤外光発光部353、および外部出力部354を備えている。
制御部351は、追加装置331の動作の全体を制御する。
記憶部352は、コントローラ31により制御されるときに必要とされるドライバやプログラムを格納している。
外部出力部354は、例えば、USB端子などから構成されており、スピーカ装置32の外部入力部306と接続する。
すなわち、制御部351は、追加装置331の外部出力部354とスピーカ装置32の外部入力部306とが接続されると、記憶部352に記憶されているドライバやプログラムをスピーカ装置32に供給する。
制御部301は、追加装置331より供給されるドライバやプログラムを取得して、記憶部302に記憶させる。そして、制御部301は、記憶部302に記憶されているドライバやプログラムを実行させることにより、制御部91と同様の機能を実現する。このとき、制御部301は、自らを識別するIDを追加装置331の制御部351に供給する。
制御部351は、接続されたスピーカ装置32を識別するIDを記憶部352に記憶させる。そして、制御部351は、記憶部352に記憶されているスピーカ装置32を識別するIDに基づいて、赤外光コードを生成して、赤外光発光部353より発光させる。
以上のような構成により、赤外光発光部などを備えていない、図23の右部のスピーカ装置32のような装置であっても、コントローラ31により遠隔操作制御処理を実現させることが可能となる。
尚、図23においては、スピーカ装置32の例が示されているが、外部入力部306を備えている構成であれば、その他の装置でもよく、例えば、赤外光発光部などのコントローラ31による制御に必要な構成を備えていない、テレビジョン受像器33、照明装置34、およびプロジェクタ装置201などであってもよい。
また、以上においては、スピーカ32、テレビジョン受像機33、および照明装置34などの制御対象装置から、赤外光に代表される指向性のある、自らを識別する赤外光コードからなる無線信号が常時送信され、制御装置であるコントローラ31の方向を調整することで、無線信号を受信させることにより制御対象として認識し、制御状態を確立する例について説明してきた。
しかしながら、制御装置であるコントローラ31が、自らを識別する赤外光コードなどの指向性のある無線信号を制御対象装置に送信し、制御対象装置がコントローラ31からの無線信号を受信したとき、自らを識別する赤外光コードからなる指向性のある無線信号をコントローラ31に送信して制御状態を確立するようにしてもよい。
この場合、コントローラ31には、赤外光などの指向性のある無線信号を送信する指向性無線信号送信部がさらに設けられ、例えば、タクトスイッチ54-1乃至54-3のいずれかが操作されたとき、無線信号を送信させる。また、制御対象装置には、赤外光などの指向性のある無線信号を受信させる指向性無線信号受信部がさらに設けられ、例えば、コントローラ31からの赤外光からなる無線信号が受信されるとき、赤外光発光部92,112,132,242,または353が、赤外光コードからなる所定のパターンで発光する。
<<4.ソフトウェアにより実行させる例>>
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
図24は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェース1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタフェース1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011ら読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
尚、図3,図17のコントローラ31の制御部71、図5のスピーカ装置32の制御部91、図6のテレビジョン受像器33の制御部111、図7の照明装置34の制御部131、並びに、図18のプロジェクタ装置201の制御部241が、図24のパーソナルコンピュータのCPU1001に対応するものである。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
尚、本開示は、以下のような構成も取ることができる。
<1> 制御装置であって、
指向性を有する無線信号を送信または受信する制御対象装置から、前記制御対象装置を識別する識別信号を受信する識別信号受信部と、
前記識別信号により特定される前記制御対象装置を制御する制御コマンドを、前記識別信号を送信した前記制御対象装置に送信する制御部とを含み、
前記識別信号受信部は、前記制御装置の本体の方向が前記識別信号を受信できる状態に調整されたとき、前記制御対象装置を識別する前記識別信号を受信する
制御装置。
<2> 前記制御装置の本体の方向を検出する方向検出部をさらに含み、
前記制御部は、前記方向検出部により検出された前記制御装置の本体の方向の変化に基づいて、前記識別信号により特定される前記制御対象装置を制御する制御コマンドを生成し、生成した前記制御コマンドを、前記識別信号を送信した前記制御対象装置に送信する
<1>に記載の制御装置。
<3> 前記制御部は、前記方向検出部により検出された本体の方向の変化に基づいて、前記識別信号により特定される前記制御対象装置を制御する制御パラメータを算出し、前記制御パラメータに応じた制御コマンドを生成し、前記識別信号を送信した前記制御対象装置に送信する
<2>に記載の制御装置。
<4> 前記制御部は、前記方向検出部により検出された前記制御装置の本体が、所定の軸を中心に捻るように回転したときの回転量に基づいて、前記識別信号により特定される前記制御対象装置を制御する制御パラメータを算出し、前記制御パラメータに応じた制御コマンドを生成し、前記識別信号を送信した前記制御対象装置に送信する
<3>に記載の制御装置。
<5> 前記制御装置の本体を振動させる振動部をさらに含み、
前記制御部は、前記制御パラメータに応じて、前記振動部を振動させる
<4>に記載の制御装置。
<6> 前記制御部は、前記制御パラメータに応じて、所定の時間間隔で、かつ、所定の強度で前記振動部を振動させる
<5>に記載の制御装置。
<7> 前記制御部は、前記制御パラメータが連続変量である場合、前記制御パラメータに応じた時間間隔で、かつ、前記制御パラメータに応じた強度で前記振動部を振動させる
<6>に記載の制御装置。
<8> 前記制御部は、前記制御パラメータが離散変量である場合、前記制御パラメータに応じた時間間隔で、かつ、一定の強度で前記振動部を振動させる
<6>に記載の制御装置。
<9> 前記制御部は、前記識別信号を送信した前記制御対象装置が、前記制御コマンドを実行した後における、前記制御対象装置の状態を示すフィードバック情報を受信し、前記フィードバック情報に基づいて、前記振動部を振動させる
<5>に記載の制御装置。
<10> 音声を発生する音声出力部をさらに含み、
前記制御部は、前記制御パラメータに応じて、前記音声出力部より音声を出力させる
<3>に記載の制御装置。
<11> 前記制御対象装置は、スピーカ装置であり、
前記制御コマンドは、前記スピーカ装置の音量を制御するコマンドである
<1>乃至<9>のいずれかに記載の制御装置。
<12> 前記制御対象装置は、テレビジョン受像器であり、
前記制御コマンドは、前記テレビジョン受像器のチャンネルを制御するコマンドである
<1>乃至<9>のいずれかに記載の制御装置。
<13> 前記制御対象装置は、照明装置であり、
前記制御コマンドは、前記照明装置の明るさを制御するコマンドである
<1>乃至<9>のいずれかに記載の制御装置。
<14> 前記制御対象装置は、プロジェクタ装置であり、
前記制御コマンドは、前記プロジェクタ装置により壁面に投影されるコンテンツの移動を制御するコマンドである
<1>乃至<9>のいずれかに記載の制御装置。
<15> 前記制御装置の本体を振動させる振動部と、
前記プロジェクタ装置により前記コンテンツが投影される壁面を撮像する撮像部とをさらに含み、
前記制御部は、前記撮像部により撮像される画像に基づいて、前記壁面のテクスチャを推定し、前記壁面に投影されるコンテンツを移動させる際、前記コンテンツを移動させる動線上の前記テクスチャによる凹凸に応じて、前記振動部を振動させる
<14>に記載の制御装置。
<16> 前記制御対象装置は、所定の発光パターンの赤外光、指向性アンテナにより出力される電磁波、又は指向性スピーカにより出力される超音波により、前記識別信号を発する
<1>乃至<15>のいずれかに記載の制御装置。
<17> 制御装置の制御方法であって、
指向性を有する無線信号を送信または受信する制御対象装置から、前記制御対象装置を識別する識別信号を受信する識別信号受信処理と、
前記識別信号により特定される前記制御対象装置を制御する制御コマンドを、前記識別信号を送信した前記制御対象装置に送信する制御処理とを含み、
前記識別信号受信処理は、前記制御装置の本体の方向が前記識別信号を受信できる状態に調整されたとき、前記制御対象装置を識別する前記識別信号を受信する
制御方法。
<18> 制御装置を制御するコンピュータを機能させるプログラムであって、
指向性を有する無線信号を送信または受信する制御対象装置から、前記制御対象装置を識別する識別信号を受信する識別信号受信部と、
前記識別信号により特定される前記制御対象装置を制御する制御コマンドを、前記識別信号を送信した前記制御対象装置に送信する制御部としてコンピュータを機能させ、
前記識別信号受信部は、前記制御装置の本体の方向が前記識別信号を受信できる状態に調整されたとき、前記制御対象装置を識別する前記識別信号を受信する
プログラム。
<19> 制御装置により制御される電子機器であって、
指向性を有する無線信号により、前記電子機器である自らを識別する識別信号を発生する識別信号発生部と、
前記識別信号に基づいて、前記電子機器が制御対象装置として認識されることにより、前記制御装置より送信される前記電子機器を制御する制御コマンドを実行することにより、動作を制御する制御部とを含み、
前記識別信号は、前記制御装置の本体の方向が前記識別信号を受信できる状態に調整されたとき、前記電子機器を識別する前記識別信号として前記制御装置により受信される
電子機器。
<1> 制御装置であって、
指向性を有する無線信号を送信または受信する制御対象装置から、前記制御対象装置を識別する識別信号を受信する識別信号受信部と、
前記識別信号により特定される前記制御対象装置を制御する制御コマンドを、前記識別信号を送信した前記制御対象装置に送信する制御部とを含み、
前記識別信号受信部は、前記制御装置の本体の方向が前記識別信号を受信できる状態に調整されたとき、前記制御対象装置を識別する前記識別信号を受信する
制御装置。
<2> 前記制御装置の本体の方向を検出する方向検出部をさらに含み、
前記制御部は、前記方向検出部により検出された前記制御装置の本体の方向の変化に基づいて、前記識別信号により特定される前記制御対象装置を制御する制御コマンドを生成し、生成した前記制御コマンドを、前記識別信号を送信した前記制御対象装置に送信する
<1>に記載の制御装置。
<3> 前記制御部は、前記方向検出部により検出された本体の方向の変化に基づいて、前記識別信号により特定される前記制御対象装置を制御する制御パラメータを算出し、前記制御パラメータに応じた制御コマンドを生成し、前記識別信号を送信した前記制御対象装置に送信する
<2>に記載の制御装置。
<4> 前記制御部は、前記方向検出部により検出された前記制御装置の本体が、所定の軸を中心に捻るように回転したときの回転量に基づいて、前記識別信号により特定される前記制御対象装置を制御する制御パラメータを算出し、前記制御パラメータに応じた制御コマンドを生成し、前記識別信号を送信した前記制御対象装置に送信する
<3>に記載の制御装置。
<5> 前記制御装置の本体を振動させる振動部をさらに含み、
前記制御部は、前記制御パラメータに応じて、前記振動部を振動させる
<4>に記載の制御装置。
<6> 前記制御部は、前記制御パラメータに応じて、所定の時間間隔で、かつ、所定の強度で前記振動部を振動させる
<5>に記載の制御装置。
<7> 前記制御部は、前記制御パラメータが連続変量である場合、前記制御パラメータに応じた時間間隔で、かつ、前記制御パラメータに応じた強度で前記振動部を振動させる
<6>に記載の制御装置。
<8> 前記制御部は、前記制御パラメータが離散変量である場合、前記制御パラメータに応じた時間間隔で、かつ、一定の強度で前記振動部を振動させる
<6>に記載の制御装置。
<9> 前記制御部は、前記識別信号を送信した前記制御対象装置が、前記制御コマンドを実行した後における、前記制御対象装置の状態を示すフィードバック情報を受信し、前記フィードバック情報に基づいて、前記振動部を振動させる
<5>に記載の制御装置。
<10> 音声を発生する音声出力部をさらに含み、
前記制御部は、前記制御パラメータに応じて、前記音声出力部より音声を出力させる
<3>に記載の制御装置。
<11> 前記制御対象装置は、スピーカ装置であり、
前記制御コマンドは、前記スピーカ装置の音量を制御するコマンドである
<1>乃至<9>のいずれかに記載の制御装置。
<12> 前記制御対象装置は、テレビジョン受像器であり、
前記制御コマンドは、前記テレビジョン受像器のチャンネルを制御するコマンドである
<1>乃至<9>のいずれかに記載の制御装置。
<13> 前記制御対象装置は、照明装置であり、
前記制御コマンドは、前記照明装置の明るさを制御するコマンドである
<1>乃至<9>のいずれかに記載の制御装置。
<14> 前記制御対象装置は、プロジェクタ装置であり、
前記制御コマンドは、前記プロジェクタ装置により壁面に投影されるコンテンツの移動を制御するコマンドである
<1>乃至<9>のいずれかに記載の制御装置。
<15> 前記制御装置の本体を振動させる振動部と、
前記プロジェクタ装置により前記コンテンツが投影される壁面を撮像する撮像部とをさらに含み、
前記制御部は、前記撮像部により撮像される画像に基づいて、前記壁面のテクスチャを推定し、前記壁面に投影されるコンテンツを移動させる際、前記コンテンツを移動させる動線上の前記テクスチャによる凹凸に応じて、前記振動部を振動させる
<14>に記載の制御装置。
<16> 前記制御対象装置は、所定の発光パターンの赤外光、指向性アンテナにより出力される電磁波、又は指向性スピーカにより出力される超音波により、前記識別信号を発する
<1>乃至<15>のいずれかに記載の制御装置。
<17> 制御装置の制御方法であって、
指向性を有する無線信号を送信または受信する制御対象装置から、前記制御対象装置を識別する識別信号を受信する識別信号受信処理と、
前記識別信号により特定される前記制御対象装置を制御する制御コマンドを、前記識別信号を送信した前記制御対象装置に送信する制御処理とを含み、
前記識別信号受信処理は、前記制御装置の本体の方向が前記識別信号を受信できる状態に調整されたとき、前記制御対象装置を識別する前記識別信号を受信する
制御方法。
<18> 制御装置を制御するコンピュータを機能させるプログラムであって、
指向性を有する無線信号を送信または受信する制御対象装置から、前記制御対象装置を識別する識別信号を受信する識別信号受信部と、
前記識別信号により特定される前記制御対象装置を制御する制御コマンドを、前記識別信号を送信した前記制御対象装置に送信する制御部としてコンピュータを機能させ、
前記識別信号受信部は、前記制御装置の本体の方向が前記識別信号を受信できる状態に調整されたとき、前記制御対象装置を識別する前記識別信号を受信する
プログラム。
<19> 制御装置により制御される電子機器であって、
指向性を有する無線信号により、前記電子機器である自らを識別する識別信号を発生する識別信号発生部と、
前記識別信号に基づいて、前記電子機器が制御対象装置として認識されることにより、前記制御装置より送信される前記電子機器を制御する制御コマンドを実行することにより、動作を制御する制御部とを含み、
前記識別信号は、前記制御装置の本体の方向が前記識別信号を受信できる状態に調整されたとき、前記電子機器を識別する前記識別信号として前記制御装置により受信される
電子機器。
11 制御システム, 31 コントローラ, 32 スピーカ装置, 33 テレビジョン受像器, 34 照明装置, 35 無線通信ネットワーク, 51 制御モジュール, 52 スピーカ, 53 振動アクチュエータ, 54,54-1乃至54-3 タクトスイッチ, 55 赤外光受光部, 71 制御部, 72 加速度センサ, 73 ジャイロセンサ, 74 通信部, 91 制御部, 92 赤外光受光部, 93 通信部, 94 ボリュームコントローラ, 95 スピーカ, 111 制御部, 112 赤外光受光部, 113 通信部, 114 チャンネルコントローラ, 115 チューナ, 116 表示部, 117 スピーカ, 118 ボリュームコントローラ, 131 制御部, 132 赤外光受光部, 133 通信部, 134 照度コントローラ, 135 発光部, 201 プロジェクタ装置, 221 カメラ, 241 制御部, 242 赤外光発光部, 243 通信部, 244 投影制御部, 245 投影部, 301 制御部, 302 赤外光受光部, 303 通信部, 304 ボリュームコントローラ, 305 スピーカ, 306 外部入力部, 331 追加装置, 351 制御部, 352 通信部, 353 赤外光受光部, 354 外部出力部
Claims (19)
- 制御装置であって、
指向性を有する無線信号を送信または受信する制御対象装置から、前記制御対象装置を識別する識別信号を受信する識別信号受信部と、
前記識別信号により特定される前記制御対象装置を制御する制御コマンドを、前記識別信号を送信した前記制御対象装置に送信する制御部とを含み、
前記識別信号受信部は、前記制御装置の本体の方向が前記識別信号を受信できる状態に調整されたとき、前記制御対象装置を識別する前記識別信号を受信する
制御装置。 - 前記制御装置の本体の方向を検出する方向検出部をさらに含み、
前記制御部は、前記方向検出部により検出された前記制御装置の本体の方向の変化に基づいて、前記識別信号により特定される前記制御対象装置を制御する制御コマンドを生成し、生成した前記制御コマンドを、前記識別信号を送信した前記制御対象装置に送信する
請求項1に記載の制御装置。 - 前記制御部は、前記方向検出部により検出された本体の方向の変化に基づいて、前記識別信号により特定される前記制御対象装置を制御する制御パラメータを算出し、前記制御パラメータに応じた制御コマンドを生成し、前記識別信号を送信した前記制御対象装置に送信する
請求項2に記載の制御装置。 - 前記制御部は、前記方向検出部により検出された前記制御装置の本体が、所定の軸を中心に捻るように回転したときの回転量に基づいて、前記識別信号により特定される前記制御対象装置を制御する制御パラメータを算出し、前記制御パラメータに応じた制御コマンドを生成し、前記識別信号を送信した前記制御対象装置に送信する
請求項3に記載の制御装置。 - 前記制御装置の本体を振動させる振動部をさらに含み、
前記制御部は、前記制御パラメータに応じて、前記振動部を振動させる
請求項4に記載の制御装置。 - 前記制御部は、前記制御パラメータに応じて、所定の時間間隔で、かつ、所定の強度で前記振動部を振動させる
請求項5に記載の制御装置。 - 前記制御部は、前記制御パラメータが連続変量である場合、前記制御パラメータに応じた時間間隔で、かつ、前記制御パラメータに応じた強度で前記振動部を振動させる
請求項6に記載の制御装置。 - 前記制御部は、前記制御パラメータが離散変量である場合、前記制御パラメータに応じた時間間隔で、かつ、一定の強度で前記振動部を振動させる
請求項6に記載の制御装置。 - 前記制御部は、前記識別信号を送信した前記制御対象装置が、前記制御コマンドを実行した後における、前記制御対象装置の状態を示すフィードバック情報を受信し、前記フィードバック情報に基づいて、前記振動部を振動させる
請求項5に記載の制御装置。 - 音声を発生する音声出力部をさらに含み、
前記制御部は、前記制御パラメータに応じて、前記音声出力部より音声を出力させる
請求項3に記載の制御装置。 - 前記制御対象装置は、スピーカ装置であり、
前記制御コマンドは、前記スピーカ装置の音量を制御するコマンドである
請求項1に記載の制御装置。 - 前記制御対象装置は、テレビジョン受像器であり、
前記制御コマンドは、前記テレビジョン受像器のチャンネルを制御するコマンドである
請求項1に記載の制御装置。 - 前記制御対象装置は、照明装置であり、
前記制御コマンドは、前記照明装置の明るさを制御するコマンドである
請求項1に記載の制御装置。 - 前記制御対象装置は、プロジェクタ装置であり、
前記制御コマンドは、前記プロジェクタ装置により壁面に投影されるコンテンツの移動を制御するコマンドである
請求項1に記載の制御装置。 - 前記制御装置の本体を振動させる振動部と、
前記プロジェクタ装置により前記コンテンツが投影される壁面を撮像する撮像部とをさらに含み、
前記制御部は、前記撮像部により撮像される画像に基づいて、前記壁面のテクスチャを推定し、前記壁面に投影されるコンテンツを移動させる際、前記コンテンツを移動させる動線上の前記テクスチャによる凹凸に応じて、前記振動部を振動させる
請求項14に記載の制御装置。 - 前記制御対象装置は、所定の発光パターンの赤外光、指向性アンテナにより出力される電磁波、又は指向性スピーカにより出力される超音波により、前記識別信号を発する
請求項1に記載の制御装置。 - 制御装置の制御方法であって、
指向性を有する無線信号を送信または受信する制御対象装置から、前記制御対象装置を識別する識別信号を受信する識別信号受信処理と、
前記識別信号により特定される前記制御対象装置を制御する制御コマンドを、前記識別信号を送信した前記制御対象装置に送信する制御処理とを含み、
前記識別信号受信処理は、前記制御装置の本体の方向が前記識別信号を受信できる状態に調整されたとき、前記制御対象装置を識別する前記識別信号を受信する
制御方法。 - 制御装置を制御するコンピュータを機能させるプログラムであって、
指向性を有する無線信号を送信または受信する制御対象装置から、前記制御対象装置を識別する識別信号を受信する識別信号受信部と、
前記識別信号により特定される前記制御対象装置を制御する制御コマンドを、前記識別信号を送信した前記制御対象装置に送信する制御部としてコンピュータを機能させ、
前記識別信号受信部は、前記制御装置の本体の方向が前記識別信号を受信できる状態に調整されたとき、前記制御対象装置を識別する前記識別信号を受信する
プログラム。 - 制御装置により制御される電子機器であって、
指向性を有する無線信号により、前記電子機器である自らを識別する識別信号を発生する識別信号発生部と、
前記識別信号に基づいて、前記電子機器が制御対象装置として認識されることにより、前記制御装置より送信される前記電子機器を制御する制御コマンドを実行することにより、動作を制御する制御部とを含み、
前記識別信号は、前記制御装置の本体の方向が前記識別信号を受信できる状態に調整されたとき、前記電子機器を識別する前記識別信号として前記制御装置により受信される
電子機器。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US16/764,987 US11509951B2 (en) | 2017-11-27 | 2018-11-13 | Control device, control method, and electronic device |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017-226838 | 2017-11-27 | ||
| JP2017226838 | 2017-11-27 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2019102897A1 true WO2019102897A1 (ja) | 2019-05-31 |
Family
ID=66630938
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2018/041901 Ceased WO2019102897A1 (ja) | 2017-11-27 | 2018-11-13 | 制御装置、および制御方法、電子機器、並びにプログラム |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US11509951B2 (ja) |
| WO (1) | WO2019102897A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112180748A (zh) * | 2020-09-28 | 2021-01-05 | 北京小米移动软件有限公司 | 目标设备控制方法、目标设备控制装置以及控制设备 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007110350A (ja) * | 2005-10-12 | 2007-04-26 | Sony Corp | リモートコントロールシステムとリモートコントロール装置およびリモートコントロール方法 |
| JP2008042748A (ja) * | 2006-08-09 | 2008-02-21 | Sharp Corp | リモコン装置、音響映像装置および遠隔操作方法 |
| JP2010538400A (ja) * | 2007-09-07 | 2010-12-09 | アップル インコーポレイテッド | 3dリモートコントローラ用のguiアプリケーション |
| JP2012249104A (ja) * | 2011-05-27 | 2012-12-13 | Kyocera Corp | 遠隔操作装置、遠隔制御システム、制御プログラムおよび記憶媒体 |
| JP2014203457A (ja) * | 2013-04-01 | 2014-10-27 | レノボ・シンガポール・プライベート・リミテッド | タッチ入力デバイスのハプティック・フィードバック |
| US20170255263A1 (en) * | 2016-03-01 | 2017-09-07 | Echostar Technologies L.L.C. | Haptic feedback remote control systems and methods |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4804817B2 (ja) * | 2005-06-30 | 2011-11-02 | レノボ・シンガポール・プライベート・リミテッド | コンピュータ |
| US20100141578A1 (en) * | 2005-07-29 | 2010-06-10 | Pioneer Corporation | Image display control apparatus, image display apparatus, remote controller, and image display system |
| JP2013222399A (ja) | 2012-04-18 | 2013-10-28 | Sony Corp | 操作方法、制御装置及びプログラム |
-
2018
- 2018-11-13 WO PCT/JP2018/041901 patent/WO2019102897A1/ja not_active Ceased
- 2018-11-13 US US16/764,987 patent/US11509951B2/en active Active
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007110350A (ja) * | 2005-10-12 | 2007-04-26 | Sony Corp | リモートコントロールシステムとリモートコントロール装置およびリモートコントロール方法 |
| JP2008042748A (ja) * | 2006-08-09 | 2008-02-21 | Sharp Corp | リモコン装置、音響映像装置および遠隔操作方法 |
| JP2010538400A (ja) * | 2007-09-07 | 2010-12-09 | アップル インコーポレイテッド | 3dリモートコントローラ用のguiアプリケーション |
| JP2012249104A (ja) * | 2011-05-27 | 2012-12-13 | Kyocera Corp | 遠隔操作装置、遠隔制御システム、制御プログラムおよび記憶媒体 |
| JP2014203457A (ja) * | 2013-04-01 | 2014-10-27 | レノボ・シンガポール・プライベート・リミテッド | タッチ入力デバイスのハプティック・フィードバック |
| US20170255263A1 (en) * | 2016-03-01 | 2017-09-07 | Echostar Technologies L.L.C. | Haptic feedback remote control systems and methods |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112180748A (zh) * | 2020-09-28 | 2021-01-05 | 北京小米移动软件有限公司 | 目标设备控制方法、目标设备控制装置以及控制设备 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20200413119A1 (en) | 2020-12-31 |
| US11509951B2 (en) | 2022-11-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9313863B2 (en) | Methods, devices, and systems for controlling smart lighting objects to establish a lighting condition | |
| JP4243248B2 (ja) | ポインティングデバイスに基づくユーザインターフェイスシステム | |
| US20060241864A1 (en) | Method and apparatus for point-and-send data transfer within an ubiquitous computing environment | |
| US20120068833A1 (en) | Closed loop universal remote control | |
| US20150222862A1 (en) | Camera apparatus and method for remotely controlling electronic devices | |
| US20190182418A1 (en) | Grouped Photography Studio Lighting System with Software Driven and Simultaneous Wireless Dimming Control and Related Photography System | |
| JP4302446B2 (ja) | コンピュータ制御表示画像上の投影点を検出するシステム | |
| JP2012198858A (ja) | 光信号出力装置、信号処理装置、信号処理方法、撮像装置、プロジェクタ、およびプログラム | |
| US8184211B2 (en) | Quasi analog knob control method and appartus using the same | |
| CN105183245B (zh) | 一种信息处理方法及电子设备 | |
| CN108595139A (zh) | 智能多媒体设备及其显示方法 | |
| US10423282B2 (en) | Display apparatus that switches modes based on distance between indicator and distance measuring unit | |
| WO2019102897A1 (ja) | 制御装置、および制御方法、電子機器、並びにプログラム | |
| KR102075464B1 (ko) | 기기 식별 장치 및 그 기기의 제어 방법 | |
| CN107992114B (zh) | 螺丝刀控制方法及装置 | |
| JP6064617B2 (ja) | 電子装置、電子装置の入力制御方法、入力制御プログラム | |
| JP2002041238A (ja) | 光ポインタ、画像生成システム、プレゼンテーションシステムおよび情報記憶媒体 | |
| US10326945B2 (en) | Image-taking apparatus, information processing apparatus, and image-taking system | |
| TW201435656A (zh) | 資訊科技裝置輸入系統及相關方法 | |
| US20190155392A1 (en) | User interface system based on pointing device | |
| US20200183534A1 (en) | Display apparatus, display system, and display method | |
| JP2021071894A (ja) | 操作装置、操作方法及びプログラム | |
| CN106133836B (zh) | 信息处理方法、控制装置、录音装置、信息处理系统和程序 | |
| CN104375641A (zh) | 一种控制方法及电子设备 | |
| CN110865574B (zh) | 一种设备控制方法及相关装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18881205 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 18881205 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |