[go: up one dir, main page]

WO2016072610A1 - 인식방법 및 인식장치 - Google Patents

인식방법 및 인식장치 Download PDF

Info

Publication number
WO2016072610A1
WO2016072610A1 PCT/KR2015/009648 KR2015009648W WO2016072610A1 WO 2016072610 A1 WO2016072610 A1 WO 2016072610A1 KR 2015009648 W KR2015009648 W KR 2015009648W WO 2016072610 A1 WO2016072610 A1 WO 2016072610A1
Authority
WO
WIPO (PCT)
Prior art keywords
terminal device
terminal
content
recognition
table device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2015/009648
Other languages
English (en)
French (fr)
Inventor
김태일
최재필
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RaonsquareCo ltd
Original Assignee
RaonsquareCo ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RaonsquareCo ltd filed Critical RaonsquareCo ltd
Priority to CN201580000684.8A priority Critical patent/CN105900043A/zh
Publication of WO2016072610A1 publication Critical patent/WO2016072610A1/ko
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Definitions

  • the present invention relates to an object recognition method and an object recognition apparatus, and more particularly, to a method and apparatus for recognizing a terminal apparatus for a table apparatus.
  • Such a table not only inputs a thing as a touch but also displays the content on the table by identifying the thing, which enables more effective information provision to the user.
  • the existing table merely recognizes the object, and does not consider the state of the object, for example, whether the object is moving or in which direction. There was a limit.
  • a touch screen monitor for generating a touch signal corresponding to the external touch, and outputs the corresponding image information
  • An integrated control device for receiving the generated touch signal and outputting corresponding image information to the touch screen monitor, and controlling an external input / output device to correspond to the touch signal
  • a table top plate for accommodating the touch screen monitor, and integrated control
  • a multimedia table is provided that includes a table body having a support frame for receiving a device and for supporting a table top plate.
  • the background art described above is technical information that the inventors possess for the derivation of the present invention or acquired in the derivation process of the present invention, and is not necessarily a publicly known technique disclosed to the general public before the application of the present invention. .
  • One embodiment of the present invention is to provide a method and apparatus for recognizing a terminal apparatus for a table apparatus.
  • a recognition device configured to communicate with a table device for detecting a contact to any object, from the terminal device paired with the table device, And a state updater configured to receive motion information of the terminal device, and when detecting contact with the table device, determining whether the terminal device has contacted the table device based on the motion information of the terminal device. It may include a terminal recognition unit.
  • a terminal device configured to transmit motion information to a recognition device, comprising: a tilt sensor detecting a tilt of the terminal device, a compass sensor detecting a direction of the terminal device, and a terminal device. And a sensing unit configured to generate motion information of the terminal device based on at least one of the acceleration sensors that detect the acceleration, and a state transmitter configured to transmit the motion information to the recognition device.
  • a recognition device may be a table device configured to communicate with the recognition device.
  • a recognition device configured to communicate with a table device that senses contact with an arbitrary object, wherein the terminal device on the table device is paired with the table device.
  • Receiving motion information of the terminal device from a device if detecting a contact on a table device, determining whether the terminal device has contacted the table device based on the motion information of the terminal device, and the determination result And determining that the terminal device contacts the table device.
  • the method may be a computer-readable recording medium having recorded thereon a program.
  • a motion information of the terminal device from a terminal device paired with a table device that is coupled to a computing device and detects contact with an arbitrary object, the contact on the table device Upon detection, determining whether the terminal device has contacted the table device based on the motion information of the terminal device, and determining that the terminal device contacts the table device as a result of the determination. It may be a computer program stored in the medium.
  • an embodiment of the present invention can propose a method and apparatus for recognizing a terminal device for a table device.
  • the terminal device can be recognized when the terminal device is placed on the table device by utilizing the existing table device as it is.
  • the information corresponding to the terminal device is displayed through the table device, thereby enabling efficient information transfer.
  • the content can be displayed differently or the displayed content can be changed according to the movement of the terminal device or the direction in which the terminal device is recognized to be placed on the table device, the efficient information Delivery is possible.
  • FIG. 1 and 2 are schematic configuration diagrams of a system including a recognition device according to an embodiment of the present invention.
  • FIG. 3 is a block diagram illustrating a terminal device communicating with a recognition device according to an embodiment of the present invention.
  • FIG. 4 is a block diagram illustrating a recognition device according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a recognition method according to an embodiment of the present invention.
  • 6 to 10 are exemplary views for explaining a recognition method according to an embodiment of the present invention.
  • FIG. 1 and 2 are schematic configuration diagrams illustrating a system including a recognition device 10 according to an embodiment of the present invention
  • FIG. 3 is a recognition device 10 according to an embodiment of the present invention. It is a block diagram showing the terminal device 20 to communicate.
  • the recognition device 10 may communicate with the terminal device 20.
  • the recognition device 10 may be connected to the terminal device 20 by short-range wireless communication, for example, WiFi, but is not limited thereto.
  • communication between the recognition device 10 and the terminal device 20 may be performed according to any short-range communication method such as Bluetooth, Zigbee, infrared light, or the like.
  • the recognition device 10 may perform bidirectional communication with the terminal device 20, or may perform unidirectional communication for unilaterally receiving data from the terminal device 20.
  • the recognition device 10 communicates with the table device 30 that senses contact with an arbitrary object, and determines the contact of the terminal device 20 with respect to the table device. have.
  • Such a recognition device 10 may communicate with the table device 30 by being located outside the table device 30, included in the table device 30, or by including the table device 30. 2 shows a state in which the table device 30 includes the recognition device 10 for convenience of description.
  • the table device 30 may be a touch table capable of sensing one or more touches and includes a panel capable of detecting that there is a contact on the touch table.
  • the table device 30 may include resistive sensing technology, capacitive sensing technology, surface acoustic wave sensing technology, and optical imaging sensing technology.
  • the panel may be applied, and an infrared-LED Cell Imaging method FTTR (Frustrated Total Internal Reflection),
  • the panel may be provided with an infrared sensing technology such as DI (Diffused Illumination), LLP (Laser Light Plane Illumination), DSI (Diffused Surface Illumination), or LED-LE (LED Light Plane).
  • the table apparatus 30 may include a display unit capable of displaying the contents provided by the recognition apparatus 10 according to a representation method determined by the recognition apparatus 10.
  • the terminal device 20 may be any object that can be in contact with the table device 30.
  • the terminal device 20 may have various shapes and may be formed of various materials.
  • the terminal device 20 includes a sensing unit 210 and a state transmitter 220.
  • the sensing unit 210 is configured to generate the motion information by detecting the movement of the terminal device (20).
  • the 'motion information' is general information indicating an amount of change according to the movement when the terminal device 20 moves according to rotation, distance movement, and the like.
  • inclination information that is information on the inclination of the terminal device 20
  • acceleration information that is information on the dynamic force, such as acceleration, vibration, shock of the terminal device 20 may be included.
  • the sensing unit 210 may include an inclination sensor for detecting an inclination of the terminal device 20, and may include an inclination of the terminal device 20 in the motion information using the inclination sensor.
  • the sensing unit 210 may include a compass sensor for detecting the orientation of the terminal device 20, and may include the orientation of the terminal device 20 in the motion information using the compass sensor. .
  • the sensing unit 210 may include an acceleration sensor that detects the acceleration of the terminal device 20, and may include the acceleration of the terminal device 20 in the motion information by using the acceleration sensor. .
  • the state transmitting unit 220 is configured to transmit the motion information of the terminal device 20 to the recognition device 10.
  • the state transmitter 220 may periodically transmit the motion information of the terminal device 20 to the recognition device 10, or recognize the updated motion information whenever the motion information of the terminal device 20 is updated. 10 can be transmitted.
  • the state transmitter 220 may transmit the terminal identification information of the terminal device 20 together with the motion information of the terminal device 20.
  • the terminal device 20 may further include a first pairing unit 230.
  • the first pairing unit 230 is a module for pairing with the recognition device 10 for communication with the recognition device 10.
  • the terminal device 20 is connected to the recognition device 10 in various ways. Can be paired.
  • the first pairing unit 230 transmits a pairing request to the recognition device 10 when it is determined that the recognition device 10 is nearby and there is no history of pairing with the recognition device 10. And may continue to request pairing until a response to the request is received.
  • the first pairing unit 230 may register the terminal identification information when the terminal identification information is allocated from the pairing result recognizing apparatus 10, and may delete the terminal identification information when the pairing ends.
  • the first pairing unit 230 may transmit a predetermined area (for example, a contact area when the terminal device is placed on the table device) to the recognition device.
  • a predetermined area for example, a contact area when the terminal device is placed on the table device
  • Figure 4 is a block diagram showing a recognition device 10 according to an embodiment of the present invention.
  • the recognition apparatus 10 may include a second pairing unit 110, a state updating unit 120, a terminal identification unit 130, and a content providing unit 140.
  • the recognition apparatus 10 enables communication between internal components, that is, the second pairing unit 110, the state updating unit 120, the terminal identification unit 130, and the content providing unit 140, and also the external device. It may include a communication unit (not shown) to enable communication with the component.
  • the recognition apparatus 10 may include a storage unit (not shown) for storing data (for example, content) for performing the recognition method according to an embodiment of the present invention, or located outside It may be in communication with a storage device (not shown), for example a database.
  • a storage unit for storing data (for example, content) for performing the recognition method according to an embodiment of the present invention, or located outside It may be in communication with a storage device (not shown), for example a database.
  • the second pairing unit 110 is a module for pairing with the terminal device 20 for communication with the terminal device 20.
  • the second pairing unit 110 may pair with the terminal device 20 by responding to a pairing request from the first paying unit 230 of the terminal device 20.
  • the second pairing unit 110 may be paired with the terminal device 20 by receiving and registering the terminal identification information of the terminal device 20.
  • the second pairing unit 110 may pair and pair the terminal device 20 by allocating and registering the terminal identification information corresponding to the motion information.
  • the state update unit 120 may receive the motion information of the terminal device from the terminal device 20.
  • the state updater 120 may update each time the motion information of the terminal device is received or accumulate the motion information of the terminal device for a predetermined period or a predetermined number of times.
  • the state updating unit 120 may receive movement information of the terminal device even before the terminal device contacts the table device, and also after the terminal device contacts the table device (for example, a touch point corresponding to the terminal device). Can be received even if the motion information of the terminal device can be received, and the terminal device detects that the contact is terminated after contacting the table device (for example, after a touch point corresponding to the terminal device is generated, Even if the contact with the touch point is no longer detected during the period of time), the motion information of the terminal device can be received.
  • the terminal identification unit 130 may determine whether the contact is by the terminal device.
  • the terminal identification unit 130 may determine whether the terminal apparatus has contacted the table apparatus based on the motion information of the terminal apparatus. For example, when the terminal identification unit 130 does not update the motion information of the terminal device 20 within a predetermined time based on the point of time when the touch on the table device 30 is detected (that is, the terminal device does not move). If it is determined), it may be determined that the object in contact with the table device 30 is the terminal device 20.
  • the terminal identification unit 130 may also determine whether the terminal device has contacted the table apparatus by comparing the contact area that the terminal apparatus is in contact with the table apparatus and a predetermined area of the terminal apparatus. For example, when the terminal identification unit 130 detects a contact on the table device 30, the terminal identification unit 130 calculates an area where a contact is made based on the coordinates of the point where the contact is detected. If it is equal to the area of the set area or within a predetermined error range, it may be determined that the object in contact with the table device 30 is the terminal device 20.
  • the terminal identification unit 130 may be set to the touch point to match the terminal device, and thus, for example, the terminal device is in contact with the table device
  • the touch point may move according to the movement path on the table device of the terminal device.
  • the 'touch point' may be all coordinates corresponding to the area that the terminal device is in contact with, and may be a predetermined number of coordinates corresponding to the area that the terminal device is in contact with, and may also be selected on the table device. It may be a coordinate for a point.
  • the content providing unit 140 when the content providing unit 140 identifies the terminal device in contact with the table device, the content providing unit 140 provides the content so that the content is displayed through the table device.
  • 'content' refers to various information that can be displayed through the display unit of the table device 30 and may be, for example, text, an image, a video, a hologram, and a sound.
  • the content providing unit 140 may provide content corresponding to the terminal device, or the motion information of the terminal device (the time when the terminal device touches the last received motion information or the table device immediately before contacting the table device). Based on the last received motion information) can be provided through the display unit of the table device by providing the content corresponding to the terminal device.
  • the content providing unit 140 may provide display information including information on how and at what point the content is to be displayed through the table device.
  • the content can be displayed accordingly.
  • the display information may be setting information for displaying content radially based on the touch point of the terminal device.
  • Such display information may be preset by the recognition device, or the content, type, or motion information of the terminal device (the last received motion information immediately before the terminal device contacts the table device or the table device that has touched the table device). The last received motion information based on the viewpoint).
  • the content providing unit 140 may provide at least one of first content corresponding to each of the plurality of terminal devices or second content corresponding to a group of the plurality of terminal devices. It can be displayed through the table device.
  • the content providing unit 140 may also provide display information for each of the first content and the second content. For example, as the display information, the content providing unit 140 touches the first content corresponding to each terminal device. The display may be displayed around the point, but the second content may be displayed at the point where the first content of each terminal device is displayed together.
  • the content providing unit 140 may control the content to no longer be displayed through the touch table.
  • FIG. 5 is a flowchart illustrating a recognition method according to an embodiment of the present invention.
  • the recognition method according to the embodiment shown in FIG. 5 includes steps processed in time series in the recognition device 10 shown in FIGS. 1 to 4. Therefore, although omitted below, the above descriptions of the recognition apparatus 10 shown in FIGS. 1 to 4 may be applied to the recognition method according to the embodiment shown in FIG. 5.
  • FIGS. 6 to 10 are exemplary views for explaining a recognition method according to an embodiment of the present invention.
  • the recognition device 10 may be paired with the terminal device 20.
  • the terminal device 20 it is not necessary to go through a separate pairing process with the terminal device 20 is already completed pairing.
  • the recognition device 10 paired with the terminal device 20 as described above may receive motion information from the terminal device 20 (S510).
  • the terminal device 20 before the terminal device 20 is placed on the touch table 30, the terminal device 20 is shown in FIG. 6A to FIG. 6B.
  • the recognition device 10 may receive the updated movement information.
  • the recognition device 10 may receive motion information from the terminal device 20.
  • the recognition device 10 may detect a contact on the table device 30 (S520).
  • the recognition device 10 may determine whether the object in contact with the table device is the terminal device 20 (S530).
  • the recognition device 10 may determine whether the terminal device has contacted the table device by comparing the contact area of the terminal device with a predetermined area of the terminal device. For example, it is possible to determine that the object placed on the table apparatus is the terminal apparatus only when the contact area by the object placed on the table apparatus 30 is within a predetermined error range as a result of the comparison with the area of the preset terminal apparatus. have.
  • the recognition device 10 may provide content so that the content is displayed through the display unit of the table device (S550). ).
  • the recognition device 10 may provide content corresponding to the terminal device 20, and the content may be provided through at least a partial area on the table device.
  • the content 710 may be randomly provided based on the touch point of the terminal device 20, or as shown in (b) of FIG. 7.
  • the content 720 may be provided radially based on the touch point of the terminal device.
  • the recognition apparatus 10 may provide content corresponding to the terminal apparatus based on the motion information of the terminal apparatus to be displayed on the table apparatus. That is, as shown in (a) and (b) of FIG. 7, when the inclination and the orientation of the terminal device 20 are different, the recognition device 10 provides a table device by providing different contents 710 and 720. 30 can be displayed on.
  • the recognition device 10 may provide at least one of first content corresponding to each of the plurality of terminal devices and second content corresponding to a group of the plurality of terminal devices. Can be displayed on the screen.
  • each terminal device corresponds to each of the consonants or vowels of Hangul, and if it is determined that each of the terminal devices contacts on the table device, the terminal devices may provide consonants or vowels corresponding to the respective terminal devices as the first content.
  • a plurality of terminal devices are in contact with the table device, but the initial, neutral, and finality are determined in the order in which each of the terminal devices are in contact with the table device, to provide one letter corresponding to the group of the plurality of terminal devices as the second content. Can be.
  • each terminal device corresponds to a different color
  • the terminal device may provide a color corresponding to each terminal device as the first content, and a plurality of terminals.
  • the color corresponding to the group of the plurality of terminal devices may be provided as the second content, wherein the second content is, for example, the first content of each of the terminal devices included in the group. It may be a color generated by mixing 1 content.
  • the terminal device when each terminal device corresponds to each English alphabet and it is determined that each of the terminal devices contacts each other on the table device, the terminal device may provide the alphabet corresponding to each terminal device as first content, When it is determined that the number of terminal devices makes contact on the table device, one letter corresponding to the group of the plurality of terminal devices may be provided as the second content, wherein the second content is included in the group, for example. It may be an English word consisting of a combination of first contents of each terminal device.
  • each terminal device corresponds to a number or an operator
  • the terminal device may provide a number or operator corresponding to each terminal device as first content, or
  • one content corresponding to the group of the plurality of terminal devices may be provided as second content, wherein the second content may be, for example, the group. It may be a formula consisting of a combination of first contents of each terminal device included in a calculation result or an operation according to the formula.
  • the second device 20 corresponding to the terminal device 20 may be used.
  • Each of the first content 810 and the first content 820 corresponding to the terminal device 20 ′ may be displayed on the table device.
  • the content corresponding to the terminal device 20 is' 3' and the terminal device If the content corresponding to 20 'is' 4 'and the content corresponding to the terminal device 20' 'is' + ', the second content corresponding to the group of the plurality of terminal devices 20 and 20' is grouped.
  • the result may be a result according to a formula consisting of a combination of first contents of each of the terminal devices 20, 20 ′, and 20 ′′ included in the group, and the second content 910, 920 according to the table device 30. ) May be displayed on the screen.
  • the recognition device 10 provides the table with at least one of first content corresponding to each of the plurality of terminal devices and second content corresponding to a group of the plurality of terminal devices.
  • the first content and the second content may be provided together with display information to be displayed on the device to be displayed on the table device.
  • the first content 1010 corresponding to each of the plurality of terminal devices 20 and 20 ′ is provided.
  • the second content 1030 corresponding to the group of the plurality of terminal devices 20 and 20 ′ may also be displayed on the table device 30.
  • the first content 1010 and 1020 and the second content 1030 may be displayed on the table device 30 by reflecting the display information on which the second content 1030 is to be displayed.
  • the first content may be displayed.
  • the second content 1030 may be displayed at the points where the 1010 and 1020 intersect.
  • the recognition method according to the embodiment described with reference to FIG. 5 may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by the computer.
  • Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media.
  • computer readable media may include both computer storage media and communication media.
  • Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.
  • Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery media.
  • the recognition method according to an embodiment of the present invention may be implemented as a computer program (or computer program product) including instructions executable by a computer.
  • the computer program includes programmable machine instructions processed by the processor and may be implemented in a high-level programming language, an object-oriented programming language, an assembly language, or a machine language.
  • the computer program may also be recorded on tangible computer readable media (eg, memory, hard disks, magnetic / optical media or solid-state drives, etc.).
  • the recognition method may be implemented by executing the computer program as described above by the computing device.
  • the computing device may include at least a portion of a processor, a memory, a storage device, a high speed interface connected to the memory and a high speed expansion port, and a low speed interface connected to the low speed bus and the storage device.
  • a processor may include at least a portion of a processor, a memory, a storage device, a high speed interface connected to the memory and a high speed expansion port, and a low speed interface connected to the low speed bus and the storage device.
  • Each of these components are connected to each other using a variety of buses and may be mounted on a common motherboard or otherwise mounted in a suitable manner.
  • the processor may process instructions within the computing device, such as to display graphical information for providing a graphical user interface (GUI) on an external input, output device, such as a display connected to a high speed interface. Instructions stored in memory or storage. In other embodiments, multiple processors and / or multiple buses may be used with appropriately multiple memories and memory types.
  • the processor may also be implemented as a chipset consisting of chips comprising a plurality of independent analog and / or digital processors.
  • the memory also stores information within the computing device.
  • the memory may consist of a volatile memory unit or a collection thereof.
  • the memory may consist of a nonvolatile memory unit or a collection thereof.
  • the memory may also be other forms of computer readable media, such as, for example, magnetic or optical disks.
  • the storage device can provide a large amount of storage space to the computing device.
  • the storage device may be a computer readable medium or a configuration including such a medium, and may include, for example, devices or other configurations within a storage area network (SAN), and may include a floppy disk device, a hard disk device, an optical disk device, Or a tape device, flash memory, or similar other semiconductor memory device or device array.
  • SAN storage area network

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

테이블장치에 대한 단말장치를 인식하는 방법 및 장치에 관한 것이다. 본 발명의 제 1 측면에 따르면 임의의 사물에 대한 접촉을 감지하는 테이블장치와 통신하도록 구성되는 인식장치로서, 상기 테이블장치와 페어링된 단말장치로부터, 상기 단말장치의 움직임정보를 수신하도록 구성되는 상태갱신부, 및 상기 테이블장치에 대한 접촉을 감지하면, 상기 단말장치의 움직임정보에 기초하여 상기 단말장치가 상기 테이블장치 상에 접촉하였는지를 판단하도록 구성되는 단말인식부를 포함한다.

Description

인식방법 및 인식장치
본 발명은 사물인식방법 및 사물인식장치에 관한 것으로, 보다 상세하게는 테이블장치에 대한 단말장치를 인식하는 방법 및 장치에 관한 것이다.
최근 들어, 사물이 놓여졌을 때 상기 사물을 터치로서 인식하여 상기 터치를 입력으로서 처리하는 패널을 구비한 테이블이 제작되어 보급되고 있다.
이러한 테이블은 사물을 터치로서 입력하는데 그치지 않고 상기 사물을 식별함으로써 테이블 상에 컨텐츠를 표시하며, 이는 사용자에게 보다 효과적인 정보제공을 가능하게 한다.
그러나 기존의 테이블은 사물을 인식하는데 그칠 뿐 사물의 상태, 예를 들어 사물이 이동하고 있는 상태인지, 이동한다면 어떤 방향으로 이동하는지를 전혀 고려하고 있지 아니한바, 터치테이블에 대한 입력장치로서 사물을 활용하는데 한계가 있었다.
관련하여 선행기술 문헌 한국특허공개번호 제10-2008-0086292호(공개일자:2008.09.25)에서는, 외부의 터치에 상응하는 터치 신호를 생성하고, 이에 상응하는 영상정보를 출력하는 터치스크린 모니터와 상기 생성된 터치 신호를 수신하여 이에 상응하는 영상 정보를 상기 터치스크린 모니터에 출력하고, 터치 신호에 상응하도록 외부 입출력 장치를 제어하는 통합제어장치, 터치스크린 모니터를 수용할 수 있는 테이블 상판 및 통합제어장치를 수용하고 테이블 상판을 지지하기 위한 지지 프레임이 형성된 테이블 본체를 포함하는 멀티미디어 테이블이 제공된다. 그러나 상기 공개특허문헌에 개시된 기술은 상술된 문제점을 해결하지 못한다.
한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 발명의 일실시예는, 테이블장치에 대한 단말장치를 인식하는 방법 및 장치를 제시하는 데에 목적이 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따르면 임의의 사물에 대한 접촉을 감지하는 테이블장치와 통신하도록 구성되는 인식장치로서, 상기 테이블장치와 페어링된 단말장치로부터, 상기 단말장치의 움직임정보를 수신하도록 구성되는 상태갱신부, 및 상기 테이블장치에 대한 접촉을 감지하면, 상기 단말장치의 움직임정보에 기초하여 상기 단말장치가 상기 테이블장치 상에 접촉하였는지를 판단하도록 구성되는 단말인식부를 포함할 수 있다.
또한 본 발명의 제 2 측면에 따르면, 인식장치로 움직임정보를 전송하도록 구성되는 단말장치로서, 상기 단말장치의 기울기를 검출하는 기울기 센서, 상기 단말장치의 방위를 검출하는 나침반 센서 및 상기 단말장치의 가속도를 검출하는 가속도 센서 중 적어도 하나에 기초하여 상기 단말장치의 움직임정보를 생성하도록 구성되는 센싱부, 및 상기 움직임정보를 상기 인식장치로 전송하도록 구성되는 상태전송부를 포함한다.
그리고 본 발명의 제 3 측면에 따르면, 인식장치를 포함함으로써 상기 인식장치와 통신하도록 구성되는 테이블장치일 수 있다.
또한 본 발명의 제 4 측면에 따르면, 임의의 사물에 대한 접촉을 감지하는 테이블장치와 통신하도록 구성되는 인식장치가, 상기 테이블장치 상의 단말장치를 인식하는 방법에 있어서, 상기 테이블장치와 페어링된 단말장치로부터, 상기 단말장치의 움직임정보를 수신하는 단계, 테이블장치 상의 접촉을 감지하면, 상기 단말장치의 움직임 정보에 기초하여 상기 단말장치가 상기 테이블장치 상에 접촉하였는지를 판단하는 단계, 및 상기 판단결과 상기 단말장치가 상기 테이블장치 상에 접촉함을 결정하는 단계를 포함할 수 있다.
그리고 본 발명의 제 5 측면에 따르면, 테이블장치와 페어링된 단말장치로부터, 상기 단말장치의 움직임정보를 수신하는 단계, 테이블장치 상의 접촉을 감지하면, 상기 단말장치의 움직임 정보에 기초하여 상기 단말장치가 상기 테이블장치 상에 접촉하였는지를 판단하는 단계, 및 상기 판단결과 상기 단말장치가 상기 테이블장치 상에 접촉함을 결정하는 단계를 포함하는 방법 수행하는 프로그램이 기록된 컴퓨터 판독가능한 기록매체일 수 있다.
또한 본 발명의 제 6 측면에 따르면, 컴퓨팅 장치와 결합되어, 임의의 사물에 대한 접촉을 감지하는 테이블장치와 페어링된 단말장치로부터, 상기 단말장치의 움직임정보를 수신하는 단계, 테이블장치 상의 접촉을 감지하면, 상기 단말장치의 움직임 정보에 기초하여 상기 단말장치가 상기 테이블장치 상에 접촉하였는지를 판단하는 단계, 및 상기 판단결과 상기 단말장치가 상기 테이블장치 상에 접촉함을 결정하는 단계를 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램일 수 있다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 본 발명의 일실시예는 테이블장치에 대한 단말장치를 인식하는 방법 및 장치를 제시할 수 있다.
또한, 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 기존의 테이블장치를 그대로 활용하여 상기 테이블장치 상에 단말장치가 놓여진 경우 상기 단말장치를 인식할 수 있다.
그리고, 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 단말장치를 인식하면 단말장치에 대응되는 컨텐츠를 테이블장치를 통해 표시함으로써 효율적인 정보전달이 가능하다.
아울러서, 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 테이블장치 상에 놓여진 것으로 인식된 단말장치의 움직임 또는 단말장치가 놓여진 방향 등에 따라 컨텐츠가 달리 표시되거나, 표시되는 컨텐츠가 변경될 수 있어 효율적인 정보전달이 가능하다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1 및 도 2는 본 발명의 일실시예에 따른 인식장치를 포함하는 시스템의 개략적인 구성도이다.
도 3은 본 발명의 일실시예에 따른 인식장치와 통신하는 단말장치를 도시한 블록도이다.
도 4는 본 발명의 일실시예에 따른 인식장치를 도시한 블록도이다.
도 5는 본 발명의 일실시예에 따른 인식방법을 설명하기 위한 순서도이다.
도 6 내지 도 10은 본 발명의 일실시예에 따른 인식방법을 설명하기 위한 예시도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1 및 도 2는 본 발명의 일실시예에 따른 인식장치(10)를 포함하는 시스템을 설명하기 위한 개략적인 구성도이며, 도 3은 본 발명의 일실시예에 따른 인식장치(10)와 통신하는 단말장치(20)를 도시한 블록도이다.
도 1에서 도시된 바와 같이, 인식장치(10)는 단말장치(20)와 통신할 수 있다. 예를 들어, 인식장치(10)는 근거리 무선 통신, 예컨대 WiFi에 의해 단말장치(20)와 연결될 수 있으나, 이에 한정되지는 않는다. 이 외에도, 블루투스, Zigbee, 적외선 등 임의의 근거리 통신 방법에 따라 인식장치(10)와 단말장치(20) 간의 통신이 수행될 수 있다. 또한 인식장치(10)는 단말장치(20)와 양방향 통신할 수 있고, 또는 단말장치(20)로부터 일방적으로 데이터를 수신하는 단방향 통신을 할 수 있다.
아울러, 본 발명의 일실시예에 따른 인식장치(10)는, 임의의 사물에 대한 접촉을 감지하는 테이블장치(30)와 통신하며, 상기 테이블장치에 대한 단말장치(20)의 접촉을 결정할 수 있다.
이와 같은 인식장치(10)는, 테이블장치(30)의 외부에 위치하거나, 또는 테이블장치(30)에 포함되거나, 또는 테이블장치(30)를 포함함으로써 테이블장치(30)와 통신할 수 있다. 관련하여 도 2에서는 설명의 편의상, 테이블장치(30)가 인식장치(10)를 포함한 상태를 도시한 것이다,
상술된 바와 같은 인식장치(10)에 관한 보다 자세한 사항은 도 4를 참조하여 후술된다.
한편, 테이블장치(30)는, 하나 이상의 접촉을 감지할 수 있는 터치테이블로서, 터치테이블 상에 접촉이 있었음을 감지할 수 있는 패널을 구비한 것이면 족하다. 예를 들어, 테이블장치(30)는, 저항성 감지 기술(resistive sensing technology), 용량성 감지 기술(capacitive sensing technology), 표면 음파 감지 기술(surface acoustic wave sensing technology), 광학적 이미징 감지 기술(optical imaging sensing technology), 음향 펄스 인식 감지 기술(acoustic pulse recognition sensing technology), 초음파 감지 기술(ultrasonic sensing technology) 등이 적용된 패널을 구비할 수 있으며, 또한, 적외선-LED Cell Imaging 방식 FTTR(Frustrated Total Internal Reflection), DI(Diffused Illumination), LLP(Laser Light Plane Illumination), DSI(Diffused Surface Illumination) 또는 LED-LE(LED Light Plane)방식 등과 같이 적외선 감지 기술(infrared sensing technology)이 적용된 패널을 구비할 수 있다. 또한 테이블장치(30)는 인식장치(10)에 의해 제공되는 컨텐츠를, 인식장치(10)에 의해 결정된 표현방식에 따라 표시할 수 있는 표시부를 포함할 수 있다.
한편 단말장치(20)는 테이블장치(30) 상에 접촉될 수 있는 임의의 사물일 수 있다. 예를 들어, 단말장치(20)는 다양한 형상을 가질 수 있고 다양한 재질로 형성될 수 있다.
이와 같은 단말장치(20)에 대해서는 도 3을 참조하면, 단말장치(20)는 센싱부(210) 및 상태전송부(220)를 포함한다.
관련하여 센싱부(210)는 단말장치(20)의 움직임을 감지하여 움직임정보를 생성하도록 구성된다.
이때 ‘움직임정보’란, 단말장치(20)가 회전, 거리이동 등에 따라 움직일 때 해당 움직임에 따른 변화량을 나타내는 제반 정보로서, 예를 들어, 단말장치(20)의 기울기에 관한 정보인 기울기정보, 단말장치(20)의 방위에 관한 방위정보, 단말장치(20)의 가속도, 진동, 충격 등의 동적 힘에 관한 정보인 가속도정보를 포함할 수 있다.
예를 들어, 센싱부(210)는 단말장치(20)의 기울기를 검출하는 기울기 센서를 포함할 수 있으며, 상기 기울기 센서를 이용하여 단말장치(20)의 기울기를 움직임정보에 포함시킬 수 있다.
또한 예를 들어, 센싱부(210)는 단말장치(20)의 방위를 검출하는 나침반 센서를 포함할 수 있으며, 상기 나침반 센서를 이용하여 단말장치(20)의 방위를 움직임정보에 포함시킬 수 있다.
또한 예를 들어, 센싱부(210)는 단말장치(20)의 가속도를 검출하는 가속도 센서를 포함할 수 있으며, 상기 가속도 센서를 이용하여 단말장치(20)의 가속도를 움직임정보에 포함시킬 수 있다.
한편, 상태전송부(220)는 단말장치(20)의 움직임정보를 인식장치(10)로 전송하도록 구성된다. 이때 상태전송부(220)는 단말장치(20)의 움직임정보를 주기적으로 인식장치(10)로 전송할 수 있고, 또는 단말장치(20)의 움직임정보가 갱신될 때마다 갱신된 움직임정보를 인식장치(10)로 전송할 수 있다.
또한 상태전송부(220)는, 단말장치(20)의 움직임정보와 함께 상기 단말장치(20)의 단말식별정보도 전송할 수 있다.
한편 단말장치(20)는 제1페어링부(230)를 추가적으로 포함할 수 있다.
관련하여 제1페어링부(230)는, 인식장치(10)와의 통신을 위해 인식장치(10)와 페어링(pairing)하기 위한 모듈로서, 다양한 방식으로 인식장치(10)에 단말장치(20)를 페어링시킬 수 있다.
예를 들어, 제1페어링부(230)는, 인식장치(10)가 주변에 있고 상기 인식장치(10)에 대한 페어링이 수행된 이력이 없다고 판단되는 경우 인식장치(10)로 페어링요청을 전송하고 상기 요청에 대한 응답을 받을 때까지 계속적으로 페어링을 요청할 수 있다.
또한 예를 들어, 제1페어링부(230)는 페어링 결과 인식장치(10)로부터 단말식별정보를 할당받으면 상기 단말식별정보를 등록할 수 있고, 페어링이 종료되면 상기 단말식별정보를 삭제할 수 있다.
아울러 예를 들어 제1페어링부(230)는 페어링이 됨에 따라 단말장치에 대해 기설정된 면적(예를 들어, 단말장치가 테이블장치 상에 놓여있을 때의 접촉면적)을 인식장치로 전송할 수 있다.
한편, 도 4는 본 발명의 일실시예에 따른 인식장치(10)를 도시한 블록도이다.
도 4에서 도시된 바와 같이 인식장치(10)는 제2페어링부(110), 상태갱신부(120), 단말식별부(130) 및 컨텐츠제공부(140)를 포함할 수 있다.
또한 인식장치(10)는 내부구성요소, 즉, 제2페어링부(110), 상태갱신부(120), 단말식별부(130) 및 컨텐츠제공부(140) 간의 통신을 가능하게 하게 하며 또한 외부구성요소와의 통신을 가능하게 하는 통신부(미도시)를 포함할 수 있다.
그리고 인식장치(10)은 본 발명의 일실시예에 따른 인식방법을 수행하기 위한 데이터(예를 들어, 컨텐츠)를 저장하기 위한 저장부(미도시)를 포함할 수 있으며, 또는 외부에 위치하는 저장장치(미도시), 예를 들어, 데이터베이스와 통신할 수 있다.
한편 제2페어링부(110)는 단말장치(20)와의 통신을 위해 단말장치(20)와 페어링하기 위한 모듈이다.
예를 들어, 제2페어링부(110)는 단말장치(20)의 제1페이링부(230)로부터 페어링 요청에 응답함으로써 단말장치(20)와 페어링할 수 있다.
또한 예를 들어, 제2페어링부(110)는 단말장치(20)의 단말식별정보를 입력받아 등록함으로써 단말장치(20)와 페어링할 수 있다.
또한 예를 들어, 제2페어링부(110)는 단말장치(20)로부터 움직임정보를 처음 수신하면 상기 움직임정보에 대응되는 단말식별정보를 할당하고 등록함으로써 단말장치(20)와 페어링할 수 있다.
한편 상태갱신부(120)는, 단말장치(20)로부터, 상기 단말장치의 움직임정보를 수신할 수 있다.
상태갱신부(120)는 단말장치의 움직임정보를 수신할 때마다 갱신할 수 있으며 또는 단말장치의 움직임정보를 소정의 기간 또는 소정의 횟수 동안 누적할 수 있다.
상태갱신부(120)는 단말장치가 테이블장치에 접촉하기 이전에도 단말장치의 움직임정보를 수신할 수 있고, 또한 단말장치가 테이블장치에 접촉하고 난 이후(예를 들어 단말장치에 대응되는 터치포인트가 생성된 경우)에도 단말장치의 움직임정보를 수신할 수 있으며, 또한 단말장치가 테이블장치에 접촉 이후 접촉이 종료됨을 감지(예를 들어, 단말장치에 대응되는 터치포인트가 생성되고 난 이후, 소정의 기간동안 상기 터치포인트에 대한 접촉이 더 이상 감지되지 않는 경우)하더라도, 단말장치의 움직임정보를 수신할 수 있다.
반면 단말식별부(130)는, 테이블장치에 대한 접촉을 감지하면, 상기 접촉이 단말장치에 의한 것인지를 결정할 수 있다.
단말식별부(130)는 단말장치의 움직임정보에 기초하여 상기 단말장치가 상기 테이블장치 상에 접촉하였는지를 판단할 수 있다. 예를 들어 단말식별부(130)는 테이블장치(30) 상의 접촉을 감지한 시점을 기준으로 소정의 시간 이내에 단말장치(20)의 움직임정보가 갱신되지 않는 경우(즉, 단말장치가 움직이지 않는다고 판단되는 경우), 테이블장치(30) 상에 접촉한 사물이 단말장치(20)임을 결정할 수 있다.
또한 단말식별부(130)는 또한, 단말장치가 테이블장치에 대해 접촉하고 있는 접촉면적 및 상기 단말장치에 대해 기설정된 면적을 비교하여 상기 단말장치가 상기 테이블장치 상에 접촉하였는지를 판단할 수 있다. 예를 들어, 단말식별부(130)는 테이블장치(30) 상에 접촉을 감지하면 접촉이 감지된 지점의 좌표에 기초하여 접촉이 이루어진 면적을 연산하며, 연산결과 접촉면적이 단말장치에 대해 기설정된 영역의 면적과 동일하거나, 또는, 소정의 오차범위 이내인 경우, 테이블장치(30) 상에 접촉한 사물이 단말장치(20)임을 결정할 수 있다.
아울러 단말식별부(130)는 테이블장치에 대한 접촉이 단말장치에 의한 것임을 결정하면, 터치포인트로 설정하여 상기 단말장치와 매칭시킬 수 있으며, 따라서 예를 들어, 단말장치가 테이블장치에 접촉한 상태로 이동하면 상기 터치포인트는 상기 단말장치의 테이블장치 상의 이동경로에 따라 이동할 수 있다. 관련하여 ‘터치포인트’는 단말장치가 접촉하고 있는 면적에 대응되는 모든 좌표일 수 있으며, 또한 단말장치가 접촉하고 있는 면적에 대응되는 좌표 중 소정 개수의 좌표일 수 있으며, 또한 테이블장치 상의 임의의 지점에 대한 좌표일 수 있다.
한편 컨텐츠제공부(140)는, 테이블장치 상에 접촉된 단말장치를 식별하면, 컨텐츠를 제공하여 테이블장치를 통해 상기 컨텐츠가 표시되도록 한다. 이때 ‘컨텐츠’는 테이블장치(30)의 표시부를 통해 표시될 수 있는 각종 정보를 의미하며 예를 들어, 텍스트, 이미지, 동영상, 홀로그램, 사운드 등이 될 수 있다.
이때, 컨텐츠제공부(140)는, 단말장치에 대응되는 컨텐츠를 제공할 수 있으며, 또는 단말장치의 움직임정보(단말장치가 테이블장치에 접촉하기 직전 최종 수신된 움직임정보 또는 테이블장치에 접촉한 시점을 기준으로 최종 수신된 움직임정보)에 기초하여 상기 단말장치에 대응되는 컨텐츠를 제공하여 상기 테이블장치의 표시부를 통해 표시되도록 할 수 있다.
또한, 컨텐츠제공부(140)는, 컨텐츠를 제공하면서, 상기 컨텐츠가 테이블장치를 통해 어떤 지점에 어떻게 표시될 것인지에 관한 정보를 포함하는 표시정보도 함께 제공할 수 있으며 이에 테이블장치는 상기 표시정보에 따라 컨텐츠를 표시할 수 있다. 예를 들어, 표시정보로서, 단말장치의 터치포인트를 기준으로 방사형으로 컨텐츠가 표시되도록 하는 설정정보 등이 될 수 있다. 이와 같은 표시정보는, 인식장치에 의해 기설정될 수 있으며, 또는 컨텐츠의 내용, 종류, 또는 단말장치의 움직임정보(단말장치가 테이블장치에 접촉하기 직전 최종 수신된 움직임정보 또는 테이블장치에 접촉한 시점을 기준으로 최종 수신된 움직임정보)에 기초하여 변경될 수 있다.
아울러 컨텐츠제공부(140)는, 단말장치가 복수 개이면, 상기 복수 개의 단말장치 각각에 대응되는 제1컨텐츠, 또는, 상기 복수 개의 단말장치의 그룹에 대응되는 제2컨텐츠 중 적어도 하나를 제공하여 테이블장치를 통해 표시되도록 할 수 있다.
이때 컨텐츠제공부(140)는, 제1컨텐츠 및 제2컨텐츠 각각에 대한 표시정보도 제공할 수 있으며, 예를 들어, 표시정보로서, 각 단말장치에 대응되는 제1컨텐츠를 각 단말장치의 터치포인트 주변에 표시되도록 하되, 각 단말장치의 제1컨텐츠가 함께 표시되는 지점에서는 제2컨텐츠가 표시되도록 할 수 있다.
또한 컨텐츠제공부(140)는 단말장치의 접촉이 종료됨을 감지하면, 컨텐츠가 더 이상 터치테이블을 통해 표시되지 않도록 제어할 수 있다.
한편 도 5는 본 발명의 일실시예에 따른 인식방법을 설명하기 위한 순서도이다.
도 5에 도시된 실시예에 따른 인식방법은 도 1 내지 도 4에 도시된 인식장치(10)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하에서 생략된 내용이라고 하더라도 도 1 내지 도 4에 도시된 인식장치(10)에 관하여 이상에서 기술한 내용은 도 5에 도시된 실시예에 따른 인식방법에도 적용될 수 있다.
도 5는 도 6 내지 도 10을 참조하여 이하에서 후술되며, 도 6 내지 도 10은 본 발명의 일실시예에 따른 인식방법을 설명하기 위한 예시도이다.
먼저 인식장치(10)는 단말장치(20)와 페어링할 수 있다. 물론 페어링이 이미 완료된 단말장치(20)와는 별도의 페어링과정을 거치지 않아도 된다.
이와 같이 단말장치(20)와 페어링된 인식장치(10)는, 상기 단말장치(20)로부터 움직임정보를 수신할 수 있다 (S510).
예를 들어, 도 6에서 도시된 바와 같이, 단말장치(20)가 터치테이블(30)상에 놓여지기 이전에, 단말장치(20)가 도 6의 (a)에서 도 6의 (b)에서 도시된 바와 같이 이동하여 기울기 등의 움직임정보가 갱신된 경우, 인식장치(10)는 상기 갱신된 움직임정보를 수신할 수 있다.
이와 같이 인식장치(10)는 단말장치(20)로부터 움직임정보를 수신할 수 있다.
한편, 인식장치(10)는 테이블장치(30) 상의 접촉을 감지할 수 있다 (S520).
이때 인식장치(10)는 테이블장치 상에 접촉된 사물이 단말장치(20)인지 여부를 판단할 수 있다 (S530).
즉, 단말장치(20)의 움직임 정보에 기초하여 단말장치(20)가 테이블장치(30) 상에 접촉하였는지를 판단할 수 있다. 예를 들어, 접촉이 있는 시점부터 소정의 기간 단말장치(20)로부터 움직임정보를 수신하지 않거나, 또는 단말장치(20)로부터 수신된 움직임정보가 접촉이 있는 시점부터 소정의 기간 변동이 없는 경우, 단말장치(20)가 테이블장치(30) 상에 접촉하였다고 판단할 수 있다.
또한 인식장치(10)는 단말장치의 접촉면적 및 상기 단말장치에 대해 기설정된 면적을 비교하여 상기 단말장치가 상기 테이블장치 상에 접촉하였는지를 판단할 수 있다. 예를 들어, 테이블장치(30) 상에 놓여진 사물에 의한 접촉면적이 기설정된 단말장치의 면적과 비교하여 비교결과 소정의 오차범위 이내인 경우에 한해 테이블장치 상에 놓여진 사물이 단말장치임을 결정할 수 있다.
이와 같이 단말장치(20)가 테이블장치(30) 상에 접촉하고 있다고 결정되면 (S540), 인식장치(10)는 컨텐츠를 제공하여 상기 컨텐츠가 테이블장치의 표시부를 통해 표시되도록 할 수 있다 (S550).
이때, 인식장치(10)는, 단말장치(20)에 대응되는 컨텐츠를 제공할 수 있으며 상기 컨텐츠는 테이블장치 상의 적어도 일부 영역을 통해 제공될 수 있다. 예를 들어, 도 7의 (a)에서 도시된 바와 같이 단말장치(20)의 터치포인트를 기준으로 랜덤하게 컨텐츠(710)를 제공할 수 있으며, 또는 도 7의 (b)에서 도시된 바와 같이 단말장치의 터치포인트를 기준으로 방사형으로 컨텐츠(720)를 제공할 수 있다.
또한 인식장치(10)는, 단말장치의 움직임정보에 기초하여 상기 단말장치에 대응되는 컨텐츠를 제공하여 상기 테이블장치 상에 표시되도록 할 수 있다. 즉, 도 7의 (a) 및 (b) 각각에서 도시된 바와 같이 단말장치(20)의 기울기 및 방위가 각기 상이한 경우 인식장치(10)는 각기 상이한 컨텐츠(710, 720)를 제공하여 테이블장치(30) 상에 표시되도록 할 수 있다.
또한 인식장치(10)는 단말장치가 복수 개이면, 상기 복수 개의 단말장치 각각에 대응되는 제1컨텐츠, 및 상기 복수 개의 단말장치의 그룹에 대응되는 제2컨텐츠 중 적어도 하나를 제공하여 상기 테이블장치 상에 표시되도록 할 수 있다.
예를 들어, 단말장치 각각은 한글의 자음 또는 모음 각각에 대응되며 상기 단말장치 각각이 테이블장치 상에 접촉함이 결정되면 각 단말장치에 대응되는 자음 또는 모음을 제1컨텐츠로서 제공할 수 있으며, 또한, 복수개의 단말장치가 테이블장치에 접촉하되 각각이 테이블장치에 접촉한 순서로 초성, 중성, 종성이 결정되어, 상기 복수개의 단말장치의 그룹에 대응되는 하나의 글자를 제2컨텐츠로서 제공할 수 있다.
예를 들어, 단말장치 각각은 각기 상이한 색상에 대응되며 상기 단말장치 각각이 테이블장치 상에 접촉함이 결정되면 각 단말장치에 대응되는 색상을 제1컨텐츠로서 제공할 수 있으며, 또한, 복수개의 단말장치가 테이블장치에 접촉함이 결정되면 상기 복수개의 단말장치의 그룹에 대응되는 색상을 제2컨텐츠로서 제공할 수 있으며, 이때 제2컨텐츠는, 예를 들어 상기 그룹에 포함되는 단말장치 각각의 제1컨텐츠들의 혼합으로 생성된 색상일 수 있다.
또한 예를 들어, 단말장치 각각은, 영어 알파벳 각각에 대응되며 상기 단말장치 각각이 테이블장치 상에 접촉함이 결정되면, 각 단말장치에 대응되는 알파벳을 제1컨텐츠로서 제공할 수 있으며, 또한 복수개의 단말장치가 테이블장치 상에 접촉함이 결정되면 상기 복수개의 단말장치의 그룹에 대응되는 하나의 글자를 제2컨텐츠로서 제공할 수 있으며, 이때 제2컨텐츠는, 예를 들어 상기 그룹에 포함되는 단말장치 각각의 제1컨텐츠들의 조합으로 이루어진 영어 단어일 수 있다.
아울러, 예를 들어, 단말장치 각각은 숫자 또는 연산자에 대응되며 상기 단말장치 각각이 테이블장치 상에 접촉함이 결정되면 각 단말장치에 대응되는 숫자 또는 연산자를 제1컨텐츠로서 제공할 수 있으며, 또는, 복수개의 단말장치가 테이블장치 상에 접촉함이 결정되면 상기 복수개의 단말장치의 그룹에 대응되는 하나의 컨텐츠를 제2컨텐츠로서 제공할 수 있으며, 이때 제2컨텐츠는, 예를 들어, 상기 그룹에 포함되는 단말장치 각각의 제1컨텐츠들의 조합으로 이루어진 수식 또는 상기 수식에 따른 연산 결과일 수 있다.
보다 구체적으로 도 8 및 도 9를 참조한다면, 도 8에서 도시된 바와 같이, 테이블장치(30) 상에 놓여진 단말장치(20, 20’)가 복수 개이면, 단말장치(20)에 대응되는 제1컨텐츠(810) 및 단말장치(20’)에 대응되는 제1컨텐츠(820) 각각이 테이블장치 상에 표시될 수 있다. 반면, 도 9에서 도시된 바와 같이, 테이블장치(30) 상에 놓여진 단말장치(20, 20’, 20’’)가 복수 개이고, 단말장치(20)에 대응되는 컨텐츠가 ‘3’이며 단말장치(20’)에 대응되는 컨텐츠가 ‘4’이고 단말장치(20’’)에 대응되는 컨텐츠가 ‘+’이면, 복수개의 단말장치(20, 20’)를 그룹핑한 그룹에 대응되는 제2컨텐츠가, 상기 그룹에 포함되는 단말장치(20, 20’, 20’’) 각각의 제1컨텐츠들의 조합으로 이루어진 수식에 따른 결과일 수 있으며 그에 따른 제2컨텐츠(910, 920)가 테이블장치(30) 상에 표시될 수 있다.
한편 인식장치(10)는 단말장치가 복수 개이면, 상기 복수 개의 단말장치 각각에 대응되는 제1컨텐츠, 및 상기 복수 개의 단말장치의 그룹에 대응되는 제2컨텐츠 중 적어도 하나를 제공하면서, 상기 테이블장치 상에 상기 제1컨텐츠 및 상기 제2컨텐츠가 표시될 표시정보를 함께 제공하여 상기 테이블장치 상에 표시되도록 할 수 있다.
아울러 도 10에서 도시된 바와 같이, 테이블장치(30) 상에 놓여진 단말장치(20, 20’)가 복수 개이면, 복수 개의 단말장치(20, 20’) 각각에 대응되는 제1컨텐츠(1010, 1020)와 함께, 복수 개의 단말장치(20, 20’)의 그룹에 대응되는 제2컨텐츠(1030)도 테이블장치(30) 상에 표시될 수 있다. 이때 제2컨텐츠(1030)가 표시될 표시정보도 반영하여 테이블장치(30) 상에 제1컨텐츠(1010, 1020) 및 제2컨텐츠(1030)를 표시할 수 있으며, 예를 들어, 제1컨텐츠(1010, 1020)가 교차되는 지점에 제2컨텐츠(1030)가 표시되도록 할 수 있다.
도 5를 통해 설명된 실시예에 따른 인식방법은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
또한 본 발명의 일실시예에 따르는 인식방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다.
따라서 본 발명의 일실시예에 따르는 인식방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.
여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다.
또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다.
그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (18)

  1. 임의의 사물에 대한 접촉을 감지하는 테이블장치와 통신하도록 구성되는 인식장치로서,
    상기 테이블장치와 페어링된 단말장치로부터, 상기 단말장치의 움직임정보를 수신하도록 구성되는 상태갱신부; 및
    상기 테이블장치에 대한 접촉을 감지하면, 상기 단말장치의 움직임정보에 기초하여 상기 단말장치가 상기 테이블장치 상에 접촉하였는지를 판단하도록 구성되는 단말인식부를 포함하며,
    상기 단말인식부는 추가적으로,
    상기 단말장치의 접촉면적 및 상기 단말장치에 대해 기설정된 면적을 비교하여 상기 단말장치가 상기 테이블장치 상에 접촉하였는지를 판단하도록 구성되는, 인식장치.
  2. 제 1 항에 있어서,
    상기 판단 결과 상기 단말장치가 상기 테이블장치 상에 접촉하였음이 결정되면, 상기 단말장치에 대응되는 컨텐츠를 제공하여 상기 테이블장치를 통해 표시되도록 구성되는 컨텐츠제공부를 더 포함하는, 인식장치.
  3. 제 1 항에 있어서,
    상기 판단 결과 상기 단말장치가 상기 테이블장치 상에 접촉하였음이 결정되면, 상기 단말장치의 움직임정보에 기초하여 상기 단말장치에 대응되는 컨텐츠를 제공하여 상기 테이블장치 상에 표시되도록 구성되는 컨텐츠제공부를 더 포함하는, 인식장치.
  4. 제 2 항에 있어서,
    상기 컨텐츠제공부는 추가적으로,
    상기 단말장치의 움직임정보에 기초하여 상기 컨텐츠가 상기 테이블장치 상에 표시되는 표시정보를 결정하도록 구성되는, 인식장치.
  5. 제 2 항에 있어서,
    상기 컨텐츠제공부는 추가적으로,
    상기 단말장치가 복수 개이면, 상기 복수 개의 단말장치 각각에 대응되는 제1컨텐츠, 및 상기 복수 개의 단말장치의 그룹에 대응되는 제2컨텐츠 중 적어도 하나를 제공하여 상기 테이블장치 상에 표시되도록 구성되는, 인식장치.
  6. 제 5 항에 있어서,
    상기 컨텐츠제공부는 추가적으로,
    상기 제1컨텐츠 및 상기 제2컨텐츠 중 적어도 하나가 표시될 때 상기 표시될 컨텐츠의 표시정보를 결정하도록 구성되는, 인식장치.
  7. 제 1 항에 있어서,
    상기 움직임정보는, 상기 단말장치의 기울기정보, 방위정보 및 가속도정보 중 적어도 하나를 포함하는 정보인, 인식장치.
  8. 제 1 항에 기재된 인식장치로 상기 움직임정보를 전송하도록 구성되는 단말장치로서,
    상기 단말장치의 기울기를 검출하는 기울기 센서, 상기 단말장치의 방위를 검출하는 나침반 센서 및 상기 단말장치의 가속도를 검출하는 가속도 센서 중 적어도 하나에 기초하여 상기 단말장치의 움직임정보를 생성하도록 구성되는 센싱부; 및
    상기 움직임정보를 상기 인식장치로 전송하도록 구성되는 상태전송부를 포함하는, 단말장치.
  9. 제 1 항에 기재된 인식장치를 포함함으로써 상기 인식장치와 통신하도록 구성되는 테이블장치.
  10. 임의의 사물에 대한 접촉을 감지하는 테이블장치와 통신하도록 구성되는 인식장치가, 상기 테이블장치 상의 단말장치를 인식하는 방법에 있어서,
    상기 테이블장치와 페어링된 단말장치로부터, 상기 단말장치의 움직임정보를 수신하는 단계;
    상기 테이블장치 상의 접촉을 감지하면, 상기 단말장치의 움직임 정보에 기초하여 상기 단말장치가 상기 테이블장치 상에 접촉하였는지를 판단하는 단계; 및
    상기 판단결과 상기 단말장치가 상기 테이블장치 상에 접촉함을 결정하는 단계를 포함하며,
    상기 판단하는 단계는,
    상기 단말장치의 접촉면적 및 상기 단말장치에 대해 기설정된 면적을 비교하여 상기 단말장치가 상기 테이블장치 상에 접촉하였는지를 판단하는 단계를 더 포함하는, 인식방법.
  11. 제 10 항에 있어서,
    상기 판단 결과 상기 단말장치가 상기 테이블장치 상에 접촉하였음이 결정되면, 상기 단말장치에 대응되는 컨텐츠를 제공하여 상기 테이블장치를 통해 표시되도록 하는 단계를 더 포함하는, 인식방법.
  12. 제 10 항에 있어서,
    상기 판단 결과 상기 단말장치가 상기 테이블장치 상에 접촉하였음이 결정되면, 상기 단말장치의 움직임정보에 기초하여 상기 단말장치에 대응되는 컨텐츠를 제공하여 상기 테이블장치 상에 표시되도록 하는 단계를 더 포함하는, 인식방법.
  13. 제 11 항에 있어서,
    상기 테이블장치 상에 표시되도록 하는 단계는,
    상기 단말장치의 움직임정보에 기초하여 상기 컨텐츠가 상기 테이블장치 상에 표시되는 표시정보를 결정하는 단계를 더 포함하는, 인식방법.
  14. 제 11 항에 있어서,
    상기 테이블장치 상에 표시되도록 하는 단계는,
    상기 단말장치가 복수 개이면, 상기 복수 개의 단말장치 각각에 대응되는 제1컨텐츠, 및 상기 복수 개의 단말장치의 그룹에 대응되는 제2컨텐츠 중 적어도 하나를 제공하여 상기 테이블장치 상에 표시되도록 하는 단계를 포함하는, 인식방법.
  15. 제 14 항에 있어서,
    상기 테이블장치 상에 표시되도록 하는 단계는,
    상기 제1컨텐츠 및 상기 제2컨텐츠 중 적어도 하나가 표시될 때 상기 표시될 컨텐츠의 표시정보를 결정하는 단계를 더 포함하는, 인식방법.
  16. 제 10 항에 있어서,
    상기 움직임정보는, 상기 단말장치의 기울기정보, 방위정보 및 가속도정보 중 적어도 하나를 포함하는 정보인, 인식방법.
  17. 제 10 항에 기재된 방법을 수행하는 프로그램이 기록된 컴퓨터 판독가능한 기록매체.
  18. 컴퓨팅 장치와 결합되어,
    임의의 사물에 대한 접촉을 감지하는 테이블장치와 페어링된 단말장치로부터, 상기 단말장치의 움직임정보를 수신하는 단계;
    상기 테이블장치 상의 접촉을 감지하면, 상기 단말장치의 움직임 정보에 기초하여 상기 단말장치가 상기 테이블장치 상에 접촉하였는지를 판단하는 단계; 및
    상기 판단결과 상기 단말장치가 상기 테이블장치 상에 접촉함을 결정하는 단계를 포함하며,
    상기 판단하는 단계는,
    상기 단말장치의 접촉면적 및 상기 단말장치에 대해 기설정된 면적을 비교하여 상기 단말장치가 상기 테이블장치 상에 접촉하였는지를 판단하는 단계를 더 포함하는 인식방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
PCT/KR2015/009648 2014-11-03 2015-09-15 인식방법 및 인식장치 Ceased WO2016072610A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201580000684.8A CN105900043A (zh) 2014-11-03 2015-09-15 识别方法及识别装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0151147 2014-11-03
KR1020140151147A KR101533603B1 (ko) 2014-11-03 2014-11-03 인식방법 및 인식장치

Publications (1)

Publication Number Publication Date
WO2016072610A1 true WO2016072610A1 (ko) 2016-05-12

Family

ID=53789129

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/009648 Ceased WO2016072610A1 (ko) 2014-11-03 2015-09-15 인식방법 및 인식장치

Country Status (3)

Country Link
KR (1) KR101533603B1 (ko)
CN (1) CN105900043A (ko)
WO (1) WO2016072610A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102238697B1 (ko) * 2015-11-09 2021-04-09 에스케이텔레콤 주식회사 테이블탑 인터페이스 장치, 멀티 터치 객체 및 방법
KR101643968B1 (ko) * 2015-12-21 2016-08-01 (주)라온스퀘어 사물카드가 삽입되는 슬롯을 구비한 슬롯장치를 이용한 사물정보 제공 방법 및 시스템
KR101895022B1 (ko) * 2016-06-21 2018-09-10 한양대학교 에리카산학협력단 상판 디스플레이를 갖는 인트랙티브 테이블의 구동 방법
KR102226719B1 (ko) * 2018-12-17 2021-03-12 울산과학기술원 음악 재생기

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040020262A (ko) * 2002-08-30 2004-03-09 윤용상 펜 타입의 다기능 마우스 입력장치
KR20110063649A (ko) * 2008-09-24 2011-06-13 마이크로소프트 코포레이션 개체 감지 및 사용자 설정
WO2012053786A2 (ko) * 2010-10-20 2012-04-26 주식회사 애트랩 디스플레이 장치 및 이 장치의 스크롤 방법
KR101212364B1 (ko) * 2012-03-06 2012-12-13 한양대학교 산학협력단 단말기 연동 및 제어 시스템 및 이에 사용되는 사용자 단말기

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008092294A (ja) * 2006-10-02 2008-04-17 Ntt Docomo Inc 移動通信ネットワークシステム及び移動体端末装置のロック方法
US20090128513A1 (en) * 2007-11-20 2009-05-21 Samsung Electronics Co., Ltd Device identification method and apparatus, device information provision method and apparatus, and computer-readable recording mediums having recorded thereon programs for executing the device identification method and the device information provision method
JP2010157189A (ja) * 2009-01-05 2010-07-15 Sony Corp 情報処理装置、情報処理方法およびプログラム
KR101999119B1 (ko) * 2012-07-11 2019-07-12 삼성전자 주식회사 펜 입력 장치를 이용하는 입력 방법 및 그 단말

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040020262A (ko) * 2002-08-30 2004-03-09 윤용상 펜 타입의 다기능 마우스 입력장치
KR20110063649A (ko) * 2008-09-24 2011-06-13 마이크로소프트 코포레이션 개체 감지 및 사용자 설정
WO2012053786A2 (ko) * 2010-10-20 2012-04-26 주식회사 애트랩 디스플레이 장치 및 이 장치의 스크롤 방법
KR101212364B1 (ko) * 2012-03-06 2012-12-13 한양대학교 산학협력단 단말기 연동 및 제어 시스템 및 이에 사용되는 사용자 단말기

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KONG, YOUNG SIK ET AL.: "Development of the FishBowl Game Employing a Tabletop Tiled Display Coupling With Mobile Interfaces", JOURNAL OF KOREA GAME SOCIETY, vol. 10, no. 2, 30 April 2010 (2010-04-30), pages 57 - 65, XP055279123 *

Also Published As

Publication number Publication date
KR101533603B1 (ko) 2015-07-06
CN105900043A (zh) 2016-08-24

Similar Documents

Publication Publication Date Title
WO2015122559A1 (en) Display device and method of controlling therefor
WO2015030303A1 (en) Portable device displaying augmented reality image and method of controlling therefor
CN103424914B (zh) 液晶显示器件及其驱动方法
WO2016056703A1 (en) Portable device and method of controlling therefor
WO2016190634A1 (en) Touch recognition apparatus and control method thereof
WO2013018962A1 (en) Traffic lane recognizing apparatus and method thereof
WO2018026202A1 (ko) 펜과 관련된 정보를 판단하는 터치 감지 장치 및 그 제어 방법과 펜
WO2015190647A1 (en) Display device executing bending operation and method of controlling therefor
WO2015194709A1 (en) Portable display device and method of controlling therefor
WO2020017890A1 (en) System and method for 3d association of detected objects
WO2015174597A1 (ko) 음성제어 영상표시 장치 및 영상표시 장치의 음성제어 방법
WO2014148689A1 (en) Display device capturing digital content and method of controlling threrfor
WO2016072610A1 (ko) 인식방법 및 인식장치
WO2016080557A1 (ko) 웨어러블 디바이스 및 그 제어 방법
WO2016035940A1 (en) Display device and method of controlling therefor
WO2016068593A2 (ko) 3차원 형상의 모델링을 위한 블록 및 사용자 단말기와 이를 이용한 3차원 형상의 모델링 방법
CN104461231A (zh) 信息显示控制装置以及信息显示控制方法
WO2014061859A1 (ko) 댓글을 분석하고 표시할 수 있는 방법, 이를 위한 장치 및 시스템
WO2014133258A1 (en) Pen input apparatus and method for operating the same
EP3274796A1 (en) Touch recognition apparatus and control method thereof
EP3186956A1 (en) Display device and method of controlling therefor
WO2015064827A1 (ko) 정전식 터치 패널을 통해 인식 가능한 터치 태그, 그 정보 인식 방법 및 이를 이용한 정보 제공 방법
WO2018070657A1 (en) Electronic apparatus, and display apparatus
WO2017078329A1 (ko) 전자장치 및 그의 동작 방법
WO2013022154A1 (en) Apparatus and method for detecting lane

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15856560

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15856560

Country of ref document: EP

Kind code of ref document: A1