[go: up one dir, main page]

WO2018004036A1 - 모니터링 장치 및 시스템 - Google Patents

모니터링 장치 및 시스템 Download PDF

Info

Publication number
WO2018004036A1
WO2018004036A1 PCT/KR2016/007044 KR2016007044W WO2018004036A1 WO 2018004036 A1 WO2018004036 A1 WO 2018004036A1 KR 2016007044 W KR2016007044 W KR 2016007044W WO 2018004036 A1 WO2018004036 A1 WO 2018004036A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
sensor
event
camera
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2016/007044
Other languages
English (en)
French (fr)
Inventor
이호정
김연우
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hanwha Vision Co Ltd
Original Assignee
Hanwha Techwin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hanwha Techwin Co Ltd filed Critical Hanwha Techwin Co Ltd
Priority to CN201680087126.4A priority Critical patent/CN109565569B/zh
Publication of WO2018004036A1 publication Critical patent/WO2018004036A1/ko
Priority to US16/214,912 priority patent/US10791258B2/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/02Monitoring continuously signalling or alarm systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters

Definitions

  • the present invention relates to a monitoring apparatus and system, and more particularly, to easily pan or tilt an image by a simple operation, and when the event occurs in conjunction with a sensor that detects the occurrence of the event, whether the event occurs and its contents are intuitive. It relates to a monitoring device and a system that can grasp.
  • surveillance systems are widely used in various places, including banks, department stores, and residential areas. Such a surveillance system may be used for crime prevention and security purposes, but recently, it is also used to monitor indoor pets or young children in real time.
  • the most commonly used surveillance system is a closed-circuit television system, in which a camera is installed at an appropriate position to capture an area to be monitored, and a user can monitor by monitoring a video captured by the camera. CCTV) system.
  • Pan, Tilt, Zoom (PTZ) function of the image is essential.
  • PTZ Pan, Tilt, Zoom
  • people's interest in the development of the UI / UX for user convenience that can easily perform such a pan, tilt, zoom function has increased.
  • the panning or tilting angle range of the camera is increasing, and many cameras capable of capturing a very wide angle of view, such as a fisheye camera or a 360 ° camera, are being developed.
  • the problem to be solved by the present invention can be easily panning or tilting the image with a simple operation, the monitoring device that can intuitively grasp the occurrence and its contents when the event occurs in conjunction with a sensor that detects the occurrence of the event And to provide a system.
  • Monitoring device for solving the above problems is a communication unit for receiving a signal generated by the image data and the sensor obtained by the camera; A storage unit which stores the image data and the information on the signal; A screen unit which displays the received image; And a controller for controlling operations of the communication unit, the storage unit, and the screen unit, wherein the screen unit displays a control area for panning or tilting the image around the displayed image, and the control area.
  • a pointer indicating a position at which the sensor is installed, and when the sensor detects an event, an alarm sounds at the pointer corresponding to the sensor detecting the event, and the image directed to the sensor detecting the event. Is displayed.
  • Monitoring system for solving the above problems is a camera for capturing a specific area to obtain an image; A sensor for detecting the event and generating a signal when an event occurs; And a monitoring device displaying an image acquired by the camera and receiving a signal from the sensor to indicate whether an event occurs.
  • the monitoring device includes the image data acquired by the camera and the signal generated by the sensor.
  • Communication unit for receiving; A storage unit which stores the image data and the information on the signal; A screen unit which displays the received image; And a controller configured to control operations of the communication unit, the storage unit, and the screen unit, wherein the screen unit displays a control area for panning or tilting the main image around the main image to be displayed.
  • a pointer indicating a position where the sensor is installed is displayed, and when the sensor detects an event, an alarm sounds at the pointer corresponding to the sensor that detects the event, and toward the sensor that detects the event.
  • the main image is panned or tilted for display.
  • a control area may be provided in the monitoring device, so that the user may easily pan or tilt the image.
  • an alarm is sounded so that the user can easily know the occurrence of the event, and the user can easily monitor the image of the area where the event occurred.
  • a thumbnail for automatically adjusting the number is generated, and the plurality of images may be displayed regardless of the number.
  • FIG. 1 is a block diagram showing the configuration of a monitoring system according to an embodiment of the present invention.
  • FIG. 2 is a perspective view of the monitoring device 1 of FIG. 1.
  • FIG 3 is a view showing a state in which the control region 113 according to an embodiment of the present invention is displayed on the screen unit 11 of the monitoring device 1.
  • FIG. 4 is a diagram illustrating a state in which a control region 113 according to another embodiment of the present invention is displayed on the screen unit 11 of the monitoring device 1.
  • FIG 5 is a diagram illustrating a state in which drag is performed on the main image 112 according to an embodiment of the present invention.
  • FIG. 6 is a diagram illustrating the panning of the main image 112 as a result of FIG. 5.
  • FIG. 7 is a diagram illustrating a state of performing a drag on the window 114 according to an embodiment of the present invention.
  • FIG. 8 illustrates the main image 112 being panned as a result of FIG. 7.
  • FIG. 9 is a diagram illustrating an alarm ringing on the pointer 116 according to an exemplary embodiment of the present invention.
  • FIG. 10 is a view illustrating an image directed toward a sensor 3 corresponding to the pointer 116 of FIG. 9.
  • FIG. 11 is a diagram illustrating how a plurality of pointers 116 are displayed when there are a plurality of sensors 3 according to an embodiment of the present invention.
  • FIG. 12 is a diagram illustrating an alarm ringing in the first pointer 116a among the plurality of pointers 116 of FIG. 11.
  • FIG. 13 is a diagram illustrating a state in which the first pointer 116a of FIG. 12 is selected.
  • FIG. 14 is a view illustrating an image directed toward a first sensor corresponding to the first pointer 116a of FIG. 12.
  • FIG. 15 is a diagram illustrating a state in which an alarm sounds at the first to third pointers 116a, 116b, and 116c among the plurality of pointers 116 of FIG. 11.
  • 16 to 18 show the first to third images 112a, 112b, and 112c toward the first to third sensors corresponding to the first to third pointers 116a, 116b, and 116c of FIG. 15 in order. It is a figure showing the appearance.
  • FIG. 19 is a view illustrating a state in which a thumbnail 117 is generated and an image directed to a position where a sensor 3 corresponding to the first to third pointers 116a, 116b, and 116c of FIG. 15 is installed is simultaneously displayed.
  • FIG. 1 is a block diagram showing the configuration of a monitoring system according to an embodiment of the present invention
  • Figure 2 is a perspective view of the monitoring device 1 of FIG.
  • the control area 113 is displayed on the screen unit 11 of the monitoring device 1.
  • the user may pan or tilt the main image 112 displayed on the screen unit 11 through the control region 113.
  • the pointer 116 corresponding to the sensor 3 is displayed in the control region 113.
  • the event detection signal is transmitted, and the monitoring device 1 receives the event detection signal and sounds an alarm at the pointer 116 corresponding to the sensor 3.
  • the user can check whether an event has occurred and can also easily monitor the event.
  • the monitoring system according to an embodiment of the present invention, the camera (2) for capturing an image by capturing a specific area, the sensor (3) for transmitting a signal when detecting the occurrence of an event, the image obtained by the camera And a monitoring device 1 for receiving and displaying the received signal and receiving the signal transmitted from the sensor 3.
  • the camera 2 or the sensor 3 and the monitoring device 1 may be wired or wirelessly connected to each other to transmit and receive image data or signals.
  • the camera 2 is preferably a pan tilt camera capable of panning and tilting, and in particular, panning at 360 ° is possible, so that all of the front, rear, left and right directions can be used. It is preferable that it is the camera 2 which can image
  • the camera 2 may be a recently introduced 360 ° camera.
  • the 360 ° camera refers to a camera 2 in which the camera 2 itself is not physically panned or tilted, and a plurality of fisheye lenses are mounted so that the omnidirectional shooting can be performed simultaneously. In this case, the image acquired by the 360 ° camera is panned or tilted through software installed in the monitoring device 1.
  • the camera 2 according to the exemplary embodiment of the present invention is not limited thereto, and various cameras 2 may be used as long as the camera 2 can photograph a plurality of areas.
  • the sensor 3 may detect an event.
  • a fire detection sensor for detecting a fire occurrence a smoke detection sensor for detecting a smoke occurrence, a heat detection or an infrared detection sensor for detecting the appearance of a person or animal.
  • the sensor 3 is not limited thereto, and various kinds of sensors 3 may be used as long as it can detect any kind of event.
  • the monitoring device 1 receives and displays an image acquired by the camera 2. Then, the signal transmitted from the sensor 3 is received and an alarm is sounded.
  • the monitoring device 1 is preferably a device that provides a touch function such as a smartphone, a tablet PC, a laptop, and the like, but is not limited thereto and may be a device for inputting a user command through a mouse. have.
  • the monitoring device 1 will be described as a device providing a touch function. However, this is for convenience of explanation and is not intended to limit the scope of rights.
  • the user can install and delete various applications on the monitoring device 1.
  • the camera control application may be executed, and a signal for controlling panning or tilting of an image may be generated through an input method such as a touch or a mouse. If the image can be panned or tilted by performing the physical panning or tilting of the camera 2 itself, the control signal is transmitted to the camera 2. However, if the camera 2 is a 360 ° camera, the control signal pans or tilts the image via software installed in the monitoring device 1.
  • the monitoring apparatus 1 includes a main body 10, a screen unit 11 displaying an image, a communication unit 12 receiving an image from a camera 2, and a storage unit storing the image. (13), a control unit 14 for controlling other components.
  • the screen unit 11 displays the main image 112 transmitted from the camera 2. As described above, the screen unit 11 may display the control area 113 on one side of the main image 112. In addition, when the sensor 3 detects the occurrence of an event, the control region 113 displays a pointer 116 that sounds an alarm in response to the sensor 3.
  • the input unit is provided separately.
  • the most commonly used input units include a mouse, a keyboard, a joystick, and a remote controller.
  • the screen unit 11 may include a touch sensor 111.
  • the user may directly input a touch signal through the screen unit 11.
  • the touch sensor 111 may be integrally mounted together with the screen unit 11, and detects a touch generated from the screen unit 11 to detect coordinates, a number of touches, and an intensity of an area where a touch is generated. The detected result is transmitted to the controller 14.
  • the touch sensor 111 senses a touch
  • various methods such as a capacitive type, an electric resistive film type, an ultrasonic type, and an infrared type may be used.
  • the touch may be performed using a finger, but is not limited thereto, and may be performed using a stylus pen equipped with a tip through which a minute current may flow.
  • the monitoring device 1 provides a touch function, a separate touch pad may be provided as an input unit if the screen unit 11 does not include the touch sensor 111.
  • the communication unit 12 transmits and receives signals and data to and from the camera 2 and the sensor 3 in a wired or wireless manner.
  • the communication unit 12 modulates and frequency upconverts and transmits the signal and data from the control unit 14, or frequency downconverts and outputs the signal and data received from the camera 2 and the sensor 3. Demodulate and provide it to the control unit 14.
  • the communication unit 12 may receive image data from the camera 2 or receive a signal from the sensor 3, and transmit the data or signal generated from the control unit 14 to the camera 2 or the sensor 3. Can also be sent.
  • the storage unit 13 receives a program for processing and controlling the operations of the monitoring device 1, various data generated during each program execution, and image data transmitted through the camera 2 and the sensor 3. Save the signal.
  • the storage unit 13 may be built in the monitoring device 1, but in the case of the network camera 2 system, a separate device such as a network video recorder (NVR) may be provided.
  • NVR network video recorder
  • the controller 14 controls the overall operation of the monitoring device 1. For example, the controller 14 performs processing and control for signal and data communication between the communication unit 12 and the camera 2 or the sensor 3, and decoding and rendering when an image is transmitted through the communication unit 12. Etc. Perform image processing. In addition, when a user's command is input, the controller 11 processes the display unit 11 to display the control area 113 or to generate an alarm at the pointer 116, to store the image in the storage unit 13, and to store the stored image. Control to load As the controller 14 according to an embodiment of the present invention, it is preferable to use a central processing unit (CPU), a micro controller unit (MCU), a digital signal processor (DSP), or the like, but various logic operation processors are not limited thereto. Can be used.
  • CPU central processing unit
  • MCU micro controller unit
  • DSP digital signal processor
  • the controller 14 includes a gesture detector 141 and a coordinate converter 142.
  • the gesture detector 141 detects a touch gesture from the touch sensor 111.
  • the touch gesture includes all touch operations generated from the touch sensor 111. If the monitoring device 1 does not provide a touch function, a user command input through an input unit such as a mouse is detected.
  • the gesture detector 141 manages the touch sensor 111 and includes an application program interface (API) for allowing a user to easily use a touch gesture in an application.
  • An API is an interface that controls the functionality provided by an operating system or programming language for use in an application.
  • the gesture detector 141 receives a user command for executing a camera control application through an API, and receives a user command for controlling an activated application.
  • the coordinate converter 142 receives the coordinates of the user command input from the gesture detector 141 and generates a panning or tilting value of the image based on the coordinates. If the user performs a touch on one point to perform a drag of an image, the coordinates of the one point are extracted. When the user drags the image, the coordinates on the drag path are extracted at predetermined intervals or intervals. The coordinate converter 142 may determine the direction and distance in which the drag is performed through the extracted coordinates, and convert the image into a value to be panned or tilted. By panning or tilting an image using the value and displaying the image on the screen unit 11, the image can be panned or tilted according to a user's drag command.
  • the controller 14 may further include a distortion corrector (not shown).
  • the image generated using the fisheye lens provides a wide angle of view, but becomes more distorted due to refraction toward the edge region of the image away from the optical axis. Therefore, the subject near the lens center point is taken extremely large and the surrounding subject is taken very small. In some cases, the distorted image may be used as it is. However, in some fields, it is necessary to correct and use the distorted image.
  • This correction of the original image of the distorted shape formed by the fisheye lens is commonly referred to as 'distortion calibration' or 'dwarp', which is called a fisheye lens depending on the projection method used in the fisheye lens.
  • the original image may be corrected in the above-described manner by software in the distortion correction unit after being transmitted to the monitoring apparatus 1, but recently, a chip for correcting the distortion of the original image is provided inside the fisheye camera 2.
  • the technology to be mounted on was introduced.
  • the original image can be dwarped by the camera 2 as described above, it is not necessary to install software for the dwarf in the monitoring device 1 receiving the image from the camera 2. Therefore, when transmitting images from one camera 2 to several monitoring apparatuses 1, since a dwarf is possible without installing software on all monitoring apparatuses 1, the corrected images can be displayed immediately.
  • FIG. 3 is a view showing a control region 113 displayed on the screen 11 of the monitoring device 1 according to an embodiment of the present invention
  • FIG. 4 is a screen 11 of the monitoring device 1. Is a view showing a state in which the control region 113 according to another embodiment of the present invention is displayed.
  • the main image 112 is displayed through the screen unit 11, and at the same time, the control region 113 is displayed.
  • the main image 112 is preferably a live view, which is an image captured by the camera 2 in real time.
  • the present invention is not limited thereto, and may be a playback (Play Back) that is already taken in the past, stored in the storage unit 13, and then loaded and displayed.
  • the control area 113 is preferably displayed on one side of the screen unit 11. In particular, as shown in FIGS. 3 and 4, the control area 113 is more preferably displayed below the screen unit 11, but is not limited thereto and may be displayed at various positions.
  • the control area 113 corresponds to a panning or tilting area of an image that may be captured by the camera 2 and obtained. If the camera 2 is a pan tilt camera, the control region 113 corresponds to an area where the camera 2 can pan or tilt directly. If the camera 2 is a 360 ° camera or a pan tilt camera can be panned to 360 °, the control area 113 corresponds to the omnidirectional area of the camera 2. On both sides of the control region 113, it is preferable that the minimum and maximum angles of the panning angle range are displayed as shown in FIGS. 3 and 4.
  • a window 114 indicating the region 115 corresponding to the main image 112 is displayed.
  • the window 114 is formed in the form of a single closed curve so as to surround the region 115 corresponding to the main image 112.
  • the shape of the window 114 may be the same as the shape in which the main image 112 is displayed, and as shown in FIGS. 3 and 4, it is preferable to have a rectangular shape.
  • the control region 113 is a panoramic view representing all ranges that the camera 2 can capture as an image.
  • a panoramic view is an image obtained by photographing longer in one direction than a normal image in order to capture many landscapes in one image. If the camera 2 is a 360 ° camera, since the angle of view is very wide, it is possible to take a panoramic view in real time. Therefore, the panoramic view may be another live view different from the live view of the main image 112 displayed on the screen unit 11. In this case, the user may not only monitor in real time by being limited to a specific angle of view through the live view of the main image 112, but also monitor the entire angle of view in real time through the panoramic live view.
  • the panoramic view may be obtained by long synthesizing a plurality of images obtained by the camera 2 by panning or tilting.
  • the panoramic view thus obtained becomes a static picture, not a live view.
  • the user can monitor in real time only through the live view of the main image 112.
  • the panoramic view as a static picture may also allow the user to easily grasp an area desired to pan or tilt the image.
  • the control area 113a scrolls through all ranges that the camera 2 can capture. In form. Even in this case, if the user monitors the main image 112 and inputs a command to the control region 113a, the user may easily pan or tilt the image.
  • the camera 2 is illustrated as being capable of both panning and tilting. However, only one of panning and tilting may be performed according to the function of the camera 2. In addition, although the camera 2 is illustrated as only panning in FIG. 4, both panning and tilting may be possible depending on the function of the camera 2. That is, the control region 113 according to the embodiment of the present invention may vary in various forms depending on whether the camera 2 provides a panning or tilting function.
  • the user may change the magnification of the displayed main image 112 such as zoom in or zoom out.
  • the displayed image is zoomed in.
  • the pinch is one of touch gestures, which means sliding in a direction facing each other while maintaining touch of two fingers on the screen unit 11.
  • the pinch is used to adjust the magnification of the screen displayed on the screen unit 11. If the distance between the two fingers is sliding in a direction closer to each other, the pinch in (Pinch In) or pinch close (Pinch Close), it is preferable that the image is reduced. On the contrary, if the distance between the two fingers is slid away, it is referred to as pinch out or pinch open. In this case, the image is preferably enlarged.
  • the main image 112 when the tab 11 is applied to the main image 112 in the screen unit 11, the main image 112 may be zoomed in.
  • the main image 112 when the double tab is performed, the main image 112 may be zoomed out. In this case, the main image 112 may be zoomed in or zoomed out based on a point where the user performs a tab or double tab.
  • the main image 112 may be zoomed in or zoomed out.
  • the Zoom Out is performed.
  • the Zoom Out is performed. It can be Zoom In.
  • two magnifications, a zoom in magnification and a zoom out magnification are preset.
  • the mouse cursor is moved over the main image 112 using the mouse, and the mouse wheel is scrolled up or down.
  • the main image 112 may be zoomed in or zoomed out.
  • the main image 112 may be zoomed in or zoomed out each time the mouse is clicked. .
  • FIG. 5 is a diagram illustrating a state in which a drag is performed on the main image 112 according to an embodiment of the present invention
  • FIG. 6 is a result of the process performed in FIG. 5, and the main image 112 is panned. It is a diagram showing.
  • Drag is one of touch gestures, which means to drag a specific object from one point to another to move the specific object on the screen.
  • a main video 112 such as live view or playback is displayed.
  • the user touches the main image 112.
  • the main image 112 is pulled from one point to another.
  • the main image 112 is panned or tilted as shown in FIG. 6 and displayed.
  • the window 114 showing the region 115 corresponding to the main image 112 in the control region 113 also moves as shown in FIG. 6. That is, when the main image 112 is panned or tilted and displayed, the window 114 moves to move within the control region 113 to indicate the region 115 corresponding to the panned or tilted main image 112. do.
  • the main image 112 is panned or tilted to display the desired area, the held touch is released. If the single area cannot be panned or tilted to the desired area with a single drag, the above process is repeated. If the user can input a command to the monitoring device 1 through a mouse, when the main image 112 is dragged with a mouse, the main image 112 may be panned or tilted.
  • FIG. 7 is a view showing a drag performed on the window 114 according to an embodiment of the present invention
  • FIG. 8 is a result of performing the drawing in FIG. 7 and shows the main image 112 being panned. The figure shown.
  • the user may pan or tilt the main image 112 even by moving the window 114.
  • the user touches the area 115 in the window 114 to perform a drag as shown in FIG. 7.
  • the area 115 in the window 114 is dragged from one point to another.
  • the window 114 then moves in the control region 113 as shown in FIG. 8.
  • the main image 112 is also panned or tilted as shown in FIG. 6. That is, when the window 114 moves in the control region 113, the main image 112 is panned or tilted and displayed as an image corresponding to the region 115 in the moved window 114.
  • the main image 112 is panned or tilted to display the desired area, the held touch is released. If the single area cannot be panned or tilted to the desired area with a single drag, the above process is repeated. If the user can input a command to the monitoring device 1 through the mouse, the main image 112 may be panned or tilted by dragging the area 115 in the window 114 with the mouse.
  • a tab is one of touch gestures, and means to release a touch immediately after making a short touch on the screen unit 11.
  • FIG. 9 is a diagram illustrating an alarm ringing on the pointer 116 according to an exemplary embodiment of the present invention.
  • the sensor 3 may be installed around the camera 2.
  • the pointer 116 is displayed at a point corresponding to the position where the sensor 3 is installed. It is preferable that the sensor 3 be equipped with a GPS so that the monitoring device 1 can immediately grasp the position of the sensor 3.
  • an event detection signal is generated and transmitted to the monitoring device 1.
  • an alarm sounds at the pointer 116 corresponding to the sensor 3 as shown in FIG. 9.
  • the alarm may be generated by lighting a light of a specific color, for example, a red color, on the pointer 116, or may be generated by repeatedly flashing the light with a certain period.
  • the alarm may include not only an alarm for light but also an alarm for sound, and may cause the monitoring device 1 to vibrate. That is, the alarm may use various methods as long as the user can check whether an event has occurred.
  • the pointer 116 may be always displayed regardless of whether or not an event has occurred, or may be hidden and normally displayed while an alarm occurs when an event occurs. And although the pointer 116 may have the shape of a transparent circle as shown in FIG. 9, if the user can easily grasp the position where the sensor 3 is installed and whether an alarm is generated, the pointer 116 is not limited thereto and may have various shapes and colors. It can have
  • FIG. 10 is a view illustrating an image directed toward a sensor 3 corresponding to the pointer 116 of FIG. 9.
  • the pointer 116 when the sensor 3 detects an event, the pointer 116 generates an alarm.
  • the main image 112 may be automatically panned or tilted to face the sensor 3 that detected the event.
  • the camera 2 is a pan tilt camera, since the camera 2 itself performs panning or tilting, the process of panning or tilting the image is displayed on the screen unit 11 as it is. However, if the camera 2 is a 360 ° camera, the camera 2 has already acquired an image of the omnidirectional. Then, panning or tilting is performed through software installed in the monitoring device 1. Therefore, the process of panning or tilting the image may be omitted, and the image directed toward the sensor 3 may be immediately displayed on the screen unit 11.
  • the user can easily check whether an event has occurred. Furthermore, the main image 112 is automatically panned or tilted to face the sensor 3 that has detected the event, so that the user can easily monitor the content of the event.
  • the window 114 showing the region 115 corresponding to the main image 112 also moves in the control region 113. That is, when the main image 112 is panned or tilted and displayed, the window 114 moves to move within the control region 113 to indicate the region 115 corresponding to the panned or tilted main image 112. do.
  • FIG. 11 is a diagram illustrating how a plurality of pointers 116 are displayed when there are a plurality of sensors 3 according to an embodiment of the present invention.
  • a plurality of sensors 3 may be installed around the camera 2.
  • a plurality of pointers 116 are displayed at points corresponding to the positions where the plurality of sensors 3 are installed, respectively.
  • the number of the sensors 3 and the pointer 116 correspond to each other, the number of the sensors 3 and the number of the pointers 116 are the same. Therefore, since four pointers 116a, 16b, 116c, and 116d are displayed in the control region 113, four sensors 3 are installed in the periphery of the camera 2. However, in the embodiment of the present invention, the number of the sensor 3 and the pointer 116 is not limited and may be formed in various numbers.
  • FIG. 12 is a diagram illustrating a state in which an alarm sounds at the first pointer 116a among the plurality of pointers 116 of FIG. 11, and FIG. 13 is a diagram illustrating a state in which the first pointer 116a of FIG. 12 is selected.
  • FIG. 14 is a diagram illustrating a state in which an image directed toward a first sensor corresponding to the first pointer 116a of FIG. 12 is displayed.
  • the event detection signal is transmitted to the monitoring device 1, and as illustrated in FIG. 12, the first pointer corresponding to the first sensor ( An alarm sounds at 116a).
  • the image may be automatically panned or tilted.
  • the user may directly select the first pointer 116a. Panning or tilting of an image may be automatically performed or may be performed by a user's selection, which may vary according to the user's setting.
  • a tap may be performed on the pointer 116 to select the pointer 116. If a user's command can be input to the monitoring device 1 through a separate input unit such as a mouse, the user may select the pointer 116 by clicking. That is, if the user can select the pointer 116, various methods can be performed without being limited.
  • the main image 112 is panned or tilted toward the first sensor as shown in FIG. 14 automatically or by a user's selection.
  • the window 114 showing the region 115 corresponding to the main image 112 also moves in the control region 113. That is, when the main image 112 is panned or tilted and displayed, the window 114 moves to move within the control region 113 to indicate the region 115 corresponding to the panned or tilted main image 112. do.
  • FIG. 15 is a diagram illustrating a state in which an alarm sounds at the first to third pointers 116a, 116b, and 116c among the plurality of pointers 116 of FIG. 11.
  • the plurality of sensors 3 are installed independently of each other. Thus, a plurality of sensors 3 may simultaneously detect the occurrence of an event.
  • an event detection signal is transmitted to the monitoring device 1, respectively.
  • an alarm sounds at the first to third pointers 116a, 116b, and 116c corresponding to the first to third sensors, respectively.
  • the first to third sensors may detect the events at the same time as the same event occurs, but separate events may occur separately to detect the respective events.
  • 16 to 18 show the first to third images 112a, 112b, and 112c toward the first to third sensors corresponding to the first to third pointers 116a, 116b, and 116c of FIG. 15 in order. It is a figure showing the appearance.
  • the first image 112a facing the position where the first sensor is installed, the second image 112b facing the position where the second sensor is installed, and the third image 112c facing the position where the third sensor is installed are different images.
  • an alarm sounds at the first to third pointers 116a, 116b, and 116c at the same time a plurality of images to be panned or tilted in the main image 112 are provided. Accordingly, there is a need for a method of displaying a plurality of different first to third images 112a, 112b, and 112c on one screen unit 11.
  • the first to third images 112a, 112b, and 112c may sequentially display a so-called sequence view. .
  • the first image 112a is first displayed as the main image 112.
  • the second image 112b is displayed as the main image 112
  • the third image 112c is displayed as the main image 112.
  • the first to third images 112a, 112b and 112c are sequentially switched at predetermined intervals and displayed as the main image 112.
  • the panning or tilting of the image may be performed automatically or may be performed by the user's selection, which may vary according to the user's setting.
  • the user may assign a priority to each of the plurality of sensors 3. For example, the user assigns the priority of the first to fourth sensors, the third sensor to the first rank, the first sensor to the second rank, the fourth sensor to the third rank, and the second sensor to the fourth rank. It was.
  • the first to third sensors detect the event.
  • the third image 112c toward the third sensor having the highest priority among the first to third sensors is displayed as the main image 112 as shown in FIG. 16.
  • the first image 112a facing the second highest priority sensor is displayed as the main image 112 as shown in FIG. 17.
  • the second image 112b directed to the second highest priority sensor is displayed as the main image 112 as shown in FIG. 18.
  • the fourth sensor has a higher priority than the second sensor, since the event is not detected, the fourth image toward the fourth sensor is not displayed.
  • the user may designate importance for each of the plurality of sensors 3. For example, the user has designated the importance level of the first to fourth sensors, the level 2 of the first sensor, the level 5 of the second sensor, the level 4 of the third sensor, and the level 3 of the fourth sensor.
  • the first to third sensors detect the event.
  • the first image 112a is displayed as the main image 112. Since the first sensor has a level of 2, after being displayed for about 2 seconds, the second image 112b is displayed as the main image 112. Since the second sensor has a level of 5, after being displayed for about 5 seconds, the third image 112c is displayed as the main image 112.
  • the third sensor Since the third sensor has a level of 4, after being displayed for about 4 seconds, the first image 112a is displayed again to repeat the above process.
  • the fourth sensor also has a importance level, since the event is not detected, the fourth image directed to the fourth sensor is not displayed.
  • the user may designate the priority for each of the plurality of sensors 3 or may designate the importance. If the user assigns a priority to each of the plurality of sensors 3, the respective images directed to the location where the plurality of sensors 3 are installed are displayed according to the priority designated by the user. When the user designates importance for each of the plurality of sensors 3, the time for displaying each image varies according to the importance of each sensor 3 designated by the user.
  • the window 114 representing the region 115 corresponding to the main image 112 also moves in the control region 113.
  • FIG. 19 is a view illustrating a state in which a thumbnail 117 is generated and an image directed to a position where a sensor 3 corresponding to the first to third pointers 116a, 116b, and 116c of FIG. 15 is installed is simultaneously displayed.
  • the camera 2 is a 360 ° camera, the camera 2 is already acquiring an image for all directions. Then, panning or tilting is performed through software installed in the monitoring device 1. Therefore, even if the plurality of sensors 3 simultaneously detect the occurrence of an event, as described in the description of FIGS. 16 to 18, the plurality of images may not necessarily be displayed in order. That is, a plurality of images may be simultaneously displayed on one screen unit 11.
  • the camera 2 is a 360 ° camera, and has already obtained an image of the omnidirectional.
  • the monitoring device 1 may display a thumbnail 117 including divided images so as to correspond to the number of sensors 3 that detect the event occurrence. Generated automatically.
  • the monitoring device 1 displays a plurality of images respectively directed to the sensors 3 that detect the occurrence of the event in each of the divided images.
  • the monitoring apparatus 1 automatically generates a thumbnail 117 including three divided images so that three images can be displayed simultaneously. In each of the divided images, the first to third images 112a, 112b, and 112c are respectively displayed. If the image to be displayed is four images, a thumbnail 117 including four divided images is generated. If the image to be displayed is six images, a thumbnail 117 including six divided images is generated.
  • the user may assign a priority to the plurality of sensors 3. For example, the user assigns the priority of the first to fourth sensors, the third sensor to the first rank, the first sensor to the second rank, the fourth sensor to the third rank, and the second sensor to the fourth rank. It was.
  • the first to third sensors detect the event.
  • the third image 112c toward the third sensor having the highest priority among the first to third sensors has the largest size among the plurality of divided images, as shown in FIG. 19, and the first divided image 117a. Is displayed.
  • the fourth sensor has a higher priority than the second sensor, since the event is not detected, the fourth image toward the fourth sensor is not displayed.
  • the number of split images is automatically determined corresponding to the number of images to be displayed.
  • the size and arrangement of the divided images are automatically determined as preset.
  • the priority of each image is designated, the divided image to be displayed for each image is determined.
  • the higher the priority of the plurality of images the larger the divided image is displayed.
  • the size of the divided image is the same, it is described that the higher the priority is displayed on the divided image disposed above.
  • the thumbnail 117 may have a number, size, and arrangement of various divided images, and a plurality of images corresponding to the plurality of sensors 3 may be displayed on the various divided images, respectively.
  • the plurality of images may be displayed at the same time.
  • the plurality of windows 114a, 114b, and 114c representing the regions 115a, 115b, and 115c corresponding to the plurality of images in the control region 113 are displayed.
  • the third image 112c displayed in the first segmented image 117a corresponds to the region 115c surrounded by the third window 114c in the control region 113.
  • the first image 112a displayed on the second divided image 117b corresponds to the area 115a surrounded by the first window 114a in the control area 113.
  • the second image 112b displayed in the third segmented image 117c corresponds to the region 115a surrounded by the second window 114b in the control region 113.
  • a plurality of divided images are also formed, and a plurality of windows are also formed, so that a user cannot easily match each image with a window.
  • the border of the first divided image 117a and the color of the third window 114c are the same, the border of the second divided image 117b and the color of the first window 114a are the same, and the third color is the same. It is preferable that the border of the divided image 117c and the color of the second window 114b are the same.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Alarm Systems (AREA)

Abstract

상기 과제를 해결하기 위한 본 발명의 실시예에 따른 모니터링 장치는 카메라가 획득한 영상 데이터 및 센서가 생성한 신호를 전송받는 통신부; 상기 영상 데이터 및 상기 신호에 대한 정보를 저장하는 저장부; 상기 전송받은 영상을 디스플레이 하는 화면부; 및 상기 통신부, 상기 저장부 및 상기 화면부의 동작을 제어하는 제어부를 포함하되, 상기 화면부는, 디스플레이 되는 상기 영상의 주변에, 상기 영상을 패닝 또는 틸팅할 수 있는 컨트롤 영역을 표시하고, 상기 컨트롤 영역에, 상기 센서가 설치된 위치를 나타내는 포인터를 표시하며, 상기 센서가 이벤트를 감지하면, 상기 이벤트를 감지한 상기 센서와 대응되는 상기 포인터에 알람을 울리고, 상기 이벤트를 감지한 상기 센서를 향하는 상기 영상을 디스플레이 한다.

Description

모니터링 장치 및 시스템
본 발명은 모니터링 장치 및 시스템에 관한 것으로서, 보다 상세하게는 간단한 조작만으로 용이하게 영상을 패닝 또는 틸팅할 수 있으며, 이벤트의 발생을 감지하는 센서와 연동하여 이벤트가 발생하면 직관적으로 발생 여부와 그 내용을 파악할 수 있는 모니터링 장치 및 시스템에 관한 것이다.
일반적으로 은행, 백화점, 일반 주택가를 비롯한 다양한 장소에서 감시 시스템이 널리 사용되고 있다. 이러한 감시 시스템은 범죄 예방, 보안을 목적으로 사용될 수 있으나, 최근에는 실내의 애완동물 또는 어린 아이를 실시간으로 감시하기 위해서도 사용되기도 한다. 그리고 이러한 감시 시스템으로 가장 많이 사용하는 시스템은, 감시를 원하는 영역을 촬영할 수 있도록 적절한 위치에 카메라를 설치하고, 사용자는 카메라가 촬영한 영상을 모니터링 함으로써 감시할 수 있는 폐쇄회로 텔레비전(Closed Circuit Television: CCTV) 시스템이다.
그러나 일반적인 전방 카메라의 경우에는 화각의 범위가 제한되어 있어, 감시를 하려는 대상이 이동을 하여 화각을 벗어나면 감시 대상을 놓치기 쉽다. 따라서 영상의 팬, 틸트, 줌(Pan, Tilt, Zoom: PTZ) 기능이 필수적이다. 최근에는 이러한 팬, 틸트, 줌 기능을 용이하게 수행할 수 있는 사용자 편의를 위한 UI/UX의 개발에 사람들의 관심이 증가하고 있다. 그리고 최근에 카메라의 패닝 또는 틸팅 가능한 각도 범위가 증가하고, 특히 어안 카메라나 360°카메라와 같이 매우 넓은 화각의 영상을 촬영할 수 있는 카메라도 많이 개발되고 있다.
그러나, 종래에는 카메라의 주변에서 이벤트가 발생하면, 영상을 통해 사용자가 직접 모니터링을 하여야 이벤트 발생 여부 및 이벤트 내용을 파악할 수 있었다. 따라서, 사용자가 이벤트가 발생하더라도 그 사실을 직관적으로 알 수 없어 문제가 되었다.
최근에는 이벤트가 발생하면, 카메라의 영상을 모니터링 할 수 있는 모니터링 장치에서 알람이 울리도록 하는 기술이 소개되기도 하였다. 그러나, 이는 단순히 이벤트의 발생 여부만을 파악할 수 있었고, 이벤트 발생 위치 및 이벤트 내용을 자세히 알 수가 없었다.
그리고, 종래에는 카메라가 획득한 영상을 패닝 또는 틸팅하기 위해, 상, 하, 좌, 우의 방향키를 마련하여, 사용자가 이러한 방향키를 조작함으로써 영상을 패닝 또는 틸팅하였다. 이러한 방향키를 사용하면, 넓은 각도를 한번에 패닝 또는 틸팅하기 위해 많은 시간이 소요되었다.
본 발명이 해결하고자 하는 과제는, 간단한 조작만으로 용이하게 영상을 패닝 또는 틸팅할 수 있으며, 이벤트의 발생을 감지하는 센서와 연동하여 이벤트가 발생하면 직관적으로 발생 여부와 그 내용을 파악할 수 있는 모니터링 장치 및 시스템을 제공하는 것이다.
본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 해결하기 위한 본 발명의 실시예에 따른 모니터링 장치는 카메라가 획득한 영상 데이터 및 센서가 생성한 신호를 전송받는 통신부; 상기 영상 데이터 및 상기 신호에 대한 정보를 저장하는 저장부; 상기 전송받은 영상을 디스플레이 하는 화면부; 및 상기 통신부, 상기 저장부 및 상기 화면부의 동작을 제어하는 제어부를 포함하되, 상기 화면부는, 디스플레이 되는 상기 영상의 주변에, 상기 영상을 패닝 또는 틸팅할 수 있는 컨트롤 영역을 표시하고, 상기 컨트롤 영역에, 상기 센서가 설치된 위치를 나타내는 포인터를 표시하며, 상기 센서가 이벤트를 감지하면, 상기 이벤트를 감지한 상기 센서와 대응되는 상기 포인터에 알람을 울리고, 상기 이벤트를 감지한 상기 센서를 향하는 상기 영상을 디스플레이 한다.
상기 과제를 해결하기 위한 본 발명의 실시예에 따른 모니터링 시스템은 특정 영역을 촬영하여 영상을 획득하는 카메라; 이벤트가 발생하면 상기 이벤트를 감지하고 신호를 생성하는 센서; 상기 카메라가 획득한 영상을 디스플레이 하고, 상기 센서로부터 신호를 수신하여 이벤트 발생 여부를 표시하는 모니터링 장치를 포함하고, 상기 모니터링 장치는, 상기 카메라가 획득한 상기 영상 데이터 및 상기 센서가 생성한 상기 신호를 전송받는 통신부; 상기 영상 데이터 및 상기 신호에 대한 정보를 저장하는 저장부; 상기 전송받은 영상을 디스플레이 하는 화면부; 및 상기 통신부, 상기 저장부 및 상기 화면부의 동작을 제어하는 제어부를 포함하되, 상기 화면부는, 디스플레이 되는 상기 메인 영상의 주변에, 상기 메인 영상을 패닝 또는 틸팅할 수 있는 컨트롤 영역을 표시하고, 상기 컨트롤 영역에, 상기 센서가 설치된 위치를 나타내는 포인터를 표시하며, 상기 센서가 이벤트를 감지하면, 상기 이벤트를 감지한 상기 센서와 대응되는 상기 포인터에 알람을 울리고, 상기 이벤트를 감지한 상기 센서를 향해 상기 메인 영상을 패닝 또는 틸팅하여 디스플레이 한다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 실시예들에 의하면 적어도 다음과 같은 효과가 있다.
모니터링 장치에 컨트롤 영역이 마련되어, 사용자가 영상의 패닝 또는 틸팅을 용이하게 할 수 있다.
또한, 이벤트가 발생하면 알람이 울려 사용자가 그 발생 사실을 용이하게 알 수 있고, 이벤트가 발생한 영역에 대한 영상을 사용자가 용이하게 모니터링 할 수 있다.
또한, 복수의 영상이 동시에 디스플레이 되는 경우, 자동으로 개수를 조절하는 섬네일이 생성되어, 복수의 영상이 개수에 상관없이 디스플레이 될 수 있다.
본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.
도 1은 본 발명의 일 실시예에 따른 모니터링 시스템의 구성을 나타낸 블록도이다.
도 2는 도 1의 모니터링 장치(1)의 사시도이다.
도 3은 모니터링 장치(1)의 화면부(11)에 본 발명의 일 실시예에 따른 컨트롤 영역(113)이 표시된 모습을 나타낸 도면이다.
도 4는 모니터링 장치(1)의 화면부(11)에 본 발명의 다른 실시예에 따른 컨트롤 영역(113)이 표시된 모습을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 메인 영상(112)에 드래그(Drag)를 수행하는 모습을 나타낸 도면이다.
도 6은 도 5에서 수행된 결과로서, 메인 영상(112)이 패닝된 모습을 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 따른 윈도우(114)에 드래그(Drag)를 수행하는 모습을 나타낸 도면이다.
도 8은 도 7에서 수행된 결과로서, 메인 영상(112)이 패닝된 모습을 나타낸 도면이다.
도 9는 본 발명의 일 실시예에 따른 포인터(116)에 알람이 울리는 모습을 나타낸 도면이다.
도 10은 도 9의 포인터(116)에 대응되는 센서(3)를 향하는 영상이 디스플레이 되는 모습을 나타낸 도면이다.
도 11은 본 발명의 일 실시예에 따른 센서(3)가 복수인 경우, 포인터(116)도 복수로 표시되는 모습을 나타낸 도면이다.
도 12는 도 11의 복수의 포인터(116) 가운데, 제1 포인터(116a)에 알람이 울리는 모습을 나타낸 도면이다.
도 13은 도 12의 제1 포인터(116a)가 선택되는 모습을 나타낸 도면이다.
도 14는 도 12의 제1 포인터(116a)에 대응되는 제1 센서를 향하는 영상이 디스플레이 되는 모습을 나타낸 도면이다.
도 15는 도 11의 복수의 포인터(116) 가운데, 제1 내지 제3 포인터(116a, 116b, 116c)에 알람이 동시에 울리는 모습을 나타낸 도면이다.
도 16 내지 도 18은 도 15의 제1 내지 제3 포인터(116a, 116b, 116c)에 대응되는 제1 내지 제3 센서들을 향하는 제1 내지 제3 영상(112a, 112b, 112c)들이 순서대로 디스플레이 되는 모습을 나타낸 도면이다.
도 19는 섬네일(117)이 생성되어, 도 15의 제1 내지 제3 포인터(116a, 116b, 116c)에 대응되는 센서(3)가 설치된 위치를 향하는 영상이 동시에 디스플레이 되는 모습을 나타낸 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 모니터링 시스템의 구성을 나타낸 블록도이고, 도 2는 도 1의 모니터링 장치(1)의 사시도이다.
본 발명의 일 실시예에 따른 모니터링 시스템을 이용하는 방법에 따르면, 모니터링 장치(1)의 화면부(11)에 컨트롤 영역(113)이 표시된다. 사용자는 컨트롤 영역(113)을 통해 화면부(11)에서 디스플레이 되는 메인 영상(112)을 패닝(Panning) 또는 틸팅(Tilting)할 수 있다. 이 때, 컨트롤 영역(113)에는 센서(3)에 대응되는 포인터(116)가 표시된다. 센서(3)가 이벤트의 발생을 감지하면, 이벤트 감지 신호를 송신하고, 모니터링 장치(1)는 이벤트 감지 신호를 수신하여, 상기 센서(3)에 대응되는 포인터(116)에 알람을 울리게 된다. 컨트롤 영역(113)에 표시된 포인터(116)에서 알람이 울림으로써, 사용자는 이벤트 발생 여부를 확인할 수 있고, 나아가 용이하게 이벤트를 모니터링 할 수도 있다.
본 발명의 일 실시예에 따른 모니터링 시스템은, 특정 영역을 촬영하여 영상을 획득하는 카메라(2), 이벤트의 발생을 감지하면 신호를 송신하는 센서(3), 카메라(2)가 획득한 영상을 전송받아 디스플레이 하고, 센서(3)로부터 송신된 신호를 수신하는 모니터링 장치(1)를 포함한다. 카메라(2) 또는 센서(3)와 모니터링 장치(1)는 서로 유선 또는 무선으로 연결되어, 영상 데이터 또는 신호를 송수신할 수 있다.
본 발명의 일 실시예에 따른 카메라(2)는 패닝(Panning), 틸팅(Tilting)이 가능한 팬틸트 카메라인 것이 바람직하며, 특히 360°로 패닝이 가능하여 전, 후, 좌, 우 방향으로 모두 촬영이 가능한 카메라(2)인 것이 바람직하다. 또는, 카메라(2)는 최근에 소개된 360°카메라일 수도 있다. 360°카메라란, 카메라(2) 자체가 물리적인 패닝 또는 틸팅이 되지 않고, 어안 렌즈를 복수로 장착하여 전방위가 동시에 촬영이 가능한 카메라(2)를 말한다. 이러한 경우에는, 360°카메라가 획득한 영상은, 모니터링 장치(1) 내에 설치된 소프트웨어를 통해 패닝 또는 틸팅된다. 본 발명의 일 실시예에 따른 카메라(2)는 이에 제한되지 않고, 복수의 영역을 향해 촬영이 가능하다면 다양한 카메라(2)를 사용할 수 있다.
본 발명의 일 실시예에 따른 센서(3)는 이벤트를 감지할 수 있다. 예를 들면, 화재 발생을 감지하는 화재 감지 센서, 연기 발생을 감지하는 연기 감지 센서, 사람 또는 동물의 출몰을 감지하는 열 감지 또는 적외선 감지 센서 등이 있다. 센서(3)는 이에 제한되지 않고, 어떠한 종류의 이벤트가 발생하더라도 이를 감지할 수 있다면, 다양한 종류의 센서(3)가 사용될 수 있다.
본 발명의 일 실시예에 따른 모니터링 장치(1)는 카메라(2)가 획득한 영상을 전송받아 디스플레이한다. 그리고, 센서(3)로부터 송신된 신호를 수신하여, 알람을 울리게 된다. 모니터링 장치(1)는 스마트폰(Smartphone), 태블릿 PC(Tablet PC), 랩탑(Laptop) 등 터치 기능을 제공하는 장치인 것이 바람직하나, 이에 제한되지 않고 마우스 등 통해 사용자 명령을 입력하는 장치일 수도 있다. 이하 모니터링 장치(1)는 터치 기능을 제공하는 장치인 것으로 설명한다. 그러나 이는 설명의 편의를 위한 것이며, 권리범위를 제한하기 위함이 아니다.
사용자는 모니터링 장치(1)에 다양한 어플리케이션을 설치 및 삭제할 수 있다. 이 가운데, 카메라 제어 어플리케이션을 실행하고, 터치 또는 마우스 등의 입력 방법을 통해 영상의 패닝 또는 틸팅을 제어하는 신호를 생성할 수 있다. 만약, 카메라(2) 자체가 물리적인 패닝 또는 틸팅을 수행함으로써 영상이 패닝 또는 틸팅 될 수 있다면, 상기 제어 신호는 카메라(2)로 전송된다. 그러나, 카메라(2)가 360°카메라인 경우에는, 상기 제어 신호는 모니터링 장치(1) 내에 설치된 소프트웨어를 통해 영상을 패닝 또는 틸팅시킨다.
도 1에 도시된 바와 같이, 모니터링 장치(1)는 본체(10), 영상을 디스플레이 하는 화면부(11), 카메라(2)로부터 영상을 전송받는 통신부(12), 상기 영상을 저장하는 저장부(13), 타 구성요소들을 제어하는 제어부(14)를 포함한다.
화면부(11)는 카메라(2)로부터 전송된 메인 영상(112)을 디스플레이 한다. 상기 기술한 바와 같이, 화면부(11)는 메인 영상(112)의 일측에 컨트롤 영역(113)을 표시할 수도 있다. 그리고, 컨트롤 영역(113)에는, 센서(3)가 이벤트의 발생을 감지하면, 상기 센서(3)에 대응되어 알람을 울리는 포인터(116)가 표시된다.
만약, 모니터링 장치(1)가 터치 기능을 제공하지 않는다면, 입력부가 별도로 마련된다. 일반적으로 가장 많이 사용되는 입력부로는 마우스, 키보드, 조이스틱, 리모콘 등이 있다. 그러나 만약 모니터링 장치(1)가 터치 기능을 제공한다면, 화면부(11)는 터치 센서(111)를 포함할 수 있다. 이 경우에는 사용자가 화면부(11)를 통해 직접 터치 신호를 입력할 수 있다. 터치 센서(111)는 화면부(11)와 함께 일체로 장착될 수 있으며, 화면부(11)에서 발생되는 터치를 감지하여 터치가 발생된 영역의 좌표, 터치의 횟수 및 세기 등을 검출하고, 상기 검출된 결과를 제어부(14)에 전달한다. 터치 센서(111)가 터치를 감지하는 방식에 따라, 정전 용량 방식, 전기저항막 방식, 초음파 방식, 적외선 방식 등 다양한 방식이 사용될 수 있다. 그리고 터치는 손가락을 이용하여 수행될 수도 있으나, 이에 제한되지 않고, 미세 전류가 흐를 수 있는 팁이 장착된 스타일러스 펜 등을 이용하여 수행될 수도 있다. 모니터링 장치(1)가 터치 기능을 제공하더라도, 화면부(11)가 터치 센서(111)를 포함하지 않는다면 별도의 터치 패드가 입력부로써 마련될 수도 있다.
통신부(12)는 카메라(2) 및 센서(3)와 유무선으로 신호 및 데이터를 송수신한다. 예를 들어, 상기 통신부(12)는 상기 제어부(14)로부터의 신호 및 데이터를 변조 및 주파수 업컨버팅하여 송신하거나, 카메라(2) 및 센서(3)로부터 수신되는 신호 및 데이터를 주파수 다운컨버팅 및 복조하여 제어부(14)로 제공한다. 이러한 과정으로, 통신부(12)는 카메라(2)로부터 영상데이터를 전송받거나 센서(3)의 신호를 수신할 수 있고, 제어부(14)로부터 생성된 데이터 또는 신호를 카메라(2) 또는 센서(3)로 송신할 수도 있다.
저장부(13)는 모니터링 장치(1)의 동작들을 처리 및 제어하기 위한 프로그램과 각 프로그램 수행 중에 발생되는 각종 데이터, 그리고 카메라(2)를 통해 전송된 영상 데이터 및 센서(3)를 통해 수신된 신호 등을 저장한다. 저장부(13)는 모니터링 장치(1)에 내장될 수도 있으나, 네트워크 카메라(2) 시스템의 경우에는 NVR(Network Video Recorder) 등과 같이 별도의 장치가 마련될 수도 있다.
제어부(14)는 모니터링 장치(1)의 전반적인 동작을 제어한다. 예를 들어, 제어부(14)는 통신부(12)와 카메라(2) 또는 센서(3)의 신호 및 데이터 통신을 위한 처리 및 제어를 수행하고, 통신부(12)를 통해 영상이 전송되면 디코딩 및 렌더링 등 영상 처리를 수행한다. 또한, 사용자의 명령이 입력되면 이를 처리하여 화면부(11)가 컨트롤 영역(113)을 표시하거나 포인터(116)에서 알람을 발생하도록 제어하며, 저장부(13)에 영상을 저장시키고, 저장된 영상을 로딩하도록 제어한다. 본 발명의 일 실시예에 따른 제어부(14)로는 CPU(Central Processing Unit), MCU(Micro Controller Unit) 또는 DSP(Digital Signal Processor) 등을 사용하는 것이 바람직하나, 이에 제한되지 않고 다양한 논리 연산 프로세서가 사용될 수 있다.
제어부(14)는 제스처 검출부(141), 좌표 변환부(142)를 포함한다. 제스처 검출부(141)는 터치 센서(111)로부터 터치 제스처를 검출한다. 터치 제스처는, 터치 센서(111)로부터 발생한 모든 터치 동작들을 포함한다. 만약, 모니터링 장치(1)가 터치 기능을 제공하지 않는다면, 마우스 등의 입력부를 통해 입력한 사용자 명령을 검출한다. 제스처 검출부(141)는 터치 센서(111)를 관리하며, 사용자가 어플리케이션에서 터치 제스처의 사용을 용이하게 하는 응용 프로그램 인터페이스(Application Program Interface, API)를 포함한다. API는 응용 프로그램에서 사용할 수 있도록 운영 체제나 프로그래밍 언어가 제공하는 기능을 제어하는 인터페이스를 말한다. 제스처 검출부(141)는 API를 통해, 카메라 제어 어플리케이션을 실행하기 위한 사용자 명령을 입력 받고, 활성화된 어플리케이션의 제어를 위한 사용자 명령을 입력 받는다.
좌표 변환부(142)는 제스처 검출부(141)로부터 사용자 명령이 입력된 좌표를 전달받고, 이를 기초로 영상의 패닝 또는 틸팅 값을 생성한다. 사용자가 영상의 드래그(Drag)를 수행하기 위해 일 지점에 터치(Touch)를 수행한다면, 일 지점에 대한 좌표가 추출된다. 그리고 사용자가 영상에 드래그(Drag)를 수행하면, 드래그 경로 상의 좌표를 일정 주기 또는 간격마다 추출한다. 좌표 변환부(142)는 상기 추출한 좌표들을 통해 드래그가 수행되는 방향 및 거리를 파악할 수 있으며, 이를 영상이 패닝 또는 틸팅되어야 할 값으로 변환한다. 상기 값을 이용하여 영상을 패닝 또는 틸팅시켜, 화면부(11)를 통해 디스플레이 함으로써, 사용자의 드래그 명령대로 영상이 패닝 또는 틸팅될 수 있다.
만약, 카메라(2)가 360°카메라라면, 어안 렌즈를 사용하기 때문에 이를 통해 획득한 영상은 왜곡이 발생할 수 있다. 따라서, 제어부(14)는 왜곡 보정부(미도시)를 더 포함할 수 있다. 어안 렌즈를 사용하여 생성되는 영상은 넓은 화각을 제공해 주는 대신에 광축으로부터 멀어지는 영상의 가장자리 영역으로 갈수록 굴절에 의한 왜곡이 심해진다. 따라서 렌즈 중심점 부근의 피사체는 극단적으로 크게 찍히고 주변의 피사체는 아주 작게 찍히는 현상이 나타내게 된다. 이러한 왜곡된 형태의 영상을 그대로 사용해도 무방한 경우가 있지만 특정 분야에서는 왜곡된 영상을 보정해서 사용해야 할 필요성이 있는 경우도 많다. 이와 같이 어안 렌즈에 의해 형성된 왜곡된 형태의 원본 영상을 보정하는 것을 보통 '왜곡 보정(Distortion Calibration)' 또는 '드워프(Dewarp)'라고 하며, 이러한 드워프는 어안 렌즈에서 사용되는 투사 방식에 따라 어안 렌즈의 초점 거리나 광중심 위치 등과 같은 파라미터(parameter)를 이용하여 적절한 수식을 통해 이루어지게 된다.
이러한 원본 영상은 모니터링 장치(1)에 전송된 후 왜곡 보정부에서 소프트웨어를 통해 상기의 방법으로 보정될 수도 있으나, 최근에는 원본 영상의 왜곡을 보정하는 칩(Chip)이 어안 카메라(2)의 내부에 장착되는 기술이 소개되었다. 상기와 같이 원본 영상을 카메라(2) 자체적으로 드워프할 수 있게 되면, 카메라(2)로부터 영상을 전송받는 모니터링 장치(1)에 드워프를 위한 소프트웨어를 설치할 필요가 없다. 따라서 하나의 카메라(2)에서 여러 모니터링 장치(1)에 영상을 전송할 때에는, 모든 모니터링 장치(1)에 소프트웨어를 설치하지 않아도 드워프가 가능하므로 보정 영상을 곧바로 디스플레이 할 수 있다.
도 3은 모니터링 장치(1)의 화면부(11)에 본 발명의 일 실시예에 따른 컨트롤 영역(113)이 표시된 모습을 나타낸 도면이고, 도 4는 모니터링 장치(1)의 화면부(11)에 본 발명의 다른 실시예에 따른 컨트롤 영역(113)이 표시된 모습을 나타낸 도면이다.
본 발명의 일 실시예에 따른 모니터링 장치(1)를 실행하면, 메인 영상(112)이 화면부(11)를 통해 디스플레이 되고, 이와 동시에 컨트롤 영역(113)이 표시된다. 메인 영상(112)은 카메라(2)가 실시간으로 촬영하여 획득한 영상인 라이브 뷰(Live View)인 것이 바람직하다. 그러나 이에 제한되지 않고, 이미 과거에 촬영하여 저장부(13)에 저장된 후 로딩되어 디스플레이 되는 플레이백(Play Back)일 수도 있다. 컨트롤 영역(113)은 화면부(11)의 일측에 표시되는 것이 바람직하다. 특히, 도 3 및 도 4에 도시된 바와 같이, 컨트롤 영역(113)은 화면부(11)의 하방에 표시되는 것이 더욱 바람직하나, 이에 제한되지 않고 다양한 위치에서 표시될 수 있다.
컨트롤 영역(113)은, 카메라(2)가 촬영하여 획득할 수 있는 영상의 패닝 또는 틸팅 가능 영역과 대응된다. 만약, 카메라(2)가 팬틸트 카메라라면, 컨트롤 영역(113)은 카메라(2)가 직접 패닝 또는 틸팅할 수 있는 영역과 대응된다. 그리고 만약, 카메라(2)가 360°카메라거나, 팬틸트 카메라라도 360°로 패닝이 가능하다면, 컨트롤 영역(113)은 카메라(2)의 전방위 영역와 대응된다. 컨트롤 영역(113)의 양 측에는, 도 3 및 도 4에 도시된 바와 같이 패닝 각도 범위의 최소 및 최대 각도가 표시되는 것이 바람직하다.
한편, 컨트롤 영역(113)에는 메인 영상(112)과 대응되는 영역(115)을 나타내는 윈도우(114)가 표시된다. 윈도우(114)는, 메인 영상(112)과 대응되는 영역(115)을 둘러싸도록 단일폐곡선의 형태로 형성된다. 그리고, 윈도우(114)의 모양은 메인 영상(112)이 디스플레이 되는 모양과 동일할 수 있으며, 도 3 및 도 4에 도시된 바와 같이, 사각형의 모양을 가지는 것이 바람직하다.
본 발명의 일 실시예에 따른 컨트롤 영역(113)은, 도 3에 도시된 바와 같이, 카메라(2)가 촬영할 수 있는 모든 범위를 영상으로 나타내는 파노라마 뷰이다. 파노라마 뷰란, 하나의 영상 속에 많은 풍경을 담아내기 위해, 일반 영상보다 일 방향으로 길게 촬영하여 획득한 영상이다. 만약, 카메라(2)가 360°카메라라면 화각이 매우 넓으므로, 파노라마 뷰를 실시간으로 촬영하는 것이 가능하다. 따라서 파노라마 뷰는, 화면부(11)에서 디스플레이 되는 메인 영상(112)의 라이브 뷰와 다른, 또 하나의 라이브 뷰(Live View)가 될 수 있다. 이 경우에 사용자는 메인 영상(112)의 라이브 뷰를 통해 특정 화각에 한정되어 실시간으로 모니터링 하는 것뿐만 아니라, 파노라마 라이브 뷰를 통해 전체 화각에 대하여 실시간으로 모니터링을 할 수 있다.
만약, 카메라(2)가 팬틸트 카메라라면, 파노라마 뷰를 실시간으로 촬영하는 것이 용이하지 않다. 따라서, 파노라마 뷰는 카메라(2)가 패닝 또는 틸팅을 하여 획득한 복수의 이미지를 길게 합성함으로써 획득할 수 있다. 그리고, 이렇게 획득한 파노라마 뷰는, 라이브 뷰가 아니라 정적인 사진이 된다. 이 경우에 사용자는 오직 메인 영상(112)의 라이브 뷰를 통해서만 실시간으로 모니터링 할 수 있다. 다만, 정적인 사진으로서의 파노라마 뷰도, 사용자가 영상을 패닝 또는 틸팅하기 원하는 영역을 용이하게 파악하도록 할 수 있다.
카메라(2)가 파노라마 뷰 촬영 기능을 제공하지 않는다면, 본 발명의 다른 실시예에 따른 컨트롤 영역(113a)은, 도 4에 도시된 바와 같이, 카메라(2)가 촬영할 수 있는 모든 범위를 스크롤 바 형태로 나타낸다. 이 경우에도, 사용자는 메인 영상(112)을 모니터링하며 컨트롤 영역(113a)으로 명령을 입력한다면, 영상의 패닝 또는 틸팅을 용이하게 수행할 수 있다.
도 3에서는 카메라(2)가 패닝과 틸팅이 모두 가능한 것으로 도시되어 있으나, 카메라(2)의 기능에 따라서 패닝 또는 틸팅 가운데 어느 하나만이 가능할 수도 있다. 또한, 도 4에서는, 카메라(2)가 패닝만이 가능한 것으로 도시되어 있으나, 카메라(2)의 기능에 따라서 패닝과 틸팅이 모두 가능할 수도 있다. 즉, 본 발명의 실시예에 따른 컨트롤 영역(113)은, 카메라(2)의 패닝 또는 틸팅 기능 제공 여부에 따라, 다양한 형태로 변할 수 있다.
한편, 도면에 도시되지는 않았으나, 사용자는 디스플레이 되는 메인 영상(112)을 줌 인(Zoom In) 또는 줌 아웃(Zoom Out) 과 같이 배율 변경할 수 있다. 사용자가 두 손가락을 사용하여, 메인 영상(112)에 핀치 아웃(Pinch Out)을 수행하면, 디스플레이 되는 영상이 줌 인(Zoom In) 되고, 핀치 인(Pinch In)을 수행하면, 디스플레이 되는 영상이 줌 아웃(Zoom Out) 될 수 있다. 여기서 핀치(Pinch)란, 터치 제스처 중 하나로서, 화면부(11)에 두 손가락의 터치를 유지한 상태에서, 서로 대향하는 방향으로 슬라이딩을 하는 것을 말한다. 일반적으로 핀치는 화면부(11)에 디스플레이 되는 화면의 배율을 조정하기 위해 사용한다. 만약 두 손가락의 거리가 가까워지는 방향으로 슬라이딩된다면, 핀치 인(Pinch In) 또는 핀치 클로즈(Pinch Close)라 하고, 이 때에는 영상이 축소되는 것이 바람직하다. 반대로 두 손가락의 거리가 멀어지는 방향으로 슬라이딩된다면, 핀치 아웃(Pinch Out) 또는 핀치 오픈(Pinch Open)이라 하고, 이 때에는 영상이 확대되는 것이 바람직하다.
또는, 화면부(11)에서 메인 영상(112)에 탭(Tab)을 수행하면 메인 영상(112)이 줌 인(Zoom In) 될 수 있다. 그리고 더블 탭(Double Tab)을 수행하면 메인 영상(112)이 줌 아웃(Zoom Out) 될 수 있다. 이 때, 사용자가 탭(Tab) 또는 더블 탭(Double Tab)을 수행한 지점을 기준으로 메인 영상(112)이 줌 인(Zoom In) 또는 줌 아웃(Zoom Out) 되는 것이 바람직하다.
또는, 사용자가 화면부(11)에서 메인 영상(112)에 더블 탭(Double Tab)을 수행하면 메인 영상(112)이 줌 인(Zoom In) 또는 줌 아웃(Zoom Out) 될 수 있다. 이 경우, 줌 인(Zoom In)이 된 영상에 더블 탭(Double Tab)을 수행하면 줌 아웃(Zoom Out)이 되고, 줌 아웃(Zoom Out)이 된 영상에 더블 탭(Double Tab)을 수행하면 줌 인(Zoom In)이 될 수 있다. 이 때, 배율의 변경은 단계적으로 되지 않으므로, 줌 인(Zoom In) 배율과 과 줌 아웃(Zoom Out) 배율의 두 가지 배율이 미리 설정되어 있다.
사용자가 모니터링 장치(1)에 마우스를 통해 명령을 입력할 수 있다면, 마우스를 이용하여 마우스 커서를 메인 영상(112)에 마우스 오버(Mouse Over)하고, 마우스 휠을 상방 또는 하방으로 스크롤(Scroll)하여 메인 영상(112)을 줌 인(Zoom In) 하거나 줌 아웃(Zoom Out) 할 수도 있다. 또는, 별도의 여러 메뉴들이 마련되고 이들 가운데 확대 또는 축소 메뉴를 선택하면, 마우스를 클릭(Click)할 때마다 메인 영상(112)을 줌 인(Zoom In)하거나 줌 아웃(Zoom Out) 할 수도 있다.
도 5는 본 발명의 일 실시예에 따른 메인 영상(112)에 드래그(Drag)를 수행하는 모습을 나타낸 도면이고, 도 6은 도 5에서 수행된 결과로서, 메인 영상(112)이 패닝된 모습을 나타낸 도면이다.
드래그(Drag)란, 터치 제스처 중 하나로서, 화면 상에서 특정 오브젝트를 이동시키기 위해, 일 지점으로부터 타 지점까지 상기 특정 오브젝트를 끌어오는 것을 말한다.
모니터링 장치(1)의 화면부(11)에서는, 라이브 뷰 또는 플레이백 등의 메인 영상(112)이 디스플레이 된다. 이 때, 도 5에 도시된 바와 같이 드래그(Drag)를 수행하기 위해, 사용자는 메인 영상(112)을 터치(Touch)한다. 그리고 메인 영상(112)을 일 지점으로부터 타 지점까지 끌어온다. 그러면 메인 영상(112)이 도 6에 도시된 바와 같이 패닝 또는 틸팅되어 디스플레이 된다. 이 때, 메인 영상(112)을 끌기 위해서, 사용자는 터치를 계속 유지하여야 한다. 이와 동시에, 컨트롤 영역(113)에서 메인 영상(112)과 대응되는 영역(115)을 나타내는 윈도우(114)도, 도 6에 도시된 바와 같이 이동한다. 즉, 메인 영상(112)이 패닝 또는 틸팅되어 디스플레이 되면, 패닝 또는 틸팅된 메인 영상(112)과 대응되는 영역(115)을 나타내기 위해, 윈도우(114)는 컨트롤 영역(113) 내에서 이동하게 된다.
메인 영상(112)이 원하는 영역을 디스플레이 하도록 패닝 또는 틸팅되었다면, 유지하던 터치를 해제한다. 한 번의 드래그만으로 원하는 영역까지 패닝 또는 틸팅될 수 없다면, 상기의 과정을 반복한다. 만약, 사용자가 모니터링 장치(1)에 마우스를 통해 명령을 입력할 수 있다면, 메인 영상(112)을 마우스로 드래그(Drag)하면 메인 영상(112)이 패닝 또는 틸팅될 수 있다.
도 7은 본 발명의 일 실시예에 따른 윈도우(114)에 드래그(Drag)를 수행하는 모습을 나타낸 도면이고, 도 8은 도 7에서 수행된 결과로서, 메인 영상(112)이 패닝된 모습을 나타낸 도면이다.
사용자는 윈도우(114)를 이동시켜서도, 메인 영상(112)을 패닝 또는 틸팅시킬 수 있다. 사용자는 도 7에 도시된 바와 같이 드래그(Drag)를 수행하기 위해, 윈도우(114) 내의 영역(115)을 터치(Touch)한다. 그리고 윈도우(114) 내의 영역(115)을 일 지점으로부터 타 지점까지 끌어온다. 그러면 컨트롤 영역(113)에서 윈도우(114)가 도 8에 도시된 바와 같이 이동한다. 이 때, 윈도우(114) 내의 영역(115)을 끌기 위해서, 사용자는 터치를 계속 유지하여야 한다. 이와 동시에, 메인 영상(112)도 도 6에 도시된 바와 같이 패닝 또는 틸팅된다. 즉, 윈도우(114)가 컨트롤 영역(113)에서 이동하면, 메인 영상(112)은 이동한 윈도우(114) 내의 영역(115)과 대응되는 영상으로 패닝 또는 틸팅되어 디스플레이 된다.
메인 영상(112)이 원하는 영역을 디스플레이 하도록 패닝 또는 틸팅되었다면, 유지하던 터치를 해제한다. 한 번의 드래그만으로 원하는 영역까지 패닝 또는 틸팅될 수 없다면, 상기의 과정을 반복한다. 만약, 사용자가 모니터링 장치(1)에 마우스를 통해 명령을 입력할 수 있다면, 윈도우(114) 내의 영역(115)을 마우스로 드래그(Drag)하면 메인 영상(112)이 패닝 또는 틸팅될 수 있다.
나아가, 도면에 도시되지는 않았으나, 사용자는 컨트롤 영역(113)의 임의의 위치에 탭(Tab)을 수행함으로써, 메인 영상(112)을 패닝 또는 틸팅시킬 수도 있다. 탭(Tab)이란, 터치 제스처 중 하나로서, 화면부(11)에 짧게 터치를 한 후 즉시 터치를 해제하는 것을 말한다.
도 9는 본 발명의 일 실시예에 따른 포인터(116)에 알람이 울리는 모습을 나타낸 도면이다.
카메라(2)의 주변에는 센서(3)가 설치될 수 있다. 그리고 모니터링 장치(1)의 컨트롤 영역(113)에는, 센서(3)가 설치된 위치와 대응되는 지점에 포인터(116)가 표시된다. 모니터링 장치(1)가 센서(3)의 위치를 곧바로 파악할 수 있도록, 센서(3)에는 GPS가 장착되는 것이 바람직하다.
상기 기술한 바와 같이, 센서(3)가 특정 이벤트의 발생을 감지하면, 이벤트 감지 신호를 생성하여 모니터링 장치(1)에 송신한다. 모니터링 장치(1)의 통신부(12)가 이벤트 감지 신호를 수신하면, 도 9에 도시된 바와 같이 상기 센서(3)에 대응되는 포인터(116)에 알람이 울린다. 알람은, 포인터(116)에 특정 색상, 예를 들면 붉은 색의 광을 점등하여 발생될 수도 있으며, 일정한 주기를 가지고 반복하여 광을 점멸하여 발생될 수도 있다. 알람은 광에 대한 알람뿐만 아니라 소리에 대한 알람도 포함될 수도 있고, 모니터링 장치(1) 자체에 진동을 울리도록 할 수도 있다. 즉, 알람은 사용자가 이벤트의 발생 여부를 확인할 수 있다면 다양한 방법을 사용할 수 있다.
한편, 포인터(116)는 이벤트의 발생 여부와 무관하게 항상 표시될 수도 있고, 평소에는 숨겨져 있다가 이벤트가 발생하면 알람이 울리면서 표시될 수도 있다. 그리고 포인터(116)는 도 9에 도시된 바와 같이 투명한 원의 모양을 가질 수도 있으나, 센서(3)가 설치된 위치와 알람 발생 여부를 사용자가 용이하게 파악할 수 있다면, 이에 제한되지 않고 다양한 모양 및 색채를 가질 수 있다.
도 10은 도 9의 포인터(116)에 대응되는 센서(3)를 향하는 영상이 디스플레이 되는 모습을 나타낸 도면이다.
상기 기술한 바와 같이 센서(3)가 이벤트를 감지하면, 포인터(116)에서 알람을 발생시킨다. 그리고 이와 동시에, 도 10에 도시된 바와 같이 상기 이벤트를 감지한 센서(3)를 향하도록 메인 영상(112)이 자동으로 패닝 또는 틸팅될 수 있다.
만약, 카메라(2)가 팬틸트 카메라라면, 카메라(2) 자체가 패닝 또는 틸팅을 수행하므로, 영상이 패닝 또는 틸팅되는 과정이 그대로 화면부(11)에 디스플레이 된다. 그러나 만약, 카메라(2)가 360°카메라라면, 카메라(2)가 이미 전방위에 대한 영상을 획득하고 있다. 그리고 모니터링 장치(1) 내에 설치된 소프트웨어를 통해 패닝 또는 틸팅이 수행된다. 따라서, 영상이 패닝 또는 틸팅되는 과정이 생략되고 곧바로 센서(3)를 향하는 영상이 화면부(11)에 디스플레이 될 수 있다.
컨트롤 영역(113)에 표시된 포인터(116)에서 알람이 울림으로써, 사용자는 이벤트 발생 여부를 용이하게 확인할 수 있다. 나아가, 상기 이벤트를 감지한 센서(3)를 향하도록 메인 영상(112)이 자동으로 패닝 또는 틸팅됨으로써, 사용자는 발생한 이벤트의 내용을 용이하게 모니터링 할 수도 있다.
한편, 이와 동시에, 컨트롤 영역(113)에서 메인 영상(112)과 대응되는 영역(115)을 나타내는 윈도우(114)도 이동한다. 즉, 메인 영상(112)이 패닝 또는 틸팅되어 디스플레이 되면, 패닝 또는 틸팅된 메인 영상(112)과 대응되는 영역(115)을 나타내기 위해, 윈도우(114)는 컨트롤 영역(113) 내에서 이동하게 된다.
도 11은 본 발명의 일 실시예에 따른 센서(3)가 복수인 경우, 포인터(116)도 복수로 표시되는 모습을 나타낸 도면이다.
카메라(2)의 주변에 센서(3)가 복수로 설치될 수도 있다. 이 경우, 모니터링 장치(1)의 컨트롤 영역(113)에는, 복수의 센서(3)가 설치된 위치와 각각 대응되는 지점에 복수의 포인터(116)가 각각 표시된다.
센서(3)와 포인터(116)는 각각 대응되므로, 센서(3)의 개수와 포인터(116)의 개수는 동일하다. 따라서 도 11에는 컨트롤 영역(113)에 포인터(116a, 16b, 116c, 116d)가 4개 표시된 것으로 도시되었으므로, 카메라(2)의 주변에 센서(3)가 4개 설치되었다. 그러나 본 발명의 실시예에서는, 센서(3) 및 포인터(116)의 개수는 제한되지 않고 다양한 개수로 형성될 수 있다.
도 12는 도 11의 복수의 포인터(116) 가운데, 제1 포인터(116a)에 알람이 울리는 모습을 나타낸 도면이고, 도 13은 도 12의 제1 포인터(116a)가 선택되는 모습을 나타낸 도면이며, 도 14는 도 12의 제1 포인터(116a)에 대응되는 제1 센서를 향하는 영상이 디스플레이 되는 모습을 나타낸 도면이다.
복수의 센서(3) 가운데, 제1 센서가 특정 이벤트의 발생을 감지하면, 이벤트 감지 신호를 모니터링 장치(1)에 송신하고, 도 12에 도시된 바와 같이 제1 센서에 대응되는 제1 포인터(116a)에 알람이 울린다.
이 경우, 상기 도 9 및 도 10에 대한 설명에서 기술한 바와 같이, 영상이 자동으로 패닝 또는 틸팅될 수도 있다. 그러나 본 발명의 다른 실시예에 따르면, 도 13에 도시된 바와 같이, 사용자가 제1 포인터(116a)를 직접 선택할 수도 있다. 영상의 패닝 또는 틸팅은 자동으로 수행될 수도 있고, 사용자의 선택에 의하여 수행될 수 있으며, 이는 사용자가 설정하기에 따라 달라질 수 있다.
사용자가 포인터(116)를 선택하는 경우, 모니터링 장치(1)가 터치 기능을 제공한다면, 포인터(116)에 탭(Tab)을 수행하여 선택할 수 있다. 만약 모니터링 장치(1)에 마우스 등 별도의 입력부를 통하여 사용자의 명령을 입력할 수 있다면, 포인터(116)에 클릭(Click)을 수행하여 선택할 수도 있다. 즉, 사용자가 포인터(116)를 선택할 수 있다면, 제한되지 않고 다양한 방법을 수행할 수 있다.
제1 포인터(116a)에 알람이 울리면, 자동으로 또는 사용자의 선택에 의하여 도 14에 도시된 바와 같이 제1 센서를 향하도록 메인 영상(112)이 패닝 또는 틸팅된다.
한편, 이와 동시에, 컨트롤 영역(113)에서 메인 영상(112)과 대응되는 영역(115)을 나타내는 윈도우(114)도 이동한다. 즉, 메인 영상(112)이 패닝 또는 틸팅되어 디스플레이 되면, 패닝 또는 틸팅된 메인 영상(112)과 대응되는 영역(115)을 나타내기 위해, 윈도우(114)는 컨트롤 영역(113) 내에서 이동하게 된다.
도 15는 도 11의 복수의 포인터(116) 가운데, 제1 내지 제3 포인터(116a, 116b, 116c)에 알람이 동시에 울리는 모습을 나타낸 도면이다.
복수의 센서(3)들은 서로 독립적으로 설치된다. 따라서, 복수의 센서(3)들이 동시에 이벤트의 발생을 감지할 수도 있다. 복수의 센서(3) 가운데, 제1 내지 제3 센서가 특정 이벤트의 발생을 감지하면, 각각 이벤트 감지 신호를 모니터링 장치(1)에 송신한다. 그리고, 도 12에 도시된 바와 같이 제1 내지 제3 센서에 각각 대응되는 제1 내지 제3 포인터(116a, 116b, 116c)에 알람이 울린다. 여기서 제1 내지 제3 센서는, 동일한 이벤트가 발생하여, 동시에 이벤트를 감지할 수 있으나, 별도의 이벤트가 따로 발생하여 이들을 각각 감지할 수도 있다.
도 16 내지 도 18은 도 15의 제1 내지 제3 포인터(116a, 116b, 116c)에 대응되는 제1 내지 제3 센서들을 향하는 제1 내지 제3 영상(112a, 112b, 112c)들이 순서대로 디스플레이 되는 모습을 나타낸 도면이다.
제1 센서가 설치된 위치를 향하는 제1 영상(112a), 제2 센서가 설치된 위치를 향하는 제2 영상(112b), 제3 센서가 설치된 위치를 향하는 제3 영상(112c)들은 서로 다른 영상들이다. 그런데 제1 내지 제3 포인터(116a, 116b, 116c)에 알람이 동시에 울리면, 메인 영상(112)에서 패닝 또는 틸팅되어야 할 영상이 복수이다. 따라서 서로 다른 복수의 제1 내지 제3 영상(112a, 112b, 112c)을 하나의 화면부(11)에서 디스플레이 하는 방법이 필요하다.
만약, 사용자의 선택에 의하여 영상이 패닝 또는 틸팅된다면, 사용자가 선택한 포인터(116)에 대응하는 영상만이 디스플레이 된다. 이에 비해 만약, 자동으로 영상이 패닝 또는 틸팅된다면, 본 발명의 일 실시예에 따르면 제1 내지 제3 영상(112a, 112b, 112c)은 순서대로, 이른바 시퀀스 뷰(Sequence View)가 디스플레이 될 수 있다. 구체적으로 설명하면, 제1 내지 제3 포인터(116a, 116b, 116c)에 알람이 울리면, 우선 제1 영상(112a)이 메인 영상(112)으로 디스플레이 된다. 그리고 일정 시간 뒤에 제2 영상(112b)이 메인 영상(112)으로 디스플레이 되고, 또 일정 시간 뒤에 제3 영상(112c)이 메인 영상(112)으로 디스플레이 된다. 즉, 일정 시간을 간격으로 제1 내지 제3 영상(112a, 112b, 112c)이 순서대로 전환되며 메인 영상(112)으로 디스플레이 된다. 상기 기술한 바와 같이, 영상의 패닝 또는 틸팅은 자동으로 수행될 수도 있고, 사용자의 선택에 의하여 수행될 수 있으며, 이는 사용자가 설정하기에 따라 달라질 수 있다.
사용자는 복수의 센서(3)들 마다 우선순위를 지정할 수도 있다. 예를 들어, 사용자가 제1 내지 제4 센서들의 우선순위를, 제3 센서를 제1 순위, 제1 센서를 제2 순위, 제4 센서를 제3 순위, 제2 센서를 제4 순위로 지정하였다. 이 때, 도 15에 도시된 바와 같이, 제1 내지 제3 포인터(116a, 116b, 116c)에 알람이 울리면, 제1 내지 제3 센서가 이벤트를 감지한 것이다. 우선 제1 내지 제3 센서 가운데 가장 우선순위가 높은 제3 센서를 향하는 제3 영상(112c)이, 도 16에 도시된 바와 같이 메인 영상(112)으로 디스플레이 된다. 그리고 일정 시간 뒤에 두 번째로 우선순위가 높은 제1 센서를 향하는 제1 영상(112a)이, 도 17에 도시된 바와 같이 메인 영상(112)으로 디스플레이 된다. 그리고 일정 시간 뒤에 세 번째로 우선순위가 높은 제2 센서를 향하는 제2 영상(112b)이 도 18에 도시된 바와 같이 메인 영상(112)으로 디스플레이 된다. 여기서, 제4 센서는 제2 센서보다 우선순위가 높지만, 이벤트가 감지되지 않았으므로 제4 센서를 향하는 제4 영상이 디스플레이 되지는 않는다.
도면에 도시되지는 않았으나, 사용자는 복수의 센서(3)들 마다 중요도를 지정할 수도 있다. 예를 들어, 사용자가 제1 내지 제4 센서들의 중요도를, 제1 센서는 레벨 2, 제2 센서는 레벨 5, 제3 센서는 레벨 4, 제4 센서는 레벨 3로 지정하였다. 이 때, 제1 내지 제3 포인터(116a, 116b, 116c)에 알람이 울리면, 제1 내지 제3 센서가 이벤트를 감지한 것이다. 우선 제1 영상(112a)이 메인 영상(112)으로 디스플레이 된다. 제1 센서는 레벨이 2 이므로, 약 2초간 디스플레이 된 뒤에, 제2 영상(112b)이 메인 영상(112)으로 디스플레이 된다. 제2 센서는 레벨이 5 이므로, 약 5초간 디스플레이 된 뒤에, 제3 영상(112c)이 메인 영상(112)으로 디스플레이 된다. 제3 센서는 레벨이 4 이므로, 약 4초간 디스플레이 된 뒤에, 다시 제1 영상(112a)이 디스플레이 되어 상기의 과정을 반복한다. 여기서, 제4 센서도 중요도가 지정되었지만, 이벤트가 감지되지 않았으므로 제4 센서를 향하는 제4 영상이 디스플레이 되지는 않는다.
즉, 사용자는 복수의 센서(3)들 마다 우선순위를 지정할 수도 있고, 중요도를 지정할 수도 있다. 사용자가 복수의 센서(3)들 마다 우선순위를 지정하면, 복수의 센서(3)들이 설치된 위치를 향하는 각각의 영상들이, 사용자가 지정한 우선순위대로 디스플레이 된다. 그리고 사용자가 복수의 센서(3)들 마다 중요도를 지정하면, 사용자가 지정한 각각의 센서(3)의 중요도에 따라, 각각의 영상이 디스플레이 되는 시간이 달라진다.
상기 기술한 바, 메인 영상(112)이 패닝 또는 틸팅될 때마다, 이와 동시에 컨트롤 영역(113)에서 메인 영상(112)과 대응되는 영역(115)을 나타내는 윈도우(114)도 이동한다.
도 19는 섬네일(117)이 생성되어, 도 15의 제1 내지 제3 포인터(116a, 116b, 116c)에 대응되는 센서(3)가 설치된 위치를 향하는 영상이 동시에 디스플레이 되는 모습을 나타낸 도면이다.
상기 기술한 바, 만약 카메라(2)가 360°카메라라면, 카메라(2)가 이미 전방위에 대한 영상을 획득하고 있다. 그리고 모니터링 장치(1) 내에 설치된 소프트웨어를 통해 패닝 또는 틸팅이 수행된다. 따라서, 복수의 센서(3)들이 동시에 이벤트 발생을 감지하였더라도, 상기 도 16 내지 도 18에 대한 설명에서 기술한 바와 같이, 복수의 영상들이 반드시 순서대로 디스플레이 되어야 할 필요가 없다. 즉, 복수의 영상들이 하나의 화면부(11)에 동시에 디스플레이 될 수도 있다.
구체적으로 설명하면, 본 발명의 다른 실시예에 따르면, 카메라(2)는 360°카메라로서, 이미 전방위에 대한 영상을 획득하고 있다. 이 때, 복수의 센서(3)들이 동시에 이벤트 발생을 감지하면, 모니터링 장치(1)는 이벤트 발생을 감지한 센서(3)들의 개수와 대응되도록, 분할 영상들을 포함하는 섬네일(Thumbnail, 117)을 자동으로 생성한다. 그리고 모니터링 장치(1)는 각각의 분할 영상들에서, 상기 이벤트 발생을 감지한 센서(3)들을 향하는 복수의 영상들을 각각 디스플레이 한다.
예를 들어, 만약 도 15에 도시된 바와 같이, 제1 내지 제3 포인터(116a, 116b, 116c)에 알람이 울리면, 제1 내지 제3 센서가 이벤트를 감지한 것이다. 그렇다면 디스플레이 되어야 할 영상은, 제1 내지 제3 영상(112a, 112b, 112c)으로 총 3개의 영상이다. 모니터링 장치(1)는 도 19에 도시된 바와 같이, 3개의 영상이 동시에 디스플레이 될 수 있도록 분할 영상을 3개 포함하는 섬네일(117)을 자동으로 생성한다. 그리고 각각의 분할 영상들에서, 상기 제1 내지 제3 영상(112a, 112b, 112c)들을 각각 디스플레이 한다. 만약, 디스플레이 되어야 할 영상이 4개의 영상이라면 분할 영상을 4개 포함하는 섬네일(117)이 생성되고, 디스플레이 되어야 할 영상이 6개의 영상이라면 분할 영상을 6개 포함하는 섬네일(117)이 생성된다.
상기 기술한 바, 사용자는 복수의 센서(3)들 마다 우선순위를 지정할 수도 있다. 예를 들어, 사용자가 제1 내지 제4 센서들의 우선순위를, 제3 센서를 제1 순위, 제1 센서를 제2 순위, 제4 센서를 제3 순위, 제2 센서를 제4 순위로 지정하였다. 이 때, 도 15에 도시된 바와 같이, 제1 내지 제3 포인터(116a, 116b, 116c)에 알람이 울리면, 제1 내지 제3 센서가 이벤트를 감지한 것이다. 우선 제1 내지 제3 센서 가운데 가장 우선순위가 높은 제3 센서를 향하는 제3 영상(112c)이, 도 19에 도시된 바와 같이 복수의 분할 영상 가운데 가장 크기가 큰, 제1 분할 영상(117a)에서 디스플레이 된다. 그리고 두 번째로 우선순위가 높은 제1 센서를 향하는 제1 영상(112a)이, 도 19에 도시된 바와 같이 제2 및 제3 분할 영상(117b, 117c) 가운데 위에 배치되어 있는, 제2 분할 영상(117b)에서 디스플레이 된다. 그리고 세 번째로 우선순위가 높은 제2 센서를 향하는 제2 영상(112b)이, 도 19에 도시된 바와 같이 제2 및 제3 분할 영상(117b, 117c) 가운데 아래에 배치되어 있는, 제3 분할 영상(117c)에서 디스플레이 된다. 여기서, 제4 센서는 제2 센서보다 우선순위가 높지만, 이벤트가 감지되지 않았으므로 제4 센서를 향하는 제4 영상이 디스플레이 되지는 않는다.
섬네일(117)이 생성되면서, 디스플레이 되어야 할 영상의 개수에 대응되어 분할 영상의 개수가 자동으로 정해진다. 또한, 분할 영상의 개수에 따라, 미리 설정된 대로 분할 영상의 크기 및 배치도 자동으로 정해진다. 그리고 각각의 영상들의 우선 순위가 지정되면, 각각의 영상들 마다 디스플레이 될 분할 영상이 정해진다. 상기의 예시에서는, 복수의 영상들의 우선 순위가 높을수록, 크기가 큰 분할 영상에서 디스플레이 된다. 그리고, 분할 영상의 크기가 동일하다면, 우선 순위가 높을 수록 위에 배치된 분할 영상에서 디스플레이 되는 것으로 설명하였다. 그러나 이는 제한되지 않고, 사용자가 원하는 크기 및 배치에 따라 다양하게 설정될 수 있다. 따라서, 섬네일(117)은 다양한 분할 영상의 개수, 크기, 배치를 가질 수 있으며, 복수의 센서(3)에 대응되는 복수의 영상들은, 상기 다양한 분할 영상에서 각각 디스플레이 될 수 있다.
한편, 메인 영상(112)에서 복수의 분할 영상을 포함하는 섬네일(117)이 생성되면서, 복수의 영상들이 동시에 디스플레이 하는 것이 가능하다. 이 때, 컨트롤 영역(113)에서 각각의 복수의 영상들과 대응되는 영역(115a, 115b, 115c)을 나타내는 복수의 윈도우(114a, 114b, 114c)가 표시된다.
제1 분할 영상(117a)에서 디스플레이 되는 제3 영상(112c)은, 컨트롤 영역(113)에서 제3 윈도우(114c)로 둘러싸인 영역(115c)과 대응된다. 그리고 제2 분할 영상(117b)에서 디스플레이 되는 제1 영상(112a)은, 컨트롤 영역(113)에서 제1 윈도우(114a)로 둘러싸인 영역(115a)과 대응된다. 그리고 제3 분할 영상(117c)에서 디스플레이 되는 제2 영상(112b)은, 컨트롤 영역(113)에서 제2 윈도우(114b)로 둘러싸인 영역(115a)과 대응된다. 그러나, 분할 영상도 복수로 형성되고, 윈도우도 복수로 형성되어, 사용자는 각각의 영상과 윈도우를 용이하게 매칭할 수 없다.
따라서, 분할 영상을 둘러싸는 보더(Boader)들과, 이에 대응되는 영역을 둘러싸는 윈도우의 색상을 일치시키는 것이 바람직하다. 즉, 제1 분할 영상(117a)의 보더와, 제3 윈도우(114c)의 색상이 동일하고, 제2 분할 영상(117b)의 보더와, 제1 윈도우(114a)의 색상이 동일하며, 제3 분할 영상(117c)의 보더와 제2 윈도우(114b)의 색상이 동일한 것이 바람직하다.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (15)

  1. 카메라가 획득한 영상 데이터 및 센서가 생성한 신호를 전송받는 통신부;
    상기 영상 데이터 및 상기 신호에 대한 정보를 저장하는 저장부;
    상기 전송받은 영상을 메인 영상으로 디스플레이 하는 화면부; 및
    상기 통신부, 상기 저장부 및 상기 화면부의 동작을 제어하는 제어부를 포함하되,
    상기 화면부는,
    디스플레이 되는 상기 메인 영상의 주변에, 상기 메인 영상을 패닝 또는 틸팅할 수 있는 컨트롤 영역을 표시하고,
    상기 컨트롤 영역에, 상기 센서가 설치된 위치를 나타내는 포인터를 표시하며,
    상기 센서가 이벤트를 감지하면, 상기 이벤트를 감지한 상기 센서와 대응되는 상기 포인터에 알람을 울리고,
    상기 이벤트를 감지한 상기 센서를 향해 상기 메인 영상을 패닝 또는 틸팅하여 디스플레이 하는, 모니터링 장치.
  2. 제1항에 있어서,
    상기 이벤트를 감지한 상기 센서와 대응되는 상기 포인터가 선택되면,
    상기 화면부는,
    상기 선택된 포인터와 대응되는 상기 센서를 향해 상기 메인 영상을 패닝 또는 틸팅하여 디스플레이 하는, 모니터링 장치.
  3. 제1항에 있어서,
    상기 컨트롤 영역은,
    상기 카메라가 촬영할 수 있는 모든 범위를 영상으로 나타내는 파노라마 뷰인, 모니터링 장치.
  4. 제3항에 있어서,
    상기 카메라는,
    어안 렌즈가 장착되고,
    상기 파노라마 뷰는,
    상기 카메라가 촬영한 특정 영역이 실시간으로 디스플레이되는 라이브 뷰인, 모니터링 장치.
  5. 제3항에 있어서,
    상기 컨트롤 영역은,
    상기 메인 영상과 대응되는 영역을 나타내는 윈도우를 포함하고,
    상기 메인 영상이 패닝 또는 틸팅되어 디스플레이되면,
    상기 윈도우도 상기 컨트롤 영역 내에서 이동하는, 모니터링 장치.
  6. 제1항에 있어서,
    상기 센서는,
    복수로 형성되는, 모니터링 장치.
  7. 제6항에 있어서,
    상기 복수의 센서가 상기 이벤트의 발생을 동시에 감지하면,
    상기 화면부는,
    상기 복수의 센서를 향하는 각각의 영상을 순서대로 디스플레이 하는, 모니터링 장치.
  8. 제7항에 있어서,
    상기 복수의 센서마다 우선순위가 설정되면,
    상기 화면부는,
    상기 복수의 센서를 향하는 각각의 영상을 상기 설정된 우선순위대로 디스플레이 하는, 모니터링 장치.
  9. 제7항에 있어서,
    상기 복수의 센서마다 중요도가 설정되면,
    상기 화면부는,
    상기 설정된 중요도에 따라 상기 각각의 영상을 디스플레이 하는 시간을 달리하는, 모니터링 장치.
  10. 제6항에 있어서,
    상기 카메라는,
    360°카메라이고,
    상기 복수의 센서가 상기 이벤트의 발생을 동시에 감지하면,
    상기 화면부는,
    상기 이벤트의 발생을 감지한 상기 복수의 센서의 개수와 대응되는 개수의 분할 영상을 포함하는 섬네일을 생성하고,
    상기 복수의 센서를 향하는 각각의 영상을 상기 생성된 섬네일을 통해 디스플레이 하는, 모니터링 장치.
  11. 특정 영역을 촬영하여 영상을 획득하는 카메라;
    이벤트가 발생하면 상기 이벤트를 감지하고 신호를 생성하는 센서;
    상기 카메라가 획득한 영상을 디스플레이 하고, 상기 센서로부터 신호를 수신하여 이벤트 발생 여부를 표시하는 모니터링 장치를 포함하고,
    상기 모니터링 장치는,
    상기 카메라가 획득한 상기 영상 데이터 및 상기 센서가 생성한 상기 신호를 전송받는 통신부;
    상기 영상 데이터 및 상기 신호에 대한 정보를 저장하는 저장부;
    상기 전송받은 영상을 디스플레이 하는 화면부; 및
    상기 통신부, 상기 저장부 및 상기 화면부의 동작을 제어하는 제어부를 포함하되,
    상기 화면부는,
    디스플레이 되는 상기 메인 영상의 주변에, 상기 메인 영상을 패닝 또는 틸팅할 수 있는 컨트롤 영역을 표시하고,
    상기 컨트롤 영역에, 상기 센서가 설치된 위치를 나타내는 포인터를 표시하며,
    상기 센서가 이벤트를 감지하면, 상기 이벤트를 감지한 상기 센서와 대응되는 상기 포인터에 알람을 울리고,
    상기 이벤트를 감지한 상기 센서를 향해 상기 메인 영상을 패닝 또는 틸팅하여 디스플레이 하는, 모니터링 시스템.
  12. 제11항에 있어서,
    상기 센서는,
    복수로 형성되고,
    상기 복수의 센서가 상기 이벤트의 발생을 동시에 감지하면,
    상기 화면부는,
    상기 복수의 센서를 향하는 각각의 영상을 순서대로 디스플레이 하는, 모니터링 시스템.
  13. 제12항에 있어서,
    상기 복수의 센서마다 우선순위가 설정되면,
    상기 화면부는,
    상기 복수의 센서를 향하는 각각의 영상을 상기 설정된 우선순위대로 디스플레이 하는, 모니터링 시스템.
  14. 제12항에 있어서,
    상기 복수의 센서마다 중요도가 설정되면,
    상기 화면부는,
    상기 설정된 중요도에 따라 상기 각각의 영상을 디스플레이 하는 시간을 달리하는, 모니터링 시스템.
  15. 제11항에 있어서,
    상기 카메라는,
    360°카메라이고,
    상기 센서는,
    복수로 형성되며,
    상기 복수의 센서가 상기 이벤트의 발생을 동시에 감지하면,
    상기 화면부는,
    상기 이벤트의 발생을 감지한 상기 복수의 센서의 개수와 대응되는 개수의 분할 영상을 포함하는 섬네일을 생성하고,
    상기 복수의 센서를 향하는 각각의 영상을 상기 생성된 섬네일을 통해 디스플레이 하는, 모니터링 시스템.
PCT/KR2016/007044 2016-06-28 2016-06-30 모니터링 장치 및 시스템 Ceased WO2018004036A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201680087126.4A CN109565569B (zh) 2016-06-28 2016-06-30 监测设备和系统
US16/214,912 US10791258B2 (en) 2016-06-28 2018-12-10 Monitoring apparatus and system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0080675 2016-06-28
KR1020160080675A KR102474729B1 (ko) 2016-06-28 2016-06-28 모니터링 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/214,912 Continuation US10791258B2 (en) 2016-06-28 2018-12-10 Monitoring apparatus and system

Publications (1)

Publication Number Publication Date
WO2018004036A1 true WO2018004036A1 (ko) 2018-01-04

Family

ID=60787166

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/007044 Ceased WO2018004036A1 (ko) 2016-06-28 2016-06-30 모니터링 장치 및 시스템

Country Status (4)

Country Link
US (1) US10791258B2 (ko)
KR (1) KR102474729B1 (ko)
CN (1) CN109565569B (ko)
WO (1) WO2018004036A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10721444B2 (en) 2018-03-12 2020-07-21 Delta Lock Company, LLC Lock system including automation notification and surveillance integration
US11545025B2 (en) * 2018-03-12 2023-01-03 Innovation Lock, Llc Security system including automation notification and surveillance integration
US12165495B2 (en) * 2019-02-28 2024-12-10 Nice North America Llc Virtual partition of a security system
CN110225282B (zh) * 2019-05-31 2023-05-30 山西仨仁行文化传媒有限公司 一种视频录制控制方法、设备及计算机可读存储介质
KR102291742B1 (ko) * 2021-04-30 2021-08-23 주식회사 에이아이네트웍 인공지능형 카메라를 이용한 스마트 선별 감시 관제 시스템
CN115394028B (zh) * 2022-08-25 2023-11-03 成都数之联科技股份有限公司 一种火点监测系统及方法及装置及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010137860A2 (ko) * 2009-05-29 2010-12-02 주식회사 영국전자 지능형 감시 카메라 장치 및 이를 채용하는 영상 감시 시스템
KR20120035455A (ko) * 2010-10-05 2012-04-16 주식회사 네오콤 사각지역 촬영이 가능한 감시카메라 및 그 제어방법
US20120194336A1 (en) * 2011-01-31 2012-08-02 Honeywell International Inc. User interfaces for enabling information infusion to improve situation awareness
US20160086462A1 (en) * 2014-09-18 2016-03-24 Honeywell International Inc. Virtual Panoramic Thumbnail to Summarize and Visualize Video Content in Video Surveillance and in Connected Home Business
US20160173827A1 (en) * 2014-12-10 2016-06-16 Robert Bosch Gmbh Integrated camera awareness and wireless sensor system

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101768101B1 (ko) * 2009-10-30 2017-08-30 엘지전자 주식회사 정보 표시 장치 및 그 방법
JP2011239075A (ja) * 2010-05-07 2011-11-24 Sony Corp 表示装置、表示方法及びプログラム
US9160784B2 (en) * 2010-10-15 2015-10-13 Hanwha Techwin Co., Ltd. Remote management system, remote management method, and monitoring server
KR101648564B1 (ko) 2011-03-15 2016-08-16 한화테크윈 주식회사 휴대 단말, 원격 카메라, 및 휴대 단말에 의한 원격 카메라의 팬/틸트/줌 제어 방법
KR101082845B1 (ko) 2011-07-05 2011-11-11 (주)씨앤에스아이 Ip 카메라를 이용한 스마트폰 영상 제공 시스템
US8768707B2 (en) * 2011-09-27 2014-07-01 Sensory Incorporated Background speech recognition assistant using speaker verification
CN103188554A (zh) * 2011-12-29 2013-07-03 盛趣信息技术(上海)有限公司 图像编码方法及系统
CN106169215A (zh) * 2012-06-08 2016-11-30 爱克斯崔里斯科技有限公司 多模式检测
KR20140040958A (ko) 2012-09-27 2014-04-04 엘지전자 주식회사 이동 단말기 및 이동 단말기의 카메라 구동 방법
US20160011654A1 (en) * 2014-07-14 2016-01-14 Samsung Electronics Co., Ltd. Interfacing apparatus and user input processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010137860A2 (ko) * 2009-05-29 2010-12-02 주식회사 영국전자 지능형 감시 카메라 장치 및 이를 채용하는 영상 감시 시스템
KR20120035455A (ko) * 2010-10-05 2012-04-16 주식회사 네오콤 사각지역 촬영이 가능한 감시카메라 및 그 제어방법
US20120194336A1 (en) * 2011-01-31 2012-08-02 Honeywell International Inc. User interfaces for enabling information infusion to improve situation awareness
US20160086462A1 (en) * 2014-09-18 2016-03-24 Honeywell International Inc. Virtual Panoramic Thumbnail to Summarize and Visualize Video Content in Video Surveillance and in Connected Home Business
US20160173827A1 (en) * 2014-12-10 2016-06-16 Robert Bosch Gmbh Integrated camera awareness and wireless sensor system

Also Published As

Publication number Publication date
CN109565569B (zh) 2021-10-19
CN109565569A (zh) 2019-04-02
US20190116305A1 (en) 2019-04-18
KR20180001794A (ko) 2018-01-05
US10791258B2 (en) 2020-09-29
KR102474729B1 (ko) 2022-12-05

Similar Documents

Publication Publication Date Title
KR102644782B1 (ko) 모니터링 장치 및 시스템
WO2018004036A1 (ko) 모니터링 장치 및 시스템
WO2012165845A2 (en) Display apparatus and method
WO2018088608A1 (ko) 영상처리장치 및 그의 영상제공방법
WO2017209342A1 (ko) 모니터링 장치 및 모니터링 시스템
WO2015030307A1 (en) Head mounted display device and method for controlling the same
WO2018135906A1 (ko) 카메라 및 카메라의 영상 처리 방법
WO2017196026A2 (ko) Ptz 카메라의 촬영영상 설정방법 및 그를 위한 장치
WO2018135695A1 (ko) 모니터링 장치 및 시스템
WO2018021609A1 (ko) 검색 장치
WO2017179954A1 (en) Image capturing method and electronic device supporting the same
WO2018034377A1 (ko) 이벤트 검색 시스템, 장치 및 방법
KR102398987B1 (ko) 이벤트 영상 검색 시스템, 이벤트 영상 검색 방법 및 기록 매체에 저장된 프로그램
WO2018097384A1 (ko) 밀집도 알림 장치 및 방법
WO2018074627A1 (ko) Pos 기기와 연동된 감시 카메라 및 이를 이용한 감시 방법
US7684591B2 (en) Information processing system, information processing apparatus and information processing method, program, and recording medium
WO2019216572A1 (ko) 휴대 단말에서의 영상 제공 방법 및 그 장치
WO2018070584A1 (ko) 감시 카메라의 제어 방법 및 이 방법을 채용한 감시 시스템
KR102634188B1 (ko) 영상 감시 시스템
WO2018004055A1 (ko) 모니터링 장치 및 시스템
WO2017213288A1 (ko) 모니터링 장치 및 모니터링 시스템
JP2024176911A (ja) 情報処理装置、撮像装置、制御方法、及びプログラム
TWI662841B (zh) 影像播放裝置
CN118509704A (zh) 电子装置、电子装置的控制方法和计算机可读介质
WO2022126375A1 (zh) 变焦方法、成像装置、云台以及可移动平台

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16907401

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16907401

Country of ref document: EP

Kind code of ref document: A1