[go: up one dir, main page]

WO2018101605A1 - 이벤트 정보를 표시하는 영상 감시 장치 - Google Patents

이벤트 정보를 표시하는 영상 감시 장치 Download PDF

Info

Publication number
WO2018101605A1
WO2018101605A1 PCT/KR2017/011650 KR2017011650W WO2018101605A1 WO 2018101605 A1 WO2018101605 A1 WO 2018101605A1 KR 2017011650 W KR2017011650 W KR 2017011650W WO 2018101605 A1 WO2018101605 A1 WO 2018101605A1
Authority
WO
WIPO (PCT)
Prior art keywords
event
image
marker
area
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2017/011650
Other languages
English (en)
French (fr)
Inventor
김두만
황현구
김준용
박경열
최한기
최호진
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hanwha Vision Co Ltd
Original Assignee
Hanwha Techwin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hanwha Techwin Co Ltd filed Critical Hanwha Techwin Co Ltd
Publication of WO2018101605A1 publication Critical patent/WO2018101605A1/ko
Priority to US16/422,482 priority Critical patent/US10979675B2/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/1963Arrangements allowing camera rotation to change view, e.g. pivoting camera, pan-tilt and zoom [PTZ]
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Definitions

  • the present invention relates to an image surveillance apparatus, and more particularly, in a display region displayed on a screen among a surveillance region and a surveillance region photographed by a camera, displaying information on an event occurring in an area other than the display region on a screen. It relates to a video surveillance device.
  • Ultra HD Ultra HD
  • 8K UHD 8K UHD
  • FHD Full HD
  • 8K UHD 16 times higher than FHD. Since images captured in UHD are about 8.3 million pixels, and images captured in 8K UHD are about 33 million pixels, a high resolution surveillance camera can be used to obtain a clear image of the surveillance area.
  • the surveillance region and the display region should be distinguished. Even if a surveillance area is photographed by different surveillance cameras at different angles or at different angles, a plurality of surveillance cameras cannot be recognized at a time and the screen size is limited. It is necessary that the area photographed by one of the areas photographed by the camera be displayed on the screen.
  • An object of the present invention is to provide a video surveillance apparatus for displaying information on an event occurring in an area other than the display region in a video surveillance apparatus displaying a display region of a surveillance region photographed by a camera. Furthermore, the present invention provides a video surveillance apparatus that displays detailed information on an event, such as a location of an event, a type of an event, and the like so that a user can immediately respond to an event.
  • a video surveillance apparatus comprising: a camera capturing a surveillance area to obtain a first image; An image display unit visually displaying a second image in a display area included in the surveillance area and smaller than the surveillance area; An event detector for detecting whether an event has occurred in the surveillance area; And a marker display unit that displays an event marker indicating the occurrence of the event on the second image when the event occurs outside the display area.
  • the marker display unit may display a plurality of event markers on the second image in response to the plurality of events when the event occurs.
  • the first image is warped by the fisheye lens and the second image is dewarp by mapping the warped image.
  • the surveillance region may be the sum of the regions photographed by the plurality of cameras, and the display region may be the region photographed by the current camera among the plurality of cameras. .
  • the video surveillance apparatus for solving the above problems may further include an event analyzer for analyzing the detected event, the event marker may include information analyzed by the event analyzer.
  • the event detection unit further includes a function for detecting the position of a specific monitoring target in the surveillance area, the marker display unit the detected specific monitoring target If the position of the out of the display area, the event marker for displaying the location of the specific monitoring target may further include a function for displaying on the second image.
  • the user since the user can be provided with detailed information on an event occurring outside the display area, it is possible to immediately change the screen to the location where the event occurred and visually confirm the event. Therefore, the user can quickly respond to the event occurred.
  • the present invention provides an environment in which intensive monitoring can be performed by displaying only a display area.
  • intensive monitoring of the display area can increase the efficiency of the surveillance system.
  • the user can be provided with information on the location of the specific monitoring target along with an event occurring in an area other than the display area, so that the occurrence of an event on the specific monitoring target can be prevented in advance. That is, if the user can respond to the event after the event through the event information, the present invention can further prevent the event through the location information of the specific monitoring target. For example, the user may prevent the accident of the child by utilizing the location information of the child deviating from the display area.
  • FIG. 1 illustrates a video surveillance apparatus according to an embodiment of the present invention.
  • FIG. 2 illustrates a surveillance area and a display area of a video surveillance apparatus according to an embodiment of the present invention.
  • FIG 3 is a view illustrating a second image in which an event and an event marker are displayed in a surveillance region of an image surveillance apparatus according to an embodiment of the present invention.
  • FIG. 4 illustrates a second image in which a plurality of events and a plurality of event markers are displayed in a surveillance region of an image surveillance apparatus according to an embodiment of the present invention.
  • 5 to 7 illustrate a method of displaying an event occurrence area in a video surveillance apparatus according to an embodiment of the present invention.
  • FIG. 8 illustrates a surveillance area and a display area of a video surveillance apparatus according to another embodiment of the present invention.
  • FIG. 9 illustrates a method of displaying an event occurrence area in a video surveillance apparatus according to another embodiment of the present invention.
  • FIG. 10 shows a video surveillance apparatus according to another embodiment of the present invention.
  • FIG. 11 illustrates a surveillance region and a display region of a video surveillance apparatus according to another embodiment of the present invention.
  • FIG. 12 illustrates a method of displaying an event occurrence area in a video surveillance apparatus according to another embodiment of the present invention.
  • FIG. 13 illustrates a second image in which a plurality of event markers are displayed in an image monitoring apparatus according to another embodiment of the present invention.
  • the video surveillance apparatus 1 shows a video surveillance apparatus 1 according to an embodiment of the present invention.
  • the video surveillance apparatus 1 includes a camera 10, an image display unit 20, an event detector 30, an event analyzer 40, a marker display 50, and a user interface 60. .
  • the camera 10 is a device for photographing a surveillance area.
  • the resolution of the image captured by the camera 10 may include high resolution such as UHD (3840x2160), 8K UHD (7680x4320), and the like.
  • UHD is 9 times higher than HD (1920x1080), 4 times higher than FHD (1920x1080), and 8K UHD is 16 times higher than FHD.
  • Using a high resolution camera allows you to capture a wide range of areas with a single camera and get clear images.
  • the camera 10 may include a function of acquiring audio information of the surveillance region together with image information of the surveillance region.
  • the voice information may be information obtained by the camera 10 itself when the microphone is mounted on the camera 10 or information obtained and transmitted from other devices in the surveillance area.
  • the image display unit 20 is a device for visually displaying a display area of the surveillance area.
  • the image display unit 20 may display a display area on a screen to visually display the display area.
  • FIG. 2 shows the surveillance region 11 and the display region 12.
  • the surveillance area 11 is an area photographed by the camera
  • the display area 12 is an area included in the surveillance area 11 and smaller than the surveillance area 11 and is visually displayed on the screen.
  • the camera captures the surveillance region 11 to obtain the first image 21, but the second image 22 displayed on the screen includes only the display region 12 of the surveillance region 11.
  • the surveillance region 11 includes a plurality of buildings and roads, and the display region 12 includes an intersection of one of the surveillance regions 11. If all of the surveillance region 11 is displayed on a screen of a limited size, the one intersection may be displayed small so that detailed surveillance may be difficult. However, since the image display unit displays only the display area 12 on the screen, the user can monitor the intersection intensively.
  • the event detector 30 is a device that detects whether an event occurs in the surveillance area.
  • Events detected by the event detector 30 include a motion event and a sound event.
  • a motion event is an event according to the movement of an object and a sound event is an event according to the occurrence of a sound.
  • the event detector 30 may use image information or audio information obtained from the camera 10 to detect whether an event has occurred.
  • the event detector 30 may detect whether a movement occurs in the surveillance area by using the information of the first image acquired by the camera 10.
  • the event detector 30 may detect whether a sound is generated in the surveillance area by using the voice information acquired by the camera 10.
  • the event detector 30 may detect at which point on the first image an event occurs and what kind of event occurred.
  • the event detector 30 may detect a point where the motion occurs on the first image through the coordinates of the pixel in which the motion occurs.
  • the event detector 30 may determine the type of the generated event by using the shape information of the object moved on the first image, the acquired voice information, and the like. For example, when two car-shaped objects collide with each other and a collision sound of a vehicle is detected on the first image, the event detector 30 may detect the type of event as 'car collision'. . Alternatively, the event detector 30 may detect the type of event by comparing the shape information and the voice information of the object with metadata.
  • the event detector 30 may further include a function of detecting a location of a specific monitoring target in the surveillance area.
  • the specific monitoring target may be a device to which the Internet of Thins (IoT) is applied, and the event detector 30 may detect the location of the specific monitoring target by exchanging information with the specific monitoring target.
  • IoT Internet of Thins
  • the location of the car parked in the parking lot may be detected by exchanging information between the car and the event detector 30.
  • the event detector 30 may detect a location of a specific monitoring target by using a sensor such as a beacon.
  • the event detector 30 includes a post-detection function such as detecting a position of a specific monitoring target as well as a post-detection function such as detection of movement and sound generation. If the event detection unit 30 can respond after the event has occurred through the post detection function, the event detection unit 30 may be used to prevent the occurrence of the event in advance. For example, if the location of a child with a smartphone is detected using a beacon, information such as where the child is located outside the display area or where the child is in a danger area may be used to prevent child accidents. .
  • the event analyzer 40 analyzes the event detected by the event detector 30.
  • the event analyzer 40 may analyze an expression of the detected person to determine anger and tension of the detected person.
  • the event analyzer 40 may analyze whether the detected high castle is a cheer or a scream.
  • the marker display unit 50 is an apparatus for displaying an event marker indicating the occurrence of an event on the second image when an event occurs outside the display area.
  • the marker display unit 50 may display the event markers on the second image.
  • the marker display unit 50 displays an event marker on the second image so that the user can recognize an event occurring in an area other than the display area.
  • the event marker contains detailed information about the event that occurred.
  • the event marker may include information for visually identifying a relative position where the event occurred based on the display area.
  • the event marker may be an arrow whose distance from the display area to the location where the event occurs is the length of the arrow and the direction where the event occurs is the direction of the arrow.
  • the event marker may be a phrase in which a distance or direction to a location where an event occurs based on the display area is expressed instead of an arrow. For example, when an event occurs at a point 3km in the northeast direction based on the center point of the display area, the event marker may be displayed as an arrow pointing in the northeast direction on the second image. If the event occurs at a distance greater than 3km, the event marker will be indicated by the longer arrow. Alternatively, the event marker may be displayed on the second image by an arrow pointing in the northeast direction and a phrase of '3km'.
  • the event marker may include information for visually identifying the absolute location where the event occurred. For example, when an event occurs on the central road 40, the event marker may be displayed as the phrase 'central road 40'.
  • the event marker may also include information indicating the type of event that has occurred.
  • the event marker may be displayed as a phrase 'car collision'.
  • the event marker may be displayed as a picture or an icon representing an event that has occurred in addition to the phrase to indicate information indicating the type of event.
  • the event marker may include information on the event analyzed by the event analyzer 40.
  • the event marker may be displayed as a phrase of 'scream sound generation'.
  • the marker display unit 50 displays the information on the event occurring outside the display area on the second image through the event marker, even if only the second image is displayed, it is possible to provide the user with information about the event occurring in the entire monitoring area. Therefore, the user can visually monitor the display area of the monitoring area and manage events occurring outside the display area at the same time.
  • FIG. 3 illustrates a second image in which an event occurred in a surveillance area and an event marker are displayed.
  • a car crash event 31 occurs at a distance of 3 km northeast of the display area 12.
  • the event detector 30 detects the location and type of the event through the first image 21.
  • the event detector 30 may detect the location and the information where the event 31 has occurred in the display area 12 through the image information of the first image 21 as a '3 km northeast' point and a 'car collision'. .
  • the marker display unit 50 displays an event marker 51 indicating the occurrence of an event on the second image 22 so that a user can recognize an event occurring outside the display area 12.
  • the event marker 51 includes detailed information on the event that occurred, and may be displayed on the second image 22 by an arrow having a direction corresponding to the northeast direction and a length corresponding to 3 km and a phrase of 'car collision'. .
  • the marker display unit 50 may display a plurality of event markers on the second image in response to the plurality of events.
  • the marker display unit 50 may display the priority on the plurality of event markers according to the priority of the plurality of events.
  • the priority may be determined according to various criteria, such as being determined according to the user's preset priority or determined in order of the distance in which the event occurs in the order of closeness.
  • the marker display unit 50 may display colors, thicknesses, sizes, etc. of the plurality of event markers differently in order to display the priority of the plurality of event markers, or may display 'high priority' or 'out of priority' on the plurality of event markers. And comments such as'. For example, when a first event and a second event occur with a plurality of events, and the second event has a higher priority than the first event, the event marker for the second event is red and the event for the first event is red. Markers can be marked in yellow.
  • FIG. 4 illustrates a second image in which a plurality of events occurring in the surveillance area and a plurality of event markers are displayed.
  • a first event 32 in which a car collides with 3 km northeast of the display area 12 and a second event 33 in which a car collides with 1 km north are generated.
  • the marker display unit 50 knows the first event marker 52 that knows the location and type of the event with respect to the first event 32, and the location and type where the event occurred with respect to the second event 33.
  • Each of the second event markers 53 may be displayed on the second image 22.
  • the arrow of the second event marker 53 is an arrow of the first event marker 52. It may be displayed shorter.
  • an annotation of 'priority' is given to the second event marker 53, and 'in priority' to the first event marker 52. You can display comments.
  • the user interface 60 is a device that receives input from a user to control a display area displayed on a screen.
  • the user interface 60 includes input means for receiving input from a user.
  • the input means may be, for example, a mouse or a touch screen.
  • the image display unit 30 may set an area including the location where the event occurs as the display area. A method of displaying the event occurrence area by the image display unit 30 according to the input of the user interface 60 will be described with reference to FIGS. 5 to 7.
  • 5 to 7 illustrate a method of displaying an event occurrence region.
  • 5 to 7 illustrate different methods for displaying a region where an event occurs in a situation where the same event occurs.
  • the same event is assumed to be a car crash event occurring 3km northeast of the display area.
  • the image display unit moves the display area to a position where an event indicated by the event marker 54 occurs, The second image 23 including the generated position is displayed.
  • the image display unit displays the second image so that the region displayed on the second image continues in accordance with the movement of the display region, and the user moves the display region through the second image. Can be recognized.
  • the image display part zooms out of the display area to determine a location where an event occurs.
  • the second image 24 including the image is displayed. Since the zoomed-out second image 24 includes both the display area before zooming out and the location where the event occurred, the user can visually view the surveillance area from the display area before zooming out through the second image 24 to the location where the event occurred. Information can be obtained.
  • the image display part includes a third position including an event occurrence location.
  • the image 25 is popped up and displayed on the second image 22. The user may continuously acquire the information about the location of the event through the third image 25 while continuously monitoring the display area monitored through the second image 22.
  • the configuration and operation method of the video surveillance apparatus has been described.
  • the surveillance region photographed by the camera is different from the display region displayed on the screen, even if an event occurs outside the display region, it is possible to provide the event information to the user. Based on the information provided, it is possible to monitor the area where the event occurred on the screen immediately.
  • the video surveillance apparatus according to another embodiment has the same configuration as the video surveillance apparatus 1 according to the embodiment illustrated in FIG. 1, but uses a fisheye lens for the camera.
  • the fisheye lens has a short focus, so it is possible to shoot with an angle of view of 180 ° or more. Accordingly, the video surveillance apparatus according to another exemplary embodiment may acquire an image for a wider area than when using a general lens.
  • the surveillance area 13 is an area photographed by a fisheye lens camera, and the display area 14 is included in the surveillance area 13 and is visually displayed on the screen as an area smaller than the surveillance area 13. Area.
  • the fisheye lens camera captures the surveillance region 13 to obtain a warped first image 26, while the second image 27 displayed on the screen is dewarped among the surveillance region 13. Only the display area is included.
  • the surveillance area 13 includes an interior area of 360 ° radius, and the display area 14 includes an entrance door of one of the surveillance areas 13.
  • the surveillance area 13 is all dewarped and displayed on the screen, the area of the image displayed on the screen becomes wider as the curved image is unfolded, and relatively small objects in the room may be difficult to monitor in detail.
  • the image display unit displays only the dewarped display area on the screen, the user can monitor the door intensively.
  • FIG. 9 illustrates a method of displaying an event occurrence area in a video surveillance apparatus according to another embodiment of the present invention. Since the video surveillance apparatus according to another embodiment differs only in the configuration using the video surveillance apparatus and the fisheye lens camera according to the exemplary embodiment, the video surveillance apparatus may operate in the same manner as described with reference to FIGS. 5 to 7.
  • an event 34 in which the window is broken to the south of the display area 14 occurs.
  • the event detector detects an event 34 in which the window is broken by using the first image 26, and the marker display unit displays an event marker 55 including information on the generated event on the second image 27.
  • the image display unit moves the display area to a location where the event indicated by the event marker 55 occurs, and includes an area where the event occurs.
  • the second image 28 may be displayed.
  • the image display unit may zoom out the display area to include an area where an event occurs or display a region where an event occurs by popping up a third image displaying an area where an event occurs on the second image.
  • the video surveillance apparatus 2 shows a video surveillance apparatus 2 according to another embodiment of the present invention.
  • the video surveillance apparatus 2 includes a plurality of cameras 10a, 10b, 10c and a communication unit 70 as compared to the video surveillance apparatus 1 according to the embodiment of FIG. 1. different.
  • Other configurations and operation methods are the same as those of the video surveillance apparatus 1 according to an exemplary embodiment, and overlapping parts will be omitted below.
  • all the surveillance areas can be displayed on a screen, but all images captured by the plurality of cameras 10a, 10b, and 10c are displayed on a limited size screen. This can be difficult to monitor closely. Although three cameras 10a, 10b, and 10c are shown in FIG. 10, more detailed monitoring may be difficult when using several tens of cameras. Therefore, the image display unit displays only the area currently photographed by the camera on the screen, so that the user can intensively monitor the displayed area.
  • the communication unit 70 is an apparatus for transmitting information about an event to the plurality of cameras 10a, 10b, 10c. When an event occurs outside the display area currently photographed by the camera, the communication unit transmits information on the location where the event occurred to another camera, so that the other camera can capture the event.
  • the surveillance area is a sum 15, 16, and 17 of the areas photographed by the plurality of cameras 10a, 10b, and 10c.
  • An area photographed by the current camera 10a among the cameras 10a, 10b, and 10c becomes the display area 15.
  • FIG. 12 illustrates a method of displaying an event occurrence area in a video surveillance apparatus according to another embodiment of the present invention. Since the video surveillance apparatus according to another embodiment has the same configuration as the video surveillance apparatus according to the embodiment and a configuration using a plurality of cameras, the video surveillance apparatus may operate in the same manner as described with reference to FIGS. 5 to 7.
  • the display area 15 captured by the first camera is displayed.
  • the event detector detects the generated event, and the marker display unit displays an event marker 56 including information on the generated event on the second image 29.
  • the event marker 56 may include identification information of another camera photographing the generated event.
  • 'second camera' is displayed on the event marker as identification information of another camera photographing the generated event.
  • the image display unit may display an image of the second camera indicated by the event marker 56. Accordingly, the display area 16 captured by the second camera is displayed on the second image.
  • the communication unit controls the other cameras to capture the location of the event represented by the event marker 56 when the user selects the event marker 56, the second camera or the third camera information about the location of the event occurred Can be sent to.
  • the second camera is already photographing the location where the event occurred, the second camera may receive location information for more detailed shooting, and when the location of the received event is a recordable area, the third camera may be a shooting area. You can switch and shoot.
  • the marker display unit may be configured for a plurality of cameras corresponding to a plurality of events. Event markers may be displayed on the first image.
  • FIG. 13 illustrates a second image 29 in which a plurality of event markers are displayed.
  • the first event marker 57 indicated by the marker display unit indicates an event occurring in the area photographed by the second camera
  • the second event marker 58 indicates an event occurring in the area photographed by the third camera.
  • the marker display unit may display at least one of the color, thickness, line type, and annotation of the event markers so that a plurality of events corresponding to the plurality of cameras are distinguished.
  • the annotation is marked differently as 'second camera' on the first event marker 57 and 'third camera' on the second event marker 58.
  • the first event marker 57 is red.
  • the second event marker 57 may be displayed in blue so that a plurality of events corresponding to the plurality of cameras may be distinguished.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Emergency Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

본 발명은 카메라에 의해 촬영되는 감시 영역과 감시 영역 중 스크린에 디스플레이 되는 표시 영역에 있어서, 표시 영역 이외의 영역에서 발생한 이벤트에 대한 정보를 스크린에 표시하는 영상 감시 장치에 관한 것이다. 본 발명에서는 사용자가 발생한 이벤트에 대해서 즉각 대응할 수 있도록, 이벤트가 발생한 위치, 이벤트의 종류 등 발생한 이벤트에 대한 상세한 정보를 스크린에 표시한다. 본 발명에 따르면 사용자는 표시 영역 이외에서 발생한 이벤트에 대한 상세한 정보를 제공받을 수 있으므로, 이벤트가 발생한 위치로 화면을 즉각 전환하여 이벤트를 시각적으로 확인하는 것이 가능하다. 따라서 사용자는 발생한 이벤트에 대한 신속한 대응을 할 수 있다. 또한 본 발명에 따르면 고해상도 카메라, 어안 렌즈 카메라, 또는 복수의 카메라로 광범위한 감시 영역을 촬영하는 경우, 표시 영역에 대한 집중적인 감시를 통해 감시 시스템의 효율성을 높일 수 있다.

Description

이벤트 정보를 표시하는 영상 감시 장치
본 발명은 영상 감시 장치에 관한 것으로서, 보다 상세하게는 카메라에 의해 촬영되는 감시 영역과 감시 영역 중 스크린에 디스플레이 되는 표시 영역에 있어서, 표시 영역 이외의 영역에서 발생한 이벤트에 대한 정보를 스크린에 표시하는 영상 감시 장치에 관한 것이다.
사건의 예방과 해결에 감시 카메라의 중요성이 부각되면서 고해상도를 지원하는 감시 카메라가 사용되고 있다. 고해상도 감시 카메라가 지원하는 해상도는 Ultra HD(UHD, 3840x2160)와 8K UHD(7680x4320)를 포함한다. UHD는 HD(1920x1080)보다 9배, Full HD(FHD, 1920x1080)보다 4배 높은 해상도, 8K UHD는 FHD보다 16배 높은 해상도이다. UHD로 촬영된 영상은 약 830만 화소, 8K UHD로 촬영된 영상은 약 3300만 화소로 이루어지기 때문에, 고해상도 감시 카메라를 이용할 경우 감시 영역에 대한 선명한 영상을 획득할 수 있다.
고해상도 감시 카메라의 뛰어난 성능은 광범위한 감시 영역을 촬영하는 경우 더욱 부각될 수 있다. UHD 감시 카메라의 경우 빌딩들이 들어찬 도시를 촬영하면 창문 하나하나가 구분될 정도로 선명한 영상을 획득할 수 있고, 항공사진을 촬영하면 도로 위의 차량이 선명히 분간되는 영상을 획득할 수 있다.
그런데 고해상도 감시 카메라로 광범위한 감시 영역을 촬영하더라도 스크린의 크기는 한정되어 있기 때문에, 스크린에 촬영된 모든 감시 영역을 디스플레이 할 경우 감시 영역 내의 물체들이 인식하기 어려울 정도로 작게 디스플레이 될 수 있다. 따라서 집중적이고 효율적인 감시를 위해서는 촬영된 감시 영역과 감시 영역 중에서 스크린에 확대되어 디스플레이 되어야 할 표시 영역을 구분할 필요가 있다.
감시 카메라에 어안 렌즈를 사용하는 경우에도 유사한 문제가 제기된다. 어안 렌즈의 짧은 초점거리로 인해 어안 렌즈 카메라에는 워프(warp)된 영상이 촬영된다. 촬영된 영상을 매핑을 통해 디워프(dewarp)하면 정상적인 영상으로 전환되나, 굴곡되어 있던 영상을 펼치는 만큼 스크린에 디스플레이 되는 영상의 면적이 넓어지게 된다. 따라서 한정된 스크린의 크기를 고려하여 어안 렌즈에 의해 촬영된 감시 영역과 감시 영역 중에서 스크린에 디스플레이 되어야 할 표시 영역이 구분될 필요가 있다.
또한 복수의 감시 카메라를 사용하는 경우에도 감시 영역과 표시 영역은 구분되어야 한다. 복수의 감시 카메라로 서로 다른 영역 또는 서로 다른 각도로 감시 영역을 촬영하더라도, 사람이 복수의 감시 카메라에서 촬영된 모든 영역을 한번에 인지할 수 없고 스크린의 크기는 한정되어 있기 때문에, 복수의 감시 카메라에 의해 촬영된 영역 중 하나의 카메라에 의해 촬영된 영역이 스크린에 디스플레이 되어야 할 필요가 있다.
그런데 감시 카메라에 의해 촬영되는 감시 영역보다 작은 표시 영역을 디스플레이 하는 경우, 표시 영역 이외의 영역에서 이벤트가 발생하면 사용자는 시각적으로 이벤트를 인지할 수 없다. 따라서 표시 영역 이외에서 발생한 이벤트에 대하여 사용자에게 이벤트가 발생한 위치 또는 종류에 대한 정보를 제공할 수 있는 영상 감시 시스템이 요구된다.
본 발명이 해결하고자 하는 과제는, 카메라에 의해 촬영되는 감시 영역 중 표시 영역을 디스플레이 하는 영상 감시 장치에 있어서, 표시 영역 이외의 영역에서 발생한 이벤트에 대한 정보를 표시하는 영상 감시 장치를 제공하는 것이다. 나아가 사용자가 발생한 이벤트에 대해서 즉각 대응할 수 있도록, 이벤트가 발생한 위치, 이벤트의 종류 등 발생한 이벤트에 대한 상세한 정보를 표시하는 영상 감시 장치를 제공하는 것이다.
본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 해결하기 위한 본 발명의 실시예에 따른 영상 감시 장치는, 감시 영역을 촬영하여 제1 영상을 획득하는 카메라; 상기 감시 영역에 포함되고 상기 감시 영역보다 작은 표시 영역 내의 제2 영상을 시각적으로 표시하는 영상 표시부; 상기 감시 영역 내에서 이벤트가 발생하였는지를 감지하는 이벤트 탐지부; 및 상기 표시 영역 이외에서 상기 이벤트가 발생한 경우에, 상기 이벤트의 발생을 표시하는 이벤트 마커를 상기 제2 영상 위에 표시하는 마커 표시부를 포함한다.
상기 과제를 해결하기 위한 본 발명의 실시예에 따른 영상 감시 장치에서 마커 표시부는, 상기 발생한 이벤트가 복수인 경우에 상기 복수의 이벤트에 대응하여 복수의 이벤트 마커를 상기 제2 영상 위에 표시할 수 있다.
상기 과제를 해결하기 위한 본 발명의 실시예에 따른 영상 감시 장치에서 상기 제1 영상은 어안 렌즈에 의해 워프(warp)된 영상이고 상기 제2 영상은 상기 워프된 영상을 매핑을 통해 디워프(dewarp) 한 영상일 수 있다.
상기 과제를 해결하기 위한 본 발명의 실시예에 따른 영상 감시 장치에서 상기 감시 영역은 복수의 카메라가 촬영하는 영역의 총합이고, 상기 표시 영역은 상기 복수의 카메라 중 현재 카메라가 촬영하는 영역일 수 있다.
상기 과제를 해결하기 위한 본 발명의 실시예에 따른 영상 감시 장치는, 상기 감지된 이벤트를 분석하는 이벤트 분석부를 더 포함하고, 상기 이벤트 마커는 상기 이벤트 분석부에서 분석한 정보를 포함할 수 있다.
상기 과제를 해결하기 위한 본 발명의 실시예에 따른 영상 감시 장치에서 상기 이벤트 탐지부는 상기 감시 영역 내에서 특정 감시 대상의 위치를 감지하는 기능을 더 포함하고, 상기 마커 표시부는 상기 감지된 특정 감시 대상의 위치가 상기 표시 영역을 벗어난 경우에, 상기 특정 감시 대상의 위치를 표시하는 이벤트 마커를 상기 제2 영상 위에 표시하는 기능을 더 포함할 수 있다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 실시예들에 의하면 적어도 다음과 같은 효과가 있다.
본 발명에 따르면 사용자는 표시 영역 이외에서 발생한 이벤트에 대한 상세한 정보를 제공받을 수 있으므로, 이벤트가 발생한 위치로 화면을 즉각 전환하여 이벤트를 시각적으로 확인하는 것이 가능하다. 따라서 사용자는 발생한 이벤트에 대한 신속한 대응을 할 수 있다.
또한 본 발명에 따르면 사용자는 전체 감시 영역 중 표시 영역만 스크린에 디스플레이 되더라도 표시 영역 이외에서 발생한 이벤트에 대한 상세한 정보를 제공받을 수 있으므로, 전체 감시 영역이 반드시 모두 디스플레이 될 필요가 없다. 따라서 본 발명은 표시 영역만을 디스플레이 하여 집중적인 감시를 할 수 있는 환경을 제공한다. 특히 고해상도 카메라, 어안 렌즈 카메라, 또는 복수의 카메라로 광범위한 감시 영역을 촬영하는 경우, 표시 영역에 대한 집중적인 감시를 통해 감시 시스템의 효율성을 높일 수 있다.
또한 본 발명에 따르면 사용자는 표시 영역 이외의 영역에 발생한 이벤트와 더불어 특정 감시 대상의 위치에 대한 정보를 제공 받을 수 있으므로, 특정 감시 대상에 사건이 발생하는 것을 미리 예방할 수 있다. 즉, 이벤트 발생 정보를 통해 사용자가 사건의 사후 대응을 할 수 있다면, 나아가 본 발명에서는 특정 감시 대상의 위치 정보를 통해 사건의 사전 예방을 할 수 있다. 예를 들면, 사용자는 표시 영역에서 벗어난 아동의 위치 정보를 활용하여 아동의 사고를 예방할 수 있다.
본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.
도 1은 본 발명의 일 실시예에 따른 영상 감시 장치를 나타낸다.
도 2는 본 발명의 일 실시예에 따른 영상 감시 장치의 감시 영역과 표시 영역을 나타낸다.
도 3은 본 발명의 일 실시예에 따른 영상 감시 장치의 감시 영역에 발생한 이벤트와 이벤트 마커가 표시된 제2 영상을 나타낸다.
도 4는 본 발명의 일 실시예에 따른 영상 감시 장치의 감시 영역에 발생한 복수의 이벤트와 복수의 이벤트 마커가 표시된 제2 영상을 나타낸다.
도 5 내지 도 7은 본 발명의 일 실시예에 따른 영상 감시 장치에서 이벤트 발생 영역을 표시하는 방법을 나타낸다.
도 8은 본 발명의 다른 실시예에 따른 영상 감시 장치의 감시 영역과 표시 영역을 나타낸다.
도 9는 본 발명의 다른 실시예에 따른 영상 감시 장치에서 이벤트 발생 영역을 표시하는 방법을 나타낸다.
도 10은 본 발명의 또 다른 실시예에 따른 영상 감시 장치를 나타낸다.
도 11은 본 발명의 또 다른 실시예에 따른 영상 감시 장치의 감시 영역과 표시 영역을 나타낸다.
도 12는 본 발명의 또 다른 실시예에 따른 영상 감시 장치에서 이벤트 발생 영역을 표시하는 방법을 나타낸다.
도 13은 본 발명의 또 다른 실시예에 따른 영상 감시 장치에서 복수의 이벤트 마커가 표시된 제2 영상을 나타낸다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 영상 감시 장치(1)를 나타낸다. 일 실시예에서 영상 감시 장치(1)는 카메라(10), 영상 표시부(20), 이벤트 탐지부(30), 이벤트 분석부(40), 마커 표시부(50), 사용자 인터페이스(60)를 포함한다.
카메라(10)는 감시 영역을 촬영하는 장치이다. 카메라(10)가 촬영하는 영상의 해상도는 UHD(3840x2160), 8K UHD(7680x4320) 등의 고해상도를 포함할 수 있다. UHD는 HD(1920x1080)보다 9배, FHD(1920x1080)보다 4배 높은 해상도, 8K UHD는 FHD보다 16배 높은 해상도이다. 고해상도 카메라를 사용하면 광범위한 영역을 하나의 카메라로 촬영하더라도 선명한 영상을 획득할 수 있다.
카메라(10)는 감시 영역에 대한 영상 정보와 함께 감시 영역에 대한 음성 정보를 획득하는 기능을 포함할 수 있다. 음성 정보는 카메라(10)에 마이크가 장착된 경우 카메라(10) 자체로 획득된 정보일 수 있으며 또는 감시 영역 내의 다른 기기로부터 획득되어 전달된 정보일 수 있다.
영상 표시부(20)는 감시 영역 중 표시 영역을 시각적으로 표시하는 장치이다. 영상 표시부(20)는 스크린에 표시 영역을 디스플레이하여 표시 영역을 시각적으로 표시할 수 있다.
감시 영역(11)과 표시 영역(12)의 비교를 위해 도 2를 참조한다. 도 2는 감시 영역(11)과 표시 영역(12)을 나타낸다. 감시 영역(11)은 카메라가 촬영하는 영역이고, 표시 영역(12)은 감시 영역(11)에 포함되며 감시 영역(11)보다 작은 영역으로 스크린에 시각적으로 표시되는 영역이다. 카메라는 감시 영역(11)을 촬영하여 제1 영상(21)을 획득하나, 스크린에 디스플레이 되는 제2 영상(22)은 감시 영역(11) 중 표시 영역(12)만을 포함한다.
도 2를 참조하면, 감시 영역(11)은 다수의 건물과 도로를 포함하고, 표시 영역(12)은 감시 영역(11) 중 하나의 교차로를 포함하고 있다. 감시 영역(11)을 한정된 크기의 스크린에 모두 디스플레이 하면, 상기 하나의 교차로가 작게 디스플레이 되어 세밀한 감시가 어려울 수 있다. 그러나 영상 표시부는 표시 영역(12)만을 스크린에 디스플레이 하기 때문에 사용자는 교차로를 집중적으로 감시 할 수 있다.
다시 도 1을 참조하면, 이벤트 탐지부(30)는 감시 영역 내에서 이벤트 발생 여부를 감지하는 장치이다. 이벤트 탐지부(30)에서 감지하는 이벤트는 모션 이벤트와 소리 이벤트를 포함한다. 모션 이벤트는 물체의 움직임에 따른 이벤트이고 소리 이벤트는 소리의 발생에 따른 이벤트이다.
이벤트 탐지부(30)는 이벤트가 발생하였는지 감지하기 위해 카메라(10)에서 획득되는 영상 정보 또는 음성 정보를 사용할 수 있다. 이벤트 탐지부(30)는 카메라(10)에서 획득된 제1 영상의 정보를 이용하여 감시 영역 내에서 움직임이 발생하였는지를 감지할 수 있다. 또한 이벤트 탐지부(30)는 카메라(10)에서 획득된 음성 정보를 이용하여 감시 영역 내에서 소리가 발생하였는지를 감지할 수 있다.
나아가 이벤트 탐지부(30)는 제1 영상 상에서 어느 지점에서 이벤트가 발생하였는지, 발생한 이벤트의 종류가 무엇인지를 탐지할 수 있다. 이벤트 탐지부(30)는 제1 영상의 정보를 이용하여 감시 영역 내에서 움직임이 발생한 것을 감지한 경우, 움직임이 발생한 픽셀의 좌표를 통해 제1 영상 상에서 움직임이 발생한 지점을 탐지할 수 있다. 또한 이벤트 탐지부(30)는 제1 영상 상에서 움직인 물체의 형상 정보, 획득된 음성 정보 등을 이용하여 발생한 이벤트의 종류를 파악할 수 있다. 예를 들어, 제1 영상 상에서 두 대의 자동차 형상의 물체가 마주 달려오다 충돌하는 움직임과 자동차의 충돌음이 감지된 경우, 이벤트 탐지부(30)는 '자동차 충돌'로 이벤트의 종류를 탐지할 수 있다. 또는 이벤트 탐지부(30)는 물체의 형상 정보와 음성 정보를 메타 데이터와 비교하여 이벤트의 종류를 탐지할 수 있다.
또한 이벤트 탐지부(30)는 감시 영역 내에서 특정 감시 대상의 위치를 감지하는 기능을 더 포함할 수 있다. 특정 감시 대상은 사물인터넷(Internet of Thins, IoT)이 적용된 장치일 수 있으며, 이벤트 탐지부(30)는 특정 감시 대상과의 정보 교환을 통해 특정 감시 대상의 위치를 감지할 수 있다. 예를 들어, 자동차와 이벤트 탐지부(30) 간의 정보 교환을 통해 주차장에 주차된 자동차의 위치를 감지할 수 있다. 또는 이벤트 탐지부(30)는 비콘(beacon)등과 같은 센서를 이용하여 특정 감시 대상의 위치를 감지할 수 있다.
즉, 이벤트 탐지부(30)는 움직임, 소리의 발생 감지 등 사후적 감지 기능과 더불어 특정 감시 대상의 위치 감지와 같은 사전적 감지 기능을 포함한다. 이벤트 탐지부(30)의 사후적 감지 기능을 통해 이벤트가 발생한 이후에 대응을 할 수 있다면, 이벤트 탐지부(30)의 사전적 감지 기능을 활용하면 이벤트가 발생하는 것을 사전에 방지할 수 있다. 예를 들어, 스마트폰을 소지한 아동의 위치를 비콘을 이용하여 감지하는 경우, 아동이 표시 영역에서 벗어난 곳에 위치하거나 아동이 위험 영역에 위치하는 등의 정보를 아동 사고를 방지하기 위해 사용할 수 있다.
이벤트 분석부(40)는 이벤트 탐지부(30)에서 감지된 이벤트를 분석하는 기능을 수행한다. 이벤트 탐지부(30)에서 인물이 감지된 경우 이벤트 분석부(40)는 감지된 인물의 표정을 분석하여 감지된 인물의 분노, 긴장여부 등을 파악할 수 있다. 또는 이벤트 탐지부(30)에서 고성이 감지된 경우 이벤트 분석부(40)는 감지된 고성이 환호소리인지 비명소리인지 등을 분석할 수 있다.
마커 표시부(50)는 표시 영역 이외에서 이벤트가 발생한 경우, 이벤트의 발생을 표시하는 이벤트 마커를 제2 영상 위에 표시하는 장치이다. 마커 표시부(50)는 이벤트 마커를 제2 영상 위에 중첩하여 표시할 수 있다.
표시 영역 이외의 영역에서 이벤트가 발생한 경우, 사용자는 제2 영상을 통해 시각적으로 이벤트를 인지할 수 없다. 따라서 마커 표시부(50)는 이벤트 마커를 제2 영상 위에 표시하여 사용자가 표시 영역 이외의 영역에서 발생한 이벤트를 인지할 수 있도록 한다.
이벤트 마커는 발생된 이벤트에 대한 상세한 정보를 포함한다. 이벤트 마커는 표시 영역을 기준으로 이벤트가 발생한 상대적인 위치를 시각적으로 파악할 수 있는 정보를 포함할 수 있다. 이벤트 마커는 표시 영역을 기준으로 이벤트가 발생한 위치까지의 거리를 화살표의 길이로, 이벤트가 발생한 방향을 화살표의 방향으로 하는 화살표일 수 있다. 또는 이벤트 마커는 표시 영역을 기준으로 이벤트가 발생한 위치까지의 거리 또는 방향이 화살표 대신 표현된 문구일 수 있다. 예를 들어, 표시 영역의 중심점을 기준으로 이벤트가 북동쪽 방향 3km 지점에서 발생한 경우 이벤트 마커는 제2 영상 상에 북동쪽 방향을 가리키는 화살표로 표시될 수 있다. 3km 보다 더 먼 지점에서 이벤트가 발생한다면, 더 긴 길이의 화살표로 이벤트 마커가 표시될 것이다. 또는 이벤트 마커는 제2 영상 상에 북동쪽 방향을 가리키는 화살표와 '3km'의 문구로 표시될 수 있다.
또한 이벤트 마커는 이벤트가 발생한 절대적인 위치를 시각적으로 파악할 수 있는 정보를 포함할 수 있다. 예를 들어, 이벤트가 중앙길40(central st. 40) 에서 발생한 경우 이벤트 마커는 '중앙길40'의 문구로 표시될 수 있다.
또한 이벤트 마커는 발생한 이벤트의 종류를 나타내는 정보를 포함할 수 있다. 이벤트 탐지부(30)에 의해 발생한 이벤트의 종류가 '자동차 충돌'로 탐지된 경우, 이벤트 마커는 '자동차 충돌'이라는 문구로 표시될 수 있다. 또는 이벤트 마커는 이벤트의 종류를 나타내는 정보를 나타내기 위해 문구 외에도 발생한 이벤트를 의미하는 그림 또는 아이콘으로 표시될 수 있다.
또한 이벤트 마커는 이벤트 분석부(40)에서 분석된 이벤트에 대한 정보를 포함할 수 있다. 예를 들어, 고성이 이벤트로 발생하고 이벤트 분석부(40)가 고성을 '비명소리'로 분석한 경우, 이벤트 마커는 '비명소리 발생'의 문구로 표시될 수 있다.
마커 표시부(50)는 이벤트 마커를 통해 표시 영역 외에서 발생한 이벤트에 대한 정보를 제2 영상 상에 표시하므로, 제2 영상만을 디스플레이 하더라도 사용자에게 전체 감시 영역에서 발생하는 이벤트에 대한 정보 제공이 가능하다. 따라서 사용자는 감시 영역 중 표시 영역에 대해 시각적인 감시를 하면서 동시에 표시 영역 외에서 발생하는 이벤트를 관리할 수 있다.
도 3을 도 1과 함께 참조하여 이벤트 탐지부(30)와 마커 표시부(50)의 작동 방식을 실시예를 통해 살펴본다. 도 3은 감시 영역에 발생한 이벤트와 이벤트 마커가 표시된 제2 영상을 나타낸다. 도 3의 감시 영역(11)에는 표시 영역(12)에 대하여 북동쪽 3km 지점에 자동차 충돌 이벤트(31)가 발생해 있다.
이벤트 탐지부(30)는 제1 영상(21)을 통해 이벤트가 발생한 위치, 종류를 탐지한다. 이벤트 탐지부(30)는 제1 영상(21)의 영상 정보를 통해 표시 영역(12)에 대하여 이벤트(31)가 발생한 위치와 정보를 '북동쪽 3km 지점', '자동차 충돌'로 탐지할 수 있다.
마커 표시부(50)는 이벤트 발생을 표시하는 이벤트 마커(51)를 제2 영상(22) 위에 표시하여 사용자가 표시 영역(12) 이외에서 발생한 이벤트를 인지할 수 있도록 한다. 이벤트 마커(51)는 발생한 이벤트에 대한 상세한 정보를 포함하며, 북동쪽에 대응하는 방향, 3km에 대응하는 길이를 갖는 화살표와 '자동차 충돌'의 문구로 제2 영상(22) 상에 표시될 수 있다.
복수의 이벤트가 발생하는 경우, 마커 표시부(50)는 복수의 이벤트에 대응하여 복수의 이벤트 마커를 제2 영상 위에 표시할 수 있다.
또한 마커 표시부(50)는 복수의 이벤트의 우선도에 따라 복수의 이벤트 마커에 우선 순위를 표시할 수 있다. 우선도는 사용자가 미리 설정한 우선도에 따라 판별되거나 또는 이벤트가 발생한 거리가 가까운 순서대로 판별되는 등 다양한 기준으로 판별될 수 있다.
또한 마커 표시부(50)는 복수의 이벤트 마커에 우선 순위를 표시하기 위해 복수의 이벤트 마커의 색상, 굵기, 크기 등을 상이하게 표시하거나, 복수의 이벤트 마커에 '우선도 상', '우선도 중' 등과 같은 주석을 함께 표시할 수 있다. 예를 들면, 복수의 이벤트로 제1 이벤트와 제2 이벤트가 발생하고, 제2 이벤트가 제1 이벤트보다 우선도가 높은 경우, 제2 이벤트에 대한 이벤트 마커는 빨강색으로 제1 이벤트에 대한 이벤트 마커는 노란색으로 표시할 수 있다.
도 4을 도 1과 함께 참조하여 복수의 이벤트 마커에 대한 실시예를 살펴본다. 도 4는 감시 영역에 발생한 복수의 이벤트와 복수의 이벤트 마커가 표시된 제2 영상을 나타낸다. 도 4의 감시 영역(11)에는 표시 영역(12)에 대하여 북동쪽 3km 지점에 자동차가 충돌한 제1 이벤트(32)와 북쪽 1km 지점에 자동차가 충돌한 제2 이벤트(33)가 발생해 있다.
마커 표시부(50)는 제1 이벤트(32)에 대하여 이벤트가 발생한 위치와 종류를 알 수 있는 제1 이벤트 마커(52)를, 제2 이벤트(33)에 대하여 이벤트가 발생한 위치와 종류를 알 수 있는 제2 이벤트 마커(53)를 각각 제2 영상(22) 위에 표시할 수 있다. 이때, 제2 이벤트(33)가 발생한 지점은 제1 이벤트(32)가 발생한 지점에 비하여 표시 영역(12)에 가까우므로 제2 이벤트 마커(53)의 화살표는 제1 이벤트 마커(52)의 화살표 보다 짧게 표시될 수 있다. 또한 제2 이벤트(33)가 제1 이벤트(32)보다 우선도가 높은 경우 제2 이벤트 마커(53)에 '우선도 상'의 주석을, 제1 이벤트 마커(52)에 '우선도 중'의 주석을 표시할 수 있다.
사용자 인터페이스(60)는 사용자로부터 스크린에 디스플레이 되는 표시 영역을 제어하는 입력을 받는 장치이다. 사용자 인터페이스(60)는 사용자로부터 입력을 받는 입력 수단을 포함한다. 입력 수단은 예를 들면 마우스, 터치스크린일 수 있다.
표시 영역 이외의 감시 영역에서 이벤트가 발생한 경우, 사용자가 사용자 인터페이스(60)를 통해 이벤트 마커를 선택하면 영상 표시부(30)는 이벤트가 발생한 위치를 포함하는 영역을 표시 영역으로 설정할 수 있다. 사용자 인터페이스(60)의 입력에 따라 영상 표시부(30)가 이벤트 발생 영역을 디스플레이 하는 방법을 도 5 내지 도 7을 참조하여 설명한다.
도 5 내지 도 7은 이벤트 발생 영역을 표시하는 방법을 나타낸다. 도 5 내지 도 7에서는 동일한 이벤트가 발생한 상황에서 이벤트가 발생한 영역을 표시하기 위한 서로 다른 방법들을 나타낸다. 동일한 이벤트는 표시 영역에 대하여 북동쪽 3km 지점에 발생한 자동차 충돌 이벤트로 가정한다.
도 5를 참조하면, 사용자가 제2 영상(22) 위에 표시된 이벤트 마커(54)를 선택(61)하면 영상 표시부는 이벤트 마커(54)가 표시하는 이벤트가 발생한 위치로 표시 영역을 이동하여, 이벤트가 발생한 위치를 포함하는 제2 영상(23)을 디스플레이 한다. 영상 표시부는 표시 영역을 이벤트가 발생한 위치로 이동할 때, 표시 영역의 이동에 따라 제2 영상에 표시되는 영역이 연속되도록 제2 영상을 디스플레이 하여, 표시 영역이 이동하는 방향을 제2 영상을 통해 사용자가 인식할 수 있도록 할 수 있다.
도 6은 참조하여 이벤트 발생 영역을 표시하는 다른 방법을 살펴보면, 사용자가 제2 영상(22) 위에 표시된 이벤트 마커(54)를 선택(61)하면 영상 표시부는 표시 영역을 줌아웃하여 이벤트가 발생한 위치를 포함하는 제2 영상(24)이 표시되도록 한다. 줌아웃 된 제2 영상(24)에는 줌아웃 전의 표시 영역과 이벤트가 발생한 위치가 모두 포함되므로, 사용자는 제2 영상(24)을 통해 줌아웃 하기 전의 표시 영역에서 이벤트가 발생한 위치까지의 감시 영역에 대한 시각적인 정보를 획득할 수 있다.
도 7을 참조하여 이벤트 발생 영역을 표시하는 또 다른 방법을 살펴보면, 사용자가 제2 영상(22) 위에 표시된 이벤트 마커(54)를 선택(61)하면 영상 표시부는 이벤트가 발생한 위치를 포함하는 제3 영상(25)을 제2 영상(22) 위에 팝업하여 표시한다. 사용자는 제2 영상(22)을 통해 감시하던 표시 영역을 계속 감시하면서 이벤트가 발생한 위치에 대한 정보를 제3 영상(25)을 통해 획득할 수 있다.
지금까지 도 1 내지 도 7을 참조하여, 본 발명의 일 실시예에 따른 영상 감시 장치의 구성 및 작동 방법에 대해 살펴보았다. 본 발명의 일 실시예에 따른 영상 감시 장치는 카메라가 촬영한 감시 영역과 스크린에 디스플레이 되는 표시 영역이 다른 경우에, 표시 영역 외에서 이벤트가 발생하더라도 사용자에게 이벤트 정보를 제공하는 것이 가능하고, 사용자는 제공된 정보에 따라 이벤트가 발생한 영역을 즉각 스크린에 디스플레이 하여 감시하는 것이 가능하다.
이하에서는 도 8 내지 도 12를 통해 본 발명에 따른 영상 감시 장치가 적용될 수 있는 다른 실시예들을 살펴본다.
도 8은 본 발명의 다른 실시예에 따른 영상 감시 장치의 감시 영역과 표시 영역을 나타낸다. 다른 실시예에 따른 영상 감시 장치는 도 1에 도시된 일 실시예에 따른 영상 감시 장치(1)와 구성은 동일하나 카메라에 어안 렌즈를 사용하는 점이 다르다. 어안 렌즈는 초점이 짧아 180° 이상의 화각으로 촬영하는 것이 가능하다. 따라서 다른 실시예에 따른 영상 감시 장치는 일반 렌즈를 사용한 경우보다 더 넓은 영역에 대한 영상을 획득할 수 있다.
도 8을 참조하면, 감시 영역(13)은 어안 렌즈 카메라가 촬영하는 영역이고, 표시 영역(14)은 감시 영역(13)에 포함되며 감시 영역(13)보다 작은 영역으로 스크린에 시각적으로 표시되는 영역이다. 어안 렌즈 카메라는 감시 영역(13)을 촬영하여 워프(warp)된 제1 영상(26)을 획득하나, 스크린에 디스플레이 되는 제2 영상(27)은 감시 영역(13) 중 디워프(dewarp) 된 표시 영역만을 포함한다.
감시 영역(13)은 360° 반경의 실내 영역을 포함하고, 표시 영역(14)은 감시 영역(13) 중 하나의 출입문을 포함하고 있다. 감시 영역(13)을 모두 디워프하여 스크린에 디스플레이하면, 굴곡되어 있던 영상을 펼치는 만큼 스크린에 디스플레이 되는 영상의 면적이 넓어지게 되고, 상대적으로 실내의 물체들은 작게 디스플레이 되어 세밀한 감시가 어려울 수 있다. 그러나 영상 표시부는 디워프 된 표시 영역만을 스크린에 디스플레이 하기 때문에 사용자는 출입문에 대하여 집중적인 감시를 할 수 있다.
도 9는 본 발명의 다른 실시예에 따른 영상 감시 장치에서 이벤트 발생 영역을 표시하는 방법을 나타낸다. 다른 실시예에 따른 영상 감시 장치는 일 실시예에 따른 영상 감시 장치와 어안 렌즈 카메라를 사용하는 구성만이 다르므로, 도 5 내지 도 7을 참조한 설명과 동일한 방식으로 동작할 수 있다.
도 9의 감시 영역(13)에는 표시 영역(14)에 대하여 남쪽에 창문이 깨진 이벤트(34)가 발생해 있다. 이벤트 탐지부는 제1 영상(26)을 이용하여 창문이 깨진 이벤트(34)를 탐지하고, 마커 표시부는 발생한 이벤트에 대한 정보를 포함하는 이벤트 마커(55)를 제2 영상(27) 위에 표시한다. 사용자가 제2 영상(27) 위에 표시된 이벤트 마커(55)를 선택(62)하면 영상 표시부는 이벤트 마커(55)가 표시하는 이벤트가 발생한 위치로 표시 영역을 이동하여, 이벤트가 발생한 영역을 포함하는 제2 영상(28)을 디스플레이 할 수 있다. 또는 영상 표시부는 표시 영역을 이벤트가 발생한 영역이 포함되도록 줌아웃 하거나 제2 영상 상에 이벤트가 발생한 영역을 표시하는 제3 영상을 팝업하여 이벤트가 발생한 영역을 디스플레이 할 수 있다.
도 10은 본 발명의 또 다른 실시예에 따른 영상 감시 장치(2)를 나타낸다. 또 다른 실시예에 따른 영상 감시 장치(2)는 도 1의 일 실시예에 따른 영상 감시 장치(1)와 비교하여, 복수의 카메라(10a, 10b, 10c)와 통신부(70)를 포함하는 점이 다르다. 그 외의 구성과 작동 방식은 일 실시예 따른 영상 감시 장치(1)와 동일하며, 이하에서 중복되는 부분은 생략하여 설명한다.
복수의 카메라(10a, 10b, 10c)로 감시 영역을 촬영하는 경우 감시 영역을 모두 스크린에 디스플레이 할 수 있지만, 한정된 크기의 스크린에 복수의 카메라(10a, 10b, 10c)에서 촬영된 영상을 모두 디스플레이하면 세밀한 감시가 어려울 수 있다. 도 10에는 3대의 카메라(10a, 10b, 10c)가 도시되어 있으나, 수십대의 카메라를 사용하는 경우에는 더욱 세밀한 감시가 어려울 수 있다. 따라서 영상 표시부는 현재 카메라에서 촬영하는 영역만을 스크린에 디스플레이 하여 사용자가 디스플레이 된 영역에 대한 집중적인 감시를 할 수 있도록 한다.
통신부(70)는 복수의 카메라(10a, 10b, 10c)에 이벤트에 관한 정보를 전송하는 장치이다. 현재 카메라가 촬영하는 표시 영역 이외에서 이벤트가 발생한 경우, 통신부는 이벤트가 발생한 위치에 대한 정보를 다른 카메라에 전송하여, 다른 카메라가 이벤트를 촬영할 수 있도록 한다.
도 11은 본 발명의 또 다른 실시예에 따른 영상 감시 장치의 감시 영역과 표시 영역을 나타낸다. 또 다른 실시예에서 영상 표시부는 현재 카메라가 촬영하는 영역만을 스크린에 디스플레이 하므로, 감시 영역은 복수의 카메라(10a, 10b, 10c)가 촬영하는 영역의 총합(15, 16, 17)이고, 복수의 카메라(10a, 10b, 10c) 중 현재 카메라(10a)에서 촬영하는 영역이 표시 영역(15)이 된다.
도 12는 본 발명의 또 다른 실시예에 따른 영상 감시 장치에서 이벤트 발생 영역을 표시하는 방법을 나타낸다. 또 다른 실시예에 따른 영상 감시 장치는 일 실시예에 따른 영상 감시 장치와 복수의 카메라를 사용하는 구성 외의 다른 구성은 동일하므로, 도 5 내지 도 7을 참조한 설명과 동일한 방식으로 동작할 수 있다.
도 12의 제2 영상(29)에는 제1 카메라에 의해 촬영된 표시 영역(15)이 디스플레이 되어 있다. 표시 영역(15) 외에서 이벤트가 발생한 경우, 이벤트 탐지부는 발생한 이벤트를 탐지하고, 마커 표시부는 발생한 이벤트에 대한 정보를 포함하는 이벤트 마커(56)를 제2 영상(29) 위에 표시한다.
이벤트 마커(56)는 발생한 이벤트가 촬영된 다른 카메라의 식별 정보를 포함할 수 있다. 도 12에는 발생한 이벤트가 촬영된 다른 카메라의 식별 정보로 '제2 카메라'가 이벤트 마커에 표시되어 있다.
사용자가 제2 영상(29) 위에 표시된 이벤트 마커(56)를 선택(63)하면 영상 표시부는 이벤트 마커(56)가 나타내는 제2 카메라의 영상을 표시할 수 있다. 이에 따라, 제2 영상 위에는 제2 카메라에서 촬영되는 표시 영역(16)이 디스플레이 된다.
이때, 통신부는 사용자가 이벤트 마커(56)를 선택할 때 이벤트 마커(56)가 나타내는 이벤트가 발생한 위치를 다른 카메라들이 촬영하도록 제어하기 위해, 이벤트가 발생한 위치에 관한 정보를 제2 카메라 또는 제3 카메라로 전송할 수 있다. 제2 카메라는 이미 이벤트가 발생한 위치를 촬영하고 있지만, 보다 자세한 촬영을 위해 위치 정보를 수신할 수 있고, 제3 카메라는 수신한 이벤트의 위치가 촬영 가능한 영역인 경우 촬영 영역을 이벤트가 발생한 영역으로 전환하여 촬영할 수 있다.
도 12에 도시된 실시예와 달리, 제2 카메라가 촬영하는 영역에서 발생한 이벤트와 동시에 제3 카메라가 촬영하는 영역에서 이벤트가 발생한 경우, 마커 표시부는 복수의 이벤트에 각각 대응하는 복수의 카메라에 대한 이벤트 마커들을 제1 영상 상에 표시할 수 있다.
도 13은 복수의 이벤트 마커가 표시된 제2 영상(29)을 나타낸다. 마커 표시부에 의해 표시된 제1 이벤트 마커(57)는 제2 카메라가 촬영한 영역에서 발생한 이벤트를 나타내고, 제2 이벤트 마커(58)는 제3 카메라가 촬영한 영역에서 발생한 이벤트를 나타낸다. 이때, 마커 표시부는 복수의 카메라에 대응되는 복수의 이벤트가 구분되도록 이벤트 마커들의 색상, 굵기, 선의 종류, 주석 중 적어도 어느 하나를 달리하여 표시할 수 있다. 도 13에는 제1 이벤트 마커(57)에 '제2 카메라', 제2 이벤트 마커(58)에 '제3 카메라'로 주석이 다르게 표시되어 있으나, 이와 달리 제1 이벤트 마커(57)를 빨강색으로, 제2 이벤트 마커(57)를 파랑색으로 표시하여 복수의 카메라에 대응되는 복수의 이벤트가 구분되도록 할 수 있다.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (20)

  1. 감시 영역을 촬영하여 제1 영상을 획득하는 카메라;
    상기 감시 영역에 포함되고 상기 감시 영역보다 작은 표시 영역 내의 제2 영상을 시각적으로 표시하는 영상 표시부;
    상기 감시 영역 내에서 이벤트가 발생하였는지를 감지하는 이벤트 탐지부; 및
    상기 표시 영역 이외에서 상기 이벤트가 발생한 경우에, 상기 이벤트의 발생을 표시하는 이벤트 마커를 상기 제2 영상 위에 표시하는 마커 표시부를 포함하는, 영상 감시 장치.
  2. 제1항에 있어서, 상기 이벤트 마커는
    상기 표시 영역을 기준으로, 상기 감시 영역 내에서 상기 이벤트가 발생한 상대적인 위치를 시각적으로 파악할 수 있게 해 주는 정보를 포함하는, 영상 감시 장치.
  3. 제2항에 있어서, 상기 이벤트 마커는
    상기 표시 영역을 기준으로, 상기 이벤트가 발생한 위치까지의 거리를 화살표의 길이로, 상기 이벤트가 발생한 방향을 상기 화살표의 방향으로 하는 상기 화살표를 포함하는, 영상 감시 장치.
  4. 제3항에 있어서, 상기 이벤트 마커는
    상기 발생한 이벤트의 종류를 나타내는 정보를 더 포함하는, 영상 감시 장치.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서, 상기 영상 표시부는
    사용자가 상기 이벤트 마커를 선택할 때, 상기 이벤트 마커가 표시하는 이벤트가 발생한 위치로 상기 표시 영역을 이동하거나 줌아웃(zoom-out)하여, 상기 이벤트가 발생한 위치를 포함하는 영상을 표시하는, 영상 감시 장치.
  6. 제5항에 있어서, 상기 영상 표시부는
    상기 표시 영역과 상기 이벤트가 발생한 위치 사이의 감시 영역을 삽입하여 보여주는 상기 이벤트가 발생한 위치를 포함하는 영상을 표시하는, 영상 감시 장치.
  7. 제1항 내지 제4항 중 어느 한 항에 있어서, 상기 영상 표시부는
    사용자가 상기 이벤트 마커를 선택할 때, 상기 이벤트 마커가 표시하는 이벤트가 발생한 위치를 포함하는 제3 영상을 상기 제2 영상 위에 팝업하여 표시하는, 영상 감시 장치.
  8. 제1항 내지 제4항 중 어느 한 항에 있어서, 상기 마커 표시부는
    상기 발생한 이벤트가 복수인 경우에 상기 복수의 이벤트에 대응하여 복수의 이벤트 마커를 상기 제2 영상 위에 표시하는, 영상 감시 장치.
  9. 제8항에 있어서, 상기 마커 표시부는
    상기 복수의 이벤트의 우선도에 따라 상기 복수의 이벤트 마커에 우선 순위를 표시하는, 영상 감시 장치.
  10. 제9항에 있어서, 상기 마커 표시부는
    상기 복수의 이벤트의 우선도에 따라 상기 복수의 이벤트 마커의 색상을 상이하게 표시하는, 영상 감시 장치.
  11. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 제1 영상은 어안 렌즈에 의해 워프(warp)된 영상이고 상기 제2 영상은 상기 워프된 영상을 매핑을 통해 디워프(dewarp) 한 영상인, 영상 감시 장치.
  12. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 감시 영역은 복수의 카메라가 촬영하는 영역의 총합이고, 상기 표시 영역은 상기 복수의 카메라 중 현재 카메라가 촬영하는 영역인, 영상 감시 장치.
  13. 제12항에 있어서, 상기 이벤트 마커는
    상기 복수의 카메라 중에서 상기 현재 카메라를 제외한 다른 카메라의 식별 정보를 포함하는, 영상 감시 장치.
  14. 제13항에 있어서, 상기 영상 표시부는
    사용자가 상기 이벤트 마커를 선택할 때, 상기 이벤트 마커가 나타내는 상기 다른 카메라의 영상을 표시하는, 영상 감시 장치.
  15. 제14항에 있어서,
    사용자가 상기 이벤트 마커를 선택할 때, 상기 이벤트 마커가 나타내는 상기 다른 카메라가 상기 이벤트가 발생한 위치를 촬영하도록 제어하기 위해, 상기 이벤트가 발생한 위치에 관한 정보를 상기 다른 카메라로 전송하는 통신부를 더 포함하는, 영상 감시 장치.
  16. 제12항에 있어서, 상기 마커 표시부는
    상기 발생한 이벤트가 복수인 경우에 상기 복수의 이벤트에 대응하는 복수의 카메라에 대한 이벤트 마커들을 상기 제2 영상 위에 표시하는, 영상 감시 장치.
  17. 제16항에 있어서, 상기 마커 표시부는
    상기 복수의 카메라에 대응되는 복수의 이벤트가 구분되도록 상기 이벤트 마커들의 색상, 굵기, 선의 종류, 주석 중 적어도 어느 하나를 달리하여 표시하는, 영상 감시 장치.
  18. 제1항에 있어서, 상기 이벤트 탐지부는
    상기 감시 영역 내에서 발생한 움직임과 상기 감시 영역 내에서 발생한 소리를 기초로 이벤트를 감지하는, 영상 감시 장치.
  19. 제1항에 있어서,
    상기 감지된 이벤트를 분석하는 이벤트 분석부를 더 포함하고,
    상기 이벤트 마커는 상기 이벤트 분석부에서 분석한 정보를 포함하는, 영상 감시 장치.
  20. 제1항에 있어서,
    상기 이벤트 탐지부는 상기 감시 영역 내에서 특정 감시 대상의 위치를 감지하는 기능을 더 포함하고,
    상기 마커 표시부는 상기 감지된 특정 감시 대상의 위치가 상기 표시 영역을 벗어난 경우에, 상기 특정 감시 대상의 위치를 표시하는 이벤트 마커를 상기 제2 영상 위에 표시하는 기능을 더 포함하는, 영상 감시 장치.
PCT/KR2017/011650 2016-11-30 2017-10-20 이벤트 정보를 표시하는 영상 감시 장치 Ceased WO2018101605A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/422,482 US10979675B2 (en) 2016-11-30 2019-05-24 Video monitoring apparatus for displaying event information

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160161925A KR102634188B1 (ko) 2016-11-30 2016-11-30 영상 감시 시스템
KR10-2016-0161925 2016-11-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/422,482 Continuation US10979675B2 (en) 2016-11-30 2019-05-24 Video monitoring apparatus for displaying event information

Publications (1)

Publication Number Publication Date
WO2018101605A1 true WO2018101605A1 (ko) 2018-06-07

Family

ID=62242109

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/011650 Ceased WO2018101605A1 (ko) 2016-11-30 2017-10-20 이벤트 정보를 표시하는 영상 감시 장치

Country Status (3)

Country Link
US (1) US10979675B2 (ko)
KR (1) KR102634188B1 (ko)
WO (1) WO2018101605A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110708498A (zh) * 2018-06-22 2020-01-17 浙江宇视科技有限公司 一种在实景监控画面中标示poi信息的方法及装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7440332B2 (ja) * 2020-04-21 2024-02-28 株式会社日立製作所 事象解析システムおよび事象解析方法
US20230343097A1 (en) * 2022-04-22 2023-10-26 Stephen Williams System and method for managing and interacting with event information

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110026287A (ko) * 2009-09-07 2011-03-15 (주)토필드 이벤트 통합 관리를 위한 보안 및 감시 겸용 기록 장치
KR20140039927A (ko) * 2012-09-25 2014-04-02 에스케이텔레콤 주식회사 복수 개의 촬영영상으로부터 이벤트를 검출하는 장치 및 방법
KR20140110684A (ko) * 2013-07-08 2014-09-17 이승철 Cctv 감시장치 비트맵에 의한 이미지 데이터 처리 움직임 분석 제어 방법
KR20150073692A (ko) * 2013-12-23 2015-07-01 삼성전자주식회사 이미지 처리 방법 및 그 전자 장치
KR20160094655A (ko) * 2015-02-02 2016-08-10 주식회사 일리시스 복수의 고해상도 카메라들을 이용한 파노라마 영상 감시 시스템 및 그 방법

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000004436A (ko) * 1998-06-30 2000-01-25 윤종용 씨씨티브이 시스템의 움직임 추적 감시 방법
KR100676232B1 (ko) * 2003-09-05 2007-01-30 가부시키가이샤 히다치 고쿠사이 덴키 물체추적방법, 물체추적장치 및 물체추적을 행하기 위한 계산기의 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
US7760908B2 (en) * 2005-03-31 2010-07-20 Honeywell International Inc. Event packaged video sequence
US20080291278A1 (en) * 2005-04-05 2008-11-27 Objectvideo, Inc. Wide-area site-based video surveillance system
US7613357B2 (en) * 2005-09-20 2009-11-03 Gm Global Technology Operations, Inc. Method for warped image object recognition
US8725526B2 (en) * 2005-10-20 2014-05-13 Mckesson Information Solutions Llc Methods, systems, and apparatus for providing real time query support and graphical views of patient care information
US9294738B2 (en) * 2006-08-30 2016-03-22 At&T Intellectual Property I, L.P. System and method of security monitoring
KR101187908B1 (ko) * 2007-09-11 2012-10-05 삼성테크윈 주식회사 복수의 이벤트 영상을 표시하는 통합 감시 시스템 및 이를이용한 복수의 이벤트 영상 표시 방법
US9786164B2 (en) * 2008-05-23 2017-10-10 Leverage Information Systems, Inc. Automated camera response in a surveillance architecture
US20100156628A1 (en) * 2008-12-18 2010-06-24 Robert Ainsbury Automated Adaption Based Upon Prevailing Threat Levels in a Security System
JP5393236B2 (ja) * 2009-04-23 2014-01-22 キヤノン株式会社 再生装置及び再生方法
US8358808B2 (en) * 2010-01-08 2013-01-22 University Of Washington Video-based vehicle detection and tracking using spatio-temporal maps
KR101123438B1 (ko) 2010-03-16 2012-03-23 새천년이엔씨 주식회사 감시카메라 시스템
US9131257B2 (en) * 2011-11-04 2015-09-08 Peekaboo Corporation Method and system for remote video monitoring and remote video broadcast
KR102029741B1 (ko) * 2012-06-12 2019-10-10 한국전자통신연구원 객체를 추적하는 방법 및 시스템
US9514650B2 (en) * 2013-03-13 2016-12-06 Honda Motor Co., Ltd. System and method for warning a driver of pedestrians and other obstacles when turning
EP2815571A4 (en) * 2013-04-19 2016-03-30 James Carey SYSTEM FOR IDENTIFICATION AND ANALYTICAL RECOGNITION OF VIDEOS
US20140362225A1 (en) * 2013-06-11 2014-12-11 Honeywell International Inc. Video Tagging for Dynamic Tracking
US20150145991A1 (en) * 2013-11-22 2015-05-28 Vose Technical Systems, Inc. System and method for shared surveillance
DE102014008578B4 (de) * 2014-06-12 2016-02-18 Audi Ag Verfahren zur Ermittlung von Positionsdaten zur Nutzung beim Betrieb eines Fahrzeugsystems eines Kraftfahrzeugs und Positionsdatenermittlungs- und-verteilssystem
KR20160014242A (ko) * 2014-07-29 2016-02-11 삼성전자주식회사 모니터링 장치를 이용한 센서의 위치 및 이벤트 동작의 매핑 방법 및 장치
JP5999395B1 (ja) * 2015-03-19 2016-09-28 パナソニックIpマネジメント株式会社 撮像装置、録画装置および映像出力制御装置
KR102369795B1 (ko) * 2015-12-17 2022-03-03 한화테크윈 주식회사 영상 제공 장치 및 방법
WO2017134706A1 (ja) * 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 映像表示方法及び映像表示装置
KR102644782B1 (ko) * 2016-07-25 2024-03-07 한화비전 주식회사 모니터링 장치 및 시스템
KR102249498B1 (ko) * 2016-08-17 2021-05-11 한화테크윈 주식회사 이벤트 검색 장치 및 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110026287A (ko) * 2009-09-07 2011-03-15 (주)토필드 이벤트 통합 관리를 위한 보안 및 감시 겸용 기록 장치
KR20140039927A (ko) * 2012-09-25 2014-04-02 에스케이텔레콤 주식회사 복수 개의 촬영영상으로부터 이벤트를 검출하는 장치 및 방법
KR20140110684A (ko) * 2013-07-08 2014-09-17 이승철 Cctv 감시장치 비트맵에 의한 이미지 데이터 처리 움직임 분석 제어 방법
KR20150073692A (ko) * 2013-12-23 2015-07-01 삼성전자주식회사 이미지 처리 방법 및 그 전자 장치
KR20160094655A (ko) * 2015-02-02 2016-08-10 주식회사 일리시스 복수의 고해상도 카메라들을 이용한 파노라마 영상 감시 시스템 및 그 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110708498A (zh) * 2018-06-22 2020-01-17 浙江宇视科技有限公司 一种在实景监控画面中标示poi信息的方法及装置

Also Published As

Publication number Publication date
US20190281257A1 (en) 2019-09-12
US10979675B2 (en) 2021-04-13
KR102634188B1 (ko) 2024-02-05
KR20180062060A (ko) 2018-06-08

Similar Documents

Publication Publication Date Title
WO2013115470A1 (en) Integrated control system and method using surveillance camera for vehicle
WO2014051262A1 (ko) 이벤트 룰 설정방법 및 이를 이용한 이벤트 감시장치
WO2012020856A1 (en) Region of interest based video synopsis
WO2014051337A1 (ko) 복수 개의 촬영영상으로부터 이벤트를 검출하는 장치 및 방법
WO2020027607A1 (ko) 객체 탐지 장치 및 제어 방법
WO2014196721A1 (ko) 합성 영상을 이용한 화재감지시스템 및 방법
WO2023210839A1 (ko) 다중 카메라 및 이동 카메라를 이용한 영상 분석 장치
WO2014193065A1 (en) Video search apparatus and method
WO2013051786A1 (en) Apparatus and method for measuring road flatness
WO2014157781A1 (ko) 종합 주차 관제 시스템
WO2016072625A1 (ko) 영상방식을 이용한 주차장의 차량 위치 확인 시스템 및 그 제어방법
WO2015030307A1 (en) Head mounted display device and method for controlling the same
WO2022186426A1 (ko) 자동 세그먼트 분류를 위한 영상처리장치 및 그 장치의 구동방법
WO2018101605A1 (ko) 이벤트 정보를 표시하는 영상 감시 장치
WO2017078213A1 (ko) 촬영영상에서의 움직임 객체 검출 방법 및 이를 이용한 차량 승하차 사고 예방 시스템
WO2018097384A1 (ko) 밀집도 알림 장치 및 방법
WO2016024680A1 (ko) 주행차량의 번호판 인식이 실시간으로 가능한 차량용 블랙박스
WO2017115905A1 (ko) 인체 포즈 인지 시스템 및 방법
WO2017034177A1 (ko) 이종 카메라로부터의 영상을 이용하여 불법 주정차 단속을 수행하는 단속 시스템 및 이를 포함하는 관제 시스템
WO2021167374A1 (ko) 영상 검색 장치 및 이를 포함하는 네트워크 감시 카메라 시스템
WO2018155742A1 (ko) 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템
WO2010143788A1 (ko) 듀얼 카메라를 이용한 모니터링 시스템 및 그 방법
WO2017034309A1 (ko) 미디어 데이터 분류 방법 및 그 장치
WO2012137994A1 (ko) 영상인식장치 및 그 영상 감시방법
WO2018004036A1 (ko) 모니터링 장치 및 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17877151

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17877151

Country of ref document: EP

Kind code of ref document: A1