[go: up one dir, main page]

WO2018155742A1 - 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템 - Google Patents

다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템 Download PDF

Info

Publication number
WO2018155742A1
WO2018155742A1 PCT/KR2017/002110 KR2017002110W WO2018155742A1 WO 2018155742 A1 WO2018155742 A1 WO 2018155742A1 KR 2017002110 W KR2017002110 W KR 2017002110W WO 2018155742 A1 WO2018155742 A1 WO 2018155742A1
Authority
WO
WIPO (PCT)
Prior art keywords
screen
images
cameras
display unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2017/002110
Other languages
English (en)
French (fr)
Inventor
한명섭
고영호
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Danusys Co Ltd
Original Assignee
Danusys Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Danusys Co Ltd filed Critical Danusys Co Ltd
Publication of WO2018155742A1 publication Critical patent/WO2018155742A1/ko
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Definitions

  • the present invention relates to a real-time monitoring system by synthesizing multiple camera inputs, and more particularly, through a synthesis of multiple camera inputs capable of expressing a plurality of images captured from cameras installed in a predetermined region such as CCTV in real time. It relates to a real-time monitoring system.
  • a monitoring system using a surveillance camera is a monitoring system that monitors a specific area by processing an image input through a camera fixedly or mobilely installed at a specific place.
  • monitoring systems have been used throughout security systems using images such as intelligent surveillance boundary robots, GOP (Gerenal OutPost) scientific systems, and social safety robot systems.
  • This monitoring system is called a control system in a similar field of application, and it is a public institution or a company connected to a public agency that monitors and manages images collected by a camera at a specific location or a specific area for the purpose of community safety. Many displays are used to monitor and manage hundreds of images. Since such a monitoring system is larger in size than a display used for general exhibition or advertising purposes, a plurality of cameras are linked to each other. At least one camera among the plurality of cameras may monitor a designated area or location.
  • the surveillance camera is provided with functions such as panning, tilting, and zoom so that the direction photographed by the monitoring system can be directed to a designated area or position.
  • a camera used in such a monitoring system cannot capture a range other than a predetermined shooting direction and angle of view, and cannot monitor a large area at the same time even when using a PTZ (Panning, Tilting, Zoom) camera.
  • a camera-based panorama photographing technique should be used.
  • such a panorama shooting technique is an expensive photographing technique, and it is difficult to be applied to a general small-scale monitoring system.
  • all of these panorama technologies have a problem that only an image within a fixed angle of view can be monitored because the angle of view is fixed. When shooting various ranges and displaying a screen, a difference in concentration of monitoring occurs while watching each screen.
  • Patent Document 1 KR10-2010-0033537 A
  • Patent Document 2 KR10-2000-0070646 A
  • an object of the present invention devised to solve the above problems is to provide a 360-degree view connected to each other by a plurality of images using a plurality of cameras, so that a wider range can be simultaneously monitored while displaying a naturally connected image. This is to provide a real-time monitoring system through the synthesis of multiple camera inputs that can improve the concentration of monitoring.
  • a real-time monitoring system by synthesizing multiple camera inputs comprises: a plurality of cameras sequentially connected to each other at a predetermined place; A display unit configured to display a plurality of screens corresponding to the number of the plurality of cameras to display images captured by the plurality of cameras; And a control unit for controlling the plurality of cameras and a display unit for displaying the image, wherein the control unit comprises: a screen setting unit for arranging each screen of the display unit in a parallel order; An image display unit displaying 1: 1 images of the plurality of cameras on the respective screens; One or both sides of one of the plurality of images are overlapped regions with the images connected in the next order, so that images are sequentially arranged on each screen according to the connection order of the cameras, so that the images are connected to each other.
  • controller is characterized in that to display the image of each camera to enlarge or reduce individually based on the arrangement between each image.
  • the controller may further include pointing means for selecting an arbitrary position within any one screen of the display unit, such that an arbitrary position in the screen selected by the pointing means is located at one side of the corresponding screen. It is characterized by adjusting the area.
  • the control unit may continuously adjust the photographing direction of each camera so that when an arbitrary position in the selected screen is located in one region of the corresponding screen, the camera is positioned in an area where the selected arbitrary position overlaps the next screen. It is characterized by.
  • the pointing means is characterized in that a plurality of screens are combined so as to be connected to each other by continuously selecting an area where an arbitrary location is located in a subsequent screen when an arbitrary position is selected within the selected screen.
  • the pointing means is a key or a motion sensor connected to the display unit.
  • the overlapping region may include a part or the whole of the fixture or structure in the image to be displayed.
  • a plurality of images using a plurality of cameras can provide a 360-degree view connected to each other to monitor a wider range at the same time, and naturally connected images
  • the concentration of monitoring can be improved.
  • FIG. 1 is a configuration diagram schematically showing a real-time monitoring system by synthesizing multiple camera inputs according to a preferred embodiment of the present invention.
  • FIG. 2 is a conceptual diagram illustrating a real-time monitoring system by synthesizing multiple camera inputs according to a preferred embodiment of the present invention.
  • FIG. 3 is a view illustrating a display unit of FIG. 1.
  • FIG. 4 is a diagram illustrating the controller of FIG. 1.
  • the present invention relates to a real-time monitoring system through the synthesis of multiple camera inputs.
  • 1 is a configuration diagram schematically showing a real-time monitoring system through the synthesis of multiple camera input according to a preferred embodiment of the present invention
  • Figure 2 is a real-time monitoring system through the synthesis of multiple camera input according to a preferred embodiment of the present invention Is a conceptual diagram showing.
  • the present invention includes a camera 10 for capturing an image and a display unit 20 for displaying an image captured by the camera 10.
  • the camera 10 and the display unit 20 may be remotely connected to each other to display the image captured by the camera 10 in real time to the display unit 20 in another place.
  • the display unit 20 includes an input unit for accommodating a user input, a control unit 30 for arranging and combining an image to be expressed as an input signal received through the input unit, or adjusting a photographing direction of the camera 10. It may include.
  • the display unit 20 may be provided with a storage unit for storing the image taken from the camera 10.
  • each of these cameras 10 photographs an approximate area.
  • the plurality of cameras 10 may be installed at a predetermined place and photograph each of the same spots.
  • each camera 10 may be sequentially connected to each other.
  • each camera 10 may be connected in order of being installed or approaching.
  • each of the cameras 10 is preferably mechanically connected or electrically connected to each other, more preferably a communication connection.
  • the display unit 20 displays images captured by the plurality of cameras 10.
  • the display unit 20 may be provided with a plurality of screens corresponding to the number of the plurality of cameras 10.
  • the controller 30 is provided to control the display unit 20 for displaying the image and the plurality of cameras 10.
  • the control unit 30 performs an integral control for displaying in a similar form of an omnidirectional view such as an around view and a panoramic view through each screen of the display unit 20.
  • FIG. 3 is a diagram illustrating the display unit 20 of FIG. 1
  • FIG. 4 is a diagram illustrating the control unit 30 of FIG. 1.
  • the control unit 30 includes a screen setting unit 31, an image display unit 32, and a screen combination unit 33.
  • the screen setting unit 31 arranges the screens of the display unit 20 in parallel with each other in order.
  • the display unit 20 includes a plurality of screens.
  • the number of the screens may be provided to correspond to the number of the plurality of cameras 10.
  • the order of each screen may be the same as the installation order of the camera 10 or the order of the photographing directions. That is, in the present invention, the screen setting unit 31 connects each screen in order, and each screen may be arranged linearly or in parallel. In the present invention, for example, the plurality of screens are arranged in parallel.
  • the image display unit 32 expresses images captured by the plurality of cameras 10 on the plurality of screens. In this case, the images captured by the plurality of cameras 10 are matched one by one in the order in which they are connected to each other.
  • the screen combination unit 33 sequentially arranges the images on each screen according to the connection order of the cameras 10 as overlapping regions overlapping the screens in which both sides of the image are sequentially connected.
  • the overlapping area refers to an area where one side or both sides of one of the plurality of images overlap with the image connected in the next order.
  • images may be expressed in a similar form of an omnidirectional view such as an around view and a panoramic view connected to each other.
  • the screen combination unit 33 determines a region overlapping a predetermined region on both sides of the image.
  • the inter-image arrangement of each screen according to an embodiment of the present invention is automatically arranged based on some or all of the fixed bodies or structures detected in the plurality of images.
  • it may be determined by recognizing a specific fixture or structure without user intervention.
  • the specific fixture or structure may be a predetermined fixture or structure.
  • the arrangement between images is determined by matching each fixed object or structure from a database in which the fixed object or structure is previously designated on a map of a GIS (geographic information system, hereinafter referred to as 'GIS'). That is, the series of images displayed on the display unit 20 based on a preset fixture or structure is displayed similarly to the omnidirectional view in the form of an around view or a panoramic view.
  • the images displayed on the display unit 20 are formed in a mosaic around form and a mosaic panorama form.
  • an overlapping area is formed in which two or more images connected to each other overlap.
  • the overlapping area may be provided as an area partitioned by a virtual display line near one or both edges of the image.
  • an edge separation technique for deriving both ends of the image is preferably applied, and this edge separation technique may be applied to a commercially available technique.
  • the overlapping area is determined in the image area within the screen and is defined as part or all of an object, preferably a fixture or a structure, in the overlapping area.
  • the fixture or structure may be a building, a signboard, a tree, a jaw, and the like, which are stored and recorded in advance in coordinates or positions.
  • the display unit 20 may be marked on a map of a GIS (geographic information system, hereinafter referred to as 'GIS'), and in this case, it is preferable that the map includes a symbol indicating an orientation.
  • coordinates of the fixture or structure are set on a map implemented by a GIS, and may be connected vertically as well as horizontally between images photographed by the camera 10 based on the fixture or structure.
  • the display unit 20 may be formed in a mosaic form in which photographed images are arranged in parallel.
  • photographing an image to be displayed on the display unit 20 may be provided with at least one or more cameras 10, preferably two or more cameras 10, for simultaneously capturing images in various directions.
  • the control center is provided with a processor for displaying images in the form of an around view or a panoramic view by connecting the images captured by the plurality of cameras 10 to each other, a memory for storing the captured images, and a monitor for displaying the images. Can be.
  • Images displayed on each screen of the present invention more specifically, the first image 21, the second image 22, the third image 23, and the fourth image displayed according to the connection order of the respective screens ( 24), a process of determining a connection between at least the first image 21 and the second image 22 based on the contents, and a method of combining or synthesizing an image for arranging a screen according to the determined connection order may be provided.
  • the process of determining the connection between the plurality of images is performed in the image display area.
  • the image display unit 32 and the screen combination unit 33 connected in the order of image combination connect the images based on the overlapped area
  • the overlapped area means a virtual space separated by a linear virtual display line.
  • the virtual space is provided on one side or both sides of the screen.
  • the overlapping region is a fixed body or structure located inside the image, and for example, a mosaic having seamless seams between the images is formed because it is a formal object appearing inside the image such as a building, a signboard, a tree, a bump, a crosswalk, and the like. Even if it is implemented, it may have a natural connection between images.
  • the camera 10 for displaying an image captured in real time in the image display region of the present invention a memory for storing the captured image, and based on the sequence and arrangement between the screens for displaying the images
  • the controller 30 is included to combine the images in the display area.
  • the control unit 30 preferably performs a registration process in advance between at least two cameras 10 for capturing the image, and the number of screens is determined by a definition between the cameras 10 registered in advance.
  • the display unit 20 may include determining a region to be displayed in a zoom-in mode in displaying an image on the display unit 20.
  • the plurality of cameras 10 may be individually selected. It is preferable to select so that the shooting direction of each of the cameras 10 can be adjusted. For example, in this case, it is more preferable that a control method is provided for tilting, panning, and zoom-in for adjusting the photographing direction of each camera 10.
  • the controller 30 continuously controls each camera 10 so as to be located in an area where the selected arbitrary position is opposite to a subsequent screen. Adjust the shooting area.
  • various methods for controlling the photographing direction of the camera 10 from a remote location may be implemented, so a detailed description thereof will be omitted.
  • the images to be displayed may be displayed on the screen in a predetermined order, and in general, a number of screens corresponding thereto may be horizontally or vertically, linearly or parallelly arranged to display at least two or more images.
  • the size of the image displayed on the screen of the display unit 20 is limited according to the image displayed by performing optical image processing such as rotation, enlargement, and reduction by connecting each image, and at this time, rotation of the image
  • optical image processing such as rotation, enlargement, and reduction by connecting each image, and at this time, rotation of the image
  • the blank area 26 displayed on this screen may be defined as a blind spot not displayed on the screen of the display unit 20 of the present invention, and in the future, the blind spot displayed by the blank area 26 is removed. In order to adjust the shooting direction of the camera 10 may be added.
  • the control unit 30 for displaying an image of the present invention in the form of an around view and a panoramic view on a plurality of screens of the display unit 20 may not include any structures or fixtures that are not naturally connected because they do not overlap completely between images.
  • the images are arranged and adjusted according to the contents of the images in order to provide a feeling of being connected to each other. Specifically, the image is enlarged, reduced, and rotated clockwise or counterclockwise according to the structure or the fixed body at an arbitrary position defined within the image of the original state, thereby placing the image on the screen. As a result, the blank area 26 appears, and the blank area 26 is exposed to the screen of the display unit 20 as it is, so that the photographing direction of the camera 10 for removing the blank area 26 may be adjusted. have.
  • an arrangement of images displayed on each screen is combined, and an omnidirectional view in the form of an around shape or a panorama may be formed in the combination area of the screen according to the arrangement of the defined images.
  • the arrangement of the images is displayed on the display unit 20 by combining images captured by the plurality of cameras 10 in real time.
  • the image captured by the camera 10 may be stored in a memory first, and then performed as a post-processing procedure.
  • the controller 30 preferably enlarges or reduces images of each camera 10 individually based on the arrangement between the images.
  • a pointing means 35 is provided to select an arbitrary position within any one screen of the display unit 20.
  • the pointing means 35 may be implemented as an input unit provided in the display unit 20, and specifically, a plurality of operation keys or a motion sensor may be used.
  • An arbitrary position within the screen may be selected through the pointing means 35, and any position within the selected screen may be located on one side of the screen, preferably in an overlapping area on one side of the camera 10.
  • the shooting area can be adjusted.
  • the pointing means 35 may be equipped with a function of continuously selecting and processing a region where an arbitrary position is located in a subsequent screen when an arbitrary position is selected within the selected screen, and thus, a plurality of screens are connected to each other. The screen is then composited to form an around view.
  • the surrounding camera 10 image of a specific area may be synthesized in real time to realize a view as if in a field.
  • the present invention implements a presentation form similar to an around view or a panoramic view.
  • the user may control the direction by using an operation key or a motion sensor for this purpose, and thus may be displayed on the display unit 20 by combining and combining the corresponding images.
  • the display unit 20 includes a memory for storing an image input through each of the cameras 10; And a controller 30 for outputting an image stored in the memory according to a control signal.
  • At least one camera 10 capable of adjusting a photographing direction according to a control signal is connected to the display unit 20, and the display unit 20 is a pointing means capable of adjusting the camera 10.
  • An operation key is provided at 35.
  • a control signal for controlling the driving and photographing direction of the camera 10 is transmitted through the control unit 30.
  • the pointing means 35 may include a focus adjustment key, a zoom in / out adjustment key, and a shooting direction manipulation key.
  • the pointing means 35 has a fan-shaped mark at the origin position, which is the position of the camera 10, including a direction indication symbol for guiding a photographing direction when the non-selection is selected. Is displayed.
  • the mark is moved and displayed in the azimuth display window so as to be linked to the drag direction of the mouse held by the click, and photographing of the camera 10 corresponding to the moving direction.
  • the rotation control signal, the tilting control signal, and the zoom in / zoom out control signal for adjusting the direction are output to the camera 10 through the connected communication, and when the click and hold state is released, the mark moves to the origin of the released state. It can be displayed.
  • the display unit 20 may be implemented as a normal user computer in hardware.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 CCTV와 같은 일정 지역에서 설치된 카메라들로부터 촬영되는 복수의 영상들을 실시간으로 표출할 수 있는 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템에 관한 것으로, 구체적으로는 일정 장소에서 순차적으로 서로 연결되는 복수의 카메라; 상기 복수의 카메라의 수와 대응되는 수의 화면이 복수로 마련되어 상기 복수의 카메라에서 촬영되는 영상을 표출시키는 디스플레이부; 및, 상기 영상을 표출시키는 디스플레이부와 상기 복수의 카메라를 제어하기 위한 제어부를 포함하여 복수의 카메라를 이용한 복수의 영상이 서로 연결된 전방위 뷰를 제공하여 보다 넓은 범위를 동시에 모니터링 할 수 있고, 자연스럽게 연결된 영상을 표출하여 모니터링의 집중도가 향상될 수 있다.

Description

다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템
본 발명은 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템에 관한 것으로서, 더욱 상세하게는 CCTV와 같은 일정 지역에서 설치된 카메라들로부터 촬영되는 복수의 영상들을 실시간으로 표출할 수 있는 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템에 관한 것이다.
일반적으로 감시 카메라를 이용한 모니터링 시스템은 특정 장소에 고정식 또는 이동식으로 설치된 카메라를 통하여 입력되는 영상을 처리하여 특정 지역을 감시하는 모니터링 시스템이다. 최근에 모니터링 시스템은 지능형 감시 경계 로봇, GOP(Gerenal OutPost) 과학화 시스템, 사회안전 로봇 시스템과 같이 영상을 이용한 시큐리티 시스템(security system) 전반에 걸쳐 사용되고 있다.
이러한 모니터링 시스템은 유사한 적용 분야로 관제 시스템이라 하며, 공공기관 또는 공공기관과 연계된 업체에서 지역사회의 안전을 위한 목적으로 특정 위치나 특정 지역에서 카메라로 수집된 영상을 모니터링 및 관리하는 것으로, 많게는 수 백여개의 영상을 모니터링하고 관리하기 위한 많은 디스플레이가 사용된다. 이러한 모니터링 시스템에서는 일반적인 전시나 광고 목적으로 사용되는 디스플레이에 비해 규모가 크기 때문에, 그에 따른 카메라는 복수개가 상호 연동되어 작동된다. 복수개의 카메라들 중에서 적어도 하나 이상의 카메라가 지정된 영역 또는 위치를 감시할 수 있다. 또한, 모니터링 시스템에 의하여 촬영되는 방향이 지정된 영역 또는 위치로 향할 수 있도록, 감시 카메라에 패닝(panning), 틸팅(tilting), 및 줌(zoom) 등의 기능이 마련된다.
그러나, 이러한 모니터링 시스템에서 사용되는 카메라로서는 정해진 촬영 방향과 화각 이외의 범위를 촬영할 수는 없고, 또한 PTZ(Panning, Tilting, Zoom)카메라를 이용하더라도 넓은 지역을 동시에 모니터링 할 수 없다. 이를 해결하기 위해서는 카메라를 이용한 파노라마 촬영 기술을 사용하여야 한다. 그러나 이러한 파노라마 촬영 기술은 고가의 촬영 기술로서 일반적인 소규모의 모니터링 시스템에서 적용하기에는 어려움이 있었다. 더욱이, 이러한 파노라마 기술에서도 모두 화각이 고정되어 있어서 고정된 화각 내의 영상만 감시할 수 있는 문제점이 있어 다양한 범위를 촬영하여 화면으로 표출하면 각각의 화면을 주시하면서 모니터링의 집중도 차이가 발생된다.
이러한 까닭에 저가의 단방향 카메라만을 이용하여도 파노라마 영상과 같이 넓은 범위를 촬영하여 모니터링 할 수 있는 기술의 개발이 필요한 상황이다.
(특허문헌 1) KR10-2010-0033537 A
(특허문헌 2) KR10-2000-0070646 A
따라서, 상기와 같은 문제점을 해결하기 위하여 안출된 본 발명의 목적은, 복수의 카메라를 이용한 복수의 영상으로 서로 연결된 전방위 뷰를 제공하여, 보다 넓은 범위를 동시에 모니터링 할 수 있도록 하면서 자연스럽게 연결된 영상을 표출하여 모니터링의 집중도가 향상될 수 있는 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템을 제공하기 위함이다.
전술한 목적을 달성하기 위해 본 발명에 따른 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템은 일정 장소에서 순차적으로 서로 연결되는 복수의 카메라; 상기 복수의 카메라의 수와 대응되는 수의 화면이 복수로 마련되어 상기 복수의 카메라에서 촬영되는 영상을 표출시키는 디스플레이부; 및, 상기 영상을 표출시키는 디스플레이부와 상기 복수의 카메라를 제어하기 위한 제어부를 포함하되, 상기 제어부는 상기 디스플레이부의 각각의 화면을 서로 순서를 가지고 병렬배치시키는 화면설정부; 상기 각각의 화면에 상기 복수의 카메라에서 촬영되는 영상을 1:1 매칭시켜 표출시키는 영상표출부; 상기 복수의 영상 중에 어느 하나의 영상의 일측 또는 양측이 다음 차순으로 연결된 영상과 서로 겹치는 중첩 영역으로 하여 상기 카메라의 연결 순서에 따라 영상을 각 화면에 순차적으로 배치되어 상기 영상들이 서로 연결된 어라운드 뷰를 형성시키는 화면조합부; 를 포함한다.
또한, 상기 제어부는 각 영상 간의 배치를 기초로 각 카메라의 영상들을 개별적으로 확대 또는 축소하여 표출하는 것을 특징으로 한다.
또한, 상기 제어부는, 상기 디스플레이부의 어느 하나의 화면 내에서 임의의 위치를 선택할 수 있는 포인팅수단을 포함하여 상기 포인팅수단을 통해 선택된 화면 내의 임의의 위치가 해당 화면의 일측에 위치하도록 해당 카메라의 촬영 영역을 조절하는 것을 특징으로 한다.
또한, 상기 제어부는 상기 선택된 화면 내의 임의의 위치가 해당 화면의 일측 영역에 위치하면, 다음 차순의 화면에 상기 선택된 임의의 위치가 중첩되는 영역에 위치하도록 연속적으로 각각의 카메라의 촬영 방향을 조절시키는 것을 특징으로 한다.
또한, 상기 포인팅수단은 상기 선택된 화면 내에서 임의의 위치가 선택되면 후속되는 화면에서 임의의 위치가 위치한 영역을 연속해서 선택하여 복수의 화면이 서로 연결되게 조합되는 것을 특징으로 한다.
또한, 상기 포인팅수단은 상기 디스플레이부에 연결되는 키 또는 모션센서인 것을 특징으로 한다.
또한, 상기 중첩 영역은 표출되는 영상에서의 고정체 또는 구조체의 일부 또는 전체를 포함하는 것을 특징으로 한다.
전술한 바와 같은 본 발명의 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템에 따르면, 복수의 카메라를 이용한 복수의 영상이 서로 연결된 전방위 뷰를 제공하여 보다 넓은 범위를 동시에 모니터링 할 수 있고, 자연스럽게 연결된 영상을 표출하여 모니터링의 집중도가 향상될 수 있다.
이상에서의 본 발명에 따른 효과는 상기에 한정되는 것은 아니며, 기타 본 발명의 효과들은 후술할 실시예 및 청구범위에 기재된 사항을 통하여 본 발명이 속하는 분야의 통상의 지식을 가진 자에 의하여 분명하게 이해될 수 있을 것이다.
도 1은 본 발명의 바람직한 실시예에 따른 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템을 개략적으로 나타낸 구성도이고,
도 2는 본 발명의 바람직한 실시예에 따른 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템을 나타낸 개념도
도 3은 도 1의 디스플레이부를 나타낸 도면
도 4는 도 1의 제어부를 나타낸 도면
이하, 본 발명의 바람직한 실시예를 첨부된 도면을 참고하여 보다 상세하게 설명하도록 한다.
먼저, 본 발명에서 나오는 설명과 예시적이고 제한되지 않은 실시예에서 본 발명의 다양한 양태들이 설명된다. 설명을 목적으로 특정 구성들 및 세부 항목들은 실시예들의 완벽한 이해를 제공하기 위하여 설명된다. 그러나 본 발명에서 나타난 특정 구성들과 세부 항목들 없이도 실행될 수 있음을 당업자에게 명백할 것이다. 더욱이, 공지된 양상들은 본 발명의 모호성을 없애기 위하여 생략되고 간소화될 수 있다. 하나의 실시예에 보여진 양상들은 다른 실시예에 보여진 양상들과 조합될 수 있다. 그러한 양상들은 설명의 명확성을 위하여 반복되지 않는다.
본 발명은 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템 에 관한 것이다. 도 1은 본 발명의 바람직한 실시예에 따른 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템을 개략적으로 나타낸 구성도이고, 도 2는 본 발명의 바람직한 실시예에 따른 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템을 나타낸 개념도이다.
도 1에 도시된 바와 같이 본 발명은 영상을 촬영하는 카메라(10)와, 상기 카메라(10)에서 촬영된 영상을 표출하는 디스플레이부(20)를 포함한다. 여기서 상기 카메라(10)와 디스플레이부(20)는 서로 원격으로 연결되어 카메라(10)에서 촬영되는 영상을 다른 장소의 디스플레이부(20)로 실시간 표출될 수 있다. 또한, 디스플레이부(20)는 사용자의 입력을 수용하기 위한 입력부와, 입력부를 통해 수용된 입력신호로 표출될 영상의 배치 및 조합하거나 상기 카메라(10)의 촬영 방향을 조절하기 위한 제어부(30)를 포함할 수 있다. 또한, 디스플레이부(20)에는 상기 카메라(10)로부터 촬영되는 영상을 저장시키는 저장부가 마련될 수 있다.
첨부된 도 2를 도 1과 함께 참조하여 보다 상세하게 설명하도록 한다. 먼저, 도 2에 도시된 바와 같이 본 발명에서 카메라(10)는 복수로 구비된다. 이 복수의 카메라(10)들은 각각 근사한 영역을 촬영한다. 구체적으로, 복수의 카메라(10)들은 일정 장소에서 설치되어 각각이 서로 동일한 지점을 촬영하는 것일 수 있다. 이때, 각 카메라(10)들은 서로 순차적으로 연결될 수 있다. 예컨대, 각 카메라(10)들은 설치되거나 근접하는 순서대로 연결될 수 있을 것이다. 여기서, 각 카메라(10)들은 서로 기계적으로 연결되거나 전기적으로 연결되는 것이 바람직하고, 통신 연결되는 것이 더욱 바람직하다.
디스플레이부(20)는 상기 복수의 카메라(10)에서 촬영되는 영상을 표출시킨다. 구체적으로, 본 발명에서 디스플레이부(20)에는 복수의 카메라(10)의 수와 대응되는 수의 화면이 복수로 마련될 수 있다.
제어부(30)는 상기 영상을 표출시키는 디스플레이부(20)와 상기 복수의 카메라(10)를 제어하기 위하여 구비된다. 본 발명에서 제어부(30)는 디스플레이부(20)의 각 화면을 통해 어라운드 뷰, 파노라마 뷰와 같은 전방위 뷰의 유사한 형태로 표출시키는 일체의 제어를 수행한다.
도 3은 도 1의 디스플레이부(20)를 나타낸 도면이고, 도 4는 도 1의 제어부(30)를 나타낸 도면이다. 도시된 바와 같이 제어부(30)에는 화면설정부(31), 영상표출부(32) 및, 화면조합부(33)를 포함하여 구성된다.
화면설정부(31)는 상기 디스플레이부(20)의 각 화면을 서로 순서를 가지게 병렬배치시킨다. 구체적으로 디스플레이부(20)에는 화면이 복수로 구비된다. 이 화면들의 수는 상기 복수의 카메라(10)의 수와 대응되는 수로 마련될 수 있다. 그리고 각각의 화면들의 순서는 상기 카메라(10)의 설치된 순서나 촬영 방향의 순서와 동일할 수 있다. 즉, 본 발명에서 화면설정부(31)는 각 화면들은 서로 순서를 가지고 연결시키며, 이때 각 화면들은 선형으로 배치되거나, 병렬배치될 수 있다. 본 발명에서는 각 화면들이 복수로 병렬 배치되는 것을 예로 한다.
영상표출부(32)는 상기 복수의 화면에 상기 복수의 카메라(10)에서 촬영되는 영상을 표출시킨다. 여기서 각 화면에는 서로 연결된 순서에 따라 상기 복수의 카메라(10)에서 촬영되는 영상을 1:1 매칭시켜 표출시킨다.
화면조합부(33)는 상기 영상의 양측이 순차적으로 연결된 화면과 서로 겹치는 중첩 영역으로 하여 상기 카메라(10)의 연결 순서에 따라 영상을 각 화면에 순차적으로 배치한다. 구체적으로 중첩 영역은 상기 복수의 영상 중에 어느 하나의 영상의 일측 또는 양측이 다음 차순으로 연결된 영상과 서로 겹치는 영역을 의미한다. 이를 통해서 영상들이 서로 연결된 어라운드 뷰, 파노라마 뷰와 같은 전방위 뷰의 유사한 형태로 표출될 수 있다. 화면조합부(33)는 상기 영상의 양측에는 일정 영역이 중첩 영역이 결정된다.
본 발명의 실시예에 따른 각 화면의 영상 간 배치는 복수의 영상에서 검출되는 고정체 또는 구조체의 일부 또는 전체를 근거하여 자동으로 배치된다. 이때, 사용자의 개입 없이도 특정 고정체나 구조체를 인식하여 결정될 수 있다. 구체적으로, 특정 고정체나 구조체는 미리 지정된 고정체나 구조체일 수 있다. 본 발명에서는 고정체나 구조체를 GIS(지리정보시스템, 이하, 'GIS'라 함)의 지도 상에서 위치를 미리 지정해둔 데이터베이스로부터 각 고정체나 구조체를 매칭함으로써 영상 간의 배치가 결정된다. 즉, 미리 설정된 고정체나 구조체를 기준으로 디스플레이부(20)로 표출되는 일련의 영상들은 어라운드 뷰 또는 파노라마 뷰 형태의 전방위 뷰와 유사하게 표출한다. 바람직하게는 디스플레이부(20)에서 표출되는 영상들은 모자이크 어라운드 형태, 모자이크 파노라마 형태의 화면이 형성된다.
본 발명의 영상들의 배치에서 서로 연결되는 2 이상의 영상이 겹쳐지는 중첩 영역이 형성된다. 도 3에서 나타난 바와 같이 중첩 영역은 화상의 일측 또는 양측 가장자리 근처에 가상의 표시선으로 구획된 영역으로 마련될 수 있다. 상기 표시선으로 구획된 영역이 마련되기 위해서는 영상에서의 양측 끝을 도출하는 에지분리기술이 적용되는 것이 바람직하며, 이 엣지분리기술은 통상의 시판되는 기술로 적용 가능하다.
중첩 영역은 화면 내에서의 영상 영역에서 결정되며, 중첩 영역 내에서의 객체, 바람직하게는 고정체 또는 구조체의 일부 또는 전체로 정의된다. 예컨대 고정체 또는 구조체는 건물, 간판, 나무, 방지턱 등일 수 있으며, 이들은 미리 좌표 또는 위치로 저장되고 기록된다. 본 발명에서 디스플레이부(20)에는 GIS(지리정보시스템, 이하, 'GIS'라 함)의 지도 상에 마킹될 수 있으며, 이때, 지도에는 방위를 나타내는 기호를 포함하고 있는 것이 바람직하다. 본 발명에서 GIS로 구현되는 지도 상에 상기 고정체 또는 구조체의 좌표가 설정되며, 이 고정체 또는 구조체를 기준으로 카메라(10)에서 촬영되는 영상들 간의 수평 뿐만 아니라 수직으로 연결될 수 있다.
본 발명의 실시예에 따라 디스플레이부(20)에서 어라운드 뷰 또는 파노라마 뷰와 유사하도록 각 화면들이 서로 연속되게 연결되어 표출되는 효과를 주기 위해, 촬영되는 영상이 병렬 배치되는 모자이크 형태로 형성될 수 있다.
본 발명에서 디스플레이부(20)에 표출될 영상을 촬영하는 것은 여러 방향의 영상을 동시에 촬영하기 위한 적어도 하나 이상의 카메라(10), 바람직하게는 2 이상의 카메라(10)로 구비될 수 있다. 바람직하게 복수의 카메라(10)에서 촬영되는 영상들을 서로 연결하여 어라운드 뷰 또는 파노라마 뷰 형태로 표출하기 위한 프로세서, 촬영된 영상을 저장하기 위한 메모리 및 영상을 표출하기 위한 모니터가 구비되는 관제센터에서 수행될 수 있다.
본 발명의 각각의 화면에 표출되는 영상들, 더욱 구체적으로 각 화면들의 연결 순서에 매칭되어 표출되는 제1 영상(21), 제2 영상(22), 제3 영상(23), 제4 영상(24), 내용에 근거하여 적어도 제1 영상(21) 및 제2 영상(22) 사이에서의 연결을 결정하는 과정 및 그 결정된 연결 순서에 따라 화면을 배치하기 위한 영상 조합이나 합성하는 방법이 제공될 수 있을 것이며, 본 발명의 실시예에서 명확하게 이해될 수 있을 것이다. 본 발명에서는 복수의 영상들 사이의 연결을 결정하는 과정은 영상 표출 영역에서 수행된다. 구체적으로 영상표출부(32)와 영상 조합의 순서로 연계된 화면조합부(33)는 중첩 영역을 기준으로 각 영상들을 연결하며, 이때 중첩 영역은 선형의 가상 표시선으로 분리된 가상의 공간을 의미하며, 이 가상의 공간은 화면의 일측 또는 양측에 마련된다. 본 발명에서 중첩 영역은 영상의 내부에 위치한 고정체 또는 구조체이며, 예컨대, 건물, 간판, 나무, 방지턱, 횡단보도 등의 영상의 내부에 나타나는 정형적인 물체이기 때문에 영상들 간에 이음매가 있는 모자이크 형태가 구현되더라도 영상간의 자연스러운 연계성을 가질 수 있다.
또한, 본 발명의 영상 표출 영역에서 실시간으로 촬영되는 영상을 표출하기 위한 카메라(10)와, 상기 촬영된 영상을 저장하기 위한 메모리 및, 상기 영상들을 표출하는 화면들 간의 연결된 순서 및 배치에 근거하여 상기 영상들을 표출 영역에서 조합하기 위한 제어부(30)가 포함된다.
상기 제어부(30)에는 상기 영상을 촬영하는 적어도 2개의 카메라(10)들 사이에서 미리 등록과정을 수행하는 것이 바람직하며, 미리 등록된 카메라(10)들 간의 정의에 의해서 화면의 수가 결정된다.
본 발명의 디스플레이부(20)에서의 영상 표출에서 줌인 모드로 디스플레이되는 영역을 결정하는 과정이 포함할 수 있으며, 줌인 레벨의 기준이 되는 중첩 영역이 결정된 때에는 상기 다수의 카메라(10)들을 개별적으로 선택하여 카메라(10) 각각의 촬영 방향을 조절할 수 있도록 하는 것이 바람직하다. 예컨대, 이때 각 카메라(10)의 촬영 방향을 조절하기 위한 틸트, 패닝, 줌인을 제어방식이 마련되는 것이 더욱 바람직하다. 본 발명에서 제어부(30)는 상기 선택된 화면 내의 임의의 위치가 해당 화면의 일측 영역에 위치하면, 후속되는 화면에 상기 선택된 임의의 위치가 대향되는 영역에 위치하도록 연속적으로 각각의 카메라(10)의 촬영 영역을 조절시킨다. 본 발명에서는 카메라(10)의 촬영 방향을 원격지에서 제어하기 위한 다양한 방식이 구현될 수 있으므로 그 구체적인 설명을 생략하도록 한다.
표출될 영상은 미리 정해진 순서에 의하여 화면에 표출될 수 있으며, 일반적으로 적어도 2 이상의 영상을 표출하기 위하여 그에 대응하는 수의 화면이 수평 또는 수직으로, 선형 또는 병렬배치 될 수 있을 것이다.
본 발명에서 디스플레이부(20)의 화면에 표시되는 영상의 크기는 각각의 영상들 간의 연결에 의해 회전, 확대, 축소의 광학적인 영상처리를 수행하여 나타나는 영상에 따라 제한되며, 이때, 영상의 회전, 확대, 축소의 광학적인 영상처리에 의해 표시되지 않는 부분인 블랭크 영역(26)이 표출된다.
이 화면상에 표출된 블랭크 영역(26)은 본 발명의 디스플레이부(20)의 화면상에서 표시되지 않는 사각지대로 정의될 수 있으며, 향후에, 이 블랭크 영역(26)으로 표시되는 사각지대를 제거하기 위한 카메라(10)의 촬영 방향 조절 기능이 추가될 수 있다.
본 발명의 영상을 디스플레이부(20)의 복수의 화면 상에서 어라운드 뷰 및 파노라마 뷰 형태로 표출하기 위한 제어부(30)는 영상들 간에 완전히 중첩되지 않아서 비교적 자연스럽게 연결되지 않는 임의의 구조체나 고정체들이 여럿 포함할 수 있으나, 본 발명에서는 영상들이 서로 연결되는 느낌을 제공하기 위하여 영상의 내용에 따라 배치 및 조절된다. 구체적으로 원래 상태의 영상 내에서 정의되는 임의 위치에서 구조체나 고정체에 따라서 영상을 확대, 축소 및 시계방향 또는 반시계방향으로의 회전하여 영상을 화면에 배치한다. 이로서 블랭크 영역(26)이 나타나며, 이 블랭크 영역(26)은 디스플레이부(20)의 화면에 그대로 노출되도록 함으로써, 블랭크 영역(26)을 제거하기 위한 카메라(10)의 촬영 방향 조절이 수행될 수 있다.
본 발명의 일 실시예에 따르면 각각의 화면 상에 표출되는 영상들의 배치를 조합하는 것이며, 정의된 영상의 배치에 따라 화면의 조합 영역에서 어라운드 형태 또는 파노라마 형태의 전방위적 뷰를 형성할 수 있다. 본 발명의 일 실시예에 따라 상기 영상들의 배치는 상기 복수의 카메라(10)로부터 촬영되는 영상을 실시간으로 조합되어 디스플레이부(20)에 표출된다. 물론, 본 발명에서는 상기 카메라(10)로부터 촬영된 영상을 먼저 메모리에 저장한 후, 후처리 절차로 수행될 수 있음은 자명할 것이다.
여기서 상기 제어부(30)는 각 영상 간의 배치를 기초로하여 각 카메라(10)의 영상들을 개별적으로 확대 또는 축소하여 표출시키는 것이 바람직하다.
그리고 상기 디스플레이부(20)의 어느 하나의 화면 내에서 임의의 위치를 선택할 수 있는 포인팅수단(35)이 마련된다. 상기 포인팅수단(35)은 디스플레이부(20)에 마련되는 입력부로 구현될 수 있으며, 구체적으로 복수의 조작 키 또는 모션 센서를 이용할 수 있다.
상기 포인팅수단(35)을 통해 화면 내에서 임의의 위치가 선택될 수 있으며, 이 선택된 화면 내의 임의의 위치가 해당 화면의 일측에, 바람직하게는 일측의 중첩 영역 내에 위치하도록 해당 카메라(10)의 촬영 영역이 조절될 수 있다. 여기서 상기 포인팅수단(35)은 상기 선택된 화면 내에서 임의의 위치가 선택되면 후속되는 화면에서 임의의 위치가 위치한 영역을 연속해서 선택 처리하는 기능이 탑재될 수 있으며, 이를 통해 복수의 화면이 서로 연결되어 어라운드 뷰를 형성하도록 화면이 합성되는 것이다.
본 발명은 특정 구역의 주변 카메라(10) 영상을 실시간으로 합성하여 현장에 있는 듯한 형태의 뷰를 구현할 수 있다. 본 발명에서는 어라운드 뷰 또는 파노라마 뷰와 유사한 표출 형태를 구현한다. 사용자는 이를 위한 조작 키나 모션센서 등을 사용하여 방향을 제어할 수 있으며, 그에 따라 해당하는 영상들을 합성 및 조합하여 디스플레이부(20)에 표출될 수 있다.
상술한 바와 같은 본 발명의 실시예에 따르면 실시간으로 현장에 나가지 않아도 현장에 있는 듯한 효과를 만들어 줌으로써 직관적이고 집중적인 모니터링이 가능하다.
이로써, 주변 환경을 보다 자세하게 분석할 수 있고, 빠른 판단이 용이해지며, 경찰 출동 지원 시에 보다 정확한 정보들을 제공할 수 있다.
본 발명을 실시하기 위한 구체적인 디스플레이부(20)의 일실시예를 하기에서 설명하기로 한다.
디스플레이부(20)는 상기 카메라(10) 각각을 통해 입력되는 영상이 저장되는 메모리와; 상기 메모리에 저장된 영상을 제어신호에 따라 출력하는 제어부(30)를 구비한다.
바람직하게는 제어신호에 따라 촬영방향을 조절할 수 있는 적어도 하나 이상의 카메라(10)가 상기 디스플레이부(20)에 접속되어 있고, 상기 디스플레이부(20)에는 상기 카메라(10)를 조절할 수 있는 포인팅수단(35)으로 조작 키가 마련되어 있다. 상기 조작 키의 조작에 대응되게 제어부(30)를 통해 상기 카메라(10)의 구동과 촬영 방향을 제어하기 위한 제어신호가 송출된다.
상기 포인팅수단(35)은 포커스 조정키, 줌 인/아웃 조정키, 촬영 방향 조작키를 포함할 수 있다.
더욱 바람직하게는 상기 포인팅수단(35)은 비 선택시 촬영 방향을 가이드 하기 위한 방향 안내 표시정보가 GIS의 지도에 표시된 방위 표시 기호를 포함하여 카메라(10)의 위치인 원점 위치에 부채꼴 형태의 마크로 표시된다. 상기 마크에 대한 포인팅수단(35)의 선택 시에 클릭이 유지된 마우스의 드래그 방향에 연동되게 상기 마크를 상기 방위 표시창 내에서 이동시켜 표시처리 하고, 이동 방향에 대응되게 해당 카메라(10)의 촬영방향이 조절될 수 있도록 하는 회전 제어신호, 틸팅 제어신호, 줌인/줌아웃 제어신호를 연결된 통신을 통해 카메라(10)로 출력하고, 클릭유지상태가 해제되면, 해제된 상태의 원점으로 상기 마크가 이동되게 표시처리 할 수 있다. 디스플레이부(20)는 하드웨어적으로 통상의 사용자 컴퓨터로 구축될 수 있음은 자명할 것이다.
이상에서 살펴본 바와 같이, 본 발명에 따른 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템을 구체적인 실시예로 상세하게 설명되었으나, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서 다른 구성요소를 추가, 변경, 삭제 등을 통하여, 퇴보적인 다른 발명이나 본 발명 사상의 범위 내에 포함되는 다른 실시예를 용이하게 제안할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
*부호의 설명
10 : 카메라
20 : 디스플레이부
25 : 중첩 영역
26 : 블랭크 영역
30 : 제어부
31 : 화면설정부
32 : 화면표출부
33 : 화면조합부
35 : 포인팅수단

Claims (7)

  1. 일정 장소에서 순차적으로 서로 연결되는 복수의 카메라;
    상기 복수의 카메라의 수와 대응되는 수의 화면이 복수로 마련되어 상기 복수의 카메라에서 촬영되는 영상을 표출시키는 디스플레이부; 및,
    상기 영상을 표출시키는 디스플레이부와 상기 복수의 카메라를 제어하기 위한 제어부를 포함하되,
    상기 제어부는
    상기 디스플레이부의 각각의 화면을 서로 순서를 가지고 병렬배치시키는 화면설정부;
    상기 각각의 화면에 상기 복수의 카메라에서 촬영되는 영상을 1:1 매칭시켜 표출시키는 영상표출부;
    상기 복수의 영상 중에 어느 하나의 영상의 일측 또는 양측이 다음 차순으로 연결된 영상과 서로 겹치는 중첩 영역으로 하여 상기 카메라의 연결 순서에 따라 영상을 각 화면에 순차적으로 배치되어 상기 영상들이 서로 연결된 어라운드 뷰를 형성시키는 화면조합부;
    를 포함하는 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템.
  2. 제1항에 있어서,
    상기 제어부는 각 영상 간의 배치를 기초로 각 카메라의 영상들을 개별적으로 확대 또는 축소하여 표출하는 것을 특징으로 하는 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템.
  3. 제1항에 있어서,
    상기 제어부는,
    상기 디스플레이부의 어느 하나의 화면 내에서 임의의 위치를 선택할 수 있는 포인팅수단을 포함하여
    상기 포인팅수단을 통해 선택된 화면 내의 임의의 위치가 해당 화면의 일측에 위치하도록 해당 카메라의 촬영 영역을 조절하는 것을 특징으로 하는 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템.
  4. 제3항에 있어서,
    상기 제어부는
    상기 선택된 화면 내의 임의의 위치가 해당 화면의 일측 영역에 위치하면, 다음 차순의 화면에 상기 선택된 임의의 위치가 중첩되는 영역에 위치하도록 연속적으로 각각의 카메라의 촬영 방향을 조절시키는 것을 특징으로 하는 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템.
  5. 제4항에 있어서,
    상기 포인팅수단은 상기 선택된 화면 내에서 임의의 위치가 선택되면 후속되는 화면에서 임의의 위치가 위치한 영역을 연속해서 선택하여 복수의 화면이 서로 연결되게 조합되는 것을 특징으로 하는 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템.
  6. 제3항에 있어서,
    상기 포인팅수단은 상기 디스플레이부에 연결되는 키 또는 모션센서인 것을 특징으로 하는 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템.
  7. 제1항에 있어서,
    상기 중첩 영역은 표출되는 영상에서의 고정체 또는 구조체의 일부 또는 전체를 포함하는 것을 특징으로 하는 다중 카메라 영상의 합성을 통한 모니터링 시스템.
PCT/KR2017/002110 2017-02-24 2017-02-27 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템 Ceased WO2018155742A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0024680 2017-02-24
KR1020170024680A KR101778744B1 (ko) 2017-02-24 2017-02-24 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템

Publications (1)

Publication Number Publication Date
WO2018155742A1 true WO2018155742A1 (ko) 2018-08-30

Family

ID=59926754

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/002110 Ceased WO2018155742A1 (ko) 2017-02-24 2017-02-27 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템

Country Status (2)

Country Link
KR (1) KR101778744B1 (ko)
WO (1) WO2018155742A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3855749A1 (en) * 2020-01-21 2021-07-28 Honeywell International Inc. Systems and methods for displaying video streams on a display
CN114245081A (zh) * 2021-12-23 2022-03-25 湖北襄开电力设备有限公司 一种无人机视频画面平台监控系统
CN117197754A (zh) * 2023-10-19 2023-12-08 航天正通汇智(北京)科技股份有限公司 一种基于超清宽幅视频的安全监测方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200085611A (ko) * 2019-01-07 2020-07-15 삼성전자주식회사 전자 장치 및 그의 제어 방법
KR102128945B1 (ko) * 2019-12-26 2020-07-01 주식회사엔클라우드 엣지 클라우드 기반 영상 전송 시스템
KR102278168B1 (ko) * 2020-11-04 2021-07-15 하인석 차체 생성 공정 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008048022A (ja) * 2006-08-11 2008-02-28 Canon Inc 監視システム及び方法、並びにプログラム及び記憶媒体
JP2009010915A (ja) * 2007-05-31 2009-01-15 Takeshi Yanagisawa 映像表示方法及び映像システム
KR20120121743A (ko) * 2011-04-27 2012-11-06 삼성테크윈 주식회사 3차원 영상을 생성하는 감시 시스템
KR20140055541A (ko) * 2012-10-31 2014-05-09 삼성테크윈 주식회사 영상 감시 장치
KR20150043147A (ko) * 2013-10-14 2015-04-22 삼성테크윈 주식회사 모니터링 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008048022A (ja) * 2006-08-11 2008-02-28 Canon Inc 監視システム及び方法、並びにプログラム及び記憶媒体
JP2009010915A (ja) * 2007-05-31 2009-01-15 Takeshi Yanagisawa 映像表示方法及び映像システム
KR20120121743A (ko) * 2011-04-27 2012-11-06 삼성테크윈 주식회사 3차원 영상을 생성하는 감시 시스템
KR20140055541A (ko) * 2012-10-31 2014-05-09 삼성테크윈 주식회사 영상 감시 장치
KR20150043147A (ko) * 2013-10-14 2015-04-22 삼성테크윈 주식회사 모니터링 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3855749A1 (en) * 2020-01-21 2021-07-28 Honeywell International Inc. Systems and methods for displaying video streams on a display
CN114245081A (zh) * 2021-12-23 2022-03-25 湖北襄开电力设备有限公司 一种无人机视频画面平台监控系统
CN117197754A (zh) * 2023-10-19 2023-12-08 航天正通汇智(北京)科技股份有限公司 一种基于超清宽幅视频的安全监测方法
CN117197754B (zh) * 2023-10-19 2024-04-30 航天正通汇智(北京)科技股份有限公司 一种基于超清宽幅视频的安全监测方法

Also Published As

Publication number Publication date
KR101778744B1 (ko) 2017-09-14

Similar Documents

Publication Publication Date Title
WO2018155742A1 (ko) 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템
JP4195991B2 (ja) 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ
US10630899B2 (en) Imaging system for immersive surveillance
CN1705370B (zh) 用可转换隐私遮掩进行视频摄像机图像处理的系统和方法
US9210312B2 (en) Virtual mask for use in autotracking video camera images
WO2012151777A1 (zh) 多目标跟踪特写拍摄视频监控系统
SG191198A1 (en) Imaging system for immersive surveillance
WO2017026751A1 (ko) 3차원 스튜디오 시스템
KR101977635B1 (ko) 다중 카메라 기반 시설물 주변 항공뷰 형태의 전방위 비디오 합성 및 이동체 검출 방법 및 장치
CN107438154A (zh) 一种基于全景视频的高低位联动监视方法及系统
CN110087032A (zh) 一种全景式隧道视频监视装置及方法
KR101297294B1 (ko) 카메라 제어용 맵 인터페이스 시스템
WO2010143788A1 (ko) 듀얼 카메라를 이용한 모니터링 시스템 및 그 방법
US20090051770A1 (en) Camera control method, camera control device, camera control program, and camera system
CN107197209A (zh) 基于全景相机的视频动态监控管理方法
CN109636763A (zh) 一种智能复眼监控系统
KR101961104B1 (ko) 화면분할 영상 제어 방법 및 이를 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
JP3232408B2 (ja) 画像生成装置,画像呈示装置及び画像生成方法
US12175690B2 (en) Display apparatus for a video monitoring system, video monitoring system and method
WO2018101605A1 (ko) 이벤트 정보를 표시하는 영상 감시 장치
WO2017217788A2 (ko) 차량 운전 보조 장치 및 방법
JP2002101408A (ja) 監視カメラシステム
WO2015009112A1 (en) Method and apparatus for dispalying images in portable terminal
KR101061868B1 (ko) 듀얼 감시 카메라를 이용한 모니터링 시스템
JPH0837615A (ja) 移動体撮影装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17898131

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17898131

Country of ref document: EP

Kind code of ref document: A1