[go: up one dir, main page]

KR102684057B1 - 복수의 카메라들을 포함하는 네트워크 시스템과 통신하는 컴퓨터 장치 및 그것의 동작 방법 - Google Patents

복수의 카메라들을 포함하는 네트워크 시스템과 통신하는 컴퓨터 장치 및 그것의 동작 방법 Download PDF

Info

Publication number
KR102684057B1
KR102684057B1 KR1020190090704A KR20190090704A KR102684057B1 KR 102684057 B1 KR102684057 B1 KR 102684057B1 KR 1020190090704 A KR1020190090704 A KR 1020190090704A KR 20190090704 A KR20190090704 A KR 20190090704A KR 102684057 B1 KR102684057 B1 KR 102684057B1
Authority
KR
South Korea
Prior art keywords
area
item
sub
event
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020190090704A
Other languages
English (en)
Other versions
KR20210012634A (ko
Inventor
이상윤
Original Assignee
한화비전 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화비전 주식회사 filed Critical 한화비전 주식회사
Priority to KR1020190090704A priority Critical patent/KR102684057B1/ko
Priority to US17/628,910 priority patent/US12265697B2/en
Priority to PCT/KR2019/012514 priority patent/WO2021020645A1/ko
Publication of KR20210012634A publication Critical patent/KR20210012634A/ko
Application granted granted Critical
Publication of KR102684057B1 publication Critical patent/KR102684057B1/ko
Priority to US19/067,849 priority patent/US20250199672A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19682Graphic User Interface [GUI] presenting system data to the user, e.g. information on a screen helping a user interacting with an alarm system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

컴퓨터 장치의 동작 방법은, 제 1 영역 및 제 1 영역과 분리된 제 2 영역을 디스플레이하되 제 1 영역에 선택된 카메라들을 통해 감지 가능한 이벤트들을 나타내는 후보 아이템들이 리스팅되는 단계, 후보 아이템들 중 제 1 후보 아이템을 제 2 영역으로 드래그 및 드롭하는 제 2 사용자 입력에 응답하여 제 1 후보 아이템의 이벤트를 나타내는 제 1 선택 아이템을 제 2 영역 내의 제 1 서브 영역에 디스플레이하는 단계, 후보 아이템들 중 제 2 후보 아이템을 제 2 영역 내 제 1 서브 영역에 인접하는 제 2 서브 영역으로 드래그 및 드롭하는 제 3 사용자 입력에 응답하여 제 2 후보 아이템의 이벤트를 나타내는 제 2 선택 아이템을 제 2 서브 영역에 디스플레이하는 단계, 그리고 제 1 및 제 2 선택 아이템들의 이벤트들 모두에 따라 설정된 액션을 수행하는 단계를 포함한다. 제 2 선택 아이템을 제 2 서브 영역에 디스플레이하는 단계는 제 2 영역에 제 1 및 제 2 선택 아이템들을 그룹핑하는 그래픽 인터페이스를 제공하는 단계를 포함한다.

Description

복수의 카메라들을 포함하는 네트워크 시스템과 통신하는 컴퓨터 장치 및 그것의 동작 방법{COMPUTER DEVICE TO COMMUNICATE WITH NETWORK SYSTEM INCLUDING PLURALITY OF CAMERAS AND METHOD OF OPERATING THEREOF}
본 발명은 네트워크 시스템에 관한 것으로, 좀 더 구체적으로는 복수의 카메라들을 포함하는 네트워크 시스템과 통신하는 컴퓨터 장치 및 그것의 동작 방법에 관한 것이다.
디지털 캠코더들, 카메라 폰들과 같은 디지털 카메라들에 대한 사용자 요구가 증가하고 있다. 이에 따라, 디지털 카메라들은 더 정교해지고 더 다양한 기능들을 갖는다. 특정 지역에 설치된 복수의 디지털 카메라들은 감시 시스템을 구성하여 더 높은 수준의 보안 레벨을 제공할 수 있다. 이러한 디지털 카메라들은 영상 및/또는 음성을 촬영하는 기능들뿐만 아니라, 촬영된 영상 및/또는 음성을 분석하고 다양한 조건들에 따라 이벤트를 생성하는 기능을 포함할 수 있다.
사용자의 요구가 다양해짐에 따라, 감시 시스템은 모션 감지, 소리 감지 등과 같은 하나 또는 그 이상의 이벤트들의 조합에 따라 이벤트 발생을 감지할 수 있다. 사용자는 이러한 이벤트들의 조합을 적절히 선택함으로써, 좀 더 원하는 상황에서의 이벤트 발생을 기대할 수 있다. 또한, 감시 시스템은 디지털 카메라들뿐만 아니라 다른 종류들의 센서들을 포함할 수 있으며, 그러한 센서들을 통한 이벤트들도 고려될 수 있다.
이와 같이 다양한 타입들의 이벤트들이 지원됨에 따라, 이벤트 설정은 복잡해질 수 있다. 이벤트 설정을 위한 설정 화면은 다양한 타입들의 이벤트들을 표시하고, 그러한 이벤트들을 조합하기 위한 복잡한 버튼들을 포함할 수 있으며, 사용자는 그와 같은 환경에서 이벤트를 설정하는 데에 어려움이 있다.
위 기재된 내용은 오직 본 발명의 기술적 사상들에 대한 배경 기술의 이해를 돕기 위한 것이며, 따라서 그것은 본 발명의 기술 분야의 당업자에게 알려진 선행 기술에 해당하는 내용으로 이해될 수 없다.
본 발명의 실시 예들은 복수의 카메라들을 포함하는 네트워크 시스템에서 감지할 수 있는 이벤트들과 관련된 설정 시에 향상된 편의성을 제공하는 컴퓨터 장치 및 그것의 동작 방법에 관한 것이다.
본 발명의 실시 예에 따른 복수의 카메라들을 포함하는 네트워크 시스템과 통신하는 컴퓨터 장치의 동작 방법은, 상기 복수의 카메라들 중 적어도 일부를 선택하는 제 1 사용자 입력을 수신하는 단계; 제 1 영역 및 상기 제 1 영역과 분리된 제 2 영역을 디스플레이하되, 상기 제 1 영역에 상기 선택된 카메라들을 통해 감지 가능한 이벤트들을 나타내는 후보 아이템들이 리스팅되는, 단계; 상기 후보 아이템들 중 제 1 후보 아이템을 상기 제 2 영역으로 드래그 및 드롭하는 제 2 사용자 입력에 응답하여 상기 제 1 후보 아이템의 이벤트를 나타내는 제 1 선택 아이템을 상기 제 2 영역 내의 제 1 서브 영역에 디스플레이하는 단계; 상기 후보 아이템들 중 제 2 후보 아이템을 상기 제 2 영역 내 상기 제 1 서브 영역에 인접하는 제 2 서브 영역으로 드래그 및 드롭하는 제 3 사용자 입력에 응답하여 상기 제 2 후보 아이템의 이벤트를 나타내는 제 2 선택 아이템을 상기 제 2 서브 영역에 디스플레이하는 단계; 및 상기 제 1 및 제 2 선택 아이템들의 이벤트들 모두에 따라 설정된 액션을 수행하는 단계를 포함하되, 상기 제 2 선택 아이템을 상기 제 2 서브 영역에 디스플레이하는 단계는 상기 제 2 영역에 상기 제 1 및 제 2 선택 아이템들을 그룹핑하는 그래픽 인터페이스를 제공하는 단계를 포함한다.
상기 제 1 영역 및 상기 제 2 영역은 제 1 방향으로 배열되고, 상기 제 1 및 제 2 선택 아이템들은 상기 제 1 방향과 교차하는 제 2 방향으로 배열될 수 있다.
상기 그래픽 인터페이스를 제공하는 단계는 상기 제 2 선택 아이템을 상기 제 1 선택 아이템보다 상기 제 1 방향으로 좁은 폭을 갖도록 디스플레이하는 단계를 포함할 수 있다.
상기 그래픽 인터페이스를 제공하는 단계는 상기 제 2 선택 아이템을 상기 제 1 선택 아이템보다 작은 면적을 갖도록 디스플레이하는 단계를 포함할 수 있다.
상기 그래픽 인터페이스를 제공하는 단계는 상기 제 1 및 제 2 선택 아이템들을 서로 접하도록 디스플레이하는 동작 방법.
상기 동작 방법은, 상기 제 1 선택 아이템이 상기 제 1 서브 영역에 디스플레이될 때, 상기 제 2 서브 영역 및 상기 제 2 서브 영역보다 상기 제 1 선택 아이템으로부터 이격된 제 3 서브 영역을 디스플레이하는 단계를 더 포함할 수 있다.
상기 동작 방법은, 상기 후보 아이템들 중 제 3 후보 아이템을 상기 제 3 서브 영역에 드래그 및 드롭하는 제 4 사용자 입력에 응답하여 상기 제 3 후보 아이템의 이벤트를 나타내는 제 3 선택 아이템을 상기 제 3 서브 영역에 디스플레이하는 단계; 및 상기 제 1 및 제 2 선택 아이템들의 상기 이벤트들과 관계없이, 상기 제 3 선택 아이템의 이벤트에 따라 설정된 제 2 액션을 수행하는 단계를 더 포함할 수 있다.
상기 제 2 선택 아이템의 상기 이벤트는 상기 제 1 선택 아이템의 상기 이벤트와 상이하고, 상기 제 3 선택 아이템의 상기 이벤트는 상기 제 1 및 제 2 선택 아이템들의 상기 이벤트들과 동일 혹은 상이할 수 있다.
상기 동작 방법은, 상기 제 1 및 제 2 영역들과 분리된 제 3 영역을 디스플레이하는 단계; 상기 그래픽 인터페이스의 상기 제 1 및 제 2 선택 아이템들을 선택하는 제 4 사용자 입력에 응답하여 상기 제 1 영역에 상기 컴퓨터 장치에 의해 지원되는 복수의 액션들을 나타내는 액션 아이템들을 리스팅하는 단계; 상기 액션 아이템들 중 적어도 하나를 상기 제 3 영역으로 드래그 및 드롭하는 제 5 사용자 입력을 수신하는 단계; 및 상기 액션 아이템들 중 상기 적어도 하나가 나타내는 액션을 상기 설정된 액션으로 결정하는 단계를 더 포함할 수 있다.
상기 후보 아이템들은 상기 복수의 카메라들과 함께 상기 네트워크 시스템에 포함되는 적어도 하나의 장치를 통해 감지 가능한 이벤트들을 더 나타낼 수 있다.
본 발명의 다른 일면은 복수의 카메라들을 포함하는 네트워크 시스템과 통신하는 컴퓨터 장치에 관한 것이다. 상기 컴퓨터 장치는, 통신기; 디스플레이 장치; 사용자 인터페이스; 및 상기 통신기를 통해 상기 네트워크 시스템과 통신하고, 상기 사용자 인터페이스를 통해 사용자 입력들을 수신하도록 구성되는 적어도 하나의 프로세서를 포함한다. 상기 적어도 하나의 프로세서는, 상기 복수의 카메라들 중 적어도 일부를 선택하는 제 1 사용자 입력이 수신될 때 제 1 영역 및 상기 제 1 영역과 분리된 제 2 영역을 상기 디스플레이 장치에 디스플레이하되, 상기 제 1 영역에 상기 선택된 카메라들을 통해 감지 가능한 이벤트들을 나타내는 후보 아이템들이 리스팅되고; 상기 후보 아이템들 중 제 1 후보 아이템을 상기 제 2 영역으로 드래그 및 드롭하는 제 2 사용자 입력에 응답하여 상기 제 1 후보 아이템의 이벤트를 나타내는 제 1 선택 아이템을 상기 제 2 영역 내의 제 1 서브 영역에 디스플레이하고; 상기 후보 아이템들 중 제 2 후보 아이템을 상기 제 2 영역 내 상기 제 1 서브 영역에 인접하는 제 2 서브 영역으로 드래그 및 드롭하는 제 3 사용자 입력에 응답하여 상기 제 2 후보 아이템의 이벤트를 나타내는 제 2 선택 아이템을 상기 제 2 서브 영역에 디스플레이하고; 상기 제 1 및 제 2 선택 아이템들의 이벤트들 모두에 따라 설정된 액션을 수행한다. 상기 적어도 하나의 프로세서는 상기 제 2 선택 아이템을 상기 제 2 서브 영역에 디스플레이할 때 상기 제 2 영역에 상기 제 1 및 제 2 선택 아이템들을 그룹핑하는 그래픽 인터페이스를 제공한다.
상기 제 1 영역 및 상기 제 2 영역은 제 1 방향으로 배열되고, 상기 제 1 및 제 2 선택 아이템들은 상기 제 1 방향과 교차하는 제 2 방향으로 배열될 수 있다.
상기 그래픽 인터페이스는 상기 제 2 선택 아이템을 상기 제 1 선택 아이템보다 상기 제 1 방향으로 좁은 폭을 갖도록 디스플레이하는 그래픽 인터페이스를 포함할 수 있다.
상기 그래픽 인터페이스는 상기 제 2 선택 아이템을 상기 제 1 선택 아이템보다 작은 면적을 갖도록 디스플레이하는 그래픽 인터페이스를 포함할 수 있다.
상기 그래픽 인터페이스는 상기 제 1 및 제 2 선택 아이템들을 서로 접하도록 디스플레이하는 그래픽 인터페이스를 포함할 수 있다.
상기 적어도 하나의 프로세서는 상기 제 1 선택 아이템이 상기 제 1 서브 영역에 디스플레이될 때, 상기 제 2 서브 영역 및 상기 제 2 서브 영역보다 상기 제 1 선택 아이템으로부터 이격된 제 3 서브 영역을 더 디스플레이할 수 있다.
상기 적어도 하나의 프로세서는, 상기 후보 아이템들 중 제 3 후보 아이템을 상기 제 3 서브 영역에 드래그 및 드롭하는 제 4 사용자 입력에 응답하여 상기 제 3 후보 아이템의 이벤트를 나타내는 제 3 선택 아이템을 상기 제 3 서브 영역에 디스플레이하고; 상기 제 1 및 제 2 선택 아이템들의 상기 이벤트들과 관계없이, 상기 제 3 선택 아이템의 이벤트에 따라 설정된 제 2 액션을 수행할 수 있다.
상기 후보 아이템들은 상기 복수의 카메라들과 함께 상기 네트워크 시스템에 포함되는 적어도 하나의 장치를 통해 감지 가능한 이벤트들을 더 나타낼 수 있다.
본 발명의 실시 예들에 따르면, 복수의 카메라들을 포함하는 네트워크 시스템에서 감지할 수 있는 이벤트들과 관련된 설정 시에 향상된 편의성을 제공하는 컴퓨터 장치 및 그것의 동작 방법이 제공된다.
도 1은 본 발명의 실시 예에 따른 복수의 카메라들을 포함하는 네트워크 시스템을 보여주는 블록도이다.
도 2는 이벤트 감지 장치에서 이벤트 감지 신호들에 기반하여 기 설정된 액션을 수행하는 과정의 실시 예를 보여주는 도면이다.
도 3은 도 1의 이벤트 감지 장치의 실시 예를 보여주는 블록도이다.
도 4는 이벤트 감지 장치에서, 감지 가능한 이벤트들을 수집하는 방법의 실시 예를 보여주는 순서도이다.
도 5는 이벤트 감지 장치에서, 수집된 이벤트들의 그룹을 생성하는 방법의 실시 예를 보여주는 순서도이다.
도 6은 복수의 카메라들 중 일부를 선택하는 사용자 입력을 수신하기 위해 디스플레이되는 화면의 일 예를 보여주는 도면이다.
도 7 내지 도 10은 도 5의 S210단계 내지 S230단계에서 디스플레이되는 화면들의 예시들을 보여주는 도면이다.
도 11 내지 도 13은 설정된 선택 아이템들의 그룹에 대응하는 액션의 설정을 위해 디스플레이되는 화면들의 예시들을 보여주는 도면이다.
도 14는 도 5의 S240단계의 실시 예를 보여주는 순서도이다.
도 15는 이벤트 감지 장치에서, 수집된 이벤트들의 다른 그룹을 생성하는 방법의 실시 예를 보여주는 도면이다.
도 16 및 도 17은 도 15의 S310단계에서 디스플레이되는 화면들의 예시들을 보여주는 도면이다.
도 18은 도 3의 이벤트 감지 장치를 구현할 수 있는 컴퓨터 장치의 실시 예를 보여주는 블록도이다.
이하, 본 발명에 따른 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기의 설명에서는 본 발명에 따른 동작을 이해하는데 필요한 부분만이 설명되며 그 이외 부분의 설명은 본 발명의 요지를 모호하지 않도록 하기 위해 생략될 것이라는 것을 유의하여야 한다. 또한 본 발명은 여기에서 설명되는 실시 예에 한정되지 않고 다른 형태로 구체화될 수도 있다. 단지, 여기에서 설명되는 실시 예는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여 제공되는 것이다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 여기에서 사용된 용어는 특정한 실시예들을 설명하기 위한 것이며 본 발명을 한정하기 위한 것이 아니다. 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. "X, Y, 및 Z 중 적어도 어느 하나", 그리고 "X, Y, 및 Z로 구성된 그룹으로부터 선택된 적어도 어느 하나"는 X 하나, Y 하나, Z 하나, 또는 X, Y, 및 Z 중 둘 또는 그 이상의 어떤 조합 (예를 들면, XYZ, XYY, YZ, ZZ) 으로 해석될 수 있다. 여기에서, "및/또는"은 해당 구성들 중 하나 또는 그 이상의 모든 조합을 포함한다.
도 1은 본 발명의 실시 예에 따른 복수의 카메라들을 포함하는 네트워크 시스템을 보여주는 블록도이다.
도 1을 참조하면, 네트워크 시스템(100)은 네트워크(105), 제 1 내지 제 k 카메라들(111~11k), 적어도 하나의 센서(120), 라우터(130), NVR(Network Video Recoder) 서버(140), 이벤트 감지 장치(150), 및 클라이언트 단말기(160)를 포함할 수 있다.
네트워크 시스템(100)은 여기에 설명된 본 발명의 실시 예들에 따른 다양한 방법들을 수행하도록 동작하는 복수의 장치들, 서버들, 및/또는 소프트웨어 구성들을 포함할 수 있다. 도 1에 도시된 장치들 및/또는 서버들은 다른 방식들로 구성될 수 있으며, 장치들 및/또는 서버들에 의해 제공되는 동작들 및 서비스들은 여기에 설명된 실시 예들을 위해 결합되거나 분리될 수 있으며, 더 많은 수 혹은 더 적은 수의 장치들 및/또는 서버들에 의해 수행될 수 있다. 하나 또는 그 이상의 장치들 및/또는 서버들은 동일 혹은 상이한 기업체들에 의해 구동 및/또는 유지될 수 있다.
네트워크(105)는 라우터(130), NVR 서버(140), 이벤트 감지 장치(150), 및 클라이언트 단말기(160)를 연결한다. 네트워크(105)는 공용 네트워크(public network), 적어도 하나의 사설 네트워크(private network), 유선 네트워크, 무선 네트워크, 다른 적절한 타입의 네트워크, 및 그것들의 조합들 중 적어도 하나를 포함할 수 있다. 라우터(130), NVR 서버(140), 이벤트 감지 장치(150), 및 클라이언트 단말기(160) 각각은 유선 통신 기능 및 무선 통신 기능 중 적어도 하나를 포함할 수 있으며, 그에 따라 네트워크(105)를 통해 상호 간 통신할 수 있다.
제 1 내지 제 k 카메라들(111~11k)은 영상 촬영 모듈 및 마이크로폰을 포함하여 영상 및 음성을 촬영할 수 있다. 제 1 내지 제 k 카메라들(111~11k) 각각은 라우터(130)와 유선 및/또는 무선으로 통신할 수 있다. 제 1 내지 제 k 카메라들(111~11k) 각각은 라우터(130)를 통해 네트워크(105)와 연결되며, 촬영된 영상 및 음성을 네트워크(105)에 연결된 NVR 서버(140), 이벤트 감지 장치(150), 및/또는 클라이언트 단말기(160)에 전송할 수 있다.
제 1 내지 제 k 카메라들(111~11k) 각각은 촬영되는 영상 및 음성으로부터 다양한 타입들의 이벤트들을 감지할 수 있으며, 감지 결과에 따른 데이터를 이벤트 감지 신호로서 라우터(130)를 통해 이벤트 감지 장치(150)에 전송할 수 있다. 예를 들면, 제 1 내지 제 k 카메라들(111~11k) 중 적어도 일부는 촬영된 영상으로부터 오브젝트를 감지할 수 있으며, 감지된 오브젝트의 모션을 감지하여 이벤트 감지 신호를 생성할 수 있다. 예를 들면, 제 1 내지 제 k 카메라들(111~11k) 중 일부는 촬영된 영상으로부터 감지된 오브젝트의 얼굴을 인식하여 이벤트 감지 신호를 생성할 수 있다. 예를 들면, 제 1 내지 제 k 카메라들(111~11k) 중 일부는 촬영되는 영상으로부터 안개(fog)와 같은 노이즈를 감지할 수 있으며, 영상이 상대적으로 많은 노이즈를 포함할 때 이벤트 감지 신호를 생성할 수 있다. 예를 들면, 제 1 내지 제 k 카메라들(111~11k) 중 일부는 촬영된 음성을 분석할 수 있으며, 촬영된 음성으로부터 아기 울음 소리, 총소리 등과 같은 타겟 음성이 감지될 때 이벤트 감지 신호를 생성할 수 있다.
또한, 다른 타입들의 이벤트들을 감지할 수 있는 센서(120)가 제공될 수 있다. 센서(120)는 라우터(130)를 통해 네트워크(105)와 연결되며, 이벤트를 감지하고 감지 결과에 따른 데이터를 이벤트 감지 신호로서 라우터(130)를 통해 이벤트 감지 장치(150)에 전송할 수 있다. 예를 들면, 센서(120)는 제 1 내지 제 k 카메라들(111~11k)에 공급되는 전원을 차단하는 이벤트를 감지할 수 있다. 예를 들면, 센서(120)는 적외선 광원 및 적외선 센서를 포함하여, 적외선 광원을 이용하여 움직이는 물체 혹은 사람을 감지할 수 있다. 이 밖에도, 다양한 타입들의 이벤트들을 감지할 수 있는 센서들이 실시 예들에 따라 제공될 수 있다.
라우터(130)는 네트워크(105)와 연결된다. 라우터(130)는 제 1 내지 제 k 카메라들(111~11k) 및 센서(120)를 네트워크(105)에 연결할 수 있다. 라우터(130)는 수신되는 데이터 패킷들(packets)을 그것의 내부 메모리에 로딩하면서 로딩된 데이터를 전달할 수 있다. 라우터(130)는 제 1 내지 제 k 카메라들(111~11k) 및 센서(120)로부터 수신된 데이터 및/또는 신호를 네트워크(105)에 연결된 구성 요소에 전달할 수 있다. 또한, 라우터(130)는 네트워크(105)에 연결된 구성 요소로부터 수신된 데이터 및/또는 신호를 제 1 내지 제 k 카메라들(111~11k) 및 센서(120) 중 어느 하나에 전달할 수 있다.
제 1 내지 제 k 카메라들(111~11k), 센서(120), 및 라우터(130)는 상대적으로 서로 인접한 공간들에 설치될 수 있으며, 라우터(130)를 통해 서로 유/무선으로 연결되어 하나의 로컬 네트워크 시스템을 형성할 수 있다.
제 1 내지 제 k 카메라들(111~11k), 센서(120), 및 라우터(130)에 의해 형성되는 로컬 네트워크 시스템과 통신하는 NVR 서버(140)가 제공될 수 있다. NVR 서버(140)는 네트워크(105) 상 구성 요소들에 제 1 내지 제 k 카메라들(111~11k) 및 센서(120)와의 인터페이스를 제공할 수 있다. 실시 예들에서, NVR 서버(140)는 제 1 내지 제 k 카메라들(111~11k) 각각에 의해 촬영된 영상 및 음성을 저장할 수 있다. 또한, NVR 서버(140)는 제 1 내지 제 k 카메라들(111~11k) 및 센서(120)로부터의 이벤트 감지 신호들을 저장할 수 있다. 이벤트 감지 장치(150)는 NVR 서버(140)에 액세스하여 NVR 서버(140)에 저장된 영상, 음성, 이벤트 감지 신호들을 읽을 수 있다. 이와 같이 NVR 서버(140)가 제공되는 경우, 이벤트 감지 장치(150)는 NVR 서버(140)를 통해 제 1 내지 제 k 카메라들(111~11k) 및 센서(120)와 연관된 데이터 및/또는 신호를 획득할 수 있다.
이벤트 감지 장치(150)는 네트워크(105)에 연결된다. 이벤트 감지 장치(150)는 제 1 내지 제 k 카메라들(111~11k) 및 센서(120)의 이벤트 감지 신호들을 NVR 서버(140)를 통해 획득할 수 있으며, 획득된 이벤트 감지 신호들에 기반하여 기 설정된 액션들을 수행할 수 있다. 예를 들면, 이벤트 감지 장치(150)는 획득된 이벤트 감지 신호들에 기반하여 알람 신호를 클라이언트 단말기(160)로 전송할 수 있다. 다른 실시 예들에서, 이벤트 감지 장치(150)는 NVR 서버(140) 없이 제 1 내지 제 k 카메라들(111~11k) 및 센서(120)의 이벤트 감지 신호들을 획득할 수 있다.
이벤트 감지 장치(150)는 컴퓨터, UMPC(Ultra Mobile PC), 워크스테이션, 넷북(net-book), PDA(Personal Digital Assistants), 포터블(portable) 컴퓨터, 웹 타블렛(web tablet), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 스마트폰(smart phone), e-북(e-book), PMP(portable multimedia player) 등과 같은 정보를 유선 및/또는 무선 환경에서 송수신할 수 있는 다양한 타입들의 컴퓨터 장치들 중 하나일 수 있다.
도 2는 이벤트 감지 장치에서 이벤트 감지 신호들에 기반하여 기 설정된 액션을 수행하는 과정의 실시 예를 보여주는 도면이다.
도 2를 참조하면, 이벤트 감지 장치(150)는 제 1 내지 제 k 카메라들(111~11k) 중 하나(11n, n은 1보다 크거나 같고 k보다 작거나 같은 정수)로부터 이벤트 감지 신호(EDS1)를 수신하고, 센서(120)로부터 이벤트 감지 신호(EDS2)를 수신할 수 있다. 나아가, 이벤트 감지 장치(150)는 NVR 서버(140)도 이벤트 감지 신호(EDS3)를 수신할 수 있다. 예를 들면, NVR 서버(140)는 제 1 내지 제 k 카메라들(111~11k)에 의해 촬영되는 영상 및/또는 음성으로부터 혹은 그것들에 의해 제공되는 추가적인 신호들로부터 이벤트를 감지하는 기능을 포함할 수 있으며, 이러한 기능에 따라 이벤트 감지 신호(EDS3)를 생성할 수 있다.
이벤트 감지 장치(150)는 이와 같이 제 1 내지 제 k 카메라들(111~11k), 센서(120), 및 NVR 서버(140)로부터 이벤트 감지 신호들을 수신할 수 있으며, 수신된 이벤트 감지 신호들에 기반하여 기 설정된 액션을 수행할 수 있다. 이벤트 감지 장치(150)는 선택된 이벤트 감지 신호들이 생성될 때 기 설정된 액션을 수행할 수 있다. 예를 들면, 이벤트 감지 장치(150)는 제 1 및 제 2 이벤트 감지 신호들(EDS1, EDS2)이 생성될 때, 기 설정된 액션을 수행할 수 있다. 이때, 선택된 이벤트 감지 신호들은 사용자에 의해 정의될 수 있다 즉, 사용자는 이벤트 감지 장치(150)가 수행할 액션을 트리거하는 이벤트들을 선택 및 설정할 수 있다. 본 발명의 실시 예들에 따른 이벤트 감지 장치(150)는 사용자가 이벤트들을 선택 및 설정하는 데에 있어 향상된 편의성을 제공한다. 실시 예들에서, 수행될 액션은 사용자에 의해 정의될 수 있다. 예를 들면, 수행될 액션은 도 2에 도시된 바와 같이 클라이언트 단말기(160)에 알람 신호(ARM)를 전송하는 동작을 포함할 수 있다.
도 3은 도 1의 이벤트 감지 장치의 실시 예를 보여주는 블록도이다.
도 1 및 도 3을 참조하면, 이벤트 감지 장치(200)는 통신기(210), 사용자 인터페이스(220), 디스플레이 장치(230), 저장 매체(240), 및 제어기(250)를 포함할 수 있다.
통신기(210)는 제어기(250)에 연결된다. 통신기(210)는 제어기(250)의 제어에 응답하여 통해 네트워크(105)에 액세스하도록 구성된다. 통신기(210)는 유선 통신 기능 및 무선 통신 기능 중 적어도 하나를 포함할 수 있다.
사용자 인터페이스(220)는 제어기(250)의 동작들을 제어하기 위한 사용자 입력을 수신한다. 사용자 인터페이스(220)는 마우스, 조그 휠, 조그 스위치, 키 패드(key pad), 돔 스위치(dome switch), 터치 패드(정압/정전) 등을 포함할 수 있다.
디스플레이 장치(230)는 제어기(250)의 제어에 응답하여 동작한다. 디스플레이 장치(230)는 이벤트 감지 장치(200) 혹은 제어기(250)에 의해 처리되는 정보를 표시한다. 예를 들면, 디스플레이 장치(230)는 제어기(250)의 제어에 따라 다양한 그래픽 인터페이스들을 디스플레이할 수 있다. 디스플레이 장치(230)가 터치 패드와 일체로 형성되어 터치 스크린을 구성하는 경우, 디스플레이 장치(230)는 사용자 인터페이스(220)를 시각화할 수 있다. 디스플레이 장치(230)에 디스플레이되는 화면들의 실시 예들이 도 6 내지 도 13, 도 16, 및 도 17에 도시되어 있다.
디스플레이 장치(230)는 액정 디스플레이(liquid crystal display), 유기 발광 다이오드(organic light-emitting diode) 디스플레이, 플렉서블 디스플레이(flexible display) 등 다양한 타입의 디스플레이 장치들 중 적어도 하나를 포함할 수도 있다.
저장 매체(240)는 전원이 차단되더라도 저장된 데이터를 유지하는 다양한 타입들의 불휘발성(non-volatile) 저장 매체들, 예를 들면 플래시 메모리(flash memory), 하드 디스크(hard disk) 등을 포함할 수 있다. 저장 매체(240)는 제어기(250)의 제어에 응답하여 데이터를 기입하고 독출하도록 구성된다.
제어기(250)는 통신기(210), 사용자 인터페이스(220), 디스플레이 장치(230), 저장 매체(240)에 연결된다. 제어기(250)는 이벤트 설정기(251) 및 이벤트 감지기(250)를 포함할 수 있다.
이벤트 설정기(251)는 여기에 설명된 사용자 입력들에 따라, 제 1 내지 제 k 카메라들(111~11k) 및 센서(120)를 통해 감지 가능한 이벤트들 중 선택된 이벤트들로 이루어진 그룹을 생성하고 생성된 이벤트 그룹에 대응하는 액션을 설정하도록 구성된다. 이벤트 설정기(251)는 제 1 내지 제 k 카메라들(111~11k) 및 센서(120)로부터 그것들이 지원하는 이벤트들에 대한 정보를 수신할 수 있으며, 수신된 이벤트들에 대한 정보를 후보 이벤트 데이터(CED)로서 저장 매체(240)에 저장할 수 있다. 이벤트 설정기(251)는 후보 이벤트 데이터(CED)를 참조하여, 저장 매체(240)에 저장된 그래픽 인터페이스 소스(GUIS)에 따른 화면들을 디스플레이 장치(230)에 디스플레이할 수 있다. 그래픽 인터페이스 소스(GUIS)는 아이템들, 아이콘들, 이미지들, 텍스트들 등과 같은 다양한 오브젝트들, 그리고 레이아웃들을 포함할 수 있다. 이벤트 설정기(251)는 화면 상에서의 사용자 입력들에 따라 후보 이벤트 데이터(CED)의 이벤트들 중 일부를 선택하고, 선택된 이벤트들의 그룹에 대한 정보를 설정 이벤트 데이터(SED)로서 생성할 수 있다. 또한, 이벤트 설정기(251)는 화면 상에서의 사용자 입력들에 따라, 기 저장된 후보 액션 데이터(CAD)의 액션들 중 적어도 하나를 선택하고, 선택된 액션에 대한 정보를 설정 액션 데이터(SAD)로서 생성할 수 있다. 이와 연관된 화면들 및 사용자 입력들이 도 5 내지 도 13 및 도 15 내지 도 17을 참조하여 설명될 것이다.
이벤트 감지기(252)는, 도 2를 참조하여 설명된 바와 같이, 네트워크 시스템(100)의 구성 요소들에서 발생되는 이벤트 감지 신호들을 모니터링하고, 설정 이벤트 데이터(SED)에 대응하는 이벤트 감지 신호들이 발생했는지 여부를 판별하고, 판별 결과에 따라 설정 액션 데이터(SAD)에 대응하는 액션을 수행할 수 있다.
실시 예들에서, 이벤트 설정기(251) 및 이벤트 감지기(252) 각각은 소프트웨어, 하드웨어, 펌웨어, 및 그것들의 조합 중 적어도 하나를 통해 구현될 수 있다. 이벤트 설정기(251) 및 이벤트 감지기(252)은 실시 예들에 따라 통합되거나, 더 많은 구성 요소들로 분리될 수 있다.
도 4는 이벤트 감지 장치에서, 감지 가능한 이벤트들을 수집하는 방법의 실시 예를 보여주는 순서도이다.
도 1 및 도 4를 참조하면, S110단계에서, 이벤트 감지 장치(150)는 네트워크 시스템의 구성 요소들을 통해 감지 가능한 이벤트들을 수집할 수 있다.
이벤트 감지 장치(150)는 제 1 내지 제 k 카메라들(111~11k) 및 센서(120)와 각각 통신들을 개설할 때 그것들이 지원하는(즉, 감지 가능한) 이벤트들에 대한 정보를 수신할 수 있다. 실시 예들에서, 제 1 내지 제 k 카메라들(111~11k) 및 센서(120)가 지원하는 이벤트들에 대한 정보, 명칭, IP 주소, MAC 주소 등이 NVR 서버(140)에 의해 획득되고, NVR 서버(140)로부터 이벤트 감지 장치(200)에 제공될 수 있다. 이를 위해, NVR 서버(140)는 ONVIF(Open Network Video Interface Forum) 표준에 기반하여 제 1 내지 제 k 카메라들(111~11k) 및 센서(120)과 통신할 수 있다.
S120단계에서, 이벤트 감지 장치(150)는 수집된 이벤트들에 대한 정보를 후보 이벤트 데이터(CED, 도 3 참조)로서 저장할 수 있다
도 5는 이벤트 감지 장치에서, 수집된 이벤트들의 그룹을 생성하는 방법의 실시 예를 보여주는 순서도이다. 도 6은 복수의 카메라들 중 일부를 선택하는 사용자 입력을 수신하기 위해 디스플레이되는 화면의 일 예를 보여주는 도면이다. 도 7 내지 도 10은 도 5의 S210단계 내지 S230단계에서 디스플레이되는 화면들의 예시들을 보여주는 도면이다.
도 1 및 도 5를 참조하면, S210단계에서, 이벤트 감지 장치(150)는 복수의 카메라들(111~11k) 중 적어도 일부를 선택하는 사용자 입력에 응답하여 제 1 영역 및 제 1 영역과 분리된 제 2 영역을 디스플레이한다. 이때, 제 1 영역에는 선택된 카메라들을 통해 감지 가능한 이벤트들을 나타내는 후보 아이템들이 리스팅된다.
도 6을 참조하면, 이벤트 감지 장치(150)에 디스플레이되는 제 1 설정창(301)이 도시되어 있다. 제 1 설정창(301)은 상태 표시 영역(STTS) 및 카메라 선택 메뉴(CSMN)를 포함할 수 있다. 제 1 설정 창(301)은 도 6에 도시된 바와 같이 설정 이벤트의 명칭, 설명 등과 같은 추가적인 정보를 표시하는 영역들을 더 포함할 수 있다.
상태 표시 영역(STTS)은 복수의 스텝들 중 현재 스텝을 나타낼 수 있다. 카메라 선택 메뉴(CSMN)는 복수의 카메라들(111~11k, 도 1 참조)에 각각 대응하는 제 1 아이콘들(AC1)을 포함할 수 있다. 도 6에서, 카메라 선택 메뉴(CSMN)는 12개의 제 1 아이콘들(AC1)을 포함하는 것으로 예시된다. 제 1 아이콘들(AC1) 각각은 해당 카메라에 대응하는 다양한 정보, 예를 들면 해당 카메라의 명칭, IP 주소, MAC 주소, 등을 포함할 수 있다. 제 1 아이콘들(AC1) 중 적어도 일부를 선택하는 사용자 입력에 응답하여 제 1 아이콘들(AC1) 중 일부가 선택될 수 있다. 도 5에서, 카메라(camera) 1~4 및 12에 대응하는 제 1 아이콘들(AC1)이 선택되어 음영표시되는 것으로 도시되어 있다. 이에 따라, 선택된 제 1 아이콘들(AC1)에 대응하는 카메라들이 선택될 것이다. 제 1 설정창(301)의 제 2 아이콘(AC2)을 선택하는 사용자 입력에 응답하여, 카메라들에 대한 선택은 완료되어 도 7의 제 2 설정창(302)이 디스플레이될 수 있다.
도 7을 참조하면, 제 2 설정창(302)은 상태 표시 영역(STTS), 그리고 제 1 내지 제 3 영역들(AR1~AR3)을 포함할 수 있다. 제 1 내지 제 3 영역들(AR1~AR3)은 제 1 방향(D1)으로 배열된다.
제 1 영역(AR1)에는 선택된 카메라들을 통해 감지 가능한 이벤트들이 리스팅된다. 또한, 복수의 카메라들(111~11k)을 제외한 네트워크 시스템(100) 내 다른 구성 요소들을 통해 감지 가능한 이벤트들을 나타내는 후보 아이템들이 더 리스팅될 수 있다. 예를 들면, 제 1 영역(AR1)에는 선택된 카메라들, 센서(120), 및 NVR 서버(140)를 통해 감지 가능한 이벤트들을 나타내는 후보 아이템들이 리스팅될 수 있다. 도 7에서 5개의 후보 아이템들(CITM1~CITM5)이 리스팅되어 있다. 제 1 내지 제 제 5 후보 아이템들(CITM1~CITM5)은 제 1 방향(D1)과 교차하는 제 2 방향(D2)으로 배열될 수 있다. 각 후보 아이템은 해당 이벤트 및 그 이벤트를 지원하는 장치를 알릴 수 있다. 실시 예들에서, 각 후보 아이템은 상이한 이벤트 타입을 나타낼 수 있다. 예를 들면, 제 1 후보 아이템(CITM1)은 모션 감지(Motion Detection) 이벤트를 나타낼 수 있으며, 모션 감지 이벤트를 지원하는 카메라들의 명칭들을 디스플레이할 수 있다. 제 2 후보 아이템(CITM2)은 얼굴 감지(Face Detection) 이벤트를 나타낼 수 있으며, 얼굴 감지 이벤트를 지원하는 카메라들의 명칭들을 디스플레이할 수 있다. 제 3 후보 아이템(CITM3)은 소리 감지(Sound Detection) 이벤트를 나타낼 수 있으며, 소리 감지 이벤트를 지원하는 카메라들의 명칭들을 디스플레이할 수 있다. 제 4 후보 아이템(CITM4)은 알람 입력(Alarm Input) 이벤트를 나타낼 수 있으며, 알람 입력 이벤트를 지원하는 장치, 예를 들면 센서(120, 도 1 참조)의 명칭을 디스플레이할 수 있다. 제 5 후보 아이템(CITM5)은 영상 손실(Video Loss) 이벤트를 나타낼 수 있으며, 제 1 내지 제 k 카메라들(111~11k)의 영상 손실 이벤트를 감지할 수 있는 장치, 예를 들면 NVR 장치(140, 도 1 참조)의 명칭을 디스플레이할 수 있다. 실시 예들에서, 각 후보 아이템은 상이한 컬러를 가질 수 있다.
다시 도 1 및 도 5를 참조하면, S220단계에서, 이벤트 감지 장치(150)는 제 1 영역에 리스팅된 후보 아이템들 중 제 1 후보 아이템을 제 2 영역으로 드래그 및 드롭하는 사용자 입력에 응답하여, 제 1 후보 아이템의 이벤트를 나타내는 제 1 선택 아이템을 제 2 영역 내의 제 1 서브 영역에 디스플레이한다.
다시 도 7을 참조하면, 제 1 영역(AR1)의 후보 아이템들(CITM1~CITM5) 중 어느 하나, 예를 들면 제 1 후보 아이템(CITM1)을 제 2 영역(AR2)으로 드래그 및 드롭하는 사용자 입력(a)이 수신된다. 실시 예들에서, 제 2 영역(AR2)에 제 1 서브 영역(SAR1)이 디스플레이되고, 제 1 후보 아이템(CITM1)을 제 1 서브 영역(SAR1)에 드래그 및 드롭하는 사용자 입력(a)이 수신될 수 있다.
이어서 도 7과 함께 도 8을 참조하면, 사용자 입력(a)에 응답하여 제 1 후보 아이템(CITM1)의 이벤트(예를 들면, 모션 감지 이벤트)를 나타내는 제 1 선택 아이템(SITM1)이 제 1 서브 영역(SAR1)에 디스플레이된다. 실시 예들에서, 선택 아이템은 해당 후보 아이템과 동일한 컬러를 가질 수 있으며, 이는 후보 아이템 및 선택 아이템의 연관성을 나타내는 데에 도움을 준다. 실시 예들에서, 선택 아이템은 제 3 아이콘(AC3)을 더 포함할 수 있다. 제 3 아이콘(AC3)의 선택에 응답하여 해당 이벤트를 세부적으로 설정할 수 있는 추가적인 설정 창이 제공될 수 있다. 예를 들면, 사용자는 추가적인 설정 창을 통해 모션 감지 이벤트를 지원하는 카메라들 각각이 모션을 감지하는 감도를 설정할 수 있다. 예를 들면, 사용자는 추가적인 설정 창을 통해 모션 감지 이벤트를 지원하는 카메라들 각각의 영상을 확인할 수 있다.
제 1 선택 아이템(SITM1)이 제 1 서브 영역(SAR1)에 디스플레이될 때, 제 1 선택 아이템(SITM1)과 인접하는 추가적인 서브 영역(SAR2)이 더 디스플레이될 수 있다. 제 2 서브 영역(SAR2)은 제 1 선택 아이템(SITM1)과 접할 수 있다. 다른 실시 예들에서, 제 2 서브 영역(SAR2)은 제 1 선택 아이템(SITM1)을 포함하는 넓은 면적을 가질 수 있다.
또한, 제 1 선택 아이템(SITM1)이 제 1 서브 영역(SAR1)에 디스플레이될 때, 제 2 서브 영역(SAR2)보다 제 1 선택 아이템(SITM1)으로부터 이격된 제 3 서브 영역(SAR3)이 더 디스플레이될 수 있다. 제 3 서브 영역(SAR3)은 생성될 수 있는 추가적인 이벤트 그룹에 대응한다. 이는 도 16 및 도 17을 참조하여 더 상세히 설명된다.
다시 도 1 및 도 5를 참조하면, S230단계에서, 이벤트 감지 장치(150)는 제 1 영역에 리스팅된 후보 아이템들 중 제 2 후보 아이템을 제 2 영역 내 제 2 서브 영역으로 드래그 및 드롭하는 사용자 입력에 응답하여, 제 2 후보 아이템의 이벤트를 나타내는 제 2 선택 아이템을 제 2 서브 영역에 디스플레이한다. 이때, 이벤트 감지 장치(150)는 제 1 선택 아이템 및 제 2 선택 아이템을 그룹핑하는 그래픽 인터페이스를 제공한다.
도 9를 참조하면, 제 1 영역(AR1)의 후보 아이템들(CITM1~CITM5) 중 제 2 후보 아이템(CITM2)을 제 2 서브 영역(SAR2)에 드래그 및 드롭하는 사용자 입력(b)이 수신된다. 예를 들면, 사용자 입력(b)은 제 2 후보 아이템(CITM2)을 제 2 서브 영역(SAR2)에 적어도 부분적으로 중첩시키는 드래그 및 드롭 입력을 포함할 수 있다.
이어서 도 9와 함께 도 10을 참조하면, 사용자 입력(b)에 응답하여 제 2 후보 아이템(CITM2)의 이벤트(예를 들면, 얼굴 감지 이벤트)를 나타내는 제 2 선택 아이템(SITM2)이 제 2 서브 영역(SAR2)에 디스플레이된다. 제 2 선택 아이템(SITM2)의 이벤트는 제 1 선택 아이템(CITM1)과 상이할 수 있다. 실시 예들에서, 만약 제 1 영역(AR1)의 제 1 후보 아이템(CITM1)을 제 2 서브 영역(SAR2)에 드래그 및 드롭하는 사용자 입력이 수신되면, 그에 대응하는 제 1 선택 아이템(SITM1)은 제 2 서브 영역(SAR2)에 디스플레이되지는 않을 것이다.
제 1 및 제 2 선택 아이템들(SITM1, SITM2)은 제 2 방향(D2, 도 7 참조)으로 배열된다. 제 2 선택 아이템(SITM2)이 디스플레이될 때, 제 1 및 제 2 선택 아이템들(SITM1, SITM2)의 그룹핑을 보여주는 그래픽 인터페이스가 제공된다. 실시 예들에서, 제 1 및 제 2 선택 아이템들(SITM1, SITM2)은 제 2 방향(D2, 도 7 참조)으로 배열되되, 제 1 및 제 2 선택 아이템들(SITM1, SITM2)은 서로 접하도록 디스플레이될 수 있다. 실시 예들에서, 제 2 선택 아이템(SITM2)은 제 1 선택 아이템(SITM1)보다 제 1 방향(D1, 도 7 참조)으로 좁은 폭을 갖도록 디스플레이될 수 있다. 도 10에서, 제 1 선택 아이템(SITM1)은 제 1 폭(w1)을 가지며, 제 2 선택 아이템(SITM2)은 제 1 폭(w1)보다 작은 제 2 폭(w2)을 가진다. 실시 예들에서, 제 2 선택 아이템(SITM2)은 제 1 선택 아이템(SITM1)보다 작은 면적을 갖도록 디스플레이될 수 있다.
제 2 선택 아이템(SITM2)이 제 2 서브 영역(SAR2)에 디스플레이될 때, 제 2 선택 아이템(SITM2)과 인접하는 추가적인 서브 영역(SAR4)이 더 디스플레이될 수 있다. 이에 따라, 제 3 서브 영역(SAR3)의 위치는 변경될 수 있다. 제 4 서브 영역(SAR4)은 제 2 선택 아이템(SITM2)과 접할 수 있다. 다른 실시 예들에서, 제 4 서브 영역(SAR4)은 제 1 및 제 2 선택 아이템들(SITM1, SITM2)을 포함하는 넓은 면적을 가질 수 있다.
다시 도 1 및 도 5를 참조하면, S240단계에서, 이벤트 감지 장치(150)는 제 1 및 제 2 선택 아이템들의 이벤트들의 발생을 모니터링하여 설정된 액션을 수행한다.
이벤트 감지 장치(150)는 제 1 내지 제 k 카메라들(111~11k), 센서(120), 및 NVR 서버(140)와 같은 네트워크 시스템(100) 내 구성 요소들의 이벤트 감지 신호들(도 2의 EDS1~EDS3 참조)을 모니터링하고, 제 1 및 제 2 선택 아이템들의 이벤트들에 대응하는 이벤트 감지 신호들이 생성될 때 설정된 액션을 수행할 수 있다. 예를 들면, 이벤트 감지 장치(150)는 이벤트의 발생을 알리는 알람 신호(도 2의 ALR 참조)를 생성할 수 있다. 다른 예로서, 제 1 내지 제 k 카메라들(111~11k) 중 PTZ(Pan-Tilt-Zoom) 카메라가 존재하는 경우, 이벤트 감지 장치(150)는 PTZ 카메라의 촬영 영역을 변경할 수 있다. 이 밖에도, 이벤트 감지 장치(150)는 다양한 액션들을 수행할 수 있다.
본 발명의 실시 예에 따르면, 이벤트 감지 장치(150)는 제 1 및 제 2 영역들을 포함하는 설정창을 제공하되, 감지 가능한 이벤트들을 나타내는 아이템들을 제 1 영역으로부터 제 2 영역으로 드래그 및 드롭하는 사용자 입력들에 응답하여 제 2 영역에 그룹핑된 아이템들을 디스플레이하는 그래픽 인터페이스를 제공한다. 이후, 이벤트 감지 장치(150)는 그룹핑된 아이템들에 대응하는 이벤트들 모두가 감지될 때 설정된 액션을 수행할 수 있다. 드래그 및 드롭하는 사용자 입력들에 따라 그룹된 아이템들이 보여지므로, 사용자는 그룹핑된 아이템들을 쉽게 식별할 수 있으며, 이에 따라 그에 대응하는 이벤트들의 그룹을 생성 및/또는 정의하는 데에 향상된 사용자 편의성을 제공할 수 있다. 따라서, 향상된 편의성을 제공하는 이벤트 감지 장치(150)가 제공될 수 있다.
또한, 위 수행될 액션은 사용자에 의해 설정될 수 있다.
도 11 내지 도 13은 설정된 선택 아이템들의 그룹에 대응하는 액션의 설정을 위해 디스플레이되는 화면들의 예시들을 보여주는 도면이다.
도 11을 참조하면, 제 1 내지 제 3 영역들(AR1~AR3)을 포함하는 제 3 설정창(303)이 디스플레이된다. 제 1 영역(AR1)에 이벤트 감지 장치(150)에 의해 지원되는 복수의 액션들을 나타내는 액션 아이템들(AITM1~AITM3)이 리스팅된다. 사용자 입력에 응답하여 제 1 영역(AR1)에 디스플레이됐던 도 10의 후보 아이템들(CITM1~CITM5)은 도 11의 액션 아이템들(AITM1~AITM3)로 변경될 수 있다. 예를 들면, 이벤트 감지 장치(150)는 제 1 및 제 2 선택 아이템들(SITM1, SITM2) 중 일부, 혹은 제 1 및 제 2 선택 아이템들(SITM1, SITM2)과 연관된 아이콘을 선택하는 사용자 입력에 응답하여, 제 1 영역(AR1)에 액션 아이템들(AITM1~AITM3)을 디스플레이할 수 있다. 각 액션 아이템은 수행될 액션에 대한 정보를 디스플레이할 수 있다. 예를 들면, 제 1 액션 아이템(AITM1)은 이벤트 감지 장치(150)에 의해 알람을 출력하는 동작을 나타낼 수 있으며, 제 2 액션 아이템(AITM2)은 PTZ 카메라에 의해 수행되는 특정 동작을 나타낼 수 있으며, 제 3 액션 아이템(AITM3)은 이벤트 감지 장치(150)에 의해 이메일을 지정된 어드레스로 전송하는 동작을 나타낼 수 있다. 각 액션 아이템은 해당 동작이 어떤 장치에 의한 것인지 알리는 영역을 포함할 수 있다.
제 1 내지 제 3 액션 아이템들(CAITM1~CAITM3) 중 어느 하나, 예를 들면 제 3 액션 아이템(AITM3)을 제 3 영역(AR3)으로 드래그 및 드롭하는 사용자 입력(c)이 수신될 수 있다. 도 12를 참조하면, 사용자 입력(c)에 응답하여 제 3 영역(AR3)에 제 3 액션 아이템(AITM3)이 디스플레이된다. 실시 예들에서, 제 3 영역(AR3)에 포함된 제 3 액션 아이템(AITM3)은 제 1 영역(AR1)과 비교할 때 동일한 컬러를 가질 수 있으며, 이는 제 1 및 제 3 영역들(AR1, AR3)의 제 3 액션 아이템(AITM3)들의 연관성을 나타내는 데에 도움을 준다. 제 3 영역(AR3)에 포함된 제 3 액션 아이템(AITM3)은 제 1 영역(AR1)과 비교할 때 상이한 형상을 가질 수 있다. 실시 예들에서, 제 3 영역(AR3)에 포함된 제 3 액션 아이템(AITM3)은 선택될 때 해당 액션을 세부적으로 설정할 수 있는 추가적인 설정 창의 제공을 트리거하는 제 5 아이콘(AC5)을 더 포함할 수 있다.
이러한 방식으로 제 1 및 제 2 선택 아이템들(SITM1, SITM2)을 위한 액션 아이템이 제 3 영역(AR3)에 추가될 수 있다. 도 13을 참조하면, 제 3 영역(AR3)에 추가적인 액션 아이템(AITM2)이 더 포함될 수 있다.
제 2 설정창(302)의 제 6 아이콘(AC6)을 선택하는 사용자 입력에 응답하여, 제 1 및 제 2 선택 아이템들(SITM1, SITM2)에 대한 액션 아이템들의 선택이 완료될 수 있다. 도 13에서, 제 2 및 제 3 액션 아이템들(AITM2, AITM3)이 선택되는 것으로 도시된다. 실시 예들에서, 제 6 아이콘(AC6)을 선택하는 사용자 입력에 응답하여 다른 추가적인 설정들을 위한 설정 창이 더 제공될 수 있다. 이벤트 감지 장치(150)는 제 1 및 제 2 선택 아이템들(SITM1, SITM2)의 이벤트들 모두가 발생될 때, 제 2 및 제 3 액션 아이템들(AITM2, AITM3)에 대응하는 액션들을 수행할 수 있다.
도 14는 도 5의 S240단계의 실시 예를 보여주는 순서도이다.
도 1 및 도 14를 참조하면, S310단계에서, 이벤트 감지 장치(150)는 그룹핑된 선택 아이템들의 이벤트들의 발생을 모니터링한다.
S320단계에서, 이벤트 감지 장치(150)는 해당 이벤트들 모두가 정해진 시간 이내에 감지되는지 여부에 따라 S330단계를 수행한다. 이벤트 감지 장치(150)는 선택 아이템들의 이벤트들에 대응하는 이벤트 감지 신호들(도 2의 EDS1~EDS3 참조)이 정해진 시간 이내에 수신되는지 여부를 판별한다.
S330단계에서, 이벤트 감지 장치(150)는 설정된 액션을 수행한다. 실시 예들에서, 수행되는 액션은 사용자에 의해 설정될 수 있다. 도 11 내지 도 13을 참조하여 설명된 사용자 입력에 따라 액션이 설정될 수 있다.
도 15는 이벤트 감지 장치에서, 수집된 이벤트들의 다른 그룹을 생성하는 방법의 실시 예를 보여주는 도면이다. 도 16 및 도 17은 도 15의 S310단계에서 디스플레이되는 화면들의 예시들을 보여주는 도면이다.
도 1 및 도 15를 참조하면, 이벤트 감지 장치(150)는 제 1 영역에 리스팅된 후보 아이템들 중 제 3 후보 아이템을 제 2 영역의 제 3 서브 영역으로 드래그 및 드롭하는 사용자 입력에 응답하여, 제 3 후보 아이템의 이벤트를 나타내는 제 3 선택 아이템을 제 3 서브 영역에 디스플레이한다.
도 16을 참조하면, 제 1 영역(AR1)의 후보 아이템들(CITM1~CITM5) 중 어느 하나, 예를 들면 제 5 후보 아이템(CITM5)을 제 2 영역(AR2)의 제 3 서브 영역(SAR3)으로 드래그 및 드롭하는 사용자 입력(d)이 수신된다. 이때 제 3 서브 영역(SAR3)은, 도 8을 참조하여 설명된 바와 같이 제 1 서브 영역(SAR1)에 제 1 선택 아이템(SITM1)이 생성될 때 디스플레이된 것이다.
이어서 도 16과 함께 도 17을 참조하면, 사용자 입력(d)에 응답하여 제 5 후보 아이템(CITM5)의 이벤트(예를 들면, 영상 손실)를 나타내는 제 3 선택 아이템(SITM3)이 제 3 서브 영역(SAR3)에 디스플레이된다.
제 3 선택 아이템(SITM3)은 그룹핑된 제 1 및 제 2 선택 아이템들(SITM1, SITM2)과 다른 그룹에 속한다. 제 3 선택 아이템(SITM3)의 이벤트는 제 1 및 제 2 선택 아이템들(SITM1, SITM2)의 이벤트들과 동일할 수도 있고, 상이할 수도 있다. 제 3 선택 아이템(SITM3)이 제 3 서브 영역(SAR3)에 디스플레이될 때, 제 3 선택 아이템(SITM3)과 인접하는 추가적인 서브 영역(SAR5)이 더 디스플레이될 수 있다. 제 3 선택 아이템(SITM3)이 제 3 서브 영역(SAR3)에 디스플레이될 때, 그로부터 이격된 제 6 서브 영역(SAR6)이 더 디스플레이될 수 있다.
이와 같이, 제 1 및 제 2 선택 아이템들(SITM1, SITM2)과 다른 그룹의 제 3 선택 아이템(SITM3)이 제 2 영역(AR2)에 더 생성될 수 있다. 추가적인 선택 아이템이 제 3 선택 아이템(SITM3)과 함께 그룹핑될 수도 있다. 또한, 제 3 선택 아이템(SITM3)에 대한 액션이 도 11 내지 도 13을 참조하여 설명된 바와 같이 설정될 수 있다. 이벤트 감지 장치(150)는 제 3 선택 아이템(SITM3)의 이벤트가 감지될 때, 제 1 및 제 2 선택 아이템들(SITM1, SITM2)의 이벤트들과 관계없이 설정된 액션을 수행할 수 있다.
도 18은 도 3의 이벤트 감지 장치를 구현할 수 있는 컴퓨터 장치의 실시 예를 보여주는 블록도이다.
도 18을 참조하면, 컴퓨터 장치(400)는 통신기(410), 사용자 인터페이스(420), 디스플레이 장치(430), 전원부(440), 불휘발성 저장 매체(450), 시스템 메모리(460), 및 프로세싱 유닛(470)을 포함할 수 있다.
통신부(410)는 컴퓨터 장치(400)의 구성들에 대응하여, 무선랜, 블루투스, 유선 이더넷(Ethernet), 등과 같은 다양한 방식들 중 적어도 하나로 외부와 데이터 또는 신호를 송수신할 수 있다.
사용자 인터페이스(420) 및 디스플레이 장치(430)는 도 3을 참조하여 설명된 사용자 인터페이스(220) 및 디스플레이 장치(220)와 각각 마찬가지로 구성될 수 있다. 이하, 중복되는 설명은 생략된다.
전원부(440)는 외부 전원 소스로부터 입력되는 전원을 컴퓨터 장치(400)의 구성 요소들로 공급한다. 전원부(440)는 컴퓨터 장치(400)의 배터리(미도시)에서부터 출력되는 전원을 컴퓨터 장치(400)의 구성 요소들에 공급할 수 있다.
불휘발성 저장 매체(450)는 프로세싱 유닛(470)에 의해 컴퓨터 장치(400)를 구동 및 제어하기 위한 다양한 프로그램 코드들(혹은 명령어들) 및 데이터를 저장할 수 있다. 불휘발성 저장 매체(450)는 도 3의 저장 매체(240)로서 제공될 수 있다. 이러한 경우, 불휘발성 저장 매체(450)는 후보 이벤트 데이터(CED), 설정 이벤트 데이터(SED), 후보 액션 데이터(CAD), 설정 액션 데이터(SAD), 및 그래픽 인터페이스 소스(GUIS)를 저장할 수 있다.
시스템 메모리(460)는 램, 롬(Read Only Memory, ROM) 등 컴퓨터에 의해 판독 가능한 저장 매체들 중 적어도 하나를 포함할 수 있다. 시스템 메모리(460)는 프로세싱 유닛(470), 예를 들면 메인 프로세서(473) 및/또는 그래픽 프로세서(474)의 워킹 메모리로서 기능할 수 있다. 시스템 메모리(460)는 컴퓨터 장치(400)의 버퍼 메모리로서 기능할 수 있다.
프로세싱 유닛(470)은 컴퓨터 장치(400)의 제반 동작들 및 컴퓨터 장치(400)의 구성 요소들 사이의 신호들의 흐름을 제어하고, 데이터를 처리하도록 구성된다. 프로세싱 유닛(470)은 사용자 입력에 응답하여 및/또는 기 설정된 조건을 만족하는 경우, 불휘발성 저장 매체(450)에 저장된 운영 체제(Operation System: OS) 및 다양한 애플리케이션들을 실행할 수 있다.
프로세싱 유닛(470)은 워킹 메모리 및/또는 버퍼 메모리로서 기능하는 램(471, RAM), 프로세싱 유닛(470)의 동작을 위한 제어 프로그램 코드들을 저장하는 롬(472, ROM), 그리고 메인 프로세서(473)를 포함할 수 있다.
메인 프로세서(473)는 프로그램 코드들을 롬(472) 및/또는 불휘발성 저장 매체(450)로부터 램(471) 및/또는 시스템 메모리(460)에 로딩하고, 로딩된 프로그램 코드들을 실행할 수 있다.
프로세싱 유닛(470)은 그래픽 프로세서(474)를 더 포함할 수 있다. 그래픽 프로세서(474)는 연산부 및 렌더링부를 이용하여 아이템, 아이콘, 이미지, 텍스트 등과 같은 다양한 오브젝트들을 포함하는 그래픽 인터페이스들을 생성할 수 있다. 연산부는 화면의 레이아웃에 따라 각 오브젝트들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값들을 연산할 수 있다. 렌더링부는 연산부에서 연산한 속성값들에 기초하여 오브젝트들을 포함하는 다양한 레이아웃들의 화면들을 생성할 수 있다. 렌더링부에 의해 생성된 화면들은 디스플레이 장치(430)에 디스플레이될 수 있다.
제1 내지 n 인터페이스(1850-1 내지 1850-n)는 프로세싱 유닛(470)의 구성 요소들을 통신기(410), 사용자 인터페이스(420), 디스플레이 장치(430), 불휘발성 저장 매체(450), 및 시스템 메모리(460)와 같은 프로세싱 유닛(470) 외부의 구성 요소들과 연결할 수 있다.
메인 프로세서(473) 및/또는 그래픽 프로세서(474)는 그것들에 의해 실행될 때 도 3을 참조하여 설명된 제어기(250)의 동작들을 수행하는 응용 애플리케이션 모듈을 롬(472) 및/또는 불휘발성 저장 매체(450)로부터 램(471) 및/또는 시스템 메모리(460)에 로딩하고, 로딩된 응용 애플리케이션 모듈을 실행할 수 있다. 예를 들면, 응용 애플리케이션 모듈은 메인 프로세서(473) 및/또는 그래픽 프로세서(474)에 의해 실행될 때 도 3의 이벤트 설정기(251) 및 이벤트 감지기(252)의 기능들을 수행하는 프로그램 코드들을 포함할 수 있다. 메인 프로세서(473)는 운영 체제를 롬(472) 및/또는 불휘발성 저장 매체(450)로부터 램(471) 및/또는 시스템 메모리(460)에 로딩하고, 로딩된 운영 체제를 실행할 수 있다. 이러한 경우, 운영 체제는 응용 애플리케이션 모듈이 컴퓨터 장치(200)의 구성 요소들을 이용할 수 있도록 하는 인터페이스를 제공할 수 있다.
비록 특정 실시 예들 및 적용 례들이 여기에 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정들 및 변형들이 가능하다.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.
100: 네트워크 시스템
111~11k: 제 1 내지 제 k 카메라들
120: 적어도 하나의 센서
140: NVR 서버
150: 이벤트 감지 장치

Claims (18)

  1. ◈청구항 1은(는) 설정등록료 납부시 포기되었습니다.◈
    하나 또는 그 이상의 카메라들, 센서 및 NVR(Network Video Recoder) 서버를 구성 장치들로 포함하는 네트워크 시스템과 통신하는 컴퓨터 장치의 동작 방법에 있어서:
    상기 구성 장치들 중 적어도 일부가 선택되는 제 1 사용자 입력을 수신하는 단계;
    상기 선택된 구성 장치들에 의해 감지 가능한 이벤트들을 나타내는 후보 아이템들을 리스팅하고, 각 후보 아이템에 해당하는 이벤트를 지원하는 구성 장치를 대응하는 후보 아이템과 함께 표시하는 제 1 영역 및 상기 제 1 영역과 분리된 제 2 영역을 디스플레이하는 단계, 상기 제 2 영역은 상기 후보 아이템들 중 사용자에 의해 선택되는 선택 아이템들을 그룹으로 설정하기 위한 그래픽 인터페이스를 제공하며;
    상기 후보 아이템들 중 제 1 후보 아이템을 상기 제 2 영역으로 드래그 및 드롭하는 제 2 사용자 입력에 응답하여 상기 제 1 후보 아이템의 이벤트를 나타내는 제 1 선택 아이템을 상기 제 2 영역 내의 제 1 서브 영역에 디스플레이하는 단계;
    상기 후보 아이템들 중 제 2 후보 아이템을 상기 제 2 영역 내 상기 제 1 서브 영역에 인접하는 제 2 서브 영역으로 드래그 및 드롭하는 제 3 사용자 입력에 응답하여 상기 제 2 후보 아이템의 이벤트를 나타내는 제 2 선택 아이템을 상기 제 2 서브 영역에 디스플레이하는 단계; 및
    상기 제1 선택 아이템 및 상기 제2 선택 아이템을 포함하는 이벤트 그룹을 생성하는 단계; 및
    상기 이벤트 그룹에 포함되는 상기 제 1 선택 아이템의 이벤트 및 상기 제 2 선택 아이템의 이벤트가 모두 발생하였음을 감지한 경우, 상기 이벤트 그룹에 대응하여 설정된 액션을 수행하는 단계를 포함하는 동작 방법.
  2. ◈청구항 2은(는) 설정등록료 납부시 포기되었습니다.◈
    제 1 항에 있어서,
    상기 제 1 영역 및 상기 제 2 영역은 제 1 방향으로 배열되고,
    상기 제 1 및 제 2 선택 아이템들은 상기 제 1 방향과 교차하는 제 2 방향으로 배열되는 동작 방법.
  3. ◈청구항 3은(는) 설정등록료 납부시 포기되었습니다.◈
    제 2 항에 있어서,
    상기 제 2 선택 아이템은 상기 제 1 선택 아이템보다 상기 제 1 방향으로 좁은 폭을 갖도록 상기 제2 서브영역에 디스플레이되는 것을 특징으로 하는 동작 방법.
  4. ◈청구항 4은(는) 설정등록료 납부시 포기되었습니다.◈
    제 2 항에 있어서,
    상기 제 2 선택 아이템은 상기 제 1 선택 아이템보다 작은 면적을 갖도록 상기 제2 서브 영역에 디스플레이되는 것을 특징으로 하는 동작 방법.
  5. ◈청구항 5은(는) 설정등록료 납부시 포기되었습니다.◈
    제 2 항에 있어서,
    상기 제 1 선택 아이템 및 상기 제 2 선택 아이템은 서로 접하여 디스플레이되는 것을 특징으로 하는 동작 방법.
  6. ◈청구항 6은(는) 설정등록료 납부시 포기되었습니다.◈
    제 1 항에 있어서,
    상기 제 1 선택 아이템이 상기 제 1 서브 영역에 디스플레이될 때, 상기 제 2 서브 영역 및 상기 제 2 서브 영역보다 상기 제 1 선택 아이템으로부터 이격된 제 3 서브 영역을 디스플레이하는 단계를 더 포함하는 동작 방법.
  7. ◈청구항 7은(는) 설정등록료 납부시 포기되었습니다.◈
    제 6 항에 있어서,
    상기 후보 아이템들 중 제 3 후보 아이템을 상기 제 3 서브 영역에 드래그 및 드롭하는 제 4 사용자 입력에 응답하여 상기 제 3 후보 아이템의 이벤트를 나타내는 제 3 선택 아이템을 상기 제 3 서브 영역에 디스플레이하는 단계; 및
    상기 제 1 및 제 2 선택 아이템들의 상기 이벤트들과 관계없이, 상기 제 3 선택 아이템의 이벤트에 따라 설정된 제 2 액션을 수행하는 단계를 더 포함하는 동작 방법.
  8. ◈청구항 8은(는) 설정등록료 납부시 포기되었습니다.◈
    제 7 항에 있어서,
    상기 제 2 선택 아이템의 상기 이벤트는 상기 제 1 선택 아이템의 상기 이벤트와 상이하고,
    상기 제 3 선택 아이템의 상기 이벤트는 상기 제 1 및 제 2 선택 아이템들의 상기 이벤트들과 동일 혹은 상이한 동작 방법.
  9. ◈청구항 9은(는) 설정등록료 납부시 포기되었습니다.◈
    제 1 항에 있어서,
    상기 제 1 및 제 2 영역들과 분리된 제 3 영역을 디스플레이하는 단계;
    상기 그래픽 인터페이스의 상기 제 1 및 제 2 선택 아이템들을 선택하는 제 4 사용자 입력에 응답하여 상기 제 1 영역에 상기 컴퓨터 장치에 의해 지원되는 복수의 액션들을 나타내는 액션 아이템들을 리스팅하는 단계;
    상기 액션 아이템들 중 적어도 하나를 상기 제 3 영역으로 드래그 및 드롭하는 제 5 사용자 입력을 수신하는 단계; 및
    상기 액션 아이템들 중 상기 적어도 하나가 나타내는 액션을 상기 이벤트 그룹에 대응하여 설정된 액션으로 결정하는 단계를 더 포함하는 동작 방법.
  10. 삭제
  11. ◈청구항 11은(는) 설정등록료 납부시 포기되었습니다.◈
    하나 또는 그 이상의 카메라들, 센서 및 NVR(Network Video Recoder) 서버를 구성 장치들로 포함하는 네트워크 시스템과 통신하는 컴퓨터 장치에 있어서:
    통신기;
    디스플레이 장치;
    사용자 인터페이스; 및
    상기 통신기를 통해 상기 네트워크 시스템과 통신하고, 상기 사용자 인터페이스를 통해 사용자 입력들을 수신하도록 구성되는 적어도 하나의 프로세서를 포함하되,
    상기 적어도 하나의 프로세서는,
    상기 구성 장치들 중 적어도 일부가 선택되는 제 1 사용자 입력이 수신될 때 상기 선택된 구성 장치들에 의해 감지 가능한 이벤트들을 나타내는 후보 아이템들을 리스팅하고, 각 후보 아이템에 해당하는 이벤트를 지원하는 구성 장치를 대응하는 후보 아이템과 함께 표시하는 제 1 영역 및 상기 제 1 영역과 분리된 제 2 영역을 상기 디스플레이 장치에 디스플레이하되, 상기 제 2 영역은 상기 후보 아이템들 중 사용자에 의해 선택되는 선택 아이템들을 그룹으로 설정하기 위한 그래픽 인터페이스를 제공하며;
    상기 후보 아이템들 중 제 1 후보 아이템을 상기 제 2 영역으로 드래그 및 드롭하는 제 2 사용자 입력에 응답하여 상기 제 1 후보 아이템의 이벤트를 나타내는 제 1 선택 아이템을 상기 제 2 영역 내의 제 1 서브 영역에 디스플레이하고;
    상기 후보 아이템들 중 제 2 후보 아이템을 상기 제 2 영역 내 상기 제 1 서브 영역에 인접하는 제 2 서브 영역으로 드래그 및 드롭하는 제 3 사용자 입력에 응답하여 상기 제 2 후보 아이템의 이벤트를 나타내는 제 2 선택 아이템을 상기 제 2 서브 영역에 디스플레이하고;
    상기 제1 선택 아이템 및 상기 제2 선택 아이템을 포함하는 이벤트 그룹을 생성하고, 상기 이벤트 그룹에 포함되는 상기 제 1 선택 아이템의 이벤트 및 상기 제 2 선택 아이템의 이벤트가 모두 발생하였음을 감지한 경우, 상기 이벤트 그룹에 대응하여 설정된 액션을 수행하는 컴퓨터 장치.
  12. 제 11 항에 있어서,
    상기 제 1 영역 및 상기 제 2 영역은 제 1 방향으로 배열되고,
    상기 제 1 및 제 2 선택 아이템들은 상기 제 1 방향과 교차하는 제 2 방향으로 배열되는 컴퓨터 장치.
  13. 제 12 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 제 2 선택 아이템을 상기 제 1 선택 아이템보다 상기 제 1 방향으로 좁은 폭을 갖도록 상기 제2 서브 영역에 디스플레이하도록 상기 디스플레이 장치를 제어하는 컴퓨터 장치.
  14. 제 12 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 제 2 선택 아이템을 상기 제 1 선택 아이템보다 작은 면적을 갖도록 상기 제2 서브 영역에 디스플레이하도록 상기 디스플레이 장치를 제어하는 컴퓨터 장치.
  15. 제 12 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 제 1 선택 아이템 및 상기 제 2 선택 아이템을 서로 접하여 디스플레이하도록 상기 디스플레이 장치를 제어하는 컴퓨터 장치.
  16. 제 11 항에 있어서,
    상기 적어도 하나의 프로세서는 상기 제 1 선택 아이템이 상기 제 1 서브 영역에 디스플레이될 때, 상기 제 2 서브 영역 및 상기 제 2 서브 영역보다 상기 제 1 선택 아이템으로부터 이격된 제 3 서브 영역을 더 디스플레이하는 컴퓨터 장치.
  17. 제 16 항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 후보 아이템들 중 제 3 후보 아이템을 상기 제 3 서브 영역에 드래그 및 드롭하는 제 4 사용자 입력에 응답하여 상기 제 3 후보 아이템의 이벤트를 나타내는 제 3 선택 아이템을 상기 제 3 서브 영역에 디스플레이하고;
    상기 제 1 및 제 2 선택 아이템들의 상기 이벤트들과 관계없이, 상기 제 3 선택 아이템의 이벤트에 따라 설정된 제 2 액션을 수행하는 컴퓨터 장치.
  18. 삭제
KR1020190090704A 2019-07-26 2019-07-26 복수의 카메라들을 포함하는 네트워크 시스템과 통신하는 컴퓨터 장치 및 그것의 동작 방법 Active KR102684057B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020190090704A KR102684057B1 (ko) 2019-07-26 2019-07-26 복수의 카메라들을 포함하는 네트워크 시스템과 통신하는 컴퓨터 장치 및 그것의 동작 방법
US17/628,910 US12265697B2 (en) 2019-07-26 2019-09-26 Computing device for communicating with network system comprising plurality of cameras, and operating method therefor
PCT/KR2019/012514 WO2021020645A1 (ko) 2019-07-26 2019-09-26 복수의 카메라들을 포함하는 네트워크 시스템과 통신하는 컴퓨터 장치 및 그것의 동작 방법
US19/067,849 US20250199672A1 (en) 2019-07-26 2025-03-01 Computing device for communicating with network system comprising plurality of cameras, and operating method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190090704A KR102684057B1 (ko) 2019-07-26 2019-07-26 복수의 카메라들을 포함하는 네트워크 시스템과 통신하는 컴퓨터 장치 및 그것의 동작 방법

Publications (2)

Publication Number Publication Date
KR20210012634A KR20210012634A (ko) 2021-02-03
KR102684057B1 true KR102684057B1 (ko) 2024-07-12

Family

ID=74230421

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190090704A Active KR102684057B1 (ko) 2019-07-26 2019-07-26 복수의 카메라들을 포함하는 네트워크 시스템과 통신하는 컴퓨터 장치 및 그것의 동작 방법

Country Status (3)

Country Link
US (2) US12265697B2 (ko)
KR (1) KR102684057B1 (ko)
WO (1) WO2021020645A1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101855356B1 (ko) 2017-11-02 2018-05-09 주식회사 사라다 세이프티 모듈 및 관제서버를 포함하는 세이프티존 표시 시스템과 이를 이용한 제어 방법

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100940237B1 (ko) * 2003-03-06 2010-02-04 삼성테크윈 주식회사 이벤트 발생과 연동하여 모니터링 및 레코딩 제어가가능한 감시시스템 및 그 제어방법
US20060179463A1 (en) * 2005-02-07 2006-08-10 Chisholm Alpin C Remote surveillance
US7801328B2 (en) * 2005-03-31 2010-09-21 Honeywell International Inc. Methods for defining, detecting, analyzing, indexing and retrieving events using video image processing
CA2569967A1 (en) * 2006-04-07 2007-10-07 Marc Arseneau Method and system for enhancing the experience of a spectator attending a live sporting event
US20110010624A1 (en) * 2009-07-10 2011-01-13 Vanslette Paul J Synchronizing audio-visual data with event data
KR101082026B1 (ko) * 2009-08-31 2011-11-10 주식회사 아이디스 이벤트 영상 표시 장치 및 방법
US8893047B2 (en) * 2009-11-09 2014-11-18 International Business Machines Corporation Activity triggered photography in metaverse applications
KR20140036576A (ko) * 2012-09-17 2014-03-26 삼성전자주식회사 카테고리 디스플레이를 위한 방법 및 그 방법을 처리하는 전자 장치
US10051103B1 (en) * 2013-01-10 2018-08-14 Majen Tech, LLC Screen interface for a mobile device apparatus
US20140223348A1 (en) * 2013-01-10 2014-08-07 Tyco Safety Products Canada, Ltd. Security system and method with information display in flip window
TWI484409B (zh) * 2013-05-22 2015-05-11 Evermore Technology Inc 以條件觸發反應爲基礎的行動通訊裝置用應用程式之建置平台
KR102314109B1 (ko) * 2015-01-05 2021-10-18 삼성전자주식회사 디스플레이 장치 및 디스플레이 방법
KR101678377B1 (ko) * 2015-03-31 2016-11-22 (주)블루비스 시각적 이벤트 결과를 제공하는 영상 보안 시스템 및 방법
KR20170014133A (ko) * 2015-07-29 2017-02-08 삼성에스디에스 주식회사 Va 적용에 최적화된 카메라 설치 솔루션의 제공 방법 및 장치
KR20170019108A (ko) * 2015-08-11 2017-02-21 삼성에스디에스 주식회사 인식 능력 기반의 카메라 검색 방법 및 장치
US10600296B2 (en) * 2015-08-19 2020-03-24 Google Llc Physical knowledge action triggers
KR102673036B1 (ko) 2016-12-06 2024-06-05 한화비전 주식회사 데이터 관리 장치 및 방법
KR102750358B1 (ko) * 2017-01-23 2025-01-07 한화비전 주식회사 모니터링 장치 및 시스템
US20190102841A1 (en) * 2017-10-04 2019-04-04 Servicenow, Inc. Mapping engine configurations with task managed workflows and grid user interfaces

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101855356B1 (ko) 2017-11-02 2018-05-09 주식회사 사라다 세이프티 모듈 및 관제서버를 포함하는 세이프티존 표시 시스템과 이를 이용한 제어 방법

Also Published As

Publication number Publication date
KR20210012634A (ko) 2021-02-03
US12265697B2 (en) 2025-04-01
US20250199672A1 (en) 2025-06-19
US20220261143A1 (en) 2022-08-18
WO2021020645A1 (ko) 2021-02-04

Similar Documents

Publication Publication Date Title
US11042185B2 (en) User terminal device and displaying method thereof
KR102845270B1 (ko) 컨텐츠 공유 방법 및 전자 장비
KR102207861B1 (ko) 디스플레이 방법 및 그 방법을 처리하는 전자 장치
CN111596845B (zh) 显示控制方法、装置及电子设备
JP6332833B2 (ja) 画像処理システム、画像処理方法、及びプログラム
CN110069179B (zh) 图标控制方法及终端设备
JP6262920B2 (ja) アプリケーションのインタラクション方法、装置、プログラム及び記録媒体
WO2019137429A1 (zh) 图片处理方法及移动终端
CN110489029B (zh) 一种图标显示方法及终端设备
CN110502162B (zh) 文件夹的创建方法及终端设备
CN109828731B (zh) 一种搜索方法及终端设备
JP6852293B2 (ja) 画像処理システム、情報処理装置、情報端末、プログラム
CN111124573B (zh) 消息通知方法及电子设备
CN107317993A (zh) 一种视频通话方法及移动终端
CN110231897A (zh) 一种对象处理方法及终端设备
CN110262713B (zh) 图标显示方法及终端设备
WO2016157330A1 (ja) モバイル監視装置、プログラム、及び制御方法
WO2021037073A1 (zh) 控制方法及终端设备
CN110908555A (zh) 一种图标显示方法及电子设备
CN111064848B (zh) 图片显示方法及电子设备
CN110971970B (zh) 视频处理方法及电子设备
CN119759249A (zh) 文本内容处理方法、装置以及电子设备
KR102684057B1 (ko) 복수의 카메라들을 포함하는 네트워크 시스템과 통신하는 컴퓨터 장치 및 그것의 동작 방법
CN111880700B (zh) 应用程序控制方法、装置及电子设备
CN113918256A (zh) 控制方法、装置及电子设备

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20190726

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20220705

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20190726

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20231023

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20240528

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20240708

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20240709

End annual number: 3

Start annual number: 1

PG1601 Publication of registration