KR20160054397A - The method and apparatus for early warning the danger - Google Patents
The method and apparatus for early warning the danger Download PDFInfo
- Publication number
- KR20160054397A KR20160054397A KR1020150137084A KR20150137084A KR20160054397A KR 20160054397 A KR20160054397 A KR 20160054397A KR 1020150137084 A KR1020150137084 A KR 1020150137084A KR 20150137084 A KR20150137084 A KR 20150137084A KR 20160054397 A KR20160054397 A KR 20160054397A
- Authority
- KR
- South Korea
- Prior art keywords
- risk
- target object
- information
- wearable device
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/0202—Child monitoring systems using a transmitter-receiver system carried by the parent and the child
- G08B21/0205—Specific application combined with child monitoring using a transmitter-receiver system
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/16—Actuation by interference with mechanical vibrations in air or other fluid
- G08B13/1654—Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems
- G08B13/1672—Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems using sonic detecting means, e.g. a microphone operating in the audio frequency range
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/016—Personal emergency signalling and security systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/08—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using communication transmission lines
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/10—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Emergency Management (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Emergency Alarm Devices (AREA)
- Child & Adolescent Psychology (AREA)
- Alarm Systems (AREA)
- Automation & Control Theory (AREA)
- Computer Security & Cryptography (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
사용자가 착용한 제 1웨어러블 디바이스를 통해 대상 객체의 이미지 정보를 획득하고, 획득된 이미지 정보를 기초로 하여 대상 객체의 물리적 특성을 검출하고, 검출된 물리적 특성을 이용하여 사용자의 안전을 위협하는 정도인 위험도를 결정하고, 결정된 사건의 위험도에 기초하여 사용자에게 경고를 하는, 조기에 위험을 경고하는 방법 및 장치가 개시된다.A method for acquiring image information of a target object through a first wearable device worn by a user, detecting physical characteristics of the target object based on the obtained image information, and determining a degree of threatening the safety of the user using the detected physical characteristics Disclosed is a method and apparatus for early warning of a risk, which determines a risk, and warns the user based on the risk of the determined event.
Description
조기에 위험을 경고하는 방법 및 장치에 관한다.
And to methods and apparatus for early warning of danger.
차량과 같은 위험한 물체를 검출 할 수 있고, 경고 정보를 송신 할 수 있는 헤드 마운트 디스플레이 (HMD)와 같은 일부 웨어러블 디바이스가 있다. 이러한 디바이스에서는, 이미지 신호가 차량으로부터 위험을 감지하는데 사용된다. 또 다른 웨어러블 디바이스들에서는, 오디오 신호를 이용하여 위험을 감지하고 경고 정보를 제공한다.
There are some wearable devices, such as a head-mounted display (HMD), capable of detecting dangerous objects such as vehicles and capable of transmitting warning information. In such a device, an image signal is used to detect a danger from the vehicle. In other wearable devices, the audio signal is used to detect the danger and provide warning information.
조기에 위험을 경고하는 방법 및 장치에 관한다. 또한 하드웨어와 결합되어 상기 방법을 처리시키기 위하여 매체에 저장된 컴퓨터 프로그램을 제공한다.
And to methods and apparatus for early warning of danger. It also provides a computer program stored on a medium in combination with hardware for processing the method.
일 측면에 따라 웨어러블 디바이스로 조기에 위험을 경고하는 방법은, 대상 객체의 이미지 정보를 획득하는 단계, 획득된 이미지 정보를 기초로 하여 대상 객체의 물리적 특성을 검출하는 단계, 검출된 물리적 특성을 이용하여 사용자의 안전을 위협하는 정도인 위험도를 결정하는 단계 및 결정된 사건의 위험도에 기초하여 사용자에게 경고를 제공하는 단계를 포함하는, 웨어러블 디바이스로 조기에 위험을 경고하는 방법.A method for early warning a wearable device according to one aspect includes obtaining image information of a target object, detecting physical characteristics of the target object based on the acquired image information, Determining a degree of risk that is a degree that threatens the safety of the user, and providing an alert to the user based on the risk of the determined event.
또한 획득하는 단계는, 주위의 오디오 정보를 획득하고, 검출하는 단계는, 획득된 오디오 정보를 기초로 하여 오디오 특성을 검출할 수 있다.The obtaining step may acquire surrounding audio information, and the detecting step may detect the audio characteristic based on the obtained audio information.
또한 위험도를 결정하는 단계는, 이미지 정보에 기초하여, 대상 객체가 웨어러블 디바이스에 도달하는데 걸린 시간을 결정하는 단계 및 대상 객체의 물리적 특성, 대상 객체가 웨어러블 디바이스에 도달하는데 걸린 시간 및 대상 객체의 오디오 특성 중 적어도 하나에 따라 대상 객체에 대한 위험도를 결정하는 단계를 포함할 수 있다.The step of determining the risk also includes the steps of determining the time taken for the target object to reach the wearable device based on the image information and determining a time period for the target object to reach the wearable device, And determining a risk for the target object according to at least one of the characteristics.
또한 대상 객체의 물리적 특성은 사람의 얼굴, 몸통, 팔다리, 동물의 치아, 꼬리 또는 눈을 포함할 수 있다.The physical properties of the target object may also include a person's face, trunk, limb, animal's teeth, tail, or eyes.
또한 대상 객체의 오디오 특성은 볼륨, 피치, 멜 주파수 켑스트럼 계수(MFCC, Mel Frequency Cepstrum Coefficient), 사람의 대화 및 전력 표준화 켑스트럼 계수 (PNCC, Power Normalized Cepstral Coefficient) 중 적어도 하나를 포함할 수 있다.The audio properties of the target object also include at least one of volume, pitch, Mel Frequency Cepstrum Coefficient (MFCC), human conversation and Power Normalized Cepstral Coefficient (PNCC) .
또한 획득하는 단계는, 기상 정보 또는 냄새 정보를 획득하는 단계를 포함하고, 위험도를 결정하는 단계는, 기상 정보 또는 냄새 정보에 기초하여 위험도를 결정할 수 있다.The acquiring step may also include acquiring weather information or odor information, and the step of determining the degree of risk may determine the degree of risk based on the weather information or the odor information.
또한 경고를 제공하는 단계는, 위험도에 따라 다른 방식으로 경고를 제공할 수 있다.The step of providing an alert may also provide an alert in a different manner depending on the risk.
또한 제 2 웨어러블 디바이스를 통하여 획득한 이미지 정보 또는 오디오 정보를 수신하는 단계를 더 포함하고, 위험도를 결정하는 단계는, 제 2웨어러블 디바이스로부터 수신된 정보에 기초하여 위험도를 결정할 수 있다.And receiving image information or audio information obtained through the second wearable device, wherein the step of determining the risk can determine the risk based on the information received from the second wearable device.
또한 검출하는 단계는, 이미지 정보를 이용해 대상 객체가 사람인지 여부를 검출하는 단계 및 대상 객체가 사람이면, 사람의 얼굴을 검출하는 단계를 포함하고, 위험도를 결정하는 단계는, 검출된 얼굴이 기 설정된 얼굴 데이터베이스에 있는지 여부에 따라 위험도를 결정할 수 있다.The step of detecting includes detecting whether a target object is a person using image information and detecting a face of a person if the target object is a person, The risk can be determined according to whether or not it is in the set face database.
다른 측면에 따라 조기에 위험을 경고하는 웨어러블 디바이스는 대상 객체의 이미지 정보를 획득하는 센싱부, 획득된 이미지 정보를 기초로 하여 대상 객체의 물리적 특성을 검출하는 특성 검출부, 검출된 물리적 특성을 이용하여 사용자의 안전을 위협하는 정도인 위험도를 결정하는 위험도 결정부 및 결정된 사건의 위험도에 기초하여 사용자에게 경고를 하는 경고부를 포함할 수 있다.A wearable device for early warning a danger according to another aspect includes a sensing unit for acquiring image information of a target object, a characteristic detector for detecting a physical characteristic of the target object based on the acquired image information, A risk determination unit that determines a degree of risk that is a degree that threatens the safety of the user, and a warning unit that warns the user based on the risk of the determined event.
또한 센싱부는, 주위의 오디오 정보를 획득하고, 특성 검출부는, 획득된 오디오 정보를 기초로 하여 오디오 특성을 검출할 수 있다.Further, the sensing unit acquires the surrounding audio information, and the characteristic detecting unit can detect the audio characteristic based on the obtained audio information.
또한 위험도 결정부는, 이미지 정보에 기초하여, 대상 객체가 웨어러블 디바이스에 도달하는데 걸린 시간을 결정하고, 대상 객체의 물리적 특성, 대상 객체가 웨어러블 디바이스에 도달하는데 걸린 시간 및 대상 객체의 오디오 특성 중 적어도 하나에 따라 대상 객체에 대한 위험도를 결정할 수 있다.The risk determining unit determines the time taken for the target object to reach the wearable device based on the image information, and determines at least one of the physical characteristics of the target object, the time taken by the target object to reach the wearable device, The risk for the target object can be determined.
또한 대상 객체의 물리적 특성은 사람의 얼굴, 몸통, 팔다리, 동물의 치아, 꼬리 또는 눈을 포함할 수 있다.The physical properties of the target object may also include a person's face, trunk, limb, animal's teeth, tail, or eyes.
또한 대상 객체의 오디오 특성은 볼륨, 피치, 멜 주파수 켑스트럼 계수(MFCC, Mel Frequency Cepstrum Coefficient), 사람의 대화 및 전력 표준화 켑스트럼 계수 (PNCC, Power Normalized Cepstral Coefficient) 중 적어도 하나를 포함할 수 있다.The audio properties of the target object also include at least one of volume, pitch, Mel Frequency Cepstrum Coefficient (MFCC), human conversation and Power Normalized Cepstral Coefficient (PNCC) .
또한 센싱부는, 기상 정보 또는 냄새 정보를 획득하고, 위험도 결정부는, 기상 정보 또는 냄새 정보에 기초하여 위험도를 결정할 수 있다.Further, the sensing unit may acquire weather information or odor information, and the risk determining unit may determine the risk based on weather information or odor information.
또한 경고부는, 위험도에 따라 다른 방식으로 경고를 제공할 수 있다.The alerting unit can also provide alerts in different ways depending on the risk.
또한 제 2 웨어러블 디바이스를 통하여 획득한 이미지 정보 또는 오디오 정보를 수신하는 수신부를 더 포함하고, 위험도 결정부는,제 2웨어러블 디바이스로부터 수신된 정보에 기초하여 위험도를 결정할 수 있다.And a receiving unit that receives image information or audio information acquired through the second wearable device, and the risk determining unit may determine the risk based on the information received from the second wearable device.
또한 검출부는, 이미지 정보를 이용해 대상 객체가 사람인지 여부를 검출하고, 대상 객체가 사람이면, 사람의 얼굴을 검출하고, 위험도 결정부는, 검출된 얼굴이 기 설정된 얼굴 데이터베이스에 있는지 여부에 따라 위험도를 결정할 수 있다.
The detection unit detects whether the target object is a person using image information, detects a face of a person if the target object is a person, and the risk determination unit determines a risk level according to whether the detected face is in a predetermined face database You can decide.
도 1은 일 실시예에 따라 조기에 위험을 경고하기 위한 장치를 도시한 블록도이다.
도 2는 다른 실시예에 따라 조기에 위험을 경고하기 위한 장치를 도시한 블록도이다.
도 3은 또 다른 실시예에 따라 조기에 위험을 경고하기 위한 장치를 도시한 블록도이다.
도 4는 일 실시예에 따라 조기에 위험을 경고하기 위한 방법을 설명하기 위한 흐름도이다.
도 5는 다른 실시예에 따라 조기에 위험을 경고하기 위한 방법을 설명하기 위한 흐름도이다.
도 6은 일 실시예에 따라 조기에 위험을 경고하기 위한 방법의 한 예를 설명하기 위한 흐름도이다.
도 7은 조기에 위험을 경고하기 위한 방법의 다른 예를 설명하기 위한 흐름도이다.
도 8은 조기에 위험을 경고하기 위한 방법의 또 다른 예를 설명하기 위한 흐름도이다.
도 9는 조기에 위험을 경고하기 위한 방법을 실시하는 한 예를 설명하기 위한 흐름도이다. 1 is a block diagram illustrating an apparatus for early warning of a danger according to one embodiment.
2 is a block diagram illustrating an apparatus for early warning of a risk according to another embodiment.
3 is a block diagram illustrating an apparatus for alerting a risk early in accordance with another embodiment.
4 is a flow chart illustrating a method for early warning a risk according to an embodiment.
5 is a flow chart for explaining a method for early warning a risk according to another embodiment.
6 is a flow chart illustrating an example of a method for early warning a risk according to an embodiment.
FIG. 7 is a flow chart for explaining another example of a method for early warning a danger.
Fig. 8 is a flow chart for explaining another example of a method for early warning a danger.
Fig. 9 is a flowchart for explaining an example of implementing a method for early warning a risk.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Brief Description of the Drawings The advantages and features of the present invention, and how to accomplish them, will become apparent with reference to the embodiments described hereinafter with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. The terms used in this specification will be briefly described and the present invention will be described in detail.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.When an element is referred to as "including" an element throughout the specification, it is to be understood that the element may include other elements as well, without departing from the spirit or scope of the present invention. Also, as used herein, the term "part " refers to a hardware component such as software, FPGA or ASIC, and" part " However, "part" is not meant to be limited to software or hardware. "Part" may be configured to reside on an addressable storage medium and may be configured to play back one or more processors. Thus, by way of example, and not limitation, "part (s) " refers to components such as software components, object oriented software components, class components and task components, and processes, Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functions provided in the components and "parts " may be combined into a smaller number of components and" parts " or further separated into additional components and "parts ".
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. In order to clearly explain the present invention in the drawings, parts not related to the description will be omitted.
도 1은 일 실시예에 따라 조기에 위험을 경고하기 위한 장치를 도시한 블록도이다.1 is a block diagram illustrating an apparatus for early warning of a danger according to one embodiment.
도1 을 참조하면 조기에 위험을 경고하는 웨어러블 디바이스(100)는 센싱부(110), 특성 검출부(120), 위험도 결정부(130) 및 경고부(140)를 포함한다. 웨어러블 디바이스는 헤드 마운트 디스플레이, 스마트 글래스 또는 스마트 워치를 포함할 수 있다.Referring to FIG. 1, a
센싱부(110)는 대상 객체의 이미지 정보를 획득할 수 있다. 또한 센싱부(110)는 주위의 오디오 정보를 획득할 수 있다. 그리고 센싱부(110)는 기상 정보 또는 냄새 정보를 획득할 수 있다. 이와 더불어 센싱부(110)는 제 1 웨어러블 디바이스를 통해 사용자의 생체 정보를 획득할 수 있다.
The
특성 검출부(120)는 획득된 이미지 정보를 기초로 하여 대상 객체의 물리적 특성을 검출할 수있다. 또한 특성 검출부(120)는 획득된 오디오 정보를 기초로 하여 오디오 특성을 검출할 수 있다. 대상 객체의 오디오 특성은 볼륨, 피치, 멜 주파수 켑스트럼 계수(MFCC, Mel Frequency Cepstrum Coefficient), 사람의 대화 및 전력 표준화 켑스트럼 계수 (PNCC, Power Normalized Cepstral Coefficient) 중 적어도 하나를 포함할 수 있다. 특성 검출부(120)는, 이미지 정보를 이용해 대상 객체가 사람인지 여부를 검출할 수 있다. 특성 검출부(120)는 대상 객체가 사람이면, 사람의 얼굴을 검출할 수 있다.The
위험도 결정부(130)는 검출된 물리적 특성을 이용하여 사용자의 안전을 위협하는 정도인 위험도를 결정할 수 있다. 또한 위험도 결정부(130)는 이미지 정보에 기초하여, 대상 객체가 제 1 웨어러블 디바이스에 도달하는데 걸린 시간을 결정할 수 있다. 그리고 위험도 결정부(130)는 대상 객체의 물리적 특성, 대상 객체가 제 1 웨어러블 디바이스에 도달하는데 걸린 시간 및 대상 객체의 오디오 특성 중 적어도 하나에 따라 대상 객체에 대한 위험도를 결정할 수 있다. 또한 위험도 결정부(130)는 기상 정보 또는 냄새 정보에 기초하여 위험도를 결정할 수 있다. 예를 들면 비오는 날엔 미끄럼을 주의해야하므로 위험도가 올라갈 수 있다. 또는 공기중 유독가스의 농도가 높을 경우 위험도가 올라갈 수 있다. 그리고 위험도 결정부(130)는 생체 정보에 기초하여 위험도를 결정할 수 있다. 또한 위험도 결정부(130)는, 검출된 얼굴이 기 설정된 얼굴 데이터베이스에 있는지 여부에 따라 위험도를 결정할 수 있다.The
경고부(140)는 결정된 사건의 위험도에 기초하여 사용자에게 경고를 제공할 수 있다. 또한 경고부(140)는 생체 정보에 따라 경고를 제공할 수 있다. 예를 들어 사용자의 혈압이 급격히 떨어졌을 경우에 경고를 제공할 수 있다. 또한 경고부(140)는 위험도에 따라 경고를 다르게 할 수 있다. 예를 들어 위험도가 낮을 경우에는 약한 진동으로 경고를 하고, 위험도가 높을 경우에는 강한 진동으로 경고를 제공할 수 있다. 또는 위험도가 낮을 경우에는 램프를 느리게 깜박이고, 위험도가 높을 경우에는 램프를 빠르게 깜박일 수 있다. 또 다른 예로는 위험도가 낮을 경우에는 느리게 경고음을 반복할 수 있고, 위험도가 높을 경우에는 빠르게 경고음을 반복할 수 있다. 이 밖에 다양하게 위험도에 따라 다른 방식으로 경고를 제공하는 실시예가 가능하다.
The
도 2는 다른 실시예에 따라 조기에 위험을 경고하기 위한 장치를 도시한 블록도이다.2 is a block diagram illustrating an apparatus for early warning of a risk according to another embodiment.
도2 을 참조하면 조기에 위험을 경고하는 장치(200)는 센싱부(110), 특성 검출부(120), 위험도 결정부(130), 경고부(140) 및 수신부(210)를 포함한다.Referring to FIG. 2, an
도 2의 센싱부(110), 특성 검출부(120), 위험도 결정부(130) 및 경고부(140)에 대한 설명은 도 1의 동일한 구성에 대한 설명과 같다. 그리고 수신부(210)는, 제 2 웨어러블 디바이스를 통하여 획득한 정보를 수신할 수 있다. 이때 정보는, 제 2 사용자의 생체 정보및 제 2 웨어러블 디바이스에 의해 획득된 이미지 정보 및 오디오 정보 중 적어도 하나를 포함할 수 있다. 또한 위험도 결정부(130)는 제 2웨어러블 디바이스로부터 수신된 정보에 기초하여 위험도를 결정할 수 있다.The description of the
이와 더불어 사기 참조 모델에 기초하여 대상 객체의 대화 내용, 안면 특징의 변화 또는 동작 전환을 분석하여 사기의 가능성을 결정할 수 있다. 위험도 결정부(130)는, 결정된 사기의 가능성에 기초하여 위험도를 결정할 수 있다.
In addition, the possibility of fraud can be determined by analyzing conversation contents, facial features, or motion transitions of the target object based on the fraud reference model. The
도 3은 또 다른 실시예에 따라 조기에 위험을 경고하기 위한 장치를 도시한 블록도이다.3 is a block diagram illustrating an apparatus for alerting a risk early in accordance with another embodiment.
도 3에 나타내는 바와 같이, 웨어러블 디바이스(300)는 센싱부 (310), 처리부 (320) 및 경보부 (330)를 포함할 수 있다. 이때 웨어러블 디바이스(300)는 도 1에 도시된 조기에 위험을 경고하는 웨어러블 디바이스(100)와 대응될 수 있다.3, the wearable device 300 may include a
센싱부 (310)는 서로 다른 유형의 정보를 감지하기 위한 다양한 센서를 포함 할 수 있다. 일반적으로, 센싱부 (310)는 이미지 센서 (312) 오디오 센서 (314), 습도 센서(316) 및 냄새 센서(318)를 포함한다.The
또한 감광 요소로 알려진 이미지 센서는, 전자 신호로 광학 이미지를 변환하는 장치이다. 이 실시 예에서, 이미지 센서 (312)는 주변 환경의 실시간 이미지 정보를 획득하는 데 사용될 수 있다. 또한 웨어러블 디바이스(300)는 카메라를 포함할 수 있고, 이미지 센서(312)는 카메라에 포함될 수도 있다. 실시간 이미지 정보는 사용자의 안전을 위협할 수 있는 임의의 주변 정보를 포함 할 수있다. 예를 들면, 실시간 이미지 정보는 도로 상태, 차량 작동 조건, 인간과 동물을 포함한 인근 생물로부터의 정보에 한정되지 않는다.An image sensor, also known as a photosensitive element, is an apparatus for converting an optical image into an electronic signal. In this embodiment, the
오디오 센서(314)는 픽업 장치나 픽업의 어레이를 포함할 수있다. 본 실시 예에서, 오디오 센서 (314)는 주변 환경의 실시간 오디오 정보를 획득하는데 사용될 수있다. 실시간 오디오 정보는 사용자의 안전을 위협 할 수있는 임의의 주변 정보를 포함할 수있다. 예를 들어, 실시간 오디오 정보는 차량의 경적, 천둥, 사람의 목소리, 동물 비명 등을 포함 할 수 있지만, 이에 한정되지 않는다.The
또한, 센싱부(310)는 또 다른 유형의 센서를 포함할 수 있다. 예를 들면, 센싱부(310)는 습도 센서(316), 냄새 센서(318) 속도 센서(미도시), 대기압 센서(미도시) 등을 구성하고 있을 수 있다. 습도 센서(316)는 주위 환경의 기상 조건을 결정하기 위하여 습도를 감지하도록 사용될 수 있다. 냄새 센서(318)는, 예를 들면 주위 환경의 냄새 또는 가스의 몇몇 유형을 검출하기 위하여 사용될 수 있다. 예를 들면, 이 가스는 사용자의 안전을 위태롭게 하는 일산화탄소 연기와 같은 위험한 화학제품을 포함하는 가스일 수 있다. 속도 센서는, 예를 들면, 웨어러블 디바이스(300)를 착용한 사용자의 속도를 감지하기 위해 사용될 수 있다. 대기압 센서는, 예를 들면, 주위 환경의 기상 조건을 결정하기 위하여 대기압을 감지하도록 사용될 수 있다. 당업자는 센싱부(310)가 이미 만들어진 어떤 유형의 센서들 또는 앞으로 개발될 주위 환경 상태를 감지하기 위한 어떤 유형의 센서들도 포함할 수 있다는 것을 이해할 수 있다. 다른 한편, 웨어러블 디바이스(300)는 정보를 습득하기 위하여 인터넷(20)과 같은 네트워크에 연결될 수 있는 네트워크 통신부(350)를 더 포함할 수 있다. 네트워크 통신부(350)에 의하여, 웨어러블 디바이스(300)는 네트워크에서 주위 환경의 날씨 정보를 습득하기 위하여 일기 예보 정보를 받을 수 있다.In addition, the
또한, 웨어러블 디바이스(300)는 센싱부(310) 이외에, 생체 정보 센서(360)를 더 포함할 수 있다. 생체 정보 센서(360)는 생물학 물질을 탐지하여 전기 신호로 물질 농도를 전환하는데 사용되는 기구이다.In addition, the wearable device 300 may further include a
일 실시예에서, 생체 정보 센서(360)는 웨어러블 디바이스(300)를 착용한 사용자(10)(즉, 사용자)의 생체 정보를 감지하기 위하여 사용될 수 있다. 사용자의 생체 정보는 사용자의 생리적인 상태를 나타내는 다양한 정보를 포함할 수 있다. 예를 들면, 생체 정보는 심박수, 혈압, 체온, 호흡 비율을 포함하지만 이에 제한되지 않을 수 있다.In one embodiment, the
웨어러블 디바이스(300)에서 처리부(320)는 웨어러블 디바이스를 통해서 획득된 각종 정보를 기초로 위험도를 결정하는 데 이용된다. 그리고 위험도에 대응하여, 처리부(320)는 경고 정보를 제공할 수 있다.. 예를 들어, 처리부(320)는 이미지 정보와 오디오 정보를 분석하고, 위 분석에 근거한 위험도를 결정할 수 있다.In the wearable device 300, the
일 실시예에서, 처리부(320)는 사용자의 안전을 위태롭게 할 수 있는 정보를 습득하기 위하여 이미지 정보를 분석할 수 있다. 처리부(320)는 도 1 및 도 2의 특성 검출부(120)를 포함할 수 있다. 처리부(320)는 센싱부(310)에 의해 전달된 환경 이미지 정보에 근거한 대상 객체의 신체적 특징을 검출할 수 있다. 예를 들면, 대상 객체는 차량, 동물, 사람일 수 있다. 또한, 차량은 트럭, 차, 오토바이를 포함하지만 이에 제한되지 않을 수 있다. 대상 객체가 동물 (예를 들면, 처진 개, 맹렬한 개, 등)일 때, 그것의 신체적 특징은 꼬리 및 눈을 포함하지만 이에 제한되지 않을 수 있다. 대상 객체가 사람일 때, 사람의 신체적 특징은 사람의 얼굴, 손발 및 몸통을 포함하지만 이에 제한되지 않을 수 있다. 만약 대상 객체가 움직이는 경우에, 처리부(320)는 대상 객체가 웨어러블 디바이스에 도달하기 위하여 걸린 시간, 즉, 대상 객체가 사용자에게 도달 하기 위해 걸린 시간을 결정할 수 있다.In one embodiment, the
다른 실시예로, 처리부(320)는 사용자의 안전을 위태롭게 할 수 있는 정보를 습득하기 위하여 오디오 정보를 분석할 수 있다. 예를 들면, 처리부(320)는 센싱부(310)에서 전달된 오디오 정보에 근거한 대상 객체의 오디오 특성을 추출할 수 있다. 예를 들어 대상 객체는 차량, 동물, 사람을 포함하지만 이에 제한되지 않을 수 있다. 대상 객체가 차량일 때, 차량의 오디오 특성은 차량의 경적 소리를 포함하지만 이에 제한되지 않을 수 있다. 대상 객체가 동물일 때, 동물의 오디오 특성은 오디오의 크기, 피치 및 멜 주파수 켑스트럼 계수(MFCC,Mel Frequency Cepstrum Coefficient)를 포함하지만 이에 제한되지 않을 수 있다. 대상 객체가 사람일 때, 사람의 오디오 특성은 연설, 켑스트럼 힘에 의하여 정상화된 계수 (PNCC,Power Normialized Cepstral Coefficient)를 포함하지만 이에 제한되지 않을 수 있다. In another embodiment, the
처리부(320)는 또한, 대상 객체에 대한 위험도를 결정하는 이미지 및 오디오 분석을 기초로 구성될 수 있다. 예를 들면, 처리부(320)는 아래의 3개의 항목에 근거하여 대상 객체에 대한 위험도를 결정할 수 있다.The
3개의 항목은 대상 객체의 신체적 특징, 대상 객체가 대응하는 웨어러블 디바이스에 도달하기 위하여 걸린 시간 및 대상 객체의 오디오 특성이다.The three items are the physical characteristics of the target object, the time taken for the target object to reach the corresponding wearable device, and the audio characteristics of the target object.
또한, 처리부(320)는 평가되는 위험 레벨을 조정하는 다양한 요인에 근거하여 형성될 수 있다. 일 실시예에서는, 처리부(320)는 센싱부(310)에 의해 감지된 날씨 정보 또는 냄새 정보에 근거하여 위험도를 결정할 수 있다.In addition, the
예를 들면, 비가 오거나 눈이 내리는 날에, 미끄러운 도로에서, 차량은 미끄러져서 예상치 못한 위험을 만들 수 있다. 그러므로 위험도가 높아질 수 있다. 다른 예로, 독가스가 센싱부(310)에 의해 검출될 때, 위험도가 높아질 수 있다.. 다른 실시에서는, 처리부(320)는 생체 정보 센서(360)에 의해 감지된 사용자의 생리적인 조건 정보에 근거하여 위험도를 결정할 수 있다.. 예를 들면, 빠른 심박수, 고혈압, 호흡 부족 등과 같은 사용자의 좋지않은 생리적인 상태가 생체 정보 센서(360)에 의해 감지될 때, 위험도가 높아질 수 있다.For example, on rainy or snowy days, on slippery roads, the vehicle may slip and create unexpected hazards. Therefore, the risk can be increased. As another example, when poison gas is detected by the
처리부(320)는 위험도에 대응하여 경고 정보를 제공하도록 구성된다. 다른 실시예에서, 처리부 (320)는 웨어러블 디바이스를 착용한 사용자의 피드백 정보를 획득하고, 피드백 정보에 기초하여 경고 정보를 제공하도록 구성된다. 예를 들면 사용자가 위험도가 높은 요소에 관한 정보를 입력하면 높은 위험도에 따른 경고 정보를 제공할 수 있다. 예를 들면 현재 날씨를 입력하거나, 사용자의 건강 상태등을 입력할 수 있다. 다른 실시 예에서는, 조기 위험 경고 시스템은 저장된 사용자 선호 데이터 베이스(예를 들면 반응 데이터 또는 다양한 위험들에 대한 피드백 데이터과 같은 사용자 선호 데이터)를 포함할 수 있다.The
사용자 선호 데이터베이스 검색을 통해 처리부 (320)는 사용자 또는 비슷한 사용자에 적합한 방식으로 경고 정보를 제공 할 수있다.Through the user preference database search, the
경고부(330)는 처리부(320)에 의해 제공되는 경고 정보에 기초하여 경고를 할 수 있다. 경고부(330)는 경고의 다른 방식을 제공하기 위해 사용자와 상호 작용할 수 있는 다양한 디바이스(예를 들면, 스피커, 디스플레이, 진동기 등)를 포함할 수 있다.The
경고의 방식은 사용자 선호에 따라 설정 될 수있다. 사용자 선호도는 이미지, 텍스트, 소리 나 진동과 같은 시각적, 청각적 또는 촉각적 방식을 포함하지만 이에 제한되지 않는다.일부 실시 예에서, 웨어러블 디바이스 (300)는 서드 파티 지원 기능을 포함 할 수있다. 예를 들어, 웨어러블 디바이스 (300)는 송신부 (340)를 포함 할 수있다. 송신부(340)는 다른 웨어러블 디바이스들로부터 정보를 수신할 수 있다. (예를 들어, 사용자(40)에 의해 착용된 웨어러블 디바이스).The manner of warning can be set according to user preference. User preferences include, but are not limited to, visual, auditory or tactile modalities such as images, text, sounds, or vibrations. In some embodiments, wearable device 300 may include third party support functions. For example, the wearable device 300 may include a
위의 정보는 다른 웨어러블 디바이스들을 착용한 사용자들의 생체 정보, 다른 웨어러블 디바이스들에 의해 생성된 정보(예를 들면, 웨어러블 디바이스의 처리부에 의해 생성된 위험도)를 포함하지만 이에 제한되지 않는다. The above information includes, but is not limited to, biometric information of users wearing other wearable devices, information generated by other wearable devices (e.g., the risk generated by the wearable device's processing unit).
또한, 처리부 (320)은 다른 웨어러블 디바이스들로부터의 정보에 기초하여 위험도를 결정할 수있다. 정보 공유를 통해, 사용자는 제 3 자로부터의 초기 경고를 제공받을 수 있다. 그러므로 사용자의 안전성을 증가시킬 수있다.In addition, the
조기 위험 경고 시스템은 다른 디바이스들과 정보를 공유하기 위해 웨어러블 디바이스가 공유 데이터베이스 (30)에 자신의 정보를 업로드 할 수 있도록하는 공유 데이터베이스 (30)를 포함 할 수있다. 도 2의 수신부(210)는 전송부(340)에 포함될 수 있다.The early warning system may include a shared
이 실시예에서, 각 웨어러블 디바이스는 공유 데이터베이스(30)를 통하여 다른 웨어러블 디바이스로부터 정보를 수신 할 수있다.In this embodiment, each wearable device can receive information from another wearable device via the shared
다른 실시 예에서, 접속은 두 웨어러블 디바이스간에 정보를 송신하기위해 직접 설정 될 수있다. 예를 들어, 성인에 의해 착용된 웨어러블 디바이스 및 아동에 의해 착용된 웨어러블 디바이스는 직접 연결을 설정하여 함께 사용할 수 있다. 따라서, 두 개의 웨어러블 디바이스들은 서로간에 정보를 공유 할 수 있다.In another embodiment, the connection may be established directly to transmit information between the two wearable devices. For example, a wearable device worn by an adult and a wearable device worn by a child can be used together by setting up a direct connection. Thus, the two wearable devices can share information with each other.
웨어러블 디바이스(300)는 헤드 마운트 디바이스, 손목 마운트 디바이스, 스마트 팔찌, 스마트 손목 시계 등을 포함하지만 이에 한정되지 않는다. 기술 분야에서 숙련 된 사람은 다양한 센서를 통해 감지를 수행하기에 적합한 장치를 웨어러블 디바이스 (300)에 설계 할 수있다.
The wearable device 300 includes, but is not limited to, a head mount device, a wrist mount device, a smart bracelet, a smart wrist watch, and the like. A person skilled in the art can design a device in the wearable device 300 suitable for carrying out the detection via various sensors.
도 4는 일 실시예에 따라 조기에 위험을 경고하기 위한 방법을 설명하기 위한 흐름도이다. 4 is a flow chart illustrating a method for early warning a risk according to an embodiment.
단계 S400에서는, 대상 객체의 이미지 정보를 획득할 수 있다. 또한 제 2 사용자가 착용한 제 2 웨어러블 디바이스를 통하여 획득한 정보를 수신할 수 있다. 이때 정보는, 제 2 사용자의 생체 정보, 이미지 정보, 오디오 정보 및 제 2 웨어러블 디바이스에 의해 생성된 정보 중 적어도 하나를 포함할 수 있다. 그리고 센서를 이용하여 기상 조건을 감지하거나 네트워크를 통해 일기 예보를 수신하여 기상 정보를 획득할 수 있다. 기상 정보 또는 냄새 정보또한 획득할 수 있다.. 이와 더불어 제 1 웨어러블 디바이스를 통해 획득한 제 1사용자의 생체 정보를 수신할 수 있다.In step S400, the image information of the target object can be obtained. And can receive information acquired through the second wearable device worn by the second user. At this time, the information may include at least one of biometric information of the second user, image information, audio information, and information generated by the second wearable device. The weather information can be obtained by sensing the weather condition using the sensor or receiving the weather forecast through the network. The weather information or the smell information can be obtained. In addition, the biometric information of the first user acquired through the first wearable device can be received.
단계 S410에서는, 획득된 이미지 정보를 기초로 하여 대상 객체의 물리적 특성을 검출할 수 있다.In step S410, the physical property of the target object can be detected based on the obtained image information.
단계 S430에서는 검출된 물리적 특성을 이용하여 사용자의 안전을 위협하는 정도인 위험도를 결정할 수 있다.제 2웨어러블 디바이스로부터 수신된 정보에 기초하여 위험도를 결정할 수 있다.단계 S430에서는 결정된 사건의 위험도에 기초하여 사용자에게 경고를 제공할 수 있다. 그리고 생체 정보에 기초하여 경고를 다르게 할 수 있다.In step S430, the risk may be determined based on the information received from the second wearable device. In step S430, based on the risk of the determined event, Thereby providing a warning to the user. The warning can be made different based on the biometric information.
도 5는 다른 실시예에 따라 조기에 위험을 경고하기 위한 방법을 설명하기 위한 흐름도이다. 5 is a flow chart for explaining a method for early warning a risk according to another embodiment.
단계 S500에서는 웨어러블 디바이스를 통해 주위의 정보를 획득할 수 있다. In step S500, surrounding information can be acquired through the wearable device.
단계 S510에서는 제 2 사용자가 착용한 제 2 웨어러블 디바이스를 통하여 획득한 정보를 수신할 수 있다. 이때 정보는, 제 2 사용자의 생체 정보, 정보 및 제 2 웨어러블 디바이스에 의해 생성된 정보 중 적어도 하나를 포함할 수 있다. 그리고 센서를 이용하여 기상 조건을 감지하거나 네트워크를 통해 일기 예보를 수신하여 기상 정보를 획득할 수 있다. 정보는 기상 정보 또는 냄새 정보를 포함할 수 있다. 이와 더불어 제 1 웨어러블 디바이스를 통해 획득한 제 1사용자의 생체 정보를 수신할 수 있다.In step S510, information acquired through the second wearable device worn by the second user can be received. At this time, the information may include at least one of biometric information of the second user, information, and information generated by the second wearable device. The weather information can be obtained by sensing the weather condition using the sensor or receiving the weather forecast through the network. The information may include weather information or odor information. In addition, biometric information of the first user acquired through the first wearable device can be received.
단계 S520에서는 획득한 정보에 기초하여 위험도를 결정할 수 있다. 또한 제 2 웨어러블 디바이스를 통하여 획득된 정보에 기초하여 위험도를 결정할 수 있다. 기상 정보 또는 냄새의 정보에 기초하여 위험도를 결정할 수 있다. 이외에 대상 객체의 물리적 특성을 검출하고, 대상 객체가 이미지 정보에 기초하여 대응하는 웨어러블 디바이스에 도달하는데 걸린 시간을 결정할 수 있다. 그리고 오디오 정보에 기초하여 대상 객체의 오디오 특성을 추출할 수 있다. 대상 객체의 물리적 특성, 대상 객체가 대응하는 웨어러블 디바이스에 도달하는데 걸린 시간 및 대상 객체의 오디오특성 중 적어도 하나에 따라 대상 객체에 대한 위험도를 결정할 수 있다. 대상 객체의 오디오 특성은 볼륨, 피치, 멜 주파수 켑스트럼 계수(MFCC, Mel Frequency Cepstrum Coefficient), 사람의 대화 및 전력 표준화 켑스트럼 계수 (PNCC, Power Normalized Cepstral Coefficient) 중 적어도 하나를 포함할 수 있다.In step S520, the risk level can be determined based on the acquired information. Also, the risk can be determined based on the information acquired through the second wearable device. The risk can be determined based on weather information or odor information. In addition, the physical characteristics of the target object can be detected, and the time taken for the target object to reach the corresponding wearable device based on the image information can be determined. And audio characteristics of the target object can be extracted based on the audio information. The risk for the target object can be determined according to at least one of the physical characteristics of the target object, the time taken for the target object to reach the corresponding wearable device, and the audio characteristics of the target object. The audio properties of the target object may include at least one of volume, pitch, Mel Frequency Cepstrum Coefficient (MFCC), human conversation and Power Normalized Cepstral Coefficient (PNCC) have.
단계 S530에서는 결정된 위험도에 따라 경고를제공할 수 있다. 또한 생체 정보에 기초하여 경고 정보를 제공하는 수단을 조정할 수 있다. In step S530, a warning can be provided according to the determined risk. Further, the means for providing the warning information based on the biometric information can be adjusted.
도 6은 일 실시예에 따라 조기에 위험을 경고하기 위한 방법의 한 예를 설명하기 위한 흐름도이다. 6 is a flow chart illustrating an example of a method for early warning a risk according to an embodiment.
다음의 설명에서, "제 1웨어러블 디바이스"는 언급한 웨어러블 디바이스를 지칭한다. "제 2웨어러블 디바이스"는 언급한 웨어러블 디바이스 이외에 유사한 기능을 갖는 다른 웨어러블 디바이스를 지칭한다. 이것은 웨어러블 디바이스 자체를 제한하지 않고 단지 구별하기 위한 방식이다. In the following description, "first wearable device" refers to the wearable device mentioned. The "second wearable device" refers to another wearable device having a similar function in addition to the wearable device mentioned above. This is a way to distinguish the wearable device itself without limiting it.
단계 S600에서, 정보는 제 1 웨어러블 디바이스를 통해 획득된다. 정보는 이미지 정보 및 오디오 정보를 포함한다. 예를 들어, 사용자가 거리에서 걷거나 실내에 머물 때, 일부 잠재적인 위험이 있을 수 있다. 예컨대, 잠재적인 위험은 차량 주행 중에 차량으로 인한 위험, 인근 동물에 의한 위험, 공기에서 유독 가스로 발생하는 위험, 낯선 사람의 잠재적인 사기로 인한 위험일 수 있다.In step S600, the information is acquired through the first wearable device. The information includes image information and audio information. For example, when a user is walking on the street or staying indoors, there may be some potential risk. For example, potential hazards may be due to vehicle hazards, hazards from nearby animals, toxic gas in the air, or potential fraud from strangers while driving.
본 실시 예에서, 사용자에 의해 착용된 웨어러블 디바이스는, 가능한 잠재적 위험을 검출하기 위해 주위 정보를 획득 할 수있다. 일반적으로, 정보는 이미지 정보 및 오디오 정보를 포함한다. In this embodiment, the wearable device worn by the user may obtain ambient information to detect possible potential risks. Generally, the information includes image information and audio information.
예를 들어 사용자가 거리를 걷는 경우 이미지 정보는, 차량 주행 중에 차량의 정보, 사람 또는 동물의 정보, 사람 또는 동물의 동작 상태 정보를 포함 할 수 있다. 복수의 이미지들의 정보는 움직임 방향, 속도 및 대상 객체 등을 포함 할 수 있다. 도 3에 도시 된 이미지 센서(312)는 이미지 정보를 감지하는 데 사용될 수 있다. 오디오 정보는, 차량 주행 중에 차량의 경적 주파수, 사용자 주변의 사람 목소리, 동물의 비명을 포함 할 수 있다. 도 3에 도시 된 오디오 센서 (314)는 오디오 정보를 감지하는 데 사용될 수 있다.For example, when the user walks the street, the image information may include information of the vehicle, information of a person or an animal, information of the operation state of a person or an animal during driving the vehicle. The information of the plurality of images may include a direction of movement, a speed, and a target object. The
단계 S610에서 획득된 정보에 기초하여 위험도가 결정된다. 예를 들어, 구체적으로 차량의 운행 방향이 사용자를 향하고 있는지 사용자에게서 멀어지고 있는지 여부를 이미지 정보를 통해 결정하고, 차량과 사용자의 거리가 사용자의 안전이 위험해질 정도로 너무 가까운지 여부를 결정하는 단계를 포함한다. 또한, 오디오 정보를 통해 근처의 동물이 분노 상태인지 여부 및 사용자를 헤칠 수 있는지 여부를 결정하는 단계를 포함한다. The risk is determined based on the information obtained in step S610. For example, it is determined in detail whether the driving direction of the vehicle is directed toward the user or away from the user, and whether or not the distance between the vehicle and the user is too close to the safety of the user . The method also includes determining whether the nearby animal is in an anger state and whether it is possible to beat the user through the audio information.
단계 S620에서, 결정된 위험도에 따라 경고를 한다. 예를 들면, 위험도가 높은 경우, 사용자가 장소를 떠나거나 보행 방향을 변경하기 위해 사용자에게 경고하는 것을 포함한다. 일부 실시 예에서, 경고 방법은 현장 또는 사용자 선호에 따라 설정 될 수 있다. 또한, 웨어러블 디바이스는 사용자 선호 데이터 베이스를 저장하고 나중에 사용하기 위해 사용자의 피드백 정보를 전송할 수 있다. (예를 들면, 각종 위험에 대한 반응 데이터 또는 피드백 데이터)In step S620, a warning is issued in accordance with the determined risk. For example, when the risk is high, it includes warning the user to leave the place or change the walking direction. In some embodiments, the alert method may be set according to the field or user preferences. In addition, the wearable device may store the user preference database and transmit the feedback information of the user for later use. (E. G., Response data or feedback data for various risks)
웨어러블 디바이스는 사용자 선호도를 저장하는 사용자 선호 데이터베이스로부터 사용자의 피드백 정보를 획득할 수 있고, 피드백 정보에 기초하여 대응하는 경고를 제공 할 수있다. 예를 들어, 경고의 방식은 시각, 청각 및 촉각 방식을 포함 할 수 있지만 이에 한정되지 않는다. 따라서 경고의 내용은 이미지, 텍스트, 사운드 또는 상기 언급 된 항목의 임의의 조합을 포함 할 수있다. 추가 실시 예로, 결정된 위험도에 따라 경고를 다르게 할 수 있다. 예를 들어, 위험도가 낮은 경우, 경고의 소리가 낮은 볼륨 및 낮은 주파수로 설정 될 수 있다. 위험도가 높은 경우, 경고의 소리가 높은 볼륨 및 높은 주파수로 설정 될 수 있다. 또한 위험도가 높은 경우, 경고의 다양한 방식이 동시에 이용 될 수 있다, 예를 들면, 경고음이 아니라 진동이 사용자에게 경고하기 위해 생성 될 수 있다. 다른 실시 예에서, 웨어러블 디바이스를 착용한 사용자의 생체 정보에 기초하여 경고하는 방식을 조정할 수 있다. 사용자의 생체 정보는 사용자의 심리학적 상태 또는 정신 상태를 반영할 수 있기 때문에, 다른 생체 상태 또는 정신 상태는 다가오는 위험에 대한 다른 반응 및 치료를 가져올 수 있다. The wearable device may obtain user feedback information from a user preference database that stores user preferences and may provide a corresponding alert based on the feedback information. For example, the manner of the warning may include, but is not limited to, visual, auditory, and tactile. Thus, the content of the warning may include images, text, sounds, or any combination of the above-mentioned items. In a further embodiment, the warning may be different depending on the determined risk. For example, if the risk is low, the sound of the warning can be set to low volume and low frequency. If the risk is high, the sound of the warning can be set to high volume and high frequency. Also, if the risk is high, various ways of warning can be used at the same time, for example, vibration can be generated to warn the user, rather than a beep. In another embodiment, it is possible to adjust the warning method based on the biometric information of the user wearing the wearable device. Since the user's biometric information can reflect the psychological or mental state of the user, other biological states or mental states can lead to different responses and remedies for the oncoming risks.
따라서, 다른 반응 및 치료를 기초로 하여, 웨어러블 디바이스는 사용자에게 경고하는 다양한 방식을 제공 할 수있다. 예를 들어, 사용자의 정신 상태가 좋지 않은 경우에는, 현재 사용자가 위험에 응답하지 않으면 사용자는 위험을 간과하기 쉽다. 가능한 손상을 방지하기 위해, 웨어러블 디바이스에 의해 작동한 경고의 방식은 좀더 민감해질 수 있다. 예를 들면 웨어러블 디바이스는 높은 경고 볼륨, 빠른 주파수 등을 사용할 수 있다.Thus, based on other reactions and treatments, the wearable device may provide various ways of alerting the user. For example, if the user's mental state is not good, the user is likely to overlook the risk if the current user does not respond to the risk. In order to prevent possible damage, the manner of the warning operated by the wearable device may become more sensitive. For example, a wearable device can use a high warning volume, a fast frequency, and so on.
조기에 위험을 경고하는 방법은, 정보를 획득하는 웨어러블 디바이스를 사용한다. 획득된 정보는 이미지 정보 및 오디오 정보 등을 포함 할 수있다. 웨어러블 디바이스는 획득된 정보에 기초하여 위험도를 결정한다. 결정된 위험도에 따라 웨어러블 디바이스는 사용자에 대하여 경고한다. 요약하면, 상기 방법은 다양한 센서를 통해 사용자의 종합적이고 신속한 조기 위험 경고를 제공한다. 이에 사용자의 안전성을 향상시킨다. 또한, 위험 검출은 차량의 감지 뿐만 아니라 동물 및 사람과 같은 생물의 감지를 포함한다.
A method of warning danger early uses a wearable device to obtain information. The acquired information may include image information, audio information, and the like. The wearable device determines the risk based on the obtained information. The wearable device warns the user according to the determined risk. In summary, the method provides a user's comprehensive and rapid early warning of danger through various sensors. Thereby enhancing the safety of the user. In addition, the detection of danger includes the detection of animals, such as animals and people, as well as the detection of vehicles.
도 7은 조기에 위험을 경고하기 위한 방법의 다른 예를 설명하기 위한 흐름도이다. FIG. 7 is a flow chart for explaining another example of a method for early warning a danger.
단계 S700에서, 이미지 정보에 기초하여 대상 객체가 대응하는 웨어러블 디바이스에 도달하는데 걸리는 시간을 결정한다. 이미지 정보는 사용자의 안전을 위태롭게 할 수있는 정보를 획득하기 위해 분석된다. 이미지 정보는 단지 웨어러블 디바이스 자체에 의해 포착 할뿐만 아니라, 다른 웨어러블 디바이스에 의해 캡처된 이미지를 포함할 수 있다. 예를 들어, 두 개의 장치가 페어링될 때, 이들 두 개의 장치는 서로간에 데이터를 전송할 수있다. 데이터는 각각 촬영 된 이미지 정보, 오디오 정보, 각각 웨어러블 디바이스에 의해 생성되는 정보(예를 들면 결정된 위험도)를 포함 할 수 있지만 이에 한정되지 않는다.In step S700, based on the image information, determines the time it takes for the target object to reach the corresponding wearable device. Image information is analyzed to obtain information that may jeopardize the safety of the user. The image information may not only be captured by the wearable device itself, but may also include images captured by other wearable devices. For example, when two devices are paired, these two devices can transmit data to each other. The data may include, but are not limited to, photographed image information, audio information, and information (e.g., determined risk) each generated by the wearable device.
이 실시 예에서, 이미지 정보를 분석하는 단계는 대상 객체의 물리적 특성을 검출하는 단계를 포함 할 수 있다. 일 실시예에서, 공유 특성을 이용하여 대상 객체의 다양한 유형을 검출할 수 있다. 예를 들어, 대상 객체는 자동차, 동물, 사람 3 종류를 포함한다. 대상 객체가 동물(예를 들어 길 잃은 강아지, 사나운 개, 등)인 경우, 물리적 특성은 동물의 치아, 꼬리, 눈을 포함하지만 이에 한정되지 않는다. 대상 객체가 사람 일 때, 사람의 물리적인 특성은 사람의 얼굴, 몸통 및 팔다리를 포함하지만 이에 한정되지 않는다. 사람의 신체적 특징 정보는 사기의 가능성이 있는지 여부를 결정하는 데 사용될 수 있다. 또한, 이미지 정보를 분석하는 단계는 대상 객체가 복수의 이미지에 기초하여 대응하는 웨어러블 디바이스에 도달하는 데 걸리는 시간을 결정하는 단계를 포함할 수 있다.In this embodiment, analyzing the image information may include detecting physical characteristics of the object of interest. In one embodiment, the sharing property may be used to detect various types of object objects. For example, the target object includes three types of automobiles, animals, and people. If the target object is an animal (e.g., a stray dog, a wild dog, etc.), the physical characteristics include, but are not limited to, an animal's teeth, tail, and eyes. When the target object is a person, the physical characteristics of the person include, but are not limited to, the face, torso, and limbs of a person. A person's physical feature information can be used to determine whether there is a possibility of fraud. The step of analyzing the image information may also include determining the time it takes for the target object to arrive at the corresponding wearable device based on the plurality of images.
예를 들어, 복수의 이미지가 대상 객체와 웨어러블 디바이스 사이의 거리, 운동 방향 및 대상 객체의 속도를 결정하는데 사용될 수 있다. 따라서, 대상 객체가 대응하는 웨어러블 디바이스에 도달하는데 걸린 시간은 계산될 수 있다. 여러 방법은 거리, 운동 방향 및 속도를 계산하는데 이용 될 수 있다. 예를 들어, 거리는 대상 객체의 실제 크기와 이미지내 대상 객체의 이미지 크기를 비교함으로써 추정 될 수있다. 예를 들어, 움직임의 방향은, 이미지에서 대상 객체의 오프셋에 따라 추정될 수 있다. 기술 분야에서 숙련 된 사람은 대상 객체의 운동 방향이 사용자쪽으로 향하지 않는 경우, 대상 객체는 위험 가능성이 없다고 이해할 수있다.For example, multiple images may be used to determine the distance between the target object and the wearable device, the direction of motion, and the velocity of the target object. Thus, the time taken for the target object to reach the corresponding wearable device can be calculated. Several methods can be used to calculate distance, direction of motion and speed. For example, the distance can be estimated by comparing the actual size of the target object with the image size of the target object in the image. For example, the direction of motion can be estimated according to the offset of the target object in the image. One skilled in the art can understand that if the direction of motion of the target object is not towards the user, then the target object is not at risk.
일 실시예에서, 이미지 정보를 분석하는 단계는, 다른 웨어러블 디바이스로부터의 이미지를 분석할 수 있다. 예를 들어 제 1 웨어러블 디바이스와 제 2웨어러블 디바이스는 페어링되고 서로 간의 이미지 정보를 공유한다. 이 실시예에서, 제 1웨어러블 디바이스는 제 2웨어러블 디바이스로부터 이미지 정보를 분석 할 수 있고, 대상 객체가 제 2웨어러블 디바이스에 도달하는데 걸리는 시간을 계산할 수있다. 이어서 제 1웨어러블 디바이스는 제 1웨어러블 디바이스와 제 2 웨어러블 디바이스의 상호 위치 관계에 기초하여 대상 객체가 제 1웨어러블 디바이스에 도달하는데 걸리는 시간을 결정할 수 있다. 다른 실시예에서, 제 2웨어러블 디바이스는 대상 객체가 제 1웨어러블 디바이스와 제 2웨어러블 디바이스에 도달하는데 걸리는 시간을 공유 할 수있다. 따라서 전송된 데이터의 양이 감소 될 수있어, 처리 효율을 향상시킬 수 있다.In one embodiment, analyzing the image information may analyze an image from another wearable device. For example, the first wearable device and the second wearable device are paired and share image information with each other. In this embodiment, the first wearable device can analyze the image information from the second wearable device and calculate the time it takes for the target object to reach the second wearable device. The first wearable device can then determine the time it takes for the target object to reach the first wearable device based on the mutual positional relationship of the first wearable device and the second wearable device. In another embodiment, the second wearable device may share the time it takes for the target object to reach the first wearable device and the second wearable device. Therefore, the amount of transmitted data can be reduced, and the processing efficiency can be improved.
단계 S710에서, 오디오 정보를 기초로 하여 대상 객체의 오디오 특성을 검출할 수 있다. 오디오 정보는 사용자의 안전을 위태롭게 할 수 있는 정보를 획득하기 위해 분석된다. 마찬가지로, 오디오 정보는 웨어러블 디바이스 자체에 의해 캡쳐된 오디오 정보를 포함할 뿐만 아니라, 다른 웨어러블 디바이스에 의해 캡쳐된 오디오를 포함한다. 구체적으로는, 오디오 정보를 분석하는 단계는 오디오 정보로부터 대상 객체의 오디오 특성을 검출하는 단계를 포함한다.In step S710, the audio property of the target object can be detected based on the audio information. The audio information is analyzed to obtain information that may jeopardize the safety of the user. Likewise, the audio information not only includes audio information captured by the wearable device itself, but also includes audio captured by other wearable devices. Specifically, analyzing the audio information includes detecting audio properties of the target object from the audio information.
음성 신호의 기저 대역 분해 및 재구성 기술에 따라, 관심 사운드(예를 들어, 차량, 동물 또는 사람의 소리)를 배경 사운드로부터 분리 할수있다. 예를 들어, 대상 객체가 차량 인 경우, 오디오 특성은 차량의 경적 주파수를 포함하지만 이에 한정되지 않는다. 대상 객체가 동물 인 경우, 오디오 특성은 볼륨, 피치, 및 멜 주파수 켑스트럼 계수(MFCC)를 포함하지만 이에 한정되지 않는다. 대상 객체가 사람일 때, 사람의 오디오 특성은 사람의 대화, 파워 정규화 켑스트럼 계수 (PNCC)를 포함 할 수 있지만, 이에 한정되지 않는다.Depending on the baseband decomposition and reconstruction technique of the speech signal, it is possible to separate the sound of interest (for example, the sounds of vehicles, animals or people) from the background sound. For example, if the target object is a vehicle, the audio characteristics include, but are not limited to, the horn frequency of the vehicle. If the target object is an animal, the audio properties include, but are not limited to, volume, pitch, and Mel-frequency spectral coefficients (MFCC). When the target object is a person, the audio characteristics of the person may include, but are not limited to, human conversation, power normalization coefficient coefficients (PNCC).
단계 S720에서, 대상 객체의 물리적 특성, 대상 객체가 대응하는 웨어러블 디바이스에 도달하는데 걸리는 시간 및 대상 객체의 오디오 특성에 따라 위험도를 결정할 수있다.. 대상 객체에 대한 위험 레벨은 이미지 및 오디오 정보의 분석에 기초하여 결정할 수 있다. 특히, 대상 객체에 대한 위험도는 대상 객체의 물리적 특성 및 오디오 특성과 대상 객체가 대응하는 웨어러블 디바이스에 도달하는데 걸리는 시간에 따라 결정될 수 있다.In step S720, the risk can be determined according to the physical characteristics of the target object, the time it takes for the target object to reach the corresponding wearable device, and the audio characteristics of the target object. The risk level for the target object is determined by analyzing the image and audio information . ≪ / RTI > In particular, the risk to the target object can be determined according to the physical characteristics of the target object and the time required for reaching the wearable device to which the target object corresponds.
일 실시예로, 대상 객체가 차량 인 경우, 차량이 사용자에 도달하는 데 걸리는 시간 및 차량의 경적 주파수에 의해 가중화되고 이산화될 수 있다. 따라서 위험 레벨, 즉 사용자에게 위협을 가하는 레벨이 결정될 수 있다. 다른 실시예로, 대상 객체가 동물일 때, 동물의 위협도(예를 들어, 분노 정도 및 사나운 정도)는 물리적 특성, 오디오 특성과 동물의 음향 특성에 따라 평가 될 수있다. 한편, 동물로부터의 공격 확률은 동물이 사용자에게 도달하는데 걸리는 시간에 따라 평가될 수 있다. 마지막으로, 동물의 위협도, 즉 위험 레벨을 결정하기 위해 위협도 및 확률은 가중화 및 이산화 될 수 있다. 다른 실시예로, 대상 객체가 사람이면, 대상 객체에 대한 위험 레벨을 평가하는 단계는 대상 객체가 사용자를 속일지 여부를 결정하는 단계를 포함할 수 있다. In one embodiment, when the target object is a vehicle, it can be weighted and discretized by the time it takes for the vehicle to reach the user and the horn frequency of the vehicle. Thus, the risk level, i.e., the level that threatens the user, can be determined. In another embodiment, when the target object is an animal, the degree of threat of the animal (e.g., degree of anger and degree of ferocity) can be evaluated according to physical characteristics, audio characteristics and acoustic characteristics of the animal. On the other hand, the attack probability from the animal can be evaluated according to the time it takes for the animal to reach the user. Finally, threats and probabilities can be weighted and discretized to determine animal threats, or risk levels. In another embodiment, if the target object is a person, evaluating the risk level for the target object may include determining whether the target object is deceiving the user.
단계 S730에서, 추가적인 요인(기상 정보, 냄새 정보, 생물학적 정보)에 기초하여 위험도를 결정할 수 있다. 위험도는 정확한 조기 경보를 제공하기 위하여 추가로 다수의 인자에 기초하여 더 조정될 수있다.In step S730, the risk can be determined based on additional factors (weather information, odor information, biological information). The risk can be further adjusted based on a number of factors to provide an accurate early warning.
일 실시 예에서, 기상 정보 또는 냄새의 정보에 기초하여 위험도를 결정할 수 있다. 앞서 언급 한 바와 같이, 기상 조건이 웨어러블 디바이스의 센싱부 안에있는 습도 센서에 의해 감지될 수있다. 대안적으로, 일기 예보는 웨어러블 디바이스의 네트워크 통신부에 의한 네트워크를 통해 획득 될 수있다. 다른 대안으로서, 기상 조건은 온도를 감지하기 위해 사용되는 온도 센서와 같은 다른 유형의 센서들에 의해 감지 될 수있다. 음향 센서는 천둥, 비, 바람 등의 소리를 감지하기 위해 사용될 수 있다. 이미지 센서는 비오는 날, 눈 덮인 날, 맑은 날, 흐린 날, 번개치는 날의 이미지를 감지하기 위해 사용될 수 있다. 또한, 냄새 센서는 냄새 정보를 감지 할 수 있다. In one embodiment, the risk can be determined based on meteorological information or odor information. As mentioned above, the weather condition can be detected by the humidity sensor in the sensing portion of the wearable device. Alternatively, the weather forecast can be obtained via the network by the network communication unit of the wearable device. As an alternative, the weather conditions can be sensed by other types of sensors, such as temperature sensors used to sense the temperature. Acoustic sensors can be used to detect sounds such as thunder, rain, wind, and so on. The image sensor can be used to detect images of rainy, snowy, clear, cloudy, and lightning blades. In addition, the odor sensor can sense odor information.
예를 들어, 비오는 날에 차량에 의해 발생하는 위험 레벨은 맑은 날보다 훨씬 더 높아야한다. 왜냐하면 비오는 날은 도로가 미끄럽고 보기 어렵기 때문이다. For example, the risk level caused by a vehicle on a rainy day should be much higher than on a clear day. Because on rainy days the road is slippery and difficult to see.
따라서, 이러한 요인으로 인해, 운전자 또는 사용자가 더 실수 하고 교통 사고가 발생할 가능성이 있다. 다른 실시 예에서, 웨어러블 디바이스를 착용한 사용자(즉, 사용자)의 생체 정보에 기초하여 위험 레벨을 조정할 수있다. 전술한 바와 같이, 사용자의 생체 정보는 생리적 상태 또는 사용자의 정신 상태를 반영할 수있다. 생리적 상태 또는 정신 상태가 약할 때, 사용자는 더 상처받기 쉽고 속기 쉽다. 따라서, 위험 레벨은 이에 따라 상승 될 수있다.
Therefore, due to these factors, there is a possibility that the driver or the user may make more mistakes and accidents occur. In another embodiment, the risk level can be adjusted based on the biometric information of the user wearing the wearable device (i.e., the user). As described above, the biometric information of the user may reflect the physiological state or the mental state of the user. When the physiological state or mental state is weak, the user is more vulnerable and easy to deceive. Thus, the risk level can be raised accordingly.
도 8은 조기에 위험을 경고하기 위한 방법의 또 다른 예를 설명하기 위한 흐름도이다. 대상 객체가 사람일 때 대상 객체에 대한 위험 레벨을 결정하는 방법을 도시한다. 일 실시 예에서, 대상 객체에 대한 위험 레벨은 주로 대상 객체에 의한 사기의 가능성에 의해 결정된다.Fig. 8 is a flow chart for explaining another example of a method for early warning a danger. And a risk level for the target object when the target object is a person. In one embodiment, the risk level for the target object is primarily determined by the likelihood of fraud by the target object.
단계 S800에서는 대상 객체가 사람인지 여부를 검출한다. In step S800, it is determined whether or not the target object is a person.
단계 S810에서는 만약 대상 객체가 사람이라면 대상 사람의 얼굴을 검출한다.In step S810, if the target object is a person, the face of the target person is detected.
단계 S820에서는 검출된 얼굴이 기 설정된 얼굴 데이터 베이스에 있는지 여부에 따라 위험도를 결정한다. 이때 얼굴 데이터 베이스에 없는 얼굴은 낯선 사람이라고 결정할 수 있다. 위험은 대개 낯선 사람에 의해 야기된다고 이해될 수 있다. 따라서 주로 낯선 사람에 의해 저지른 사기의 검출에 초점을 맞추고있다. 낯선 사람은 이미지 정보 또는 웨어러블 디바이스에 의해서 획득된 오디오 정보에 따라 인식된다. 일 실시예에서, 대상 객체가 낯선 사람인지 여부는 이미지 정보에 따라 결정될 수있다. 예를 들어, 웨어러블 디바이스의 처리부는 이미지 정보에 따라 얼굴을 검출할 수있다. 다양한 안면 인식 기술은 얼굴을 검출하는데 사용될 수있다. 실시 예에서, 아다부스트(Adaboost) 기계 학습 알고리즘과 하르 라이크 피쳐(Haar-like feature)가 얼굴을 검출하는데 사용될 수 있다. 또한, 검출된 얼굴이 낯선 사람의 얼굴인지 여부는 지인 데이터베이스를 검색함으로써 결정될 수있다. 지인 데이터베이스는 이전 사용자의 지인들 얼굴 이미지 데이터를 저장한 데이터베이스이다.In step S820, the risk level is determined according to whether or not the detected face is present in the predetermined face database. At this time, faces that are not in the face database can be determined to be strangers. It can be understood that the danger is usually caused by a stranger. It focuses primarily on the detection of fraud committed by strangers. The stranger is recognized according to the image information or the audio information obtained by the wearable device. In one embodiment, whether the target object is a stranger can be determined according to image information. For example, the processing unit of the wearable device can detect a face according to image information. A variety of facial recognition techniques can be used to detect faces. In an embodiment, Adaboost machine learning algorithms and Haar-like features can be used to detect faces. Whether or not the detected face is a face of a stranger can be determined by searching an acquaintance database. The acquaintance database is a database storing the acquaintances' face image data of the previous user.
다른 실시예에서, 대상 객체가 낯선 사람인지 여부는 오디오 정보에 따라 결정될 수있다. 예를 들어, 웨어러블 디바이스의 처리부는 오디오 정보에 대한 음성 인식을 수행할 수 있다. 다양한 음성 인식 기술은 음성을 인식하는 데 사용될 수 있다. 실시 예에서, 대상 객체는 성문 인식 기술에 의해 인식될 수있다. 또한, 검출된 음성이 지인의 음성인지 또는 믿을 수 있는 사람인지 여부는 지인 데이터베이스를 검색함으로써 결정될 수 있다. 지인 데이터베이스는 이전에 저장된 음성 데이터 또는 사용자의 지인들의 오디오 특징 데이터를 가지고 있다.In another embodiment, whether the target object is a stranger may be determined according to the audio information. For example, the processing unit of the wearable device can perform speech recognition on the audio information. Various speech recognition techniques can be used to recognize speech. In an embodiment, the target object may be recognized by a grammar recognition technique. Further, whether the detected voice is the voice of the acquaintance or a person who can be trusted can be determined by searching the acquaintance database. The acquaintance database has previously stored voice data or audio feature data of the acquaintances of the user.
이는 전술 한 두 가지 실시예를 임의로 조합할 수 있다는 것을 알 수 있다. 예를 들어, 일 구현에서, 대상 객체는 양쪽의 실시예에 의해 지인으로 인식된 경우에만 지인으로 간주 될 수있다. 다른 실시예에서, 양쪽의 실시예 중 하나에 의해 지인으로 인식된 경우에 지인으로 간주 될 수있다.It can be seen that this can arbitrarily combine the two embodiments described above. For example, in one implementation, the target object may be considered an acquaintance only if it is recognized as being acquaintance by both embodiments. In other embodiments, it can be considered an acquaintance if it is recognized as being acquaintance by one of both embodiments.
또한, 검출된 사람이 사용자와 상호 작용하고 있는지 여부, 즉, 검출 된 사람이 사용자에게 얘기하고 있는지 여부는 의 이미지 정보에 따라 결정될 수 있다. 즉, 대상 객체가 사용자가 얘기하는지 여부는 물리적인 특성에 따라 결정된다. 일 실시 예에서, 결정하는 단계는, 우선 대상 객체의 얼굴 크기에 따라, 대상 객체와 사용자의 거리를 결정한다. 예를 들면, 거리가 미리 설정된 범위 내에 있는지의 여부를 결정한다. 둘째 대상 객체의 얼굴 방향에 따라 대상 객체가 사용자를 향해있는지 여부를 결정한다. 마지막으로 대상 객체의 입술이 움직이고 있는지 여부를 결정한다. 이들 세 가지 조건이 모두 동시에 만족하는 경우, 대상 객체는 사용자와 대화하는 사람으로 간주될 수 있다. 일반적으로 낯선 사람은 이야기를 통해 사기를 저질렀다. 따라서, 일 실시예에서, 사용자와 대화하지 않는 낯선 사람은 조사에서 제외될 수 있다. 제외하는 단계는 얼굴을 검출하는 단계 및 음성을 검출의 단계 이전, 이후 또는 사이에 수행 될 수 있고, 이러한 점에 한정되지는 않는다.Also, whether or not the detected person is interacting with the user, i.e., whether the detected person is talking to the user, can be determined according to the image information of. In other words, whether the target object talks to the user is determined by the physical characteristics. In one embodiment, the determining step first determines the distance between the target object and the user according to the face size of the target object. For example, it is determined whether or not the distance is within a preset range. Second, it determines whether the target object is facing the user according to the face direction of the target object. Finally, it determines whether the lips of the target object are moving. If all three of these conditions are satisfied at the same time, the target object can be regarded as a person who communicates with the user. Generally, a stranger made a story through a story. Thus, in one embodiment, strangers who do not talk to the user can be excluded from the investigation. The excluding step may be performed before and after the step of detecting the face and the voice, and is not limited to this point.
사기의 가능성은 하나 이상의 실시예에 기초하여 결정될 수 있고, 대상 객체의 대화, 표현 또는 동작 등의 양상들을 포함하여 결정되지만 이에 한정되지 않는다. 일 실시 예에서, 대상 객체의 음성 컨텐츠는 사기의 가능성을 결정하기 위해, 사기 기준 모델에 기초하여 분석된다. 사기 참조 모델은 존재했던 사기들의 사례를 연구하여 만들 수 있다. 예를 들면, 사기 기준 모델은 다음의 단계들에 의해 생성될 수 있다. 네트워크로부터 사기의 다양한 사례를 수집하고, 사기 언어 모델을 대행하기 위해 베이지안(Bayesian) 분류기를 사용한다.The likelihood of fraud can be determined based on one or more embodiments and is determined including, but not limited to, aspects such as conversation, representation or operation of the object of interest. In one embodiment, the speech content of the target object is analyzed based on a fraud criterion model to determine the likelihood of fraud. A fraud reference model can be created by studying examples of fraud that existed. For example, a fraud criteria model may be generated by the following steps. We collect various examples of fraud from the network and use the Bayesian classifier to act on the fraud language model.
일 실시예에서, 오디오 정보는 웨어러블 디바이스의 처리부에 의해 분석된다. 예를 들면, 분석 단계는, 첫째로 대상 객체의 파워 정규화 켑스트럼 계수(PNCC) 특징을 추출하고, 음성 인식을 수핸한다. 둘째로 단어들을 분할하고 마르코프 랜덤 필드(Markov random field)를 기초로 하여 민감한 단어를 추출한다. 최종적으로 사기의 가능성을 예측하기 위해 사기 참조 모델을 사용한다.In one embodiment, the audio information is analyzed by the processing unit of the wearable device. For example, the analysis step first extracts the power normalization cepstrum coefficient (PNCC) feature of the target object and acquires speech recognition. Second, we segment words and extract sensitive words based on the Markov random field. Finally, we use a fraud reference model to predict the likelihood of fraud.
예를 들어, 대상 객체가 "이 은행 카드로 10 만 달러를 전송하시기 바랍니다."라고말할 때, 추출된 민감한 단어는 "은행 카드"와 "달러"이다. 베이즈 정리(Bayes’ theorem)에 따르면 사기 가능성 P(사기| “은행카드”, “돈”) = P( "은행 카드", "돈"| 사기) * P (사기) / P ( "은행 카드", “돈”)이다. 이때 P(“은행 카드”, “돈”|사기)는 모든 사기 사건들에서 키워드 “은행 카드” 및 “돈”이 동시적으로 나타나는 확률을 나타낸다. P(사기)는 사전 확률이다. P(“은행 카드, “돈”)은 키워드 “은행 카드” 및 “돈”이 동시적으로 나타나는 사전 확률이다. 이러한 세 가지 가능성은 사기 언어 모델을 학습하여 결정될 수있다.For example, when the target object says, "Send $ 100,000 to this bank card," the extracted sensitive words are "bank card" and "dollar". According to Bayes' theorem, fraud possibility P (fraud | "bank card", "money") = P ("bank card" "," Money "). At this time, P ("bank card", "money" | fraud) represents the probability of simultaneous occurrence of keywords "bank card" and "money" in all fraud cases. P (fraud) is a prior probability. P ("bank card," money ") is the prior probability that the keywords" bank card "and" money "appear simultaneously. These three possibilities can be determined by learning a moral language model.
다른 실시예에서, 사기의 가능성은 대상 객체의 안면 특징(즉 표정) 변화를 기초로 하여 추정될 수있다. 일 실시예에서, 웨어러블 디바이스의 처리부는 이미지 정보에 기초하여 대상 객체의 안면 특징 변화를 분석하는데 사용될 수 있다. 심리학 또는 실천학의 분석에 따르면, 일부 안면 특징의 변화는 대응하는 심리적 활동(예를 들면 거짓말과 같은)을 추론하는데 사용될 수있다. 따라서, 사기의 가능성은 특별한 안면 특징의 변화 또는 조합에 따라 할당될 수 있다. 예를 들면 사기 가능성은 심리학 또는 실천학에 따라 할당된다. 사기의 가능성은 사기 사건의 통계 분석에 기초하여 조정된다. 예를 들어, 특수 안면 특징 변화는, 눈의 상대 변위, 눈썹 형상의 상대적인 변화, 얼굴 색 등의 변화를 포함할 수 있으나 이에 한정되지 않는다. 얼굴의 특징 변화 및 사기의 가능성 탬플릿은 생성될 수 있다. 실시 예에서, 템플릿은 룩업 테이블 일 수있다. 룩업 테이블의 데이터의 각 부분을 검색 인덱스 및 사기의 가능성에 의해 구성된다.In another embodiment, the likelihood of fraud can be estimated based on a change in facial characteristics (i.e. facial expression) of the target object. In one embodiment, the processing portion of the wearable device may be used to analyze changes in facial features of a target object based on image information. According to an analysis of psychology or practice, some changes in facial features can be used to infer corresponding psychological activities (such as lying). Thus, the likelihood of fraud can be assigned according to a change or combination of special facial features. For example, the possibility of fraud is assigned according to psychology or practice. The likelihood of fraud is adjusted based on statistical analysis of fraud events. For example, a change in a facial feature may include, but is not limited to, relative displacement of the eye, relative change in eyebrow shape, facial color, and the like. Temporal feature changes and fragile likelihood templates can be generated. In an embodiment, the template may be a look-up table. Each part of the data in the lookup table is configured by the search index and the likelihood of fraud.
예를 들어, 검색 인덱스는 다음과 같이 정의 될 수있다. 우측으로 시선이 이동하고, 눈썹이 위쪽으로 상승, 얼굴빛이 연분홍으로 변하면 대응하는 사기의 가능성은 0.7이다. 다른 실시예에서, 사기의 가능성은 대상 객체의 동작 전환에 기초하여 추정될 수있다. 웨어러블 디바이스의 처리부는 이미지 정보에 기초하여 대상 객체의 행동 변화를 분석하는데 사용될 수 있다. 심리학 또는 실천학의 분석에 따르면, 어떤 특별한 행동 변화는 대응하는 심리학적 활동으로 추론할 수 있다.(예를 들면, 거짓말 등의 심리적 활동) For example, the search index can be defined as follows. If the eye moves to the right and the eyebrows rise upward and the face turns pink, the probability of corresponding fraud is 0.7. In another embodiment, the likelihood of fraud can be estimated based on an action change of the target object. The processing unit of the wearable device can be used to analyze a behavior change of a target object based on image information. According to the analysis of psychology or practice, certain special behavioral changes can be deduced as corresponding psychological activities (eg, psychological activities such as lying)
사기의 가능성은 이러한 특별한 행동 변화 및 이들의 조합에 따라 할당될 수 있다. 예를 들면, 사기의 가능성은 심리학 또는 실천학을 기초로 하여 할당될 수 있다. 사기의 가능성은 사기 사건의 통계 분석에 기초하여 조정된다. 특별한 행동 동작 변경은 목을 만지는 동작, 어깨를 으쓱하는 동작을 포함하지만 이에 제한되지 않는다. 행동 변화와 사기의 가능성의 템플릿은 생성될 수 있다. 행동 동작 변경의 검출은 다양한 방식으로 구현될 수 있다. 예를 들어, 검출 단계는, 먼저 피부색으로 손을 검출하고 골격분석을 통해 어깨를 검출한다. 두번째로 손과 어깨의 궤도의 순서를 획득하기 위해 티엘디(TLD, Tracking- Learning Detection) 트래킹 알고리즘을 이용하여 손과 어깨를 트래킹한다. 마지막으로 궤도의 순서를 기초로 하여 사기의 가능성을 추정한다.The possibility of fraud can be assigned according to these particular behavioral changes and combinations thereof. For example, the possibility of fraud can be assigned on the basis of psychology or pragmatics. The likelihood of fraud is adjusted based on statistical analysis of fraud events. Special behavioral behavior changes include, but are not limited to, neck tilting, shoulder shrug. Templates of behavior change and fraud possibilities can be generated. Detection of behavioral behavior changes may be implemented in various ways. For example, in the detecting step, the hand is first detected in the skin color, and the shoulder is detected through skeletal analysis. Second, tracking the hand and shoulder using a tracking-learning detection (TLD) tracking algorithm to obtain the order of the hand and shoulder trajectories. Finally, we estimate the possibility of fraud based on the order of orbits.
예를 들어 손으로 목을 만지는 동작이 검출되면 손에 대한 사기의 가능성은 P(사기|손으로 목을 만지는 동작)이다. 어깨를 으쓱하는 동작이 검출되면, 어깨에 대한 사기의 가능성은 P(사기|어깨를 으쓱하는 동작)이고, 종합적인 사기의 가능성은 P(사기 | 손으로 목을 만지는 동작, 어깨를 으쓱하는 동작) = P(사기 | 손으로 목을 만지는 동작) + P(사기 |어깨를 으쓱하는 동작) - P(사기 | 손으로 목을 만지는 동작)* P(사기 |어깨를 으쓱하는 동작) 이다.For example, if an act of touching the neck with the hand is detected, the possibility of fraud on the hand is P (fraud | hand touching the neck). If the shrugging of the shoulder is detected, the possibility of fraud on the shoulder is P (fraud | motion shrugging), the possibility of comprehensive fraud is P (fraud | hand tie, shrug ) = P (fraud | action to tie the neck with the hand) + P (fraud | action to shrug the shoulder) - P (fraud |
이는 전술한 세 가지 실시가 임의로 조합 될 수 있다는 것을 알 수있다. 예를 들어, 일 실시예에서, 각각에 의해 결정되는 사기의 가능성은, 별도로 계산 될 수 있고, 그로부터 3개의 사기의 가능성들은 가중화 되어 종합 사기의 가능성을 결정할 수 있다.It can be seen that the three embodiments described above can be arbitrarily combined. For example, in one embodiment, the likelihood of fraud determined by each can be calculated separately, from which the possibilities of three frauds can be weighted to determine the likelihood of an overall fraud.
일반적으로 추정된 사기의 가능성은 백분율 또는 그밖의 수치로 표현될 수 있다. 대응하는 위험도에 따라 대응하는 경고 정보를 차후에 제공하기 위해, 사기의 가능성은 대응하는 위험도에 맵핑될 수 있다. 이 방법은 위험 검출의 범위를 확장하고 사용자의 안전을 향상시킨다.In general, the likelihood of estimated fraud can be expressed as a percentage or other value. The probability of fraud can be mapped to a corresponding risk to later provide corresponding warning information according to the corresponding risk. This method extends the range of risk detection and improves user safety.
이 도면에 있어서의 특정 단계 순서가 기술되지만, 그러나, 특정한 순서에 따라 수행되어야 한다는 것을 의미하지는 않는다. 그리고 원하는 결과를 달성하기 위해 모든 단계를 수행할 필요가 없다. 대신에, 흐름도에 도시된 단계들의 실행 순서는는 변경될 수 있다.
The specific sequence of steps in this figure is described, but does not mean that it should be performed in a particular order. And you do not have to perform all the steps to achieve the desired result. Instead, the order of execution of the steps shown in the flowchart may be changed.
도 9는 조기에 위험을 경고하기 위한 방법을 실시하는 한 예를 설명하기 위한 흐름도이다. Fig. 9 is a flowchart for explaining an example of implementing a method for early warning a risk.
도 9를 참조하면, 사용자의 동반자가 (예 : 어린 소녀와 같은) 거리에서 길을 잃는다. 사용자가 매우 불안한 경우, 사용자에 의해 착용된 본 발명의 웨어러블 디바이스는, 생체 정보 센서에 의해 사용자의 불안감을 감지하고 인근 다른 사용자가 착용하는 웨어러블 디바이스에 불안 정보를 송신한다. 이어서 이 불안을 감지하고 사용자의 시야가 확장 될 수 있도록 이미지 공유 기능을 연다. 이에 다른 사용자가 길 잃은 소녀를 보다 쉽게 발견 할 수 있다.Referring to FIG. 9, the user's companion loses on the street (such as a young girl). When the user is very uneasy, the wearable device of the present invention worn by the user senses the user's anxiety by the bio-information sensor and transmits the anxiety information to the wearable device worn by another nearby user. Then we open the image sharing function to detect this anxiety and expand the user's view. This makes it easier for other users to find a lost girl.
단계 S900에서, 사용자는 동반자(소녀)가 길을 잃은 것을 발견한다. In step S900, the user discovers that the companion (girl) is lost.
단계 S910에서, 사용자에 의해 착용된 웨어러블 디바이스(제 1 웨어러블 디바이스)가 생체 정보 센서에 의해 사용자의 심리학적 상태를 감지한다. 제 1 웨어러블 디바이스가 사용자의 불안감을 감지하면, 인근에 있는 하나 이상의 제 2웨어러블 디바이스에서의 정보 공유를 요청할 수있다. 예를 들어, 조기 경보 시스템의 서버를 통해 근처의 하나 이상의 제2 웨어러블 디바이스에 정보 공유 요청을 보낼 수 있다. 다른 예를 들면, 제 1웨어러블 디바이스는 근처의 제 2웨어러블 디바이스에 알리기 위해 정보 공유의 요청을 직접 방송 할 수 있다.In step S910, the wearable device (first wearable device) worn by the user senses the psychological state of the user by the bio-information sensor. When the first wearable device senses the user's anxiety, it can request information sharing at one or more nearby wearable devices. For example, the server of the early warning system may send an information sharing request to one or more second wearable devices in the vicinity. As another example, the first wearable device can directly broadcast a request for information sharing to inform a nearby second wearable device.
단계 S930에서, 다른 사용자가 착용한 제 2웨어러블 디바이스 (즉, 제 웨어러블 디바이스)는 정보 공유 요청을 수신한다. In step S930, the second wearable device (i.e., the wearable device) worn by another user receives the information sharing request.
단계 S940에서, 이들 제 2웨어러블 디바이스는 도움을 주기 위해 정보 공유 기능을 가능하게 한다.In step S940, these second wearable devices enable the information sharing function to help.
단계 S950에서, 제 2 웨어러블 디바이스는 제 1웨어러블 디바이스와 공유하기 위해 선택적으로 오디오 정보와 함께 시야 뷰 이미지를 클라우드 데이터베이스에 업로드할 수 있다.In step S950, the second wearable device may upload the view-of-view image to the cloud database optionally with audio information to share with the first wearable device.
단계 S960에 도시 된 바와 같이, 이들 제 2웨어러블 디바이스는 위치 정보(예를 들어 GPS 모듈을 통해 획득 된 위치 정보)를 제공할 수 있다. 동시에, 단계 S940에서, 제 1웨어러블 디바이스는 검색을 위해 주위 의 이미지를 획득 할 수있다.As shown in step S960, these second wearable devices can provide positional information (e.g., positional information obtained through a GPS module). At the same time, in step S940, the first wearable device can acquire the surrounding image for searching.
단계 S970에서, 대상은 제 1웨어러블 디바이스 자체에 의해 획득된 정보에 및 하나 이상의 제 2웨어러블 디바이스들에 의해 공유된 정보에 따라 검색된다. 예를 들어, 이미지 정보에 기초하여, 어린 소녀는 그녀의 형상의 특징 또는 물리적 특성에 따라 검색된다.In step S970, the object is searched according to information acquired by the first wearable device itself and information shared by the one or more second wearable devices. For example, based on image information, a young girl is searched for according to her characteristic or physical characteristics.
단계 S980에서, 정보 공유의 방식에 의해, 사용자의 시야가 확장 될 수 있으므로 소녀를 더 신속하게 찾을 수있다.In step S980, by way of information sharing, the user's field of view can be expanded, so that the girl can be found more quickly.
일 실시예에서, 이미지 처리에 기초로 한 탐색 기능은 조기 경보 시스템의 서버에서 수행될 수있다. 따라서, 제 1웨어러블 디바이스의 부하를 줄일 수있다. 다른 실시예에서, 이미지 처리에 기초로 한 탐색 기능은 처리 속도를 가속 할 수있는 다른 웨어러블 디바이스들 사이에 분산 될 수 있다.In one embodiment, a search function based on image processing may be performed at the server of the early warning system. Therefore, the load of the first wearable device can be reduced. In another embodiment, the search functionality based on image processing may be distributed among other wearable devices that can accelerate processing speed.
이뿐만 아니라, 본 출원의 실시예에서 설명하는 장치의 각 부분(예를 들면 ‘부’)은 소프트웨어의 형태로 구현될 수 있을 뿐만 아니라 하드웨어의 형태로 구현될 수 도 있다. 장치의 각 부분은 프로세서(예를 들면 처리부(320))에서 제공될 수 있다.In addition, each part (for example, a part) of the device described in the embodiments of the present application may be implemented in the form of software as well as in the form of hardware. Each portion of the device may be provided in a processor (e.g., processing portion 320).
본 실시 예들에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. An apparatus according to the present embodiments may include a processor, a memory for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a user such as a touch panel, a key, Interface devices, and the like. Methods implemented with software modules or algorithms may be stored on a computer readable recording medium as computer readable codes or program instructions executable on the processor. Here, the computer-readable recording medium may be a magnetic storage medium such as a read-only memory (ROM), a random-access memory (RAM), a floppy disk, a hard disk, ), And a DVD (Digital Versatile Disc). The computer-readable recording medium may be distributed over networked computer systems so that computer readable code can be stored and executed in a distributed manner. The medium is readable by a computer, stored in a memory, and executable on a processor.
본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.This embodiment may be represented by functional block configurations and various processing steps. These functional blocks may be implemented in a wide variety of hardware and / or software configurations that perform particular functions. For example, embodiments may include integrated circuit components such as memory, processing, logic, look-up tables, etc., that may perform various functions by control of one or more microprocessors or other control devices Can be employed. Similar to how components may be implemented with software programming or software components, the present embodiments may be implemented in a variety of ways, including C, C ++, Java (" Java), an assembler, and the like. Functional aspects may be implemented with algorithms running on one or more processors. In addition, the present embodiment can employ conventional techniques for electronic environment setting, signal processing, and / or data processing. Terms such as "mechanism", "element", "means", "configuration" may be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.
본 실시 예에서 설명하는 특정 실행들은 예시들로서, 어떠한 방법으로도 기술적 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. The specific implementations described in this embodiment are illustrative and do not in any way limit the scope of the invention. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of such systems may be omitted. Also, the connections or connecting members of the lines between the components shown in the figures are illustrative of functional connections and / or physical or circuit connections, which may be replaced or additionally provided by a variety of functional connections, physical Connection, or circuit connections.
본 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 한정되는 것은 아니다. 모든 예들 또는 예시적인 용어(예를 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In this specification (particularly in the claims), the use of the terms " above " and similar indication words may refer to both singular and plural. In addition, when a range is described, it includes the individual values belonging to the above range (unless there is a description to the contrary), and the individual values constituting the above range are described in the detailed description. Finally, if there is no explicit description or contradiction to the steps constituting the method, the steps may be performed in an appropriate order. It is not necessarily limited to the description order of the above steps. The use of all examples or exemplary terms (e. G., Etc.) is merely intended to be illustrative of technical ideas and is not to be limited in scope by the examples or the illustrative terminology unless the context clearly dictates otherwise. It will also be appreciated by those skilled in the art that various modifications, combinations, and alterations may be made depending on design criteria and factors within the scope of the appended claims or equivalents thereof.
Claims (19)
상기 획득된 이미지 정보를 기초로 하여 상기 대상 객체의 물리적 특성을 검출하는 단계;
상기 검출된 물리적 특성을 이용하여 사용자의 안전을 위협하는 정도인 위험도를 결정하는 단계; 및
상기 결정된 사건의 위험도에 기초하여 사용자에게 경고를 제공하는 단계를 포함하는, 웨어러블 디바이스로 조기에 위험을 경고하는 방법.
Acquiring image information of a target object;
Detecting physical characteristics of the target object based on the obtained image information;
Determining a risk level that is a degree that threatens the safety of a user by using the detected physical characteristics; And
And providing a warning to the user based on the risk of the determined event.
상기 획득하는 단계는,
주위의 오디오 정보를 획득하고,
상기 검출하는 단계는,
상기 획득된 오디오 정보를 기초로 하여 오디오 특성을 검출하는, 웨어러블 디바이스로 조기에 위험을 경고하는 방법.
The method according to claim 1,
Wherein the acquiring comprises:
Acquires surrounding audio information,
Wherein the detecting comprises:
And detecting audio characteristics based on the obtained audio information.
상기 위험도를 결정하는 단계는,
상기 이미지 정보에 기초하여, 대상 객체가 상기 웨어러블 디바이스에 도달하는데 걸린 시간을 결정하는 단계; 및
상기 대상 객체의 물리적 특성, 상기 대상 객체가 상기 웨어러블 디바이스에 도달하는데 걸린 시간 및 상기 대상 객체의 오디오 특성 중 적어도 하나에 따라 상기 대상 객체에 대한 위험도를 결정하는 단계를 포함하는, 웨어러블 디바이스로 조기에 위험을 경고하는 방법.
3. The method of claim 2,
Wherein the step of determining the risk comprises:
Determining, based on the image information, the time it took for the target object to reach the wearable device; And
Determining a risk to the target object according to at least one of a physical characteristic of the target object, a time taken for the target object to reach the wearable device, and an audio characteristic of the target object. How to warn of danger.
상기 대상 객체의 물리적 특성은 사람의 얼굴, 몸통, 팔다리, 동물의 치아, 꼬리 또는 눈을 포함하는, 웨어러블 디바이스로 조기에 위험을 경고하는 방법.
The method according to claim 1,
Wherein the physical characteristics of the target object include a human face, torso, limb, animal's teeth, tail or eye.
상기 대상 객체의 오디오 특성은 볼륨, 피치, 멜 주파수 켑스트럼 계수(MFCC, Mel Frequency Cepstrum Coefficient), 사람의 대화 및 전력 표준화 켑스트럼 계수 (PNCC, Power Normalized Cepstral Coefficient) 중 적어도 하나를 포함하는, 웨어러블 디바이스로 조기에 위험을 경고하는 방법.
3. The method of claim 2,
Wherein the audio properties of the target object include at least one of volume, pitch, Mel Frequency Cepstrum Coefficient (MFCC), human conversation and Power Normalized Cepstral Coefficient (PNCC) , A way to warn a wearable device of an early warning of danger.
상기 획득하는 단계는,
기상 정보 또는 냄새 정보를 획득하는 단계를 포함하고,
상기 위험도를 결정하는 단계는,
상기 기상 정보 또는 냄새 정보에 기초하여 상기 위험도를 결정하는, 웨어러블 디바이스로 조기에 위험을 경고하는 방법.
The method according to claim 1,
Wherein the acquiring comprises:
Obtaining weather information or odor information,
Wherein the step of determining the risk comprises:
Wherein the risk is determined based on the weather information or odor information.
상기 경고를 제공하는 단계는,
상기 위험도에 따라 다른 방식으로 경고를 제공하는, 웨어러블 디바이스로 조기에 위험을 경고하는 방법.The method according to claim 1,
The providing of the alert may comprise:
A method for alerting a wearable device early to provide a warning in a different manner depending on the risk.
제 2 웨어러블 디바이스를 통하여 획득한 이미지 정보 또는 오디오 정보를 수신하는 단계를 더 포함하고,
상기 위험도를 결정하는 단계는,
상기 제 2웨어러블 디바이스로부터 수신된 정보에 기초하여 상기 위험도를 결정하는, 웨어러블 디바이스로 조기에 위험을 경고하는 방법.
The method according to claim 1,
Further comprising receiving image information or audio information acquired through a second wearable device,
Wherein the step of determining the risk comprises:
Wherein the risk is determined based on information received from the second wearable device.
상기 검출하는 단계는,
상기 이미지 정보를 이용해 대상 객체가 사람인지 여부를 검출하는 단계;및
상기 대상 객체가 사람이면, 상기 사람의 얼굴을 검출하는 단계를 포함하고,
상기 위험도를 결정하는 단계는,
상기 검출된 얼굴이 기 설정된 얼굴 데이터베이스에 있는지 여부에 따라 상기 위험도를 결정하는, 웨어러블 디바이스로 조기에 위험을 경고하는 방법.
The method according to claim 1,
Wherein the detecting comprises:
Detecting whether the target object is a person using the image information;
And detecting the face of the person if the target object is a person,
Wherein the step of determining the risk comprises:
And determines the risk according to whether the detected face is in a predetermined face database.
A computer-readable recording medium on which a computer program for executing the method according to any one of claims 1 to 9 is recorded.
상기 획득된 이미지 정보를 기초로 하여 상기 대상 객체의 물리적 특성을 검출하는 특성 검출부;
상기 검출된 물리적 특성을 이용하여 사용자의 안전을 위협하는 정도인 위험도를 결정하는 위험도 결정부; 및
상기 결정된 사건의 위험도에 기초하여 상기 사용자에게 경고를 하는 경고부를 포함하는, 조기에 위험을 경고하는 웨어러블 디바이스.
A sensing unit for acquiring image information of a target object;
A characteristic detector for detecting physical characteristics of the target object based on the obtained image information;
A risk determining unit that determines a risk level that is a degree that threatens the safety of a user by using the detected physical characteristics; And
And a warning section for warning the user based on the risk of the determined event.
상기 센싱부는,
상기 주위의 오디오 정보를 획득하고,
상기 특성 검출부는,
상기 획득된 오디오 정보를 기초로 하여 오디오 특성을 검출하는, 조기에 위험을 경고하는 웨어러블 디바이스.
12. The method of claim 11,
The sensing unit includes:
Acquiring the surrounding audio information,
Wherein the characteristic detecting unit comprises:
And detects an audio characteristic on the basis of the obtained audio information.
상기 위험도 결정부는,
상기 이미지 정보에 기초하여, 대상 객체가 상기 웨어러블 디바이스에 도달하는데 걸린 시간을 결정하고,
상기 대상 객체의 물리적 특성, 상기 대상 객체가 상기 웨어러블 디바이스에 도달하는데 걸린 시간 및 상기 대상 객체의 오디오 특성 중 적어도 하나에 따라 상기 대상 객체에 대한 위험도를 결정하는, 조기에 위험을 경고하는 웨어러블 디바이스.
13. The method of claim 12,
The risk-
Determining a time taken for the target object to reach the wearable device based on the image information,
Wherein the risk of the target object is determined based on at least one of a physical characteristic of the target object, a time taken for the target object to reach the wearable device, and an audio characteristic of the target object.
상기 대상 객체의 물리적 특성은 사람의 얼굴, 몸통, 팔다리, 동물의 치아, 꼬리 또는 눈을 포함하는, 웨어러블 디바이스로 조기에 위험을 경고하는 방법.
12. The method of claim 11,
Wherein the physical characteristics of the target object include a human face, torso, limb, animal's teeth, tail or eye.
상기 대상 객체의 오디오 특성은 볼륨, 피치, 멜 주파수 켑스트럼 계수(MFCC, Mel Frequency Cepstrum Coefficient), 사람의 대화 및 전력 표준화 켑스트럼 계수 (PNCC, Power Normalized Cepstral Coefficient) 중 적어도 하나를 포함하는, 조기에 위험을 경고하는 웨어러블 디바이스.
13. The method of claim 12,
Wherein the audio properties of the target object include at least one of volume, pitch, Mel Frequency Cepstrum Coefficient (MFCC), human conversation and Power Normalized Cepstral Coefficient (PNCC) , A wearable device that warns of danger early.
상기 센싱부는,
기상 정보 또는 냄새 정보를 획득하고,
상기 위험도 결정부는,
상기 기상 정보 또는 냄새 정보에 기초하여 상기 위험도를 결정하는, 조기에 위험을 경고하는 웨어러블 디바이스.
12. The method of claim 11,
The sensing unit includes:
Obtain weather information or odor information,
The risk-
And the risk is determined based on the meteorological information or odor information.
상기 경고부는,
상기 위험도에 따라 다른 방식으로 경고를 제공하는, 조기에 위험을 경고하는 웨어러블 디바이스.
12. The method of claim 11,
The warning unit,
A wearable device that warns of an early warning that provides an alert in a different way depending on the above risk.
제 2 웨어러블 디바이스를 통하여 획득한 이미지 정보 또는 오디오 정보를 수신하는 수신부를 더 포함하고,
상기 위험도 결정부는,
상기 제 2웨어러블 디바이스로부터 수신된 정보에 기초하여 상기 위험도를 결정하는, 조기에 위험을 경고하는 웨어러블 디바이스.12. The method of claim 11,
Further comprising a receiver for receiving image information or audio information acquired through a second wearable device,
The risk-
And the risk is determined based on information received from the second wearable device.
상기 특성 검출부는,
상기 이미지 정보를 이용해 대상 객체가 사람인지 여부를 검출하고, 상기 대상 객체가 사람이면, 상기 사람의 얼굴을 검출하고,
상기 위험도 결정부는,
상기 검출된 얼굴이 기 설정된 얼굴 데이터베이스에 있는지 여부에 따라 상기 위험도를 결정하는, 조기에 위험을 경고하는 웨어러블 디바이스.12. The method of claim 11,
Wherein the characteristic detecting unit comprises:
Detecting whether the target object is a person using the image information, detecting the face of the person if the target object is a person,
The risk-
And determines the risk according to whether or not the detected face is in a predetermined face database.
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US15/525,218 US10121075B2 (en) | 2014-11-06 | 2015-10-20 | Method and apparatus for early warning of danger |
| PCT/KR2015/011083 WO2016072644A1 (en) | 2014-11-06 | 2015-10-20 | Method and apparatus for early warning of danger |
| EP15857475.6A EP3217370A4 (en) | 2014-11-06 | 2015-10-20 | Method and apparatus for early warning of danger |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201410638409.6A CN105632049B (en) | 2014-11-06 | 2014-11-06 | A kind of early warning method and device based on wearable device |
| CN201410638409.6 | 2014-11-06 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20160054397A true KR20160054397A (en) | 2016-05-16 |
| KR102408257B1 KR102408257B1 (en) | 2022-06-13 |
Family
ID=56046924
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020150137084A Active KR102408257B1 (en) | 2014-11-06 | 2015-09-25 | The method and apparatus for early warning the danger |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US10121075B2 (en) |
| EP (1) | EP3217370A4 (en) |
| KR (1) | KR102408257B1 (en) |
| CN (1) | CN105632049B (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018124584A1 (en) * | 2016-12-28 | 2018-07-05 | 삼성전자 주식회사 | Personal safety device and operating method therefor |
| US10614693B2 (en) | 2018-04-10 | 2020-04-07 | Electronics And Telecommunications Research Institute | Dangerous situation notification apparatus and method |
| WO2021091094A1 (en) * | 2019-11-07 | 2021-05-14 | 한양대학교 산학협력단 | Artificial intelligence and internet of things-based architecture for safety and survival wearable system, electronic device for implementing same, and operation method thereof |
| KR102386208B1 (en) * | 2022-01-03 | 2022-04-15 | 주식회사 서플라이스 | Method and apparatus for detecting hazardous situations in fiteness center using neural network model |
| KR20220102831A (en) | 2021-01-14 | 2022-07-21 | (주)세이프티온솔루션 | Risk assessment based accident predction safety management device and method |
| CN115482645A (en) * | 2021-05-31 | 2022-12-16 | 漳州立达信光电子科技有限公司 | Object dangerous event detection method and device |
| WO2024177289A1 (en) * | 2023-02-20 | 2024-08-29 | 삼성전자주식회사 | Wearable device for placing virtual object corresponding to external object in virtual space, and method therefor |
Families Citing this family (60)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9500865B2 (en) * | 2013-03-04 | 2016-11-22 | Alex C. Chen | Method and apparatus for recognizing behavior and providing information |
| CN105632049B (en) * | 2014-11-06 | 2019-06-14 | 北京三星通信技术研究有限公司 | A kind of early warning method and device based on wearable device |
| JP6605442B2 (en) * | 2016-12-27 | 2019-11-13 | 本田技研工業株式会社 | Information providing apparatus and information providing method |
| US10567642B2 (en) * | 2017-02-24 | 2020-02-18 | International Business Machines Corporation | Managing camera usage with warnings and/or disablement |
| CN107491642B (en) * | 2017-08-17 | 2021-08-31 | 深圳先进技术研究院 | User's security protection method, device, device and storage medium |
| CN107729737B (en) * | 2017-11-08 | 2020-07-03 | 广东小天才科技有限公司 | A method for acquiring identity information and a wearable device |
| CN108169761B (en) * | 2018-01-18 | 2024-08-06 | 上海瀚莅电子科技有限公司 | Fire scene task determination method, device and system and computer readable storage medium |
| JP7095312B2 (en) * | 2018-03-01 | 2022-07-05 | オムロン株式会社 | Hazard level detection device, risk level detection method, and risk level detection program |
| CN108364440A (en) * | 2018-03-12 | 2018-08-03 | 深圳市沃特沃德股份有限公司 | Remind method and device of the children far from button in automobile |
| JP7225551B2 (en) * | 2018-03-23 | 2023-02-21 | 富士フイルムビジネスイノベーション株式会社 | Biting detection device and program |
| CN108922138A (en) * | 2018-06-22 | 2018-11-30 | 张小勇 | A kind of data processing method and system |
| US10607367B2 (en) | 2018-06-26 | 2020-03-31 | International Business Machines Corporation | Methods and systems for managing virtual reality sessions |
| CN108777055A (en) * | 2018-06-26 | 2018-11-09 | 上海理工大学 | A kind of multifunctional infant safety guard |
| CN110795971B (en) * | 2018-08-02 | 2023-02-17 | 深圳云天励飞技术有限公司 | User behavior identification method, device, equipment and computer storage medium |
| CN109151719B (en) * | 2018-09-28 | 2021-08-17 | 北京小米移动软件有限公司 | Secure boot method, device and storage medium |
| KR102699141B1 (en) * | 2018-10-12 | 2024-08-28 | 현대자동차주식회사 | Vehicle and method for outputting information |
| US10679602B2 (en) * | 2018-10-26 | 2020-06-09 | Facebook Technologies, Llc | Adaptive ANC based on environmental triggers |
| CN110197569B (en) * | 2018-11-19 | 2021-06-25 | 广东小天才科技有限公司 | A wearable device-based security monitoring method and wearable device |
| CN109472963B (en) * | 2018-11-29 | 2020-12-01 | 山西凯普勒科技有限公司 | a smart bracelet |
| CN109658666A (en) * | 2018-12-06 | 2019-04-19 | 中山乐心电子有限公司 | Danger protection method, equipment, system, electronic equipment and storage medium |
| CN109684989A (en) * | 2018-12-20 | 2019-04-26 | Oppo广东移动通信有限公司 | safety monitoring method, device, terminal and computer readable storage medium |
| CN109639906A (en) * | 2019-01-25 | 2019-04-16 | 维沃移动通信有限公司 | A kind of method for early warning and mobile terminal |
| US11076274B1 (en) * | 2019-01-28 | 2021-07-27 | United Services Automobile Association (Usaa) | Monitoring of data to predict driving events |
| CN110175593A (en) * | 2019-05-31 | 2019-08-27 | 努比亚技术有限公司 | Suspect object processing method, wearable device and computer readable storage medium |
| JP7462386B2 (en) * | 2019-06-14 | 2024-04-05 | 株式会社シマノ | DETECTION APPARATUS, DETECTION METHOD, GENERATION METHOD, COMPUTER PROGRAM, AND STORAGE MEDIUM |
| CN110414390A (en) * | 2019-07-13 | 2019-11-05 | 恒大智慧科技有限公司 | Canine recognition methods, system and readable storage medium storing program for executing in a kind of community |
| CN110555987A (en) * | 2019-08-01 | 2019-12-10 | 宝能汽车有限公司 | wisdom wearing equipment |
| CN112419661A (en) * | 2019-08-20 | 2021-02-26 | 北京国双科技有限公司 | Danger identification method and device |
| JP7296626B2 (en) * | 2019-08-26 | 2023-06-23 | 株式会社Agama-X | Information processing device and program |
| CN112561113B (en) * | 2019-09-25 | 2025-02-14 | 华为技术有限公司 | Dangerous scene warning method and terminal equipment |
| CN110807895A (en) * | 2019-10-14 | 2020-02-18 | 珠海市魅族科技有限公司 | Monitoring method, device, equipment and storage medium based on intelligent wearable equipment |
| CN111009105B (en) * | 2019-12-28 | 2022-03-08 | 杭州好育信息科技有限公司 | Communication method and system based on intelligent wearable device |
| CN111179542A (en) * | 2020-01-03 | 2020-05-19 | 甄十信息科技(上海)有限公司 | Intelligent watch and safety monitoring method thereof |
| CN111479127A (en) * | 2020-02-27 | 2020-07-31 | 视联动力信息技术股份有限公司 | Data processing method, device and computer readable storage medium |
| CN111833575A (en) * | 2020-07-15 | 2020-10-27 | 徐州炫云信息科技有限公司 | Bluetooth type prevention and control system for medical risk prevention and control |
| US12251991B2 (en) | 2020-08-20 | 2025-03-18 | Denso International America, Inc. | Humidity control for olfaction sensors |
| US11760170B2 (en) | 2020-08-20 | 2023-09-19 | Denso International America, Inc. | Olfaction sensor preservation systems and methods |
| US11932080B2 (en) | 2020-08-20 | 2024-03-19 | Denso International America, Inc. | Diagnostic and recirculation control systems and methods |
| US12269315B2 (en) | 2020-08-20 | 2025-04-08 | Denso International America, Inc. | Systems and methods for measuring and managing odor brought into rental vehicles |
| US12377711B2 (en) | 2020-08-20 | 2025-08-05 | Denso International America, Inc. | Vehicle feature control systems and methods based on smoking |
| US11828210B2 (en) | 2020-08-20 | 2023-11-28 | Denso International America, Inc. | Diagnostic systems and methods of vehicles using olfaction |
| US11760169B2 (en) | 2020-08-20 | 2023-09-19 | Denso International America, Inc. | Particulate control systems and methods for olfaction sensors |
| US12017506B2 (en) | 2020-08-20 | 2024-06-25 | Denso International America, Inc. | Passenger cabin air control systems and methods |
| US11881093B2 (en) | 2020-08-20 | 2024-01-23 | Denso International America, Inc. | Systems and methods for identifying smoking in vehicles |
| US11813926B2 (en) | 2020-08-20 | 2023-11-14 | Denso International America, Inc. | Binding agent and olfaction sensor |
| US11636870B2 (en) | 2020-08-20 | 2023-04-25 | Denso International America, Inc. | Smoking cessation systems and methods |
| CN112738471A (en) * | 2020-12-28 | 2021-04-30 | 詹晨 | Security monitoring data processing method based on Internet of things and artificial intelligence and cloud communication server |
| US11961392B2 (en) * | 2021-03-04 | 2024-04-16 | The University Of North Carolina At Charlotte | Worker-in-the-loop real time safety system for short-duration highway workzones |
| CN113099178B (en) * | 2021-04-01 | 2021-12-03 | 广州市宁葳信息科技有限公司 | Intelligent community safety online real-time monitoring and early warning method based on video remote monitoring |
| US12050261B2 (en) * | 2021-05-12 | 2024-07-30 | California State University Fresno Foundation | System and method for human and animal detection in low visibility |
| EP4130936A1 (en) * | 2021-08-02 | 2023-02-08 | BAE SYSTEMS plc | Positioning apparatus and method |
| CN113470313B (en) * | 2021-09-02 | 2021-11-19 | 广州乐盈信息科技股份有限公司 | Emergency alarm system based on cloud pipe end |
| CN114821738A (en) * | 2022-05-13 | 2022-07-29 | 睿云奇智(青岛)科技有限公司 | Safety early warning method and device, computer equipment and readable storage medium |
| CN115002598B (en) * | 2022-05-26 | 2024-02-13 | 歌尔股份有限公司 | Headset mode control method, headset device, head-mounted device and storage medium |
| CN115049987B (en) * | 2022-08-12 | 2022-11-04 | 星宠王国(北京)科技有限公司 | Pet safety management method, system, computer equipment and storage medium |
| CN115790569A (en) * | 2022-11-14 | 2023-03-14 | 歌尔科技有限公司 | Head-mounted display device and navigation method for assisting navigation |
| CN116249228A (en) * | 2022-12-09 | 2023-06-09 | 深圳曲速空间科技有限公司 | Auxiliary method, device and electronic equipment for reducing information packet loss in wireless data transmission |
| US12299557B1 (en) | 2023-12-22 | 2025-05-13 | GovernmentGPT Inc. | Response plan modification through artificial intelligence applied to ambient data communicated to an incident commander |
| US12392583B2 (en) | 2023-12-22 | 2025-08-19 | John Bridge | Body safety device with visual sensing and haptic response using artificial intelligence |
| CN118692031B (en) * | 2024-08-26 | 2024-11-19 | 苏州奥特兰恩自动化设备有限公司 | Potential danger identification system based on environment perception |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010081480A (en) * | 2008-09-29 | 2010-04-08 | Fujifilm Corp | Portable suspicious individual detecting apparatus, suspicious individual detecting method, and program |
| KR101033037B1 (en) * | 2003-06-30 | 2011-05-13 | 소니 주식회사 | Communication device and control method |
| KR20140020177A (en) * | 2012-08-07 | 2014-02-18 | 한양대학교 산학협력단 | Wearable display deice having sensing function |
Family Cites Families (27)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB9929745D0 (en) * | 1999-12-17 | 2000-02-09 | Secr Defence | Determining the efficiency of respirators and protective clothing and other improvements |
| US7921036B1 (en) | 2002-04-30 | 2011-04-05 | Videomining Corporation | Method and system for dynamically targeting content based on automatic demographics and behavior analysis |
| JP2007514253A (en) | 2003-09-30 | 2007-05-31 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Image item display method, apparatus, and computer program for music content |
| JP2007221328A (en) * | 2006-02-15 | 2007-08-30 | Sony Corp | Command system, imaging device, command device, imaging processing method, command processing method, program |
| US8928752B2 (en) * | 2006-08-31 | 2015-01-06 | Stellar Llc | Recording device with pre-start signal storage capability |
| JP2009010831A (en) | 2007-06-29 | 2009-01-15 | Toshiba Corp | Image analysis apparatus and image analysis method |
| CN101108125B (en) | 2007-08-02 | 2010-06-16 | 无锡微感科技有限公司 | Dynamic monitoring system of body sign |
| US9368028B2 (en) * | 2011-12-01 | 2016-06-14 | Microsoft Technology Licensing, Llc | Determining threats based on information from road-based devices in a transportation-related context |
| US9107012B2 (en) | 2011-12-01 | 2015-08-11 | Elwha Llc | Vehicular threat detection based on audio signals |
| JP2013171476A (en) | 2012-02-22 | 2013-09-02 | Nec Corp | Portable back camera system for face recognition crime prevention and crime prevention determination method used for the same |
| US20130250080A1 (en) * | 2012-03-23 | 2013-09-26 | Megan Farrell | Modularized mobile health and security system |
| US9568735B2 (en) * | 2012-08-07 | 2017-02-14 | Industry-University Cooperation Foundation Hanyang University | Wearable display device having a detection function |
| US9465216B2 (en) * | 2012-08-07 | 2016-10-11 | Industry-University Cooperation Foundation Hanyang University | Wearable display device |
| KR101321157B1 (en) * | 2012-08-07 | 2013-10-23 | 한양대학교 산학협력단 | Wearable display deice having sliding structure |
| KR20140024712A (en) | 2012-08-21 | 2014-03-03 | 홍순선 | User location based monitoring service providing method for user surroundings image using smart device |
| TWI486915B (en) | 2012-10-25 | 2015-06-01 | Hon Hai Prec Ind Co Ltd | Personal protective equipment, danger early-waning system and method |
| CN103106374B (en) * | 2013-01-15 | 2016-07-06 | 广东欧珀移动通信有限公司 | The safe early warning processing method of prompting mobile terminal user, system and mobile terminal |
| JP2015041969A (en) * | 2013-08-23 | 2015-03-02 | ソニー株式会社 | Image acquisition apparatus, image acquisition method, and information distribution system. |
| KR101395614B1 (en) | 2013-12-06 | 2014-05-16 | 조원석 | Device for pulse-measuring and image-recording and transmitting using smart-watch |
| US9360682B1 (en) * | 2014-05-07 | 2016-06-07 | Remote Xccess, LLC | Camera headband device and system with attachable apparatus |
| CN203872286U (en) * | 2014-05-26 | 2014-10-08 | 北京中电兴发科技有限公司 | Intelligent monitoring device |
| US20160112636A1 (en) * | 2014-10-20 | 2016-04-21 | Panasonic Intellectual Property Management Co., Ltd. | Wearable camera |
| CN105632049B (en) * | 2014-11-06 | 2019-06-14 | 北京三星通信技术研究有限公司 | A kind of early warning method and device based on wearable device |
| GB2536215B (en) * | 2015-03-05 | 2018-01-31 | Samsung Electronics Co Ltd | Secure input mode for user device |
| US20170195640A1 (en) * | 2016-01-06 | 2017-07-06 | Advanced Wireless Innovations Llc | Wireless security system |
| US10102732B2 (en) * | 2016-06-28 | 2018-10-16 | Infinite Designs, LLC | Danger monitoring system |
| US9934658B1 (en) * | 2016-09-14 | 2018-04-03 | Siemens Industry, Inc. | Visually-impaired-accessible building safety system |
-
2014
- 2014-11-06 CN CN201410638409.6A patent/CN105632049B/en active Active
-
2015
- 2015-09-25 KR KR1020150137084A patent/KR102408257B1/en active Active
- 2015-10-20 EP EP15857475.6A patent/EP3217370A4/en not_active Withdrawn
- 2015-10-20 US US15/525,218 patent/US10121075B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101033037B1 (en) * | 2003-06-30 | 2011-05-13 | 소니 주식회사 | Communication device and control method |
| JP2010081480A (en) * | 2008-09-29 | 2010-04-08 | Fujifilm Corp | Portable suspicious individual detecting apparatus, suspicious individual detecting method, and program |
| KR20140020177A (en) * | 2012-08-07 | 2014-02-18 | 한양대학교 산학협력단 | Wearable display deice having sensing function |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018124584A1 (en) * | 2016-12-28 | 2018-07-05 | 삼성전자 주식회사 | Personal safety device and operating method therefor |
| US10964191B2 (en) | 2016-12-28 | 2021-03-30 | Samsung Electronics Co., Ltd. | Personal safety device and operating method therefor |
| US10614693B2 (en) | 2018-04-10 | 2020-04-07 | Electronics And Telecommunications Research Institute | Dangerous situation notification apparatus and method |
| WO2021091094A1 (en) * | 2019-11-07 | 2021-05-14 | 한양대학교 산학협력단 | Artificial intelligence and internet of things-based architecture for safety and survival wearable system, electronic device for implementing same, and operation method thereof |
| KR20220102831A (en) | 2021-01-14 | 2022-07-21 | (주)세이프티온솔루션 | Risk assessment based accident predction safety management device and method |
| CN115482645A (en) * | 2021-05-31 | 2022-12-16 | 漳州立达信光电子科技有限公司 | Object dangerous event detection method and device |
| KR102386208B1 (en) * | 2022-01-03 | 2022-04-15 | 주식회사 서플라이스 | Method and apparatus for detecting hazardous situations in fiteness center using neural network model |
| WO2024177289A1 (en) * | 2023-02-20 | 2024-08-29 | 삼성전자주식회사 | Wearable device for placing virtual object corresponding to external object in virtual space, and method therefor |
Also Published As
| Publication number | Publication date |
|---|---|
| EP3217370A1 (en) | 2017-09-13 |
| CN105632049B (en) | 2019-06-14 |
| US10121075B2 (en) | 2018-11-06 |
| EP3217370A4 (en) | 2018-01-17 |
| CN105632049A (en) | 2016-06-01 |
| US20170323161A1 (en) | 2017-11-09 |
| KR102408257B1 (en) | 2022-06-13 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102408257B1 (en) | The method and apparatus for early warning the danger | |
| EP3583485B1 (en) | Computationally-efficient human-identifying smart assistant computer | |
| Vallabh et al. | Fall detection monitoring systems: a comprehensive review | |
| Litvak et al. | Fall detection of elderly through floor vibrations and sound | |
| US11010601B2 (en) | Intelligent assistant device communicating non-verbal cues | |
| JP6494062B2 (en) | Autonomous robot that recognizes the direction of the sound source | |
| US20180018987A1 (en) | System and method for identifying language register | |
| Ntanasis et al. | Investigation of sensor placement for accurate fall detection | |
| US10614693B2 (en) | Dangerous situation notification apparatus and method | |
| CN101221621A (en) | Method and system for alerting a supervised user to the behavior of a monitored user | |
| US11373513B2 (en) | System and method of managing personal security | |
| CH720407B1 (en) | A method implemented by a computer and system to warn a visually impaired user of the presence of an object and/or obstacle | |
| Kaushal et al. | Smart Blind Stick for Visually Impaired People using IoT | |
| Zhang et al. | A novel fuzzy logic algorithm for accurate fall detection of smart wristband | |
| CN121039657A (en) | Classify data items using regularized similarity values. | |
| Taghvaei et al. | Autoregressive-moving-average hidden Markov model for vision-based fall prediction—An application for walker robot | |
| Ahn et al. | Personalized behavior pattern recognition and unusual event detection for mobile users | |
| Youm et al. | Development of a methodology to predict and monitor emergency situations of the elderly based on object detection | |
| CN116421172A (en) | Accidental injury monitoring method, wearable device, electronic device and storage medium | |
| Hassan et al. | Comparative analysis of machine learning algorithms for classification of environmental sounds and fall detection | |
| Naronglerdrit et al. | Monitoring of indoors human activities using mobile phone audio recordings | |
| KR101627533B1 (en) | System and method for predicting of user situation, and recording medium for performing the method | |
| WO2016072644A1 (en) | Method and apparatus for early warning of danger | |
| CN113781278B (en) | Event prompting method, device, equipment and storage medium based on feature recognition | |
| Kumar et al. | Object Detection for Assisting Blind Individuals Using ESP32-CAM and GPS |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20150925 |
|
| PG1501 | Laying open of application | ||
| PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20200313 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20150925 Comment text: Patent Application |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20210910 Patent event code: PE09021S01D |
|
| AMND | Amendment | ||
| E601 | Decision to refuse application | ||
| PE0601 | Decision on rejection of patent |
Patent event date: 20220201 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20210910 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |
|
| X091 | Application refused [patent] | ||
| AMND | Amendment | ||
| PX0901 | Re-examination |
Patent event code: PX09011S01I Patent event date: 20220201 Comment text: Decision to Refuse Application Patent event code: PX09012R01I Patent event date: 20211108 Comment text: Amendment to Specification, etc. |
|
| PX0701 | Decision of registration after re-examination |
Patent event date: 20220308 Comment text: Decision to Grant Registration Patent event code: PX07013S01D Patent event date: 20220303 Comment text: Amendment to Specification, etc. Patent event code: PX07012R01I Patent event date: 20220201 Comment text: Decision to Refuse Application Patent event code: PX07011S01I Patent event date: 20211108 Comment text: Amendment to Specification, etc. Patent event code: PX07012R01I |
|
| X701 | Decision to grant (after re-examination) | ||
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20220608 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20220609 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration |