[go: up one dir, main page]

JP7225551B2 - Biting detection device and program - Google Patents

Biting detection device and program Download PDF

Info

Publication number
JP7225551B2
JP7225551B2 JP2018056981A JP2018056981A JP7225551B2 JP 7225551 B2 JP7225551 B2 JP 7225551B2 JP 2018056981 A JP2018056981 A JP 2018056981A JP 2018056981 A JP2018056981 A JP 2018056981A JP 7225551 B2 JP7225551 B2 JP 7225551B2
Authority
JP
Japan
Prior art keywords
image information
animal
biting
unit
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018056981A
Other languages
Japanese (ja)
Other versions
JP2019168989A (en
Inventor
英樹 山崎
玲子 齋藤
義文 板東
知世 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2018056981A priority Critical patent/JP7225551B2/en
Publication of JP2019168989A publication Critical patent/JP2019168989A/en
Application granted granted Critical
Publication of JP7225551B2 publication Critical patent/JP7225551B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、噛みつき検知装置及びプログラムに関する。 The present invention relates to a biting detection device and program.

例えば、特許文献1には、撮影した人の身体的特徴を表すユーザ情報及び当該人の動き又は身振り手振りを含むモーション情報に基づいて、当該人の動きを含む行動を認識する認識データ伝送装置が記載されている。この認識データ伝送装置は、撮影した映像から人の身体の一部又は全部の特徴量を検出し、検出した特徴量から映像中の人を特定する。また、この認識データ伝送装置は、特定した人に関する特徴量から人の身体的特徴を表すユーザ情報を検出し、撮影した映像からユーザの動き又は身振り手振りを含むモーション情報を検出する。そして、この認識データ伝送装置は、検出したモーション情報及びユーザ情報から、人の動きを含む行動を認識し、認識した行動情報を人の行動毎に分割し、分割した行動情報をブロックデータとして生成し、生成したブロックデータをブロック毎に外部に伝送する。 For example, Patent Literature 1 discloses a recognition data transmission device that recognizes actions including the movements of a person based on user information representing the physical characteristics of a photographed person and motion information including the movements or gestures of the person. Are listed. This recognition data transmission device detects a feature amount of a part or the whole of a person's body from a photographed image, and identifies a person in the image from the detected feature amount. Also, this recognition data transmission device detects user information representing the physical characteristics of the person from the feature amount of the specified person, and detects motion information including user movement or gestures from the captured image. Then, this recognition data transmission device recognizes actions including human movements from the detected motion information and user information, divides the recognized action information for each human action, and generates the divided action information as block data. and transmits the generated block data to the outside for each block.

国際公開第2015/093330号パンフレットInternational Publication No. 2015/093330 pamphlet

ところで、例えば、保育園や幼稚園等の幼児を預かる施設では、幼児同士の噛みつきが頻繁に発生しており、監督責任を施設側に負わされることが少なくない。施設の保育士等は、1人で多くの幼児の行動を監視しつつ、煩雑な事務処理も行うため、幼児同士の噛みつきが発生しても気付くことができない場合が多い。従来、人等の動物の行動を見守るための技術は提案されているが、複数の動物間での噛みつきの発生を検知する技術についての提案は見当たらない。 By the way, for example, in nursery schools, kindergartens, and other facilities that take care of young children, biting occurs frequently between young children, and it is not uncommon for the facilities to take responsibility for supervision. A nursery teacher or the like in a facility, while monitoring the actions of many infants alone, also performs complicated paperwork, so in many cases, even if infants bite each other, they cannot notice it. Conventionally, techniques for watching the behavior of animals such as humans have been proposed, but no proposals have been found for techniques for detecting the occurrence of biting between a plurality of animals.

本発明は、複数の動物間での噛みつきの発生を検知することができる噛みつき検知装置及びプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a biting detection device and program capable of detecting the occurrence of biting between a plurality of animals.

上記目的を達成するために、請求項1に記載の噛みつき検知装置は、複数の動物を撮影して画像情報を得る撮影部と、前記撮影部により得られた画像情報から一方の動物の口が他方の動物の一部に接触していることが検知された場合に、噛みつきの発生を報知する報知部と、前記画像情報から前記一方の動物の口が前記他方の動物の一部に接触していることが検知され、かつ、前記画像情報から得られる前記一方の動物の深度と前記他方の動物の深度との差が第1閾値以下である場合に、噛みつきが発生していると判定する判定部と、を備えている。 In order to achieve the above object, the bite detection device according to claim 1 comprises a photographing unit for photographing a plurality of animals to obtain image information, and a mouth of one animal based on the image information obtained by the photographing unit. a notification unit that notifies occurrence of biting when contact with a part of the other animal is detected; and when the difference between the depth of the one animal and the depth of the other animal obtained from the image information is equal to or less than a first threshold, it is determined that the bite has occurred. and a determination unit .

また、請求項に記載の噛みつき検知装置は、複数の動物を撮影して画像情報を得る撮影部と、前記撮影部により得られた画像情報から一方の動物の口が他方の動物の一部に接触していることが検知された場合に、噛みつきの発生を報知する報知部と、前記画像情報から前記一方の動物の口が前記他方の動物の一部に接触していることが検知され、かつ、前記画像情報から得られる前記一方の動物と前記他方の動物との深度方向と直交する方向における距離が第2閾値以下である場合に、噛みつきが発生していると判定する判定部と、を備えている。 Further, the biting detection device according to claim 2 comprises: a photographing unit for photographing a plurality of animals to obtain image information; and a notification unit that notifies occurrence of biting when it is detected that the mouth of the one animal is in contact with a part of the other animal from the image information. and a determination unit that determines that a bite has occurred when a distance between the one animal and the other animal obtained from the image information in a direction perpendicular to the depth direction is equal to or less than a second threshold. , is equipped with

また、請求項に記載の噛みつき検知装置は、複数の動物を撮影して画像情報を得る撮影部と、前記撮影部により得られた画像情報から一方の動物の口が他方の動物の一部に接触していることが検知された場合に、噛みつきの発生を報知する報知部と、前記画像情報から前記一方の動物の口が前記他方の動物の一部に接触していることが検知され、かつ、前記画像情報から前記他方の動物の身体的変化が予め定められた変化であることが検知された場合に、噛みつきが発生していると判定する判定部と、を備えている。 Further, the biting detection device according to claim 3 comprises: a photographing unit for photographing a plurality of animals to obtain image information; and a notification unit that notifies occurrence of biting when it is detected that the mouth of the one animal is in contact with a part of the other animal from the image information. and a determination unit that determines that a bite has occurred when it is detected from the image information that the physical change of the other animal is a predetermined change.

また、請求項に記載の噛みつき検知装置は、請求項に記載の発明において、前記身体的変化が、表情の変化であり、前記予め定められた変化が、苦痛を表す表情への変化であるとされている。 A fourth aspect of the present invention is a biting detection device according to the third aspect of the invention, wherein the physical change is a change in facial expression, and the predetermined change is a change to a facial expression expressing pain. It is said that there is

また、請求項に記載の噛みつき検知装置は、複数の動物を撮影して画像情報を得る撮影部と、前記撮影部により得られた画像情報から一方の動物の口が他方の動物の一部に接触していることが検知された場合に、噛みつきの発生を報知する報知部と、前記複数の動物の各々から音声情報を取得する音声取得部と、前記画像情報から前記一方の動物の口が前記他方の動物の一部に接触していることが検知され、かつ、前記音声取得部により取得された音声情報により示される音声が予め定められた音声であることが検知された場合に、噛みつきが発生していると判定する判定部と、を備えている。 Further, the biting detection device according to claim 5 comprises: a photographing unit for photographing a plurality of animals and obtaining image information; a notification unit that notifies occurrence of biting when it is detected that the animal is in contact with the mouth of the one animal, a voice acquisition unit that acquires voice information from each of the plurality of animals, and the mouth of the one animal from the image information is detected to be in contact with a part of the other animal, and when it is detected that the sound indicated by the sound information acquired by the sound acquisition unit is a predetermined sound, and a determination unit that determines that biting has occurred.

また、請求項に記載の噛みつき検知装置は、請求項に記載の発明において、前記予め定められた音声が、悲鳴、苦痛を表す言葉、及び噛みつきの制止を促す言葉の少なくとも1つであるとされている。 Further, in the bite detection device according to claim 6 , in the invention according to claim 5 , the predetermined sound is at least one of a scream, a word expressing pain, and a word prompting to stop biting. It is said that

また、請求項に記載の噛みつき検知装置は、複数の動物を撮影して画像情報を得る撮影部と、前記撮影部により得られた画像情報から一方の動物の口が他方の動物の一部に接触していることが検知された場合に、噛みつきの発生を報知する報知部と、前記撮影部により得られた画像情報を録画する録画部と、を備え、前記録画部が、前記画像情報から得られる前記一方の動物の深度と前記他方の動物の深度との差が第1閾値以下で、かつ、前記画像情報から得られる前記一方の動物と前記他方の動物との深度方向と直交する方向における距離が第2閾値以下である場合に、前記画像情報の録画を開始する。 Further, the biting detection device according to claim 7 comprises: a photographing unit for photographing a plurality of animals to obtain image information; and a recording unit for recording image information obtained by the imaging unit, wherein the recording unit is configured to record the image information A difference between the depth of the one animal and the depth of the other animal obtained from is equal to or less than a first threshold, and is perpendicular to the depth direction of the one animal and the other animal obtained from the image information If the distance in the direction is less than or equal to a second threshold, start recording the image information.

また、請求項に記載の噛みつき検知装置は、請求項に記載の発明において、予め定められた一時記憶領域及び非一時記憶領域を含む記憶部を更に備え、前記録画部が、録画を開始してから、噛みつきの発生までの間に得られる画像情報を前記一時記憶領域に上書きで録画し、噛みつきが発生した場合、前記一時記憶領域に上書きで録画された画像情報を前記非一時記憶領域に移動させ、かつ、噛みつきの発生以後に得られる画像情報を前記非一時記憶領域に録画する。 According to an eighth aspect of the present invention, there is provided a biting detection device according to the seventh aspect of the invention, further comprising a storage unit including a predetermined temporary storage area and a non-temporary storage area, wherein the recording unit starts recording. After that, the image information obtained until the bite occurs is overwritten and recorded in the temporary storage area, and when the bite occurs, the image information overwritten and recorded in the temporary storage area is recorded in the non-temporary storage area. , and the image information obtained after the occurrence of the biting is recorded in the non-temporary storage area.

また、請求項に記載の噛みつき検知装置は、請求項に記載の発明において、前記録画部が、前記噛みつきの発生以後に得られる画像情報から前記一方の動物の口が前記他方の動物の一部に接触していることが検知されなくなった場合に、前記画像情報の録画を終了する。 Further, the biting detection device according to claim 9 is characterized in that, in the invention according to claim 8 , the recording unit detects the mouth of the one animal from the image information obtained after the occurrence of the bite. The recording of the image information is ended when it is no longer detected that the part is touched.

更に、上記目的を達成するために、請求項10に記載のプログラムは、コンピュータを、請求項1~のいずれか1項に記載の噛みつき検知装置が備える報知部及び判定部、又は、請求項7~9のいずれか1項に記載の噛みつき検知装置が備える報知部及び録画部として機能させる。 Further, in order to achieve the above object, the program according to claim 10 is a program according to claim 10, wherein a computer is provided with the reporting unit and determination unit of the biting detection device according to any one of claims 1 to 6 , or It functions as a notification unit and a recording unit provided in the biting detection device according to any one of items 7 to 9 .

請求項1及び請求項10に係る発明によれば、複数の動物間での噛みつきの発生を検知することができる。
また、深度の差を考慮しない場合と比較して、複数の動物間での噛みつきの発生を精度良く検知することができる。
According to the inventions of claims 1 and 10 , occurrence of biting between a plurality of animals can be detected.
In addition, it is possible to detect the occurrence of biting between a plurality of animals with high accuracy compared to the case where the difference in depth is not taken into account.

請求項に係る発明によれば、深度方向と直交する方向における距離を考慮しない場合と比較して、複数の動物間での噛みつきの発生を精度良く検知することができる。 According to the second aspect of the invention, it is possible to accurately detect the occurrence of biting between a plurality of animals, compared to the case where the distance in the direction orthogonal to the depth direction is not considered.

請求項に係る発明によれば、身体的変化を考慮しない場合と比較して、複数の動物間での噛みつきの発生を精度良く検知することができる。 According to the third aspect of the invention, it is possible to detect the occurrence of biting between a plurality of animals with high accuracy, compared with the case where physical changes are not considered.

請求項に係る発明によれば、苦痛を表す表情への変化を検知しない場合と比較して、複数の動物間での噛みつきの発生を精度良く検知することができる。 According to the fourth aspect of the invention, it is possible to detect the occurrence of biting between a plurality of animals with high accuracy, compared to the case where a change to a facial expression expressing pain is not detected.

請求項に係る発明によれば、噛みつきの判定に画像情報のみを用いる場合と比較して、複数の動物間での噛みつきの発生を精度良く検知することができる。 According to the fifth aspect of the present invention, it is possible to accurately detect the occurrence of biting between a plurality of animals, compared to the case where only image information is used for biting determination.

請求項に係る発明によれば、悲鳴、苦痛を表す言葉、及び噛みつきの制止を促す言葉の少なくとも1つを伴う複数の動物間での噛みつきの発生を精度良く検知することができる。 According to the sixth aspect of the invention, it is possible to accurately detect the occurrence of biting between a plurality of animals accompanied by at least one of a scream, a word expressing pain, and a word prompting to stop biting.

請求項に係る発明によれば、噛みつきの発生の様子を後で確認することができる。
また、深度の差及び深度方向と直交する方向における距離を考慮しない場合と比較して、噛みつきが発生する可能性が高い画像情報を録画することができる。
According to the seventh aspect of the invention, it is possible to confirm later how biting occurs.
In addition, compared to the case where the depth difference and the distance in the direction perpendicular to the depth direction are not taken into account, it is possible to record image information with a high possibility of biting.

請求項に係る発明によれば、上書き録画を行わない場合と比較して、記憶部の記憶領域を効率的に利用することができる。 According to the eighth aspect of the invention, the storage area of the storage unit can be used more efficiently than when overwrite recording is not performed.

請求項に係る発明によれば、噛みつきが終了した後の画像情報が録画されてしまうことを防止することができる。 According to the ninth aspect of the invention, it is possible to prevent image information from being recorded after the biting is finished.

第1の実施形態に係る噛みつき検知システムの構成の一例を示すブロック図である。1 is a block diagram showing an example of the configuration of a bite detection system according to a first embodiment; FIG. 第1の実施形態に係る噛みつき検知装置の電気的な構成の一例を示すブロック図である。1 is a block diagram showing an example of an electrical configuration of a biting detection device according to a first embodiment; FIG. 第1の実施形態に係る噛みつき検知装置の機能的な構成の一例を示すブロック図である。It is a block diagram showing an example of functional composition of a biting detection device concerning a 1st embodiment. 実施形態に係る噛みつき発生と判定される画像の一例を示す図である。FIG. 10 is a diagram showing an example of an image determined as occurrence of a bite according to the embodiment; 実施形態に係る深度差及び隣接距離の一例を示す模式図である。It is a schematic diagram which shows an example of the depth difference and adjacent distance which concern on embodiment. 実施形態に係る深度差及び隣接距離の他の例を示す模式図である。FIG. 10 is a schematic diagram showing another example of the depth difference and the adjacent distance according to the embodiment; 第1の実施形態に係る判定条件テーブルの一例を示す図である。It is a figure which shows an example of the determination condition table which concerns on 1st Embodiment. 第1の実施形態に係る噛みつき検知プログラムの処理の流れの一例を示すフローチャートである。4 is a flow chart showing an example of the flow of processing of a biting detection program according to the first embodiment; 実施形態に係る判定条件選択画面の一例を示す正面図である。FIG. 5 is a front view showing an example of a determination condition selection screen according to the embodiment; 第2の実施形態に係る噛みつき検知装置の機能的な構成の一例を示すブロック図である。FIG. 7 is a block diagram showing an example of a functional configuration of a biting detection device according to a second embodiment; FIG. 第2の実施形態に係る判定条件テーブルの一例を示す図である。FIG. 11 is a diagram showing an example of a determination condition table according to the second embodiment; FIG.

以下、図面を参照して、本発明を実施するための形態の一例について詳細に説明する。 Hereinafter, an example of a mode for carrying out the present invention will be described in detail with reference to the drawings.

[第1の実施形態]
図1は、第1の実施形態に係る噛みつき検知システム90の構成の一例を示すブロック図である。
図1に示すように、本実施形態に係る噛みつき検知システム90は、噛みつき検知装置10と、端末装置50と、を備えている。
[First embodiment]
FIG. 1 is a block diagram showing an example of the configuration of a biting detection system 90 according to the first embodiment.
As shown in FIG. 1 , a bite detection system 90 according to this embodiment includes a bite detection device 10 and a terminal device 50 .

本実施形態に係る噛みつき検知装置10は、ネットワークNを介して、端末装置50と接続されている。なお、ネットワークNには、一例として、インターネットや、LAN(Local Area Network)、WAN(Wide Area Network)等が適用される。噛みつき検知装置10は、一例として、保育園や幼稚園等の幼児を預かる施設に設置されている。この場合、噛みつき検知装置10は、人の一例である幼児の行動を撮影した画像情報から、幼児同士の噛みつきの発生や、幼児の保育士への噛みつきの発生等を検知する。なお、噛みつき検知装置10は、認知症や発達障害等の患者を預かる施設に設置されていてもよい。また、本実施形態では、噛みつき検知の対象を人としたが、犬や猫等も含まれる。本実施形態に係る噛みつき検知の対象は、少なくとも口を有する動物全般が対象とされ得る。 A biting detection device 10 according to this embodiment is connected to a terminal device 50 via a network N. As shown in FIG. The network N may be, for example, the Internet, a LAN (Local Area Network), a WAN (Wide Area Network), or the like. The biting detection device 10 is installed, for example, in facilities such as nursery schools and kindergartens that take care of young children. In this case, the biting detection device 10 detects the occurrence of biting between children, the biting of a child by a nursery teacher, and the like from image information obtained by photographing the behavior of a child, which is an example of a person. The bite detection device 10 may be installed in a facility that takes care of patients with dementia, developmental disorders, or the like. Also, in the present embodiment, the biting detection target is human, but dogs, cats, and the like are also included. Targets for biting detection according to the present embodiment can be all animals having at least a mouth.

本実施形態に係る端末装置50には、一例として、パーソナルコンピュータ(PC:Personal Computer)等の汎用的なコンピュータや、スマートフォン、タブレット端末等の携帯型の端末装置等が適用される。端末装置50は、人の行動を監視する監視者(本実施形態では保育士等)が使用する端末装置であり、噛みつき検知装置10で噛みつきの発生が検知された場合に、噛みつき検知装置10から噛みつき発生のアラート・メッセージが報知される。 As an example of the terminal device 50 according to the present embodiment, a general-purpose computer such as a personal computer (PC) or a portable terminal device such as a smart phone or a tablet terminal is applied. The terminal device 50 is a terminal device used by a supervisor (in this embodiment, a nursery teacher or the like) who monitors a person's behavior. An alert message of occurrence of a bite is notified.

図2は、第1の実施形態に係る噛みつき検知装置10の電気的な構成の一例を示すブロック図である。
図2に示すように、本実施形態に係る噛みつき検知装置10は、制御部12と、記憶部14と、撮影部16と、マイク18と、表示部20と、操作部22と、通信部24と、を備えている。
FIG. 2 is a block diagram showing an example of the electrical configuration of the biting detection device 10 according to the first embodiment.
As shown in FIG. 2, the biting detection device 10 according to the present embodiment includes a control unit 12, a storage unit 14, an imaging unit 16, a microphone 18, a display unit 20, an operation unit 22, and a communication unit 24. and have.

制御部12は、CPU(Central Processing Unit)12A、ROM(Read Only Memory)12B、RAM(Random Access Memory)12C、及び入出力インターフェース(I/O)12Dを備えており、これら各部がバスを介して各々接続されている。 The control unit 12 includes a CPU (Central Processing Unit) 12A, a ROM (Read Only Memory) 12B, a RAM (Random Access Memory) 12C, and an input/output interface (I/O) 12D. are connected to each other.

I/O12Dには、記憶部14と、撮影部16と、マイク18と、表示部20と、操作部22と、通信部24と、を含む各機能部が接続されている。これらの各機能部は、I/O12Dを介して、CPU12Aと相互に通信可能とされる。 Functional units including the storage unit 14, the imaging unit 16, the microphone 18, the display unit 20, the operation unit 22, and the communication unit 24 are connected to the I/O 12D. Each of these functional units can mutually communicate with the CPU 12A via the I/O 12D.

制御部12は、噛みつき検知装置10の一部の動作を制御するサブ制御部として構成されてもよいし、噛みつき検知装置10の全体の動作を制御するメイン制御部の一部として構成されてもよい。制御部12の各ブロックの一部又は全部には、例えば、LSI(Large Scale Integration)等の集積回路又はIC(Integrated Circuit)チップセットが用いられる。上記各ブロックに個別の回路を用いてもよいし、一部又は全部を集積した回路を用いてもよい。上記各ブロック同士が一体として設けられてもよいし、一部のブロックが別に設けられてもよい。また、上記各ブロックのそれぞれにおいて、その一部が別に設けられてもよい。制御部12の集積化には、LSIに限らず、専用回路又は汎用プロセッサを用いてもよい。 The control unit 12 may be configured as a sub-control unit that controls part of the operation of the bite detection device 10, or as a part of the main control unit that controls the overall operation of the bite detection device 10. good. An integrated circuit such as LSI (Large Scale Integration) or an IC (Integrated Circuit) chipset is used for part or all of each block of the control unit 12 . An individual circuit may be used for each of the above blocks, or a circuit in which a part or all of them are integrated may be used. The blocks may be provided integrally, or some of the blocks may be provided separately. Moreover, in each of the above blocks, a part thereof may be separately provided. The integration of the control unit 12 is not limited to LSI, and a dedicated circuit or general-purpose processor may be used.

記憶部14としては、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等が用いられる。記憶部14には、本実施形態に係る噛みつき検知プログラム14Aが記憶されている。なお、この噛みつき検知プログラム14Aは、ROM12Bに記憶されていてもよい。また、記憶部14には、後述する判定条件テーブル14Bが記憶されている。この判定条件テーブル14BもROM12Bに記憶されていてもよい。 For example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like is used as the storage unit 14 . A biting detection program 14A according to the present embodiment is stored in the storage unit 14 . The biting detection program 14A may be stored in the ROM 12B. The storage unit 14 also stores a determination condition table 14B, which will be described later. This determination condition table 14B may also be stored in the ROM 12B.

噛みつき検知プログラム14Aは、例えば、噛みつき検知装置10に予めインストールされていてもよい。噛みつき検知プログラム14Aは、不揮発性の記憶媒体に記憶して、又はネットワークNを介して配布して、噛みつき検知装置10に適宜インストールすることで実現してもよい。なお、不揮発性の記憶媒体の例としては、CD-ROM(Compact Disc Read Only Memory)、光磁気ディスク、HDD、DVD-ROM(Digital Versatile Disc Read Only Memory)、フラッシュメモリ、メモリカード等が想定される。 The bite detection program 14A may be pre-installed in the bite detection device 10, for example. The bite detection program 14A may be stored in a non-volatile storage medium or distributed via the network N and installed in the bite detection device 10 as appropriate. Examples of nonvolatile storage media include CD-ROMs (Compact Disc Read Only Memory), magneto-optical discs, HDDs, DVD-ROMs (Digital Versatile Disc Read Only Memory), flash memories, memory cards, and the like. be.

撮影部16には、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を備えたビデオカメラ等が用いられる。撮影部16は、噛みつき検知の対象とする人(本実施形態では幼児)の行動を動画で撮影する。本実施形態では、撮影部16を用いて、被写体までの距離を示す深度(後述)を計測するために、一例として、複数のビデオカメラが所定の間隔をあけて設置されている。なお、ビデオカメラは、必ずしも複数である必要はなく、1台であっても被写体までの距離が測れるものであれば適用可能である。また、撮影部16は、噛みつき検知装置10と別体で設けられてもよいし、噛みつき検知装置10と一体的に設けられてもよい。 For example, a video camera equipped with a solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) is used as the imaging unit 16 . The photographing unit 16 photographs the behavior of a person (an infant in the present embodiment) whose biting is to be detected as a moving image. In this embodiment, as an example, a plurality of video cameras are installed at predetermined intervals in order to measure the depth (described later) indicating the distance to the subject using the photographing unit 16 . It should be noted that the number of video cameras does not necessarily have to be plural, and even a single video camera can be used as long as the distance to the subject can be measured. Further, the photographing unit 16 may be provided separately from the biting detection device 10 or may be provided integrally with the biting detection device 10 .

マイク18は、噛みつき検知の対象とする人が発する音声を電気信号に変換して入力する。マイク18も、撮影部16と同様に、噛みつき検知装置10と別体で設けられてもよいし、噛みつき検知装置10と一体的に設けられてもよい。 The microphone 18 converts the voice uttered by a person whose biting is to be detected into an electric signal and inputs the electric signal. The microphone 18 may also be provided separately from the biting detection device 10 , or may be provided integrally with the biting detection device 10 , like the imaging unit 16 .

表示部20には、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイ等が用いられる。表示部20は、タッチパネルを一体的に有している。操作部22には、テンキーやアルファベットキー等の各種の操作キーが設けられている。表示部20及び操作部22は、噛みつき検知装置10のユーザ(ここではユーザを監視者とする。)から各種の指示を受け付ける。表示部20は、監視者から受け付けた指示に応じて実行された処理の結果や、処理に対する通知等の各種の情報を表示する。 For the display unit 20, for example, a liquid crystal display (LCD), an organic EL (Electro Luminescence) display, or the like is used. The display unit 20 integrally has a touch panel. The operation unit 22 is provided with various operation keys such as numeric keys and alphabet keys. The display unit 20 and the operation unit 22 receive various instructions from the user of the biting detection device 10 (here, the user is the observer). The display unit 20 displays various kinds of information such as the results of processing executed in accordance with instructions received from the observer and notifications regarding the processing.

通信部24は、ネットワークNに接続されており、端末装置50との間でネットワークNを介して通信が可能とされる。この例の場合、通信部24とネットワークNとは有線で接続されるが、無線で接続してもよい。 The communication unit 24 is connected to the network N, and can communicate with the terminal device 50 via the network N. In this example, the communication unit 24 and the network N are connected by wire, but they may be connected wirelessly.

本実施形態に係る噛みつき検知装置10は、上述したように、人と人との間での噛みつきの発生を検知する。このため、本実施形態に係る噛みつき検知装置10のCPU12Aは、記憶部14に記憶されている噛みつき検知プログラム14AをRAM12Cに書き込んで実行することにより、図3に示す各部として機能する。 The biting detection device 10 according to the present embodiment detects the occurrence of biting between people as described above. Therefore, the CPU 12A of the biting detection device 10 according to the present embodiment writes the biting detection program 14A stored in the storage unit 14 into the RAM 12C and executes it, thereby functioning as each unit shown in FIG.

図3は、第1の実施形態に係る噛みつき検知装置10の機能的な構成の一例を示すブロック図である。
図3に示すように、本実施形態に係る噛みつき検知装置10のCPU12Aは、画像取得部30、検知部32、判定部34、報知部36、及び録画部38として機能する。
FIG. 3 is a block diagram showing an example of the functional configuration of the biting detection device 10 according to the first embodiment.
As shown in FIG. 3, the CPU 12A of the biting detection device 10 according to this embodiment functions as an image acquisition section 30, a detection section 32, a determination section 34, a notification section 36, and a recording section .

本実施形態に係る画像取得部30は、撮影部16により撮影された画像情報を取得する。この画像情報は、噛みつき検知の対象とする複数の人の行動が撮影されたものである。 The image acquisition unit 30 according to this embodiment acquires image information captured by the imaging unit 16 . This image information captures the actions of a plurality of people who are targets for biting detection.

本実施形態に係る検知部32は、画像取得部30により取得された画像情報から複数の人を検知する。具体的には、検知部32は、公知の人認識技術を用いて、複数の人を検知する。また、検知部32は、複数の人を検知した場合、一方の人の口が他方の人の一部に接触しているか否かを検知する。具体的には、予め人と人との間での噛みつき状態を撮影して得られた複数の画像を教師画像として機械学習を行い、学習済みモデルを構築しておく方法が挙げられる。この機械学習には、例えば、物体検知に関するFaster-RCNN(Region-based Convolutional Neural Network)や、SSD(Single Shot multibox Detector)、FPGA(Field-Programmable Gate Array)等に組み込まれたCNN(Convolutional Neural Network)等の技術が適用される。なお、画像情報から口の接触を検知する方法としては、これらの機械学習を用いた方法に限定されず、パターンマッチング法等の他の方法を適用してもよい。 The detection unit 32 according to this embodiment detects multiple people from the image information acquired by the image acquisition unit 30 . Specifically, the detection unit 32 detects a plurality of persons using known person recognition technology. Further, when detecting a plurality of persons, the detection unit 32 detects whether or not the mouth of one person is in contact with part of the other person. Specifically, there is a method of constructing a learned model by performing machine learning using a plurality of images obtained in advance by photographing the state of biting between people as teacher images. This machine learning includes, for example, Faster-RCNN (Region-based Convolutional Neural Network) related to object detection, SSD (Single Shot multibox Detector), FPGA (Field-Programmable Gate Array), etc. Built-in CNN (Convolutional Neural Network) ) and other techniques are applied. The method of detecting mouth contact from image information is not limited to these methods using machine learning, and other methods such as pattern matching may be applied.

本実施形態に係る判定部34は、検知部32による検知結果に基づいて、人と人との間での噛みつきが発生しているか否かを判定する。具体的には、判定部34は、検知部32により一方の人の口が他方の人の一部に接触していることが検知された場合に、噛みつきが発生していると判定する。図4に噛みつき発生と判定される画像の一例を示す。 The determination unit 34 according to the present embodiment determines whether or not a bite is occurring between people based on the detection result of the detection unit 32 . Specifically, the determination unit 34 determines that biting has occurred when the detection unit 32 detects that one person's mouth is in contact with part of the other person's mouth. FIG. 4 shows an example of an image determined as occurrence of a bite.

また、口の接触の検知に加え、他の条件を組み合わせて噛みつき判定の精度をより向上させるようにしてもよい。具体的には、判定部34は、画像情報から一方の人の口が他方の人の一部に接触していることが検知され、かつ、画像情報から得られる一方の人の深度と他方の人の深度との差が第1閾値以下である場合に、噛みつきが発生していると判定する形態としてもよい。なお、ここでいう「深度」とは、上述したように、撮影部16から被写体までの距離を示す。この深度の計測には、一例として、上述した複数のビデオカメラが用いられるが、複数のビデオカメラに代えて、赤外線センサや超音波センサ等を用いてもよい。本実施形態では、一方の人の深度と他方の人の深度との差を「深度差」という。この深度差は、検知部32により計測される。また、第1閾値としては、例えば、噛みつき発生の過去の事例に適用した場合に当該噛みつき発生を区分できる可能性が高い適切な値が設定される。 Further, in addition to detection of contact with the mouth, other conditions may be combined to further improve the accuracy of biting determination. Specifically, the determination unit 34 detects from the image information that the mouth of one person is in contact with a part of the other person, and determines the depth of the one person and the depth of the other person obtained from the image information. It may be determined that a bite has occurred when the difference from the depth of the person is equal to or less than the first threshold. It should be noted that the "depth" referred to here indicates the distance from the photographing unit 16 to the subject, as described above. For this depth measurement, for example, the plurality of video cameras described above are used, but an infrared sensor, an ultrasonic sensor, or the like may be used instead of the plurality of video cameras. In this embodiment, the difference between the depth of one person and the depth of the other person is called "depth difference". This depth difference is measured by the detector 32 . Also, as the first threshold value, for example, an appropriate value is set that is highly likely to distinguish the occurrence of a bite when applied to past cases of occurrence of a bite.

また、判定部34は、画像情報から一方の人の口が他方の人の一部に接触していることが検知され、かつ、画像情報から得られる一方の人と他方の人との深度方向と直交する方向における距離が第2閾値以下である場合に、噛みつきが発生していると判定してもよい。なお、ここでいう「深度方向」とは、撮影部16から被写体に向かう方向を示す。例えば、X軸(水平方向)、Y軸(垂直方向)、及びZ軸(奥行方向)の3次元空間において、XY平面に画像を投影した場合に、深度方向はZ軸方向となり、深度方向と直交する方向はXY平面の方向となる。本実施形態では、深度方向と直交する方向における距離を「隣接距離」という。この隣接距離は、一例として、画像情報から得られる人と人との間の画素数に基づいて計測される。この隣接距離は、検知部32により計測される。また、第2閾値としては、第1閾値と同様に、噛みつき発生を区分できる可能性が高い適切な値が設定される。 Further, the determination unit 34 detects that one person's mouth is in contact with a part of the other person from the image information, and determines the depth direction of the one person and the other person obtained from the image information. If the distance in the direction orthogonal to is equal to or less than the second threshold, it may be determined that biting has occurred. Note that the “depth direction” here indicates the direction from the photographing unit 16 toward the subject. For example, in a three-dimensional space with X-axis (horizontal direction), Y-axis (vertical direction), and Z-axis (depth direction), when an image is projected onto the XY plane, the depth direction is the Z-axis direction. The orthogonal direction is the direction of the XY plane. In this embodiment, the distance in the direction orthogonal to the depth direction is called "adjacent distance". This adjacent distance is measured, for example, based on the number of pixels between people obtained from image information. This adjacent distance is measured by the detector 32 . Also, as the second threshold, an appropriate value with a high possibility of classifying the occurrence of biting is set as in the case of the first threshold.

図5は、本実施形態に係る深度差及び隣接距離の一例を示す模式図である。
図5に示すように、深度Dは、撮影部16と人AとのZ軸方向における距離として表され、深度Dは、撮影部16と人BとのZ軸方向における距離として表される。また、隣接距離LABは、人Aと人BとのXY平面の方向における距離として表される。
FIG. 5 is a schematic diagram showing an example of the depth difference and the adjacent distance according to this embodiment.
As shown in FIG. 5, the depth D A is represented as the distance between the imaging unit 16 and the person A in the Z-axis direction, and the depth D B is represented as the distance between the imaging unit 16 and the person B in the Z-axis direction. be. Also, the adjacent distance L AB is expressed as the distance between person A and person B in the direction of the XY plane.

図5に示す例では、深度Dと深度Dとの差の絶対値|D-D|が第1閾値以下である場合、人Aと人BとがXY平面の方向に並んだ状態にあると推定される。そして、隣接距離LABが第2閾値以下である場合には、人Aと人Bとが接触しており、両者の間で噛みつきが発生している可能性が高い。 In the example shown in FIG. 5, when the absolute value of the difference |D A -D B | presumed to be in Then, when the adjacent distance LAB is equal to or less than the second threshold, it is highly possible that the person A and the person B are in contact with each other and biting occurs between them.

図6は、本実施形態に係る深度差及び隣接距離の他の例を示す模式図である。
図6に示す例では、深度Dと深度Dとの差の絶対値|D-D|が第1閾値よりも大きい場合、人Aと人BとがXY平面の方向に並んでいない状態であると推定される。この場合、隣接距離LABが第2閾値以下であっても、人Aと人Bとは奥行方向に離れている場合があり、誤判定となる可能性がある。
FIG. 6 is a schematic diagram showing another example of the depth difference and the adjacent distance according to this embodiment.
In the example shown in FIG. 6, when the absolute value of the difference |D A -D B | presumed to be in a state of absence. In this case, even if the adjacent distance LAB is equal to or less than the second threshold value, the person A and the person B may be separated from each other in the depth direction, which may result in an erroneous determination.

図5及び図6に示す例からも理解されるように、判定部34は、画像情報から一方の人の口が他方の人の一部に接触していることが検知され、かつ、深度Dと深度Dとの差の絶対値|D-D|(以下、深度差DABという。)が第1閾値以下であり、かつ、隣接距離LABが第2閾値以下である場合に、噛みつきが発生していると判定することがより望ましい。 As can be understood from the examples shown in FIGS. 5 and 6, the determination unit 34 detects that one person's mouth is in contact with a part of the other person from the image information, and the depth D When the absolute value of the difference |D A -D B | (hereinafter referred to as depth difference D AB ) between A and depth D B is equal to or less than a first threshold and the adjacent distance L AB is equal to or less than a second threshold Furthermore, it is more desirable to determine that biting has occurred.

また、判定部34は、画像情報から一方の人の口が他方の人の一部に接触していることが検知され、かつ、一例として、上述の図4に示すように、画像情報から一方の人の口に歯が検知された場合に、噛みつきが発生していると判定してもよい。この歯は、検知部32により検知される。なお、歯の検知には、一例として、上述の機械学習を用いた方法や、パターンマッチング法等が適用される。 Further, the determination unit 34 detects from the image information that one person's mouth is in contact with a part of the other person, and, as an example, as shown in FIG. If teeth are detected in the mouth of the person, it may be determined that biting has occurred. This tooth is detected by the detector 32 . To detect teeth, for example, the above-described method using machine learning, the pattern matching method, or the like is applied.

更に、判定部34は、画像情報から一方の人の口が他方の人の一部に接触していることが検知され、かつ、画像情報から他方の人の身体的変化が予め定められた変化であることが検知された場合に、噛みつきが発生していると判定してもよい。具体的には、身体的変化は、一例として、上述の図4に示すように、表情の変化であり、予め定められた変化は、一例として、苦痛を表す表情への変化である。この表情の変化は、検知部32により検知される。なお、表情の変化の検知には、一例として、上述の機械学習を用いた方法や、パターンマッチング法等が適用される。機械学習を用いる場合、予め苦痛を表す表情を撮影して得られた複数の画像を教師画像として機械学習を行い、学習済みモデルを構築しておけばよい。なお、苦痛を表す表情への変化に代えて、怒りを表す表情への変化を採用してもよい。この場合、表情の変化が怒りを表す表情への変化である、という条件となる。また、身体的変化として、上記の表情の変化に代えて、口の接触位置の変化を採用してもよい。この場合、口の接触位置の変化が急峻な変化である、という条件となる。また、身体的変化として、噛みつきによる出血に伴う皮膚の色の変化を採用してもよい。この場合、皮膚の色の変化が赤い色への変化である、という条件となる。 Further, the determination unit 34 detects from the image information that one person's mouth is in contact with a part of the other person, and determines from the image information that the other person's physical change is a predetermined change. It may be determined that biting occurs when it is detected that Specifically, the physical change is, for example, a change in facial expression as shown in FIG. 4 described above, and the predetermined change is, for example, a change to a facial expression expressing pain. This change in facial expression is detected by the detection unit 32 . Note that the above-described method using machine learning, the pattern matching method, or the like is applied as an example to detect a change in facial expression. When using machine learning, machine learning may be performed in advance using a plurality of images obtained by photographing facial expressions expressing pain as teacher images, and a trained model may be constructed. It should be noted that a change to an angry facial expression may be employed instead of the facial expression to express pain. In this case, the condition is that the change in facial expression is a change to an angry facial expression. Also, as a physical change, a change in the contact position of the mouth may be employed instead of the change in facial expression. In this case, the condition is that the contact position of the mouth changes abruptly. Also, as a physical change, a change in skin color due to bleeding due to a bite may be adopted. In this case, the condition is that the change in skin color is a change to red.

また、判定部34は、一例として、図7に示す判定条件テーブル14Bに登録されている条件1、条件2、条件3、条件4、・・・のいずれかを選択的に用いて噛みつき判定を行う形態としてもよい。 Further, as an example, the determination unit 34 selectively uses any one of the conditions 1, 2, 3, 4, . . . registered in the determination condition table 14B shown in FIG. It is good also as a form to carry out.

図7は、第1の実施形態に係る判定条件テーブル14Bの一例を示す図である。
図7に示すように、本実施形態に係る判定条件テーブル14Bには、1つ以上の判定条件が対応付けられた条件1、条件2、条件3、条件4、・・・が登録されている。なお、図7において、白丸が付されている判定条件が対応付けられていることを示している。
FIG. 7 is a diagram showing an example of the determination condition table 14B according to the first embodiment.
As shown in FIG. 7, in the determination condition table 14B according to the present embodiment, conditions 1, conditions 2, conditions 3, conditions 4, . . In addition, in FIG. 7, it is shown that the determination conditions marked with white circles are associated with each other.

図7に示す判定条件テーブル14Bには、上記で説明した「口接触」、「深度差」、「隣接距離」、「歯」、及び「表情変化」の各判定条件あるいは判定条件の組み合わせが登録されている。なお、「口接触」は、「一方の人の口が他方の人の一部に接触している」という条件である。「深度差」は、「一方の人の深度と他方の人の深度との差が第1閾値以下である」という条件である。「隣接距離」は、「一方の人と他方の人との深度方向と直交する方向における距離が第2閾値以下である」という条件である。「歯」は、「一方の人の口に歯が見える」という条件である。「表情変化」は、「他方の人の表情が苦痛を表す表情へ変化する」という条件である。 In the determination condition table 14B shown in FIG. 7, each determination condition or combination of determination conditions of "mouth contact", "depth difference", "adjacent distance", "teeth", and "expression change" described above is registered. It is "Mouth contact" is a condition that "one person's mouth is in contact with another person's part." The "depth difference" is a condition that "the difference between the depth of one person and the depth of the other person is equal to or less than a first threshold". The "adjacent distance" is a condition that "the distance between one person and the other person in the direction perpendicular to the depth direction is equal to or less than the second threshold". "Teeth" is a condition that "the teeth are visible in one person's mouth." "Facial expression change" is a condition that "the facial expression of the other person changes to a facial expression expressing pain".

図7に示す例では、条件1には、「口接触」が判定条件として対応付けられている。また、条件2には、「口接触」、「深度差」、及び「隣接距離」が判定条件として対応付けられている。また、条件3には、「口接触」及び「歯」が判定条件として対応付けられている。また、条件4には、「口接触」及び「表情変化」が判定条件として対応付けられている。なお、判定条件テーブル14Bに登録される条件としては、条件1、条件2、条件3、条件4、・・・に限定されるものではなく、「口接触」、「深度差」、「隣接距離」、「歯」、及び「表情変化」の各判定条件を適宜組み合わせた条件が適用される。 In the example shown in FIG. 7, condition 1 is associated with "mouth contact" as a determination condition. Further, condition 2 is associated with "mouth contact", "depth difference", and "adjacent distance" as determination conditions. Further, condition 3 is associated with "mouth contact" and "teeth" as determination conditions. In addition, condition 4 is associated with "mouth contact" and "expression change" as determination conditions. The conditions registered in the determination condition table 14B are not limited to conditions 1, 2, 3, 4, . . . ”, “teeth”, and “change in facial expression” are appropriately combined.

本実施形態に係る報知部36は、判定部34により噛みつきが発生していると判定された場合に、噛みつきの発生を報知する。具体的には、報知部36は、監視者が使用する端末装置50に対して、一例として、「噛みつきが発生しています。」等のアラート・メッセージを送信することにより表示させる。また、このアラート・メッセージに代えて、音声で報知してもよいし、警告音で報知してもよい。 The notification unit 36 according to the present embodiment notifies occurrence of biting when the determining unit 34 determines that biting has occurred. Specifically, the notification unit 36 causes the terminal device 50 used by the monitor to display by transmitting an alert message such as, for example, "Bite has occurred." Also, instead of this alert message, it may be notified by voice or by an alarm sound.

一方、本実施形態に係る録画部38は、撮影部16により得られた画像情報を録画する。具体的には、録画部38は、上述した深度差DABが第1閾値以下で、かつ、隣接距離LABが第2閾値以下である場合に、画像情報の録画を開始する。なお、録画を開始する条件は、この条件以外であってもよく、深度差DAB及び隣接距離LABのいずれか一方の条件のみでもよいし、その他の条件を適宜組み合わせてもよい。 On the other hand, the recording unit 38 according to this embodiment records the image information obtained by the imaging unit 16 . Specifically, the recording unit 38 starts recording the image information when the depth difference DAB is equal to or less than the first threshold and the adjacent distance LAB is equal to or less than the second threshold. The recording start condition may be other than this condition, and may be only one of the depth difference D AB and the adjacent distance L AB , or may be combined with other conditions as appropriate.

ここで、記憶部14は、予め定められた一時記憶領域15A及び非一時記憶領域15Bを含んでいる。録画部38は、上記で録画を開始してから、噛みつきの発生までの間に得られる画像情報を一時記憶領域15Aに上書きで録画する。そして、録画部38は、噛みつきが発生した場合、一時記憶領域15Aに上書きで録画された画像情報を非一時記憶領域15Bに移動させ、かつ、噛みつきの発生以後に得られる画像情報を非一時記憶領域15Bに録画する。なお、画像情報の移動に代えて、複写(コピー)を適用してもよい。 Here, the storage unit 14 includes a predetermined temporary storage area 15A and a non-temporary storage area 15B. The recording unit 38 overwrites and records the image information obtained between the start of recording and the occurrence of the biting in the temporary storage area 15A. Then, when biting occurs, the recording unit 38 moves the image information overwritten and recorded in the temporary storage area 15A to the non-temporary storage area 15B, and non-temporarily stores the image information obtained after the biting occurs. Record in area 15B. Copying may be applied instead of moving image information.

また、録画部38は、噛みつきの発生以後に得られる画像情報から一方の人の口が他方の人の一部に接触していることが検知されなくなった場合に、画像情報の録画を終了する。ここで、録画部38は、上記で噛みつきが発生した場合に、噛みつきの発生以後に得られる画像情報を、一時記憶領域15A及び非一時記憶領域15Bとは異なる録画領域に録画するようにしてもよい。この場合、例えば、口の接触が検知されなくなった場合をトリガとして、一時記憶領域15Aに上書きで録画された画像情報を非一時記憶領域15Bに移動させ、かつ、上記録画領域に録画された画像情報を非一時記憶領域15Bに移動させる。なお、上記と同様に、画像情報の移動に代えて、複写を適用してもよい。 In addition, the recording unit 38 ends the recording of the image information when it is no longer detected that one person's mouth is in contact with part of the other person's mouth from the image information obtained after the occurrence of the biting. . Here, if the biting occurs as described above, the recording unit 38 may record the image information obtained after the biting occurs in a recording area different from the temporary storage area 15A and the non-temporary storage area 15B. good. In this case, for example, when the mouth contact is no longer detected as a trigger, the image information overwritten and recorded in the temporary storage area 15A is moved to the non-temporary storage area 15B, and the image recorded in the recording area is moved to the non-temporary storage area 15B. The information is moved to the non-temporary storage area 15B. It should be noted that copying may be applied in place of moving image information in the same manner as described above.

次に、図8を参照して、第1の実施形態に係る噛みつき検知装置10の作用を説明する。なお、図8は、第1の実施形態に係る噛みつき検知プログラム14Aの処理の流れの一例を示すフローチャートである。 Next, the operation of the biting detection device 10 according to the first embodiment will be described with reference to FIG. FIG. 8 is a flow chart showing an example of the processing flow of the biting detection program 14A according to the first embodiment.

まず、噛みつき検知装置10の電源がオンされると、噛みつき検知プログラム14Aが起動され、以下の各ステップを実行する。 First, when the power of the bite detection device 10 is turned on, the bite detection program 14A is started and the following steps are executed.

図8のステップ100では、画像取得部30が、撮影部16により撮影された画像情報を取得する。なお、本実施形態においては、画像情報として、動画の1フレームずつ取得される。 At step 100 in FIG. 8 , the image acquisition section 30 acquires image information captured by the imaging section 16 . Note that, in the present embodiment, each frame of a moving image is acquired as image information.

ステップ102では、検知部32が、ステップ100で取得した画像情報から、複数の人が検知されたか否かを判定する。複数の人が検知されたと判定した場合(肯定判定の場合)、ステップ104に移行し、複数の人が検知されていないと判定した場合(否定判定の場合)、ステップ100に戻り処理を繰り返す。 At step 102 , the detection unit 32 determines whether or not a plurality of people have been detected from the image information acquired at step 100 . When it is determined that a plurality of people are detected (in the case of affirmative determination), the process proceeds to step 104, and when it is determined that a plurality of people is not detected (in the case of negative determination), the process returns to step 100 and repeats the process.

ステップ104では、検知部32が、ステップ102で検知された複数の人について、上述の図5及び図6を参照して説明したように、深度差DAB及び隣接距離LABを計測する。 At step 104, the detection unit 32 measures the depth difference D AB and the adjacent distance L AB for the plurality of persons detected at step 102, as described above with reference to FIGS.

ステップ106では、判定部34が、録画開始条件を満たすか否かを判定する。ここでいう録画開始条件とは、上述したように、深度差DABが第1閾値以下で、かつ、隣接距離LABが第2閾値以下であるという条件である。録画開始条件を満たすと判定した場合(肯定判定の場合)、ステップ108に移行し、録画開始条件を満たしていないと判定した場合(否定判定の場合)、ステップ100に戻り処理を繰り返す。 At step 106, the determination unit 34 determines whether or not the recording start condition is satisfied. The recording start condition here is, as described above, the condition that the depth difference D AB is equal to or less than the first threshold and the adjacent distance L AB is equal to or less than the second threshold. If it is determined that the recording start condition is satisfied (affirmative determination), the process proceeds to step 108, and if it is determined that the recording start condition is not satisfied (negative determination), the process returns to step 100 and repeats the process.

ステップ108では、録画部38が、ステップ106で録画開始条件を満たした画像情報を、一時記憶領域15Aに上書きで記憶する。 At step 108, the recording unit 38 overwrites and stores the image information satisfying the recording start condition at step 106 in the temporary storage area 15A.

ステップ110では、検知部32が、ステップ108で一時記憶領域15Aに録画開始された画像情報から、一方の人の口が他方の人の一部に接触しているか否かを検知する。口の接触を検知した場合(肯定判定の場合)、ステップ112に移行し、口の接触が検知されない場合(否定判定の場合)、ステップ100に戻り処理を繰り返す。なお、一方の人の口が他方の人の一部に一定時間以上接触しているか否かを検知してもよい。この場合、例えば、10秒以上接触している状態であれば、噛みつきが発生している可能性が高いと考えられる。 At step 110, the detection unit 32 detects from the image information recorded in the temporary storage area 15A at step 108 whether the mouth of one person is in contact with part of the other person. If mouth contact is detected (positive determination), the process proceeds to step 112, and if mouth contact is not detected (negative determination), the process returns to step 100 and repeats the process. It should be noted that it may be detected whether or not the mouth of one person is in contact with part of the other person for a certain period of time or longer. In this case, for example, if the contact is for 10 seconds or longer, it is highly likely that biting has occurred.

ステップ112では、判定部34が、一例として、図9に示す判定条件選択画面での選択指定の内容に基づいて、組み合わせ条件が指定されているか否かを判定する。組み合わせ条件が指定されていると判定した場合(肯定判定の場合)、ステップ114に移行し、組み合わせ条件が指定されていないと判定した場合(否定判定の場合)、ステップ116に移行する。 At step 112, the determination unit 34 determines whether or not a combination condition is specified, based on, for example, the contents of the selection specification on the determination condition selection screen shown in FIG. When it is determined that the combination condition is specified (in the case of affirmative determination), the process proceeds to step 114, and when it is determined that the combination condition is not specified (in the case of a negative determination), the process proceeds to step 116.

図9は、本実施形態に係る判定条件選択画面20Aの一例を示す正面図である。
図9に示す判定条件選択画面20Aは、噛みつき検知装置10による噛みつき判定動作を開始する前に、監視者による操作入力に従って表示部20に表示される画面である。監視者は、判定条件選択画面20Aを介して所望の条件を選択指定する。ここでは、一例として、組み合わせ条件である「条件2」が選択指定されている。図9に示す判定条件選択画面20Aにおける条件1、条件2、条件3、条件4、・・・は、図7に示す判定条件テーブル14Bにおける条件1、条件2、条件3、条件4、・・・に対応している。つまり、判定条件選択画面20Aで「条件2」が選択指定されている場合、図7に示す判定条件テーブル14Bから、「口接触」、「深度差」、及び「隣接距離」が判定条件であることが特定される。この場合、これらの「口接触」、「深度差」、及び「隣接距離」を判定条件として噛みつき判定動作が実行される。
FIG. 9 is a front view showing an example of the determination condition selection screen 20A according to this embodiment.
A judgment condition selection screen 20A shown in FIG. 9 is a screen displayed on the display unit 20 in accordance with an operation input by the observer before the biting detection device 10 starts the bite judgment operation. The observer selects and designates a desired condition via the judgment condition selection screen 20A. Here, as an example, "Condition 2", which is a combination condition, is selected and specified. Condition 1, Condition 2, Condition 3, Condition 4, . . . in the judgment condition selection screen 20A shown in FIG.・Compatible with That is, when "Condition 2" is selected and specified on the determination condition selection screen 20A, "mouth contact", "depth difference", and "adjacent distance" are the determination conditions from the determination condition table 14B shown in FIG. is specified. In this case, the biting determination operation is performed using these "mouth contact", "depth difference", and "adjacent distance" as determination conditions.

ステップ114では、判定部34が、組み合わせ条件を満たすか否かを判定する。例えば、図9に示す判定条件選択画面20Aに示すように、組み合わせ条件が「条件2」であれば、「深度差」及び「隣接距離」の各々を満たすか否かを判定する。組み合わせ条件を満たすと判定した場合(肯定判定の場合)、ステップ116に移行し、組み合わせ条件を満たしていないと判定した場合(否定判定の場合)、ステップ100に戻り処理を繰り返す。 At step 114, the determination unit 34 determines whether or not the combination condition is satisfied. For example, as shown in the judgment condition selection screen 20A shown in FIG. 9, if the combination condition is "condition 2", it is judged whether or not each of the "depth difference" and the "adjacent distance" is satisfied. If it is determined that the combination condition is satisfied (positive determination), the process proceeds to step 116, and if it is determined that the combination condition is not satisfied (negative determination), the process returns to step 100 and is repeated.

ステップ116では、判定部34が、人と人との間で噛みつきが発生していると判定する。 At step 116, the determination unit 34 determines that a bite is occurring between people.

ステップ118では、報知部36が、監視者が使用する端末装置50に対して、人と人との間で噛みつきが発生していることを示すアラート・メッセージを送信することにより表示させる。なお、上述したように、アラート・メッセージに代えて、音声で報知してもよいし、警告音で報知してもよい。 In step 118, the notification unit 36 transmits an alert message to the terminal device 50 used by the monitor to indicate that a bite has occurred between humans. Note that, as described above, instead of the alert message, the notification may be made by voice or warning sound.

ステップ120では、録画部38が、一時記憶領域15Aに上書きで録画された、噛みつき発生以前に得られた画像情報を非一時記憶領域15Bに移動させる。なお、画像情報の移動に代えて、複写を適用してもよい。 At step 120, the recording unit 38 moves the image information obtained before the occurrence of the biting, overwritten and recorded in the temporary storage area 15A, to the non-temporary storage area 15B. Copying may be applied instead of moving image information.

ステップ122では、録画部38が、噛みつき発生以後に得られた画像情報を、非一時記憶領域15Bに記憶する。なお、ステップ120及びステップ122の処理は、順番が入れ替わっても構わない。この場合、2回目以降のループではステップ120は実行されない。 At step 122, the recording section 38 stores the image information obtained after the occurrence of the bite in the non-temporary storage area 15B. It should be noted that the order of steps 120 and 122 may be changed. In this case, step 120 is not executed in the second and subsequent loops.

ステップ124では、判定部34が、録画終了条件を満たすか否かを判定する。ここでいう録画終了条件とは、上述したように、噛みつきの発生以後に得られる画像情報から口の接触が検知されなくなるという条件である。録画終了条件を満たすと判定した場合(肯定判定の場合)、ステップ126に移行し、録画終了条件を満たしていないと判定した場合(否定判定の場合)、ステップ122に戻り処理を繰り返す。 At step 124, the determination unit 34 determines whether or not the recording end condition is satisfied. The recording end condition here is, as described above, a condition that the contact of the mouth is no longer detected from the image information obtained after the occurrence of the biting. If it is determined that the recording end condition is satisfied (in the case of affirmative determination), the process proceeds to step 126, and if it is determined that the recording end condition is not satisfied (in the case of a negative determination), the process returns to step 122 and the process is repeated.

ステップ126では、録画部38が、画像情報の録画を終了し、本噛みつき検知プログラム14Aによる一連の処理を終了する。 At step 126, the recording unit 38 ends the recording of the image information, and the series of processing by the bite detection program 14A ends.

このように本実施形態によれば、人と人との間での噛みつきの発生が精度良く検知され、監視者に報知されるため、監視者の負担が軽減される。
また、噛みつき発生の前後の様子が録画されるため、噛みつき発生の経緯を後で確認することが可能となる。
As described above, according to the present embodiment, the occurrence of human-to-human bites is detected with high accuracy and notified to the supervisor, thereby reducing the burden on the supervisor.
In addition, since the situations before and after the occurrence of the bite are recorded, it is possible to check the history of the occurrence of the bite later.

なお、本実施形態においては、複数の人を対象として説明したが、例えば、認知症や発達障害等の患者が自傷行為により自身の腕等に噛みつくことも起こり得る。このため、本実施形態は、1人の人を対象とした場合であっても同様に適用される。具体的には、検知部32は、公知の人認識技術を用いて、1人の人を検知する。また、検知部32は、1人の人を検知した場合、その人の口がその人の一部(腕等)に接触しているか否かを検知する。具体的には、予め人の噛みつき状態を撮影して得られた複数の画像を教師画像として機械学習を行い、学習済みモデルを構築しておく方法が挙げられる。なお、画像情報から口の接触を検知する方法としては、機械学習を用いた方法に限定されず、パターンマッチング法等の他の方法を適用してもよい。 In the present embodiment, a plurality of people are targeted, but for example, patients with dementia, developmental disorders, or the like may bite their arms or the like due to self-harm. Therefore, the present embodiment is similarly applied even when one person is targeted. Specifically, the detection unit 32 detects one person using a known person recognition technology. Further, when detecting one person, the detection unit 32 detects whether or not the person's mouth is in contact with a part of the person (such as an arm). Specifically, there is a method of constructing a trained model by performing machine learning using a plurality of images obtained by photographing a person's biting state in advance as teacher images. Note that the method of detecting mouth contact from image information is not limited to the method using machine learning, and other methods such as pattern matching may be applied.

[第2の実施形態]
上記第1の実施形態では、画像情報のみを用いて噛みつきの発生を検知する形態について説明した。本実施形態では、画像情報に加えて、音声情報も用いて噛みつきの発生を検知する形態について説明する。
[Second embodiment]
In the above-described first embodiment, the form of detecting the occurrence of biting using only image information has been described. In this embodiment, an embodiment will be described in which the occurrence of biting is detected using audio information in addition to image information.

図10は、第2の実施形態に係る噛みつき検知装置11の機能的な構成の一例を示すブロック図である。
図10に示すように、本実施形態に係る噛みつき検知装置11は、画像取得部30、検知部32、判定部34、報知部36、録画部38、及び音声取得部40を備えている。なお、第1の実施形態に示す噛みつき検知装置10と同一の構成要素には同一の符号を付し、繰り返しの説明は省略する。
FIG. 10 is a block diagram showing an example of the functional configuration of the biting detection device 11 according to the second embodiment.
As shown in FIG. 10 , the biting detection device 11 according to this embodiment includes an image acquisition section 30 , a detection section 32 , a determination section 34 , a notification section 36 , a recording section 38 and a voice acquisition section 40 . The same components as those of the biting detection device 10 shown in the first embodiment are denoted by the same reference numerals, and repeated explanations are omitted.

本実施形態に係る音声取得部40は、複数の人の各々について、上述の図2に示したマイク18を介して集音された音声情報を取得する。 The voice acquisition unit 40 according to the present embodiment acquires voice information collected via the above-described microphone 18 shown in FIG. 2 for each of a plurality of people.

本実施形態に係る判定部34は、画像情報から一方の人の口が他方の人の一部に接触していることが検知され、かつ、音声取得部40により取得された音声情報により示される音声が予め定められた音声であることが検知された場合に、噛みつきが発生していると判定する。予め定められた音声とは、悲鳴、苦痛を表す言葉、及び噛みつきの制止を促す言葉の少なくとも1つである。具体的には、検知部32が、音声情報から、「キャアー!」等の悲鳴、「痛い!」等の苦痛を表す言葉、「やめて!」等の噛みつきの制止を促す言葉の少なくとも1つを検知する。 The determination unit 34 according to the present embodiment detects that one person's mouth is in contact with a part of the other person from the image information, and is indicated by the audio information acquired by the audio acquisition unit 40 When it is detected that the sound is a predetermined sound, it is determined that biting has occurred. The predetermined sound is at least one of a scream, a word of pain, and a word that encourages a person to stop biting. Specifically, the detection unit 32 detects at least one of a scream such as "Cheer!", a word expressing pain such as "Ouch!" detect.

本実施形態に係る判定部34は、一例として、図11に示す判定条件テーブル14Cに登録されている条件1、条件2、条件3、条件4、条件5のいずれかを選択的に用いて噛みつき判定を行う。 As an example, the determination unit 34 according to the present embodiment selectively uses any one of conditions 1, 2, 3, 4, and 5 registered in a determination condition table 14C shown in FIG. make a judgment.

図11は、第2の実施形態に係る判定条件テーブル14Cの一例を示す図である。
図11に示すように、本実施形態に係る判定条件テーブル14Cには、1つ以上の判定条件が対応付けられた条件1~条件5が登録されている。なお、図11において、白丸が付されている判定条件が割り当てられていることを示している。
FIG. 11 is a diagram showing an example of the determination condition table 14C according to the second embodiment.
As shown in FIG. 11, conditions 1 to 5 associated with one or more determination conditions are registered in the determination condition table 14C according to the present embodiment. In FIG. 11, white circles indicate that determination conditions are assigned.

図11に示す例では、条件1には、「口接触」が判定条件として対応付けられている。また、条件2には、「口接触」、「深度差」、及び「隣接距離」が判定条件として対応付けられている。また、条件3には、「口接触」及び「歯」が判定条件として対応付けられている。また、条件4には、「口接触」及び「表情変化」が判定条件として対応付けられている。また、条件5には、「口接触」及び「音声」が判定条件として対応付けられている。 In the example shown in FIG. 11, condition 1 is associated with "mouth contact" as a determination condition. Further, condition 2 is associated with "mouth contact", "depth difference", and "adjacent distance" as determination conditions. Further, condition 3 is associated with "mouth contact" and "teeth" as determination conditions. In addition, condition 4 is associated with "mouth contact" and "expression change" as determination conditions. Further, condition 5 is associated with “mouth contact” and “voice” as determination conditions.

この判定条件テーブル14Cに登録されている条件1~条件5のいずれかが噛みつき判定に用いる判定条件として用いられる。これら条件1~条件5のうちいずれを用いるかは、一例として、上述の図9に示す判定条件選択画面を介して監視者により選択指定される。 Any one of the conditions 1 to 5 registered in the judgment condition table 14C is used as the judgment condition for biting judgment. Which one of these conditions 1 to 5 is to be used is selected and specified by the observer via the judgment condition selection screen shown in FIG. 9, as an example.

このように本実施形態によれば、画像情報に加え、音声情報も用いて噛みつきの判定を行うため、画像情報のみの場合と比較して、噛みつきの発生がより精度良く検知される。 As described above, according to the present embodiment, biting is determined using audio information in addition to image information, so occurrence of biting can be detected with higher accuracy than when only image information is used.

以上、実施形態として噛みつき検知装置を例示して説明した。実施形態は、噛みつき検知装置が備える各部の機能をコンピュータに実行させるためのプログラムの形態としてもよい。実施形態は、このプログラムを記憶したコンピュータが読み取り可能な記憶媒体の形態としてもよい。 As described above, the biting detection device has been exemplified as an embodiment. The embodiment may be in the form of a program for causing a computer to execute the function of each part provided in the biting detection device. Embodiments may be in the form of a computer-readable storage medium storing this program.

その他、上記実施形態で説明した噛みつき検知装置の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。 In addition, the configuration of the biting detection device described in the above embodiment is merely an example, and may be changed according to the situation without departing from the gist of the invention.

また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。 Further, the flow of processing of the program described in the above embodiment is also an example, and unnecessary steps may be deleted, new steps added, or the processing order changed without departing from the scope of the invention. good.

また、上記実施形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。実施形態は、例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって実現してもよい。 Further, in the above embodiment, a case has been described in which the processing according to the embodiment is realized by a software configuration using a computer by executing a program, but the present invention is not limited to this. Embodiments may be implemented by, for example, a hardware configuration or a combination of hardware and software configurations.

10、11 噛みつき検知装置
12 制御部
12A CPU
12B ROM
12C RAM
12D I/O
14 記憶部
14A 噛みつき検知プログラム
14B、14C判定条件テーブル
15A 一時記憶領域
15B 非一時記憶領域
16 撮影部
18 マイク
20 表示部
22 操作部
24 通信部
30 画像取得部
32 検知部
34 判定部
36 報知部
38 録画部
40 音声取得部
50 端末装置
90 噛みつき検知システム
10, 11 biting detection device 12 control unit 12A CPU
12B ROM
12C RAM
12D I/O
14 storage unit 14A biting detection program 14B, 14C determination condition table 15A temporary storage area 15B non-temporary storage area 16 photographing unit 18 microphone 20 display unit 22 operation unit 24 communication unit 30 image acquisition unit 32 detection unit 34 determination unit 36 notification unit 38 Recording unit 40 Sound acquisition unit 50 Terminal device 90 Biting detection system

Claims (10)

複数の動物を撮影して画像情報を得る撮影部と、
前記撮影部により得られた画像情報から一方の動物の口が他方の動物の一部に接触していることが検知された場合に、噛みつきの発生を報知する報知部と、
前記画像情報から前記一方の動物の口が前記他方の動物の一部に接触していることが検知され、かつ、前記画像情報から得られる前記一方の動物の深度と前記他方の動物の深度との差が第1閾値以下である場合に、噛みつきが発生していると判定する判定部と、
を備えた噛みつき検知装置。
a photographing unit that obtains image information by photographing a plurality of animals;
a notification unit that notifies occurrence of biting when it is detected that the mouth of one animal is in contact with a part of the other animal from the image information obtained by the photographing unit;
It is detected from the image information that the mouth of the one animal is in contact with a part of the other animal, and the depth of the one animal and the depth of the other animal obtained from the image information. A determination unit that determines that biting occurs when the difference is less than or equal to the first threshold;
Bite detection device with.
複数の動物を撮影して画像情報を得る撮影部と、
前記撮影部により得られた画像情報から一方の動物の口が他方の動物の一部に接触していることが検知された場合に、噛みつきの発生を報知する報知部と、
前記画像情報から前記一方の動物の口が前記他方の動物の一部に接触していることが検知され、かつ、前記画像情報から得られる前記一方の動物と前記他方の動物との深度方向と直交する方向における距離が第2閾値以下である場合に、噛みつきが発生していると判定する判定部と、
を備えた噛みつき検知装置。
a photographing unit that obtains image information by photographing a plurality of animals;
a notification unit that notifies occurrence of biting when it is detected that the mouth of one animal is in contact with a part of the other animal from the image information obtained by the photographing unit;
It is detected from the image information that the mouth of the one animal is in contact with a part of the other animal, and the depth direction of the one animal and the other animal obtained from the image information. a determination unit that determines that biting occurs when the distance in the orthogonal direction is equal to or less than a second threshold;
Bite detection device with.
複数の動物を撮影して画像情報を得る撮影部と、
前記撮影部により得られた画像情報から一方の動物の口が他方の動物の一部に接触していることが検知された場合に、噛みつきの発生を報知する報知部と、
前記画像情報から前記一方の動物の口が前記他方の動物の一部に接触していることが検知され、かつ、前記画像情報から前記他方の動物の身体的変化が予め定められた変化であることが検知された場合に、噛みつきが発生していると判定する判定部と、
を備えた噛みつき検知装置。
a photographing unit that obtains image information by photographing a plurality of animals;
a notification unit that notifies occurrence of biting when it is detected that the mouth of one animal is in contact with a part of the other animal from the image information obtained by the photographing unit;
It is detected from the image information that the mouth of the one animal is in contact with a part of the other animal, and the physical change of the other animal is a predetermined change from the image information. a determination unit that determines that biting has occurred when it is detected that
Bite detection device with.
前記身体的変化は、表情の変化であり、
前記予め定められた変化は、苦痛を表す表情への変化である請求項3に記載の噛みつき検知装置。
The physical change is a change in facial expression,
4. The biting detection device according to claim 3, wherein said predetermined change is a change to a facial expression expressing pain.
複数の動物を撮影して画像情報を得る撮影部と、
前記撮影部により得られた画像情報から一方の動物の口が他方の動物の一部に接触していることが検知された場合に、噛みつきの発生を報知する報知部と、
前記複数の動物の各々から音声情報を取得する音声取得部と、
前記画像情報から前記一方の動物の口が前記他方の動物の一部に接触していることが検知され、かつ、前記音声取得部により取得された音声情報により示される音声が予め定められた音声であることが検知された場合に、噛みつきが発生していると判定する判定部と、
を備えた噛みつき検知装置。
a photographing unit that obtains image information by photographing a plurality of animals;
a notification unit that notifies occurrence of biting when it is detected that the mouth of one animal is in contact with part of the other animal from the image information obtained by the photographing unit;
a voice acquisition unit that acquires voice information from each of the plurality of animals;
It is detected from the image information that the mouth of the one animal is in contact with a part of the other animal, and the sound indicated by the sound information acquired by the sound acquisition unit is a predetermined sound. a determination unit that determines that biting has occurred when it is detected that
Bite detection device with.
前記予め定められた音声は、悲鳴、苦痛を表す言葉、及び噛みつきの制止を促す言葉の少なくとも1つである請求項5に記載の噛みつき検知装置。 6. The biting detector according to claim 5, wherein said predetermined sound is at least one of a scream, a word expressing pain, and a word prompting to stop biting. 複数の動物を撮影して画像情報を得る撮影部と、
前記撮影部により得られた画像情報から一方の動物の口が他方の動物の一部に接触していることが検知された場合に、噛みつきの発生を報知する報知部と、
前記撮影部により得られた画像情報を録画する録画部と、
を備え、
前記録画部は、前記画像情報から得られる前記一方の動物の深度と前記他方の動物の深度との差が第1閾値以下で、かつ、前記画像情報から得られる前記一方の動物と前記他方の動物との深度方向と直交する方向における距離が第2閾値以下である場合に、前記画像情報の録画を開始する噛みつき検知装置。
a photographing unit that obtains image information by photographing a plurality of animals;
a notification unit that notifies occurrence of biting when it is detected that the mouth of one animal is in contact with a part of the other animal from the image information obtained by the photographing unit;
a recording unit for recording image information obtained by the imaging unit;
with
The recording unit is configured such that a difference between the depth of the one animal obtained from the image information and the depth of the other animal is equal to or less than a first threshold, and the depth of the one animal and the other animal obtained from the image information A bite detection device that starts recording the image information when a distance from the animal in a direction orthogonal to a depth direction is equal to or less than a second threshold.
予め定められた一時記憶領域及び非一時記憶領域を含む記憶部を更に備え、
前記録画部は、録画を開始してから、噛みつきの発生までの間に得られる画像情報を前記一時記憶領域に上書きで録画し、噛みつきが発生した場合、前記一時記憶領域に上書きで録画された画像情報を前記非一時記憶領域に移動させ、かつ、噛みつきの発生以後に得られる画像情報を前記非一時記憶領域に録画する請求項7に記載の噛みつき検知装置。
Further comprising a storage unit including a predetermined temporary storage area and a non-temporary storage area,
The recording unit overwrites and records in the temporary storage area the image information obtained from the start of recording until the occurrence of the biting, and when the biting occurs, the recording is overwritten in the temporary storage area. 8. The biting detection device according to claim 7, wherein image information is moved to said non-temporary storage area, and image information obtained after occurrence of a bite is recorded in said non-temporary storage area.
前記録画部は、前記噛みつきの発生以後に得られる画像情報から前記一方の動物の口が前記他方の動物の一部に接触していることが検知されなくなった場合に、前記画像情報の録画を終了する請求項8に記載の噛みつき検知装置。 The recording unit records the image information when it is no longer detected that the mouth of the one animal is in contact with a part of the other animal from the image information obtained after the occurrence of the biting. 9. The bite detection device of claim 8, wherein the bite detection device terminates. コンピュータを、請求項1~のいずれか1項に記載の噛みつき検知装置が備える報知部及び判定部、又は、請求項7~9のいずれか1項に記載の噛みつき検知装置が備える報知部及び録画部として機能させるためのプログラム。 A computer, a reporting unit and a determination unit provided in the biting detection device according to any one of claims 1 to 6 , or a reporting unit and a determination unit provided in the bite detection device according to any one of claims 7 to 9 A program to function as a recording part .
JP2018056981A 2018-03-23 2018-03-23 Biting detection device and program Active JP7225551B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018056981A JP7225551B2 (en) 2018-03-23 2018-03-23 Biting detection device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018056981A JP7225551B2 (en) 2018-03-23 2018-03-23 Biting detection device and program

Publications (2)

Publication Number Publication Date
JP2019168989A JP2019168989A (en) 2019-10-03
JP7225551B2 true JP7225551B2 (en) 2023-02-21

Family

ID=68107408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018056981A Active JP7225551B2 (en) 2018-03-23 2018-03-23 Biting detection device and program

Country Status (1)

Country Link
JP (1) JP7225551B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250317A (en) 2004-03-08 2005-09-15 Fuji Xerox Co Ltd Information processor
JP2011090645A (en) 2009-10-26 2011-05-06 Yupiteru Corp Vehicular video recorder
WO2013122468A1 (en) 2012-02-15 2013-08-22 Katholieke Universiteit Leuven Automated monitoring and controlling of undesired livestock behaviour
JP2016122280A (en) 2014-12-24 2016-07-07 日本電信電話株式会社 Watch system, method, data analysis apparatus and program
CN106972994A (en) 2017-05-03 2017-07-21 严凤河 A kind of intelligent domestic system
US20170323161A1 (en) 2014-11-06 2017-11-09 Samsung Electronics Co., Ltd. Method and apparatus for early warning of danger
JP2020522828A (en) 2017-04-28 2020-07-30 チェリー ラボ,インコーポレイテッド Computer vision based surveillance system and method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250317A (en) 2004-03-08 2005-09-15 Fuji Xerox Co Ltd Information processor
JP2011090645A (en) 2009-10-26 2011-05-06 Yupiteru Corp Vehicular video recorder
WO2013122468A1 (en) 2012-02-15 2013-08-22 Katholieke Universiteit Leuven Automated monitoring and controlling of undesired livestock behaviour
US20170323161A1 (en) 2014-11-06 2017-11-09 Samsung Electronics Co., Ltd. Method and apparatus for early warning of danger
JP2016122280A (en) 2014-12-24 2016-07-07 日本電信電話株式会社 Watch system, method, data analysis apparatus and program
JP2020522828A (en) 2017-04-28 2020-07-30 チェリー ラボ,インコーポレイテッド Computer vision based surveillance system and method
CN106972994A (en) 2017-05-03 2017-07-21 严凤河 A kind of intelligent domestic system

Also Published As

Publication number Publication date
JP2019168989A (en) 2019-10-03

Similar Documents

Publication Publication Date Title
US9408562B2 (en) Pet medical checkup device, pet medical checkup method, and non-transitory computer readable recording medium storing program
US9355547B2 (en) Identifying a change in a home environment
JP6915421B2 (en) Watching support system and its control method
JP2016067641A (en) Fall detection processing device and fall detection system
TWI666933B (en) Method and computing device for monitoring object
JPWO2015118953A1 (en) Information processing apparatus, information processing method, and program
TWI774904B (en) Pet monitoring method and pet monitoring system
US10463294B2 (en) Video monitoring to detect sleep apnea
CN108566534A (en) Alarm method, device, terminal and storage medium based on video monitoring
CN110598632A (en) Target object monitoring method and device, electronic equipment and storage medium
WO2020145380A1 (en) Care recording device, care recording system, care recording program, and care recording method
JP7225551B2 (en) Biting detection device and program
JP2014151120A (en) Sleep state monitoring system and sleep state monitoring program
CN111316313A (en) Organizing assistance systems, organizing assistance methods, and procedures
KR102156280B1 (en) Method and system for detecting elimination behavior of pet using cnn-lstm and complex event processing
US12272054B2 (en) Systems and methods for developmental monitoring of children
JP7666508B2 (en) Method, program and information providing device executed by computer for providing information on a care recipient
JP2024036959A (en) Animal communication device, animal communication method, and program
TWM486114U (en) Automatic care device
JP2016012174A (en) Intake amount estimation device, intake amount estimation method and program
CN118338853A (en) Computer program, information processing method, and information processing apparatus
CN113516072A (en) Developmental state judgment method, terminal and computer storage medium
CN111666794A (en) Pet monitoring method and pet monitoring system
JP2015138532A (en) Information processing apparatus, information processing method, and program
JP7779732B2 (en) Evaluation system, information processing device, evaluation method, and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230123

R150 Certificate of patent or registration of utility model

Ref document number: 7225551

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150