[go: up one dir, main page]

JP7060841B2 - Operation evaluation device, operation evaluation method, and operation evaluation program - Google Patents

Operation evaluation device, operation evaluation method, and operation evaluation program Download PDF

Info

Publication number
JP7060841B2
JP7060841B2 JP2018044939A JP2018044939A JP7060841B2 JP 7060841 B2 JP7060841 B2 JP 7060841B2 JP 2018044939 A JP2018044939 A JP 2018044939A JP 2018044939 A JP2018044939 A JP 2018044939A JP 7060841 B2 JP7060841 B2 JP 7060841B2
Authority
JP
Japan
Prior art keywords
face
driver
detection state
unit
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018044939A
Other languages
Japanese (ja)
Other versions
JP2019159741A (en
Inventor
尚良 佐藤
哲也 塚本
美加 竹中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2018044939A priority Critical patent/JP7060841B2/en
Publication of JP2019159741A publication Critical patent/JP2019159741A/en
Application granted granted Critical
Publication of JP7060841B2 publication Critical patent/JP7060841B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は運転評価装置、運転評価方法、及び運転評価プログラムに関する。 The present invention relates to an operation evaluation device, an operation evaluation method, and an operation evaluation program.

特許文献1には、車両を運転する運転者の脇見を検出し、運転者に脇見による危険を回避させるための動作を行う脇見検出システムが開示されている。特許文献1記載の脇見検出システムは、撮像装置及び脇見検出装置を含んで構成されている。 Patent Document 1 discloses an inattentive detection system that detects an inattentiveness of a driver driving a vehicle and performs an operation for causing the driver to avoid the danger of inattentiveness. The inattentive detection system described in Patent Document 1 includes an image pickup device and an inattentive detection device.

前記撮像装置は、運転者の顔をほぼ正面から撮影できる位置に設置され、撮影した画像(顔画像)を前記脇見検出装置に供給する。前記脇見検出装置は、視線検出部、脇見検出部、及び車両制御部を含んで構成されている。 The image pickup device is installed at a position where the driver's face can be photographed substantially from the front, and the photographed image (face image) is supplied to the inattentive detection device. The inattentive detection device includes a line-of-sight detection unit, an inattentive detection unit, and a vehicle control unit.

前記視線検出部は、顔画像に基づいて、運転者の視線の方向を検出する。前記脇見検出部は、運転者の視線の方向に基づいて、運転者の上下方向および左右方向の脇見を検出する。前記車両制御部は、自車および自車に設けられている各種の車載装置の動作を制御することにより、危険度に応じた強さで運転者に脇見に対する注意を促す。 The line-of-sight detection unit detects the direction of the driver's line of sight based on the face image. The inattentive detection unit detects inattentiveness in the vertical and horizontal directions of the driver based on the direction of the driver's line of sight. By controlling the operation of the own vehicle and various in-vehicle devices provided in the own vehicle, the vehicle control unit calls the driver to pay attention to inattentiveness with a strength according to the degree of danger.

[発明が解決しようとする課題]
特許文献1記載の脇見検出システムでは、前記撮像装置が運転者の顔をほぼ正面から撮影できる位置に設置されている。したがって、前記撮像装置により、運転者の左右の視線方向を左右同じ範囲で検出することが可能となっている。
[Problems to be solved by the invention]
In the inattentive detection system described in Patent Document 1, the image pickup device is installed at a position where the driver's face can be photographed substantially from the front. Therefore, the image pickup device can detect the driver's left and right line-of-sight directions in the same range on the left and right.

ところで、このようなシステムにおいて、撮像装置を運転者の正面付近に設置できない場合もある。例えば、撮像装置がダッシュボードの中央付近に設置される場合もある。この位置から右ハンドル車の運転者を撮像すると、撮像装置が運転者の左斜め前方に位置するため、撮像装置では、運転者の右方向の顔の向きの検出範囲が左方向と比べて狭くなる。脇見検出であれば、右方向の顔の向きの検出範囲が左方向と比べて、ある程度狭くなったとしても、視線の方向が所定の範囲を超えているか否かを判定できればよいため、該判定に与える影響は比較的小さい。 By the way, in such a system, the image pickup device may not be installed near the front of the driver. For example, the image pickup device may be installed near the center of the dashboard. When the driver of a right-hand drive vehicle is imaged from this position, the image pickup device is located diagonally to the left of the driver. Become. In the case of inattentive detection, even if the detection range of the face direction in the right direction is narrower to some extent than in the left direction, it is sufficient if it can be determined whether or not the direction of the line of sight exceeds a predetermined range. The effect on is relatively small.

しかしながら、脇見検出ではなく、交差点における運転者の安全確認動作を検出する場合は、右方向の顔の向きの検出範囲が左方向と比べて狭くなることによる影響が大きくなる。 However, when the driver's safety confirmation operation at an intersection is detected instead of inattentive detection, the effect of narrowing the detection range of the face direction in the right direction as compared with the left direction becomes large.

例えば、交差点で右折する時に運転者が右方向(右前方から右後方)の安全を確認する場合、運転者は右方向へ大きく顔を振り向ける。特に、トラックやバスなどの車長が長い大型車両になるほど、運転者の右方向へ顔の振り角度が大きくなる。さらに、交通状況などによっては、運転者が運転席の窓から頭を出して右後方を確認する場合もある。そのため、撮像装置で安全確認中の運転者の顔を適切に検出できない場合も生じる。 For example, when the driver confirms the safety in the right direction (from the front right to the rear right) when turning right at an intersection, the driver turns his face to the right. In particular, the longer the vehicle length, such as a truck or bus, the larger the driver's face swing angle to the right. Furthermore, depending on traffic conditions, the driver may stick his head out of the driver's seat window to check the rear right. Therefore, the image pickup device may not be able to properly detect the driver's face during safety confirmation.

このような場合、特許文献1記載の脇見検出装置では、撮像装置で運転者の顔が検出されない現象が、安全確認によるものなのか否かを適切に判定できず、運転者が安全確認を行っているのに、誤って脇見と判定して運転者に注意を促すといった処理がなされる虞があるという課題があった。 In such a case, the inattentive detection device described in Patent Document 1 cannot appropriately determine whether or not the phenomenon that the driver's face is not detected by the image pickup device is due to safety confirmation, and the driver performs safety confirmation. However, there is a problem that there is a possibility that a process such as erroneously determining that the driver is looking aside and calling attention to the driver may be performed.

特許第5082834号公報Japanese Patent No. 5082834

課題を解決するための手段及びその効果Means for solving problems and their effects

本発明は上記課題に鑑みなされたものであって、交差点において運転者が安全確認しているか否かをより適切に判定することができる運転評価装置、運転評価方法、及び運転評価プログラムを提供することを目的としている。 The present invention has been made in view of the above problems, and provides a driving evaluation device, a driving evaluation method, and a driving evaluation program capable of more appropriately determining whether or not the driver has confirmed safety at an intersection. The purpose is.

上記目的を達成するために本開示に係る運転評価装置(1)は、車両の運転者の運転を評価する運転評価装置であって、
前記車両が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得部と、
該データ取得部で取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定部と、
該判定部による判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価部とを備えていることを特徴としている。
In order to achieve the above object, the driving evaluation device (1) according to the present disclosure is a driving evaluation device that evaluates the driving of the driver of the vehicle.
A data acquisition unit that acquires data on a face detection state in which the driver's face is detected and a face non-detection state in which the driver's face is not detected, which are detected while the vehicle passes through the intersection. When,
Whether the face non-detection state is due to the driver's safety confirmation operation based on the temporal relationship between the face detection state and the face non-detection state indicated by the data acquired by the data acquisition unit. A judgment unit that determines whether or not it is
It is characterized by including an evaluation unit for evaluating the safety confirmation operation of the driver at the intersection in consideration of the determination result by the determination unit.

上記運転評価装置(1)によれば、前記データ取得部で取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かが判定される。したがって、前記車両が交差点を通過する間に前記顔非検出状態が検出された場合に、該顔非検出状態が前記運転者の安全確認動作によるものであるか否かを適切に判定することができ、前記交差点における前記運転者の安全確認動作を精度よく評価することができる。 According to the operation evaluation device (1), the face non-detection state is the face non-detection state based on the temporal relationship between the face detection state and the face non-detection state indicated by the data acquired by the data acquisition unit. It is determined whether or not it is due to the driver's safety confirmation operation. Therefore, when the face non-detection state is detected while the vehicle passes through the intersection, it is possible to appropriately determine whether or not the face non-detection state is due to the driver's safety confirmation operation. It is possible to accurately evaluate the safety confirmation operation of the driver at the intersection.

また本開示に係る運転評価装置(2)は、上記運転評価装置(1)において、前記判定部が、前記顔非検出状態の前後少なくともいずれかの前記顔検出状態における前記運転者の顔の向きの時間的変化を考慮して、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定するものであることを特徴としている。 Further, in the operation evaluation device (2) according to the present disclosure, in the operation evaluation device (1), the determination unit determines the orientation of the driver's face in at least one of the face detection states before and after the face non-detection state. It is characterized in that it is determined whether or not the face non-detection state is due to the safety confirmation operation of the driver in consideration of the temporal change of the above.

上記運転評価装置(2)によれば、前記判定部において、前記顔非検出状態の前後少なくともいずれかの前記顔検出状態における前記運転者の顔の向きの時間的変化を考慮して、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かが判定される。したがって、前記顔非検出状態の前後少なくともいずれかの前記顔検出状態における前記運転者の顔の向きの時間的変化を考慮することにより、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かをより正確に判定することができ、前記交差点における前記運転者の安全確認動作をさらに精度よく評価することができる。 According to the driving evaluation device (2), in the determination unit, the face is taken into consideration in consideration of the temporal change of the face orientation of the driver in at least one of the face detection states before and after the face non-detection state. It is determined whether or not the non-detection state is due to the driver's safety confirmation operation. Therefore, by considering the temporal change of the face orientation of the driver in at least one of the face detection states before and after the face non-detection state, the face non-detection state is due to the driver's safety confirmation operation. It is possible to more accurately determine whether or not the safety confirmation is performed, and it is possible to more accurately evaluate the safety confirmation operation of the driver at the intersection.

また本開示に係る運転評価装置(3)は、上記運転評価装置(1)又は(2)において、前記判定部が、前記データ取得部で取得された前記データが、前記顔検出状態から前記顔非検出状態になって所定時間内に再び前記顔検出状態に戻ったことを示すものである場合、前記顔非検出状態が前記運転者の安全確認動作によるものであると判定することを特徴としている。 Further, in the operation evaluation device (3) according to the present disclosure, in the operation evaluation device (1) or (2), the data acquired by the determination unit and the data acquisition unit can be obtained from the face detection state to the face. When it indicates that the face has not been detected and the face has been detected again within a predetermined time, it is determined that the face non-detection state is due to the driver's safety confirmation operation. There is.

上記運転評価装置(3)によれば、前記データ取得部で取得された前記データが、前記顔検出状態から前記顔非検出状態になって所定時間内に再び前記顔検出状態に戻ったことを示すものである場合、前記顔非検出状態が前記運転者の安全確認動作によるものであると判定される。したがって、前記車両が交差点を通過する間における前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かをより正確に判定することができ、前記交差点における前記運転者の安全確認動作をさらに精度よく評価することができる。 According to the operation evaluation device (3), the data acquired by the data acquisition unit changes from the face detection state to the face non-detection state and returns to the face detection state again within a predetermined time. When it is shown, it is determined that the face non-detection state is due to the safety confirmation operation of the driver. Therefore, it is possible to more accurately determine whether or not the face non-detection state is due to the driver's safety confirmation operation while the vehicle passes through the intersection, and it is possible to more accurately determine whether or not the driver's safety confirmation operation at the intersection. The operation can be evaluated more accurately.

また本開示に係る運転評価装置(4)は、上記運転評価装置(1)又は(2)において、前記判定部が、前記データ取得部で取得された前記データが、前記顔検出状態から前記顔非検出状態になって所定時間内に再び前記顔検出状態に戻らなかったことを示すものである場合、前記顔非検出状態が前記運転者の安全確認動作によるものではないと判定することを特徴としている。 Further, in the operation evaluation device (4) according to the present disclosure, in the operation evaluation device (1) or (2), the data acquired by the determination unit and the data acquisition unit can be obtained from the face detection state to the face. When it indicates that the face has not been detected and the face has not been detected again within a predetermined time, it is determined that the face non-detection state is not due to the driver's safety confirmation operation. It is supposed to be.

上記運転評価装置(4)によれば、前記データ取得部で取得された前記データが、前記顔検出状態から前記顔非検出状態になって所定時間内に再び前記顔検出状態に戻らなかったことを示すものである場合、前記顔非検出状態が前記運転者の安全確認動作によるものではないと判定される。したがって、前記顔非検出状態が前記運転者の安全確認動作によるものではない場合も適切に判定することができ、前記交差点における前記運転者の安全確認動作を正確に評価することができる。 According to the operation evaluation device (4), the data acquired by the data acquisition unit changed from the face detection state to the face non-detection state and did not return to the face detection state again within a predetermined time. Is indicated, it is determined that the face non-detection state is not due to the driver's safety confirmation operation. Therefore, even if the face non-detection state is not due to the driver's safety confirmation operation, it can be appropriately determined, and the driver's safety confirmation operation at the intersection can be accurately evaluated.

また本開示に係る運転評価装置(5)は、上記運転評価装置(1)~(3)のいずれかにおいて、前記評価部が、前記判定部により、前記顔非検出状態が前記運転者の安全確認動作によるものであると判定された場合、前記顔非検出状態において前記運転者の安全確認動作が行われたものとして評価することを特徴としている。 Further, in the operation evaluation device (5) according to the present disclosure, in any of the operation evaluation devices (1) to (3), the evaluation unit is used by the determination unit, and the face non-detection state is the safety of the driver. When it is determined that the operation is due to the confirmation operation, the driver is evaluated as having performed the safety confirmation operation in the face non-detection state.

上記運転評価装置(5)によれば、前記判定部により前記顔非検出状態が前記運転者の安全確認動作によるものであると判定された場合、前記顔非検出状態において前記運転者の安全確認動作が行われたものとして適切に評価することができる。 According to the driving evaluation device (5), when the determination unit determines that the face non-detection state is due to the driver's safety confirmation operation, the driver's safety confirmation in the face non-detection state. It can be properly evaluated as if the operation was performed.

また本開示に係る運転評価方法は、車両の運転者の運転を評価する運転評価方法であって、
前記車両が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得ステップと、
該データ取得ステップにより取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定ステップと、
該判定ステップによる判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価ステップとを含むことを特徴としている。
Further, the driving evaluation method according to the present disclosure is a driving evaluation method for evaluating the driving of the driver of the vehicle.
A data acquisition step for acquiring data regarding a face detection state in which the driver's face is detected and a face non-detection state in which the driver's face is not detected, which are detected while the vehicle passes through the intersection. When,
Whether the face non-detection state is due to the driver's safety confirmation operation based on the temporal relationship between the face detection state and the face non-detection state indicated by the data acquired by the data acquisition step. Judgment step to determine whether or not,
It is characterized by including an evaluation step for evaluating the safety confirmation operation of the driver at the intersection in consideration of the determination result by the determination step.

上記運転評価方法によれば、前記データ取得ステップにより取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する。したがって、前記車両が交差点を通過する間に前記顔非検出状態が検出された場合に、該顔非検出状態が前記運転者の安全確認動作によるものであるか否かを適切に判定することができ、前記交差点における前記運転者の安全確認動作を精度よく評価することができる。 According to the driving evaluation method, the face non-detection state is the driver's based on the temporal relationship between the face detection state and the face non-detection state indicated by the data acquired by the data acquisition step. Judge whether it is due to the safety confirmation operation. Therefore, when the face non-detection state is detected while the vehicle passes through the intersection, it is possible to appropriately determine whether or not the face non-detection state is due to the driver's safety confirmation operation. It is possible to accurately evaluate the safety confirmation operation of the driver at the intersection.

また本開示に係る運転評価プログラムは、車両の運転者の運転を評価する処理を少なくとも1つのコンピュータに実行させる運転評価プログラムであって、
前記少なくとも1つのコンピュータに、
前記車両が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得ステップと、
該データ取得ステップにより取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定ステップと、
該判定ステップによる判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価ステップとを実行させることを特徴としている。
Further, the driving evaluation program according to the present disclosure is a driving evaluation program for causing at least one computer to execute a process of evaluating the driving of the driver of the vehicle.
To the at least one computer
A data acquisition step for acquiring data regarding a face detection state in which the driver's face is detected and a face non-detection state in which the driver's face is not detected, which are detected while the vehicle passes through the intersection. When,
Whether the face non-detection state is due to the driver's safety confirmation operation based on the temporal relationship between the face detection state and the face non-detection state indicated by the data acquired by the data acquisition step. Judgment step to determine whether or not,
It is characterized in that an evaluation step for evaluating the safety confirmation operation of the driver at the intersection is executed in consideration of the determination result by the determination step.

上記運転評価プログラムによれば、前記データ取得ステップにより取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する。したがって、前記車両が交差点を通過する間に前記顔非検出状態が検出された場合に、該顔非検出状態が前記運転者の安全確認動作によるものであるか否かを適切に判定することができ、前記交差点における前記運転者の安全確認動作を精度よく評価することができる装置を実現することができる。 According to the driving evaluation program, the face non-detection state is the driver's based on the temporal relationship between the face detection state and the face non-detection state indicated by the data acquired by the data acquisition step. Judge whether it is due to the safety confirmation operation. Therefore, when the face non-detection state is detected while the vehicle passes through the intersection, it is possible to appropriately determine whether or not the face non-detection state is due to the driver's safety confirmation operation. It is possible to realize a device capable of accurately evaluating the safety confirmation operation of the driver at the intersection.

実施の形態に係る運転評価装置が適用される運転評価システムの一例を示す概略構成図である。It is a schematic block diagram which shows an example of the operation evaluation system to which the operation evaluation apparatus which concerns on embodiment is applied. 実施の形態に係る運転評価システムで用いられる車載機の要部を概略的に示すブロック図である。It is a block diagram which shows the main part of the in-vehicle device used in the operation evaluation system which concerns on embodiment. 車載機からサーバ装置に送信されるデータの構造の一例を示す図である。It is a figure which shows an example of the structure of the data transmitted from an in-vehicle device to a server device. 実施の形態に係るサーバ装置の特徴部分を示す機能構成ブロック図である。It is a functional block diagram which shows the characteristic part of the server apparatus which concerns on embodiment. 実施の形態に係る車載機のドライバモニタリング部が行う処理動作を示すフローチャートである。It is a flowchart which shows the processing operation performed by the driver monitoring unit of the vehicle-mounted device which concerns on embodiment. 実施の形態に係る車載機の制御部が行う処理動作を示すフローチャートである。It is a flowchart which shows the processing operation performed by the control unit of the vehicle-mounted device which concerns on embodiment. 実施の形態に係るサーバ装置の中央処理装置が行う処理動作を示すフローチャートである。It is a flowchart which shows the processing operation performed by the central processing unit of the server apparatus which concerns on embodiment. 実施の形態に係るサーバ装置の中央処理装置が行う安全確認評価の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the safety confirmation evaluation performed by the central processing unit of the server apparatus which concerns on embodiment. 実施の形態に係るサーバ装置の中央処理装置が行う安全確認評価の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the safety confirmation evaluation performed by the central processing unit of the server apparatus which concerns on embodiment.

以下、本発明に係る運転評価装置、運転評価方法、及び運転評価プログラムの実施の形態を図面に基づいて説明する。 Hereinafter, embodiments of an operation evaluation device, an operation evaluation method, and an operation evaluation program according to the present invention will be described with reference to the drawings.

[適用例]
図1は、実施の形態に係る運転評価装置が適用される運転評価システムの一例を示す概略構成図である。
運転評価システム1は、車両2の運転者3の運転評価を行うためのシステムであって、少なくとも1台以上の車両2に搭載される車載機10と、各車載機10で取得されたデータを処理する少なくとも1つ以上のサーバ装置40とを含んで構成されている。サーバ装置40が、本発明に係る「運転評価装置」の一例である。
[Application example]
FIG. 1 is a schematic configuration diagram showing an example of an operation evaluation system to which the operation evaluation device according to the embodiment is applied.
The driving evaluation system 1 is a system for evaluating the driving of the driver 3 of the vehicle 2, and is a system in which the on-board unit 10 mounted on at least one or more vehicles 2 and the data acquired by each on-board unit 10 are used. It is configured to include at least one or more server devices 40 to be processed. The server device 40 is an example of the "operation evaluation device" according to the present invention.

車載機10が搭載される車両2は、特に限定されない。本適用例では、各種の事業を営む事業者が管理する車両が対象とされ得る。例えば、運送事業者が管理するトラック、バス事業者が管理するバス、タクシー事業者が管理するタクシー、カーシェアリング事業者が管理するカーシェア車両、レンタカー事業者が管理するレンタカー、会社が所有している社有車、又はカーリース事業者からリースして使用する社有車などが対象とされ得る。 The vehicle 2 on which the vehicle-mounted device 10 is mounted is not particularly limited. In this application example, a vehicle managed by a business operator engaged in various businesses may be targeted. For example, trucks managed by transportation companies, buses managed by bus companies, taxis managed by taxi companies, car sharing vehicles managed by car sharing companies, car rentals managed by car rental companies, owned by companies. It may be a company-owned vehicle that is owned by a company or a company-owned vehicle that is leased and used by a car leasing company.

車載機10とサーバ装置40とは、通信ネットワーク4を介して通信可能に構成されている。通信ネットワーク4は、基地局を含む携帯電話網(3G/4G)や無線LAN(Local Area Network)などの無線通信網を含んでもよいし、公衆電話網などの有線通信網、インターネット、又は専用網などの電気通信回線を含んでもよい。 The vehicle-mounted device 10 and the server device 40 are configured to be able to communicate with each other via the communication network 4. The communication network 4 may include a wireless communication network such as a mobile phone network (3G / 4G) including a base station or a wireless LAN (Local Area Network), a wired communication network such as a public telephone network, the Internet, or a dedicated network. It may include a telecommunication line such as.

また、車両2を管理する事業者の端末装置80(以下、事業者端末という。)が、通信ネットワーク4を介してサーバ装置40と通信可能に構成されている。事業者端末80は、通信機能を備えたパーソナルコンピュータでもよいし、携帯電話、スマートフォン、又はタブレット装置などの携帯情報端末などでもよい。また、事業者端末80が、通信ネットワーク4を介して車載機10と通信可能に構成されてもよい。 Further, the terminal device 80 of the business operator that manages the vehicle 2 (hereinafter referred to as the business operator terminal) is configured to be able to communicate with the server device 40 via the communication network 4. The business terminal 80 may be a personal computer having a communication function, or may be a mobile information terminal such as a mobile phone, a smartphone, or a tablet device. Further, the operator terminal 80 may be configured to be able to communicate with the vehicle-mounted device 10 via the communication network 4.

車載機10は、車両2の運転者3の状態をモニタリングするとともに、運転者3の運転評価に用いるデータを取得し、例えば、所定の事象が検出されたときに取得したデータをサーバ装置40へ送信する装置である。
車載機10は、車両2の位置及び車両2の挙動を検出する処理などを行うプラットフォーム部11と、運転者3の画像を撮像して、運転者3の状態を検出するドライバモニタリング部20とを含んで構成されている。運転者3の状態を示すデータには、運転者3の画像から検出された運転者3の顔の向きなどの顔画像情報が含まれている。また、車両2の車外と車内をそれぞれ撮影するドライブレコーダ部30が車載機10に接続されている。
The on-board unit 10 monitors the state of the driver 3 of the vehicle 2 and acquires data used for the driving evaluation of the driver 3. For example, the acquired data when a predetermined event is detected is transferred to the server device 40. It is a device to transmit.
The on-board unit 10 includes a platform unit 11 that performs processing for detecting the position of the vehicle 2 and the behavior of the vehicle 2, and a driver monitoring unit 20 that captures an image of the driver 3 and detects the state of the driver 3. It is configured to include. The data indicating the state of the driver 3 includes face image information such as the direction of the face of the driver 3 detected from the image of the driver 3. Further, a drive recorder unit 30 for photographing the outside and the inside of the vehicle 2 is connected to the in-vehicle device 10.

車載機10は、プラットフォーム部11とドライバモニタリング部20とが1つの筐体内に収納されたコンパクトな構成となっている。車載機10の車内設置箇所は、ドライバモニタリング部20の撮像部で少なくとも運転者の顔を含む視野を撮像できる位置であれば、特に限定されない。例えば、車載機10は、車両2のダッシュボード中央付近に設置され得るが、ハンドルコラム部分、メーターパネル付近、ルームミラー近傍位置、又はAピラー部分などに設置されてもよい。 The on-board unit 10 has a compact configuration in which the platform unit 11 and the driver monitoring unit 20 are housed in one housing. The location of the vehicle-mounted device 10 in the vehicle is not particularly limited as long as the image pickup unit of the driver monitoring unit 20 can image at least the field of view including the driver's face. For example, the vehicle-mounted device 10 may be installed near the center of the dashboard of the vehicle 2, but may be installed at the steering wheel column portion, the vicinity of the meter panel, the position near the rearview mirror, the A pillar portion, or the like.

車載機10は、例えば、車両2が交差点を通過(例えば、右折又は左折など)したことを検出すると、交差点を通過しているときに、ドライバモニタリング部20とプラットフォーム部11とで検出された、運転者3の状態、車両2の位置、及び車両2の挙動を含むデータをサーバ装置40へ送信する処理を実行する。 When the vehicle-mounted device 10 detects that the vehicle 2 has passed the intersection (for example, a right turn or a left turn), the driver monitoring unit 20 and the platform unit 11 detect the vehicle 2 while passing the intersection. A process of transmitting data including the state of the driver 3, the position of the vehicle 2, and the behavior of the vehicle 2 to the server device 40 is executed.

サーバ装置40は、通信ユニット41、サーバコンピュータ50、及び記憶ユニット60を含んで構成され、これらが通信バス42を介して接続されている。 The server device 40 includes a communication unit 41, a server computer 50, and a storage unit 60, and these are connected via a communication bus 42.

通信ユニット41は、通信ネットワーク4を介して、車載機10や事業者端末80などとの間で各種のデータや信号の送受信を実現するための通信装置で構成されている。 The communication unit 41 is composed of a communication device for realizing transmission / reception of various data and signals to and from the vehicle-mounted device 10 and the business terminal 80 via the communication network 4.

サーバコンピュータ50は、1つ以上のCPU(Central Processing Unit)を含んで構成される中央処理装置51と、制御プログラム52が記憶されたメインメモリ53とを含んで構成されている。中央処理装置51は、メインメモリ53中の制御プログラム52に従って、各種処理を実行するようになっている。制御プログラム52に、本発明に係る「運転評価プログラム」の一例が含まれている。 The server computer 50 is configured to include a central processing unit 51 including one or more CPUs (Central Processing Units) and a main memory 53 in which the control program 52 is stored. The central processing unit 51 executes various processes according to the control program 52 in the main memory 53. The control program 52 includes an example of the "operation evaluation program" according to the present invention.

記憶ユニット60は、例えば、ハードディスクドライブ、ソリッドステートドライブなど、1つ以上の大容量記憶装置で構成され、データ蓄積部61、評価データ記憶部62、及び運転者3の情報を記憶する運転者情報記憶部63を含んで構成されている。 The storage unit 60 is composed of one or more large-capacity storage devices such as a hard disk drive and a solid state drive, and stores information of the data storage unit 61, the evaluation data storage unit 62, and the driver 3. It is configured to include a storage unit 63.

サーバ装置40は、各車載機10から所定の事象が検出されたときに送信されてきた、運転者3の状態、車両2の位置、及び車両2の挙動を含むデータを取得して、記憶ユニット60のデータ蓄積部61に蓄積する。 The server device 40 acquires data including the state of the driver 3, the position of the vehicle 2, and the behavior of the vehicle 2, which are transmitted from each on-board unit 10 when a predetermined event is detected, and is a storage unit. It is stored in the data storage unit 61 of 60.

サーバ装置40は、データ蓄積部61に蓄積された各車載機10のデータを用いて、各運転者3の運転評価を行う。該運転評価の項目には、交差点における運転者の安全確認動作に関する評価が含まれているが、さらに運転者の運転操作行為に関する評価、運転時の集中状態に関する評価などの項目が含まれてもよい。 The server device 40 uses the data of each on-board unit 10 stored in the data storage unit 61 to evaluate the operation of each driver 3. The driving evaluation item includes an evaluation regarding the driver's safety confirmation operation at an intersection, but may further include an evaluation regarding the driver's driving operation behavior, an evaluation regarding a concentration state during driving, and the like. good.

サーバ装置40は、各車載機10から取得したデータを用いて、各車両2の一日の運転が終了した後に、各項目の評価処理を実行してもよいし、又は一定期間毎に、該一定期間内における各項目の評価処理を実行してもよく、運転評価処理の実行タイミングは特に限定されない。そして、サーバ装置40は、前記運転評価処理で得られた各運転者3の運転評価データを記憶ユニット60の評価データ記憶部62に記憶する処理を実行する。 The server device 40 may execute the evaluation process of each item after the one-day operation of each vehicle 2 is completed by using the data acquired from each on-board unit 10, or the server device 40 may execute the evaluation process of each item at regular intervals. The evaluation process of each item may be executed within a certain period, and the execution timing of the operation evaluation process is not particularly limited. Then, the server device 40 executes a process of storing the operation evaluation data of each driver 3 obtained in the operation evaluation process in the evaluation data storage unit 62 of the storage unit 60.

本実施の形態に係るサーバ装置40の特徴の1つは、交差点における運転者3の安全確認動作の判定処理にある。
交差点における運転者3の安全確認動作の判定処理は、データ蓄積部61に蓄積されたデータに基づいて実行される。
データ蓄積部61に蓄積されるデータには、車両2が交差点を通過(例えば、右折又は左折)しているときに、車載機10(ドライバモニタリング部20、プラットフォーム部11)で検出された、運転者3の状態、車両2の位置、及び車両2の挙動を含むデータが含まれている。
One of the features of the server device 40 according to the present embodiment is the determination process of the safety confirmation operation of the driver 3 at the intersection.
The determination process of the safety confirmation operation of the driver 3 at the intersection is executed based on the data stored in the data storage unit 61.
The data stored in the data storage unit 61 includes the operation detected by the on-board unit 10 (driver monitoring unit 20, platform unit 11) when the vehicle 2 is passing through an intersection (for example, turning right or left). Data including the state of the person 3, the position of the vehicle 2, and the behavior of the vehicle 2 are included.

運転者3の状態を示すデータには、ドライバモニタリング部20で検出される、運転者3の顔の向きなどの顔の検出状態に関するデータ(以下、このデータを顔画像情報ともいう)が含まれている。
車載機10が、例えば、車両2のダッシュボードの中央付近に設置された場合、この位置から、車載機10のドライバモニタリング部20で右ハンドル車の運転者3の画像を撮像すると、車載機10が運転者3の左斜め前方に位置するため、運転者3の右方向の顔の向きの検出範囲が左方向と比べて狭くなる。
The data indicating the state of the driver 3 includes data related to the face detection state such as the face orientation of the driver 3 detected by the driver monitoring unit 20 (hereinafter, this data is also referred to as face image information). ing.
When the vehicle-mounted device 10 is installed near the center of the dashboard of the vehicle 2, for example, when the driver monitoring unit 20 of the vehicle-mounted device 10 captures an image of the driver 3 of the right-hand drive vehicle from this position, the vehicle-mounted device 10 is captured. Is located diagonally to the left and forward of the driver 3, so that the detection range of the face orientation in the right direction of the driver 3 is narrower than that in the left direction.

そのため、車両2が、例えば、交差点を右折するときに、運転者3が顔を右側に大きく振り、右方向を確認した場合、ドライバモニタリング部20で運転者3の顔の向きを検出できない期間が生じることもある。
また、車両2が、トラックやバスなどの車長が長い大型車両である場合、交差点を右折するときに、運転者3が運転席の窓から頭を出して右方向を確認すると、ドライバモニタリング部20で運転者3の顔を検出できない期間が生じることもある。なお、このような現象は、車載機10が車両2のダッシュボードの中央付近以外の場所に設置された場合、車両2が左ハンドル車である場合、又は車両2が交差点を左折する場合であっても生じ得るものである。
Therefore, for example, when the vehicle 2 makes a right turn at an intersection, if the driver 3 swings his face to the right and confirms the right direction, there is a period during which the driver monitoring unit 20 cannot detect the direction of the driver 3's face. It may occur.
Further, when the vehicle 2 is a large vehicle such as a truck or a bus having a long vehicle length, when the driver 3 puts his head out of the window of the driver's seat and checks the right direction when turning right at the intersection, the driver monitoring unit At 20, there may be a period during which the face of the driver 3 cannot be detected. It should be noted that such a phenomenon occurs when the on-board unit 10 is installed in a place other than the vicinity of the center of the dashboard of the vehicle 2, when the vehicle 2 is a left-hand drive vehicle, or when the vehicle 2 turns left at an intersection. But it can happen.

このような場合、運転者3の状態を示すデータには、運転者3の顔(顔の向きを含む)が検出されていない状態のデータが含まれることとなる。
そこで、実施の形態に係るサーバ装置40は、車両2が交差点を通過しているときの運転者3の状態を示すデータに、運転者3の顔(顔の向きを含む)が検出されていない状態(以下、顔非検出状態ともいう)のデータが含まれている場合、顔非検出状態が運転者3の安全確認動作によるものであるか否かを判定し、該判定結果を考慮して交差点における運転者の安全確認動作を評価する処理を実行する。
In such a case, the data indicating the state of the driver 3 includes the data in the state where the face (including the direction of the face) of the driver 3 is not detected.
Therefore, in the server device 40 according to the embodiment, the face (including the direction of the face) of the driver 3 is not detected in the data indicating the state of the driver 3 when the vehicle 2 is passing through the intersection. When the data of the state (hereinafter, also referred to as the face non-detection state) is included, it is determined whether or not the face non-detection state is due to the safety confirmation operation of the driver 3, and the determination result is taken into consideration. The process of evaluating the driver's safety confirmation operation at the intersection is executed.

顔非検出状態が運転者3の安全確認動作によるものであるか否かの判定は、例えば、車両2が交差点を通過(右折又は左折)しているときの運転者3の顔が検出されている状態(以下、顔検出状態ともいう)と運転者3の顔非検出状態との時間的関係に基づいて判定される。 In the determination of whether or not the face non-detection state is due to the safety confirmation operation of the driver 3, for example, the face of the driver 3 when the vehicle 2 is passing through an intersection (turning right or left) is detected. It is determined based on the temporal relationship between the present state (hereinafter, also referred to as the face detection state) and the face non-detection state of the driver 3.

例えば、交差点で曲がる時(右折又は左折する時)に運転者3が曲がる方向を確認する場合、運転者3の顔は、正面方向を向いた状態から曲がる方向に振られ、その後正面方向に振られ、元の正面方向を向いた状態に戻る。
したがって、サーバ装置40は、車載機10から取得したデータが、交差点で曲がる時に運転者3の顔の向きが曲がる方向に変化して、顔検出状態から顔非検出状態になって所定の第1の時間内に再び顔検出状態に戻ったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。前記第1の時間は、安全確認に必要かつ適切な時間(例えば、1秒前後)に設定される。
For example, when the driver 3 confirms the turning direction when turning at an intersection (when turning right or left), the driver 3's face is swung from the front facing direction to the turning direction, and then swung in the front direction. And return to the original front facing state.
Therefore, the server device 40 changes from the face detection state to the face non-detection state when the data acquired from the vehicle-mounted device 10 changes in the direction in which the driver 3's face turns when turning at the intersection. If it indicates that the face detection state has been restored within the time specified, it may be determined that the face non-detection state is due to the safety confirmation operation of the driver 3. The first time is set to a time necessary and appropriate for safety confirmation (for example, around 1 second).

また、顔非検出状態が運転者3の安全確認動作によるものであるか否かの判定は、顔非検出状態の前後少なくともいずれかの顔検出状態における運転者3の顔の向きの時間的変化を考慮して判定してもよい。 Further, the determination of whether or not the face non-detection state is due to the safety confirmation operation of the driver 3 is determined by the temporal change of the face orientation of the driver 3 in at least one of the face detection states before and after the face non-detection state. May be determined in consideration of.

例えば、サーバ装置40は、車載機10から取得したデータが、車両2が交差点で曲がる時に、運転者3の曲がる方向への顔の向き(振り角度)が、経時的に大きくなった後に、顔非検出状態になり、その後、振り角度が経時的に小さくなる変化を示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。 For example, in the server device 40, when the data acquired from the in-vehicle device 10 is used, when the vehicle 2 turns at an intersection, the face direction (swing angle) of the driver 3 in the turning direction becomes larger with time, and then the face. When the non-detection state is reached and then the swing angle changes with time, it may be determined that the face non-detection state is due to the safety confirmation operation of the driver 3.

または、サーバ装置40は、車載機10から取得したデータが、車両2が交差点で曲がる時に、運転者3の曲がる方向への顔の向き(振り角度)が、経時的に大きくなった後に、顔非検出状態になり、所定時間内に再び顔検出状態に戻ったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。 Alternatively, the server device 40 obtains data from the vehicle-mounted device 10 after the face orientation (swing angle) of the driver 3 in the bending direction of the driver 3 increases with time when the vehicle 2 turns at an intersection. If it indicates that the face has not been detected and the face has been detected again within a predetermined time, it may be determined that the face non-detection state is due to the safety confirmation operation of the driver 3.

または、サーバ装置40は、車載機10から取得したデータが、車両2が交差点で曲がる時に、運転者3の顔の向きが曲がる方向に変化し、顔検出状態から顔非検出状態になって、その後、運転者3の曲がる方向への顔の向き(振り角度)が経時的に小さくなる変化を示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。 Alternatively, the server device 40 changes the direction of the face of the driver 3 in the direction in which the face of the driver 3 turns when the vehicle 2 turns at the intersection, and the data acquired from the vehicle-mounted device 10 changes from the face detection state to the face non-detection state. After that, when the direction (swing angle) of the face in the bending direction of the driver 3 shows a change that becomes smaller with time, it is determined that the face non-detection state is due to the safety confirmation operation of the driver 3. You may.

一方、サーバ装置40は、車載機10から取得したデータが、車両2が交差点で曲がる時に、顔検出状態から顔非検出状態になって所定の第2の時間内に再び顔検出状態に戻らなかったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものではないと判定してもよい。前記第2の時間は、前記第1の時間より長く、運転者3が正常に運転できない状態であると判定する時間に設定される。 On the other hand, the server device 40 does not return to the face detection state again within a predetermined second time from the face detection state to the face non-detection state when the vehicle 2 turns at the intersection. If it indicates that, it may be determined that the face non-detection state is not due to the safety confirmation operation of the driver 3. The second time is longer than the first time, and is set to a time for determining that the driver 3 cannot normally drive.

このようなサーバ装置40によれば、車両2が交差点を通過する間に顔非検出状態が検出された場合であっても、該顔非検出状態が運転者3の安全確認動作によるものであるか否かを適切に判定することが可能となり、交差点における運転者3の安全確認動作を精度よく評価することが可能となる。 According to such a server device 40, even if the face non-detection state is detected while the vehicle 2 passes through the intersection, the face non-detection state is due to the safety confirmation operation of the driver 3. It becomes possible to appropriately determine whether or not the safety confirmation is performed, and it is possible to accurately evaluate the safety confirmation operation of the driver 3 at the intersection.

[構成例]
図2は、実施の形態に係る運転評価システム1で用いられる車載機10の要部を概略的に示すブロック図である。
車載機10は、プラットフォーム部11及びドライバモニタリング部20を含んで構成されている。また、車載機10にドライブレコーダ部30が接続されている。
[Configuration example]
FIG. 2 is a block diagram schematically showing a main part of the vehicle-mounted device 10 used in the operation evaluation system 1 according to the embodiment.
The on-board unit 10 includes a platform unit 11 and a driver monitoring unit 20. Further, the drive recorder unit 30 is connected to the vehicle-mounted device 10.

プラットフォーム部11には、車両2の加速度を測定する加速度センサ12、車両2の回転角速度を検出する角速度センサ13、及び車両2の位置を検出するGPS(Global Positioning System)受信部14が装備されている。また、プラットフォーム部11には、通信ネットワーク4を介して外部機器と通信処理を行う通信部15、警告などを行うための所定の音や音声などを出力する報知部16、記憶部17、及び外部インターフェース(外部I/F)18が装備されている。さらにプラットフォーム部11には、各部の処理動作を制御する制御部19が装備されている。 The platform unit 11 is equipped with an acceleration sensor 12 that measures the acceleration of the vehicle 2, an angular velocity sensor 13 that detects the rotational angular velocity of the vehicle 2, and a GPS (Global Positioning System) receiving unit 14 that detects the position of the vehicle 2. There is. Further, the platform unit 11 includes a communication unit 15 that performs communication processing with an external device via the communication network 4, a notification unit 16 that outputs a predetermined sound or voice for issuing a warning, a storage unit 17, and an external device. The interface (external I / F) 18 is equipped. Further, the platform unit 11 is equipped with a control unit 19 that controls the processing operation of each unit.

加速度センサ12は、例えば、XYZ軸の3方向の加速度を測定する3軸加速度センサで構成されている。3軸加速度センサには、静電容量型の他、ピエゾ抵抗型などの半導体方式の加速度センサを用いることができる。なお、加速度センサ12には、2軸、1軸の加速度センサを用いてもよい。加速度センサ12で測定された加速度データが、検出時刻と対応付けて制御部19のRAM19bに記憶される。 The acceleration sensor 12 is composed of, for example, a three-axis acceleration sensor that measures acceleration in three directions of the XYZ axes. As the 3-axis accelerometer, a semiconductor type accelerometer such as a piezo resistance type can be used in addition to the capacitance type. A 2-axis and 1-axis accelerometer may be used as the accelerometer 12. The acceleration data measured by the acceleration sensor 12 is stored in the RAM 19b of the control unit 19 in association with the detection time.

角速度センサ13は、少なくとも鉛直軸回り(ヨー方向)の回転に応じた角速度、すなわち、車両2の左右方向への回転(旋回)に応じた角速度データを検出可能なセンサ、例えば、ジャイロセンサ(ヨーレートセンサともいう)で構成されている。
なお、角速度センサ13には、鉛直軸回りの1軸ジャイロセンサの他、左右方向の水平軸回り(ピッチ方向)の角速度も検出する2軸ジャイロセンサ、さらに前後方向の水平軸回り(ロール方向)の角速度も検出する3軸ジャイロセンサを用いてもよい。これらジャイロセンサには、振動式ジャイロセンサの他、光学式、又は機械式のジャイロセンサを用いることができる。
The angular velocity sensor 13 is a sensor capable of detecting at least the angular velocity corresponding to the rotation around the vertical axis (yaw direction), that is, the angular velocity data corresponding to the rotation (turning) of the vehicle 2 in the left-right direction, for example, a gyro sensor (yaw rate). It is also called a sensor).
The angular velocity sensor 13 includes a uniaxial gyro sensor around the vertical axis, a biaxial gyro sensor that detects an angular velocity around the horizontal axis in the left-right direction (pitch direction), and a horizontal axis around the front-back direction (roll direction). A 3-axis gyro sensor that also detects the angular velocity of the gyro may be used. As these gyro sensors, in addition to the vibration type gyro sensor, an optical type or a mechanical type gyro sensor can be used.

また、角速度センサ13の鉛直軸回りの角速度の検出方向については、例えば、時計回りを正方向に、反時計回りを負方向に設定してもよい。この場合、車両2が右方向に旋回すれば正の角速度データが検出され、左方向に旋回すれば負の角速度データが検出される。角速度センサ13では、所定の周期(例えば、数十ms周期)で角速度が検出され、検出された角速度データが、例えば、検出時刻と対応付けて制御部19のRAM19bに記憶される。なお、加速度センサ12と角速度センサ13には、これらが一つのパッケージ内に実装された慣性センサを用いてもよい。 Further, regarding the detection direction of the angular velocity around the vertical axis of the angular velocity sensor 13, for example, clockwise may be set in the positive direction and counterclockwise may be set in the negative direction. In this case, if the vehicle 2 turns to the right, positive angular velocity data is detected, and if the vehicle 2 turns to the left, negative angular velocity data is detected. In the angular velocity sensor 13, the angular velocity is detected in a predetermined cycle (for example, a cycle of several tens of ms), and the detected angular velocity data is stored in the RAM 19b of the control unit 19 in association with the detection time, for example. For the acceleration sensor 12 and the angular velocity sensor 13, an inertial sensor in which these are mounted in one package may be used.

GPS受信部14は、アンテナ14aを介して人工衛星からのGPS信号を所定周期で受信して、現在地の位置データ(緯度、及び経度)を検出する。GPS受信部14で検出された位置データは、検出時刻と対応付けて制御部19のRAM19bに記憶される。なお、車両2の位置を検出する装置は、GPS受信部14に限定されるものではない。例えば、日本の準天頂衛星、ロシアのグロナス(GLONASS)、欧州のガリレオ(Galileo)、又は中国のコンパス(Compass)等の他の衛星測位システムに対応した測位装置を用いてもよい。 The GPS receiving unit 14 receives GPS signals from artificial satellites via the antenna 14a at a predetermined cycle, and detects position data (latitude and longitude) of the current location. The position data detected by the GPS receiving unit 14 is stored in the RAM 19b of the control unit 19 in association with the detection time. The device for detecting the position of the vehicle 2 is not limited to the GPS receiving unit 14. For example, positioning devices compatible with other satellite positioning systems such as the Quasi-Zenith Satellite in Japan, GLONASS in Russia, Galileo in Europe, or Compass in China may be used.

通信部15は、通信ネットワーク4を介してサーバ装置40にデータ出力処理などを行う通信モジュールを含んで構成されている。 The communication unit 15 includes a communication module that performs data output processing and the like on the server device 40 via the communication network 4.

記憶部17は、例えば、メモリーカードなどの着脱可能な記憶装置、又はハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)などの1つ以上の記憶装置で構成されている。記憶部17には、例えば、加速度センサ12、角速度センサ13、GPS受信部14、ドライバモニタリング部20、又はドライブレコーダ部30から取得したデータなどが記憶される。 The storage unit 17 is composed of, for example, a detachable storage device such as a memory card, or one or more storage devices such as a hard disk drive (HDD) and a solid state drive (SSD). The storage unit 17 stores, for example, data acquired from the acceleration sensor 12, the angular velocity sensor 13, the GPS receiving unit 14, the driver monitoring unit 20, or the drive recorder unit 30.

外部I/F18は、ドライブレコーダ部30などの車載機器との間でデータや信号の授受を行うためのインターフェース回路や接続コネクタなどを含んで構成されている。 The external I / F 18 includes an interface circuit, a connector, and the like for exchanging data and signals with an in-vehicle device such as a drive recorder unit 30.

制御部19は、CPU(Central Processing Unit)19a、RAM(Random Access Memory)19b、及びROM(Read Only Memory)19cを含むマイクロコンピュータで構成されている。制御部19は、取得した各種データをRAM19b又は記憶部17に記憶する処理を行う。また、制御部19は、ROM19cに記憶されたプログラムの他、必要に応じてRAM19b又は記憶部17に記憶された各種データを読み出して、プログラムを実行する。 The control unit 19 is composed of a microcomputer including a CPU (Central Processing Unit) 19a, a RAM (Random Access Memory) 19b, and a ROM (Read Only Memory) 19c. The control unit 19 performs a process of storing various acquired data in the RAM 19b or the storage unit 17. Further, the control unit 19 reads out various data stored in the RAM 19b or the storage unit 17 as needed in addition to the program stored in the ROM 19c, and executes the program.

ドライバモニタリング部20は、ドライバカメラ21、画像解析部22、及びインターフェース(I/F)23を含んで構成されている。
ドライバカメラ21は、例えば、図示しないレンズ部、撮像素子部、光照射部、及びこれら各部を制御するカメラ制御部などを含み、撮像部として構成される。
The driver monitoring unit 20 includes a driver camera 21, an image analysis unit 22, and an interface (I / F) 23.
The driver camera 21 includes, for example, a lens unit (not shown), an image sensor unit, a light irradiation unit, and a camera control unit that controls each of these units, and is configured as an image pickup unit.

ドライバカメラ21の仕様(例えば、画角や画素数(縦×横)など)及び位置姿勢(例えば、取付角度や所定の原点(ハンドル中央位置など)からの距離など)を含む情報がドライバモニタリング部20又はプラットフォーム部11に記憶されてもよい。また、ドライバモニタリング部20は、プラットフォーム部11と一体に構成される形態の他、プラットフォーム部11と別体で構成されてもよい。 Information including the specifications of the driver camera 21 (for example, the angle of view, the number of pixels (vertical x horizontal), etc.) and the position / orientation (for example, the mounting angle and the distance from a predetermined origin (the center position of the handle, etc.)) is the driver monitoring unit. It may be stored in 20 or the platform unit 11. Further, the driver monitoring unit 20 may be configured separately from the platform unit 11 in addition to the form integrated with the platform unit 11.

前記撮像素子部は、例えば、CCD(Charge Coupled Device)、又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、フィルタ、及びマイクロレンズなどを含んで構成されている。前記撮像素子部は、可視領域の光を受けて撮像画像を形成できるものを含む他、近赤外線などの赤外線又は紫外線を受けて撮像画像を形成できるCCD、CMOS、或いはフォトダイオード等の赤外線センサを含んでもよい。前記光照射部は、LED(Light Emitting Diode)などの発光素子を含み、また、昼夜を問わず運転者の状態を撮像できるように赤外線LEDなどを用いてもよい。ドライバカメラ21は、単眼カメラでもよいし、ステレオカメラであってもよい。 The image pickup device unit includes, for example, an image pickup device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), a filter, a microlens, and the like. The image pickup element unit includes an infrared sensor such as a CCD, CMOS, or a photodiode capable of receiving infrared rays such as near infrared rays or ultraviolet rays to form an image pickup image, in addition to those capable of forming an image pickup image by receiving light in the visible region. It may be included. The light irradiation unit includes a light emitting element such as an LED (Light Emitting Diode), and an infrared LED or the like may be used so that the state of the driver can be imaged day or night. The driver camera 21 may be a monocular camera or a stereo camera.

前記カメラ制御部は、例えば、プロセッサなどを含んで構成されている。前記カメラ制御部が、前記撮像素子部や前記光照射部を制御して、該光照射部から光(例えば、近赤外線など)を照射し、前記撮像素子部でその反射光を撮像する制御などを行う。ドライバカメラ21は所定のフレームレート(例えば、毎秒30~60フレーム)で画像を撮像し、ドライバカメラ21で撮像された画像のデータが画像解析部22へ出力される。 The camera control unit includes, for example, a processor and the like. The camera control unit controls the image pickup element unit and the light irradiation unit to irradiate light (for example, near infrared rays) from the light irradiation unit, and the image pickup element unit captures the reflected light. I do. The driver camera 21 captures an image at a predetermined frame rate (for example, 30 to 60 frames per second), and the data of the image captured by the driver camera 21 is output to the image analysis unit 22.

画像解析部22は、例えば、画像処理プロセッサなどを含んで構成され、ドライバカメラ21で撮像された画像から運転者の顔の有無、運転者の顔の向き、視線の方向、及び目開度のうちの少なくとも運転者の顔の有無を含む顔画像情報を検出する処理などを行う。画像解析部22で検出された運転者の顔画像情報、画像データ、及び撮像日時データが、インターフェース(I/F)23を介してプラットフォーム部11に送出され、プラットフォーム部11のRAM19b又は記憶部17に記憶される。 The image analysis unit 22 is configured to include, for example, an image processing processor, and the presence / absence of the driver's face, the direction of the driver's face, the direction of the line of sight, and the opening of the eyes are determined from the image captured by the driver camera 21. It performs processing such as detecting facial image information including at least the presence or absence of the driver's face. The driver's face image information, image data, and imaging date / time data detected by the image analysis unit 22 are transmitted to the platform unit 11 via the interface (I / F) 23, and the RAM 19b or the storage unit 17 of the platform unit 11 Is remembered in.

画像解析部22で検出される運転者の顔の向きは、例えば、運転者の顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ(Pitch)角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー(Yaw)角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール(Roll)角で示してよく、少なくとも左右の向きを示すヨー角が含まれる。またこれらの角度は、所定の基準方向に対する角度で示すことができ、例えば、前記基準方向が、運転者の正面方向に設定されてもよい。 The orientation of the driver's face detected by the image analysis unit 22 is, for example, a pitch angle which is an angle (vertical orientation) around the X axis (left and right axis) of the driver's face, and a Y axis of the face ( It may be indicated by the Yaw angle, which is the angle (horizontal axis) around (vertical axis), and the roll angle, which is the angle (left-right tilt) around the Z axis (front-back axis) of the face, at least left and right. Includes yaw angle to indicate orientation. Further, these angles can be indicated by an angle with respect to a predetermined reference direction, and for example, the reference direction may be set to the front direction of the driver.

また、画像解析部22で検出される運転者の視線の方向は、例えば、画像から検出された、運転者の顔の向きと、目領域の情報(目頭、眼尻、又は瞳孔の位置など)との関係から推定され、3次元座標上における視線ベクトルV(3次元ベクトル)などで示すことができる。視線ベクトルVは、例えば、運転者の顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール角のうち、少なくとも1つと、前記目領域の情報とから推定されたものでもよい。また、視線ベクトルVは、その3次元ベクトルの一部の値を顔の向きのベクトルの値と共通(例えば、3次元座標の原点を共通)にして示したり、顔の向きのベクトルを基準とした相対角度(顔の向きのベクトルの相対値)で示したりしてもよい。 Further, the direction of the driver's line of sight detected by the image analysis unit 22 is, for example, the direction of the driver's face detected from the image and information on the eye region (position of the inner corner of the eye, the outer corner of the eye, or the pupil). It is estimated from the relationship with and can be indicated by a line-of-sight vector V (three-dimensional vector) on three-dimensional coordinates. The line-of-sight vector V is, for example, a pitch angle which is an angle (up and down direction) around the X axis (left and right axis) of the driver's face, and a yaw which is an angle (left and right direction) around the Y axis (up and down axis) of the face. It may be estimated from at least one of the angle and the roll angle (left-right tilt) around the Z axis (front-back axis) of the face and the information in the eye area. Further, the line-of-sight vector V shows a part of the value of the three-dimensional vector in common with the value of the vector of the face orientation (for example, the origin of the three-dimensional coordinates is common), or the vector of the face orientation is used as a reference. It may be indicated by the relative angle (relative value of the vector of the direction of the face).

また、画像解析部22で検出される運転者の目開度は、例えば、画像から検出された、運転者の目領域の情報(目頭、眼尻、上下のまぶたの位置、又は瞳孔の位置など)を基に推定される。 Further, the driver's eye opening detected by the image analysis unit 22 is, for example, information on the driver's eye region (the inner corner of the eye, the outer corner of the eye, the position of the upper and lower eyelids, the position of the pupil, etc.) detected from the image. ) Is estimated.

プラットフォーム部11の外部I/F18には、ドライブレコーダ部30が接続されている。ドライブレコーダ部30は、車外カメラ31と車内カメラ32とを含んで構成されている。 The drive recorder unit 30 is connected to the external I / F 18 of the platform unit 11. The drive recorder unit 30 includes an outside camera 31 and an inside camera 32.

車外カメラ31は、車両2の前方の画像を撮像するカメラであり、車内カメラ32は、車両2の室内の画像を撮像するカメラである。車外カメラ31と車内カメラ32は、例えば、可視光カメラで構成され得るが、近赤外線カメラなどで構成してもよい。 The out-of-vehicle camera 31 is a camera that captures an image in front of the vehicle 2, and the in-vehicle camera 32 is a camera that captures an image of the interior of the vehicle 2. The outside camera 31 and the inside camera 32 may be composed of, for example, a visible light camera, but may be composed of a near infrared camera or the like.

車外カメラ31と車内カメラ32は、それぞれ所定のフレームレート(例えば、毎秒30~60フレーム)で画像を撮像し、車外カメラ31と車内カメラ32で撮像された画像と撮像日時などのデータがプラットフォーム部11へ送出され、プラットフォーム部11のRAM19b又は記憶部17に記憶される。なお、ドライブレコーダ部30は車外カメラ31のみ備えた構成であってもよい。 The out-of-vehicle camera 31 and the in-vehicle camera 32 each capture an image at a predetermined frame rate (for example, 30 to 60 frames per second), and the images captured by the out-of-vehicle camera 31 and the in-vehicle camera 32 and data such as the imaging date and time are stored in the platform unit. It is sent to 11 and stored in the RAM 19b or the storage unit 17 of the platform unit 11. The drive recorder unit 30 may be configured to include only the external camera 31.

図3は、車載機10からサーバ装置40に送信されるデータの構造の一例を示す図である。
車載機10からサーバ装置40に送信されるデータには、車載機10の識別情報(シリアルナンバー等)、送信日時、顔検出フラグFのデータ(例えば、F=1、又はF=0)、運転者の顔の向き(ピッチ、ヨー、及びロール)、視線の方向(ピッチ、及びヨー)、目開度(右目、及び左目)、車両の加速度(前後、左右、及び上下)、角速度(ヨー)、運転者画像、車外画像、車両の位置データ(緯度、及び経度)、及び走行速度が含まれている。顔検出フラグFは、ドライバカメラ21で撮像された画像から運転者の顔が検出された顔検出状態(F=1)と運転者の顔が検出されていない顔非検出状態(F=0)を示すものである。なお、顔検出フラグFが0に設定された場合に、サーバ装置40へ送信されるデータには、顔の向き、視線の方向、目開度、及び運転者画像は含まれない。また、サーバ装置40に送信されるデータの構造は、図3に示した構造に限定されるものではない。
FIG. 3 is a diagram showing an example of the structure of data transmitted from the vehicle-mounted device 10 to the server device 40.
The data transmitted from the in-vehicle device 10 to the server device 40 includes the identification information (serial number, etc.) of the in-vehicle device 10, the transmission date and time, the data of the face detection flag F (for example, F = 1 or F = 0), and the operation. Face orientation (pitch, yaw, and roll), line-of-sight direction (pitch, yaw), eye opening (right and left eyes), vehicle acceleration (front and back, left, right, and up and down), angular velocity (yaw) , Driver image, outside image, vehicle position data (latitude and longitude), and running speed. The face detection flag F is a face detection state (F = 1) in which the driver's face is detected from the image captured by the driver camera 21 and a face non-detection state (F = 0) in which the driver's face is not detected. Is shown. When the face detection flag F is set to 0, the data transmitted to the server device 40 does not include the face direction, the line-of-sight direction, the eye opening, and the driver image. Further, the structure of the data transmitted to the server device 40 is not limited to the structure shown in FIG.

図3に例示した構造のデータは、例えば、車載機10が、車両2が交差点を通過したことを検出した場合に送信される。車載機10は、例えば、角速度センサ13で検出された角速度の積分値が所定の閾値(交差点進入を推定する閾値)を超えてから所定時間が経過した場合に、車両2が交差点を通過したと判断することが可能となっている。 The data of the structure illustrated in FIG. 3 is transmitted, for example, when the vehicle-mounted device 10 detects that the vehicle 2 has passed the intersection. The on-board unit 10 states that, for example, the vehicle 2 has passed the intersection when a predetermined time has elapsed since the integrated value of the angular velocity detected by the angular velocity sensor 13 exceeds a predetermined threshold value (threshold value for estimating the approach to the intersection). It is possible to judge.

図4は、実施の形態に係るサーバ装置40の特徴部分を示す機能構成ブロック図である。
サーバコンピュータ50の中央処理装置51は、データ取得部54、判定部55、及び評価部56を含んで構成されている。また、中央処理装置51は、検出部57を備えている。
FIG. 4 is a functional configuration block diagram showing a characteristic portion of the server device 40 according to the embodiment.
The central processing unit 51 of the server computer 50 includes a data acquisition unit 54, a determination unit 55, and an evaluation unit 56. Further, the central processing unit 51 includes a detection unit 57.

データ取得部54は、運転評価を行う対象の車載機10から取得した所定の運転期間(日、週、又は月単位などの期間)のデータをデータ蓄積部61から取得する。データ蓄積部61から取得するデータには、車載機10が搭載された車両2が各交差点を通過する間の運転者3の状態を示すデータが含まれている。このデータには、車両2が交差点を通過する間に検出された、運転者3の顔が検出されている顔検出状態と運転者3の顔が検出されていない顔非検出状態とを示すデータが含まれている。また、運転者3の状態を示すデータに顔画像情報が含まれていてもよい。 The data acquisition unit 54 acquires data for a predetermined operation period (a period such as a day, a week, or a month) acquired from the vehicle-mounted device 10 to be evaluated from the data storage unit 61. The data acquired from the data storage unit 61 includes data indicating the state of the driver 3 while the vehicle 2 on which the vehicle-mounted device 10 is mounted passes through each intersection. This data includes data indicating a face detection state in which the face of the driver 3 is detected and a face non-detection state in which the face of the driver 3 is not detected, which are detected while the vehicle 2 passes through the intersection. It is included. Further, the face image information may be included in the data indicating the state of the driver 3.

判定部55は、データ取得部54で取得されたデータ、すなわち、車両2が各交差点を通過(例えば、右折又は左折)する間に検出された、運転者3の顔検出状態と顔非検出状態との検出データ(例えば、顔検出フラグFのデータ)を読み込み、これら検出データが示す各交差点を通過する間における顔検出状態と顔非検出状態との時間的関係に基づいて、顔非検出状態が運転者3の安全確認動作によるものであるか否かを判定する処理を実行する。 The determination unit 55 is the data acquired by the data acquisition unit 54, that is, the face detection state and the face non-detection state of the driver 3 detected while the vehicle 2 passes through each intersection (for example, right turn or left turn). The detection data (for example, the data of the face detection flag F) is read, and the face non-detection state is based on the temporal relationship between the face detection state and the face non-detection state while passing through each intersection indicated by these detection data. Is executed by the process of determining whether or not is due to the safety confirmation operation of the driver 3.

例えば、判定部55は、データ取得部54で取得されたデータが、車両2が交差点を通過する間に顔非検出状態を示す検出データである場合、顔非検出状態の前後少なくともいずれかの顔検出状態における運転者3の顔の向きの時間的変化(例えば、角度データの経時変化)を考慮して、顔非検出状態が運転者3の安全確認動作によるものであるか否かを判定してもよい。 For example, when the data acquired by the data acquisition unit 54 is the detection data indicating the face non-detection state while the vehicle 2 passes through the intersection, the determination unit 55 determines at least one of the faces before and after the face non-detection state. It is determined whether or not the face non-detection state is due to the safety confirmation operation of the driver 3 in consideration of the temporal change of the face orientation of the driver 3 in the detection state (for example, the change with time of the angle data). You may.

顔非検出状態の前後少なくともいずれかの顔検出状態における運転者3の顔の向きの時間的変化には、例えば、車両2が交差点で曲がる時に、運転者3の曲がる方向への顔の向きを示す角度データが、経時的に大きくなった後に顔非検出状態になる変化、又は顔非検出状態となった後に検出された角度データが経時的に小さくなる変化のいずれかが含まれる。 For the temporal change of the face orientation of the driver 3 in at least one of the face detection states before and after the face non-detection state, for example, when the vehicle 2 turns at an intersection, the face orientation of the driver 3 in the bending direction is used. The indicated angle data includes either a change in which the face is not detected after becoming larger with time, or a change in which the angle data detected after becoming a face non-detection state becomes smaller with time.

または、判定部55は、データ取得部54で取得されたデータが、車両2が交差点を通過する間に、顔検出状態から顔非検出状態になって所定の第1の時間内に再び顔検出状態に戻ったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。前記第1の時間は、安全確認に必要かつ適切な時間(例えば、1秒前後)に設定される。 Alternatively, the determination unit 55 changes the data acquired by the data acquisition unit 54 from the face detection state to the face non-detection state while the vehicle 2 passes through the intersection, and detects the face again within a predetermined first time. When it indicates that the state has returned, it may be determined that the face non-detection state is due to the safety confirmation operation of the driver 3. The first time is set to a time necessary and appropriate for safety confirmation (for example, around 1 second).

一方、判定部55は、データ取得部54で取得されたデータが、車両2が交差点を通過するときに、顔検出状態から顔非検出状態になって所定の第2の時間内に再び顔検出状態に戻らなかったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものではないと判定してもよい。前記第2の時間は、前記第1の時間より長く、運転者3が正常に運転できない状態であると判定する時間に設定される。 On the other hand, the determination unit 55 changes the face detection state to the face non-detection state when the vehicle 2 passes through the intersection, and the data acquired by the data acquisition unit 54 changes to the face detection state again within a predetermined second time. If it indicates that the state has not been returned, it may be determined that the face non-detection state is not due to the safety confirmation operation of the driver 3. The second time is longer than the first time, and is set to a time for determining that the driver 3 cannot normally drive.

評価部56は、判定部55で判定された結果を取得して、判定結果を考慮して交差点における運転者3の安全確認動作を評価する処理を実行する。
例えば、判定部55により、交差点を通過するときに検出された顔非検出状態が運転者3の安全確認動作によるものであると判定された場合、評価部56は、顔非検出状態が安全確認動作によるものである、すなわち、交差点で安全確認が行われたものとして運転者3の運転を評価する。
The evaluation unit 56 acquires the result determined by the determination unit 55, and executes a process of evaluating the safety confirmation operation of the driver 3 at the intersection in consideration of the determination result.
For example, when the determination unit 55 determines that the face non-detection state detected when passing through the intersection is due to the safety confirmation operation of the driver 3, the evaluation unit 56 determines that the face non-detection state is the safety confirmation. The driving of the driver 3 is evaluated as if it is due to the operation, that is, the safety confirmation is performed at the intersection.

また、判定部55により、交差点を通過するときに検出された顔非検出状態が運転者3の安全確認動作によるものでないと判定された場合、評価部56は、顔非検出状態が安全確認動作によるものではない、すなわち、交差点で安全確認が行われていないものとして運転者3の運転を評価する。 Further, when the determination unit 55 determines that the face non-detection state detected when passing through the intersection is not due to the safety confirmation operation of the driver 3, the evaluation unit 56 determines that the face non-detection state is the safety confirmation operation. The driver 3's driving is evaluated as if the safety has not been confirmed at the intersection.

次に、中央処理装置51のデータ取得部54、判定部55、評価部56、及び検出部57で実行される処理の一例について説明する。
検出部57は、車両2の交差点への進入時刻と曲がる方向を検出する処理を行う。例えば、検出部57は、データ取得部54で取得された角速度データ(車載機10から交差点を通過した後に送信されてきた角速度データ)の積分値を演算し、演算された積分値が所定の積分比率に到達した時刻を交差点への進入時刻として推定する。また、角速度データの正負により、車両2が交差点を曲がる方向を推定する。例えば、正の値の場合は右折、負の値の場合は左折と推定する。
Next, an example of the processing executed by the data acquisition unit 54, the determination unit 55, the evaluation unit 56, and the detection unit 57 of the central processing unit 51 will be described.
The detection unit 57 performs a process of detecting the approach time and the turning direction of the vehicle 2 to the intersection. For example, the detection unit 57 calculates an integral value of the angular velocity data (angular velocity data transmitted from the in-vehicle device 10 after passing through the intersection) acquired by the data acquisition unit 54, and the calculated integral value is a predetermined integral. The time when the ratio is reached is estimated as the time of entry to the intersection. Further, the direction in which the vehicle 2 turns at the intersection is estimated based on the positive / negative of the angular velocity data. For example, a positive value is estimated to be a right turn, and a negative value is estimated to be a left turn.

また、検出部57は、データ取得部54で取得した顔画像情報に基づいて、進入時刻の前後所定時間における運転者の顔の向きの振り角度及び振り時間を検出する。また、検出部57は、運転者3の顔画像情報に含まれている運転者の顔の向きを示す角度データ(例えば、ヨー方向の角度データ)に基づいて、運転者3の顔の向きの時間的変化(例えば、角度データの経時変化)を検出してもよい。 Further, the detection unit 57 detects the swing angle and swing time of the driver's face at a predetermined time before and after the approach time based on the face image information acquired by the data acquisition unit 54. Further, the detection unit 57 determines the direction of the face of the driver 3 based on the angle data (for example, the angle data in the yaw direction) indicating the direction of the driver's face included in the face image information of the driver 3. Temporal changes (eg, changes over time in angle data) may be detected.

次に評価部56は、進入時刻より前の所定時間(進入前)における振り角度及び振り時間に基づいて、交差点への進入前の安全確認動作を評価する処理を行う。 Next, the evaluation unit 56 performs a process of evaluating the safety confirmation operation before entering the intersection based on the swing angle and the swing time at a predetermined time (before approach) before the approach time.

例えば、右方向の安全確認については、(1)右方向の確認タイミングが適切であるか否か、(2)右方向への振り角度が所定角度以上であるか否か、(3)前記所定角度以上の状態が所定時間以上継続しているか否かを判定する。上記(1)右方向の確認タイミングが適切であるか否かは、例えば、進入時刻の所定時間前までに、右方向への振り角度が所定角度以上になったか否かにより判定することができる。 For example, regarding safety confirmation in the right direction, (1) whether or not the confirmation timing in the right direction is appropriate, (2) whether or not the swing angle in the right direction is equal to or greater than a predetermined angle, and (3) the predetermined value. It is determined whether or not the state of the angle or more continues for a predetermined time or more. (1) Whether or not the confirmation timing in the right direction is appropriate can be determined by, for example, whether or not the swing angle in the right direction is equal to or greater than the predetermined angle by a predetermined time before the approach time. ..

上記(2)、(3)の状態を判定する場合において、右方向への振り角度が検出できない、すなわち顔非検出状態を示すデータを取得している期間があった場合、判定部55が、顔検出状態と顔非検出状態との時間的関係に基づいて、顔非検出状態が運転者3の右方向の安全確認動作によるものであるか否かを判定する処理を行う。 In the case of determining the states (2) and (3) above, if the swing angle to the right cannot be detected, that is, there is a period during which data indicating the face non-detection state is acquired, the determination unit 55 determines. Based on the temporal relationship between the face detection state and the face non-detection state, a process of determining whether or not the face non-detection state is due to the safety confirmation operation in the right direction of the driver 3 is performed.

例えば、データ取得部54で取得されたデータが、顔検出状態から顔非検出状態になって前記第1の時間内に再び顔検出状態に戻ったことを示すものである場合、顔非検出状態が運転者3の右方向の安全確認動作によるものであると判定される。 For example, when the data acquired by the data acquisition unit 54 indicates that the face detection state has changed to the face non-detection state and then returned to the face detection state within the first time, the face non-detection state. Is determined to be due to the driver 3's rightward safety confirmation operation.

または、検出部57において、顔非検出状態の前に運転者3の顔の向きに時間的変化、例えば、右方向への振り角度が大きくなる経時変化が検出された場合、或いは顔非検出状態の後に運転者3の顔の向きに時間的変化、例えば、右方向への振り角度が小さくなる経時変化が検出された場合、判定部55は、顔非検出状態が運転者3の右方向の安全確認動作によるものであると判定してもよい。 Alternatively, when the detection unit 57 detects a temporal change in the direction of the face of the driver 3 before the face non-detection state, for example, a change with time in which the swing angle to the right increases, or the face non-detection state. When a temporal change in the direction of the face of the driver 3, for example, a change with time in which the swing angle to the right becomes smaller is detected, the determination unit 55 determines that the face non-detection state is in the right direction of the driver 3. It may be determined that it is due to the safety confirmation operation.

また一方で、データ取得部54で取得されたデータが、顔検出状態から顔非検出状態になって前記第2の時間内に再び顔検出状態に戻らなかったことを示すものである場合、顔非検出状態が運転者3の右方向の安全確認動作によるものではないと判定される。 On the other hand, when the data acquired by the data acquisition unit 54 changes from the face detection state to the face non-detection state and does not return to the face detection state again within the second time, the face. It is determined that the non-detection state is not due to the safety confirmation operation in the right direction of the driver 3.

同様に、左方向の安全確認については、(4)左方向の確認タイミングが適切であるか否か、(5)左方向への振り角度が所定角度以上であるか否か、(6)前記所定角度以上の状態が所定時間以上継続しているか否かを判定する。上記(4)左方向の確認タイミングが適切であるか否かは、例えば、進入時刻の所定時間前までに、左方向への振り角度が所定角度以上になったか否かにより判定することができる。 Similarly, regarding safety confirmation in the left direction, (4) whether or not the confirmation timing in the left direction is appropriate, (5) whether or not the swing angle in the left direction is equal to or greater than a predetermined angle, and (6) the above. It is determined whether or not the state of the predetermined angle or more continues for the predetermined time or more. (4) Whether or not the confirmation timing in the left direction is appropriate can be determined by, for example, whether or not the swing angle in the left direction is equal to or greater than the predetermined angle by a predetermined time before the approach time. ..

上記(5)、(6)の状態を判定する場合において、左方向への振り角度が検出できない期間があった場合、すなわち顔非検出状態を示すデータを取得している期間があった場合、判定部55が、顔検出状態と顔非検出状態との時間的関係に基づいて、顔非検出状態が運転者3の左方向の安全確認動作によるものであるか否かを判定する処理を行う。 When determining the states (5) and (6) above, if there is a period during which the swing angle to the left cannot be detected, that is, if there is a period during which data indicating the face non-detection state is acquired. The determination unit 55 performs a process of determining whether or not the face non-detection state is due to the safety confirmation operation in the left direction of the driver 3 based on the temporal relationship between the face detection state and the face non-detection state. ..

また、評価部56は、進入時刻より後の所定時間(すなわち進入中)における、振り角度及び振り時間に基づいて、交差点での進路変更方向、例えば、右折先又は左折先の安全確認動作を評価する処理を行う。
例えば、進路変更方向の安全確認については、(7)進路変更方向の確認タイミングが適切であるか否か、(8)右折又は左折する進路変更方向への振り角度が所定角度以上であるか否か、(9)前記所定角度以上の状態が所定時間以上継続しているか否かを判定する。上記(7)進路変更方向の確認タイミングが適切であるか否かは、例えば、進入時刻より後の所定時間までに、進路変更方向への振り角度が所定角度以上になったか否かにより判定することができる。
Further, the evaluation unit 56 evaluates the safety confirmation operation of the course change direction at the intersection, for example, the right turn destination or the left turn destination, based on the swing angle and the swing time at a predetermined time after the approach time (that is, during approach). Perform the processing.
For example, regarding the safety confirmation of the course change direction, (7) whether or not the confirmation timing of the course change direction is appropriate, and (8) whether or not the swing angle in the course change direction of turning right or left is equal to or more than a predetermined angle. Or (9) it is determined whether or not the state of the predetermined angle or more continues for a predetermined time or more. Whether or not the confirmation timing of the above (7) course change direction is appropriate is determined by, for example, whether or not the swing angle in the course change direction is equal to or greater than the predetermined angle by a predetermined time after the approach time. be able to.

上記(8)、(9)の状態を判定する場合において、進路変更方向への振り角度が検出できない期間があった場合、すなわち顔非検出状態を示すデータを取得している期間があった場合、判定部55が、顔検出状態と顔非検出状態との時間的関係に基づいて、顔非検出状態が運転者3の右折又は左折する進路変更方向への安全確認動作によるものであるか否かを判定する処理を行う。 In the case of determining the states (8) and (9) above, there is a period in which the swing angle in the course change direction cannot be detected, that is, there is a period in which data indicating the face non-detection state is acquired. Based on the temporal relationship between the face detection state and the face non-detection state, the determination unit 55 determines whether the face non-detection state is due to the safety confirmation operation in the direction of changing the course of the driver 3 to turn right or left. Performs the process of determining whether or not.

さらに、評価部56は、進入時刻の前後所定時間における車両2の走行速度に基づいて、運転者の減速意識を評価する処理を行ってもよい。例えば、(10)進入時刻の前後所定時間における車両2の走行速度の最高値が、所定の速度(たとえば、交差点を安全に曲がって通過できる上限速度)以下であるかを判定することにより、減速意識の有無を評価してもよい。 Further, the evaluation unit 56 may perform a process of evaluating the driver's deceleration consciousness based on the traveling speed of the vehicle 2 at a predetermined time before and after the approach time. For example, (10) deceleration by determining whether the maximum value of the traveling speed of the vehicle 2 at a predetermined time before and after the approach time is equal to or less than a predetermined speed (for example, an upper limit speed at which a vehicle can safely turn and pass through an intersection). You may evaluate the presence or absence of consciousness.

評価部56は、所定の評価条件に設定された各確認行動について、上記項目(1)~(10)の判定方法に基づいて評価を行い、交差点毎の評価点を算出する処理を行う。例えば、所定の評価条件に設定された各確認行動について、確認タイミング、確認角度、及び確認時間の評価結果を合計し、必要な統計処理(平均化、又は正規化処理など)を施して、交差点毎の点数又はランク付けによるスコアを算出する。
そして、評価部56は、算出した交差点毎の評価点を記憶ユニット60の評価データ記憶部62に記憶する処理を行う。
The evaluation unit 56 evaluates each confirmation action set under a predetermined evaluation condition based on the determination methods of the above items (1) to (10), and performs a process of calculating an evaluation point for each intersection. For example, for each confirmation action set under predetermined evaluation conditions, the evaluation results of confirmation timing, confirmation angle, and confirmation time are totaled, necessary statistical processing (averaging, normalization processing, etc.) is performed, and the intersection Calculate the score for each score or ranking.
Then, the evaluation unit 56 performs a process of storing the calculated evaluation points for each intersection in the evaluation data storage unit 62 of the storage unit 60.

また、サーバ装置40は、クラウドサービスを提供できるように構成されていてもよい。例えば、サーバ装置40は、Webサーバ、アプリケーションサーバ、及びデータベースサーバを含むサーバシステムで構成されてもよい。Webサーバは、事業者端末80のブラウザからのアクセス要求などの処理を行う。アプリケーションサーバは、例えば、Webサーバからの要求に応じ、データベースサーバにアクセスして、処理に必要なデータの検索やデータの抽出などの処理を行う。データベースサーバは、例えば、車載機10から取得した各種データなどを管理し、アプリケーションサーバからの要求に応じて、データの検索、抽出、保存などの処理を行う。 Further, the server device 40 may be configured to be able to provide a cloud service. For example, the server device 40 may be composed of a server system including a Web server, an application server, and a database server. The Web server processes access requests and the like from the browser of the business terminal 80. The application server accesses the database server, for example, in response to a request from the Web server, and performs processing such as searching for data necessary for processing and extracting data. The database server manages various data acquired from the in-vehicle device 10, for example, and performs processing such as search, extraction, and storage of the data in response to a request from the application server.

例えば、サーバ装置40は、事業者端末80のブラウザなどから要求された各種リクエスト、例えば、Webサイトへのログイン、運転評価報告書の送信リクエストなどを処理する。また、サーバ装置40は、ブラウザなどを通じて処理結果、例えば、作成した運転評価報告書のデータを事業者端末80に送信し、事業者端末80の表示画面に運転評価報告書を表示させる処理を実行する。 For example, the server device 40 processes various requests requested from the browser of the business operator terminal 80, for example, a login to a website, a request for transmitting a driving evaluation report, and the like. Further, the server device 40 transmits the processing result, for example, the data of the created operation evaluation report to the business operator terminal 80 through a browser or the like, and executes a process of displaying the operation evaluation report on the display screen of the business operator terminal 80. do.

事業者は、事業者端末80の表示画面に表示された各運転者3の運転評価報告書を確認し、各運転者3に対して安全意識の改善を図る指導などを行う。このような指導を行うことにより、運転者3の安全意識を高めて、事故リスクの低減を図ることが可能となる。 The business operator confirms the driving evaluation report of each driver 3 displayed on the display screen of the business operator terminal 80, and gives guidance to each driver 3 to improve safety awareness. By providing such guidance, it is possible to raise the safety awareness of the driver 3 and reduce the risk of accidents.

[動作例]
図5は、実施の形態に係る車載機10におけるドライバモニタリング部20が行う処理動作を示すフローチャートである。本処理動作は、例えば、ドライバカメラ21で画像が撮像されるタイミング(例えば、毎フレーム、又は所定間隔のフレーム毎)で実行される。
[Operation example]
FIG. 5 is a flowchart showing a processing operation performed by the driver monitoring unit 20 in the vehicle-mounted device 10 according to the embodiment. This processing operation is executed, for example, at the timing when an image is captured by the driver camera 21 (for example, every frame or every frame at a predetermined interval).

まず、画像解析部22は、ドライバカメラ21で撮像された画像を取得する(ステップS1)。 First, the image analysis unit 22 acquires an image captured by the driver camera 21 (step S1).

次に画像解析部22は、取得した画像から運転者の顔、又は顔の領域を検出する処理を行う(ステップS2)。画像から顔を検出する手法は特に限定されないが、高速で高精度に顔を検出する手法を採用することが好ましい。 Next, the image analysis unit 22 performs a process of detecting the driver's face or a face area from the acquired image (step S2). The method for detecting a face from an image is not particularly limited, but it is preferable to adopt a method for detecting a face at high speed and with high accuracy.

次に画像解析部22は、ステップS1で取得した画像から運転者の顔が検出されたか否かを判断する(ステップS3)。 Next, the image analysis unit 22 determines whether or not the driver's face is detected from the image acquired in step S1 (step S3).

画像解析部22は、ステップS3において、運転者の顔が検出されたと判断すれば、次に、顔検出フラグFに1を設定する(ステップS4)。なお、顔検出フラグFに1が設定されている状態は、顔検出状態であることを示している。 If the image analysis unit 22 determines in step S3 that the driver's face has been detected, the image analysis unit 22 next sets the face detection flag F to 1 (step S4). The state in which the face detection flag F is set to 1 indicates that the face detection flag F is in the face detection state.

次に画像解析部22は、ステップS2で検出した顔の領域から、目、鼻、口、眉などの顔器官の位置や形状を検出する処理を行う(ステップS5)。画像中の顔の領域から顔器官を検出する手法は特に限定されないが、高速で高精度に顔器官を検出できる手法を採用することが好ましい。例えば、画像解析部22が、3次元顔形状モデルを作成し、これを2次元画像上の顔の領域にフィッティングさせ、顔の各器官の位置と形状を検出する手法が採用され得る。この手法によれば、ドライバカメラ21の設置位置や画像中の顔の向きなどに関わらず、正確に顔の各器官の位置と形状を検出することが可能となる。画像中の人の顔に3次元顔形状モデルをフィッティングさせる技術として、例えば、特開2007-249280号公報に記載された技術を適用することができるが、これに限定されるものではない。 Next, the image analysis unit 22 performs a process of detecting the position and shape of facial organs such as eyes, nose, mouth, and eyebrows from the facial region detected in step S2 (step S5). The method for detecting the facial organs from the facial region in the image is not particularly limited, but it is preferable to adopt a method that can detect the facial organs at high speed and with high accuracy. For example, a method in which the image analysis unit 22 creates a three-dimensional face shape model, fits the three-dimensional face shape model to the face region on the two-dimensional image, and detects the position and shape of each organ of the face can be adopted. According to this method, it is possible to accurately detect the position and shape of each organ of the face regardless of the installation position of the driver camera 21 or the orientation of the face in the image. As a technique for fitting a three-dimensional face shape model to a human face in an image, for example, the technique described in JP-A-2007-249280 can be applied, but the technique is not limited thereto.

次に画像解析部22は、ステップS5で求めた顔の各器官の位置や形状のデータに基づいて、運転者の顔の向きを検出する(ステップS6)。例えば、上記3次元顔形状モデルのパラメータに含まれている、上下回転(X軸回り)のピッチ角、左右回転(Y軸回り)のヨー角、及び全体回転(Z軸回り)のロール角を運転者の顔の向きに関する情報として検出してもよい。 Next, the image analysis unit 22 detects the orientation of the driver's face based on the position and shape data of each organ of the face obtained in step S5 (step S6). For example, the pitch angle of vertical rotation (around the X axis), the yaw angle of the horizontal rotation (around the Y axis), and the roll angle of the total rotation (around the Z axis) included in the parameters of the above three-dimensional face shape model are set. It may be detected as information regarding the orientation of the driver's face.

次に画像解析部22は、ステップS6で求めた運転者の顔の向き、及びステップS5で求めた運転者の顔器官の位置や形状、特に目の特徴点(目尻、目頭、及び瞳孔)の位置や形状に基づいて、視線の方向を検出する(ステップS7)。
視線の方向は、例えば、様々な顔の向きと視線方向の目の画像の特徴量(目尻、目頭、瞳孔の相対位置、又は強膜(いわゆる白目)部分と虹彩(いわゆる黒目)部分の相対位置、濃淡、テクスチャーなど)とを予め学習器を用いて学習し、これら学習した特徴量データとの類似度を評価することで検出してもよい。または、前記3次元顔形状モデルのフィッティング結果などを用いて、顔の大きさや向きと目の位置などから眼球の大きさと中心位置とを推定するとともに、瞳孔の位置を検出し、眼球の中心と瞳孔の中心とを結ぶベクトルを視線方向として検出してもよい。
Next, the image analysis unit 22 determines the orientation of the driver's face determined in step S6, and the position and shape of the driver's facial organs determined in step S5, particularly the characteristic points of the eyes (outer corners of the eyes, inner corners of the eyes, and pupils). The direction of the line of sight is detected based on the position and shape (step S7).
The direction of the line of sight is, for example, the feature amount of the image of the eye in various face directions and the direction of the line of sight (relative position of the outer corner of the eye, the inner corner of the eye, the pupil, or the relative position of the sclera (so-called white eye) part and the iris (so-called black eye) part. , Shading, texture, etc.) may be detected by learning in advance using a learning device and evaluating the degree of similarity with the learned feature amount data. Alternatively, using the fitting result of the three-dimensional face shape model, the size and center position of the eyeball are estimated from the size and orientation of the face and the position of the eyes, and the position of the pupil is detected to determine the center of the eyeball. The vector connecting the center of the pupil may be detected as the line-of-sight direction.

次に画像解析部22は、ステップS5で求めた運転者の顔器官の位置や形状、特に目の特徴点(目尻、目頭、瞳孔、及びまぶた)の位置や形状に基づいて、目開度を検出する(ステップS8)。 Next, the image analysis unit 22 determines the eye opening degree based on the position and shape of the driver's facial organs obtained in step S5, particularly the position and shape of the characteristic points of the eyes (outer corners of the eyes, inner corners of the eyes, pupils, and eyelids). Detect (step S8).

次に画像解析部22は、ステップS4で設定された顔検出フラグF=1のデータと、ステップS6で検出した運転者の顔の向きと、ステップS7で検出した運転者の視線の方向と、ステップS8で検出した運転者の目開度と、撮像時刻とを対応付けて、顔画像情報としてプラットフォーム部11に送信し(ステップS9)、その後、画像解析部22は、ステップS1に戻り、処理を繰り返す。なお、ステップS9において送信する顔画像情報に、ステップS1で取得した運転者の画像を含めてもよい。また、ステップS5~S8の処理を省略して、ステップS9において、ステップS4で設定された顔検出フラグF=1のデータをプラットフォーム部11に送信してもよい。 Next, the image analysis unit 22 determines the data of the face detection flag F = 1 set in step S4, the direction of the driver's face detected in step S6, the direction of the driver's line of sight detected in step S7, and the direction of the driver's line of sight. The driver's eye opening detected in step S8 is associated with the imaging time and transmitted as face image information to the platform unit 11 (step S9), after which the image analysis unit 22 returns to step S1 and processes. repeat. The face image information transmitted in step S9 may include the driver's image acquired in step S1. Further, the processing of steps S5 to S8 may be omitted, and the data of the face detection flag F = 1 set in step S4 may be transmitted to the platform unit 11 in step S9.

また一方、ステップS3において、画像解析部22が、運転者の顔が検出されなかったと判断すれば、次に、顔検出フラグFに0を設定する(ステップS10)。なお、顔検出フラグFに0が設定されている状態は、顔非検出状態であることを示している。 On the other hand, if the image analysis unit 22 determines in step S3 that the driver's face has not been detected, then the face detection flag F is set to 0 (step S10). The state in which the face detection flag F is set to 0 indicates that the face is not detected.

次に画像解析部22は、顔非検出状態を示すデータ、すなわち、顔検出フラグF=0のデータをプラットフォーム部11に送信し(ステップS11)、その後、画像解析部22は、ステップS1に戻り、処理を繰り返す。 Next, the image analysis unit 22 transmits data indicating the face non-detection state, that is, data of the face detection flag F = 0 to the platform unit 11 (step S11), and then the image analysis unit 22 returns to step S1. , Repeat the process.

図6は、実施の形態に係る車載機10における制御部19が行う処理動作を示すフローチャートである。本処理動作は、例えば、数十ms~数秒の所定周期で実行される。 FIG. 6 is a flowchart showing a processing operation performed by the control unit 19 in the vehicle-mounted device 10 according to the embodiment. This processing operation is executed, for example, in a predetermined cycle of several tens of ms to several seconds.

制御部19は、加速度センサ12で測定された加速度データを取得してRAM19bに記憶する(ステップS21)。 The control unit 19 acquires the acceleration data measured by the acceleration sensor 12 and stores it in the RAM 19b (step S21).

また、制御部19は、角速度センサ13で検出された角速度データを取得してRAM19bに記憶する(ステップS22)。 Further, the control unit 19 acquires the angular velocity data detected by the angular velocity sensor 13 and stores it in the RAM 19b (step S22).

また、制御部19は、ドライバモニタリング部20から送信されてきた顔検出情報を取得してRAM19bに記憶する(ステップS23)。顔検出情報には、各画像に対して設定された顔検出フラグFのデータ、すなわち、顔検出フラグF=1又はF=0の設定データが含まれている。なお、ステップS23において、顔検出フラグFが1である顔検出状態の場合には、ドライバモニタリング部20から顔画像情報も取得するようにしてもよい。 Further, the control unit 19 acquires the face detection information transmitted from the driver monitoring unit 20 and stores it in the RAM 19b (step S23). The face detection information includes data of the face detection flag F set for each image, that is, setting data of the face detection flag F = 1 or F = 0. In step S23, when the face detection flag F is 1, the face image information may also be acquired from the driver monitoring unit 20.

さらに、制御部19は、ドライブレコーダ部30から送出されてきたデータ(車外画像と車内画像のデータ)を取得してRAM19bに記憶する(ステップS24)。 Further, the control unit 19 acquires the data (data of the image outside the vehicle and the image inside the vehicle) transmitted from the drive recorder unit 30 and stores it in the RAM 19b (step S24).

また、制御部19は、GPS受信部14で検出された位置データを取得する(ステップS25)。なお、ステップS21~S25の処理の順序は問わない。 Further, the control unit 19 acquires the position data detected by the GPS receiving unit 14 (step S25). The order of processing in steps S21 to S25 does not matter.

次に制御部19は、ステップS25で取得した位置データの単位時間変化に基づいて走行速度を算出し、位置データと走行速度とをRAM19bに記憶する(ステップS26)。 Next, the control unit 19 calculates the traveling speed based on the unit-time change of the position data acquired in step S25, and stores the position data and the traveling speed in the RAM 19b (step S26).

次に制御部19は、車両2が交差点に進入したか否かを判断する(ステップS27)。例えば、制御部19は、角速度の積分値が車両の交差点への進入を示す閾値以上であり、かつ走行速度が交差点への進入を示す所定の上限速度以下であるか否かを判断する。 Next, the control unit 19 determines whether or not the vehicle 2 has entered the intersection (step S27). For example, the control unit 19 determines whether or not the integrated value of the angular velocity is equal to or higher than the threshold value indicating the approach of the vehicle to the intersection and the traveling speed is equal to or lower than the predetermined upper limit speed indicating the approach to the intersection.

ステップS27において、制御部19は、車両2が交差点に進入したと判断すれば、次に制御部19は、車両2が交差点を通過したか否かを判断する(ステップS28)。例えば、角速度の積分値が、車両が交差点を通過したことを示す閾値以下になり、かつ走行速度が、交差点の通過を示す所定の下限速度以上になったか否かを判断する。 In step S27, if the control unit 19 determines that the vehicle 2 has entered the intersection, then the control unit 19 determines whether or not the vehicle 2 has passed the intersection (step S28). For example, it is determined whether or not the integrated value of the angular velocity is equal to or less than the threshold value indicating that the vehicle has passed the intersection and the traveling speed is equal to or more than the predetermined lower limit speed indicating the passage of the intersection.

制御部19が、車両2が交差点を通過したと判断すれば、制御部19は、車両2が交差点に進入した前後所定時間(数十秒程度)に取得したデータをRAM19bから読み出し、通信部15を制御して、交差点通過時のデータとしてサーバ装置40へ送信する処理を実行する(ステップS29)。その後、制御部19は、ステップS21に戻り、処理を繰り返す。車載機10からサーバ装置40へ送信される、交差点通過時のデータの構造の一例は図3に示している。 If the control unit 19 determines that the vehicle 2 has passed the intersection, the control unit 19 reads the data acquired at a predetermined time (about several tens of seconds) before and after the vehicle 2 enters the intersection from the RAM 19b, and reads the data from the RAM 19b. Is controlled to execute a process of transmitting data to the server device 40 as data when passing through an intersection (step S29). After that, the control unit 19 returns to step S21 and repeats the process. FIG. 3 shows an example of the structure of data transmitted from the vehicle-mounted device 10 to the server device 40 when passing through an intersection.

なお、制御部19は、ステップS29の処理に代えて、RAM19bから読み出したデータを記憶部17(例えば、着脱式記憶媒体)に記憶してもよい。そして、一日の走行終了後、運転者3が車載機10から記憶部17を取り外し、記憶部17に記憶されたデータを事業者端末80に読み込ませて、事業者端末80がサーバ装置40に送信するようにしてもよい。 The control unit 19 may store the data read from the RAM 19b in the storage unit 17 (for example, a removable storage medium) instead of the processing in step S29. Then, after the end of the day's driving, the driver 3 removes the storage unit 17 from the vehicle-mounted device 10, reads the data stored in the storage unit 17 into the business terminal 80, and the business terminal 80 causes the server device 40 to read the data. You may send it.

図7は、実施の形態に係るサーバ装置40における中央処理装置51が行う処理動作を示すフローチャートである。
中央処理装置51は、車載機10から送信されてきたデータを受信したか否かを判断する(ステップS31)。
FIG. 7 is a flowchart showing a processing operation performed by the central processing unit 51 in the server device 40 according to the embodiment.
The central processing unit 51 determines whether or not the data transmitted from the vehicle-mounted device 10 has been received (step S31).

中央処理装置51は、車載機10からデータを受信したと判断すれば、次に、車載機10から受信したデータを、車載機10の識別情報と対応付けてデータ蓄積部61に記憶する(ステップS32)。 If the central processing unit 51 determines that the data has been received from the vehicle-mounted device 10, then the data received from the vehicle-mounted device 10 is stored in the data storage unit 61 in association with the identification information of the vehicle-mounted device 10 (step). S32).

その後、中央処理装置51は、運転者の安全運転行動の評価を実行するタイミングか否かを判断する(ステップS33)。前記評価を実行するタイミングか否かは、例えば、車載機10から車両2の運転終了を示す信号を受信したか否かで判断してもよい。 After that, the central processing unit 51 determines whether or not it is the timing to execute the evaluation of the driver's safe driving behavior (step S33). Whether or not it is the timing to execute the evaluation may be determined, for example, by whether or not a signal indicating the end of operation of the vehicle 2 is received from the vehicle-mounted device 10.

中央処理装置51は、前記評価を実行するタイミングではないと判断すればステップS31に戻る。 If the central processing unit 51 determines that it is not the timing to execute the evaluation, the process returns to step S31.

一方、中央処理装置51は、前記評価を実行するタイミングになったと判断すれば、車載機10が搭載された車両2の運転者3の交差点における安全確認動作の評価処理を行う(ステップS34)。ステップS34で実行される評価処理については、図8A、図8Bのフローチャートを用いて説明する。 On the other hand, if the central processing unit 51 determines that it is time to execute the evaluation, the central processing unit 51 performs an evaluation process of the safety confirmation operation at the intersection of the driver 3 of the vehicle 2 on which the vehicle-mounted device 10 is mounted (step S34). The evaluation process executed in step S34 will be described with reference to the flowcharts of FIGS. 8A and 8B.

その後、中央処理装置51は、評価処理の結果を、車載機10又は運転者3の情報と対応付けて評価データ記憶部62に記憶する処理を行い(ステップS35)、処理を終える。 After that, the central processing unit 51 performs a process of storing the result of the evaluation process in the evaluation data storage unit 62 in association with the information of the vehicle-mounted device 10 or the driver 3 (step S35), and ends the process.

図8A、図8Bは、実施の形態に係るサーバ装置40における中央処理装置51が行う安全確認評価の処理動作を示すフローチャートの一例である。なお、本フローチャートは、車載機10が搭載された車両2の1日の運転が終了するまでに通過した各交差点における運転者3の安全確認動作を評価する処理動作を示している。 8A and 8B are examples of flowcharts showing the processing operation of the safety confirmation evaluation performed by the central processing unit 51 in the server device 40 according to the embodiment. It should be noted that this flowchart shows a processing operation for evaluating the safety confirmation operation of the driver 3 at each intersection that has passed by the end of the day's operation of the vehicle 2 on which the on-board unit 10 is mounted.

中央処理装置51は、データ蓄積部61から車載機10の交差点通過時のデータを取得する(ステップS41)。 The central processing unit 51 acquires data from the data storage unit 61 when the vehicle-mounted device 10 passes through the intersection (step S41).

次に中央処理装置51は、車両2が交差点に進入した時刻を推定する(ステップS42)。例えば、中央処理装置51は、交差点通過時のデータに含まれる角速度データの積分値を演算し、演算された積分値が所定の積分比率に到達した時刻を交差点への進入時刻として推定する。 Next, the central processing unit 51 estimates the time when the vehicle 2 enters the intersection (step S42). For example, the central processing device 51 calculates the integrated value of the angular velocity data included in the data at the time of passing through the intersection, and estimates the time when the calculated integrated value reaches a predetermined integration ratio as the approach time to the intersection.

次に中央処理装置51は、車両2が交差点で曲がる方向を推定する(ステップS43)。例えば、中央処理装置51は、角速度データの正負により、車両2が交差点で曲がる方向を推定する。例えば、正の値の場合は右折、負の値の場合は左折と推定する。 Next, the central processing unit 51 estimates the direction in which the vehicle 2 turns at the intersection (step S43). For example, the central processing unit 51 estimates the direction in which the vehicle 2 turns at an intersection based on the positive / negative of the angular velocity data. For example, a positive value is estimated to be a right turn, and a negative value is estimated to be a left turn.

次に中央処理装置51は、ステップS41で取得したデータから、交差点への進入時刻の前後所定時間における運転者3の顔検出情報を読み込む(ステップS44)。中央処理装置51は、交差点通過時のデータに含まれている顔検出情報、すなわち、顔検出フラグFのデータを読み込む。 Next, the central processing unit 51 reads the face detection information of the driver 3 at a predetermined time before and after the approach time to the intersection from the data acquired in step S41 (step S44). The central processing unit 51 reads the face detection information included in the data at the time of passing through the intersection, that is, the data of the face detection flag F.

次に中央処理装置51は、交差点への進入時刻より前の所定時間内に、顔非検出状態(顔検出フラグF=0の期間)が検出されたか否かを判断する(ステップS45)。 Next, the central processing unit 51 determines whether or not the face non-detection state (the period of the face detection flag F = 0) is detected within a predetermined time before the time of entering the intersection (step S45).

ステップS45において、中央処理装置51が、交差点への進入時刻より前の所定時間内に、顔非検出状態が検出されたと判断すれば、中央処理装置51は、交差点への進入時刻より前に検出された顔非検出状態が、運転者3の安全確認動作によるものであるか否かを判定する(ステップS46)。 If the central processing unit 51 determines in step S45 that the face non-detection state is detected within a predetermined time before the time of approach to the intersection, the central processing unit 51 detects it before the time of approach to the intersection. It is determined whether or not the face non-detection state is due to the safety confirmation operation of the driver 3 (step S46).

中央処理装置51は、例えば、交差点への進入時刻より前の所定時間内の顔検出情報が、顔検出状態から顔非検出状態になって前記第1の時間内に再び顔検出状態に戻ったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定する。前記第1の時間は、安全確認に必要かつ適切な時間に設定される。 For example, the central processing device 51 changes the face detection information within a predetermined time before the entry time to the intersection from the face detection state to the face non-detection state, and returns to the face detection state again within the first time. If it indicates that, it is determined that the face non-detection state is due to the safety confirmation operation of the driver 3. The first time is set to a time necessary and appropriate for safety confirmation.

また、中央処理装置51は、顔非検出状態の前に運転者3の顔の向きに時間的変化、例えば、曲がる方向への顔の振り角度が大きくなる経時変化を検出した場合、又は顔非検出状態の後に運転者3の顔の向きに時間的変化、例えば、曲がる方向への顔の振り角度が小さくなる経時変化を検出した場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。 Further, the central processing device 51 detects a temporal change in the direction of the face of the driver 3 before the face non-detection state, for example, a change with time in which the swing angle of the face in the bending direction becomes large, or the face is not detected. When a temporal change in the direction of the face of the driver 3 after the detection state, for example, a change over time in which the swing angle of the face in the bending direction becomes smaller is detected, the face non-detection state is due to the safety confirmation operation of the driver 3. It may be determined that.

ステップS46において、中央処理装置51は、顔非検出状態が運転者3の安全確認動作によるものであると判定すれば、中央処理装置51は、顔非検出状態の期間を安全確認動作が行われた期間の一部として評価する(ステップS47)。 In step S46, if the central processing unit 51 determines that the face non-detection state is due to the safety confirmation operation of the driver 3, the central processing unit 51 performs the safety confirmation operation during the period of the face non-detection state. Evaluate as part of the period (step S47).

そして、次のステップS49において、中央処理装置51は、安全確認動作が行われた期間の一部として評価された顔非検出状態と、該顔非検出状態の前後の顔検出状態とで検出されたデータに基づいて、交差点進入前の安全確認動作(右又は左方向の確認タイミング、顔の振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行い、ステップS50の処理に進む。 Then, in the next step S49, the central processing device 51 is detected in the face non-detection state evaluated as a part of the period in which the safety confirmation operation is performed and the face detection state before and after the face non-detection state. Based on the collected data, the safety confirmation operation (right or left confirmation timing, face swing angle, swing time, etc.) before entering the intersection is evaluated by comparing with predetermined evaluation conditions, and the process of step S50 is performed. Proceed to.

一方、ステップS46において、中央処理装置51は、顔非検出状態が運転者3の安全確認動作によるものではないと判定すれば、中央処理装置51は、顔非検出状態の期間を安全確認動作が行われていない期間として評価する(ステップS48)。なお、安全確認動作が行われていない期間を、運転者3が正常に運転できていない期間として評価してもよい。 On the other hand, if the central processing unit 51 determines in step S46 that the face non-detection state is not due to the safety confirmation operation of the driver 3, the central processing unit 51 performs the safety confirmation operation during the period of the face non-detection state. It is evaluated as a period not performed (step S48). The period during which the safety confirmation operation is not performed may be evaluated as the period during which the driver 3 has not been able to operate normally.

そして次のステップS49において、中央処理装置51は、安全確認動作が行われていない期間として評価された顔非検出状態と、該顔非検出状態の前後の顔検出状態とで検出されたデータに基づいて、交差点進入前の安全確認動作(右又は左方向の確認タイミング、顔の振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行い、ステップS50の処理に進む。 Then, in the next step S49, the central processing apparatus 51 uses the data detected in the face non-detection state evaluated as the period during which the safety confirmation operation is not performed and the face detection state before and after the face non-detection state. Based on this, the safety confirmation operation (confirmation timing in the right or left direction, face swing angle, swing time, etc.) before entering the intersection is evaluated by comparing with predetermined evaluation conditions, and the process proceeds to step S50.

また、ステップS45において、中央処理装置51が、交差点への進入時刻より前の所定時間内に、顔非検出状態が検出されていないと判断すれば、中央処理装置51は、ステップS49の処理に進み、顔検出状態で検出されたデータに基づいて、交差点進入前の安全確認動作(右又は左方向の確認タイミング、振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行い、ステップS50の処理に進む。 Further, in step S45, if the central processing unit 51 determines that the face non-detection state has not been detected within a predetermined time before the approach time to the intersection, the central processing unit 51 performs the processing in step S49. Based on the data detected in the face detection state, the safety confirmation operation (right or left confirmation timing, swing angle, swing time, etc.) before entering the intersection is compared with the predetermined evaluation conditions for evaluation. Then, the process proceeds to step S50.

ステップS50において、中央処理装置51は、交差点への進入時刻より後の所定時間内に、顔非検出状態(顔検出フラグF=0の期間)が検出されたか否かを判断する。ステップS50において、中央処理装置51が、交差点への進入時刻より後の所定時間内に、顔非検出状態が検出されたと判断すれば、中央処理装置51は、交差点への進入時刻より後に検出された顔非検出状態が、運転者3の安全確認動作によるものであるか否かを判定する(ステップS51)。 In step S50, the central processing unit 51 determines whether or not the face non-detection state (the period of the face detection flag F = 0) is detected within a predetermined time after the approach time to the intersection. If the central processing unit 51 determines in step S50 that the face non-detection state is detected within a predetermined time after the entry time to the intersection, the central processing unit 51 is detected after the entry time to the intersection. It is determined whether or not the face non-detection state is due to the safety confirmation operation of the driver 3 (step S51).

中央処理装置51は、例えば、交差点への進入時刻より後の所定時間内の顔検出情報が、顔検出状態から顔非検出状態になって前記第1の時間内に再び顔検出状態に戻ったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定する。前記第1の時間は、安全確認に必要かつ適切な時間に設定される。 The central processing device 51, for example, changed the face detection information within a predetermined time after the entry time to the intersection from the face detection state to the face non-detection state, and returned to the face detection state again within the first time. If it indicates that, it is determined that the face non-detection state is due to the safety confirmation operation of the driver 3. The first time is set to a time necessary and appropriate for safety confirmation.

また、中央処理装置51は、顔非検出状態の前に運転者3の顔の向きに時間的変化、例えば、曲がる方向への顔の振り角度が大きくなる経時変化を検出した場合、又は顔非検出状態の後に運転者3の顔の向きに時間的変化、例えば、曲がる方向への顔の振り角度が小さくなる経時変化を検出した場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。 Further, the central processing device 51 detects a temporal change in the direction of the face of the driver 3 before the face non-detection state, for example, a change with time in which the swing angle of the face in the bending direction becomes large, or the face is not detected. When a temporal change in the direction of the face of the driver 3 after the detection state, for example, a change over time in which the swing angle of the face in the bending direction becomes smaller is detected, the face non-detection state is due to the safety confirmation operation of the driver 3. It may be determined that.

ステップS51において、中央処理装置51は、顔非検出状態が運転者3の安全確認動作によるものであると判定すれば、中央処理装置51は、顔非検出状態の期間を安全確認動作が行われた期間の一部として評価する(ステップS52)。 In step S51, if the central processing unit 51 determines that the face non-detection state is due to the safety confirmation operation of the driver 3, the central processing unit 51 performs the safety confirmation operation during the period of the face non-detection state. Evaluate as part of the period (step S52).

そして、次のステップS54において、中央処理装置51は、安全確認動作が行われた期間の一部として評価された顔非検出状態と、該顔非検出状態の前後の顔検出状態とで検出されたデータに基づいて、交差点進入後の安全確認動作(右又は左方向の確認タイミング、顔の振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行い、ステップS55の処理に進む。 Then, in the next step S54, the central processing device 51 is detected in the face non-detection state evaluated as a part of the period in which the safety confirmation operation is performed and the face detection state before and after the face non-detection state. Based on the collected data, the safety confirmation operation (right or left confirmation timing, face swing angle, swing time, etc.) after entering the intersection is evaluated by comparing with predetermined evaluation conditions, and the process of step S55 is performed. Proceed to.

一方、ステップS51において、中央処理装置51は、顔非検出状態が運転者3の安全確認動作によるものではないと判定すれば、中央処理装置51は、顔非検出状態の期間を安全確認動作が行われていない期間として評価する(ステップS53)。なお、安全確認動作が行われていない期間を、運転者3が正常に運転できていない期間として評価してもよい。 On the other hand, if the central processing unit 51 determines in step S51 that the face non-detection state is not due to the safety confirmation operation of the driver 3, the central processing unit 51 performs the safety confirmation operation during the period of the face non-detection state. It is evaluated as a period not performed (step S53). The period during which the safety confirmation operation is not performed may be evaluated as the period during which the driver 3 has not been able to operate normally.

そして次のステップS54において、中央処理装置51は、安全確認動作が行われていない期間として評価された顔非検出状態と、該顔非検出状態の前後の顔検出状態とで検出されたデータに基づいて、交差点進入後の安全確認動作(右又は左方向の確認タイミング、顔の振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行い、ステップS55の処理に進む。 Then, in the next step S54, the central processing apparatus 51 uses the data detected in the face non-detection state evaluated as the period during which the safety confirmation operation is not performed and the face detection state before and after the face non-detection state. Based on this, the safety confirmation operation (confirmation timing in the right or left direction, face swing angle, swing time, etc.) after entering the intersection is evaluated by comparing with predetermined evaluation conditions, and the process proceeds to step S55.

また、ステップS50において、中央処理装置51が、交差点への進入時刻より後の所定時間内に、顔非検出状態が検出されていないと判断すれば、中央処理装置51は、ステップS54の処理に進み、顔検出状態で検出されたデータに基づいて、交差点進入後の安全確認動作(右又は左方向の確認タイミング、振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行い、ステップS55の処理に進む。 Further, if the central processing unit 51 determines in step S50 that the face non-detection state has not been detected within a predetermined time after the approach time to the intersection, the central processing unit 51 performs the processing in step S54. Based on the data detected in the face detection state, the safety confirmation operation (right or left confirmation timing, swing angle, swing time, etc.) after entering the intersection is compared with the predetermined evaluation conditions for evaluation. Then, the process proceeds to step S55.

ステップS55において、中央処理装置51は、交差点への進入時刻の前後所定時間における車両2の走行速度が適切であるかを評価する。例えば、車両2の走行速度が、交差点内で安全走行が可能な所定の速度以下であるかどうかを評価する。 In step S55, the central processing unit 51 evaluates whether the traveling speed of the vehicle 2 at a predetermined time before and after the approach time to the intersection is appropriate. For example, it is evaluated whether or not the traveling speed of the vehicle 2 is equal to or less than a predetermined speed at which safe traveling is possible in the intersection.

次に中央処理装置51は、ステップS49、S54、S55で評価された点数又はランク付けされたスコアを集計し、交差点における運転評価点を算出し(ステップS56)、算出した運転評価点を、車載機10の識別情報又は運転者3の情報と対応付けて記憶ユニット60の評価データ記憶部62に記憶する(ステップS57)。 Next, the central processing unit 51 aggregates the points evaluated in steps S49, S54, and S55 or the ranked scores, calculates the operation evaluation points at the intersection (step S56), and converts the calculated operation evaluation points into the vehicle. It is stored in the evaluation data storage unit 62 of the storage unit 60 in association with the identification information of the machine 10 or the information of the driver 3 (step S57).

次に中央処理装置51は、全ての通過交差点における評価を完了したか否かを判断し(ステップS58)、評価を完了したと判断すればその後処理を終える一方、評価を完了していないと判断すればステップS41に戻り、処理を繰り返す。 Next, the central processing unit 51 determines whether or not the evaluation at all the passing intersections has been completed (step S58), and if it is determined that the evaluation has been completed, then the processing is completed, but it is determined that the evaluation has not been completed. Then, the process returns to step S41 and the process is repeated.

[作用・効果]
上記実施の形態に係るサーバ装置40によれば、車両2が交差点を通過する間に、運転者3の顔非検出状態が検出された場合であっても、顔検出状態と顔非検出状態との時間的関係を考慮することにより、該顔非検出状態が運転者3の安全確認動作によるものであるか否かを適切かつ効率よく判定することができるとともに、交差点における運転者3の安全確認動作の評価精度を高めることができる。特に、安全確認のための動作が大きくなりやすい、トラックやバスなどの車長が長い車両の運転者の運転評価の精度を高めることができる。
[Action / Effect]
According to the server device 40 according to the above embodiment, even if the face non-detection state of the driver 3 is detected while the vehicle 2 passes through the intersection, the face detection state and the face non-detection state are obtained. By considering the time relationship of, it is possible to appropriately and efficiently determine whether or not the face non-detection state is due to the safety confirmation operation of the driver 3, and the safety confirmation of the driver 3 at the intersection. The evaluation accuracy of the operation can be improved. In particular, it is possible to improve the accuracy of driving evaluation of a driver of a vehicle having a long vehicle length such as a truck or a bus, which tends to have a large operation for safety confirmation.

運転者3の顔検出状態と顔非検出状態との時間的関係として、運転者3の顔検出状態から顔非検出状態になって前記第1の時間内に再び顔検出状態に戻ったことを検出することにより、車両2が交差点を通過する間における顔非検出状態が運転者3の安全確認動作によるものであるか否かをより正確に判定することができる。 As a temporal relationship between the face detection state of the driver 3 and the face non-detection state, it is determined that the face detection state of the driver 3 changed to the face non-detection state and returned to the face detection state again within the first time. By detecting, it is possible to more accurately determine whether or not the face non-detection state while the vehicle 2 passes through the intersection is due to the safety confirmation operation of the driver 3.

また、顔非検出状態の前後少なくともいずれかにおける運転者3の顔の向きの時間的変化を考慮することにより、前記顔非検出状態が運転者3の安全確認動作によるものであるか否かをより正確に判定することができる。 Further, by considering the temporal change of the face orientation of the driver 3 at least before and after the face non-detection state, whether or not the face non-detection state is due to the safety confirmation operation of the driver 3 can be determined. It can be determined more accurately.

また、運転者3の顔検出状態と顔非検出状態との時間的関係として、運転者3の顔検出状態から顔非検出状態になって前記第2の時間内に再び顔検出状態に戻らなかったことを検出することにより、車両2が交差点を通過する間における顔非検出状態が運転者3の安全確認動作によるものではない場合も適切に判定することができる。 Further, as a temporal relationship between the face detection state of the driver 3 and the face non-detection state, the face detection state of the driver 3 changes to the face non-detection state and does not return to the face detection state again within the second time. By detecting this, it is possible to appropriately determine even if the face non-detection state while the vehicle 2 passes through the intersection is not due to the safety confirmation operation of the driver 3.

[変形例]
以上、本発明の実施の形態を詳細に説明したが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく、種々の改良や変更を行うことができることは言うまでもない。
例えば、上記実施の形態では、サーバ装置40を本発明に係る「運転評価装置」の一例として説明したが、別の実施の形態では、本発明に係る「運転評価装置」の構成を、車載機10に装備してもよい。
[Modification example]
Although the embodiments of the present invention have been described in detail above, the above description is merely an example of the present invention in all respects. Needless to say, various improvements and changes can be made without departing from the scope of the present invention.
For example, in the above embodiment, the server device 40 has been described as an example of the "operation evaluation device" according to the present invention, but in another embodiment, the configuration of the "operation evaluation device" according to the present invention is configured as an in-vehicle device. It may be equipped in 10.

より具体的には、図4に示したサーバコンピュータ50が備えているデータ取得部54、判定部55、評価部56、及び検出部57を、車載機10の制御部19に装備してもよい。この場合、データ取得部54は、車載機10のRAM19b又は記憶部17から運転者3の顔検出情報を含む顔画像情報を取得すればよい。係る構成によれば、車載機10で上記した判定、及び評価の処理を実行することができる。また、車載機10の制御部19に、データ取得部54、判定部55、及び検出部57を装備させて、評価部56をサーバコンピュータ50に装備させてもよい。 More specifically, the data acquisition unit 54, the determination unit 55, the evaluation unit 56, and the detection unit 57 included in the server computer 50 shown in FIG. 4 may be equipped in the control unit 19 of the vehicle-mounted device 10. .. In this case, the data acquisition unit 54 may acquire face image information including the face detection information of the driver 3 from the RAM 19b or the storage unit 17 of the vehicle-mounted device 10. According to this configuration, the vehicle-mounted device 10 can execute the above-mentioned determination and evaluation processing. Further, the control unit 19 of the vehicle-mounted device 10 may be equipped with the data acquisition unit 54, the determination unit 55, and the detection unit 57, and the evaluation unit 56 may be equipped with the server computer 50.

[付記]
本発明の実施の形態は、以下の付記の様にも記載され得るが、これらに限定されない。
(付記1)
車両(2)の運転者の運転を評価する運転評価装置(40)であって、
前記車両(2)が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得部(54)と、
該データ取得部(54)で取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定部(55)と、
該判定部(55)による判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価部(56)とを備えていることを特徴とする運転評価装置。
[Additional Notes]
Embodiments of the present invention may also be described as, but are not limited to, the following appendices.
(Appendix 1)
A driving evaluation device (40) that evaluates the driving of the driver of the vehicle (2).
Acquire data on a face detection state in which the driver's face is detected and a face non-detection state in which the driver's face is not detected, which are detected while the vehicle (2) passes through an intersection. Data acquisition unit (54) and
The face non-detection state is based on the driver's safety confirmation operation based on the temporal relationship between the face detection state and the face non-detection state indicated by the data acquired by the data acquisition unit (54). The determination unit (55) for determining whether or not the data is
An operation evaluation device including an evaluation unit (56) that evaluates the safety confirmation operation of the driver at the intersection in consideration of the determination result by the determination unit (55).

(付記2)
車両(2)の運転者の運転を評価する運転評価方法であって、
前記車両(2)が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得ステップ(S41)と、
該データ取得ステップ(S41)により取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定ステップ(S46、S51)と、
該判定ステップ(S46、S51)による判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価ステップ(S49、S54)とを含むことを特徴とする運転評価方法。
(Appendix 2)
It is a driving evaluation method for evaluating the driving of the driver of the vehicle (2).
Acquire data on a face detection state in which the driver's face is detected and a face non-detection state in which the driver's face is not detected, which are detected while the vehicle (2) passes through an intersection. Data acquisition step (S41) and
The face non-detection state is based on the driver's safety confirmation operation based on the temporal relationship between the face detection state and the face non-detection state indicated by the data acquired in the data acquisition step (S41). Judgment step (S46, S51) for determining whether or not
An operation evaluation method comprising an evaluation step (S49, S54) for evaluating the safety confirmation operation of the driver at the intersection in consideration of the determination result by the determination step (S46, S51).

(付記3)
車両(2)の運転者の運転を評価する処理を少なくとも1つのコンピュータ(50)に実行させる運転評価プログラムであって、
前記少なくとも1つのコンピュータ(50)に、
前記車両(2)が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得ステップ(S41)と、
該データ取得ステップ(S41)により取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定ステップ(S46、S51)と、
該判定ステップ(S46、S51)による判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価ステップ(S49、S54)とを実行させることを特徴とする運転評価プログラム。
(Appendix 3)
It is a driving evaluation program that causes at least one computer (50) to execute a process of evaluating the driving of the driver of the vehicle (2).
To the at least one computer (50)
Acquire data on a face detection state in which the driver's face is detected and a face non-detection state in which the driver's face is not detected, which are detected while the vehicle (2) passes through an intersection. Data acquisition step (S41) and
The face non-detection state is based on the driver's safety confirmation operation based on the temporal relationship between the face detection state and the face non-detection state indicated by the data acquired in the data acquisition step (S41). Judgment step (S46, S51) for determining whether or not
An operation evaluation program characterized by executing an evaluation step (S49, S54) for evaluating the safety confirmation operation of the driver at the intersection in consideration of the determination result by the determination step (S46, S51).

1 運転評価システム
2 車両
3 運転者
4 通信ネットワーク
10 車載機
11 プラットフォーム部
12 加速度センサ
13 角速度センサ
14 GPS受信部
14a アンテナ
15 通信部
16 報知部
17 記憶部
18 外部インターフェース(外部I/F)
19 制御部
19a CPU
19b RAM
19c ROM
20 ドライバモニタリング部
21 ドライバカメラ
22 画像解析部
23 インターフェース(I/F)
30 ドライブレコーダ部
31 車外カメラ
32 車内カメラ
40 サーバ装置(運転評価装置)
41 通信ユニット
50 サーバコンピュータ
51 中央処理装置
52 メインメモリ
53 制御プログラム
54 データ取得部
55 判定部
56 評価部
57 検出部
60 記憶ユニット
61 データ蓄積部
62 評価データ記憶部
63 運転者情報記憶部
80 事業者端末
1 Driving evaluation system 2 Vehicle 3 Driver 4 Communication network 10 In-vehicle device 11 Platform unit 12 Accelerometer 13 Angular velocity sensor 14 GPS receiver 14a Antenna 15 Communication unit 16 Notification unit 17 Storage unit 18 External interface (external I / F)
19 Control unit 19a CPU
19b RAM
19c ROM
20 Driver monitoring unit 21 Driver camera 22 Image analysis unit 23 Interface (I / F)
30 Drive recorder section 31 Outside camera 32 Inside camera 40 Server device (driving evaluation device)
41 Communication unit 50 Server computer 51 Central processing device 52 Main memory 53 Control program 54 Data acquisition unit 55 Judgment unit 56 Evaluation unit 57 Detection unit 60 Storage unit 61 Data storage unit 62 Evaluation data storage unit 63 Driver information storage unit 80 Operator Terminal

Claims (7)

車両の運転者の運転を評価する運転評価装置であって、
前記車両が交差点を通過する間に所定間隔で検出された、前記運転者の顔が検出されている顔検出状態を示すフラグデータと前記運転者の顔が検出されていない顔非検出状態を示すフラグデータとを含む運転者の状態に関するデータを取得するデータ取得部と、
該データ取得部で取得された前記顔検出状態を示すフラグデータと前記顔非検出状態を示すフラグデータとが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定部と、
該判定部による判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価部とを備えていることを特徴とする運転評価装置。
It is a driving evaluation device that evaluates the driving of the driver of the vehicle.
Flag data indicating a face detection state in which the driver's face is detected and a face non-detection state in which the driver's face is not detected, which are detected at predetermined intervals while the vehicle passes through the intersection, are shown. A data acquisition unit that acquires data related to the driver's condition, including flag data,
Based on the temporal relationship between the face detection state and the face non-detection state, which is indicated by the flag data indicating the face detection state and the flag data indicating the face non-detection state acquired by the data acquisition unit. A determination unit that determines whether or not the face non-detection state is due to the driver's safety confirmation operation, and
An operation evaluation device including an evaluation unit that evaluates the safety confirmation operation of the driver at the intersection in consideration of the determination result by the determination unit.
前記判定部が、
前記顔非検出状態を示すフラグデータが検出された期間の前後少なくともいずれかの前記顔検出状態を示すフラグデータが検出された期間における前記運転者の顔の向きの時間的変化を考慮して、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定するものであることを特徴とする請求項1記載の運転評価装置。
The determination unit
Considering the temporal change in the orientation of the driver's face during at least one of the periods when the flag data indicating the face detection state is detected before and after the period when the flag data indicating the face non-detection state is detected. The operation evaluation device according to claim 1, wherein it is determined whether or not the face non-detection state is due to the driver's safety confirmation operation.
前記判定部が、
前記データ取得部で取得された前記顔検出状態を示すフラグデータと前記顔非検出状態を示すフラグデータとが、前記顔検出状態から前記顔非検出状態になって所定時間内に再び前記顔検出状態に戻ったことを示すものである場合、前記顔非検出状態が前記運転者の安全確認動作によるものであると判定することを特徴とする請求項1又は請求項2記載の運転評価装置。
The determination unit
The flag data indicating the face detection state and the flag data indicating the face non-detection state acquired by the data acquisition unit change from the face detection state to the face non-detection state and detect the face again within a predetermined time. The operation evaluation device according to claim 1 or 2, wherein when it indicates that the state has returned, it is determined that the face non-detection state is due to the safety confirmation operation of the driver.
前記判定部が、
前記データ取得部で取得された前記顔検出状態を示すフラグデータと前記顔非検出状態を示すフラグデータとが、前記顔検出状態から前記顔非検出状態になって所定時間内に再び前記顔検出状態に戻らなかったことを示すものである場合、前記顔非検出状態が前記運転者の安全確認動作によるものではないと判定することを特徴とする請求項1又は請求項2記載の運転評価装置。
The determination unit
The flag data indicating the face detection state and the flag data indicating the face non-detection state acquired by the data acquisition unit change from the face detection state to the face non-detection state and detect the face again within a predetermined time. The operation evaluation device according to claim 1 or 2, wherein when it indicates that the state has not been returned, it is determined that the face non-detection state is not due to the driver's safety confirmation operation. ..
前記評価部が、
前記判定部により、前記顔非検出状態が前記運転者の安全確認動作によるものであると判定された場合、前記顔非検出状態において前記運転者の安全確認動作が行われたものとして評価することを特徴とする請求項1~3のいずれかの項に記載の運転評価装置。
The evaluation unit
When the determination unit determines that the face non-detection state is due to the driver's safety confirmation operation, it is evaluated as if the driver's safety confirmation operation was performed in the face non-detection state. The operation evaluation device according to any one of claims 1 to 3.
車両の運転者の運転を評価する運転評価方法であって、
前記車両が交差点を通過する間に所定間隔で検出された、前記運転者の顔が検出されている顔検出状態を示すフラグデータと前記運転者の顔が検出されていない顔非検出状態を示すフラグデータとを含む運転者の状態に関するデータを取得するデータ取得ステップと、
該データ取得ステップにより取得された前記顔検出状態を示すフラグデータと前記顔非検出状態を示すフラグデータとが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定ステップと、
該判定ステップによる判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価ステップとを含むことを特徴とする運転評価方法。
It is a driving evaluation method that evaluates the driving of the driver of the vehicle.
Flag data indicating a face detection state in which the driver's face is detected and a face non-detection state in which the driver's face is not detected, which are detected at predetermined intervals while the vehicle passes through the intersection, are shown. A data acquisition step to acquire data about the driver's condition, including flag data, and
Based on the temporal relationship between the face detection state and the face non-detection state, which is indicated by the flag data indicating the face detection state and the flag data indicating the face non-detection state acquired by the data acquisition step. A determination step for determining whether or not the face non-detection state is due to the driver's safety confirmation operation, and
A driving evaluation method comprising an evaluation step for evaluating the safety confirmation operation of the driver at the intersection in consideration of the determination result by the determination step.
車両の運転者の運転を評価する処理を少なくとも1つのコンピュータに実行させる運転評価プログラムであって、
前記少なくとも1つのコンピュータに、
前記車両が交差点を通過する間に所定間隔で検出された、前記運転者の顔が検出されている顔検出状態を示すフラグデータと前記運転者の顔が検出されていない顔非検出状態を示すフラグデータとを含む運転者の状態に関するデータを取得するデータ取得ステップと、
該データ取得ステップにより取得された前記顔検出状態を示すフラグデータと前記顔非検出状態を示すフラグデータとが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定ステップと、
該判定ステップによる判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価ステップとを実行させることを特徴とする運転評価プログラム。
A driving evaluation program that causes at least one computer to execute a process for evaluating the driving of a vehicle driver.
To the at least one computer
Flag data indicating a face detection state in which the driver's face is detected and a face non-detection state in which the driver's face is not detected, which are detected at predetermined intervals while the vehicle passes through the intersection, are shown. A data acquisition step to acquire data about the driver's condition, including flag data, and
Based on the temporal relationship between the face detection state and the face non-detection state, which is indicated by the flag data indicating the face detection state and the flag data indicating the face non-detection state acquired by the data acquisition step. A determination step for determining whether or not the face non-detection state is due to the driver's safety confirmation operation, and
A driving evaluation program comprising executing an evaluation step for evaluating the safety confirmation operation of the driver at the intersection in consideration of the determination result by the determination step.
JP2018044939A 2018-03-13 2018-03-13 Operation evaluation device, operation evaluation method, and operation evaluation program Active JP7060841B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018044939A JP7060841B2 (en) 2018-03-13 2018-03-13 Operation evaluation device, operation evaluation method, and operation evaluation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018044939A JP7060841B2 (en) 2018-03-13 2018-03-13 Operation evaluation device, operation evaluation method, and operation evaluation program

Publications (2)

Publication Number Publication Date
JP2019159741A JP2019159741A (en) 2019-09-19
JP7060841B2 true JP7060841B2 (en) 2022-04-27

Family

ID=67993992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018044939A Active JP7060841B2 (en) 2018-03-13 2018-03-13 Operation evaluation device, operation evaluation method, and operation evaluation program

Country Status (1)

Country Link
JP (1) JP7060841B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7478020B2 (en) * 2020-04-28 2024-05-02 矢崎エナジーシステム株式会社 On-board device for transport vehicles, driving evaluation system and driving evaluation program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014115859A (en) 2012-12-11 2014-06-26 Mitsubishi Motors Corp Inattentive driving determination device
JP2016057839A (en) 2014-09-09 2016-04-21 株式会社デンソーアイティーラボラトリ Facial direction detection device and warning system for vehicle
JP2017033126A (en) 2015-07-30 2017-02-09 いすゞ自動車株式会社 Safe driving promotion device and safe driving promotion method
JP2017102519A (en) 2015-11-30 2017-06-08 株式会社デンソー Driving assistance device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014115859A (en) 2012-12-11 2014-06-26 Mitsubishi Motors Corp Inattentive driving determination device
JP2016057839A (en) 2014-09-09 2016-04-21 株式会社デンソーアイティーラボラトリ Facial direction detection device and warning system for vehicle
JP2017033126A (en) 2015-07-30 2017-02-09 いすゞ自動車株式会社 Safe driving promotion device and safe driving promotion method
JP2017102519A (en) 2015-11-30 2017-06-08 株式会社デンソー Driving assistance device

Also Published As

Publication number Publication date
JP2019159741A (en) 2019-09-19

Similar Documents

Publication Publication Date Title
JP7114953B2 (en) In-vehicle device, driving evaluation device, driving evaluation system provided with these, data transmission method, and data transmission program
JP7135913B2 (en) Driving evaluation screen display method, program, driving evaluation system, and driving evaluation screen
US9041789B2 (en) System and method for determining driver alertness
JP6693489B2 (en) Information processing device, driver monitoring system, information processing method, and information processing program
JP7070827B2 (en) Driving evaluation device, in-vehicle device, driving evaluation system equipped with these, driving evaluation method, and driving evaluation program
US20220130155A1 (en) Adaptive monitoring of a vehicle using a camera
JP6967042B2 (en) Driving evaluation device, driving evaluation system, driving evaluation method, program, and intersection attribute discrimination method
TW201927610A (en) Safety confirmation evaluating device, on-vehicle device, safety confirmation evaluation system having the two, safety confirmation evaluation method, and safety confirmation evaluation program
JP7099036B2 (en) Data processing equipment, monitoring system, awakening system, data processing method, and data processing program
WO2019117005A1 (en) Driving evaluation report, vehicle-mounted device, driving evaluation report creation device, driving evaluation report creation system, computer program for creation of driving evaluation report, and storage medium
JP2019088522A (en) INFORMATION PROCESSING APPARATUS, DRIVER MONITORING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM
US20210370956A1 (en) Apparatus and method for determining state
US11903647B2 (en) Gaze detector, method for controlling gaze detector, method for detecting corneal reflection image position, and storage medium
JP7068606B2 (en) Driving evaluation device, on-board unit, driving evaluation method, and computer program
JP7298351B2 (en) State determination device, in-vehicle device, driving evaluation system, state determination method, and program
US20230174074A1 (en) In-cabin safety sensor installed in vehicle and method of providing service platform thereof
JP2019159926A (en) Driver replacement promotion device, drive evaluation system having the same thereon, and computer program
JP6950597B2 (en) On-board unit, driving evaluation system, information processing method, and program
JP7060841B2 (en) Operation evaluation device, operation evaluation method, and operation evaluation program
WO2019117004A1 (en) Safety check evaluation device, on-board device, safety check evaluation system comprising these, safety check evaluation method, safety check evaluation program, and storage medium
JP7130994B2 (en) In-vehicle device, backward determination method, and backward determination program
JP7075048B2 (en) Safety confirmation evaluation device, in-vehicle device, safety confirmation evaluation system equipped with these, safety confirmation evaluation method, and safety confirmation evaluation program
JP7235438B2 (en) Driving evaluation device, driving evaluation method, and computer program
KR20210119243A (en) Blackbox System for Detecting Drowsy Driving and Careless Driving and Method thereof
KR20220005290A (en) In-Cabin Security Sensor and Platform Service Method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220329

R150 Certificate of patent or registration of utility model

Ref document number: 7060841

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150