JP7060841B2 - Operation evaluation device, operation evaluation method, and operation evaluation program - Google Patents
Operation evaluation device, operation evaluation method, and operation evaluation program Download PDFInfo
- Publication number
- JP7060841B2 JP7060841B2 JP2018044939A JP2018044939A JP7060841B2 JP 7060841 B2 JP7060841 B2 JP 7060841B2 JP 2018044939 A JP2018044939 A JP 2018044939A JP 2018044939 A JP2018044939 A JP 2018044939A JP 7060841 B2 JP7060841 B2 JP 7060841B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- driver
- detection state
- unit
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims description 118
- 238000001514 detection method Methods 0.000 claims description 306
- 238000012790 confirmation Methods 0.000 claims description 147
- 238000000034 method Methods 0.000 claims description 51
- 230000008569 process Effects 0.000 claims description 41
- 230000008859 change Effects 0.000 claims description 34
- 230000002123 temporal effect Effects 0.000 claims description 34
- 238000012545 processing Methods 0.000 description 89
- 210000001508 eye Anatomy 0.000 description 25
- 238000010191 image analysis Methods 0.000 description 23
- 238000013459 approach Methods 0.000 description 22
- 238000004891 communication Methods 0.000 description 21
- 238000012544 monitoring process Methods 0.000 description 19
- 238000013500 data storage Methods 0.000 description 16
- 230000001133 acceleration Effects 0.000 description 12
- 238000012854 evaluation process Methods 0.000 description 8
- 230000001815 facial effect Effects 0.000 description 8
- 210000000056 organ Anatomy 0.000 description 8
- 238000005452 bending Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 210000001747 pupil Anatomy 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 235000002673 Dioscorea communis Nutrition 0.000 description 1
- 241000544230 Dioscorea communis Species 0.000 description 1
- 241001469893 Oxyzygonectes dovii Species 0.000 description 1
- 208000035753 Periorbital contusion Diseases 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000003786 sclera Anatomy 0.000 description 1
- 230000029305 taxis Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は運転評価装置、運転評価方法、及び運転評価プログラムに関する。 The present invention relates to an operation evaluation device, an operation evaluation method, and an operation evaluation program.
特許文献1には、車両を運転する運転者の脇見を検出し、運転者に脇見による危険を回避させるための動作を行う脇見検出システムが開示されている。特許文献1記載の脇見検出システムは、撮像装置及び脇見検出装置を含んで構成されている。
前記撮像装置は、運転者の顔をほぼ正面から撮影できる位置に設置され、撮影した画像(顔画像)を前記脇見検出装置に供給する。前記脇見検出装置は、視線検出部、脇見検出部、及び車両制御部を含んで構成されている。 The image pickup device is installed at a position where the driver's face can be photographed substantially from the front, and the photographed image (face image) is supplied to the inattentive detection device. The inattentive detection device includes a line-of-sight detection unit, an inattentive detection unit, and a vehicle control unit.
前記視線検出部は、顔画像に基づいて、運転者の視線の方向を検出する。前記脇見検出部は、運転者の視線の方向に基づいて、運転者の上下方向および左右方向の脇見を検出する。前記車両制御部は、自車および自車に設けられている各種の車載装置の動作を制御することにより、危険度に応じた強さで運転者に脇見に対する注意を促す。 The line-of-sight detection unit detects the direction of the driver's line of sight based on the face image. The inattentive detection unit detects inattentiveness in the vertical and horizontal directions of the driver based on the direction of the driver's line of sight. By controlling the operation of the own vehicle and various in-vehicle devices provided in the own vehicle, the vehicle control unit calls the driver to pay attention to inattentiveness with a strength according to the degree of danger.
[発明が解決しようとする課題]
特許文献1記載の脇見検出システムでは、前記撮像装置が運転者の顔をほぼ正面から撮影できる位置に設置されている。したがって、前記撮像装置により、運転者の左右の視線方向を左右同じ範囲で検出することが可能となっている。
[Problems to be solved by the invention]
In the inattentive detection system described in
ところで、このようなシステムにおいて、撮像装置を運転者の正面付近に設置できない場合もある。例えば、撮像装置がダッシュボードの中央付近に設置される場合もある。この位置から右ハンドル車の運転者を撮像すると、撮像装置が運転者の左斜め前方に位置するため、撮像装置では、運転者の右方向の顔の向きの検出範囲が左方向と比べて狭くなる。脇見検出であれば、右方向の顔の向きの検出範囲が左方向と比べて、ある程度狭くなったとしても、視線の方向が所定の範囲を超えているか否かを判定できればよいため、該判定に与える影響は比較的小さい。 By the way, in such a system, the image pickup device may not be installed near the front of the driver. For example, the image pickup device may be installed near the center of the dashboard. When the driver of a right-hand drive vehicle is imaged from this position, the image pickup device is located diagonally to the left of the driver. Become. In the case of inattentive detection, even if the detection range of the face direction in the right direction is narrower to some extent than in the left direction, it is sufficient if it can be determined whether or not the direction of the line of sight exceeds a predetermined range. The effect on is relatively small.
しかしながら、脇見検出ではなく、交差点における運転者の安全確認動作を検出する場合は、右方向の顔の向きの検出範囲が左方向と比べて狭くなることによる影響が大きくなる。 However, when the driver's safety confirmation operation at an intersection is detected instead of inattentive detection, the effect of narrowing the detection range of the face direction in the right direction as compared with the left direction becomes large.
例えば、交差点で右折する時に運転者が右方向(右前方から右後方)の安全を確認する場合、運転者は右方向へ大きく顔を振り向ける。特に、トラックやバスなどの車長が長い大型車両になるほど、運転者の右方向へ顔の振り角度が大きくなる。さらに、交通状況などによっては、運転者が運転席の窓から頭を出して右後方を確認する場合もある。そのため、撮像装置で安全確認中の運転者の顔を適切に検出できない場合も生じる。 For example, when the driver confirms the safety in the right direction (from the front right to the rear right) when turning right at an intersection, the driver turns his face to the right. In particular, the longer the vehicle length, such as a truck or bus, the larger the driver's face swing angle to the right. Furthermore, depending on traffic conditions, the driver may stick his head out of the driver's seat window to check the rear right. Therefore, the image pickup device may not be able to properly detect the driver's face during safety confirmation.
このような場合、特許文献1記載の脇見検出装置では、撮像装置で運転者の顔が検出されない現象が、安全確認によるものなのか否かを適切に判定できず、運転者が安全確認を行っているのに、誤って脇見と判定して運転者に注意を促すといった処理がなされる虞があるという課題があった。
In such a case, the inattentive detection device described in
本発明は上記課題に鑑みなされたものであって、交差点において運転者が安全確認しているか否かをより適切に判定することができる運転評価装置、運転評価方法、及び運転評価プログラムを提供することを目的としている。 The present invention has been made in view of the above problems, and provides a driving evaluation device, a driving evaluation method, and a driving evaluation program capable of more appropriately determining whether or not the driver has confirmed safety at an intersection. The purpose is.
上記目的を達成するために本開示に係る運転評価装置(1)は、車両の運転者の運転を評価する運転評価装置であって、
前記車両が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得部と、
該データ取得部で取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定部と、
該判定部による判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価部とを備えていることを特徴としている。
In order to achieve the above object, the driving evaluation device (1) according to the present disclosure is a driving evaluation device that evaluates the driving of the driver of the vehicle.
A data acquisition unit that acquires data on a face detection state in which the driver's face is detected and a face non-detection state in which the driver's face is not detected, which are detected while the vehicle passes through the intersection. When,
Whether the face non-detection state is due to the driver's safety confirmation operation based on the temporal relationship between the face detection state and the face non-detection state indicated by the data acquired by the data acquisition unit. A judgment unit that determines whether or not it is
It is characterized by including an evaluation unit for evaluating the safety confirmation operation of the driver at the intersection in consideration of the determination result by the determination unit.
上記運転評価装置(1)によれば、前記データ取得部で取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かが判定される。したがって、前記車両が交差点を通過する間に前記顔非検出状態が検出された場合に、該顔非検出状態が前記運転者の安全確認動作によるものであるか否かを適切に判定することができ、前記交差点における前記運転者の安全確認動作を精度よく評価することができる。 According to the operation evaluation device (1), the face non-detection state is the face non-detection state based on the temporal relationship between the face detection state and the face non-detection state indicated by the data acquired by the data acquisition unit. It is determined whether or not it is due to the driver's safety confirmation operation. Therefore, when the face non-detection state is detected while the vehicle passes through the intersection, it is possible to appropriately determine whether or not the face non-detection state is due to the driver's safety confirmation operation. It is possible to accurately evaluate the safety confirmation operation of the driver at the intersection.
また本開示に係る運転評価装置(2)は、上記運転評価装置(1)において、前記判定部が、前記顔非検出状態の前後少なくともいずれかの前記顔検出状態における前記運転者の顔の向きの時間的変化を考慮して、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定するものであることを特徴としている。 Further, in the operation evaluation device (2) according to the present disclosure, in the operation evaluation device (1), the determination unit determines the orientation of the driver's face in at least one of the face detection states before and after the face non-detection state. It is characterized in that it is determined whether or not the face non-detection state is due to the safety confirmation operation of the driver in consideration of the temporal change of the above.
上記運転評価装置(2)によれば、前記判定部において、前記顔非検出状態の前後少なくともいずれかの前記顔検出状態における前記運転者の顔の向きの時間的変化を考慮して、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かが判定される。したがって、前記顔非検出状態の前後少なくともいずれかの前記顔検出状態における前記運転者の顔の向きの時間的変化を考慮することにより、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かをより正確に判定することができ、前記交差点における前記運転者の安全確認動作をさらに精度よく評価することができる。 According to the driving evaluation device (2), in the determination unit, the face is taken into consideration in consideration of the temporal change of the face orientation of the driver in at least one of the face detection states before and after the face non-detection state. It is determined whether or not the non-detection state is due to the driver's safety confirmation operation. Therefore, by considering the temporal change of the face orientation of the driver in at least one of the face detection states before and after the face non-detection state, the face non-detection state is due to the driver's safety confirmation operation. It is possible to more accurately determine whether or not the safety confirmation is performed, and it is possible to more accurately evaluate the safety confirmation operation of the driver at the intersection.
また本開示に係る運転評価装置(3)は、上記運転評価装置(1)又は(2)において、前記判定部が、前記データ取得部で取得された前記データが、前記顔検出状態から前記顔非検出状態になって所定時間内に再び前記顔検出状態に戻ったことを示すものである場合、前記顔非検出状態が前記運転者の安全確認動作によるものであると判定することを特徴としている。 Further, in the operation evaluation device (3) according to the present disclosure, in the operation evaluation device (1) or (2), the data acquired by the determination unit and the data acquisition unit can be obtained from the face detection state to the face. When it indicates that the face has not been detected and the face has been detected again within a predetermined time, it is determined that the face non-detection state is due to the driver's safety confirmation operation. There is.
上記運転評価装置(3)によれば、前記データ取得部で取得された前記データが、前記顔検出状態から前記顔非検出状態になって所定時間内に再び前記顔検出状態に戻ったことを示すものである場合、前記顔非検出状態が前記運転者の安全確認動作によるものであると判定される。したがって、前記車両が交差点を通過する間における前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かをより正確に判定することができ、前記交差点における前記運転者の安全確認動作をさらに精度よく評価することができる。 According to the operation evaluation device (3), the data acquired by the data acquisition unit changes from the face detection state to the face non-detection state and returns to the face detection state again within a predetermined time. When it is shown, it is determined that the face non-detection state is due to the safety confirmation operation of the driver. Therefore, it is possible to more accurately determine whether or not the face non-detection state is due to the driver's safety confirmation operation while the vehicle passes through the intersection, and it is possible to more accurately determine whether or not the driver's safety confirmation operation at the intersection. The operation can be evaluated more accurately.
また本開示に係る運転評価装置(4)は、上記運転評価装置(1)又は(2)において、前記判定部が、前記データ取得部で取得された前記データが、前記顔検出状態から前記顔非検出状態になって所定時間内に再び前記顔検出状態に戻らなかったことを示すものである場合、前記顔非検出状態が前記運転者の安全確認動作によるものではないと判定することを特徴としている。 Further, in the operation evaluation device (4) according to the present disclosure, in the operation evaluation device (1) or (2), the data acquired by the determination unit and the data acquisition unit can be obtained from the face detection state to the face. When it indicates that the face has not been detected and the face has not been detected again within a predetermined time, it is determined that the face non-detection state is not due to the driver's safety confirmation operation. It is supposed to be.
上記運転評価装置(4)によれば、前記データ取得部で取得された前記データが、前記顔検出状態から前記顔非検出状態になって所定時間内に再び前記顔検出状態に戻らなかったことを示すものである場合、前記顔非検出状態が前記運転者の安全確認動作によるものではないと判定される。したがって、前記顔非検出状態が前記運転者の安全確認動作によるものではない場合も適切に判定することができ、前記交差点における前記運転者の安全確認動作を正確に評価することができる。 According to the operation evaluation device (4), the data acquired by the data acquisition unit changed from the face detection state to the face non-detection state and did not return to the face detection state again within a predetermined time. Is indicated, it is determined that the face non-detection state is not due to the driver's safety confirmation operation. Therefore, even if the face non-detection state is not due to the driver's safety confirmation operation, it can be appropriately determined, and the driver's safety confirmation operation at the intersection can be accurately evaluated.
また本開示に係る運転評価装置(5)は、上記運転評価装置(1)~(3)のいずれかにおいて、前記評価部が、前記判定部により、前記顔非検出状態が前記運転者の安全確認動作によるものであると判定された場合、前記顔非検出状態において前記運転者の安全確認動作が行われたものとして評価することを特徴としている。 Further, in the operation evaluation device (5) according to the present disclosure, in any of the operation evaluation devices (1) to (3), the evaluation unit is used by the determination unit, and the face non-detection state is the safety of the driver. When it is determined that the operation is due to the confirmation operation, the driver is evaluated as having performed the safety confirmation operation in the face non-detection state.
上記運転評価装置(5)によれば、前記判定部により前記顔非検出状態が前記運転者の安全確認動作によるものであると判定された場合、前記顔非検出状態において前記運転者の安全確認動作が行われたものとして適切に評価することができる。 According to the driving evaluation device (5), when the determination unit determines that the face non-detection state is due to the driver's safety confirmation operation, the driver's safety confirmation in the face non-detection state. It can be properly evaluated as if the operation was performed.
また本開示に係る運転評価方法は、車両の運転者の運転を評価する運転評価方法であって、
前記車両が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得ステップと、
該データ取得ステップにより取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定ステップと、
該判定ステップによる判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価ステップとを含むことを特徴としている。
Further, the driving evaluation method according to the present disclosure is a driving evaluation method for evaluating the driving of the driver of the vehicle.
A data acquisition step for acquiring data regarding a face detection state in which the driver's face is detected and a face non-detection state in which the driver's face is not detected, which are detected while the vehicle passes through the intersection. When,
Whether the face non-detection state is due to the driver's safety confirmation operation based on the temporal relationship between the face detection state and the face non-detection state indicated by the data acquired by the data acquisition step. Judgment step to determine whether or not,
It is characterized by including an evaluation step for evaluating the safety confirmation operation of the driver at the intersection in consideration of the determination result by the determination step.
上記運転評価方法によれば、前記データ取得ステップにより取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する。したがって、前記車両が交差点を通過する間に前記顔非検出状態が検出された場合に、該顔非検出状態が前記運転者の安全確認動作によるものであるか否かを適切に判定することができ、前記交差点における前記運転者の安全確認動作を精度よく評価することができる。 According to the driving evaluation method, the face non-detection state is the driver's based on the temporal relationship between the face detection state and the face non-detection state indicated by the data acquired by the data acquisition step. Judge whether it is due to the safety confirmation operation. Therefore, when the face non-detection state is detected while the vehicle passes through the intersection, it is possible to appropriately determine whether or not the face non-detection state is due to the driver's safety confirmation operation. It is possible to accurately evaluate the safety confirmation operation of the driver at the intersection.
また本開示に係る運転評価プログラムは、車両の運転者の運転を評価する処理を少なくとも1つのコンピュータに実行させる運転評価プログラムであって、
前記少なくとも1つのコンピュータに、
前記車両が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得ステップと、
該データ取得ステップにより取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定ステップと、
該判定ステップによる判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価ステップとを実行させることを特徴としている。
Further, the driving evaluation program according to the present disclosure is a driving evaluation program for causing at least one computer to execute a process of evaluating the driving of the driver of the vehicle.
To the at least one computer
A data acquisition step for acquiring data regarding a face detection state in which the driver's face is detected and a face non-detection state in which the driver's face is not detected, which are detected while the vehicle passes through the intersection. When,
Whether the face non-detection state is due to the driver's safety confirmation operation based on the temporal relationship between the face detection state and the face non-detection state indicated by the data acquired by the data acquisition step. Judgment step to determine whether or not,
It is characterized in that an evaluation step for evaluating the safety confirmation operation of the driver at the intersection is executed in consideration of the determination result by the determination step.
上記運転評価プログラムによれば、前記データ取得ステップにより取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する。したがって、前記車両が交差点を通過する間に前記顔非検出状態が検出された場合に、該顔非検出状態が前記運転者の安全確認動作によるものであるか否かを適切に判定することができ、前記交差点における前記運転者の安全確認動作を精度よく評価することができる装置を実現することができる。 According to the driving evaluation program, the face non-detection state is the driver's based on the temporal relationship between the face detection state and the face non-detection state indicated by the data acquired by the data acquisition step. Judge whether it is due to the safety confirmation operation. Therefore, when the face non-detection state is detected while the vehicle passes through the intersection, it is possible to appropriately determine whether or not the face non-detection state is due to the driver's safety confirmation operation. It is possible to realize a device capable of accurately evaluating the safety confirmation operation of the driver at the intersection.
以下、本発明に係る運転評価装置、運転評価方法、及び運転評価プログラムの実施の形態を図面に基づいて説明する。 Hereinafter, embodiments of an operation evaluation device, an operation evaluation method, and an operation evaluation program according to the present invention will be described with reference to the drawings.
[適用例]
図1は、実施の形態に係る運転評価装置が適用される運転評価システムの一例を示す概略構成図である。
運転評価システム1は、車両2の運転者3の運転評価を行うためのシステムであって、少なくとも1台以上の車両2に搭載される車載機10と、各車載機10で取得されたデータを処理する少なくとも1つ以上のサーバ装置40とを含んで構成されている。サーバ装置40が、本発明に係る「運転評価装置」の一例である。
[Application example]
FIG. 1 is a schematic configuration diagram showing an example of an operation evaluation system to which the operation evaluation device according to the embodiment is applied.
The driving
車載機10が搭載される車両2は、特に限定されない。本適用例では、各種の事業を営む事業者が管理する車両が対象とされ得る。例えば、運送事業者が管理するトラック、バス事業者が管理するバス、タクシー事業者が管理するタクシー、カーシェアリング事業者が管理するカーシェア車両、レンタカー事業者が管理するレンタカー、会社が所有している社有車、又はカーリース事業者からリースして使用する社有車などが対象とされ得る。
The
車載機10とサーバ装置40とは、通信ネットワーク4を介して通信可能に構成されている。通信ネットワーク4は、基地局を含む携帯電話網(3G/4G)や無線LAN(Local Area Network)などの無線通信網を含んでもよいし、公衆電話網などの有線通信網、インターネット、又は専用網などの電気通信回線を含んでもよい。
The vehicle-mounted
また、車両2を管理する事業者の端末装置80(以下、事業者端末という。)が、通信ネットワーク4を介してサーバ装置40と通信可能に構成されている。事業者端末80は、通信機能を備えたパーソナルコンピュータでもよいし、携帯電話、スマートフォン、又はタブレット装置などの携帯情報端末などでもよい。また、事業者端末80が、通信ネットワーク4を介して車載機10と通信可能に構成されてもよい。
Further, the
車載機10は、車両2の運転者3の状態をモニタリングするとともに、運転者3の運転評価に用いるデータを取得し、例えば、所定の事象が検出されたときに取得したデータをサーバ装置40へ送信する装置である。
車載機10は、車両2の位置及び車両2の挙動を検出する処理などを行うプラットフォーム部11と、運転者3の画像を撮像して、運転者3の状態を検出するドライバモニタリング部20とを含んで構成されている。運転者3の状態を示すデータには、運転者3の画像から検出された運転者3の顔の向きなどの顔画像情報が含まれている。また、車両2の車外と車内をそれぞれ撮影するドライブレコーダ部30が車載機10に接続されている。
The on-
The on-
車載機10は、プラットフォーム部11とドライバモニタリング部20とが1つの筐体内に収納されたコンパクトな構成となっている。車載機10の車内設置箇所は、ドライバモニタリング部20の撮像部で少なくとも運転者の顔を含む視野を撮像できる位置であれば、特に限定されない。例えば、車載機10は、車両2のダッシュボード中央付近に設置され得るが、ハンドルコラム部分、メーターパネル付近、ルームミラー近傍位置、又はAピラー部分などに設置されてもよい。
The on-
車載機10は、例えば、車両2が交差点を通過(例えば、右折又は左折など)したことを検出すると、交差点を通過しているときに、ドライバモニタリング部20とプラットフォーム部11とで検出された、運転者3の状態、車両2の位置、及び車両2の挙動を含むデータをサーバ装置40へ送信する処理を実行する。
When the vehicle-mounted
サーバ装置40は、通信ユニット41、サーバコンピュータ50、及び記憶ユニット60を含んで構成され、これらが通信バス42を介して接続されている。
The
通信ユニット41は、通信ネットワーク4を介して、車載機10や事業者端末80などとの間で各種のデータや信号の送受信を実現するための通信装置で構成されている。
The
サーバコンピュータ50は、1つ以上のCPU(Central Processing Unit)を含んで構成される中央処理装置51と、制御プログラム52が記憶されたメインメモリ53とを含んで構成されている。中央処理装置51は、メインメモリ53中の制御プログラム52に従って、各種処理を実行するようになっている。制御プログラム52に、本発明に係る「運転評価プログラム」の一例が含まれている。
The
記憶ユニット60は、例えば、ハードディスクドライブ、ソリッドステートドライブなど、1つ以上の大容量記憶装置で構成され、データ蓄積部61、評価データ記憶部62、及び運転者3の情報を記憶する運転者情報記憶部63を含んで構成されている。
The
サーバ装置40は、各車載機10から所定の事象が検出されたときに送信されてきた、運転者3の状態、車両2の位置、及び車両2の挙動を含むデータを取得して、記憶ユニット60のデータ蓄積部61に蓄積する。
The
サーバ装置40は、データ蓄積部61に蓄積された各車載機10のデータを用いて、各運転者3の運転評価を行う。該運転評価の項目には、交差点における運転者の安全確認動作に関する評価が含まれているが、さらに運転者の運転操作行為に関する評価、運転時の集中状態に関する評価などの項目が含まれてもよい。
The
サーバ装置40は、各車載機10から取得したデータを用いて、各車両2の一日の運転が終了した後に、各項目の評価処理を実行してもよいし、又は一定期間毎に、該一定期間内における各項目の評価処理を実行してもよく、運転評価処理の実行タイミングは特に限定されない。そして、サーバ装置40は、前記運転評価処理で得られた各運転者3の運転評価データを記憶ユニット60の評価データ記憶部62に記憶する処理を実行する。
The
本実施の形態に係るサーバ装置40の特徴の1つは、交差点における運転者3の安全確認動作の判定処理にある。
交差点における運転者3の安全確認動作の判定処理は、データ蓄積部61に蓄積されたデータに基づいて実行される。
データ蓄積部61に蓄積されるデータには、車両2が交差点を通過(例えば、右折又は左折)しているときに、車載機10(ドライバモニタリング部20、プラットフォーム部11)で検出された、運転者3の状態、車両2の位置、及び車両2の挙動を含むデータが含まれている。
One of the features of the
The determination process of the safety confirmation operation of the
The data stored in the
運転者3の状態を示すデータには、ドライバモニタリング部20で検出される、運転者3の顔の向きなどの顔の検出状態に関するデータ(以下、このデータを顔画像情報ともいう)が含まれている。
車載機10が、例えば、車両2のダッシュボードの中央付近に設置された場合、この位置から、車載機10のドライバモニタリング部20で右ハンドル車の運転者3の画像を撮像すると、車載機10が運転者3の左斜め前方に位置するため、運転者3の右方向の顔の向きの検出範囲が左方向と比べて狭くなる。
The data indicating the state of the
When the vehicle-mounted
そのため、車両2が、例えば、交差点を右折するときに、運転者3が顔を右側に大きく振り、右方向を確認した場合、ドライバモニタリング部20で運転者3の顔の向きを検出できない期間が生じることもある。
また、車両2が、トラックやバスなどの車長が長い大型車両である場合、交差点を右折するときに、運転者3が運転席の窓から頭を出して右方向を確認すると、ドライバモニタリング部20で運転者3の顔を検出できない期間が生じることもある。なお、このような現象は、車載機10が車両2のダッシュボードの中央付近以外の場所に設置された場合、車両2が左ハンドル車である場合、又は車両2が交差点を左折する場合であっても生じ得るものである。
Therefore, for example, when the
Further, when the
このような場合、運転者3の状態を示すデータには、運転者3の顔(顔の向きを含む)が検出されていない状態のデータが含まれることとなる。
そこで、実施の形態に係るサーバ装置40は、車両2が交差点を通過しているときの運転者3の状態を示すデータに、運転者3の顔(顔の向きを含む)が検出されていない状態(以下、顔非検出状態ともいう)のデータが含まれている場合、顔非検出状態が運転者3の安全確認動作によるものであるか否かを判定し、該判定結果を考慮して交差点における運転者の安全確認動作を評価する処理を実行する。
In such a case, the data indicating the state of the
Therefore, in the
顔非検出状態が運転者3の安全確認動作によるものであるか否かの判定は、例えば、車両2が交差点を通過(右折又は左折)しているときの運転者3の顔が検出されている状態(以下、顔検出状態ともいう)と運転者3の顔非検出状態との時間的関係に基づいて判定される。
In the determination of whether or not the face non-detection state is due to the safety confirmation operation of the
例えば、交差点で曲がる時(右折又は左折する時)に運転者3が曲がる方向を確認する場合、運転者3の顔は、正面方向を向いた状態から曲がる方向に振られ、その後正面方向に振られ、元の正面方向を向いた状態に戻る。
したがって、サーバ装置40は、車載機10から取得したデータが、交差点で曲がる時に運転者3の顔の向きが曲がる方向に変化して、顔検出状態から顔非検出状態になって所定の第1の時間内に再び顔検出状態に戻ったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。前記第1の時間は、安全確認に必要かつ適切な時間(例えば、1秒前後)に設定される。
For example, when the
Therefore, the
また、顔非検出状態が運転者3の安全確認動作によるものであるか否かの判定は、顔非検出状態の前後少なくともいずれかの顔検出状態における運転者3の顔の向きの時間的変化を考慮して判定してもよい。
Further, the determination of whether or not the face non-detection state is due to the safety confirmation operation of the
例えば、サーバ装置40は、車載機10から取得したデータが、車両2が交差点で曲がる時に、運転者3の曲がる方向への顔の向き(振り角度)が、経時的に大きくなった後に、顔非検出状態になり、その後、振り角度が経時的に小さくなる変化を示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。
For example, in the
または、サーバ装置40は、車載機10から取得したデータが、車両2が交差点で曲がる時に、運転者3の曲がる方向への顔の向き(振り角度)が、経時的に大きくなった後に、顔非検出状態になり、所定時間内に再び顔検出状態に戻ったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。
Alternatively, the
または、サーバ装置40は、車載機10から取得したデータが、車両2が交差点で曲がる時に、運転者3の顔の向きが曲がる方向に変化し、顔検出状態から顔非検出状態になって、その後、運転者3の曲がる方向への顔の向き(振り角度)が経時的に小さくなる変化を示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。
Alternatively, the
一方、サーバ装置40は、車載機10から取得したデータが、車両2が交差点で曲がる時に、顔検出状態から顔非検出状態になって所定の第2の時間内に再び顔検出状態に戻らなかったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものではないと判定してもよい。前記第2の時間は、前記第1の時間より長く、運転者3が正常に運転できない状態であると判定する時間に設定される。
On the other hand, the
このようなサーバ装置40によれば、車両2が交差点を通過する間に顔非検出状態が検出された場合であっても、該顔非検出状態が運転者3の安全確認動作によるものであるか否かを適切に判定することが可能となり、交差点における運転者3の安全確認動作を精度よく評価することが可能となる。
According to such a
[構成例]
図2は、実施の形態に係る運転評価システム1で用いられる車載機10の要部を概略的に示すブロック図である。
車載機10は、プラットフォーム部11及びドライバモニタリング部20を含んで構成されている。また、車載機10にドライブレコーダ部30が接続されている。
[Configuration example]
FIG. 2 is a block diagram schematically showing a main part of the vehicle-mounted
The on-
プラットフォーム部11には、車両2の加速度を測定する加速度センサ12、車両2の回転角速度を検出する角速度センサ13、及び車両2の位置を検出するGPS(Global Positioning System)受信部14が装備されている。また、プラットフォーム部11には、通信ネットワーク4を介して外部機器と通信処理を行う通信部15、警告などを行うための所定の音や音声などを出力する報知部16、記憶部17、及び外部インターフェース(外部I/F)18が装備されている。さらにプラットフォーム部11には、各部の処理動作を制御する制御部19が装備されている。
The
加速度センサ12は、例えば、XYZ軸の3方向の加速度を測定する3軸加速度センサで構成されている。3軸加速度センサには、静電容量型の他、ピエゾ抵抗型などの半導体方式の加速度センサを用いることができる。なお、加速度センサ12には、2軸、1軸の加速度センサを用いてもよい。加速度センサ12で測定された加速度データが、検出時刻と対応付けて制御部19のRAM19bに記憶される。
The
角速度センサ13は、少なくとも鉛直軸回り(ヨー方向)の回転に応じた角速度、すなわち、車両2の左右方向への回転(旋回)に応じた角速度データを検出可能なセンサ、例えば、ジャイロセンサ(ヨーレートセンサともいう)で構成されている。
なお、角速度センサ13には、鉛直軸回りの1軸ジャイロセンサの他、左右方向の水平軸回り(ピッチ方向)の角速度も検出する2軸ジャイロセンサ、さらに前後方向の水平軸回り(ロール方向)の角速度も検出する3軸ジャイロセンサを用いてもよい。これらジャイロセンサには、振動式ジャイロセンサの他、光学式、又は機械式のジャイロセンサを用いることができる。
The
The
また、角速度センサ13の鉛直軸回りの角速度の検出方向については、例えば、時計回りを正方向に、反時計回りを負方向に設定してもよい。この場合、車両2が右方向に旋回すれば正の角速度データが検出され、左方向に旋回すれば負の角速度データが検出される。角速度センサ13では、所定の周期(例えば、数十ms周期)で角速度が検出され、検出された角速度データが、例えば、検出時刻と対応付けて制御部19のRAM19bに記憶される。なお、加速度センサ12と角速度センサ13には、これらが一つのパッケージ内に実装された慣性センサを用いてもよい。
Further, regarding the detection direction of the angular velocity around the vertical axis of the
GPS受信部14は、アンテナ14aを介して人工衛星からのGPS信号を所定周期で受信して、現在地の位置データ(緯度、及び経度)を検出する。GPS受信部14で検出された位置データは、検出時刻と対応付けて制御部19のRAM19bに記憶される。なお、車両2の位置を検出する装置は、GPS受信部14に限定されるものではない。例えば、日本の準天頂衛星、ロシアのグロナス(GLONASS)、欧州のガリレオ(Galileo)、又は中国のコンパス(Compass)等の他の衛星測位システムに対応した測位装置を用いてもよい。
The
通信部15は、通信ネットワーク4を介してサーバ装置40にデータ出力処理などを行う通信モジュールを含んで構成されている。
The
記憶部17は、例えば、メモリーカードなどの着脱可能な記憶装置、又はハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)などの1つ以上の記憶装置で構成されている。記憶部17には、例えば、加速度センサ12、角速度センサ13、GPS受信部14、ドライバモニタリング部20、又はドライブレコーダ部30から取得したデータなどが記憶される。
The
外部I/F18は、ドライブレコーダ部30などの車載機器との間でデータや信号の授受を行うためのインターフェース回路や接続コネクタなどを含んで構成されている。
The external I /
制御部19は、CPU(Central Processing Unit)19a、RAM(Random Access Memory)19b、及びROM(Read Only Memory)19cを含むマイクロコンピュータで構成されている。制御部19は、取得した各種データをRAM19b又は記憶部17に記憶する処理を行う。また、制御部19は、ROM19cに記憶されたプログラムの他、必要に応じてRAM19b又は記憶部17に記憶された各種データを読み出して、プログラムを実行する。
The
ドライバモニタリング部20は、ドライバカメラ21、画像解析部22、及びインターフェース(I/F)23を含んで構成されている。
ドライバカメラ21は、例えば、図示しないレンズ部、撮像素子部、光照射部、及びこれら各部を制御するカメラ制御部などを含み、撮像部として構成される。
The
The
ドライバカメラ21の仕様(例えば、画角や画素数(縦×横)など)及び位置姿勢(例えば、取付角度や所定の原点(ハンドル中央位置など)からの距離など)を含む情報がドライバモニタリング部20又はプラットフォーム部11に記憶されてもよい。また、ドライバモニタリング部20は、プラットフォーム部11と一体に構成される形態の他、プラットフォーム部11と別体で構成されてもよい。
Information including the specifications of the driver camera 21 (for example, the angle of view, the number of pixels (vertical x horizontal), etc.) and the position / orientation (for example, the mounting angle and the distance from a predetermined origin (the center position of the handle, etc.)) is the driver monitoring unit. It may be stored in 20 or the
前記撮像素子部は、例えば、CCD(Charge Coupled Device)、又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、フィルタ、及びマイクロレンズなどを含んで構成されている。前記撮像素子部は、可視領域の光を受けて撮像画像を形成できるものを含む他、近赤外線などの赤外線又は紫外線を受けて撮像画像を形成できるCCD、CMOS、或いはフォトダイオード等の赤外線センサを含んでもよい。前記光照射部は、LED(Light Emitting Diode)などの発光素子を含み、また、昼夜を問わず運転者の状態を撮像できるように赤外線LEDなどを用いてもよい。ドライバカメラ21は、単眼カメラでもよいし、ステレオカメラであってもよい。
The image pickup device unit includes, for example, an image pickup device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), a filter, a microlens, and the like. The image pickup element unit includes an infrared sensor such as a CCD, CMOS, or a photodiode capable of receiving infrared rays such as near infrared rays or ultraviolet rays to form an image pickup image, in addition to those capable of forming an image pickup image by receiving light in the visible region. It may be included. The light irradiation unit includes a light emitting element such as an LED (Light Emitting Diode), and an infrared LED or the like may be used so that the state of the driver can be imaged day or night. The
前記カメラ制御部は、例えば、プロセッサなどを含んで構成されている。前記カメラ制御部が、前記撮像素子部や前記光照射部を制御して、該光照射部から光(例えば、近赤外線など)を照射し、前記撮像素子部でその反射光を撮像する制御などを行う。ドライバカメラ21は所定のフレームレート(例えば、毎秒30~60フレーム)で画像を撮像し、ドライバカメラ21で撮像された画像のデータが画像解析部22へ出力される。
The camera control unit includes, for example, a processor and the like. The camera control unit controls the image pickup element unit and the light irradiation unit to irradiate light (for example, near infrared rays) from the light irradiation unit, and the image pickup element unit captures the reflected light. I do. The
画像解析部22は、例えば、画像処理プロセッサなどを含んで構成され、ドライバカメラ21で撮像された画像から運転者の顔の有無、運転者の顔の向き、視線の方向、及び目開度のうちの少なくとも運転者の顔の有無を含む顔画像情報を検出する処理などを行う。画像解析部22で検出された運転者の顔画像情報、画像データ、及び撮像日時データが、インターフェース(I/F)23を介してプラットフォーム部11に送出され、プラットフォーム部11のRAM19b又は記憶部17に記憶される。
The
画像解析部22で検出される運転者の顔の向きは、例えば、運転者の顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ(Pitch)角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー(Yaw)角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール(Roll)角で示してよく、少なくとも左右の向きを示すヨー角が含まれる。またこれらの角度は、所定の基準方向に対する角度で示すことができ、例えば、前記基準方向が、運転者の正面方向に設定されてもよい。
The orientation of the driver's face detected by the
また、画像解析部22で検出される運転者の視線の方向は、例えば、画像から検出された、運転者の顔の向きと、目領域の情報(目頭、眼尻、又は瞳孔の位置など)との関係から推定され、3次元座標上における視線ベクトルV(3次元ベクトル)などで示すことができる。視線ベクトルVは、例えば、運転者の顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール角のうち、少なくとも1つと、前記目領域の情報とから推定されたものでもよい。また、視線ベクトルVは、その3次元ベクトルの一部の値を顔の向きのベクトルの値と共通(例えば、3次元座標の原点を共通)にして示したり、顔の向きのベクトルを基準とした相対角度(顔の向きのベクトルの相対値)で示したりしてもよい。
Further, the direction of the driver's line of sight detected by the
また、画像解析部22で検出される運転者の目開度は、例えば、画像から検出された、運転者の目領域の情報(目頭、眼尻、上下のまぶたの位置、又は瞳孔の位置など)を基に推定される。
Further, the driver's eye opening detected by the
プラットフォーム部11の外部I/F18には、ドライブレコーダ部30が接続されている。ドライブレコーダ部30は、車外カメラ31と車内カメラ32とを含んで構成されている。
The
車外カメラ31は、車両2の前方の画像を撮像するカメラであり、車内カメラ32は、車両2の室内の画像を撮像するカメラである。車外カメラ31と車内カメラ32は、例えば、可視光カメラで構成され得るが、近赤外線カメラなどで構成してもよい。
The out-of-
車外カメラ31と車内カメラ32は、それぞれ所定のフレームレート(例えば、毎秒30~60フレーム)で画像を撮像し、車外カメラ31と車内カメラ32で撮像された画像と撮像日時などのデータがプラットフォーム部11へ送出され、プラットフォーム部11のRAM19b又は記憶部17に記憶される。なお、ドライブレコーダ部30は車外カメラ31のみ備えた構成であってもよい。
The out-of-
図3は、車載機10からサーバ装置40に送信されるデータの構造の一例を示す図である。
車載機10からサーバ装置40に送信されるデータには、車載機10の識別情報(シリアルナンバー等)、送信日時、顔検出フラグFのデータ(例えば、F=1、又はF=0)、運転者の顔の向き(ピッチ、ヨー、及びロール)、視線の方向(ピッチ、及びヨー)、目開度(右目、及び左目)、車両の加速度(前後、左右、及び上下)、角速度(ヨー)、運転者画像、車外画像、車両の位置データ(緯度、及び経度)、及び走行速度が含まれている。顔検出フラグFは、ドライバカメラ21で撮像された画像から運転者の顔が検出された顔検出状態(F=1)と運転者の顔が検出されていない顔非検出状態(F=0)を示すものである。なお、顔検出フラグFが0に設定された場合に、サーバ装置40へ送信されるデータには、顔の向き、視線の方向、目開度、及び運転者画像は含まれない。また、サーバ装置40に送信されるデータの構造は、図3に示した構造に限定されるものではない。
FIG. 3 is a diagram showing an example of the structure of data transmitted from the vehicle-mounted
The data transmitted from the in-
図3に例示した構造のデータは、例えば、車載機10が、車両2が交差点を通過したことを検出した場合に送信される。車載機10は、例えば、角速度センサ13で検出された角速度の積分値が所定の閾値(交差点進入を推定する閾値)を超えてから所定時間が経過した場合に、車両2が交差点を通過したと判断することが可能となっている。
The data of the structure illustrated in FIG. 3 is transmitted, for example, when the vehicle-mounted
図4は、実施の形態に係るサーバ装置40の特徴部分を示す機能構成ブロック図である。
サーバコンピュータ50の中央処理装置51は、データ取得部54、判定部55、及び評価部56を含んで構成されている。また、中央処理装置51は、検出部57を備えている。
FIG. 4 is a functional configuration block diagram showing a characteristic portion of the
The
データ取得部54は、運転評価を行う対象の車載機10から取得した所定の運転期間(日、週、又は月単位などの期間)のデータをデータ蓄積部61から取得する。データ蓄積部61から取得するデータには、車載機10が搭載された車両2が各交差点を通過する間の運転者3の状態を示すデータが含まれている。このデータには、車両2が交差点を通過する間に検出された、運転者3の顔が検出されている顔検出状態と運転者3の顔が検出されていない顔非検出状態とを示すデータが含まれている。また、運転者3の状態を示すデータに顔画像情報が含まれていてもよい。
The
判定部55は、データ取得部54で取得されたデータ、すなわち、車両2が各交差点を通過(例えば、右折又は左折)する間に検出された、運転者3の顔検出状態と顔非検出状態との検出データ(例えば、顔検出フラグFのデータ)を読み込み、これら検出データが示す各交差点を通過する間における顔検出状態と顔非検出状態との時間的関係に基づいて、顔非検出状態が運転者3の安全確認動作によるものであるか否かを判定する処理を実行する。
The
例えば、判定部55は、データ取得部54で取得されたデータが、車両2が交差点を通過する間に顔非検出状態を示す検出データである場合、顔非検出状態の前後少なくともいずれかの顔検出状態における運転者3の顔の向きの時間的変化(例えば、角度データの経時変化)を考慮して、顔非検出状態が運転者3の安全確認動作によるものであるか否かを判定してもよい。
For example, when the data acquired by the
顔非検出状態の前後少なくともいずれかの顔検出状態における運転者3の顔の向きの時間的変化には、例えば、車両2が交差点で曲がる時に、運転者3の曲がる方向への顔の向きを示す角度データが、経時的に大きくなった後に顔非検出状態になる変化、又は顔非検出状態となった後に検出された角度データが経時的に小さくなる変化のいずれかが含まれる。
For the temporal change of the face orientation of the
または、判定部55は、データ取得部54で取得されたデータが、車両2が交差点を通過する間に、顔検出状態から顔非検出状態になって所定の第1の時間内に再び顔検出状態に戻ったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。前記第1の時間は、安全確認に必要かつ適切な時間(例えば、1秒前後)に設定される。
Alternatively, the
一方、判定部55は、データ取得部54で取得されたデータが、車両2が交差点を通過するときに、顔検出状態から顔非検出状態になって所定の第2の時間内に再び顔検出状態に戻らなかったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものではないと判定してもよい。前記第2の時間は、前記第1の時間より長く、運転者3が正常に運転できない状態であると判定する時間に設定される。
On the other hand, the
評価部56は、判定部55で判定された結果を取得して、判定結果を考慮して交差点における運転者3の安全確認動作を評価する処理を実行する。
例えば、判定部55により、交差点を通過するときに検出された顔非検出状態が運転者3の安全確認動作によるものであると判定された場合、評価部56は、顔非検出状態が安全確認動作によるものである、すなわち、交差点で安全確認が行われたものとして運転者3の運転を評価する。
The
For example, when the
また、判定部55により、交差点を通過するときに検出された顔非検出状態が運転者3の安全確認動作によるものでないと判定された場合、評価部56は、顔非検出状態が安全確認動作によるものではない、すなわち、交差点で安全確認が行われていないものとして運転者3の運転を評価する。
Further, when the
次に、中央処理装置51のデータ取得部54、判定部55、評価部56、及び検出部57で実行される処理の一例について説明する。
検出部57は、車両2の交差点への進入時刻と曲がる方向を検出する処理を行う。例えば、検出部57は、データ取得部54で取得された角速度データ(車載機10から交差点を通過した後に送信されてきた角速度データ)の積分値を演算し、演算された積分値が所定の積分比率に到達した時刻を交差点への進入時刻として推定する。また、角速度データの正負により、車両2が交差点を曲がる方向を推定する。例えば、正の値の場合は右折、負の値の場合は左折と推定する。
Next, an example of the processing executed by the
The
また、検出部57は、データ取得部54で取得した顔画像情報に基づいて、進入時刻の前後所定時間における運転者の顔の向きの振り角度及び振り時間を検出する。また、検出部57は、運転者3の顔画像情報に含まれている運転者の顔の向きを示す角度データ(例えば、ヨー方向の角度データ)に基づいて、運転者3の顔の向きの時間的変化(例えば、角度データの経時変化)を検出してもよい。
Further, the
次に評価部56は、進入時刻より前の所定時間(進入前)における振り角度及び振り時間に基づいて、交差点への進入前の安全確認動作を評価する処理を行う。
Next, the
例えば、右方向の安全確認については、(1)右方向の確認タイミングが適切であるか否か、(2)右方向への振り角度が所定角度以上であるか否か、(3)前記所定角度以上の状態が所定時間以上継続しているか否かを判定する。上記(1)右方向の確認タイミングが適切であるか否かは、例えば、進入時刻の所定時間前までに、右方向への振り角度が所定角度以上になったか否かにより判定することができる。 For example, regarding safety confirmation in the right direction, (1) whether or not the confirmation timing in the right direction is appropriate, (2) whether or not the swing angle in the right direction is equal to or greater than a predetermined angle, and (3) the predetermined value. It is determined whether or not the state of the angle or more continues for a predetermined time or more. (1) Whether or not the confirmation timing in the right direction is appropriate can be determined by, for example, whether or not the swing angle in the right direction is equal to or greater than the predetermined angle by a predetermined time before the approach time. ..
上記(2)、(3)の状態を判定する場合において、右方向への振り角度が検出できない、すなわち顔非検出状態を示すデータを取得している期間があった場合、判定部55が、顔検出状態と顔非検出状態との時間的関係に基づいて、顔非検出状態が運転者3の右方向の安全確認動作によるものであるか否かを判定する処理を行う。
In the case of determining the states (2) and (3) above, if the swing angle to the right cannot be detected, that is, there is a period during which data indicating the face non-detection state is acquired, the
例えば、データ取得部54で取得されたデータが、顔検出状態から顔非検出状態になって前記第1の時間内に再び顔検出状態に戻ったことを示すものである場合、顔非検出状態が運転者3の右方向の安全確認動作によるものであると判定される。
For example, when the data acquired by the
または、検出部57において、顔非検出状態の前に運転者3の顔の向きに時間的変化、例えば、右方向への振り角度が大きくなる経時変化が検出された場合、或いは顔非検出状態の後に運転者3の顔の向きに時間的変化、例えば、右方向への振り角度が小さくなる経時変化が検出された場合、判定部55は、顔非検出状態が運転者3の右方向の安全確認動作によるものであると判定してもよい。
Alternatively, when the
また一方で、データ取得部54で取得されたデータが、顔検出状態から顔非検出状態になって前記第2の時間内に再び顔検出状態に戻らなかったことを示すものである場合、顔非検出状態が運転者3の右方向の安全確認動作によるものではないと判定される。
On the other hand, when the data acquired by the
同様に、左方向の安全確認については、(4)左方向の確認タイミングが適切であるか否か、(5)左方向への振り角度が所定角度以上であるか否か、(6)前記所定角度以上の状態が所定時間以上継続しているか否かを判定する。上記(4)左方向の確認タイミングが適切であるか否かは、例えば、進入時刻の所定時間前までに、左方向への振り角度が所定角度以上になったか否かにより判定することができる。 Similarly, regarding safety confirmation in the left direction, (4) whether or not the confirmation timing in the left direction is appropriate, (5) whether or not the swing angle in the left direction is equal to or greater than a predetermined angle, and (6) the above. It is determined whether or not the state of the predetermined angle or more continues for the predetermined time or more. (4) Whether or not the confirmation timing in the left direction is appropriate can be determined by, for example, whether or not the swing angle in the left direction is equal to or greater than the predetermined angle by a predetermined time before the approach time. ..
上記(5)、(6)の状態を判定する場合において、左方向への振り角度が検出できない期間があった場合、すなわち顔非検出状態を示すデータを取得している期間があった場合、判定部55が、顔検出状態と顔非検出状態との時間的関係に基づいて、顔非検出状態が運転者3の左方向の安全確認動作によるものであるか否かを判定する処理を行う。
When determining the states (5) and (6) above, if there is a period during which the swing angle to the left cannot be detected, that is, if there is a period during which data indicating the face non-detection state is acquired. The
また、評価部56は、進入時刻より後の所定時間(すなわち進入中)における、振り角度及び振り時間に基づいて、交差点での進路変更方向、例えば、右折先又は左折先の安全確認動作を評価する処理を行う。
例えば、進路変更方向の安全確認については、(7)進路変更方向の確認タイミングが適切であるか否か、(8)右折又は左折する進路変更方向への振り角度が所定角度以上であるか否か、(9)前記所定角度以上の状態が所定時間以上継続しているか否かを判定する。上記(7)進路変更方向の確認タイミングが適切であるか否かは、例えば、進入時刻より後の所定時間までに、進路変更方向への振り角度が所定角度以上になったか否かにより判定することができる。
Further, the
For example, regarding the safety confirmation of the course change direction, (7) whether or not the confirmation timing of the course change direction is appropriate, and (8) whether or not the swing angle in the course change direction of turning right or left is equal to or more than a predetermined angle. Or (9) it is determined whether or not the state of the predetermined angle or more continues for a predetermined time or more. Whether or not the confirmation timing of the above (7) course change direction is appropriate is determined by, for example, whether or not the swing angle in the course change direction is equal to or greater than the predetermined angle by a predetermined time after the approach time. be able to.
上記(8)、(9)の状態を判定する場合において、進路変更方向への振り角度が検出できない期間があった場合、すなわち顔非検出状態を示すデータを取得している期間があった場合、判定部55が、顔検出状態と顔非検出状態との時間的関係に基づいて、顔非検出状態が運転者3の右折又は左折する進路変更方向への安全確認動作によるものであるか否かを判定する処理を行う。
In the case of determining the states (8) and (9) above, there is a period in which the swing angle in the course change direction cannot be detected, that is, there is a period in which data indicating the face non-detection state is acquired. Based on the temporal relationship between the face detection state and the face non-detection state, the
さらに、評価部56は、進入時刻の前後所定時間における車両2の走行速度に基づいて、運転者の減速意識を評価する処理を行ってもよい。例えば、(10)進入時刻の前後所定時間における車両2の走行速度の最高値が、所定の速度(たとえば、交差点を安全に曲がって通過できる上限速度)以下であるかを判定することにより、減速意識の有無を評価してもよい。
Further, the
評価部56は、所定の評価条件に設定された各確認行動について、上記項目(1)~(10)の判定方法に基づいて評価を行い、交差点毎の評価点を算出する処理を行う。例えば、所定の評価条件に設定された各確認行動について、確認タイミング、確認角度、及び確認時間の評価結果を合計し、必要な統計処理(平均化、又は正規化処理など)を施して、交差点毎の点数又はランク付けによるスコアを算出する。
そして、評価部56は、算出した交差点毎の評価点を記憶ユニット60の評価データ記憶部62に記憶する処理を行う。
The
Then, the
また、サーバ装置40は、クラウドサービスを提供できるように構成されていてもよい。例えば、サーバ装置40は、Webサーバ、アプリケーションサーバ、及びデータベースサーバを含むサーバシステムで構成されてもよい。Webサーバは、事業者端末80のブラウザからのアクセス要求などの処理を行う。アプリケーションサーバは、例えば、Webサーバからの要求に応じ、データベースサーバにアクセスして、処理に必要なデータの検索やデータの抽出などの処理を行う。データベースサーバは、例えば、車載機10から取得した各種データなどを管理し、アプリケーションサーバからの要求に応じて、データの検索、抽出、保存などの処理を行う。
Further, the
例えば、サーバ装置40は、事業者端末80のブラウザなどから要求された各種リクエスト、例えば、Webサイトへのログイン、運転評価報告書の送信リクエストなどを処理する。また、サーバ装置40は、ブラウザなどを通じて処理結果、例えば、作成した運転評価報告書のデータを事業者端末80に送信し、事業者端末80の表示画面に運転評価報告書を表示させる処理を実行する。
For example, the
事業者は、事業者端末80の表示画面に表示された各運転者3の運転評価報告書を確認し、各運転者3に対して安全意識の改善を図る指導などを行う。このような指導を行うことにより、運転者3の安全意識を高めて、事故リスクの低減を図ることが可能となる。
The business operator confirms the driving evaluation report of each
[動作例]
図5は、実施の形態に係る車載機10におけるドライバモニタリング部20が行う処理動作を示すフローチャートである。本処理動作は、例えば、ドライバカメラ21で画像が撮像されるタイミング(例えば、毎フレーム、又は所定間隔のフレーム毎)で実行される。
[Operation example]
FIG. 5 is a flowchart showing a processing operation performed by the
まず、画像解析部22は、ドライバカメラ21で撮像された画像を取得する(ステップS1)。
First, the
次に画像解析部22は、取得した画像から運転者の顔、又は顔の領域を検出する処理を行う(ステップS2)。画像から顔を検出する手法は特に限定されないが、高速で高精度に顔を検出する手法を採用することが好ましい。
Next, the
次に画像解析部22は、ステップS1で取得した画像から運転者の顔が検出されたか否かを判断する(ステップS3)。
Next, the
画像解析部22は、ステップS3において、運転者の顔が検出されたと判断すれば、次に、顔検出フラグFに1を設定する(ステップS4)。なお、顔検出フラグFに1が設定されている状態は、顔検出状態であることを示している。
If the
次に画像解析部22は、ステップS2で検出した顔の領域から、目、鼻、口、眉などの顔器官の位置や形状を検出する処理を行う(ステップS5)。画像中の顔の領域から顔器官を検出する手法は特に限定されないが、高速で高精度に顔器官を検出できる手法を採用することが好ましい。例えば、画像解析部22が、3次元顔形状モデルを作成し、これを2次元画像上の顔の領域にフィッティングさせ、顔の各器官の位置と形状を検出する手法が採用され得る。この手法によれば、ドライバカメラ21の設置位置や画像中の顔の向きなどに関わらず、正確に顔の各器官の位置と形状を検出することが可能となる。画像中の人の顔に3次元顔形状モデルをフィッティングさせる技術として、例えば、特開2007-249280号公報に記載された技術を適用することができるが、これに限定されるものではない。
Next, the
次に画像解析部22は、ステップS5で求めた顔の各器官の位置や形状のデータに基づいて、運転者の顔の向きを検出する(ステップS6)。例えば、上記3次元顔形状モデルのパラメータに含まれている、上下回転(X軸回り)のピッチ角、左右回転(Y軸回り)のヨー角、及び全体回転(Z軸回り)のロール角を運転者の顔の向きに関する情報として検出してもよい。
Next, the
次に画像解析部22は、ステップS6で求めた運転者の顔の向き、及びステップS5で求めた運転者の顔器官の位置や形状、特に目の特徴点(目尻、目頭、及び瞳孔)の位置や形状に基づいて、視線の方向を検出する(ステップS7)。
視線の方向は、例えば、様々な顔の向きと視線方向の目の画像の特徴量(目尻、目頭、瞳孔の相対位置、又は強膜(いわゆる白目)部分と虹彩(いわゆる黒目)部分の相対位置、濃淡、テクスチャーなど)とを予め学習器を用いて学習し、これら学習した特徴量データとの類似度を評価することで検出してもよい。または、前記3次元顔形状モデルのフィッティング結果などを用いて、顔の大きさや向きと目の位置などから眼球の大きさと中心位置とを推定するとともに、瞳孔の位置を検出し、眼球の中心と瞳孔の中心とを結ぶベクトルを視線方向として検出してもよい。
Next, the
The direction of the line of sight is, for example, the feature amount of the image of the eye in various face directions and the direction of the line of sight (relative position of the outer corner of the eye, the inner corner of the eye, the pupil, or the relative position of the sclera (so-called white eye) part and the iris (so-called black eye) part. , Shading, texture, etc.) may be detected by learning in advance using a learning device and evaluating the degree of similarity with the learned feature amount data. Alternatively, using the fitting result of the three-dimensional face shape model, the size and center position of the eyeball are estimated from the size and orientation of the face and the position of the eyes, and the position of the pupil is detected to determine the center of the eyeball. The vector connecting the center of the pupil may be detected as the line-of-sight direction.
次に画像解析部22は、ステップS5で求めた運転者の顔器官の位置や形状、特に目の特徴点(目尻、目頭、瞳孔、及びまぶた)の位置や形状に基づいて、目開度を検出する(ステップS8)。
Next, the
次に画像解析部22は、ステップS4で設定された顔検出フラグF=1のデータと、ステップS6で検出した運転者の顔の向きと、ステップS7で検出した運転者の視線の方向と、ステップS8で検出した運転者の目開度と、撮像時刻とを対応付けて、顔画像情報としてプラットフォーム部11に送信し(ステップS9)、その後、画像解析部22は、ステップS1に戻り、処理を繰り返す。なお、ステップS9において送信する顔画像情報に、ステップS1で取得した運転者の画像を含めてもよい。また、ステップS5~S8の処理を省略して、ステップS9において、ステップS4で設定された顔検出フラグF=1のデータをプラットフォーム部11に送信してもよい。
Next, the
また一方、ステップS3において、画像解析部22が、運転者の顔が検出されなかったと判断すれば、次に、顔検出フラグFに0を設定する(ステップS10)。なお、顔検出フラグFに0が設定されている状態は、顔非検出状態であることを示している。
On the other hand, if the
次に画像解析部22は、顔非検出状態を示すデータ、すなわち、顔検出フラグF=0のデータをプラットフォーム部11に送信し(ステップS11)、その後、画像解析部22は、ステップS1に戻り、処理を繰り返す。
Next, the
図6は、実施の形態に係る車載機10における制御部19が行う処理動作を示すフローチャートである。本処理動作は、例えば、数十ms~数秒の所定周期で実行される。
FIG. 6 is a flowchart showing a processing operation performed by the
制御部19は、加速度センサ12で測定された加速度データを取得してRAM19bに記憶する(ステップS21)。
The
また、制御部19は、角速度センサ13で検出された角速度データを取得してRAM19bに記憶する(ステップS22)。
Further, the
また、制御部19は、ドライバモニタリング部20から送信されてきた顔検出情報を取得してRAM19bに記憶する(ステップS23)。顔検出情報には、各画像に対して設定された顔検出フラグFのデータ、すなわち、顔検出フラグF=1又はF=0の設定データが含まれている。なお、ステップS23において、顔検出フラグFが1である顔検出状態の場合には、ドライバモニタリング部20から顔画像情報も取得するようにしてもよい。
Further, the
さらに、制御部19は、ドライブレコーダ部30から送出されてきたデータ(車外画像と車内画像のデータ)を取得してRAM19bに記憶する(ステップS24)。
Further, the
また、制御部19は、GPS受信部14で検出された位置データを取得する(ステップS25)。なお、ステップS21~S25の処理の順序は問わない。
Further, the
次に制御部19は、ステップS25で取得した位置データの単位時間変化に基づいて走行速度を算出し、位置データと走行速度とをRAM19bに記憶する(ステップS26)。
Next, the
次に制御部19は、車両2が交差点に進入したか否かを判断する(ステップS27)。例えば、制御部19は、角速度の積分値が車両の交差点への進入を示す閾値以上であり、かつ走行速度が交差点への進入を示す所定の上限速度以下であるか否かを判断する。
Next, the
ステップS27において、制御部19は、車両2が交差点に進入したと判断すれば、次に制御部19は、車両2が交差点を通過したか否かを判断する(ステップS28)。例えば、角速度の積分値が、車両が交差点を通過したことを示す閾値以下になり、かつ走行速度が、交差点の通過を示す所定の下限速度以上になったか否かを判断する。
In step S27, if the
制御部19が、車両2が交差点を通過したと判断すれば、制御部19は、車両2が交差点に進入した前後所定時間(数十秒程度)に取得したデータをRAM19bから読み出し、通信部15を制御して、交差点通過時のデータとしてサーバ装置40へ送信する処理を実行する(ステップS29)。その後、制御部19は、ステップS21に戻り、処理を繰り返す。車載機10からサーバ装置40へ送信される、交差点通過時のデータの構造の一例は図3に示している。
If the
なお、制御部19は、ステップS29の処理に代えて、RAM19bから読み出したデータを記憶部17(例えば、着脱式記憶媒体)に記憶してもよい。そして、一日の走行終了後、運転者3が車載機10から記憶部17を取り外し、記憶部17に記憶されたデータを事業者端末80に読み込ませて、事業者端末80がサーバ装置40に送信するようにしてもよい。
The
図7は、実施の形態に係るサーバ装置40における中央処理装置51が行う処理動作を示すフローチャートである。
中央処理装置51は、車載機10から送信されてきたデータを受信したか否かを判断する(ステップS31)。
FIG. 7 is a flowchart showing a processing operation performed by the
The
中央処理装置51は、車載機10からデータを受信したと判断すれば、次に、車載機10から受信したデータを、車載機10の識別情報と対応付けてデータ蓄積部61に記憶する(ステップS32)。
If the
その後、中央処理装置51は、運転者の安全運転行動の評価を実行するタイミングか否かを判断する(ステップS33)。前記評価を実行するタイミングか否かは、例えば、車載機10から車両2の運転終了を示す信号を受信したか否かで判断してもよい。
After that, the
中央処理装置51は、前記評価を実行するタイミングではないと判断すればステップS31に戻る。
If the
一方、中央処理装置51は、前記評価を実行するタイミングになったと判断すれば、車載機10が搭載された車両2の運転者3の交差点における安全確認動作の評価処理を行う(ステップS34)。ステップS34で実行される評価処理については、図8A、図8Bのフローチャートを用いて説明する。
On the other hand, if the
その後、中央処理装置51は、評価処理の結果を、車載機10又は運転者3の情報と対応付けて評価データ記憶部62に記憶する処理を行い(ステップS35)、処理を終える。
After that, the
図8A、図8Bは、実施の形態に係るサーバ装置40における中央処理装置51が行う安全確認評価の処理動作を示すフローチャートの一例である。なお、本フローチャートは、車載機10が搭載された車両2の1日の運転が終了するまでに通過した各交差点における運転者3の安全確認動作を評価する処理動作を示している。
8A and 8B are examples of flowcharts showing the processing operation of the safety confirmation evaluation performed by the
中央処理装置51は、データ蓄積部61から車載機10の交差点通過時のデータを取得する(ステップS41)。
The
次に中央処理装置51は、車両2が交差点に進入した時刻を推定する(ステップS42)。例えば、中央処理装置51は、交差点通過時のデータに含まれる角速度データの積分値を演算し、演算された積分値が所定の積分比率に到達した時刻を交差点への進入時刻として推定する。
Next, the
次に中央処理装置51は、車両2が交差点で曲がる方向を推定する(ステップS43)。例えば、中央処理装置51は、角速度データの正負により、車両2が交差点で曲がる方向を推定する。例えば、正の値の場合は右折、負の値の場合は左折と推定する。
Next, the
次に中央処理装置51は、ステップS41で取得したデータから、交差点への進入時刻の前後所定時間における運転者3の顔検出情報を読み込む(ステップS44)。中央処理装置51は、交差点通過時のデータに含まれている顔検出情報、すなわち、顔検出フラグFのデータを読み込む。
Next, the
次に中央処理装置51は、交差点への進入時刻より前の所定時間内に、顔非検出状態(顔検出フラグF=0の期間)が検出されたか否かを判断する(ステップS45)。
Next, the
ステップS45において、中央処理装置51が、交差点への進入時刻より前の所定時間内に、顔非検出状態が検出されたと判断すれば、中央処理装置51は、交差点への進入時刻より前に検出された顔非検出状態が、運転者3の安全確認動作によるものであるか否かを判定する(ステップS46)。
If the
中央処理装置51は、例えば、交差点への進入時刻より前の所定時間内の顔検出情報が、顔検出状態から顔非検出状態になって前記第1の時間内に再び顔検出状態に戻ったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定する。前記第1の時間は、安全確認に必要かつ適切な時間に設定される。
For example, the
また、中央処理装置51は、顔非検出状態の前に運転者3の顔の向きに時間的変化、例えば、曲がる方向への顔の振り角度が大きくなる経時変化を検出した場合、又は顔非検出状態の後に運転者3の顔の向きに時間的変化、例えば、曲がる方向への顔の振り角度が小さくなる経時変化を検出した場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。
Further, the
ステップS46において、中央処理装置51は、顔非検出状態が運転者3の安全確認動作によるものであると判定すれば、中央処理装置51は、顔非検出状態の期間を安全確認動作が行われた期間の一部として評価する(ステップS47)。
In step S46, if the
そして、次のステップS49において、中央処理装置51は、安全確認動作が行われた期間の一部として評価された顔非検出状態と、該顔非検出状態の前後の顔検出状態とで検出されたデータに基づいて、交差点進入前の安全確認動作(右又は左方向の確認タイミング、顔の振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行い、ステップS50の処理に進む。
Then, in the next step S49, the
一方、ステップS46において、中央処理装置51は、顔非検出状態が運転者3の安全確認動作によるものではないと判定すれば、中央処理装置51は、顔非検出状態の期間を安全確認動作が行われていない期間として評価する(ステップS48)。なお、安全確認動作が行われていない期間を、運転者3が正常に運転できていない期間として評価してもよい。
On the other hand, if the
そして次のステップS49において、中央処理装置51は、安全確認動作が行われていない期間として評価された顔非検出状態と、該顔非検出状態の前後の顔検出状態とで検出されたデータに基づいて、交差点進入前の安全確認動作(右又は左方向の確認タイミング、顔の振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行い、ステップS50の処理に進む。
Then, in the next step S49, the
また、ステップS45において、中央処理装置51が、交差点への進入時刻より前の所定時間内に、顔非検出状態が検出されていないと判断すれば、中央処理装置51は、ステップS49の処理に進み、顔検出状態で検出されたデータに基づいて、交差点進入前の安全確認動作(右又は左方向の確認タイミング、振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行い、ステップS50の処理に進む。
Further, in step S45, if the
ステップS50において、中央処理装置51は、交差点への進入時刻より後の所定時間内に、顔非検出状態(顔検出フラグF=0の期間)が検出されたか否かを判断する。ステップS50において、中央処理装置51が、交差点への進入時刻より後の所定時間内に、顔非検出状態が検出されたと判断すれば、中央処理装置51は、交差点への進入時刻より後に検出された顔非検出状態が、運転者3の安全確認動作によるものであるか否かを判定する(ステップS51)。
In step S50, the
中央処理装置51は、例えば、交差点への進入時刻より後の所定時間内の顔検出情報が、顔検出状態から顔非検出状態になって前記第1の時間内に再び顔検出状態に戻ったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定する。前記第1の時間は、安全確認に必要かつ適切な時間に設定される。
The
また、中央処理装置51は、顔非検出状態の前に運転者3の顔の向きに時間的変化、例えば、曲がる方向への顔の振り角度が大きくなる経時変化を検出した場合、又は顔非検出状態の後に運転者3の顔の向きに時間的変化、例えば、曲がる方向への顔の振り角度が小さくなる経時変化を検出した場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。
Further, the
ステップS51において、中央処理装置51は、顔非検出状態が運転者3の安全確認動作によるものであると判定すれば、中央処理装置51は、顔非検出状態の期間を安全確認動作が行われた期間の一部として評価する(ステップS52)。
In step S51, if the
そして、次のステップS54において、中央処理装置51は、安全確認動作が行われた期間の一部として評価された顔非検出状態と、該顔非検出状態の前後の顔検出状態とで検出されたデータに基づいて、交差点進入後の安全確認動作(右又は左方向の確認タイミング、顔の振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行い、ステップS55の処理に進む。
Then, in the next step S54, the
一方、ステップS51において、中央処理装置51は、顔非検出状態が運転者3の安全確認動作によるものではないと判定すれば、中央処理装置51は、顔非検出状態の期間を安全確認動作が行われていない期間として評価する(ステップS53)。なお、安全確認動作が行われていない期間を、運転者3が正常に運転できていない期間として評価してもよい。
On the other hand, if the
そして次のステップS54において、中央処理装置51は、安全確認動作が行われていない期間として評価された顔非検出状態と、該顔非検出状態の前後の顔検出状態とで検出されたデータに基づいて、交差点進入後の安全確認動作(右又は左方向の確認タイミング、顔の振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行い、ステップS55の処理に進む。
Then, in the next step S54, the
また、ステップS50において、中央処理装置51が、交差点への進入時刻より後の所定時間内に、顔非検出状態が検出されていないと判断すれば、中央処理装置51は、ステップS54の処理に進み、顔検出状態で検出されたデータに基づいて、交差点進入後の安全確認動作(右又は左方向の確認タイミング、振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行い、ステップS55の処理に進む。
Further, if the
ステップS55において、中央処理装置51は、交差点への進入時刻の前後所定時間における車両2の走行速度が適切であるかを評価する。例えば、車両2の走行速度が、交差点内で安全走行が可能な所定の速度以下であるかどうかを評価する。
In step S55, the
次に中央処理装置51は、ステップS49、S54、S55で評価された点数又はランク付けされたスコアを集計し、交差点における運転評価点を算出し(ステップS56)、算出した運転評価点を、車載機10の識別情報又は運転者3の情報と対応付けて記憶ユニット60の評価データ記憶部62に記憶する(ステップS57)。
Next, the
次に中央処理装置51は、全ての通過交差点における評価を完了したか否かを判断し(ステップS58)、評価を完了したと判断すればその後処理を終える一方、評価を完了していないと判断すればステップS41に戻り、処理を繰り返す。
Next, the
[作用・効果]
上記実施の形態に係るサーバ装置40によれば、車両2が交差点を通過する間に、運転者3の顔非検出状態が検出された場合であっても、顔検出状態と顔非検出状態との時間的関係を考慮することにより、該顔非検出状態が運転者3の安全確認動作によるものであるか否かを適切かつ効率よく判定することができるとともに、交差点における運転者3の安全確認動作の評価精度を高めることができる。特に、安全確認のための動作が大きくなりやすい、トラックやバスなどの車長が長い車両の運転者の運転評価の精度を高めることができる。
[Action / Effect]
According to the
運転者3の顔検出状態と顔非検出状態との時間的関係として、運転者3の顔検出状態から顔非検出状態になって前記第1の時間内に再び顔検出状態に戻ったことを検出することにより、車両2が交差点を通過する間における顔非検出状態が運転者3の安全確認動作によるものであるか否かをより正確に判定することができる。
As a temporal relationship between the face detection state of the
また、顔非検出状態の前後少なくともいずれかにおける運転者3の顔の向きの時間的変化を考慮することにより、前記顔非検出状態が運転者3の安全確認動作によるものであるか否かをより正確に判定することができる。
Further, by considering the temporal change of the face orientation of the
また、運転者3の顔検出状態と顔非検出状態との時間的関係として、運転者3の顔検出状態から顔非検出状態になって前記第2の時間内に再び顔検出状態に戻らなかったことを検出することにより、車両2が交差点を通過する間における顔非検出状態が運転者3の安全確認動作によるものではない場合も適切に判定することができる。
Further, as a temporal relationship between the face detection state of the
[変形例]
以上、本発明の実施の形態を詳細に説明したが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく、種々の改良や変更を行うことができることは言うまでもない。
例えば、上記実施の形態では、サーバ装置40を本発明に係る「運転評価装置」の一例として説明したが、別の実施の形態では、本発明に係る「運転評価装置」の構成を、車載機10に装備してもよい。
[Modification example]
Although the embodiments of the present invention have been described in detail above, the above description is merely an example of the present invention in all respects. Needless to say, various improvements and changes can be made without departing from the scope of the present invention.
For example, in the above embodiment, the
より具体的には、図4に示したサーバコンピュータ50が備えているデータ取得部54、判定部55、評価部56、及び検出部57を、車載機10の制御部19に装備してもよい。この場合、データ取得部54は、車載機10のRAM19b又は記憶部17から運転者3の顔検出情報を含む顔画像情報を取得すればよい。係る構成によれば、車載機10で上記した判定、及び評価の処理を実行することができる。また、車載機10の制御部19に、データ取得部54、判定部55、及び検出部57を装備させて、評価部56をサーバコンピュータ50に装備させてもよい。
More specifically, the
[付記]
本発明の実施の形態は、以下の付記の様にも記載され得るが、これらに限定されない。
(付記1)
車両(2)の運転者の運転を評価する運転評価装置(40)であって、
前記車両(2)が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得部(54)と、
該データ取得部(54)で取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定部(55)と、
該判定部(55)による判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価部(56)とを備えていることを特徴とする運転評価装置。
[Additional Notes]
Embodiments of the present invention may also be described as, but are not limited to, the following appendices.
(Appendix 1)
A driving evaluation device (40) that evaluates the driving of the driver of the vehicle (2).
Acquire data on a face detection state in which the driver's face is detected and a face non-detection state in which the driver's face is not detected, which are detected while the vehicle (2) passes through an intersection. Data acquisition unit (54) and
The face non-detection state is based on the driver's safety confirmation operation based on the temporal relationship between the face detection state and the face non-detection state indicated by the data acquired by the data acquisition unit (54). The determination unit (55) for determining whether or not the data is
An operation evaluation device including an evaluation unit (56) that evaluates the safety confirmation operation of the driver at the intersection in consideration of the determination result by the determination unit (55).
(付記2)
車両(2)の運転者の運転を評価する運転評価方法であって、
前記車両(2)が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得ステップ(S41)と、
該データ取得ステップ(S41)により取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定ステップ(S46、S51)と、
該判定ステップ(S46、S51)による判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価ステップ(S49、S54)とを含むことを特徴とする運転評価方法。
(Appendix 2)
It is a driving evaluation method for evaluating the driving of the driver of the vehicle (2).
Acquire data on a face detection state in which the driver's face is detected and a face non-detection state in which the driver's face is not detected, which are detected while the vehicle (2) passes through an intersection. Data acquisition step (S41) and
The face non-detection state is based on the driver's safety confirmation operation based on the temporal relationship between the face detection state and the face non-detection state indicated by the data acquired in the data acquisition step (S41). Judgment step (S46, S51) for determining whether or not
An operation evaluation method comprising an evaluation step (S49, S54) for evaluating the safety confirmation operation of the driver at the intersection in consideration of the determination result by the determination step (S46, S51).
(付記3)
車両(2)の運転者の運転を評価する処理を少なくとも1つのコンピュータ(50)に実行させる運転評価プログラムであって、
前記少なくとも1つのコンピュータ(50)に、
前記車両(2)が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得ステップ(S41)と、
該データ取得ステップ(S41)により取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定ステップ(S46、S51)と、
該判定ステップ(S46、S51)による判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価ステップ(S49、S54)とを実行させることを特徴とする運転評価プログラム。
(Appendix 3)
It is a driving evaluation program that causes at least one computer (50) to execute a process of evaluating the driving of the driver of the vehicle (2).
To the at least one computer (50)
Acquire data on a face detection state in which the driver's face is detected and a face non-detection state in which the driver's face is not detected, which are detected while the vehicle (2) passes through an intersection. Data acquisition step (S41) and
The face non-detection state is based on the driver's safety confirmation operation based on the temporal relationship between the face detection state and the face non-detection state indicated by the data acquired in the data acquisition step (S41). Judgment step (S46, S51) for determining whether or not
An operation evaluation program characterized by executing an evaluation step (S49, S54) for evaluating the safety confirmation operation of the driver at the intersection in consideration of the determination result by the determination step (S46, S51).
1 運転評価システム
2 車両
3 運転者
4 通信ネットワーク
10 車載機
11 プラットフォーム部
12 加速度センサ
13 角速度センサ
14 GPS受信部
14a アンテナ
15 通信部
16 報知部
17 記憶部
18 外部インターフェース(外部I/F)
19 制御部
19a CPU
19b RAM
19c ROM
20 ドライバモニタリング部
21 ドライバカメラ
22 画像解析部
23 インターフェース(I/F)
30 ドライブレコーダ部
31 車外カメラ
32 車内カメラ
40 サーバ装置(運転評価装置)
41 通信ユニット
50 サーバコンピュータ
51 中央処理装置
52 メインメモリ
53 制御プログラム
54 データ取得部
55 判定部
56 評価部
57 検出部
60 記憶ユニット
61 データ蓄積部
62 評価データ記憶部
63 運転者情報記憶部
80 事業者端末
1 Driving
19 Control unit 19a CPU
19b RAM
19c ROM
20
30
41
Claims (7)
前記車両が交差点を通過する間に所定間隔で検出された、前記運転者の顔が検出されている顔検出状態を示すフラグデータと前記運転者の顔が検出されていない顔非検出状態を示すフラグデータとを含む運転者の状態に関するデータを取得するデータ取得部と、
該データ取得部で取得された前記顔検出状態を示すフラグデータと前記顔非検出状態を示すフラグデータとが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定部と、
該判定部による判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価部とを備えていることを特徴とする運転評価装置。 It is a driving evaluation device that evaluates the driving of the driver of the vehicle.
Flag data indicating a face detection state in which the driver's face is detected and a face non-detection state in which the driver's face is not detected, which are detected at predetermined intervals while the vehicle passes through the intersection, are shown. A data acquisition unit that acquires data related to the driver's condition, including flag data,
Based on the temporal relationship between the face detection state and the face non-detection state, which is indicated by the flag data indicating the face detection state and the flag data indicating the face non-detection state acquired by the data acquisition unit. A determination unit that determines whether or not the face non-detection state is due to the driver's safety confirmation operation, and
An operation evaluation device including an evaluation unit that evaluates the safety confirmation operation of the driver at the intersection in consideration of the determination result by the determination unit.
前記顔非検出状態を示すフラグデータが検出された期間の前後少なくともいずれかの前記顔検出状態を示すフラグデータが検出された期間における前記運転者の顔の向きの時間的変化を考慮して、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定するものであることを特徴とする請求項1記載の運転評価装置。 The determination unit
Considering the temporal change in the orientation of the driver's face during at least one of the periods when the flag data indicating the face detection state is detected before and after the period when the flag data indicating the face non-detection state is detected. The operation evaluation device according to claim 1, wherein it is determined whether or not the face non-detection state is due to the driver's safety confirmation operation.
前記データ取得部で取得された前記顔検出状態を示すフラグデータと前記顔非検出状態を示すフラグデータとが、前記顔検出状態から前記顔非検出状態になって所定時間内に再び前記顔検出状態に戻ったことを示すものである場合、前記顔非検出状態が前記運転者の安全確認動作によるものであると判定することを特徴とする請求項1又は請求項2記載の運転評価装置。 The determination unit
The flag data indicating the face detection state and the flag data indicating the face non-detection state acquired by the data acquisition unit change from the face detection state to the face non-detection state and detect the face again within a predetermined time. The operation evaluation device according to claim 1 or 2, wherein when it indicates that the state has returned, it is determined that the face non-detection state is due to the safety confirmation operation of the driver.
前記データ取得部で取得された前記顔検出状態を示すフラグデータと前記顔非検出状態を示すフラグデータとが、前記顔検出状態から前記顔非検出状態になって所定時間内に再び前記顔検出状態に戻らなかったことを示すものである場合、前記顔非検出状態が前記運転者の安全確認動作によるものではないと判定することを特徴とする請求項1又は請求項2記載の運転評価装置。 The determination unit
The flag data indicating the face detection state and the flag data indicating the face non-detection state acquired by the data acquisition unit change from the face detection state to the face non-detection state and detect the face again within a predetermined time. The operation evaluation device according to claim 1 or 2, wherein when it indicates that the state has not been returned, it is determined that the face non-detection state is not due to the driver's safety confirmation operation. ..
前記判定部により、前記顔非検出状態が前記運転者の安全確認動作によるものであると判定された場合、前記顔非検出状態において前記運転者の安全確認動作が行われたものとして評価することを特徴とする請求項1~3のいずれかの項に記載の運転評価装置。 The evaluation unit
When the determination unit determines that the face non-detection state is due to the driver's safety confirmation operation, it is evaluated as if the driver's safety confirmation operation was performed in the face non-detection state. The operation evaluation device according to any one of claims 1 to 3.
前記車両が交差点を通過する間に所定間隔で検出された、前記運転者の顔が検出されている顔検出状態を示すフラグデータと前記運転者の顔が検出されていない顔非検出状態を示すフラグデータとを含む運転者の状態に関するデータを取得するデータ取得ステップと、
該データ取得ステップにより取得された前記顔検出状態を示すフラグデータと前記顔非検出状態を示すフラグデータとが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定ステップと、
該判定ステップによる判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価ステップとを含むことを特徴とする運転評価方法。 It is a driving evaluation method that evaluates the driving of the driver of the vehicle.
Flag data indicating a face detection state in which the driver's face is detected and a face non-detection state in which the driver's face is not detected, which are detected at predetermined intervals while the vehicle passes through the intersection, are shown. A data acquisition step to acquire data about the driver's condition, including flag data, and
Based on the temporal relationship between the face detection state and the face non-detection state, which is indicated by the flag data indicating the face detection state and the flag data indicating the face non-detection state acquired by the data acquisition step. A determination step for determining whether or not the face non-detection state is due to the driver's safety confirmation operation, and
A driving evaluation method comprising an evaluation step for evaluating the safety confirmation operation of the driver at the intersection in consideration of the determination result by the determination step.
前記少なくとも1つのコンピュータに、
前記車両が交差点を通過する間に所定間隔で検出された、前記運転者の顔が検出されている顔検出状態を示すフラグデータと前記運転者の顔が検出されていない顔非検出状態を示すフラグデータとを含む運転者の状態に関するデータを取得するデータ取得ステップと、
該データ取得ステップにより取得された前記顔検出状態を示すフラグデータと前記顔非検出状態を示すフラグデータとが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定ステップと、
該判定ステップによる判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価ステップとを実行させることを特徴とする運転評価プログラム。 A driving evaluation program that causes at least one computer to execute a process for evaluating the driving of a vehicle driver.
To the at least one computer
Flag data indicating a face detection state in which the driver's face is detected and a face non-detection state in which the driver's face is not detected, which are detected at predetermined intervals while the vehicle passes through the intersection, are shown. A data acquisition step to acquire data about the driver's condition, including flag data, and
Based on the temporal relationship between the face detection state and the face non-detection state, which is indicated by the flag data indicating the face detection state and the flag data indicating the face non-detection state acquired by the data acquisition step. A determination step for determining whether or not the face non-detection state is due to the driver's safety confirmation operation, and
A driving evaluation program comprising executing an evaluation step for evaluating the safety confirmation operation of the driver at the intersection in consideration of the determination result by the determination step.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018044939A JP7060841B2 (en) | 2018-03-13 | 2018-03-13 | Operation evaluation device, operation evaluation method, and operation evaluation program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018044939A JP7060841B2 (en) | 2018-03-13 | 2018-03-13 | Operation evaluation device, operation evaluation method, and operation evaluation program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019159741A JP2019159741A (en) | 2019-09-19 |
| JP7060841B2 true JP7060841B2 (en) | 2022-04-27 |
Family
ID=67993992
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018044939A Active JP7060841B2 (en) | 2018-03-13 | 2018-03-13 | Operation evaluation device, operation evaluation method, and operation evaluation program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7060841B2 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7478020B2 (en) * | 2020-04-28 | 2024-05-02 | 矢崎エナジーシステム株式会社 | On-board device for transport vehicles, driving evaluation system and driving evaluation program |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014115859A (en) | 2012-12-11 | 2014-06-26 | Mitsubishi Motors Corp | Inattentive driving determination device |
| JP2016057839A (en) | 2014-09-09 | 2016-04-21 | 株式会社デンソーアイティーラボラトリ | Facial direction detection device and warning system for vehicle |
| JP2017033126A (en) | 2015-07-30 | 2017-02-09 | いすゞ自動車株式会社 | Safe driving promotion device and safe driving promotion method |
| JP2017102519A (en) | 2015-11-30 | 2017-06-08 | 株式会社デンソー | Driving assistance device |
-
2018
- 2018-03-13 JP JP2018044939A patent/JP7060841B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014115859A (en) | 2012-12-11 | 2014-06-26 | Mitsubishi Motors Corp | Inattentive driving determination device |
| JP2016057839A (en) | 2014-09-09 | 2016-04-21 | 株式会社デンソーアイティーラボラトリ | Facial direction detection device and warning system for vehicle |
| JP2017033126A (en) | 2015-07-30 | 2017-02-09 | いすゞ自動車株式会社 | Safe driving promotion device and safe driving promotion method |
| JP2017102519A (en) | 2015-11-30 | 2017-06-08 | 株式会社デンソー | Driving assistance device |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2019159741A (en) | 2019-09-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7114953B2 (en) | In-vehicle device, driving evaluation device, driving evaluation system provided with these, data transmission method, and data transmission program | |
| JP7135913B2 (en) | Driving evaluation screen display method, program, driving evaluation system, and driving evaluation screen | |
| US9041789B2 (en) | System and method for determining driver alertness | |
| JP6693489B2 (en) | Information processing device, driver monitoring system, information processing method, and information processing program | |
| JP7070827B2 (en) | Driving evaluation device, in-vehicle device, driving evaluation system equipped with these, driving evaluation method, and driving evaluation program | |
| US20220130155A1 (en) | Adaptive monitoring of a vehicle using a camera | |
| JP6967042B2 (en) | Driving evaluation device, driving evaluation system, driving evaluation method, program, and intersection attribute discrimination method | |
| TW201927610A (en) | Safety confirmation evaluating device, on-vehicle device, safety confirmation evaluation system having the two, safety confirmation evaluation method, and safety confirmation evaluation program | |
| JP7099036B2 (en) | Data processing equipment, monitoring system, awakening system, data processing method, and data processing program | |
| WO2019117005A1 (en) | Driving evaluation report, vehicle-mounted device, driving evaluation report creation device, driving evaluation report creation system, computer program for creation of driving evaluation report, and storage medium | |
| JP2019088522A (en) | INFORMATION PROCESSING APPARATUS, DRIVER MONITORING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM | |
| US20210370956A1 (en) | Apparatus and method for determining state | |
| US11903647B2 (en) | Gaze detector, method for controlling gaze detector, method for detecting corneal reflection image position, and storage medium | |
| JP7068606B2 (en) | Driving evaluation device, on-board unit, driving evaluation method, and computer program | |
| JP7298351B2 (en) | State determination device, in-vehicle device, driving evaluation system, state determination method, and program | |
| US20230174074A1 (en) | In-cabin safety sensor installed in vehicle and method of providing service platform thereof | |
| JP2019159926A (en) | Driver replacement promotion device, drive evaluation system having the same thereon, and computer program | |
| JP6950597B2 (en) | On-board unit, driving evaluation system, information processing method, and program | |
| JP7060841B2 (en) | Operation evaluation device, operation evaluation method, and operation evaluation program | |
| WO2019117004A1 (en) | Safety check evaluation device, on-board device, safety check evaluation system comprising these, safety check evaluation method, safety check evaluation program, and storage medium | |
| JP7130994B2 (en) | In-vehicle device, backward determination method, and backward determination program | |
| JP7075048B2 (en) | Safety confirmation evaluation device, in-vehicle device, safety confirmation evaluation system equipped with these, safety confirmation evaluation method, and safety confirmation evaluation program | |
| JP7235438B2 (en) | Driving evaluation device, driving evaluation method, and computer program | |
| KR20210119243A (en) | Blackbox System for Detecting Drowsy Driving and Careless Driving and Method thereof | |
| KR20220005290A (en) | In-Cabin Security Sensor and Platform Service Method therefor |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200311 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210219 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210309 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210423 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210921 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211102 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220316 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220329 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7060841 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |