[go: up one dir, main page]

JP7447697B2 - Drive recorder operation system - Google Patents

Drive recorder operation system Download PDF

Info

Publication number
JP7447697B2
JP7447697B2 JP2020108190A JP2020108190A JP7447697B2 JP 7447697 B2 JP7447697 B2 JP 7447697B2 JP 2020108190 A JP2020108190 A JP 2020108190A JP 2020108190 A JP2020108190 A JP 2020108190A JP 7447697 B2 JP7447697 B2 JP 7447697B2
Authority
JP
Japan
Prior art keywords
information
index information
event
server
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020108190A
Other languages
Japanese (ja)
Other versions
JP2022003750A (en
JP2022003750A5 (en
Inventor
記男 厚母
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020108190A priority Critical patent/JP7447697B2/en
Priority to PCT/JP2021/017824 priority patent/WO2021261097A1/en
Publication of JP2022003750A publication Critical patent/JP2022003750A/en
Publication of JP2022003750A5 publication Critical patent/JP2022003750A5/ja
Priority to US18/082,614 priority patent/US20230120235A1/en
Application granted granted Critical
Publication of JP7447697B2 publication Critical patent/JP7447697B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、ドライブレコーダー運用システムに関する。 The present invention relates to a drive recorder operation system.

車両に搭載されたドライブレコーダーは、車両の前方等の車両周辺を時間的に連続して撮影し、撮影した映像を記憶媒体に保存する。例えば、加速度センサー等のセンサーでセンシングしたデータを映像と共に運転状況を表すデータとして送信する機能を有するドライブレコーダーが知られている(例えば、特許文献1)。 A drive recorder installed in a vehicle continuously photographs the area around the vehicle, such as in front of the vehicle, and stores the photographed images in a storage medium. For example, a drive recorder is known that has a function of transmitting data sensed by a sensor such as an acceleration sensor together with an image as data representing driving conditions (for example, Patent Document 1).

特開2018-055352号公報Japanese Patent Application Publication No. 2018-055352

通信機能を有していないスタンドアロン型のドライブレコーダーでは、撮影した映像に加速度センサー等で検出した衝撃等のイベントを同期して、例えばSDカード等の外部記憶媒体に記憶するものがある。これにより、例えば事故等により車両が衝撃を受けた日時の動画データを特定して切り出すことができる。しかしながら、加速度センサー等のセンサーを搭載していない場合、撮影した映像の動画データと衝撃を受けた日時等のイベント情報とを連携させることができない。このため、衝撃を受けた日時の動画データを特定して切り出す手段が必要である。 Some stand-alone drive recorders that do not have a communication function synchronize captured images with events such as impacts detected by an acceleration sensor or the like and store the synchronized images in an external storage medium such as an SD card. Thereby, it is possible to specify and extract the video data of the date and time when the vehicle received an impact due to an accident or the like, for example. However, if a sensor such as an acceleration sensor is not installed, it is not possible to link the video data of the captured video with event information such as the date and time of the impact. Therefore, it is necessary to have a means for identifying and cutting out the video data on the date and time when the shock occurred.

本開示は、ドライブレコーダーにて撮影した映像と車両に発生したイベントとを連携させることができるドライブレコーダー運用システムを提供することを目的とする。 An object of the present disclosure is to provide a drive recorder operation system that can link images shot with a drive recorder and events that occur in a vehicle.

本開示の一態様に係るドライブレコーダー運用システムは、車両に生じたイベントの情報を含むインデックス情報を送出するセンサーユニットと、可搬型の記憶媒体と、前記車両の周辺を時間的に連続して撮影した映像ファイルを生成して前記記憶媒体に保存するドライブレコーダーと、前記センサーユニットから送出されたインデックス情報に基づき、前記車両に生じたイベントと前記記憶媒体に保存された映像ファイルとを連携させる連携装置と、を備える。 A drive recorder operation system according to an aspect of the present disclosure includes a sensor unit that sends out index information including information on events that occur in a vehicle, a portable storage medium, and a drive recorder operation system that continuously photographs the surroundings of the vehicle over time. a drive recorder that generates a video file and stores it in the storage medium; and a collaboration that links events that occur in the vehicle with the video file stored in the storage medium based on index information sent from the sensor unit. A device.

本開示によれば、ドライブレコーダーにて撮影した映像と車両に発生したイベントとを連携させることができる。 According to the present disclosure, it is possible to link a video shot by a drive recorder with an event that occurs in a vehicle.

図1は、本開示に係るドライブレコーダー運用システムを説明するための概念図である。FIG. 1 is a conceptual diagram for explaining a drive recorder operation system according to the present disclosure. 図2は、本開示に係るドライブレコーダーの構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of the configuration of a drive recorder according to the present disclosure. 図3は、本開示に係るセンサーユニットの構成の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of the configuration of a sensor unit according to the present disclosure. 図4は、インデックス情報生成部により生成されるインデックス情報の一例を示す図である。FIG. 4 is a diagram illustrating an example of index information generated by the index information generation section. 図5は、本開示に係るサーバ及び端末装置の構成の一例を示すブロック図である。FIG. 5 is a block diagram illustrating an example of the configuration of a server and a terminal device according to the present disclosure. 図6は、本開示の第1実施形態に係るドライブレコーダー運用システムにおけるイベント動画情報生成処理の具体例を示すシーケンス図である。FIG. 6 is a sequence diagram illustrating a specific example of event video information generation processing in the drive recorder operation system according to the first embodiment of the present disclosure. 図7は、本開示の第1実施形態に係るドライブレコーダー運用システムにおける識別情報照合処理の具体例を示すフローチャートである。FIG. 7 is a flowchart illustrating a specific example of identification information verification processing in the drive recorder operation system according to the first embodiment of the present disclosure. 図8は、本開示の第2実施形態に係るドライブレコーダー運用システムにおけるイベント動画情報生成処理の具体例を示すシーケンス図である。FIG. 8 is a sequence diagram showing a specific example of event video information generation processing in the drive recorder operation system according to the second embodiment of the present disclosure.

以下、添付図面を参照して、本開示に係る実施形態を詳細に説明する。なお、この実施形態により本開示が限定されるものではなく、また、実施形態が複数ある場合には、各実施形態を組み合わせて構成するものも含む。また、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。 Embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. Note that the present disclosure is not limited to this embodiment, and if there are multiple embodiments, it also includes a configuration in which each embodiment is combined. Further, in the following embodiments, the same parts are given the same reference numerals and redundant explanations will be omitted.

まず、本開示に係るドライブレコーダー運用システムの構成について説明する。図1は、本開示に係るドライブレコーダー運用システムの構成を説明するための概念図である。 First, the configuration of the drive recorder operation system according to the present disclosure will be described. FIG. 1 is a conceptual diagram for explaining the configuration of a drive recorder operation system according to the present disclosure.

図1に示すように、本開示に係るドライブレコーダー運用システム100は、ドライブレコーダー1、記憶媒体2、センサーユニット3、及び連携装置200を備える。連携装置200は、サーバ4、及び端末装置5を備える。 As shown in FIG. 1, a drive recorder operation system 100 according to the present disclosure includes a drive recorder 1, a storage medium 2, a sensor unit 3, and a cooperation device 200. The cooperation device 200 includes a server 4 and a terminal device 5.

ドライブレコーダー1は、車両90に搭載される。ドライブレコーダー1は、車両90の前方あるいは後方等の車両90の周辺を時間的に連続して撮影し、映像を記録する。ドライブレコーダー1は、撮影した映像のデータを記憶媒体2に保存する。 Drive recorder 1 is mounted on vehicle 90. The drive recorder 1 continuously photographs the surroundings of the vehicle 90, such as in front or behind the vehicle 90, and records images. The drive recorder 1 stores captured video data in a storage medium 2.

記憶媒体2は、例えばSDカードやUSBメモリ等の可搬型の記憶媒体である。記憶媒体3は、ドライブレコーダー1及び端末装置5に着脱可能とすることで、ドライブレコーダー1で撮影した映像のデータを端末装置5に移動することができる。記憶媒体2は、予めセンサーユニット3の識別情報が紐づけられている。識別情報は、センサーユニット3が他の車両に搭載されたドライブレコーダーと識別できるものであればよい。 The storage medium 2 is, for example, a portable storage medium such as an SD card or a USB memory. By making the storage medium 3 removably attachable to the drive recorder 1 and the terminal device 5, data of video captured by the drive recorder 1 can be transferred to the terminal device 5. The storage medium 2 is associated with identification information of the sensor unit 3 in advance. The identification information may be any information as long as the sensor unit 3 can be identified from a drive recorder mounted on another vehicle.

図2は、本開示に係るドライブレコーダーの構成の一例を示すブロック図である。 FIG. 2 is a block diagram illustrating an example of the configuration of a drive recorder according to the present disclosure.

ドライブレコーダー1は、映像処理部11、インターフェース13、計時部14、制御部16、及び記憶部17等を備える。映像処理部11、インターフェース13、計時部14、制御部16、及び記憶部17等は、データバス1aによって相互に電気信号の送受ができるように接続されている。 The drive recorder 1 includes a video processing section 11, an interface 13, a clock section 14, a control section 16, a storage section 17, and the like. The video processing section 11, interface 13, time measurement section 14, control section 16, storage section 17, etc. are connected to each other via a data bus 1a so that they can send and receive electrical signals.

撮像部11aは、例えばCCD等の撮像素子を有し、車両90の前方等の車両90周辺を撮影する。撮像部11aは、時間的に連続して映像を取得し、映像信号を映像処理部11へ送出する。 The imaging unit 11a includes an imaging device such as a CCD, and photographs the area around the vehicle 90, such as in front of the vehicle 90. The imaging unit 11a acquires images continuously in time and sends a video signal to the video processing unit 11.

映像処理部11は、撮像部11aにおいて撮影された映像信号について、データ圧縮等の処理を行い、少なくとも撮影時においてリアルタイムに計時部14で計時された日時情報を付加して映像ファイルを生成する。映像処理部11により生成された映像ファイルは、インターフェース13を介して、記憶媒体2に保存される。 The video processing unit 11 performs processing such as data compression on the video signal photographed by the imaging unit 11a, and generates a video file by adding date and time information measured in real time by the clock unit 14 at least at the time of photographing. The video file generated by the video processing unit 11 is stored in the storage medium 2 via the interface 13.

制御部16は、例えばCPU等によって構成される。制御部16は、コンピュータプログラムに従ってドライブレコーダー1における各処理を実行する。 The control unit 16 is configured by, for example, a CPU. The control unit 16 executes each process in the drive recorder 1 according to a computer program.

記憶部17は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク記憶装置等のデータ記憶装置によって構成される。記憶部17は、制御部16で実行するコンピュータプログラム等を記憶する。 The storage unit 17 is constituted by a data storage device such as a RAM (Random Access Memory), a flash memory, or a hard disk storage device. The storage unit 17 stores computer programs and the like executed by the control unit 16.

図1に戻る。センサーユニット3は、ドライブレコーダー1と共に車両90に搭載される。センサーユニット3は、車両90に生じるイベントを検出し、少なくとも当該イベントが検出された日時のデータをサーバ4に送信する。 Return to Figure 1. The sensor unit 3 is mounted on the vehicle 90 together with the drive recorder 1. The sensor unit 3 detects an event occurring in the vehicle 90 and transmits to the server 4 at least data on the date and time when the event was detected.

図3は、本開示に係るセンサーユニットの構成の一例を示すブロック図である。 FIG. 3 is a block diagram illustrating an example of the configuration of a sensor unit according to the present disclosure.

センサーユニット3は、位置情報取得部31、イベント検出部32、インデックス情報生成部33、計時部34、通信部35、制御部36、及び記憶部37等を備える。位置情報取得部31、イベント検出部32、インデックス情報生成部33、計時部34、通信部35、制御部36、及び記憶部37等は、データバス3aによって相互に電気信号の送受ができるように接続されている。 The sensor unit 3 includes a position information acquisition section 31, an event detection section 32, an index information generation section 33, a time measurement section 34, a communication section 35, a control section 36, a storage section 37, and the like. The position information acquisition section 31, the event detection section 32, the index information generation section 33, the time measurement section 34, the communication section 35, the control section 36, the storage section 37, etc. are configured so that they can mutually send and receive electrical signals via the data bus 3a. It is connected.

位置情報取得部31は、例えばGPS衛星からのGPS信号を受信し、受信したGPS信号に基づき、センサーユニット3の位置情報、換言すれば、センサーユニット3が搭載された車両90の位置情報を取得する。 The position information acquisition unit 31 receives a GPS signal from a GPS satellite, for example, and acquires the position information of the sensor unit 3, in other words, the position information of the vehicle 90 on which the sensor unit 3 is mounted, based on the received GPS signal. do.

イベント検出部32は、センサーユニット3が搭載された車両90に生じるイベントを検出する。具体的に、イベント検出部32は、例えば加速度センサー等が例示される。この場合、イベント検出部32は、センサーユニット3が搭載された車両90に生じるイベントとして、例えば、加速度が所定値以上である場合に、車両90が事故等により衝撃を受けたことを検出する。イベント検出部32は、加速度センサーに限定されるものではなく、例えば速度センサー、車速センサー、生体センサー等であっても良い。また、これら複数のセンサーを備えた構成であっても良い。 The event detection section 32 detects an event that occurs in the vehicle 90 in which the sensor unit 3 is mounted. Specifically, the event detection unit 32 is exemplified by, for example, an acceleration sensor. In this case, the event detection unit 32 detects, as an event occurring in the vehicle 90 on which the sensor unit 3 is mounted, that the vehicle 90 has received an impact due to an accident, for example, when the acceleration is equal to or higher than a predetermined value. The event detection unit 32 is not limited to an acceleration sensor, and may be, for example, a speed sensor, a vehicle speed sensor, a biological sensor, or the like. Further, a configuration including a plurality of these sensors may be used.

インデックス情報生成部33は、イベント検出部32によりセンサーユニット3が搭載された車両90に生じたイベントが検出されたとき、当該イベントが発生した日時、場所等を含むインデックス情報を生成する。 When the event detection section 32 detects an event that has occurred in the vehicle 90 on which the sensor unit 3 is mounted, the index information generation section 33 generates index information that includes the date, time, location, etc. of the event.

図4は、インデックス情報生成部により生成されるインデックス情報の一例を示す図である。図4に示す例において、インデックス情報は、イベントが発生した場所、日付、時刻を含む。イベントが発生した場所を示す位置情報は、例えば、緯度や経度を含む。イベントが発生した日付及び時刻を示す日時情報は、例えば、年、月、日、時、分、秒を含む。イベントが発生した場所を示す位置情報は、位置情報取得部31により取得される。イベントが発生した日付及び時刻を示す日時情報は、計時部34により取得される。なお、インデックス情報は、例えば、加速度センサー(イベント検出部32)の検出値を含む態様であっても良い。 FIG. 4 is a diagram illustrating an example of index information generated by the index information generation section. In the example shown in FIG. 4, the index information includes the location, date, and time at which the event occurred. The location information indicating the location where the event occurred includes, for example, latitude and longitude. The date and time information indicating the date and time when the event occurred includes, for example, year, month, day, hour, minute, and second. Location information indicating the location where the event occurred is acquired by the location information acquisition unit 31. Date and time information indicating the date and time when the event occurred is acquired by the clock unit 34. Note that the index information may include, for example, a detection value of an acceleration sensor (event detection unit 32).

インデックス情報は、センサーユニット3の識別情報に紐づけられている。これにより、インデックス情報とセンサーユニット3とが一義的に特定される。 The index information is linked to the identification information of the sensor unit 3. Thereby, the index information and the sensor unit 3 are uniquely identified.

通信部35は、通信ネットワーク91を介して、インデックス情報生成部33により生成されたインデックス情報をサーバ4に送信する。本開示において、通信部35は、例えば、LTE(Long Term Evolution)網や3G(3rd Generation)網等の通信規格に準拠した通信を行う。 The communication unit 35 transmits the index information generated by the index information generation unit 33 to the server 4 via the communication network 91. In the present disclosure, the communication unit 35 performs communication based on communication standards such as an LTE (Long Term Evolution) network or a 3G (Third Generation) network, for example.

制御部36は、例えばCPU等によって構成される。制御部36は、コンピュータプログラムに従ってセンサーユニット3における各処理を実行する。 The control unit 36 is configured by, for example, a CPU. The control unit 36 executes each process in the sensor unit 3 according to a computer program.

記憶部37は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク記憶装置等のデータ記憶装置によって構成される。記憶部37は、制御部36で実行するコンピュータプログラム等を記憶する。 The storage unit 37 is constituted by a data storage device such as a RAM (Random Access Memory), a flash memory, or a hard disk storage device. The storage unit 37 stores computer programs and the like executed by the control unit 36.

図5は、本開示に係るサーバ及び端末装置の構成の一例を示すブロック図である。 FIG. 5 is a block diagram illustrating an example of the configuration of a server and a terminal device according to the present disclosure.

サーバ4は、表示部42、操作部43、通信部44、制御部45、及び記憶部46等を備える。表示部42、操作部43、通信部44、制御部45、及び記憶部46等は、データバス4aによって相互に電気信号の送受ができるように接続されている。 The server 4 includes a display section 42, an operation section 43, a communication section 44, a control section 45, a storage section 46, and the like. The display section 42, the operation section 43, the communication section 44, the control section 45, the storage section 46, etc. are connected to each other via the data bus 4a so that they can send and receive electrical signals.

表示部42は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、LED(Light Emitting Diode)ディスプレイ等で構成されている。表示部42は、制御部45からの指示に基づいて操作に関する情報等を表示する。 The display unit 42 includes a liquid crystal display, an organic EL (Electro Luminescence) display, an LED (Light Emitting Diode) display, and the like. The display unit 42 displays information regarding operations based on instructions from the control unit 45.

操作部43は、操作キー、十字キー、タッチパネル等のスイッチから構成されており、サーバ管理者による操作入力を受け付ける。操作部43で受け付けられた操作入力は、制御部43によって取得される。操作部43は、操作入力の他、音声入力等の別手段による入力にも対応していてもよく、サーバ管理者からの指示を受け付けるものであり、サーバ管理者による操作入力は、サーバ管理者からの指示に相当する。 The operation unit 43 is composed of operation keys, cross keys, switches such as a touch panel, and accepts operation inputs from the server administrator. The operation input received by the operation unit 43 is acquired by the control unit 43. In addition to operation input, the operation unit 43 may also support input by other means such as voice input, and accepts instructions from the server administrator. This corresponds to instructions from

通信部44は、無線または有線によって通信ネットワーク91に通信接続されている。通信部44は、通信ネットワーク91を介して、センサーユニット3、端末装置5、及びコールセンター6との間で通信する。 The communication unit 44 is communicatively connected to the communication network 91 wirelessly or by wire. The communication unit 44 communicates with the sensor unit 3, the terminal device 5, and the call center 6 via the communication network 91.

制御部45は、例えばCPU等によって構成される。制御部45は、コンピュータプログラムに従ってサーバ4における各処理を実行する。 The control unit 45 is configured by, for example, a CPU. The control unit 45 executes each process in the server 4 according to a computer program.

記憶部46は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク記憶装置等のデータ記憶装置によって構成される。記憶部46は、制御部45で実行するコンピュータプログラム等を記憶する。 The storage unit 46 is composed of a data storage device such as a RAM (Random Access Memory), a flash memory, or a hard disk storage device. The storage unit 46 stores computer programs and the like executed by the control unit 45.

端末装置5は、表示部52、操作部53、通信部54、制御部55、記憶部56、及びインターフェース57等を備える。端末装置5は、例えばPC(パーソナルコンピュータ)やスマートホン等の情報処理端末である。データ処理部51、表示部52、操作部53、通信部54、制御部55、記憶部56、及びインターフェース57等は、データバス5aによって相互に電気信号の送受ができるように接続されている。 The terminal device 5 includes a display section 52, an operation section 53, a communication section 54, a control section 55, a storage section 56, an interface 57, and the like. The terminal device 5 is, for example, an information processing terminal such as a PC (personal computer) or a smart phone. The data processing section 51, display section 52, operation section 53, communication section 54, control section 55, storage section 56, interface 57, etc. are connected to each other via the data bus 5a so that they can send and receive electrical signals.

表示部52は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、LED(Light Emitting Diode)ディスプレイ等で構成されている。表示部52は、制御部55からの指示に基づいて操作に関する情報等を表示する。 The display unit 52 includes a liquid crystal display, an organic EL (Electro Luminescence) display, an LED (Light Emitting Diode) display, and the like. The display unit 52 displays information regarding operations based on instructions from the control unit 55.

操作部53は、操作キー、十字キー、タッチパネル等のスイッチから構成されており、ユーザーによる操作入力を受け付ける。操作部53で受け付けられた操作入力は、制御部55によって取得される。操作部53は、操作入力の他、音声入力等の別手段による入力にも対応していてもよく、ユーザーからの指示を受け付けるものであり、ユーザーによる操作入力は、ユーザーからの指示に相当する。 The operation unit 53 includes operation keys, a cross key, switches such as a touch panel, and accepts operation inputs from the user. The operation input received by the operation unit 53 is acquired by the control unit 55. In addition to operation input, the operation unit 53 may also accept input by other means such as voice input, and receives instructions from the user, and the operation input by the user corresponds to the instruction from the user. .

通信部54は、無線または有線によって通信ネットワーク91に通信接続されている。通信部54は、通信ネットワーク91を介して、サーバ4との間で通信する。 The communication unit 54 is communicatively connected to the communication network 91 by wireless or wire. The communication unit 54 communicates with the server 4 via the communication network 91.

制御部55は、例えばCPU等によって構成される。制御部55は、コンピュータプログラムに従って端末装置5における各処理を実行する。 The control unit 55 is composed of, for example, a CPU. The control unit 55 executes each process in the terminal device 5 according to a computer program.

記憶部56は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク記憶装置等のデータ記憶装置によって構成される。記憶部56は、制御部55で実行するコンピュータプログラム等を記憶する。 The storage unit 56 is constituted by a data storage device such as a RAM (Random Access Memory), a flash memory, or a hard disk storage device. The storage unit 56 stores computer programs and the like executed by the control unit 55.

記憶媒体2に保存された映像ファイルは、インターフェース57を介して読み込まれる。 The video file stored in the storage medium 2 is read via the interface 57.

[第1実施形態]
本開示の第1実施形態において、サーバ4の記憶部46には、センサーユニット3から送出されたインデックス情報を、端末装置5に転送するための第1プログラムが格納されている。サーバ4の制御部45は、当該第1プログラムに従い、センサーユニット3から送出されたインデックス情報を、通信部44から通信ネットワーク91を介して端末装置5に転送する。
[First embodiment]
In the first embodiment of the present disclosure, the storage unit 46 of the server 4 stores a first program for transferring index information sent from the sensor unit 3 to the terminal device 5. The control unit 45 of the server 4 transfers the index information sent from the sensor unit 3 from the communication unit 44 to the terminal device 5 via the communication network 91 according to the first program.

本開示の第1実施形態において、端末装置5の記憶部56には、インデックス情報に基づき、記憶媒体2に保存された映像ファイルから、車両90に生じたイベントがセンサーユニット3によって検出されたときの映像を動画データとして切り出し、切り出した動画データにインデックス情報を付加したイベント動画情報を生成して、サーバ4に送出するための第2プログラムが格納されている。端末装置5の制御部55は、当該第2プログラムに従い、インデックス情報に基づき、記憶媒体2に保存された映像ファイルから、車両90に生じたイベントがセンサーユニット3によって検出されたときの映像を動画データとして切り出し、切り出した動画データにインデックス情報を付加したイベント動画情報を生成して、通信部54から通信ネットワーク91を介してサーバ4に送出する。 In the first embodiment of the present disclosure, when an event that occurs in the vehicle 90 is detected by the sensor unit 3 from the video file stored in the storage medium 2 based on the index information in the storage unit 56 of the terminal device 5. A second program is stored therein for cutting out the video as moving image data, generating event moving image information by adding index information to the cut out moving image data, and transmitting the generated event moving image information to the server 4. In accordance with the second program, the control unit 55 of the terminal device 5 converts a video image when an event occurring in the vehicle 90 is detected by the sensor unit 3 from the video file stored in the storage medium 2 based on the index information. Event video information is generated by cutting out the video data as data and adding index information to the clipped video data, and transmits it from the communication unit 54 to the server 4 via the communication network 91.

これにより、ドライブレコーダー1にて撮影した映像と車両90に発生したイベントとを連携させることができる。 Thereby, the video captured by the drive recorder 1 and the event occurring in the vehicle 90 can be linked.

また、本開示の第1実施形態において、サーバ4の記憶部46には、端末装置5から送出されたイベント動画情報を、コールセンター6に転送するための第3プログラムが格納されている。サーバ4の制御部45は、当該第3プログラムに従い、端末装置5から送出されたイベント動画情報を、通信部44から通信ネットワーク91を介してコールセンター6に転送する。 Further, in the first embodiment of the present disclosure, the storage unit 46 of the server 4 stores a third program for transferring event video information sent from the terminal device 5 to the call center 6. The control unit 45 of the server 4 transfers the event video information sent from the terminal device 5 from the communication unit 44 to the call center 6 via the communication network 91 according to the third program.

以下、図6を参照して、本開示の第1実施形態に係るドライブレコーダー運用システム100における具体的なイベント動画情報生成処理について説明する。図6は、本開示の第1実施形態に係るドライブレコーダー運用システムにおけるイベント動画情報生成処理の具体例を示すシーケンス図である。図6に示すイベント動画情報生成処理において、各処理は、センサーユニット2、サーバ4、端末装置5の各構成部で行われるが、ここでは、各処理の主体をセンサーユニット2、サーバ4、端末装置5として説明する。 Hereinafter, with reference to FIG. 6, specific event video information generation processing in the drive recorder operation system 100 according to the first embodiment of the present disclosure will be described. FIG. 6 is a sequence diagram illustrating a specific example of event video information generation processing in the drive recorder operation system according to the first embodiment of the present disclosure. In the event video information generation process shown in FIG. 6, each process is performed by each component of the sensor unit 2, server 4, and terminal device 5. This will be explained as device 5.

センサーユニット2は、車両90に生じたイベント(例えば、車両90が事故等により衝撃を受けたこと)を検出すると(ステップS101)、センサーユニット3の識別情報と、イベントが発生した場所、日付、時刻等の情報とが関連付けられたインデックス情報(図4参照)を生成する(ステップS102)。センサーユニット2は、生成したインデックス情報を、サーバ4に送信する(ステップS103)。 When the sensor unit 2 detects an event that occurs in the vehicle 90 (for example, the vehicle 90 receives an impact due to an accident) (step S101), the sensor unit 2 detects the identification information of the sensor unit 3, the place and date where the event occurred, Index information (see FIG. 4) associated with information such as time is generated (step S102). The sensor unit 2 transmits the generated index information to the server 4 (step S103).

サーバ4は、センサーユニット2からインデックス情報を受信すると、受信したインデックス情報を、端末装置5に転送する(ステップS104)。 Upon receiving the index information from the sensor unit 2, the server 4 transfers the received index information to the terminal device 5 (step S104).

サーバ4から端末装置5に転送されるインデックス情報は、例えば、端末装置5の第2プログラムで認識可能な専用ファイルに格納され、ユーザーのメールアドレスに自動送信される態様であっても良い。 The index information transferred from the server 4 to the terminal device 5 may be, for example, stored in a dedicated file that can be recognized by the second program of the terminal device 5, and automatically sent to the user's e-mail address.

端末装置5が受信したインデックス情報は、端末装置5の記憶部56に格納される(ステップS105)。 The index information received by the terminal device 5 is stored in the storage unit 56 of the terminal device 5 (step S105).

記憶媒体2は、上述したように、予めセンサーユニット3の識別情報が紐づけられている。また、インデックス情報は、センサーユニット3において生成される際に、センサーユニット3の識別情報が紐づけられている。この識別情報に基づき、記憶媒体2に記憶された映像ファイルとインデックス情報とが一義的に特定される。 As described above, the storage medium 2 is associated with the identification information of the sensor unit 3 in advance. Further, when the index information is generated in the sensor unit 3, identification information of the sensor unit 3 is linked. Based on this identification information, the video file and index information stored in the storage medium 2 are uniquely identified.

端末装置5は、図7に示す識別情報照合処理を行う。図7は、本開示の第1実施形態に係るドライブレコーダー運用システムにおける識別情報照合処理の具体例を示すフローチャートである。図7に示す識別情報照合処理において、各処理の主体を端末装置5として説明する。 The terminal device 5 performs the identification information verification process shown in FIG. FIG. 7 is a flowchart illustrating a specific example of identification information verification processing in the drive recorder operation system according to the first embodiment of the present disclosure. In the identification information matching process shown in FIG. 7, the main body of each process will be explained as the terminal device 5.

端末装置5は、インターフェース57に接続された記憶媒体2と、サーバ4から受信したインデックス情報との間で、識別情報が一致しているか否かを照合する(ステップS106)。 The terminal device 5 checks whether the identification information matches the storage medium 2 connected to the interface 57 and the index information received from the server 4 (step S106).

識別情報が一致していない場合(ステップS106;No)、図6に示すステップS107の処理に移行せず、イベント動画情報生成処理を終了する。 If the identification information does not match (step S106; No), the process does not proceed to step S107 shown in FIG. 6, and the event video information generation process ends.

識別情報が一致している場合(ステップS106;Yes)、図6に示すステップS107の処理に移行する。端末装置5は、記憶媒体2に保存された映像ファイルを読み込む(ステップS107)。 If the identification information matches (step S106; Yes), the process moves to step S107 shown in FIG. The terminal device 5 reads the video file stored in the storage medium 2 (step S107).

次に、端末装置5は、インデックス情報に基づき、読み出した映像ファイルから、車両90に生じたイベントがセンサーユニット3によって検出されたときの映像を動画データとして切り出し(ステップS108)、切り出した動画データに記憶部56に格納されたインデックス情報を付加してイベント動画情報を生成する(ステップS109)。 Next, based on the index information, the terminal device 5 cuts out a video when an event occurring in the vehicle 90 is detected by the sensor unit 3 from the read video file as video data (step S108), and extracts the video data as video data. The index information stored in the storage unit 56 is added to the event video information to generate event video information (step S109).

具体的には、例えば、ユーザーが端末装置5を起動し、操作部53を操作して、インデックス情報が格納された専用ファイルを開くことにより、第2プログラムが立ち上がり、記憶媒体2に保存された映像ファイルを読み込み、動画編集を行う。端末装置5は、読み出した映像ファイルから、インデックス情報に含まれるイベント発生日時を含む所定期間(例えば、15秒から30秒)の動画データを切り出し、インデックス情報に含まれる日時情報、位置情報、加速度センサー(イベント検出部32)の検出値等の情報を含むイベント動画情報を生成する。 Specifically, for example, when the user starts up the terminal device 5 and operates the operation unit 53 to open a dedicated file in which index information is stored, the second program is started and saved in the storage medium 2. Load video files and edit videos. The terminal device 5 extracts video data for a predetermined period (for example, 15 to 30 seconds) including the event occurrence date and time included in the index information from the read video file, and extracts the video data for a predetermined period (for example, 15 seconds to 30 seconds) including the event occurrence date and time included in the index information, and extracts the date and time information, position information, and acceleration included in the index information. Event video information including information such as detection values of the sensor (event detection unit 32) is generated.

これにより、ドライブレコーダー1にて撮影した映像と車両90に発生したイベントとが連携したイベント動画情報が得られる。 As a result, event video information in which the video captured by the drive recorder 1 and the event that occurred in the vehicle 90 are linked is obtained.

そして、端末装置5は、生成したイベント動画情報をサーバ4に送信する(ステップS110)。 Then, the terminal device 5 transmits the generated event video information to the server 4 (step S110).

サーバ4は、端末装置5からイベント動画情報を受信すると、受信したイベント動画情報を、コールセンター6に転送する(ステップS111)。 Upon receiving the event video information from the terminal device 5, the server 4 transfers the received event video information to the call center 6 (step S111).

[第2実施形態]
本開示の第2実施形態において、サーバ4の記憶部46には、センサーユニット3から送出されたインデックス情報を、端末装置5に転送するための第1プログラムが格納されている。サーバ4の制御部45は、当該第1プログラムに従い、センサーユニット3から送出されたインデックス情報を、通信部44から通信ネットワーク91を介して端末装置5に転送する。
[Second embodiment]
In the second embodiment of the present disclosure, the storage unit 46 of the server 4 stores a first program for transferring index information sent from the sensor unit 3 to the terminal device 5. The control unit 45 of the server 4 transfers the index information sent from the sensor unit 3 from the communication unit 44 to the terminal device 5 via the communication network 91 according to the first program.

本開示の第2実施形態において、端末装置5の記憶部56には、インデックス情報に基づき、記憶媒体2に保存された映像ファイルから、車両90に生じたイベントがセンサーユニット3によって検出されたときの映像を動画データとして切り出し、サーバ4に送出するための第2プログラムが格納されている。端末装置5の制御部55は、当該第2プログラムに従い、インデックス情報に基づき、記憶媒体2に保存された映像ファイルから、車両90に生じたイベントがセンサーユニット3によって検出されたときの映像を動画データとして切り出し、通信部54から通信ネットワーク91を介してサーバ4に送出する。 In the second embodiment of the present disclosure, when an event occurring in the vehicle 90 is detected by the sensor unit 3 based on the index information in the storage unit 56 of the terminal device 5 from the video file stored in the storage medium 2. A second program for cutting out the video as moving image data and sending it to the server 4 is stored. In accordance with the second program, the control unit 55 of the terminal device 5 converts a video image when an event occurring in the vehicle 90 is detected by the sensor unit 3 from the video file stored in the storage medium 2 based on the index information. It is extracted as data and sent from the communication unit 54 to the server 4 via the communication network 91.

また、本開示の第2実施形態において、サーバ4の記憶部46には、端末装置5から送出された動画データにインデックス情報を付加したイベント動画情報を生成して、コールセンター6に送出するための第3プログラムが格納されている。サーバ4の制御部45は、当該第3プログラムに従い、端末装置5から送出された動画データにインデックス情報を付加したイベント動画情報を生成して、通信部44から通信ネットワーク91を介してコールセンター6に送出する。 Further, in the second embodiment of the present disclosure, the storage unit 46 of the server 4 is configured to generate event video information in which index information is added to the video data sent from the terminal device 5, and to send it to the call center 6. A third program is stored. The control unit 45 of the server 4 generates event video information by adding index information to the video data sent from the terminal device 5 according to the third program, and transmits the event video information from the communication unit 44 to the call center 6 via the communication network 91. Send.

これにより、ドライブレコーダー1にて撮影した映像と車両90に発生したイベントとを連携させることができる。 Thereby, the video captured by the drive recorder 1 and the event occurring in the vehicle 90 can be linked.

以下、図8を参照して、本開示の第2実施形態に係るドライブレコーダー運用システム100における具体的なイベント動画情報生成処理について説明する。図8は、本開示の第2実施形態に係るドライブレコーダー運用システムにおけるイベント動画情報生成処理の具体例を示すシーケンス図である。図8に示すイベント動画情報生成処理において、各処理は、センサーユニット2、サーバ4、端末装置5の各構成部で行われるが、ここでは、各処理の主体をセンサーユニット2、サーバ4、端末装置5として説明する。 Hereinafter, with reference to FIG. 8, specific event video information generation processing in the drive recorder operation system 100 according to the second embodiment of the present disclosure will be described. FIG. 8 is a sequence diagram showing a specific example of event video information generation processing in the drive recorder operation system according to the second embodiment of the present disclosure. In the event video information generation process shown in FIG. 8, each process is performed by each component of the sensor unit 2, server 4, and terminal device 5. This will be explained as device 5.

センサーユニット2は、車両90に生じたイベント(例えば、車両90が事故等により衝撃を受けたこと)を検出すると(ステップS201)、センサーユニット3の識別情報と、イベントが発生した場所、日付、時刻等の情報とが関連付けられたインデックス情報(図4参照)を生成する(ステップS202)。センサーユニット2は、生成したインデックス情報を、サーバ4に送信する(ステップS203)。 When the sensor unit 2 detects an event that occurs in the vehicle 90 (for example, the vehicle 90 receives an impact due to an accident) (step S201), the sensor unit 2 detects the identification information of the sensor unit 3, the place and date where the event occurred, Index information (see FIG. 4) associated with information such as time is generated (step S202). The sensor unit 2 transmits the generated index information to the server 4 (step S203).

サーバ4が受信したインデックス情報は、サーバ4の記憶部46に格納される(ステップS204)。サーバ4は、受信したインデックス情報を、端末装置5に転送する(ステップS205)。 The index information received by the server 4 is stored in the storage unit 46 of the server 4 (step S204). The server 4 transfers the received index information to the terminal device 5 (step S205).

サーバ4から端末装置5に転送されるインデックス情報は、例えば、端末装置5の第2プログラムで認識可能な専用ファイルに格納され、ユーザーのメールアドレスに自動送信される態様であっても良い。 The index information transferred from the server 4 to the terminal device 5 may be, for example, stored in a dedicated file that can be recognized by the second program of the terminal device 5, and automatically sent to the user's e-mail address.

端末装置5は、インターフェース57に接続された記憶媒体2と、サーバ4から受信したインデックス情報との間で、識別情報が一致しているか否かを照合する(ステップS206)。この識別情報照合処理は、第1実施形態における識別情報照合処理(ステップS106)と同一であるので、ここでは説明を省略する。 The terminal device 5 checks whether the identification information matches the storage medium 2 connected to the interface 57 and the index information received from the server 4 (step S206). This identification information verification process is the same as the identification information verification process (step S106) in the first embodiment, so a description thereof will be omitted here.

識別情報が一致している場合、図8に示すステップS207の処理に移行する。端末装置5は、インターフェース57を介して記憶媒体2に保存された映像ファイルを読み込む(ステップS207)。 If the identification information matches, the process moves to step S207 shown in FIG. 8. The terminal device 5 reads the video file stored in the storage medium 2 via the interface 57 (step S207).

次に、端末装置5は、インデックス情報に基づき、読み出した映像ファイルから、車両90に生じたイベントがセンサーユニット3によって検出されたときの映像を動画データとして切り出し(ステップS208)、切り出した動画データをサーバ4に送信する(ステップS209)。 Next, based on the index information, the terminal device 5 cuts out a video when an event occurring in the vehicle 90 is detected by the sensor unit 3 from the read video file as video data (step S208), and extracts the video data as video data. is transmitted to the server 4 (step S209).

具体的には、例えば、ユーザーが端末装置5を起動し、操作部53を操作して、インデックス情報が格納された専用ファイルを開くことにより、第2プログラムが立ち上がり、記憶媒体2に保存された映像ファイルを読み込み、動画編集を行う。端末装置5は、読み出した映像ファイルから、インデックス情報に含まれるイベント発生日時を含む所定期間(例えば、15秒から30秒)の動画データを切り出し、切り出した動画データをサーバ4に送信する。 Specifically, for example, when the user starts up the terminal device 5 and operates the operation unit 53 to open a dedicated file in which index information is stored, the second program is started and saved in the storage medium 2. Load the video file and edit the video. The terminal device 5 cuts out video data for a predetermined period (for example, 15 seconds to 30 seconds) including the event occurrence date and time included in the index information from the read video file, and transmits the cut video data to the server 4.

サーバ4は、端末装置5から動画データを受信すると、受信した動画データに記憶部46に格納されたインデックス情報(具体的には、例えば、動画データを切り出し、インデックス情報に含まれる日時情報、位置情報、加速度センサー(イベント検出部32)の検出値等の情報)を付加してイベント動画情報を生成する(ステップS210)。 When the server 4 receives the video data from the terminal device 5, the server 4 adds the index information stored in the storage unit 46 to the received video data (specifically, for example, cuts out the video data, and adds date and time information, position information, etc. included in the index information) to the received video data. event video information (step S210).

これにより、ドライブレコーダー1にて撮影した映像と車両90に発生したイベントとが連携したイベント動画情報が得られる。 As a result, event video information in which the video captured by the drive recorder 1 and the event that occurred in the vehicle 90 are linked is obtained.

そして、サーバ4は、生成したイベント動画情報を、コールセンター6に送信する(ステップS211)。 Then, the server 4 transmits the generated event video information to the call center 6 (step S211).

なお、上述した第1実施形態及び第2実施形態では、連携装置200がサーバ4及び端末装置5で構成される例を示したが、連携装置200を1つの装置で構成することも可能である。この場合、連携装置200は、記憶媒体2から映像ファイルを読み込み、センサーユニット3から送出されたインデックス情報に基づき、読み出した映像ファイルから、車両90に生じたイベントがセンサーユニット3によって検出されたときの映像を動画データとして切り出し、切り出した動画データにインデックス情報を付加したイベント動画情報を生成して、コールセンター6に送信する態様とすれば良い。 Note that in the first and second embodiments described above, an example was shown in which the cooperation device 200 is configured with the server 4 and the terminal device 5, but it is also possible to configure the cooperation device 200 with one device. . In this case, the cooperation device 200 reads a video file from the storage medium 2, and based on the index information sent from the sensor unit 3, when an event that occurs in the vehicle 90 is detected by the sensor unit 3 from the read video file. It may be possible to cut out the video as video data, generate event video information by adding index information to the clipped video data, and send it to the call center 6.

以上、本開示の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換または変更を行うことができる。 Although the embodiments of the present disclosure have been described above, the present invention is not limited to the contents of these embodiments. Furthermore, the above-mentioned components include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those that are in a so-called equivalent range. Furthermore, the aforementioned components can be combined as appropriate. Furthermore, various omissions, substitutions, or changes of the constituent elements can be made without departing from the gist of the embodiments described above.

1 ドライブレコーダー
2 記憶媒体
3 センサーユニット
4 サーバ
5 端末装置
6 コールセンター
100 ドライブレコーダー運用システム
200 連携装置
1 Drive recorder 2 Storage medium 3 Sensor unit 4 Server 5 Terminal device 6 Call center 100 Drive recorder operation system 200 Cooperation device

Claims (4)

車両に生じたイベントの情報を含むインデックス情報を送出するセンサーユニットと、
可搬型の記憶媒体と、
前記車両の周辺を時間的に連続して撮影した映像ファイルを生成して前記記憶媒体に保
存するドライブレコーダーと、
前記センサーユニットから送出されたインデックス情報に基づき、前記車両に生じたイ
ベントと前記記憶媒体に保存された映像ファイルとを連携させる連携装置と、
を備え、
前記連携装置は、
前記センサーユニットから送出されたインデックス情報を転送するサーバと、
前記記憶媒体から映像ファイルを読み込み、前記サーバから転送されたインデックス情
報に基づき、前記イベントの発生日時を含む所定期間の動画データを切り出し、当該動画
データにインデックス情報を付加したイベント動画情報を生成して、前記サーバに送出す
る端末装置と、
さらに備える、
ドライブレコーダー運用システム。
a sensor unit that transmits index information including information on events that occur in the vehicle;
a portable storage medium;
a drive recorder that generates a video file that sequentially photographs the surroundings of the vehicle and stores it in the storage medium;
a coordination device that links an event occurring in the vehicle with a video file stored in the storage medium based on index information sent from the sensor unit;
Equipped with
The cooperation device is
a server that transfers index information sent from the sensor unit;
Load the video file from the storage medium and read the index information transferred from the server.
Based on the information, cut out video data for a predetermined period including the date and time of the event, and
Generate event video information by adding index information to the data and send it to the server.
a terminal device,
further comprising;
Drive recorder operation system.
車両に生じたイベントの情報を含むインデックス情報を送出するセンサーユニットと、
可搬型の記憶媒体と、
前記車両の周辺を時間的に連続して撮影した映像ファイルを生成して前記記憶媒体に保
存するドライブレコーダーと、
前記センサーユニットから送出されたインデックス情報に基づき、前記車両に生じたイ
ベントと前記記憶媒体に保存された映像ファイルとを連携させる連携装置と、
を備え、
前記連携装置は、
前記センサーユニットから送出されたインデックス情報を転送するサーバと、
前記記憶媒体から映像ファイルを読み込み、前記サーバから転送されたインデックス情
報に基づき、前記イベントの発生日時を含む所定期間の動画データを切り出し、前記サー
バに送出する端末装置と、
をさらに備え、
前記サーバは、
前記端末装置から送出された動画データにインデックス情報を付加したイベント動画情報を生成する、
ドライブレコーダー運用システム。
a sensor unit that transmits index information including information on events that occur in the vehicle;
a portable storage medium;
Generating a video file of sequentially photographed surroundings of the vehicle and storing it in the storage medium;
The existing drive recorder and
Based on the index information sent from the sensor unit, the problem occurring in the vehicle is detected.
a coordination device that links the vent and the video file stored in the storage medium;
Equipped with
The cooperation device is
a server that transfers index information sent from the sensor unit;
Load the video file from the storage medium and read the index information transferred from the server.
Based on the information, cut out the video data for a predetermined period including the date and time of the event and send it to the server.
a terminal device for sending data to the server;
Furthermore,
The server is
generating event video information by adding index information to video data sent from the terminal device;
Drive recorder operation system.
前記センサーユニットは、前記イベントとして前記車両が衝撃を受けたことを検出する
加速度センサーを備え、
前記インデックス情報は、前記加速度センサーの検出値が所定値以上となったときの日
時情報を含む、
請求項1又は2に記載のドライブレコーダー運用システム。
The sensor unit includes an acceleration sensor that detects that the vehicle has received an impact as the event,
The index information includes date and time information when the detected value of the acceleration sensor exceeds a predetermined value.
The drive recorder operation system according to claim 1 or 2 .
前記センサーユニットは、前記車両の位置情報を取得する位置情報取得部を備え、
前記インデックス情報は、前記イベントが発生したときの前記位置情報を含む、
請求項に記載のドライブレコーダー運用システム。
The sensor unit includes a position information acquisition section that acquires position information of the vehicle,
the index information includes the location information when the event occurs;
The drive recorder operation system according to claim 3 .
JP2020108190A 2020-06-23 2020-06-23 Drive recorder operation system Active JP7447697B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020108190A JP7447697B2 (en) 2020-06-23 2020-06-23 Drive recorder operation system
PCT/JP2021/017824 WO2021261097A1 (en) 2020-06-23 2021-05-11 Drive recorder operating system
US18/082,614 US20230120235A1 (en) 2020-06-23 2022-12-16 Drive recorder operation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020108190A JP7447697B2 (en) 2020-06-23 2020-06-23 Drive recorder operation system

Publications (3)

Publication Number Publication Date
JP2022003750A JP2022003750A (en) 2022-01-11
JP2022003750A5 JP2022003750A5 (en) 2022-10-07
JP7447697B2 true JP7447697B2 (en) 2024-03-12

Family

ID=79247013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020108190A Active JP7447697B2 (en) 2020-06-23 2020-06-23 Drive recorder operation system

Country Status (1)

Country Link
JP (1) JP7447697B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015103089A (en) 2013-11-26 2015-06-04 富士通株式会社 Analysis support program, analysis support method, and analysis support apparatus
US9535878B1 (en) 2012-12-19 2017-01-03 Allstate Insurance Company Driving event data analysis
JP2019205078A (en) 2018-05-24 2019-11-28 株式会社ユピテル System and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7199091B2 (en) * 2018-12-14 2023-01-05 株式会社ユピテル system etc.

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9535878B1 (en) 2012-12-19 2017-01-03 Allstate Insurance Company Driving event data analysis
JP2015103089A (en) 2013-11-26 2015-06-04 富士通株式会社 Analysis support program, analysis support method, and analysis support apparatus
JP2019205078A (en) 2018-05-24 2019-11-28 株式会社ユピテル System and program

Also Published As

Publication number Publication date
JP2022003750A (en) 2022-01-11

Similar Documents

Publication Publication Date Title
EP3509039B1 (en) Driving condition recording apparatus
US8421864B2 (en) Operation management device to be mounted to a moving object, portable information terminal, operation management server, and computer program
JP6853494B2 (en) Drive recorder
US6141611A (en) Mobile vehicle accident data system
US20180053357A1 (en) Method for Sharing Real-Time Recording
US20110077819A1 (en) Data management device, data reading method and computer-readable medium
JP7447696B2 (en) Drive recorder operation system
KR101385299B1 (en) Smart blackbox system for reporting illegal activity
US11409699B2 (en) Drive recorder operation system, drive recorder, operation method, and recording medium for operation
US20230120235A1 (en) Drive recorder operation system
KR102327507B1 (en) Method for providing information for car accident and an apparatus for the same
CN110769423B (en) Automobile data recorder control method and device and automobile data recorder
WO2019146522A1 (en) Driving condition monitoring device, driving condition monitoring system, driving condition monitoring method and storage medium
EP2950251A1 (en) Method, apparatus and system for filling out an accident report form
JP7447697B2 (en) Drive recorder operation system
JP5240768B2 (en) Image storage device
JP6268904B2 (en) Image processing apparatus, image processing method, and image processing program
JP6793516B2 (en) Vehicle video transmission system and vehicle video transmission method
JP7666574B2 (en) Driving condition monitoring device, driving condition monitoring system, and driving condition monitoring method
JP6900942B2 (en) Drive recorder and image storage system
JP2020149518A (en) Specific video collection system, and specific video collection method
KR102097316B1 (en) Vehicle blackbox with active transmission function for accident video
EP4071735A1 (en) Storage control device, control method, program, and storage medium
US20200074482A1 (en) Method for enriching a digital content with spontaneous data
KR101431507B1 (en) System for transmitting image of car accident

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220929

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240212

R150 Certificate of patent or registration of utility model

Ref document number: 7447697

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150