[go: up one dir, main page]

WO2018020751A1 - 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム - Google Patents

車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム Download PDF

Info

Publication number
WO2018020751A1
WO2018020751A1 PCT/JP2017/015014 JP2017015014W WO2018020751A1 WO 2018020751 A1 WO2018020751 A1 WO 2018020751A1 JP 2017015014 W JP2017015014 W JP 2017015014W WO 2018020751 A1 WO2018020751 A1 WO 2018020751A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
video data
rear video
unit
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2017/015014
Other languages
English (en)
French (fr)
Inventor
昇 勝俣
泉 佐伯
英明 岡村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016146504A external-priority patent/JP2018019176A/ja
Priority claimed from JP2016146001A external-priority patent/JP2018019155A/ja
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Publication of WO2018020751A1 publication Critical patent/WO2018020751A1/ja
Priority to US16/170,164 priority Critical patent/US10730434B2/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/70Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8046Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for replacing a rear-view mirror system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits

Definitions

  • the present invention relates to a vehicle display control device, a vehicle display system, a vehicle display control method, and a program.
  • a technique related to a so-called electronic mirror that displays an image from a rear camera that captures a rear peripheral area of a vehicle is known.
  • the electronic mirror is a real image of a two-dimensional image, so it may be difficult to recognize the sense of distance of the subject and the driver may feel uncomfortable.
  • an in-vehicle display device that suppresses misrecognition of a sense of distance between the host vehicle and an object photographed by a camera is known (for example, see Patent Document 1).
  • Patent Document 1 There is also known a vehicular rearward viewing system that eliminates the complexity of the visual field adjustment operation and displays right and left rear images without a sense of incongruity (see, for example, Patent Document 2).
  • the driver looks at the rear view monitor and the left and right side view monitors to check the surroundings of the vehicle while driving. Since the rear view monitor and the left and right side view monitors are set apart from each other, the line of sight is moved to check the surroundings of the vehicle. In addition, the amount of information that the driver can recognize in a short time during driving is limited. Therefore, it is desirable to display an image with an appropriate amount of information on the rear view monitor and the left and right side view monitors at a timing when the driver needs information. Thus, a technique that enables confirmation of an appropriate vehicle periphery is desired.
  • the present invention has been made in view of the above, and an object of the present invention is to enable appropriate confirmation of the periphery of a vehicle.
  • a vehicle display control device is arranged so as to face the rear of the vehicle, and rear image data from a rear camera that captures the rear of the vehicle.
  • a rear video data acquisition unit for acquiring, and a rear side for acquiring side rear video data from a side rear camera that is arranged to face the rear of the vehicle on the left and right sides of the vehicle and captures the left and right sides of the vehicle.
  • the rear video data A video composition unit that synthesizes the side rear video data on the left and right sides of the vehicle, and a display control unit that displays the video data synthesized by the video synthesis unit on a display device that displays the rear video of the vehicle. And wherein the Rukoto.
  • a vehicle display system includes the vehicle display control device and at least one of the display device, the rear camera, and the side rear camera.
  • the vehicle display control method includes a rear video data acquisition step that is arranged to face the rear of the vehicle and acquires rear video data from a rear camera that captures the rear of the vehicle, and the left and right sides of the vehicle
  • a side rear video data acquisition step for acquiring side rear video data from a side rear camera that captures the left and right rear sides of the vehicle, and a side approaching from the rear of the vehicle.
  • the program according to the present invention is arranged so as to face the rear of the vehicle, acquires a rear video data from a rear camera that captures the rear of the vehicle, and the vehicle on the left and right sides of the vehicle.
  • a side rear image data acquisition step for acquiring side rear image data from a side rear camera for photographing the left and right rear sides of the vehicle, and detecting another vehicle approaching from the rear of the vehicle.
  • a display control step for displaying the video data synthesized in the video synthesizing step on a display device for displaying the rear video of the vehicle. It is executed by a computer that operates as a device.
  • FIG. 1 is a schematic diagram illustrating a configuration example of a vehicle display system according to the first embodiment.
  • FIG. 2 is a schematic diagram illustrating a configuration example of the vehicle display system according to the first embodiment.
  • FIG. 3 is a block diagram illustrating a configuration example of the vehicle display system according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of video data captured by the rear camera of the vehicle display system according to the first embodiment.
  • FIG. 5 is a diagram illustrating an example of an image displayed on the rear view monitor of the vehicle display system according to the first embodiment.
  • FIG. 6 is a diagram illustrating an example of an image displayed on the right side view monitor of the vehicle display system according to the first embodiment.
  • FIG. 1 is a schematic diagram illustrating a configuration example of a vehicle display system according to the first embodiment.
  • FIG. 2 is a schematic diagram illustrating a configuration example of the vehicle display system according to the first embodiment.
  • FIG. 3 is a block diagram illustrating a configuration example of the vehicle display
  • FIG. 7 is a diagram illustrating an example of an image displayed on the left side view monitor of the vehicle display system according to the first embodiment.
  • FIG. 8 is a diagram illustrating another example of an image displayed on the rear view monitor of the vehicle display system according to the first embodiment.
  • FIG. 9 is a flowchart showing the flow of processing in the control unit of the vehicle display control apparatus of the vehicle display system according to the first embodiment.
  • FIG. 10 is a flowchart showing the flow of processing in the control unit of the vehicle display control apparatus of the vehicle display system according to the second embodiment.
  • FIG. 11 is a flowchart showing the flow of processing in the control unit of the vehicle display control apparatus of the vehicle display system according to the third embodiment.
  • FIG. 12 is a flowchart showing a flow of processing in the control unit of the vehicle display control apparatus of the vehicle display system according to the fourth embodiment.
  • FIG. 13 is a diagram illustrating an example of an image displayed on the rear view monitor of the vehicle display system according to the fourth embodiment.
  • FIG. 14 is a flowchart showing the flow of processing in the control unit of the vehicle display control apparatus of the vehicle display system according to the fifth embodiment.
  • FIG. 15 is a flowchart illustrating a flow of processing in the control unit of the vehicle display control device of the vehicle display system according to the sixth embodiment.
  • FIG. 16 is a block diagram illustrating a configuration example of the vehicle display system according to the seventh embodiment.
  • FIG. 17 is a flowchart showing a flow of processing in the control unit of the vehicle display control device of the vehicle display system according to the seventh embodiment.
  • FIG. 18 is a diagram illustrating another example of video data captured by the rear camera of the vehicle display system according to the seventh embodiment.
  • FIG. 19 is a diagram illustrating another example of an image displayed on the rear view monitor of the vehicle display system according to the seventh embodiment.
  • FIG. 20 is a diagram illustrating another example of an image displayed on the right side view monitor of the vehicle display system according to the seventh embodiment.
  • FIG. 21 is a diagram illustrating another example of an image displayed on the left side view monitor of the vehicle display system according to the seventh embodiment.
  • FIG. 22 is a diagram showing another example of a video image displayed on the rear view monitor of the vehicle display system according to the seventh embodiment.
  • FIG. 23 is a flowchart showing the flow of processing in the control unit of the vehicle display control apparatus of the vehicle display system according to the eighth embodiment.
  • FIG. 24 is a diagram illustrating an example of video data captured by the rear camera of the vehicle display system according to the eighth embodiment.
  • FIG. 25 is a diagram illustrating an example of an image displayed on the rear view monitor of the vehicle display system according to the eighth embodiment.
  • FIG. 26 is a block diagram illustrating a configuration example of the vehicle display system according to the ninth embodiment.
  • FIG. 27 is a flowchart showing the flow of processing in the control unit of the vehicle display control apparatus of the vehicle display system according to the ninth embodiment.
  • FIG. 28 is a diagram illustrating an example of video data captured by the rear camera of the vehicle display system according to the ninth embodiment.
  • FIG. 29 is a diagram illustrating an example of an image displayed on the rear view monitor of the vehicle display system according to the ninth embodiment.
  • FIG. 30 is a flowchart showing a process flow in the control unit of the vehicle display control apparatus of the vehicle display system according to the tenth embodiment.
  • FIG. 31 is a flowchart showing a flow of processing in the control unit of the vehicle display control apparatus of the vehicle display system according to the eleventh embodiment.
  • FIG. 32 is a diagram illustrating an example of video data captured by the rear camera of the vehicle display system according to the eleventh embodiment.
  • FIG. 33 is a diagram illustrating an example of an image displayed on the rear view monitor of the vehicle display system according to the eleventh embodiment.
  • FIG. 34 is a flowchart showing the flow of processing in the control unit of the vehicle display control apparatus of the vehicle display system according to the twelfth embodiment.
  • FIG. 35 is a diagram illustrating an example of an image displayed on the rear view monitor of the vehicle display system according to the twelfth embodiment.
  • FIG. 36 is a diagram illustrating another example of an image displayed on the rear view monitor of the vehicle display system according to the twelfth embodiment.
  • FIG. 37 is a flowchart illustrating a process flow in the control unit of the vehicle display control apparatus of the vehicle display system according to the thirteenth embodiment.
  • FIG. 1 is a schematic diagram illustrating a configuration example of a vehicle display system according to the first embodiment.
  • FIG. 2 is a schematic diagram illustrating a configuration example of the vehicle display system according to the first embodiment.
  • FIG. 3 is a block diagram illustrating a configuration example of the vehicle display system according to the first embodiment.
  • the vehicle display system 1 includes a rear camera 110, a right rear camera (side rear camera) 120, a left rear camera (side rear camera) 130, and a rear view monitor (display device). 140, a right side view monitor (side rear confirmation device) 150, a left side view monitor (side rear confirmation device) 160, a recognition dictionary storage unit 300, and the vehicle display control device 10.
  • the rear camera 110 is disposed behind the vehicle 100 so as to face the rear, and images the rear of the vehicle 100.
  • the rear camera 110 has a horizontal angle of view of 90 to 180 °, for example, and a vertical angle of view of 45 to 90 °, for example.
  • the rear camera 110 captures first video data (rear video data) 110A as shown in FIG.
  • FIG. 4 is a diagram illustrating an example of video data captured by the rear camera of the vehicle display system according to the first embodiment.
  • the rear camera 110 can shoot an image in a wider range than the range displayed on the rear view monitor 140, but the rear view monitor 140 is used to cut out a range in which the driver of the vehicle 100 can properly recognize the rear. 140.
  • the rear camera 110 outputs the captured first video data 110 ⁇ / b> A to the rear video data acquisition unit 42 of the video data acquisition unit 40 of the vehicle display control device 10.
  • the right rear camera 120 is arranged to face the right side of the vehicle 100 and photographs the right side of the vehicle 100.
  • the right rear camera 120 captures a confirmation range by the right side view monitor 150.
  • the right rear camera 120 has a horizontal angle of view of, for example, 15 to 45 °, and a vertical angle of view of, for example, 15 to 45 °.
  • the right rear camera 120 is adjustable in angle.
  • the right rear camera 120 outputs the captured video (side rear video data) to the side rear video data acquisition unit 41 of the video data acquisition unit 40 of the vehicle display control device 10.
  • the left rear camera 130 is arranged to face the left side of the vehicle 100 and photographs the left side of the vehicle 100.
  • the left rear camera 130 captures a confirmation range by the left side view monitor 160.
  • the left rear camera 130 has a horizontal field angle of 15 to 45 °, for example, and a vertical field angle of 15 to 45 °, for example.
  • the left rear camera 130 is adjustable in angle.
  • the left rear camera 130 outputs the captured video (side rear video data) to the side rear video data acquisition unit 41 of the video data acquisition unit 40 of the vehicle display control device 10.
  • the rear view monitor 140 is an electronic room mirror as an example. When the rear view monitor 140 is used as an electronic room mirror, it does not matter whether there is a half mirror for confirming the rear by optical reflection.
  • the rear view monitor 140 is a display including, for example, a liquid crystal display (LCD: Liquid Crystal Display) or an organic EL (Organic Electro-Luminescence) display.
  • the rear view monitor 140 displays a rear image of the vehicle 100 based on the video signal output from the display control unit 70 of the vehicle display control device 10. Specifically, the rear view monitor 140 displays a rear image as shown in FIG.
  • FIG. 5 is a diagram illustrating an example of an image displayed on the rear view monitor of the vehicle display system according to the first embodiment.
  • the rear view monitor 140 is disposed at a position that is easily visible to the driver.
  • the rear view monitor 140 is disposed at the center upper portion of the windshield 101 in the vehicle width direction.
  • the rear view monitor 140 may be embedded in the dashboard 102 or the head liner.
  • the size and shape of the rear view monitor 140 are not limited.
  • the rear view monitor 140 may be the same size and shape as a conventional optical room mirror.
  • the rear view monitor 140 may be wider in the vehicle width direction than a conventional optical rearview mirror.
  • the rear view monitor 140 may be wider in the vertical direction than a conventional optical room mirror.
  • the right side view monitor 150 is a display including a liquid crystal display or an organic EL display, for example.
  • the right side view monitor 150 displays a right rear video of the vehicle 100 based on the video signal output from the display control unit 70 of the vehicle display control device 10.
  • the right side view monitor 150 displays a right rear video as shown in FIG.
  • FIG. 6 is a diagram illustrating an example of an image displayed on the right side view monitor of the vehicle display system according to the first embodiment.
  • the vehicle body 100R on the right side of the vehicle 100 is reflected.
  • the right side view monitor 150 is disposed at a position that is easily visible to the driver.
  • the right side view monitor 150 is disposed on the right side of the dashboard 102 in the vehicle width direction.
  • the left side view monitor 160 is a display including a liquid crystal display or an organic EL display, for example.
  • the left side view monitor 160 displays a left rear video of the vehicle 100 based on the video signal output from the display control unit 70 of the vehicle display control device 10.
  • the left side view monitor 160 displays a left rear image as shown in FIG.
  • FIG. 7 is a diagram illustrating an example of an image displayed on the left side view monitor of the vehicle display system according to the first embodiment.
  • the vehicle body 100L on the left side of the vehicle 100 is reflected.
  • the left side view monitor 160 is disposed at a position that is easily visible to the driver.
  • the left side view monitor 160 is disposed on the left side of the dashboard 102 in the vehicle width direction.
  • the recognition dictionary storage unit 300 stores, for example, a recognition dictionary that can collate patterns such as the shape, size, and color of the vehicle 100 when viewed from the front.
  • the recognition dictionary storage unit 300 is, for example, a semiconductor memory device such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory (Flash Memory), a hard disk, an optical disk, an external storage device via a network, or the like. It is a storage device.
  • the vehicle display control device 10 includes a storage unit 20 and a control unit 30.
  • the storage unit 20 stores data and various processing results required for various processes in the vehicle display control apparatus 10.
  • the storage unit 20 is, for example, a semiconductor memory device such as a RAM, a ROM, or a flash memory, or a storage device such as a hard disk, an optical disk, or an external storage device via a network.
  • a semiconductor memory device such as a RAM, a ROM, or a flash memory
  • a storage device such as a hard disk, an optical disk, or an external storage device via a network.
  • an external storage device that is wirelessly connected via a communication device (not shown) may be used.
  • the control unit 30 is an arithmetic processing unit configured by, for example, a CPU (Central Processing Unit).
  • the control unit 30 includes a video data acquisition unit 40, a video processing unit 50, a proximity other vehicle detection unit 60 that is a situation detection unit that detects a situation around the vehicle, and a display control unit 70.
  • the control unit 30 executes instructions included in the program stored in the storage unit 20.
  • the video data acquisition unit 40 acquires video images of the rear and side rear of the vehicle 100.
  • the video data acquired by the video data acquisition unit 40 is, for example, video data in which images of 60 frames per second are continuous.
  • the video data acquisition unit 40 includes a side rear video data acquisition unit 41 and a rear video data acquisition unit 42.
  • the side rear video data acquisition unit 41 acquires the second video data output from the right rear camera 120 and the left rear camera 130.
  • the side rear video data acquisition unit 41 outputs the acquired second video data to the cutout unit 51.
  • the rear video data acquisition unit 42 acquires the first video data 110 ⁇ / b> A output from the rear camera 110.
  • the rear video data acquisition unit 42 outputs the acquired first video data 110 ⁇ / b> A to the cutout unit 51.
  • the cutout unit 51 cuts out the rear video data 110B matched to the rear view monitor 140 from the first video data 110A.
  • the cutout unit 51 cuts out a part of the first video data 110A from the first video data 110A. Which range of the first video data 110A is to be cut out is registered and stored in advance. In the present embodiment, the central portion of the first video data 110A is cut out.
  • the cutout unit 51 outputs the cut out rear video data 110 ⁇ / b> B to the video composition unit 52 and the display control unit 70.
  • the cutout unit 51 cuts out the right rear video data 120B and the left rear video data 130B in accordance with the right side view monitor 150 and the left side view monitor 160 from the second video data.
  • the cutout unit 51 cuts out a part of the second video data from the second video data. Which range of the second video data is to be cut out is registered and stored in advance.
  • the cutout unit 51 outputs the cut out right rear video data 120B and the left rear video data 130B to the video composition unit 52 and the display control unit 70.
  • the rear video data 110B, the right rear video data 120B, and the left rear video data 130B cut out by the cutout unit 51 are synchronized.
  • the video composition unit 52 generates the rear video data 110C by compositing the right rear video data 120B and the left rear video data 130B on the left and right upper sides of the rear video data 110B in accordance with the detection result of the proximity other vehicle detection unit 60.
  • the video composition unit 52 detects the right rear video data 120B and the left rear video above the left and right of the rear video data 110B.
  • the rear video data 110C obtained by combining the data 130B is generated.
  • the video composition unit 52 generates the synthesized rear video data 110C as shown in FIG.
  • FIG. 8 is a diagram illustrating another example of an image displayed on the rear view monitor of the vehicle display system according to the first embodiment.
  • the size of the right rear video data 120B and the left rear video data 130B in the synthesized rear video data 110C is about half of the upper size in the vertical size of the display surface of the rear view monitor 140. .
  • the size of the right rear video data 120B and the left rear video data 130B in the synthesized rear video data 110C is about one third of the horizontal size of the display surface of the rear view monitor 140.
  • the video composition unit 52 outputs the synthesized rear video data 110 ⁇ / b> C to the display control unit 70.
  • the range in which the driver needs to confirm safety during driving is the range of the center portion and the left and right lower portions of the rear video data 110B.
  • the center portion of the rear video data 110B includes a vanishing point when the travel path is straight ahead.
  • the upper left and right range of the rear video data 110B is less necessary for the driver to confirm safety during driving. Therefore, the video composition unit 52 synthesizes the right rear video data 120B and the left rear video data 130B on the left and right upper sides of the rear video data 110B.
  • the size of the right rear video data 120B and the left rear video data 130B in the synthesized rear video data 110C is about one half above the vertical size of the display surface of the rear view monitor 140, and the range in which the images overlap Is made smaller.
  • the size of the right rear video data 120B and the left rear video data 130B in the synthesized rear video data 110C is about one third of the horizontal size of the display surface of the rear view monitor 140. The overlapping range is made smaller.
  • the right rear video data 120B and the left rear video data 130B may be surrounded by a frame line or the like so that the boundary between the rear video data 110B, the right rear video data 120B, and the left rear video data 130B is clear. It is effective.
  • the proximity other vehicle detection unit 60 detects another vehicle approaching from the rear of the vehicle 100 from the rear video data 110B.
  • the proximity other vehicle detection unit 60 performs vehicle recognition processing in the rear video data 110 ⁇ / b> B, and detects other vehicles that are approaching from the rear of the vehicle 100. More specifically, the proximity other vehicle detection unit 60 performs pattern matching using the recognition dictionary stored in the recognition dictionary storage unit 300 on the rear video data 110 ⁇ / b> B, and detects other vehicles approaching from the rear of the vehicle 100. Detect presence.
  • the proximity other vehicle detection unit 60 tracks the detected other vehicle by image processing.
  • the proximity other vehicle detection unit 60 outputs the detection result to the video composition unit 52.
  • the proximity other vehicle detection unit 60 detects the other vehicle closest to the vehicle 100 in each of the left and right of the rear video data 110B among the plurality of detected other vehicles. May be. For example, the proximity other vehicle detection unit 60 determines the distance from the vehicle 100 to another vehicle in which the ground contact position of each of the detected other vehicles is located at the lowest position in the rear video data 110B in the left and right sides of the rear video data 110B. It is good also as other vehicles with the smallest.
  • the display control unit 70 outputs the rear video data 110B or the rear video data 110C synthesized by the video synthesis unit 52 to the rear view monitor 140 every frame or every predetermined frame.
  • the display control unit 70 displays the right rear video data 120B on the right side view monitor 150 every frame or every predetermined frame. In other words, the display control unit 70 causes the right side view monitor 150 to display the right rear video data 120B based on the second video data captured by the right rear camera 120.
  • the display control unit 70 displays the left rear video data 130B on the left side view monitor 160 every frame or every predetermined frame. In other words, the display control unit 70 causes the left side view monitor 160 to display the left rear video data 130 ⁇ / b> B based on the second video data captured by the left rear camera 130.
  • the display control unit 70 is displayed on the rear video data 110B or the synthesized rear video data 110C displayed on the rear view monitor 140, the right rear video data 120B displayed on the right side view monitor 150, and the left side view monitor 160.
  • the display is controlled so as to be synchronized with the left rear video data 130B.
  • FIG. 9 is a flowchart showing the flow of processing in the control unit of the vehicle display control apparatus of the vehicle display system according to the first embodiment.
  • the rear video data 110B is displayed on the rear view monitor 140
  • the right rear video data 120B is displayed on the right side view monitor 150
  • the left video is displayed on the left side view monitor 160.
  • the control unit 30 continues to detect other vehicles approaching from the rear. More specifically, in the proximity other vehicle detection unit 60, the control unit 30 always detects another vehicle from the rear video data 110B.
  • Control unit 30 determines the presence or absence of another vehicle that is approaching from behind (step S11). More specifically, the control unit 30 determines whether another vehicle approaching from the rear of the vehicle 100 is detected based on the detection result of the proximity other vehicle detection unit 60. For example, the size of the vehicle width direction of the other vehicle detected by the proximity other vehicle detection unit 60 is greater than or equal to a predetermined ratio with respect to the size of the rear image data 110B in the horizontal width direction, or the control unit 30 determines the vehicle width direction of the other vehicle. Is greater than or equal to a predetermined ratio with respect to the number of pixels in the horizontal width direction of the rear video data 110B, it is determined that the other vehicle is close to the vehicle 100.
  • the control unit 30 ends this process.
  • the end of this processing is a state in which the rear video data 110B is displayed on the rear view monitor 140, the right rear video data 120B is displayed on the right side view monitor 150, and the left rear video data 130B is displayed on the left side view monitor 160. It is to be done.
  • the control unit 30 proceeds to Step S12.
  • step S12 When it is determined in step S11 that there is another vehicle approaching from behind, the control unit 30 generates the synthesized rear video data 110C (step S12). More specifically, the control unit 30 causes the cutout unit 51 to cut out the rear video data 110B from the first video data 110A. Then, the control unit 30 causes the video composition unit 52 to generate the rear video data 110C obtained by combining the right rear video data 120B and the left rear video data 130B on the left and right upper sides of the rear video data 110B.
  • the control unit 30 displays the synthesized rear video data 110C generated in step S12 (step S13). More specifically, the control unit 30 causes the display control unit 70 to display the normal rear video data 110B or the synthesized rear video data 110C on the rear view monitor 140.
  • the proximity other vehicle detection unit 60 continues to detect other vehicles even after it is determined in step S11 that there is another vehicle approaching from behind. More specifically, the control unit 30 continues to detect other vehicles at the proximity other vehicle detection unit 60.
  • step S13 during the period in which the synthesized rear video data 110C is displayed, the control unit 30 continues to determine whether there is another vehicle approaching from behind based on the detection result detected by the near other vehicle detection unit 60. To do. If the other vehicle detected in step S11 continues to approach by this processing, or if another new vehicle is detected, the processing of step S12 and step S13 is continued.
  • the control unit 30 performs the determination in step S11 every predetermined time, for example, every 0.5 seconds, and when the answer is Yes in step S11, the rear camera 110, The processing in step S12 and step S13 is performed on all frames of video captured by the right rear camera 120 and the left rear camera 130.
  • the vehicle display system 1 displays the synthesized rear image data 110C on the display surface of the rear view monitor 140 when another vehicle approaching from behind is detected.
  • the right rear video data 120B and the left rear video data 130B are synthesized on the left and right upper sides of the rear video data 110B.
  • the rear video data 110C is displayed on the display surface of the rear view monitor 140.
  • this embodiment can confirm the side rear of the vehicle 100 with the back of the vehicle 100 on the display surface of the rear view monitor 140, when the other vehicle which adjoins from back is detected. For this reason, this embodiment can suppress a driver
  • the synthesized rear video data 110C is displayed on the display surface of the rear view monitor 140.
  • the rear side of the vehicle 100 can be displayed on the display surface of the rear view monitor 140 together with the rear side of the vehicle 100 automatically regardless of the operation by the driver.
  • the vehicle display system 1 can make it possible to check the vicinity of the appropriate vehicle 100.
  • the synthesized rear video data 110C is displayed on the display surface of the rear view monitor 140.
  • the rear video data 110B is displayed. For this reason, this embodiment can display an image with an appropriate amount of information at the timing required by the driver when another vehicle approaching from behind is detected.
  • the video composition unit 52 synthesizes the right rear video data 120B and the left rear video data 130B on the left and right upper sides of the rear video data 110B.
  • the video composition unit 52 reduces the range below the vanishing point of the rear video data 110B so that the right rear video data 120B and the left rear video data 130B overlap.
  • the priority of the backward confirmation at the time of backward movement is low, and the confirmation by the right rear video data 120B and the left rear video data 130B is more appropriate.
  • the range in which the driver needs to confirm safety while driving is the same as that of the conventional optical rearview mirror, regardless of the presence or absence of other vehicles approaching from behind. be able to.
  • the synthesized rear video data 110C is displayed on the display surface of the rear view monitor 140.
  • the image displayed on the display surface of the rear view monitor 140 is switched, so that it is easily recognized that the other vehicle is approaching from the rear. be able to.
  • FIG. 10 is a flowchart showing the flow of processing in the control unit of the vehicle display control apparatus of the vehicle display system according to the second embodiment.
  • the vehicle display system 1 according to the present embodiment has the same basic configuration as the vehicle display system 1 of the first embodiment. In the following description, the same components as those of the vehicle display system 1 are denoted by the same reference numerals or corresponding reference numerals, and detailed description thereof is omitted.
  • the vehicle display system 1 of the present embodiment is different from the vehicle display system 1 of the first embodiment in the information processing in the control unit 30.
  • the proximity other vehicle detection unit 60 detects the relative speed between the other vehicle and the vehicle 100 that are approaching from the rear of the vehicle 100.
  • the relative speed between the other vehicle and the vehicle 100 that are close to the rear of the vehicle 100 can be calculated based on, for example, a change in the size of the image of the other vehicle in the first image data 110A for each frame.
  • step S21, step S24, and step S25 in the flowchart shown in FIG. 10 is the same as the processing in step S11, step S12, and step S13 in the flowchart shown in FIG.
  • Control unit 30 acquires a relative speed with another vehicle (step S22). More specifically, the control unit 30 causes the proximity other vehicle detection unit 60 to detect the relative speed between the other vehicle and the vehicle 100 that approach from the rear of the vehicle 100.
  • Control unit 30 determines whether the relative speed with the other vehicle is equal to or higher than a predetermined value (step S23). More specifically, the control unit 30 determines whether or not the relative speed with the other vehicle approaching from the rear of the vehicle 100 is greater than or equal to a predetermined value based on the relative speed with the other vehicle acquired by the proximity other vehicle detection unit 60. judge.
  • the threshold value of the relative speed between the other vehicle and the vehicle 100 may be set stepwise corresponding to the traveling speed of the vehicle 100. In the present embodiment, the threshold of the relative speed between the other vehicle and the vehicle 100 is 5 km / h when the traveling speed is less than 60 km / h, and 10 km / h when the traveling speed is 60 km / h or more.
  • step S23 When it is determined that the relative speed with other vehicles approaching from the rear is less than a predetermined value (No in step S23), the control unit 30 executes the process of step S21 again. Even in the case of No in step S ⁇ b> 23, the control unit 30 continues to determine whether there is another vehicle approaching from the rear based on the detection result detected by the approaching other vehicle detection unit 60. This process also corresponds to a case where another nearby vehicle detected in step S21 continues to approach, or a case where a new nearby vehicle is detected. If the control unit 30 determines that the relative speed with another vehicle approaching from the rear is greater than or equal to a predetermined value (Yes in step S23), the control unit 30 proceeds to step S24.
  • the vehicle display system 1 displays the synthesized rear image data 110C on the display surface of the rear view monitor 140 when the relative speed between the vehicle 100 approaching from the rear and the vehicle 100 is equal to or higher than a predetermined value.
  • the right rear video data 120B and the left rear video data 130B are combined on the left and right upper sides of the rear video data 110B when the relative speed between the other vehicle approaching from the rear and the vehicle 100 is equal to or higher than a predetermined value. Then, the synthesized rear image data 110C is displayed on the display surface of the rear view monitor 140.
  • the rear side of the vehicle 100 is confirmed on the display surface of the rear view monitor 140 along with the rear of the vehicle 100. Can do. For this reason, this embodiment can suppress a driver
  • the vehicle display system 1 can make it possible to check the vicinity of the appropriate vehicle 100.
  • FIG. 11 is a flowchart showing the flow of processing in the control unit of the vehicle display control apparatus of the vehicle display system according to the third embodiment.
  • the vehicle display system 1 of the present embodiment is different from the vehicle display system 1 of the first embodiment in the information processing in the control unit 30.
  • the proximity other vehicle detection unit 60 detects the distance between the vehicle 100 and another vehicle that is approaching from behind the vehicle 100.
  • the distance between the vehicle 100 and the other vehicle that is approaching from the rear of the vehicle 100 is, for example, the size of the image of the other vehicle in the first video data 110A and the size of the rear moving body stored in the recognition dictionary storage unit 300. Based on this, it is possible to calculate.
  • step S31, step S34, and step S35 of the flowchart shown in FIG. 11 is the same as the process of step S11, step S12, and step S13 of the flowchart shown in FIG.
  • the control unit 30 acquires the distance from the other vehicle (step S32). More specifically, the control unit 30 causes the proximity other vehicle detection unit 60 to detect the distance between the other vehicle and the vehicle 100 that are approaching from the rear of the vehicle 100.
  • Control unit 30 determines whether or not the distance between the other vehicle and vehicle 100 is less than a predetermined value (step S33). More specifically, the control unit 30 determines whether or not the distance between the vehicle 100 approaching from the rear of the vehicle 100 and the vehicle 100 is less than a predetermined value based on the distance from the other vehicle acquired by the proximity other vehicle detection unit 60. Determine.
  • the threshold of the distance between the other vehicle and the vehicle 100 may be set in a stepwise manner corresponding to the traveling speed of the vehicle 100. In this embodiment, the threshold of the distance between the other vehicle and the vehicle 100 is 10 m when the traveling speed is less than 60 km / h, and 20 m when the traveling speed is 60 km / h or more.
  • step S33 When it is determined that the distance between the vehicle 100 approaching from behind and the vehicle 100 is greater than or equal to a predetermined distance (No in step S33), the control unit 30 executes the process of step S31 again. Even in the case of No in step S ⁇ b> 33, the control unit 30 continues to determine whether there is another vehicle approaching from the rear based on the detection result detected by the approaching other vehicle detection unit 60. This process also corresponds to a case where another nearby vehicle detected in step S31 continues to approach, or a case where another nearby vehicle is newly detected. If the control unit 30 determines that the distance between the other vehicle that is approaching from the rear and the vehicle 100 is less than the predetermined value (Yes in step S33), the control unit 30 proceeds to step S34.
  • the vehicle display system 1 displays the synthesized rear image data 110C on the display surface of the rear view monitor 140 when the distance between the vehicle 100 approaching from the rear and the vehicle 100 is less than a predetermined distance.
  • the vehicle display system 1 can make it possible to check the vicinity of the appropriate vehicle 100.
  • FIG. 12 is a flowchart showing a flow of processing in the control unit of the vehicle display control apparatus of the vehicle display system according to the fourth embodiment.
  • FIG. 13 is a diagram illustrating an example of an image displayed on the rear view monitor of the vehicle display system according to the fourth embodiment.
  • the vehicle display system 1 of the present embodiment is different from the vehicle display system 1 of the third embodiment in information processing in the control unit 30.
  • the video composition unit 52 corresponds to the detection direction of the other vehicle in the synthesized rear video data 110C when the distance between the vehicle 100 approaching from the rear and the vehicle 100 detected from the rear other vehicle detection unit 60 is less than a predetermined value. At least one of the right rear video data 120B and the left rear video data 130B is enlarged and displayed. More specifically, the video composition unit 52 combines the rear when the proximity other vehicle detection unit 60 detects the other vehicle that is close to the rear from the rear of the rear video data 110B when the distance from the vehicle 100 is less than a predetermined distance.
  • the left rear video data 130B is enlarged in the composite range of the left rear video data 130B of the video data 110C.
  • the video synthesis unit 52 When the proximity other vehicle detection unit 60 detects the other vehicle approaching from the rear to the right side of the rear video data 110B when the proximity other vehicle detection unit 60 has a distance less than a predetermined distance from the vehicle 100, the video synthesis unit 52 The right rear video data 120B is enlarged in the synthesis range of the right rear video data 120B. In the present embodiment, the lower side of the vehicle 100 side of the right rear video data 120B and the left rear video data 130B corresponding to the direction in which another vehicle is detected that is close to the rear and whose distance from the vehicle 100 is less than a predetermined distance is used as a reference. Expanding. The video compositing unit 52 outputs the composited rear video data 110 ⁇ / b> C ⁇ b> 2 in which the direction in which another vehicle is detected that is less than the predetermined distance from the vehicle 100 is expanded to the display control unit 70.
  • the proximity other vehicle detection unit 60 acquires the detection position of the other vehicle in the rear video data 110B when detecting another vehicle approaching from the rear of the vehicle 100 from the rear video data 110B. More specifically, the proximity other vehicle detection unit 60 determines from the rear video data 110B whether the other vehicle that is approaching from the rear of the vehicle 100 and the detection position of the other vehicle are on the left side or the right side of the rear video data 110B. To get.
  • step S41, step S42, step S43, step S44, and step S45 of the flowchart shown in FIG. 12 is the same as the processing of step S31, step S34, step S35, step S32, and step S33 of the flowchart shown in FIG. .
  • Control unit 30 determines the presence or absence of other vehicles in close proximity (step S41). When it is determined that there is another vehicle in the vicinity (Yes in Step S41), the control unit 30 generates the synthesized rear video data 110C (Step S42) and displays the synthesized rear video data 110C (Step S43). .
  • the control unit 30 determines whether or not the distance between the other vehicle and the vehicle 100 is less than a predetermined value relative to the other vehicle approaching from the rear detected in step S41 (step S45). When it is determined that the distance between the vehicle 100 approaching from behind and the vehicle 100 is equal to or greater than the predetermined value (No in step S45), the control unit 30 executes the process of step S41 again. If the control unit 30 determines that the distance between the other vehicle approaching from the rear and the vehicle 100 is less than the predetermined value (Yes in step S45), the control unit 30 proceeds to step S46.
  • the control unit 30 enlarges the displayed video in the synthesis range of at least one of the right rear video data 120B and the left rear video data 130B corresponding to the detection direction (step S46). More specifically, the control unit 30 generates the right rear video in the synthesis range of either the right rear video data 120B or the left rear video data 130B corresponding to the detection direction of the synthesized rear video data 110C generated in step S42. The displayed video of the data 120B or the left rear video data 130B is enlarged to generate the synthesized rear video data 110C2. In the present embodiment, the control unit 30 enlarges the video displayed in the synthesis range of the left rear video data 130B corresponding to the detection direction of the synthesized rear video data 110C, for example, as shown in FIG. Data 110C2 is generated. In the process of enlarging the displayed video, the cutout range in the cutout unit 51 is narrowed and cut out, and the right rear video data 120B or the left rear video data 130B cut out is enlarged and displayed.
  • the vehicle display system 1 has the right rear video data 120B corresponding to the detection direction when the distance between the other vehicle approaching from the rear detected by the proximity other vehicle detection unit 60 and the vehicle 100 is less than a predetermined value.
  • the synthesized rear video data 110C2 in which the left rear video data 130B is enlarged is displayed on the display surface of the rear view monitor 140.
  • the present embodiment when the distance between the vehicle 100 approaching from the rear and the vehicle 100 detected by the proximity other vehicle detection unit 60 is less than a predetermined value, the right rear video data 120B corresponding to the detection direction of the other vehicle.
  • the synthesized rear video data 110C2 in which the left rear video data 130B is enlarged is displayed on the display surface of the rear view monitor 140. For this reason, in the present embodiment, it is possible to easily check other vehicles approaching from the rear on the display surface of the rear view monitor 140. As described above, the present embodiment can make it possible to confirm the vicinity of the appropriate vehicle 100.
  • FIG. 14 is a flowchart showing the flow of processing in the control unit of the vehicle display control apparatus of the vehicle display system according to the fifth embodiment.
  • the vehicle display system 1 of the present embodiment is different from the vehicle display system 1 of the fourth embodiment in the information processing in the control unit 30.
  • the proximity other vehicle detection unit 60 detects the lane in which the vehicle 100 is traveling and the lane in which the other vehicle is traveling. More specifically, the near other vehicle detection unit 60 performs a lane recognition process on the first video data 110A to detect a lane. Or the proximity other vehicle detection part 60 may detect a lane based on information obtained from navigation information or an external server. The proximity other vehicle detection unit 60 detects other vehicles traveling in the lane adjacent to the lane in which the vehicle 100 is traveling from the rear video data 110B. The proximity other vehicle detection unit 60 may detect a lane excluding an opposite lane among lanes adjacent to the lane in which the vehicle 100 is traveling.
  • the right rear video data 120B or the left rear video data 130B corresponding to the left or right side corresponding to the lane direction of the other vehicle is synthesized on the upper left and right of the rear video data 110B.
  • step S52, step S53, step S54, and step S56 in the flowchart shown in FIG. 14 is the same as the processing in step S42, step S43, step S44, and step S46 in the flowchart shown in FIG.
  • the rear video data 110B is displayed on the rear view monitor 140
  • the right rear video data 120B is displayed on the right side view monitor 150
  • the left video is displayed on the left side view monitor 160.
  • the control unit 30 continues to detect other vehicles traveling in the adjacent lane. More specifically, the control unit 30 detects another vehicle traveling in a lane adjacent to the lane in which the vehicle 100 travels based on the detection result of the proximity other vehicle detection unit 60.
  • Control unit 30 determines whether or not there is another vehicle traveling in the adjacent lane (step S51). When it is determined that there is no other vehicle traveling in the adjacent lane (No in step S51), the control unit 30 ends this process. When it is determined that there is another vehicle traveling in the adjacent lane (Yes in Step S51), the control unit 30 proceeds to Step S52.
  • the control unit 30 determines whether or not the distance between the vehicle 100 and another vehicle traveling in a lane adjacent to the lane in which the vehicle 100 is traveling is less than a predetermined value (step S55). When it is determined that the distance between the vehicle 100 and another vehicle traveling in the lane adjacent to the lane in which the vehicle 100 is traveling is greater than or equal to the predetermined value (No in step S55), the control unit 30 performs the process of step S51. Run again. When it is determined that the distance between the vehicle 100 and another vehicle traveling in the lane adjacent to the lane in which the vehicle 100 is traveling is less than the predetermined value (Yes in step S55), the control unit 30 proceeds to step S56. .
  • the control unit 30 enlarges the displayed video in the synthesis range of at least one of the right rear video data 120B and the left rear video data 130B in the detection direction (step S56).
  • the vehicle display system 1 when the distance between the vehicle 100 and another vehicle traveling in the lane adjacent to the lane in which the vehicle 100 is traveling is less than a predetermined value, the vehicle display system 1 In addition, either the right rear video data 120B or the left rear video data 130B corresponding to the detection direction is synthesized.
  • the vehicle display system 1 can make it possible to check the vicinity of the appropriate vehicle 100.
  • FIG. 15 is a flowchart illustrating a flow of processing in the control unit of the vehicle display control device of the vehicle display system according to the sixth embodiment.
  • the vehicle display system 1 of the present embodiment is different from the vehicle display system 1 of the first embodiment in that it includes a travel state information acquisition unit (not shown).
  • the travel status information acquisition unit is a status detection unit.
  • the traveling state information acquisition unit acquires various traveling state information in the vehicle 100 by being connected to a CAN (Controller Area Network) provided in the vehicle 100 and acquiring OBD (On Board Diagnostics) II data.
  • the traveling state information acquisition unit acquires lane change schedule information of the vehicle 100 as the traveling state information of the vehicle 100. More specifically, the traveling state information acquisition unit acquires, for example, operation information for the direction indicator, lane change information for car navigation, and the like.
  • the traveling state information acquisition unit outputs the acquired traveling state to the video composition unit 52.
  • the rear video data 110B is displayed on the rear view monitor 140
  • the right rear video data 120B is displayed on the right side view monitor 150
  • the left video is displayed on the left side view monitor 160.
  • the control unit 30 continues to detect whether or not there is a lane change schedule. More specifically, the control unit 30 detects whether or not there is a lane change schedule based on the traveling state information acquired by the traveling state information acquisition unit.
  • the control unit 30 determines whether or not there is a lane change schedule (step S61). If it is determined that there is no lane change schedule (No in step S61), the control unit 30 ends this process. If it is determined that there is a lane change schedule (Yes in step S61), the control unit 30 proceeds to step S62.
  • Step S61 when it is determined that there is a lane change schedule (Yes in Step S61), the control unit 30 detects another vehicle approaching from the rear (Step S62).
  • the process of step S62 may be started when it is determined Yes in step S61, or may be constantly detected.
  • Step S61 when it is determined that there is a lane change schedule (Yes in Step S61), the traveling state information acquisition unit starts detecting the end of the lane change with respect to the lane change schedule. Detection of the end of lane change is performed based on the positional relationship with the recognized white line by performing lane recognition processing from the first video data 110A acquired from the rear camera 110. Specifically, when it is determined that there is a lane change schedule, the lane change direction is included in the operation information for the direction indicator, the lane change information for car navigation, etc. It is determined that the lane change has been completed because the vehicle 100 has moved in the vehicle width direction.
  • Control unit 30 determines whether or not the lane change has been completed (step S66). If it is determined that the lane change has not ended (No in step S66), the process of step S66 is executed again. If it is determined that the lane change has been completed (Yes in step S66), the process of step S61 is executed again.
  • the vehicle display system 1 performs the processing after step S11 of the flowchart shown in FIG. 9 when there is a lane change schedule.
  • the process after step S11 of the flowchart shown in FIG. 9 is continued until the lane change is completed.
  • this embodiment when there is a lane change schedule, the processing after step S11 in the flowchart shown in FIG. 9 is performed. Thereby, this embodiment has a lane change plan and can display an image of an appropriate amount of information at a timing required by the driver.
  • FIG. 16 is a block diagram illustrating a configuration example of the vehicle display system according to the seventh embodiment.
  • the vehicle display control device 10A includes a storage unit 20 and a control unit 30A.
  • the control unit 30A includes a video data acquisition unit 40, a video processing unit 50, a traveling state information acquisition unit 60A, and a display control unit 70.
  • the video composition unit 52A generates the rear video data 110C obtained by compositing the right rear video data 120B and the left rear video data 130B on the left and right upper sides of the rear video data 110B according to the driving situation acquired by the driving situation information acquisition unit 60A. .
  • the video composition unit 52A when the traveling state information acquisition unit 60A acquires information indicating that the vehicle 100 moves backward, the right rear video data 120B and the left rear video on the left and right upper sides of the rear video data 110B.
  • the rear video data 110C obtained by combining the data 130B is generated.
  • the video composition unit 52A generates the synthesized rear video data 110C as shown in FIG.
  • the traveling status information acquisition unit 60A is a status detection unit.
  • the traveling state information acquisition unit 60A is connected to a CAN provided in the vehicle 100 and acquires OBDII data and the like, thereby acquiring various traveling state information in the vehicle 100.
  • the traveling state information acquisition unit 60 ⁇ / b> A acquires information indicating that the vehicle 100 moves backward as traveling state information of the vehicle 100. More specifically, the traveling state information acquisition unit 60A acquires shift position information or traveling direction information, for example.
  • the traveling state information acquisition unit 60A outputs the acquired traveling state information to the video composition unit 52A.
  • FIG. 17 is a flowchart showing a flow of processing in the control unit of the vehicle display control device of the vehicle display system according to the seventh embodiment.
  • the rear video data 110B is displayed on the rear view monitor 140, the right rear video data 120B on the right side view monitor 150, and the left side on the left side view monitor 160 while the vehicle 100 is operating.
  • This is a state in which the rear video data 130B is displayed.
  • the control unit 30A continues to acquire the traveling state by the traveling state information acquisition unit 60A. More specifically, the control unit 30A constantly monitors, for example, whether or not traveling state information including shift position information or traveling direction information has occurred in the traveling state information acquisition unit 60A.
  • the control unit 30A determines whether or not there is a reverse trigger (step SA11).
  • the reverse trigger means that, for example, the shift position is “reverse”.
  • the reverse trigger means that the traveling direction of the vehicle 100 is the rear of the vehicle 100 in the front-rear direction.
  • the control unit 30A determines the presence or absence of a reverse trigger based on the traveling state information acquired by the traveling state information acquisition unit 60A. When it is determined that there is no reverse trigger (No in step SA11), the control unit 30A executes the process of step SA11 again. When it is determined that there is a reverse trigger (Yes in Step SA11), the control unit 30A proceeds to Step SA12.
  • step SA12 the control unit 30A generates the synthesized rear video data 110C (step SA12). More specifically, the control unit 30A causes the cutout unit 51 to cut out the rear video data 110B from the first video data 110A. Then, the control unit 30A causes the video composition unit 52A to generate the rear video data 110C obtained by combining the right rear video data 120B and the left rear video data 130B on the left and right upper sides of the rear video data 110B.
  • the control unit 30A displays the synthesized rear video data 110C generated in step SA12 (step SA13). More specifically, the control unit 30A causes the display control unit 70 to display the normal rear video data 110B or the synthesized rear video data 110C on the rear view monitor 140.
  • the driving status information acquisition unit 60A continuously acquires the driving status even after it is determined in step SA11 that there is a reverse trigger. More specifically, the control unit 30A continues to acquire the traveling state with the traveling state information acquisition unit 60A.
  • step SA13 during the period in which the synthesized rear video data 110C is displayed, the control unit 30A determines the end of the reverse based on the traveling state information acquired by the traveling state information acquiring unit 60A (step SA14). More specifically, the control unit 30A determines release of the reverse trigger based on the traveling state information acquired by the traveling state information acquisition unit 60A. When it is determined that the reverse trigger is not released (No in step SA14), the control unit 30A continues to display the synthesized rear video data 110C. When it is determined that the reverse trigger is released (Yes in step SA14), the control unit 30A generates the rear video data 110B (step SA15) and displays the rear video data 110B (step SA16). ). That is, in steps SA15 and SA16, display of normal rear video data B is started and continued as before the backward trigger is detected in step SA11.
  • the control unit 30A repeats the above processing every time a reverse trigger is detected.
  • FIG. 18 is a diagram illustrating another example of video data captured by the rear camera of the vehicle display system according to the seventh embodiment.
  • FIG. 19 is a diagram illustrating another example of an image displayed on the rear view monitor of the vehicle display system according to the seventh embodiment.
  • FIG. 20 is a diagram illustrating another example of an image displayed on the right side view monitor of the vehicle display system according to the seventh embodiment.
  • FIG. 21 is a diagram illustrating another example of an image displayed on the left side view monitor of the vehicle display system according to the seventh embodiment.
  • FIG. 22 is a diagram showing another example of a video image displayed on the rear view monitor of the vehicle display system according to the seventh embodiment.
  • step SA11 the control unit 30A causes the cutout unit 51 to cut out the rear video data 110B shown in FIG. 19 from the first video data 110A shown in FIG. Then, the control unit 30A synthesizes the right rear video data 120B shown in FIG. 20 on the upper right of the rear video data 110B and the left rear video data 130B shown in FIG. 21 on the upper left in the video synthesis unit 52A. Thus, the synthesized rear video data 110C is generated.
  • step SA13 the control unit 30A causes the display control unit 70 to display the synthesized rear video data 110C shown in FIG. 22 on the display surface of the rear view monitor 140.
  • the vehicle display system 1A displays the synthesized rear video data 110C on the display surface of the rear view monitor 140 in accordance with the driving situation acquired by the driving condition information acquisition unit 60A.
  • the synthesized rear image data 110C is displayed on the display surface of the rear view monitor 140 in accordance with the traveling condition acquired by the traveling condition information acquisition unit 60A.
  • the rear video data 110C obtained by combining the right rear video data 120B and the left rear video data 130B on the left and right upper sides of the rear video data 110B is displayed on the display surface of the rear view monitor 140. Accordingly, in the present embodiment, when the vehicle 100 moves backward, the rear side of the vehicle 100 can be confirmed on the display surface of the rear view monitor 140 along with the rear of the vehicle 100. For this reason, this embodiment can suppress a driver
  • the vehicle display system 1 ⁇ / b> A can appropriately check the periphery of the vehicle 100.
  • the synthesized rear image data 110C is displayed on the display surface of the rear view monitor 140.
  • the rear side of the vehicle 100 can be displayed on the display surface of the rear view monitor 140 together with the rear side of the vehicle 100 automatically regardless of the operation by the driver.
  • the vehicle display system 1 ⁇ / b> A can appropriately check the periphery of the vehicle 100.
  • the synthesized rear video data 110C is displayed on the display surface of the rear view monitor 140.
  • the synthesized rear video data 110C is displayed, and in the other cases, the rear video data 110B is displayed.
  • this embodiment can display an image with an appropriate amount of information at the timing required by the driver when the vehicle 100 moves backward.
  • the video composition unit 52A synthesizes the right rear video data 120B and the left rear video data 130B on the left and right upper sides of the rear video data 110B.
  • the video composition unit 52A reduces the range below the vanishing point of the rear video data 110B so that the right rear video data 120B and the left rear video data 130B overlap.
  • the priority of the backward confirmation at the time of backward movement is low, and the confirmation by the right rear video data 120B and the left rear video data 130B is more appropriate.
  • this embodiment can confirm the back of the range where the necessity of safety confirmation during driving is high for the driver as in the case of the conventional optical room mirror, regardless of the traveling state.
  • FIG. 23 is a flowchart showing the flow of processing in the control unit of the vehicle display control apparatus of the vehicle display system according to the eighth embodiment.
  • FIG. 24 is a diagram illustrating an example of video data captured by the rear camera of the vehicle display system according to the eighth embodiment.
  • FIG. 25 is a diagram illustrating an example of an image displayed on the rear view monitor of the vehicle display system according to the eighth embodiment.
  • the vehicle display system 1A according to the present embodiment has the same basic configuration as the vehicle display system 1A according to the seventh embodiment.
  • the vehicle display system 1A of the present embodiment is different from the vehicle display system 1A of the seventh embodiment in information processing in the cutout unit 51 and the control unit 30A.
  • the cutout unit 51 sets the cutout range from the first video data 110A below the cutout range of the normal rear video data 110B according to the traveling state. More specifically, when the display control unit 70 displays the rear video data 110C synthesized by the video synthesis unit 52A, the cutout unit 51 cuts out the lower part than when displaying the normal rear video data 110B that is not synthesized. In this manner, the cut-out range from the first video data 110A is set. For example, the cutout range is set so as to include a predetermined pixel lower than the cutout range when displaying the normal uncombined rear video data 110B.
  • the cutout unit 51 sets a position closer to the vehicle 100 to be included in the cutout range.
  • the cutout unit 51 outputs the cut out rear video data 110B2 to the video composition unit 52A and the display control unit 70.
  • step SA21 and steps SA24 to SA27 in the flowchart shown in FIG. 23 are the same as the processes in step SA11 and steps SA13 to SA16 in the flowchart shown in FIG.
  • Control unit 30A shifts the cutout range downward and cuts back video data 110B2 (step SA22).
  • Control unit 30A generates synthesized rear video data 110C (step SA23). More specifically, the control unit 30A generates the rear video data 110C obtained by combining the right rear video data 120B and the left rear video data 130B on the left and right upper sides of the rear video data 110B2 cut out by the cutout unit 51.
  • step SA21 control unit 30A determines that there is a reverse trigger (Yes in step SA21). Then, in step SA22, the control unit 30A causes the cutout unit 51 to shift the cutout range of the rear video data 110B downward to cut out the rear video data 110B2 from the first video data 110A shown in FIG. .
  • step SA23 the control unit 30A causes the video composition unit 52A to generate the rear video data 110C obtained by synthesizing the right rear video data 120B and the left rear video data 130B on the left and right upper sides of the rear video data 110B2.
  • step SA24 the control unit 30A causes the display control unit 70 to display the synthesized rear video data 110C shown in FIG. 25 on the display surface of the rear view monitor 140.
  • the vehicle display system 1A cuts out the lower part of the normal rear image data 110B that has not been combined, and rearranges the combined rear image data 110C in the rear view according to the driving state acquired by the driving state information acquisition unit 60A. It is displayed on the display surface of the monitor 140.
  • the right rear video data 120B and the left rear video data 130B are synthesized on the left and right upper sides of the rear video data 110B2 that is extracted by shifting the cutout range downward.
  • the synthesized rear video data 110C is displayed on the display surface of the rear view monitor 140. Accordingly, in the present embodiment, the rear side including the position closer to the vehicle 100 can be confirmed on the display surface of the rear view monitor 140.
  • the vehicle display system 1 ⁇ / b> A can appropriately check the periphery of the vehicle 100.
  • FIG. 26 is a block diagram illustrating a configuration example of the vehicle display system according to the ninth embodiment.
  • FIG. 27 is a flowchart showing the flow of processing in the control unit of the vehicle display control apparatus of the vehicle display system according to the ninth embodiment.
  • FIG. 28 is a diagram illustrating an example of video data captured by the rear camera of the vehicle display system according to the ninth embodiment.
  • FIG. 29 is a diagram illustrating an example of an image displayed on the rear view monitor of the vehicle display system according to the ninth embodiment.
  • the vehicle display system 1B of the present embodiment is different from the vehicle display system 1A of the seventh embodiment in that it includes a detection unit 80B and a recognition dictionary storage unit 300 and information processing in the control unit 30B.
  • the recognition dictionary storage unit 300 stores a recognition dictionary that can collate patterns such as shapes, sizes, and colors of obstacles including vehicles, people, walls, curbs, plants, and the like.
  • the recognition dictionary storage unit 300 is, for example, a semiconductor memory device such as a RAM, a ROM, or a flash memory, or a storage device such as a hard disk, an optical disk, or an external storage device via a network.
  • the detection unit 80B detects an obstacle on the left and right sides of the rear video data 110B.
  • the left and right sides of the rear video data 110 ⁇ / b> B are ranges that overlap with the confirmation range by the right side view monitor 150 or the left side view monitor 160.
  • the left and right sides of the rear video data 110B are about one third of the left and right in the horizontal size of the rear video data 110B.
  • the detection unit 80B performs obstacle recognition processing on the left and right sides of the rear video data 110B to detect obstacles. More specifically, the detection unit 80B performs pattern matching using the recognition dictionary stored in the recognition dictionary storage unit 300 on the left and right sides of the rear video data 110B, and detects the presence of an obstacle.
  • the detection unit 80B tracks the detected obstacle by image processing.
  • the detection unit 80B outputs the detection result to the video composition unit 52B.
  • the video composition unit 52B has at least one of the right rear video data 120B and the left rear video data 130B corresponding to the direction in which the obstacle is detected in the synthesized rear video data 110C. Enlarge the display. More specifically, when the detection unit 80B detects an obstacle on the left side of the rear video data 110B, the video synthesis unit 52B detects the left rear video in the synthesis range of the left rear video data 130B of the synthesized rear video data 110C. The data 130B is expanded.
  • the video synthesis unit 52B expands the right rear video data 120B in the synthesis range of the right rear video data 120B of the synthesized rear video data 110C. To do.
  • the right rear video data 120B and the left rear video data 130B corresponding to the direction in which the obstacle is detected are enlarged on the basis of the lower side on the vehicle 100 side.
  • the video composition unit 52B outputs the synthesized rear video data 110C3 in which the direction in which the obstacle is detected is enlarged to the display control unit 70.
  • the control unit 30B determines whether an obstacle is detected on the left and right sides of the rear video data 110B (step SA34). More specifically, the control unit 30B determines whether the detection unit 80B has detected an obstacle on the left and right sides of the rear video data 110B. When it is determined by the detection unit 80B that no obstacle has been detected on the left and right sides of the rear video data 110B (No in step SA34), the control unit 30B proceeds to step SA36. When it is determined by the detection unit 80B that the detection unit 80B has detected an obstacle on the left and right sides of the rear video data 110B (Yes in step SA34), the control unit 30B proceeds to step SA35.
  • the control unit 30B enlarges the displayed video in the combined range of at least one of the right rear video data 120B and the left rear video data 130B in the detection direction (step SA35).
  • the control unit 30B generates the right rear video in the synthesis range of either the right rear video data 120B or the left rear video data 130B corresponding to the detection direction of the synthesized rear video data 110C generated in step SA32.
  • the displayed video of the data 120B or the left rear video data 130B is enlarged to generate the synthesized rear video data 110C3.
  • the cutout range in the cutout unit 51 is narrowed and cut out, and the right rear video data 120B or the left rear video data 130B cut out narrowly is enlarged and displayed.
  • step SA31 control unit 30B determines that there is a reverse trigger (Yes in step SA31).
  • step SA32 the control unit 30B causes the cutout unit 51 to cut out the rear video data 110B from the first video data 110A shown in FIG.
  • step SA32 the control unit 30B causes the video composition unit 52B to generate the rear video data 110C obtained by synthesizing the right rear video data 120B and the left rear video data 130B on the left and right upper sides of the rear video data 110B.
  • step SA34 determines in step SA34 that the detection unit 80B has detected an obstacle on the left and right sides of the rear video data 110B (Yes in step SA34).
  • step SA35 the control unit 30B expands the left rear video data 130B in the synthesis range of the left rear video data 130B corresponding to the left side, which is the obstacle detection direction, in the video synthesis unit 52B.
  • the rear video data 110C3 thus generated is generated.
  • the control unit 30B causes the display control unit 70 to display the rear video data 110C3 obtained by combining the enlarged left rear video data 130B2 illustrated in FIG. 29 on the display surface of the rear view monitor 140.
  • the vehicle display system 1B when an obstacle is detected on the left and right sides of the rear video data 110B, the vehicle display system 1B has the right rear video data 120B and the left rear video data 130B corresponding to the direction in which the obstacle is detected. Is displayed on the display screen of the rear view monitor 140.
  • the present embodiment when an obstacle is detected on the left and right sides of the rear video data 110B, the right rear video data 120B and the left rear video data 130B corresponding to the direction in which the obstacle is detected are enlarged.
  • the synthesized rear video data 110C3 is displayed on the display surface of the rear view monitor 140. For this reason, in the present embodiment, obstacles on the left and right sides of the vehicle 100 can be easily confirmed on the display surface of the rear view monitor 140. As described above, the present embodiment can make it possible to confirm the vicinity of the appropriate vehicle 100.
  • FIG. 30 is a flowchart showing a process flow in the control unit of the vehicle display control apparatus of the vehicle display system according to the tenth embodiment.
  • the vehicle display system 1A of the present embodiment is different from the vehicle display system 1A of the seventh embodiment in information processing in the control unit 30A.
  • the traveling state information acquisition unit 60A acquires information on the traveling speed of the vehicle 100 as information indicating the traveling state of the vehicle 100.
  • the low-speed traveling state refers to a state in which the traveling state acquired by the traveling state information acquisition unit 60A is determined to be, for example, that the state in which the traveling speed of the vehicle 100 is less than a predetermined speed continues.
  • the low-speed traveling state may be a state in which the traveling path of the vehicle 100 is determined to be an urban area, a residential area, a shopping area, or a road with many pedestrians based on navigation information or information acquired by an external server.
  • the low-speed traveling state may be a state in which it is determined that the vehicle 100 is traveling on a road whose road width is less than a predetermined width based on navigation information or information acquired by an external server.
  • the low-speed traveling state may be a state in which it is determined that the vehicle 100 is traveling on a single lane road based on navigation information or information acquired by an external server.
  • step SA42, step SA43, step SA45, and step SA46 in the flowchart shown in FIG. 30 are the same as the processes in step SA12, step SA13, step SA15, and step SA16 in the flowchart shown in FIG.
  • control unit 30 A of control parts determine whether it is a low-speed driving
  • the traveling state information acquisition unit 60A continuously acquires the traveling state even after it is determined in step SA41 that the traveling state information is a low speed traveling state. More specifically, the control unit 30A continues to acquire the traveling state with the traveling state information acquisition unit 60A.
  • step SA43 during the period in which the synthesized rear video data 110C is displayed, the control unit 30A determines the end of the low-speed traveling state based on the traveling state information acquired by the traveling state information acquisition unit 60A (step SA44). ). When it is determined that the low-speed traveling state has not ended (No in Step SA44), the control unit 30A continues to display the synthesized rear video data 110C. When it is determined that the low-speed driving situation has ended (Yes in Step SA44), the control unit 30A generates the rear video data 110B (Step SA45) and displays the rear video data 110B (Step SA46). ). That is, in steps SA45 and SA46, the display of the normal rear video data 110B is started and continued as before the step SA41 is determined to be the low-speed traveling state.
  • the vehicle display system 1A displays the synthesized rear image data 110C on the display surface of the rear view monitor 140 when the vehicle is in a low-speed driving situation.
  • the synthesized rear image data 110C is displayed on the display surface of the rear view monitor 140. Accordingly, in the present embodiment, the rear side of the vehicle 100 can be confirmed on the display surface of the rear view monitor 140 when the vehicle is traveling at a low speed. For this reason, this embodiment can suppress a driver
  • the time required for visual confirmation of the rear view monitor 140 becomes longer when traveling at a low speed.
  • the rear side of the vehicle 100 is checked on the display surface of the rear view monitor 140 together with the rear side of the vehicle 100. be able to.
  • this embodiment can provide suitable information to the driver via the display surface of the rear view monitor 140 at a timing required by the driver.
  • FIG. 31 is a flowchart showing a flow of processing in the control unit of the vehicle display control apparatus of the vehicle display system according to the eleventh embodiment.
  • FIG. 32 is a diagram illustrating an example of video data captured by the rear camera of the vehicle display system according to the eleventh embodiment.
  • FIG. 33 is a diagram illustrating an example of an image displayed on the rear view monitor of the vehicle display system according to the eleventh embodiment.
  • the vehicle display system 1A of the present embodiment is different from the vehicle display system 1A of the seventh embodiment in information processing in the control unit 30A.
  • the traveling state information acquisition unit 60 ⁇ / b> A acquires information on the traveling path of the vehicle 100 as information indicating the traveling state of the vehicle 100. More specifically, the traveling state information acquisition unit 60A acquires information on the traveling path from navigation information, an external server, or the like. In the present embodiment, the traveling state information acquisition unit 60A acquires the number of lanes of the road on which the vehicle 100 is traveling.
  • the video composition unit 52A is located on the right side of the left side of the rear video data 110B and on the right side of the right side.
  • the video data 120B or the left rear video data 130B is synthesized. More specifically, when the roadside direction is the left side, the video composition unit 52A synthesizes the left rear video data 130B on the upper left side of the rear video data 110B.
  • the video composition unit 52A synthesizes the right rear video data 120B on the upper right side of the rear video data 110B.
  • step SA53 The processing in step SA53, step SA55, and step SA56 in the flowchart shown in FIG. 31 is the same as the processing in step SA13, step SA15, and step SA16 in the flowchart shown in FIG.
  • the control unit 30A determines whether or not the traveling road is one lane on one side (step SA51). More specifically, the control unit 30A determines whether or not the traveling state acquired by the traveling state information acquiring unit 60A indicates a one-lane road. When it is determined that the traveling road is not a one-sided lane (No in step SA51), control unit 30A executes step SA51 again. When controller 30A determines that the travel path is a single lane on one side (Yes in step SA51), control unit 30A proceeds to step SA52.
  • the control unit 30A generates the rear video data 110C4 obtained by combining the right rear video data 120B or the left rear video data 130B corresponding to the roadside direction (step SA52). More specifically, the control unit 30A generates the rear video data 110C4 obtained by synthesizing the right rear video data 120B or the left rear video data 130B in the video synthesis unit 52A on the left and right upper sides corresponding to the roadside direction of the rear video data 110B. .
  • the traveling state information acquisition unit 60A continuously acquires the traveling state even after it is determined in step SA51 that the traveling road is one lane on one side. More specifically, the control unit 30A continues to acquire the traveling state with the traveling state information acquisition unit 60A.
  • step SA53 during the period in which the synthesized rear video data 110C4 is displayed, the control unit 30A determines the end of the one-lane road based on the traveling state information acquired by the traveling state information acquiring unit 60A ( Step SA54). When it is determined that the one-lane road has not ended (No in Step SA54), the control unit 30A continues to display the synthesized rear video data 110C4. When it is determined that the one-lane road has ended (Yes in step SA54), the control unit 30A generates the rear video data 110B (step SA55) and displays the rear video data 110B (step SA55). Step SA56). That is, in steps SA55 and SA56, the display of the normal rear video data 110B is started and continued as before the road is determined to be one lane in step SA51.
  • the first video data 110A shown in FIG. 32 is a video when the vehicle 100 is traveling on a one-lane road.
  • control unit 30A determines that the travel path is a single lane (Yes in step SA51).
  • the control unit 30A generates the rear video data 110C4 obtained by combining the left rear video data 130B on the upper left side corresponding to the left side in the roadside direction of the rear video data 110B.
  • the control unit 30A displays the rear video data 110C4 obtained by combining the left rear video data 130B illustrated in FIG. 33 on the display surface of the rear view monitor 140.
  • the right-side rear video data 120B or the left-side rear corresponding to the left-right direction corresponding to the road-side direction is provided at the upper left and right of the rear video data 110B.
  • the video data 130B is synthesized.
  • the vehicle display system 1 ⁇ / b> A can appropriately check the periphery of the vehicle 100.
  • FIG. 34 is a flowchart showing the flow of processing in the control unit of the vehicle display control apparatus of the vehicle display system according to the twelfth embodiment.
  • FIG. 35 is a diagram illustrating an example of an image displayed on the rear view monitor of the vehicle display system according to the twelfth embodiment.
  • FIG. 36 is a diagram illustrating another example of an image displayed on the rear view monitor of the vehicle display system according to the twelfth embodiment.
  • the vehicle display system 1A of the present embodiment is different from the vehicle display system 1A of the seventh embodiment in information processing in the control unit 30A.
  • the traveling state information acquisition unit 60 ⁇ / b> A acquires information on the traveling path of the vehicle 100 as information indicating the traveling state of the vehicle 100. More specifically, the traveling state information acquisition unit 60A acquires information that can determine whether the vehicle 100 is traveling on a road on which low speed traveling is performed based on, for example, navigation information or information acquired by an external server. .
  • a road that travels at a low speed refers to a road that has many urban areas, residential areas, shopping areas, and pedestrians.
  • the road traveling at a low speed may be a road having a road width less than a predetermined width. Alternatively, it may be a single lane road. Alternatively, it may be a road that is determined to be a one-lane road.
  • the video composition unit 52A displays the right rear video data at the upper left and right of the rear video data 110B. 120B and left rear video data 130B are synthesized. Furthermore, when the road information acquired by the traveling state information acquisition unit 60A indicates a one-lane road, the video composition unit 52A displays either the right rear video data 120B or the left rear video corresponding to the roadside direction. The data 130B is enlarged and combined. More specifically, when the roadside direction is the left side, the video composition unit 52A synthesizes the left rear video data 130B on the upper left side of the rear video data 110B. When the roadside direction is the right side, the video composition unit 52A synthesizes the right rear video data 120B on the upper right side of the rear video data 110B.
  • step SA62, step SA63, step SA68, and step SA69 in the flowchart shown in FIG. 34 are the same as the processes in step SA12, step SA13, step SA15, and step SA16 in the flowchart shown in FIG.
  • steps SA64 and SA66 in the flowchart shown in FIG. 34 are the same as the processes in steps SA51 and SA54 in the flowchart shown in FIG.
  • Control unit 30A determines whether or not the vehicle is traveling on a low-speed road (step SA61). More specifically, the control unit 30A determines whether or not the traveling state acquired by the traveling state information acquisition unit 60A indicates that the vehicle 100 is traveling on a road on which low speed traveling is performed. When control unit 30A determines that the vehicle is traveling on a low-speed road (No in step SA61), control unit 30A executes step SA61 again. When it is determined that the control unit 30A is traveling on a road traveling at a low speed (Yes in step SA61), the control unit 30A proceeds to step SA62.
  • step SA64 when it is determined that the traveling road is one lane on one side, the control unit 30A displays the video to be displayed in either the right rear video data 120B or the left rear video data 130B corresponding to the roadside direction.
  • step SA65 More specifically, the control unit 30A, in the video composition unit 52A, in either the right rear video data 120B or the left rear video data 130B corresponding to the roadside direction of the composite rear video data 110C generated in step SA62, The displayed video of the right rear video data 120B or the left rear video data 130B is enlarged to generate synthesized rear video data 110C5.
  • the cutout range in the cutout unit 51 is narrowed and cut out, and the right rear video data 120B or the left rear video data 130B cut out narrowly is enlarged and displayed.
  • control unit 30A If it is determined in step SA61 that the vehicle is not traveling on a low-speed road (No in step SA61), control unit 30A continues to generate and display normal rear video data 110B. If controller 30A determines in step SA61 that the vehicle is traveling on a low-speed road (Yes in step SA61), control unit 30A generates synthesized rear video data 110C in step SA62. More specifically, the control unit 30A generates rear video data 110C obtained by combining the right rear video data 120B and the left rear video data 130B on the left and right upper sides of the rear video data 110B shown in FIG.
  • step SA64 determines whether the right rear video data 120B on either the left or right side corresponding to the road side direction or the left side in step SA65.
  • the control unit 30A determines whether the right rear video data 120B on either the left or right side corresponding to the road side direction or the left side in step SA65.
  • synthesized rear video data 110C5 is generated by enlarging the displayed video. More specifically, the control unit 30A generates rear video data 110C5 including left rear video data 130B2 obtained by enlarging the displayed video in the left rear video data 130B corresponding to the left side that is the roadside direction illustrated in FIG. . Then, the control unit 30A displays the normal rear video data 110B, the synthesized rear video data 110C, or the synthesized rear video data 110C5 on the display surface of the rear view monitor 140.
  • the vehicle display system 1A synthesizes the right rear video data 120B and the left rear video data 130B on the left and right upper sides of the rear video data 110B when the vehicle 100 is traveling on a road where the vehicle 100 runs at a low speed. Further, the vehicle display system 1A enlarges either the right rear video data 120B or the left rear video data 130B corresponding to the road side direction when the traveling road is one lane on one side.
  • the vehicle display system 1 ⁇ / b> A can appropriately check the periphery of the vehicle 100.
  • FIG. 37 is a flowchart illustrating a process flow in the control unit of the vehicle display control apparatus of the vehicle display system according to the thirteenth embodiment.
  • the vehicle display system 1A of the present embodiment is different from the vehicle display system 1A of the seventh embodiment in information processing in the control unit 30A.
  • the traveling state information acquisition unit 60A acquires the turning direction (left-right direction) information of the vehicle 100 as information indicating the traveling state of the vehicle 100.
  • the turning direction information is information for estimating the movement of the vehicle 100 in the turning direction.
  • the turning direction information includes map information around the vehicle 100, current location information of the vehicle 100, direction indicator operation information of the vehicle 100, gear operation information of the vehicle 100, steering operation information of the vehicle 100, and angular velocity of the vehicle 100. Or at least one piece of information.
  • the change in the turning direction of the vehicle 100 is a change in the direction deviating from the direction in which the road on which the vehicle 100 is traveling (hereinafter referred to as “traveling road direction”).
  • the change in the turning direction is a change in the left-right direction toward the front side of the vehicle 100 in the front-rear direction. For example, when turning right or left or changing lanes, the vehicle 100 changes in the turning direction.
  • the change in the turning direction of the vehicle 100 does not include a change in the direction of the vehicle 100 along a curved or curved road.
  • the video composition unit 52A displays either the right rear video data 120B or the left rear video data corresponding to the changing turning direction. 130B is synthesized. More specifically, when the turning direction is the left direction, the video composition unit 52A synthesizes the left rear video data 130B on the upper left side of the rear video data 110B. When the turning direction is the right direction, the video composition unit 52A synthesizes the right rear video data 120B on the upper right side of the rear video data 110B. For example, the video composition unit 52A may determine that the turning direction has changed when the deviation from the traveling road direction is 15 ° or more. This is because some blurring during driving or play of the steering wheel is not determined as a change in the turning direction of the vehicle 100.
  • step SA73 Information processing in the control unit 30A will be described.
  • step SA75, step SA76 in the flowchart shown in FIG. 37 is the same as the processing in step SA13, step SA15, and step SA16 in the flowchart shown in FIG.
  • Control unit 30A determines whether or not the turning direction has changed (step SA71). More specifically, the control unit 30A determines whether or not the traveling state acquired by the traveling state information acquisition unit 60A indicates a change in the turning direction. When it is determined that the turning direction has not changed (No in Step SA71), the control unit 30A executes the process of Step SA71 again. When it is determined that the turning direction has changed (Yes in Step SA71), the control unit 30A proceeds to Step SA72.
  • the control unit 30A generates the rear video data 110C obtained by combining the right rear video data 120B or the left rear video data 130B corresponding to the turning direction (step SA72). More specifically, the control unit 30A causes the video composition unit 52A to generate the rear video data 110C obtained by combining the right rear video data 120B or the left rear video data 130B on the left and right upper sides corresponding to the turning direction of the rear video data 110B. .
  • the traveling state information acquisition unit 60A continuously acquires the traveling state even after it is determined in step SA71 that the turning direction has changed. More specifically, the control unit 30A continues to acquire the traveling state with the traveling state information acquisition unit 60A.
  • step SA73 during the period in which the synthesized rear video data 110C is displayed, the control unit 30A determines the end of the turning direction change based on the traveling state information acquired by the traveling state information acquiring unit 60A (step S73). SA74). When it is determined that the change in the turning direction has not ended (No in Step SA74), the control unit 30A continues to display the synthesized rear video data 110C. When it is determined that the turning direction has been changed (Yes in step SA74), the control unit 30A generates the rear video data 110B (step SA75) and displays the rear video data 110B (step SA75). SA76). That is, in steps SA75 and SA76, the display of the normal rear video data 110B is started and continued as before the determination that the turning direction has changed in step SA71.
  • the vehicle display system 1A synthesizes either the right rear video data 120B or the left rear video data 130B corresponding to the turning direction on the left and right upper sides of the rear video data 110B. To do.
  • the vehicle display system 1 ⁇ / b> A can appropriately check the periphery of the vehicle 100.
  • Each component of the illustrated vehicle display system 1 is functionally conceptual and may not necessarily be physically configured as illustrated. That is, the specific form of each device is not limited to the one shown in the figure, and all or a part of them is functionally or physically distributed or integrated in arbitrary units according to the processing load or usage status of each device. May be.
  • the configuration of the vehicle display system 1 is realized by, for example, a program loaded in a memory as software.
  • the above embodiment has been described as a functional block realized by cooperation of these hardware or software. That is, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.
  • the proximity other vehicle detection unit 60 may detect the distance between the vehicle 100 and the other vehicle that has approached the vehicle 100 or the distance between the vehicle 100 and the other vehicle using the distance between the vehicle 100 and the other vehicle measured by a radar (not shown). Good.
  • control unit 30 may generate the rear video data 110C synthesized in step S12 when the determination condition in step S11 of the flowchart shown in FIG. Thereby, the display system 1 for vehicles can suppress that the image
  • control unit 30A may generate the rear video data 110C synthesized in step SA12 when the determination condition in step SA11 of the flowchart illustrated in FIG. Thereby, 1 A of vehicle display systems can suppress that the image
  • the control unit 30 may display a range corresponding to the right rear video data 120B and the left rear video data 130B in the synthesized rear video data 110C in a translucent color with a predetermined transparency.
  • the vehicle display system 1 can easily confirm that the display on the rear view monitor 140 includes the right rear video data 120B and the left rear video data 130B.
  • the cutting unit 51 cuts out a part of the first video data 110A from the first video data 110A
  • the present invention is not limited to this.
  • the entire range may be set as the rear video data 110B without cutting out the first video data 110A.
  • the cutting unit 51 cuts out the right rear video data 120B and the left rear video data 130B in accordance with the right side view monitor 150 and the left side view monitor 160 from the second video data.
  • the present invention is not limited to this.
  • the entire range may be the right rear video data 120B and the left rear video data 130B without cutting out the second video data.
  • right side view monitor 150 and the left side view monitor 160 are provided, a conventional optical right side mirror and left side mirror may be provided.
  • the right rear video data 120B and the left rear video data 130B synthesized on the left and right upper sides of the rear video data 110B are the right rear video data and the left rear video data (hereinafter referred to as “the right side view monitor 150 and the left side view monitor 160”). It may be a cut-out range different from “side-view monitor video”. For example, the right rear video data 120B and the left rear video data 130B may cut out the same range as the side view monitor video. Alternatively, for example, the right rear video data 120B and the left rear video data 130B may be cut out from a wider range than the side view monitor video. Alternatively, for example, the right rear video data 120B and the left rear video data 130B may be cut out of a narrower range than the side view monitor video.
  • the right rear video data 120B and the left rear video data 130B synthesized on the upper left and right sides of the rear video data 110B may be displayed with a narrower range than the side view monitor video. Further, the right rear video data 120B and the left rear video data 130B synthesized at the upper left and right of the rear video data 110B may have the same size as the rear video data 110B.
  • the size of the clipping range by the clipping unit 51 and the size of the right rear video data 120B or the left rear video data 130B on the display surface of the rear view monitor 140 can be adjusted while the driver is stopped. Good.
  • the cutting range and size may be set to a desired size by an operation of reducing or widening the interval between two fingers on the display surface of the rear view monitor 140.
  • the cutout range and size may be changed stepwise.
  • the detection unit 80B performs pattern matching using the recognition dictionary stored in the recognition dictionary storage unit 300 on the rear video data 110B to detect the presence of an obstacle.
  • the obstacle detection method is not limited to this.
  • the detection unit 80B may recognize the road surface behind the vehicle 100 in the road surface recognition process with respect to the rear video data 110B, and may recognize an object positioned above the detected road surface as an obstacle.
  • the present invention is not limited to this.
  • the video composition unit 52A may perform a lane recognition process on the first video data 110A to determine whether or not the traveling road is one lane on one side.
  • the cutout range when the cutout range is shifted downward and the rear video data 110B2 is cut out, the cutout range is shifted downward and the right rear video data 120B and the left rear video data 130B are cut out. May be.
  • the cutout range when the rear image data 110B2 is extracted by shifting the cutout range downward, the cutout range is set for either the right rear video data 120B or the left rear video data 130B corresponding to the turning direction of the vehicle 100. You may shift downward.
  • SYMBOLS 1 Display system for vehicles 10 Display control apparatus for vehicles 30 Control part 40 Image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

車両の後方を撮影する後方カメラ110からの第一映像データを取得する後方映像データ取得部42と、車両の左右側後方を撮影する右側後方カメラ120および左側後方カメラ130からの側後方映像データを取得する側後方映像データ取得部41と、車両の後方から近接する他車両を検出する近接他車両検出部60と、近接他車両検出部60が車両の後方から近接する他車両を検出したとき、後方映像データの左右上方に側後方映像データを合成する映像合成部52と、映像合成部52が合成した映像データを、車両の後方映像を表示するリヤビューモニタ140に表示させる表示制御部とを備える。

Description

車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
 本発明は、車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラムに関する。
 車両の後方周辺領域を撮影する後方カメラからの映像を表示する、いわゆる電子ミラーに関する技術が知られている。電子ミラーは、従来の光学式ルームミラーと異なり、2次元の映像の実像であるため、被撮影物の距離感を認識しにくかったり、運転者が違和感を覚えたりすることがある。そこで、自車両とカメラが撮影した物体との距離感の誤認識を抑制した車載用表示装置が知られている(例えば、特許文献1参照)。また、視野調整操作の煩雑さを解消し、違和感のない左右後方映像を表示する車両用後方視認システムが知られている(例えば、特許文献2参照)。
特開2016-063352号公報 特開2011-217318号公報
 運転者は、運転中に車両周辺を確認するため、リヤビューモニタと、左右サイドビューモニタとを視認する。リヤビューモニタと、左右サイドビューモニタとが離れて設置されているので、車両周辺の確認には視線移動をともなう。また、運転者が運転中に短い時間で認識可能な情報量は限られている。このため、リヤビューモニタや左右サイドビューモニタには、運転者が情報を必要とするタイミングで、適切な情報量の映像を表示することが望ましい。このように、適切な車両周辺の確認を可能にする技術が望まれている。
 本発明は、上記に鑑みてなされたものであって、適切な車両周辺の確認を可能とすることを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係る車両用表示制御装置は、車両の後方を向くように配置され、前記車両の後方を撮影する後方カメラからの後方映像データを取得する後方映像データ取得部と、前記車両の左右側方に前記車両の後方を向くように配置され、前記車両の左右側後方を撮影する側後方カメラからの側後方映像データを取得する側後方映像データ取得部と、前記車両の後方から近接する他車両を検出する近接他車両検出部と、前記近接他車両検出部が前記車両の後方から近接する他車両を検出したとき、前記後方映像データの左右上方に前記側後方映像データを合成する映像合成部と、前記映像合成部が合成した映像データを、前記車両の後方映像を表示する表示装置に表示させる表示制御部と、を備えることを特徴とする。
 本発明に係る車両用表示システムは、上記の車両用表示制御装置と、少なくとも前記表示装置、前記後方カメラ、前記側後方カメラのうち少なくともいずれかと、を備える。
 本発明に係る車両用表示制御方法は、車両の後方を向くように配置され、前記車両の後方を撮影する後方カメラからの後方映像データを取得する後方映像データ取得ステップと、前記車両の左右側方に前記車両の後方を向くように配置され、前記車両の左右側後方を撮影する側後方カメラからの側後方映像データを取得する側後方映像データ取得ステップと、前記車両の後方から近接する他車両を検出する近接他車両検出ステップと、前記近接他車両検出ステップが前記車両の後方から近接する他車両を検出したとき、前記後方映像データの左右上方に前記側後方映像データを合成する映像合成ステップと、前記映像合成ステップが合成した映像データを、前記車両の後方映像を表示する表示装置に表示させる表示制御ステップと、を含む。
 本発明に係るプログラムは、車両の後方を向くように配置され、前記車両の後方を撮影する後方カメラからの後方映像データを取得する後方映像データ取得ステップと、前記車両の左右側方に前記車両の後方を向くように配置され、前記車両の左右側後方を撮影する側後方カメラからの側後方映像データを取得する側後方映像データ取得ステップと、前記車両の後方から近接する他車両を検出する近接他車両検出ステップと、前記近接他車両検出ステップが前記車両の後方から近接する他車両を検出したとき、前記後方映像データの左右上方に前記側後方映像データを合成する映像合成ステップと、前記映像合成ステップが合成した映像データを、前記車両の後方映像を表示する表示装置に表示させる表示制御ステップと、を車両用表示制御装置として動作するコンピュータに実行させる。
 本発明によれば、適切な車両周辺の確認を可能にすることができるという効果を奏する。
図1は、第一実施形態に係る車両用表示システムの構成例を示す概略図である。 図2は、第一実施形態に係る車両用表示システムの構成例を示す概略図である。 図3は、第一実施形態に係る車両用表示システムの構成例を示すブロック図である。 図4は、第一実施形態に係る車両用表示システムの後方カメラで撮影された映像データの一例を示す図である。 図5は、第一実施形態に係る車両用表示システムのリヤビューモニタに表示される映像の一例を示す図である。 図6は、第一実施形態に係る車両用表示システムの右サイドビューモニタに表示される映像の一例を示す図である。 図7は、第一実施形態に係る車両用表示システムの左サイドビューモニタに表示される映像の一例を示す図である。 図8は、第一実施形態に係る車両用表示システムのリヤビューモニタに表示される映像の他の例を示す図である。 図9は、第一実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。 図10は、第二実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。 図11は、第三実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。 図12は、第四実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。 図13は、第四実施形態に係る車両用表示システムのリヤビューモニタに表示される映像の一例を示す図である。 図14は、第五実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。 図15は、第六実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。 図16は、第七実施形態に係る車両用表示システムの構成例を示すブロック図である。 図17は、第七実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。 図18は、第七実施形態に係る車両用表示システムの後方カメラで撮影された映像データの他の例を示す図である。 図19は、第七実施形態に係る車両用表示システムのリヤビューモニタに表示される映像の他の例を示す図である。 図20は、第七実施形態に係る車両用表示システムの右サイドビューモニタに表示される映像の他の例を示す図である。 図21は、第七実施形態に係る車両用表示システムの左サイドビューモニタに表示される映像の他の例を示す図である。 図22は、第七実施形態に係る車両用表示システムのリヤビューモニタに表示される映像の他の例を示す図である。 図23は、第八実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。 図24は、第八実施形態に係る車両用表示システムの後方カメラで撮影された映像データの一例を示す図である。 図25は、第八実施形態に係る車両用表示システムのリヤビューモニタに表示される映像の一例を示す図である。 図26は、第九実施形態に係る車両用表示システムの構成例を示すブロック図である。 図27は、第九実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。 図28は、第九実施形態に係る車両用表示システムの後方カメラで撮影された映像データの一例を示す図である。 図29は、第九実施形態に係る車両用表示システムのリヤビューモニタに表示される映像の一例を示す図である。 図30は、第十実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。 図31は、第十一実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。 図32は、第十一実施形態に係る車両用表示システムの後方カメラで撮影された映像データの一例を示す図である。 図33は、第十一実施形態に係る車両用表示システムのリヤビューモニタに表示される映像の一例を示す図である。 図34は、第十二実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。 図35は、第十二実施形態に係る車両用表示システムのリヤビューモニタに表示される映像の一例を示す図である。 図36は、第十二実施形態に係る車両用表示システムのリヤビューモニタに表示される映像の他の例を示す図である。 図37は、第十三実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。
 以下に添付図面を参照して、本発明に係る車両用表示制御装置10、車両用表示システム1、車両用表示制御方法およびプログラムの実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。
[第一実施形態]
 車両用表示システム1は、車両100に搭載され、車両周辺を表示する。図1は、第一実施形態に係る車両用表示システムの構成例を示す概略図である。図2は、第一実施形態に係る車両用表示システムの構成例を示す概略図である。図3は、第一実施形態に係る車両用表示システムの構成例を示すブロック図である。
 図1ないし図3に示すように、車両用表示システム1は、後方カメラ110と、右側後方カメラ(側後方カメラ)120と、左側後方カメラ(側後方カメラ)130と、リヤビューモニタ(表示装置)140と、右サイドビューモニタ(側後方確認装置)150と、左サイドビューモニタ(側後方確認装置)160と、認識辞書記憶部300と、車両用表示制御装置10とを有する。
 後方カメラ110は、車両100の後方に後方を向くように配置され、車両100の後方を撮影する。後方カメラ110は、水平方向の画角が例えば90~180°、上下方向の画角が例えば45~90°である。例えば、後方カメラ110は、図4に示すような、第一映像データ(後方映像データ)110Aを撮影している。図4は、第一実施形態に係る車両用表示システムの後方カメラで撮影された映像データの一例を示す図である。後方カメラ110は、リヤビューモニタ140に表示させる範囲より広い範囲の映像を撮影可能であるが、リヤビューモニタ140を用いて車両100の運転者が適切に後方を認識できるような範囲を切出してリヤビューモニタ140に表示する。後方カメラ110は、撮影した第一映像データ110Aを車両用表示制御装置10の映像データ取得部40の後方映像データ取得部42へ出力する。
 右側後方カメラ120は、車両100の右側方に後方を向くように配置され、車両100の右側方を撮影する。右側後方カメラ120は、右サイドビューモニタ150による確認範囲を撮影する。右側後方カメラ120は、水平方向の画角が例えば15~45°、上下方向の画角が例えば15~45°である。右側後方カメラ120は、角度調節自在である。右側後方カメラ120は、撮影した映像(側後方映像データ)を車両用表示制御装置10の映像データ取得部40の側後方映像データ取得部41へ出力する。
 左側後方カメラ130は、車両100の左側方に後方を向くように配置され、車両100の左側方を撮影する。左側後方カメラ130は、左サイドビューモニタ160による確認範囲を撮影する。左側後方カメラ130は、水平方向の画角が例えば15~45°、上下方向の画角が例えば15~45°である。左側後方カメラ130は、角度調節自在である。左側後方カメラ130は、撮影した映像(側後方映像データ)を車両用表示制御装置10の映像データ取得部40の側後方映像データ取得部41へ出力する。
 リヤビューモニタ140は、一例としては電子ルームミラーである。リヤビューモニタ140を電子ルームミラーとして用いる場合は、後方を光学的な反射により確認するためのハーフミラーの有無は問わない。リヤビューモニタ140は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro-Luminescence)ディスプレイなどを含むディスプレイである。リヤビューモニタ140は、車両用表示制御装置10の表示制御部70から出力された映像信号に基づき、車両100の後方映像を表示する。具体的に、リヤビューモニタ140は、図5に示すような後方映像を表示する。図5は、第一実施形態に係る車両用表示システムのリヤビューモニタに表示される映像の一例を示す図である。リヤビューモニタ140は、運転者から視認容易な位置に配置されている。本実施形態では、リヤビューモニタ140は、ウィンドシールド101の車幅方向の中央上部に配置されている。または、リヤビューモニタ140は、ダッシュボード102やヘッドライナーに埋め込まれていてもよい。
 リヤビューモニタ140は、大きさ、形状は限定されない。例えば、リヤビューモニタ140は、従来の光学式のルームミラーと同様な大きさ、形状であってもよい。または、例えば、リヤビューモニタ140は、従来の光学式のルームミラーに比べて車幅方向の幅が広くてもよい。または、例えば、リヤビューモニタ140は、従来の光学式のルームミラーに比べて縦方向の幅が広くてもよい。
 右サイドビューモニタ150は、例えば、液晶ディスプレイまたは有機ELディスプレイなどを含むディスプレイである。右サイドビューモニタ150は、車両用表示制御装置10の表示制御部70から出力された映像信号に基づき、車両100の右側後方映像を表示する。具体的に、右サイドビューモニタ150は、図6に示すような右側後方映像を表示する。図6は、第一実施形態に係る車両用表示システムの右サイドビューモニタに表示される映像の一例を示す図である。右サイドビューモニタ150には、車両100の右側方の車体100Rが映り込んでいる。右サイドビューモニタ150は、運転者から視認容易な位置に配置されている。本実施形態では、右サイドビューモニタ150は、ダッシュボード102の車幅方向の右側に配置されている。
 左サイドビューモニタ160は、例えば、液晶ディスプレイまたは有機ELディスプレイを含むディスプレイである。左サイドビューモニタ160は、車両用表示制御装置10の表示制御部70から出力された映像信号に基づき、車両100の左側後方映像を表示する。例えば、左サイドビューモニタ160は、図7に示すような左側後方映像を表示する。図7は、第一実施形態に係る車両用表示システムの左サイドビューモニタに表示される映像の一例を示す図である。左サイドビューモニタ160には、車両100の左側方の車体100Lが映り込んでいる。左サイドビューモニタ160は、運転者から視認容易な位置に配置されている。本実施形態では、左サイドビューモニタ160は、ダッシュボード102の車幅方向の左側に配置されている。
 認識辞書記憶部300は、例えば、車両100の正面視の形状、大きさ、色などのパターンを照合可能な認識辞書を記憶している。認識辞書記憶部300は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、ハードディスク、光ディスク、ネットワークを介した外部記憶装置などの記憶装置である。
 図3に戻って、車両用表示制御装置10は、記憶部20と、制御部30とを有する。
 記憶部20は、車両用表示制御装置10における各種処理に要するデータおよび各種処理結果を記憶する。記憶部20は、例えば、RAM、ROM、フラッシュメモリなどの半導体メモリ素子、または、ハードディスク、光ディスク、ネットワークを介した外部記憶装置などの記憶装置である。または、図示しない通信装置を介して無線接続される外部記憶装置であってもよい。
 制御部30は、例えば、CPU(Central Processing Unit)などで構成された演算処理装置である。制御部30は、映像データ取得部40と、映像処理部50と、車両の周辺状況を検出する状況検出部である、近接他車両検出部60と、表示制御部70とを含む。制御部30は、記憶部20に記憶されているプログラムに含まれる命令を実行する。
 映像データ取得部40は、車両100の後方および側後方を撮影した映像を取得する。映像データ取得部40が取得する映像データは、例えば、毎秒60フレームの画像が連続した映像データである。映像データ取得部40は、側後方映像データ取得部41と、後方映像データ取得部42とを有する。側後方映像データ取得部41は、右側後方カメラ120および左側後方カメラ130が出力した第二映像データを取得する。側後方映像データ取得部41は、取得した第二映像データを切出部51に出力する。後方映像データ取得部42は、後方カメラ110が出力した第一映像データ110Aを取得する。後方映像データ取得部42は、取得した第一映像データ110Aを切出部51に出力する。
 切出部51は、第一映像データ110Aからリヤビューモニタ140に合わせた後方映像データ110Bを切出す。切出部51は、第一映像データ110Aから第一映像データ110Aの一部を切出す。第一映像データ110Aのどの範囲を切出すかは、あらかじめ登録され記憶されている。本実施形態では、第一映像データ110Aの中央部を切出す。切出部51は、切出した後方映像データ110Bを映像合成部52と表示制御部70に出力する。
 切出部51は、第二映像データから、右サイドビューモニタ150および左サイドビューモニタ160に合わせた右側後方映像データ120Bおよび左側後方映像データ130Bを切出す。切出部51は、第二映像データから第二映像データの一部を切出す。第二映像データのどの範囲を切出すかは、あらかじめ登録され記憶されている。切出部51は、切出した右側後方映像データ120Bおよび左側後方映像データ130Bを映像合成部52と表示制御部70に出力する。切出部51で切出された、後方映像データ110Bと右側後方映像データ120Bおよび左側後方映像データ130Bとは、同期している。
 映像合成部52は、近接他車両検出部60の検出結果に応じて、後方映像データ110Bの左右上方に右側後方映像データ120Bおよび左側後方映像データ130Bを合成した後方映像データ110Cを生成する。本実施形態では、映像合成部52は、近接他車両検出部60が、車両100の後方から近接する他車両を検出したとき、後方映像データ110Bの左右上方に右側後方映像データ120Bおよび左側後方映像データ130Bを合成した後方映像データ110Cを生成する。例えば、映像合成部52は、図8に示すような合成した後方映像データ110Cを生成する。図8は、第一実施形態に係る車両用表示システムのリヤビューモニタに表示される映像の他の例を示す図である。本実施形態において、合成した後方映像データ110Cにおける右側後方映像データ120Bおよび左側後方映像データ130Bの大きさは、リヤビューモニタ140の表示面の縦方向サイズにおける上方約二分の一程度の大きさである。合成した後方映像データ110Cにおける右側後方映像データ120Bおよび左側後方映像データ130Bの大きさは、リヤビューモニタ140の表示面の横方向サイズにおける左右約三分の一程度の大きさである。映像合成部52は、合成した後方映像データ110Cを表示制御部70に出力する。
 ここで、後方映像データ110Bにおいて、運転者にとって運転中の安全確認の必要度が高い範囲は、後方映像データ110Bの中央部分および左右下方部分の範囲である。後方映像データ110Bの中央部分には、走行路が直進であるときの消失点が含まれる。言い換えると、後方映像データ110Bの左右上方の範囲は、運転者にとって運転中の安全確認の必要度が低い。このため、映像合成部52は、後方映像データ110Bの左右上方に右側後方映像データ120Bおよび左側後方映像データ130Bを合成する。本実施形態では、合成した後方映像データ110Cにおける右側後方映像データ120Bおよび左側後方映像データ130Bの大きさをリヤビューモニタ140の表示面の縦方向サイズにおける上方約二分の一程度とし、映像が重なる範囲を小さくしている。本実施形態では、合成した後方映像データ110Cにおける右側後方映像データ120Bおよび左側後方映像データ130Bの大きさをリヤビューモニタ140の表示面の横方向サイズにおける左右約三分の一程度の大きさとし、映像が重なる範囲を小さくしている。また、後方映像データ110Bと右側後方映像データ120Bおよび左側後方映像データ130Bとの表示される境界が明瞭となるように、右側後方映像データ120Bおよび左側後方映像データ130Bを枠線等で囲うことが効果的である。
 近接他車両検出部60は、後方映像データ110Bから、車両100の後方から近接する他車両を検出する。近接他車両検出部60は、後方映像データ110Bにおいて、車両認識処理を行い、車両100の後方から近接する他車両を検出する。より詳しくは、近接他車両検出部60は、後方映像データ110Bに対して、認識辞書記憶部300が記憶している認識辞書を用いたパターンマッチングを行い、車両100の後方から近接する他車両の存在を検出する。近接他車両検出部60は、検出した他車両を画像処理で追尾する。近接他車両検出部60は、検出結果を映像合成部52に出力する。
 近接他車両検出部60は、後方映像データ110Bから他車両が複数検出された場合、複数検出された他車両のうち、後方映像データ110Bの左右それぞれにおいて、最も車両100に近接する他車両を検出してもよい。例えば、近接他車両検出部60は、後方映像データ110Bの左右それぞれにおいて、複数検出された他車両の各々の接地位置が後方映像データ110Bにおいて最も下方に位置する他車両を、車両100との距離が最も小さい他車両としてもよい。
 表示制御部70は、毎フレームまたは所定フレームごとに、後方映像データ110Bまたは映像合成部52が合成した後方映像データ110Cをリヤビューモニタ140に出力する。
 表示制御部70は、毎フレームまたは所定フレームごとに、右側後方映像データ120Bを右サイドビューモニタ150に表示させる。言い換えると、表示制御部70は、右側後方カメラ120で撮影された第二映像データに基づく右側後方映像データ120Bを右サイドビューモニタ150に表示させる。
 表示制御部70は、毎フレームまたは所定フレームごとに、左側後方映像データ130Bを左サイドビューモニタ160に表示させる。言い換えると、表示制御部70は、左側後方カメラ130で撮影された第二映像データに基づく左側後方映像データ130Bを左サイドビューモニタ160に表示させる。表示制御部70は、リヤビューモニタ140に表示される後方映像データ110Bまたは合成した後方映像データ110Cと、右サイドビューモニタ150に表示される右側後方映像データ120Bと、左サイドビューモニタ160に表示される左側後方映像データ130Bとが同期するように表示を制御する。
 次に、図9を用いて、制御部30における情報処理について説明する。図9は、第一実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。
 図9の処理における前提としては、車両100が動作している期間中、リヤビューモニタ140に後方映像データ110Bが表示され、右サイドビューモニタ150に右側後方映像データ120B、左サイドビューモニタ160に左側後方映像データ130Bが表示されている状態である。また、このような状態において、制御部30は、後方から近接する他車両の検出を継続している。より詳しくは、制御部30は、近接他車両検出部60で、後方映像データ110Bから常時他車両を検出している。
 制御部30は、後方から近接する他車両の有無を判定する(ステップS11)。より詳しくは、制御部30は、近接他車両検出部60の検出結果に基づいて、車両100の後方から近接する他車両を検出したか否かを判定する。制御部30は、例えば、近接他車両検出部60で検出した他車両の車幅方向のサイズが、後方映像データ110Bの横幅方向のサイズに対して所定割合以上、または、他車両の車幅方向の画素数が、後方映像データ110Bの横幅方向の画素数に対して所定割合以上である場合、他車両が車両100に近接していると判定する。なお、他車両の車種ごとに、他車両が車両100に近接していると判定する所定割合を変えてもよい。制御部30は、後方から近接する他車両がないと判定した場合(ステップS11でNo)、本処理を終了する。本処理の終了とは、リヤビューモニタ140に後方映像データ110Bが表示され、右サイドビューモニタ150に右側後方映像データ120B、左サイドビューモニタ160に左側後方映像データ130Bが表示されている状態が継続されることである。制御部30は、後方から近接する他車両があると判定した場合(ステップS11でYes)、ステップS12に進む。
 ステップS11において、後方から近接する他車両があると判定された場合、制御部30は、合成した後方映像データ110Cを生成する(ステップS12)。より詳しくは、制御部30は、切出部51で、第一映像データ110Aから後方映像データ110Bを切出させる。そして、制御部30は、映像合成部52で、後方映像データ110Bの左右上方に右側後方映像データ120Bおよび左側後方映像データ130Bを合成した後方映像データ110Cを生成させる。
 制御部30は、ステップS12で生成した、合成した後方映像データ110Cを表示する(ステップS13)。より詳しくは、制御部30は、表示制御部70で、通常の後方映像データ110Bまたは合成した後方映像データ110Cをリヤビューモニタ140に表示させる。
 近接他車両検出部60は、ステップS11で後方から近接する他車両があると判定された後も継続して他車両を検出している。より詳しくは、制御部30は、近接他車両検出部60で他車両の検出を継続している。
 ステップS13において、合成した後方映像データ110Cを表示している期間において、制御部30は、近接他車両検出部60が検出した検出結果に基づいて、後方から近接する他車両の有無の判定を継続する。この処理によって、ステップS11で検出された近接している他車両が近接を続けている場合や、新たに近接している他車両が検出された場合は、ステップS12およびステップS13の処理が継続される。
 制御部30は、ステップS11の判定を、例えば0.5秒毎などの所定時間毎に実行し、ステップS11でYesとなった場合は、ステップS11でNoとなるまでの間に後方カメラ110、右側後方カメラ120、左側後方カメラ130が撮影する全てのフレームの映像に対して、ステップS12およびステップS13の処理を実行する。
 このようにして、車両用表示システム1は、後方から近接する他車両を検出したとき、合成した後方映像データ110Cをリヤビューモニタ140の表示面に表示させる。
 上述したように、本実施形態は、近接他車両検出部60が後方から近接する他車両を検出したとき、後方映像データ110Bの左右上方に右側後方映像データ120Bおよび左側後方映像データ130Bを合成した後方映像データ110Cをリヤビューモニタ140の表示面に表示させる。これにより、本実施形態は、後方から近接する他車両を検出したとき、リヤビューモニタ140の表示面で、車両100の後方とともに、車両100の側後方を確認することができる。このため、本実施形態は、運転者の視線移動を抑制することができる。より詳しくは、本実施形態は、リヤビューモニタ140から視線移動して右サイドビューモニタ150および左サイドビューモニタ160を視認しなくても、側後方を確認することができる。本実施形態は、運転者の後方及び側後方の確認に要する時間を低減することができる。このように、車両用表示システム1は、適切な車両100周辺の確認を可能にすることができる。
 本実施形態によれば、後方から近接する他車両を検出したとき、合成した後方映像データ110Cをリヤビューモニタ140の表示面に表示させる。このため、本実施形態によれば、運転者による操作によらず自動で、リヤビューモニタ140の表示面で、車両100の後方とともに、車両100の側後方を表示させることができる。このように、車両用表示システム1は、適切な車両100周辺の確認を可能にすることができる。
 本実施形態によれば、後方から近接する他車両を検出したとき、合成した後方映像データ110Cをリヤビューモニタ140の表示面に表示させる。本実施形態によれば、その他の場合、後方映像データ110Bを表示させる。このため、本実施形態は、後方から近接する他車両を検出したとき、運転者が必要とするタイミングで、適切な情報量の映像を表示することができる。
 本実施形態によれば、映像合成部52は、後方映像データ110Bの左右上方に右側後方映像データ120Bおよび左側後方映像データ130Bを合成する。言い換えると、本実施形態によれば、映像合成部52は、後方映像データ110Bの消失点より下方の範囲は、右側後方映像データ120Bおよび左側後方映像データ130Bが重なる範囲を小さくする。言い換えると、後方映像データ110Bの左右上方は、後退時の後方確認の優先度が低いとともに、右側後方映像データ120Bおよび左側後方映像データ130Bによる確認がより適切である。このため、本実施形態は、運転者にとって運転中の安全確認の必要度が高い範囲は、後方から近接する他車両の有無によらず、従来の光学式のルームミラーと同様に後方を確認することができる。
 本実施形態によれば、後方から近接する他車両を検出したとき、合成した後方映像データ110Cをリヤビューモニタ140の表示面に表示させる。このように、本実施形態は、後方から近接する他車両を検出したとき、リヤビューモニタ140の表示面に表示される映像が切り替わるので、後方から他車両が近接していることを容易に認識することができる。
[第二実施形態]
 図10を参照しながら、本実施形態に係る車両用表示システム1について説明する。図10は、第二実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。本実施形態に係る車両用表示システム1は、基本的な構成は第一実施形態の車両用表示システム1と同様である。以下の説明においては、車両用表示システム1と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。本実施形態の車両用表示システム1は、制御部30における情報処理が第一実施形態の車両用表示システム1と異なる。
 近接他車両検出部60は、車両100の後方から近接する他車両と車両100との相対速度を検出する。車両100の後方から近接する他車両と車両100との相対速度は、例えば、フレームごとの第一映像データ110Aにおける他車両の映像の大きさの変化に基づき、算出することが可能である。
 制御部30における情報処理について説明する。図10に示すフローチャートのステップS21、ステップS24、ステップS25の処理は、図9に示すフローチャートのステップS11、ステップS12、ステップS13の処理と同様である。
 制御部30は、他車両との相対速度を取得する(ステップS22)。より詳しくは、制御部30は、近接他車両検出部60で、車両100の後方から近接する他車両と車両100との相対速度を検出させる。
 制御部30は、他車両との相対速度が所定以上であるか否かを判定する(ステップS23)。より詳しくは、制御部30は、近接他車両検出部60で取得した他車両との相対速度に基づいて、車両100の後方から近接する他車両との相対速度が所定以上であるか否かを判定する。他車両と車両100との相対速度の閾値は、車両100の走行速度に対応して段階的に設定されていてもよい。本実施形態では、他車両と車両100との相対速度の閾値を、走行速度が60km/h未満の場合、5km/h、走行速度が60km/h以上の場合、10km/hとする。制御部30は、後方から近接する他車両との相対速度が所定未満であると判定した場合(ステップS23でNo)、ステップS21の処理を再度実行する。ステップS23でNoの場合においても、制御部30は、近接他車両検出部60が検出した検出結果に基づいて、後方から近接する他車両の有無の判定を継続する。この処理によって、ステップS21で検出された近接している他車両が近接を続けている場合や、新たに近接している他車両が検出された場合にも対応する。制御部30は、後方から近接する他車両との相対速度が所定以上であると判定した場合(ステップS23でYes)、ステップS24に進む。
 このようにして、車両用表示システム1は、後方から近接する他車両と車両100との相対速度が所定以上のとき、合成した後方映像データ110Cをリヤビューモニタ140の表示面に表示させる。
 上述したように、本実施形態では、後方から近接する他車両と車両100との相対速度が所定以上のとき、後方映像データ110Bの左右上方に右側後方映像データ120Bおよび左側後方映像データ130Bを合成し、合成した後方映像データ110Cをリヤビューモニタ140の表示面に表示させる。これにより、本実施形態は、後方から近接する他車両と車両100との相対速度が所定以上のとき、リヤビューモニタ140の表示面で、車両100の後方とともに、車両100の側後方を確認することができる。このため、本実施形態は、運転者の視線移動を抑制することができる。本実施形態は、運転者の後方及び側後方の確認に要する時間を低減することができる。このように、車両用表示システム1は、適切な車両100周辺の確認を可能にすることができる。
[第三実施形態]
 図11を参照しながら、本実施形態に係る車両用表示システム1について説明する。図11は、第三実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。本実施形態の車両用表示システム1は、制御部30における情報処理が第一実施形態の車両用表示システム1と異なる。
 近接他車両検出部60は、車両100の後方から近接する他車両と車両100との距離を検出する。車両100の後方から近接する他車両と車両100との距離は、例えば、第一映像データ110Aにおける他車両の映像の大きさと、認識辞書記憶部300に記憶されている後方移動体の大きさとに基づき、算出することが可能である。
 制御部30における情報処理について説明する。図11に示すフローチャートのステップS31、ステップS34、ステップS35の処理は、図9に示すフローチャートのステップS11、ステップS12、ステップS13の処理と同様である。
 制御部30は、他車両との距離を取得する(ステップS32)。より詳しくは、制御部30は、近接他車両検出部60で、車両100の後方から近接する他車両と車両100との距離を検出させる。
 制御部30は、他車両と車両100との距離が所定未満であるか否かを判定する(ステップS33)。より詳しくは、制御部30は、近接他車両検出部60で取得した他車両との距離に基づいて、車両100の後方から近接する他車両と車両100との距離が所定未満であるか否かを判定する。他車両と車両100との距離の閾値は、車両100の走行速度に対応して段階的に設定されていてもよい。本実施形態では、他車両と車両100との距離の閾値を、走行速度が60km/h未満の場合、10m、走行速度が60km/h以上の場合、20mとする。制御部30は、後方から近接する他車両と車両100との距離が所定以上であると判定した場合(ステップS33でNo)、ステップS31の処理を再度実行する。ステップS33でNoの場合においても、制御部30は、近接他車両検出部60が検出した検出結果に基づいて、後方から近接する他車両の有無の判定を継続する。この処理によって、ステップS31で検出された近接している他車両が近接を続けている場合や、新たに近接している他車両が検出された場合にも対応する。制御部30は、後方から近接する他車両と車両100との距離が所定未満であると判定した場合(ステップS33でYes)、ステップS34に進む。
 このようにして、車両用表示システム1は、後方から近接する他車両と車両100との距離が所定未満のとき、合成した後方映像データ110Cをリヤビューモニタ140の表示面に表示させる。
 上述したように、本実施形態では、後方から近接する他車両と車両100との距離が所定未満のとき、後方映像データ110Bの左右上方に右側後方映像データ120Bおよび左側後方映像データ130Bを合成し、合成した後方映像データ110Cをリヤビューモニタ140の表示面に表示させる。これにより、本実施形態は、後方から近接する他車両と車両100との距離が所定未満のとき、リヤビューモニタ140の表示面で、車両100の後方とともに、車両100の側後方を確認することができる。このため、本実施形態は、運転者の視線移動を抑制することができる。本実施形態は、運転者の後方及び側後方の確認に要する時間を低減することができる。このように、車両用表示システム1は、適切な車両100周辺の確認を可能にすることができる。
[第四実施形態]
 図12および図13を参照しながら、本実施形態に係る車両用表示システム1について説明する。図12は、第四実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。図13は、第四実施形態に係る車両用表示システムのリヤビューモニタに表示される映像の一例を示す図である。本実施形態の車両用表示システム1は、制御部30における情報処理が第三実施形態の車両用表示システム1と異なる。
 映像合成部52は、近接他車両検出部60が検出した後方から近接する他車両と車両100との距離が所定未満のとき、合成した後方映像データ110Cの、他車両の検出方向に対応する、右側後方映像データ120Bおよび左側後方映像データ130Bの少なくともどちらかを拡大表示する。より詳しくは、映像合成部52は、近接他車両検出部60が、車両100との距離が所定未満で、後方から近接する他車両を後方映像データ110Bの左側方に検出したとき、合成した後方映像データ110Cの、左側後方映像データ130Bの合成範囲において、左側後方映像データ130Bを拡大する。映像合成部52は、近接他車両検出部60が、車両100との距離が所定未満で、後方から近接する他車両を後方映像データ110Bの右側方に検出したとき、合成した後方映像データ110Cの、右側後方映像データ120Bの合成範囲において、右側後方映像データ120Bを拡大する。本実施形態では、後方から近接し、車両100との距離が所定未満の他車両が検出された方向に対応する右側後方映像データ120Bおよび左側後方映像データ130Bの、車両100側の下方を基準として拡大する。映像合成部52は、車両100との距離が所定未満の他車両が検出された方向が拡大された、合成した後方映像データ110C2を表示制御部70に出力する。
 近接他車両検出部60は、後方映像データ110Bから、車両100の後方から近接する他車両を検出する際に、後方映像データ110Bにおける他車両の検出位置を取得する。より詳しくは、近接他車両検出部60は、後方映像データ110Bから、車両100の後方から近接する他車両と、他車両の検出位置が後方映像データ110Bの左側方であるか右側方であるかを取得する。
 制御部30における情報処理について説明する。図12に示すフローチャートのステップS41、ステップS42、ステップS43、ステップS44、ステップS45の処理は、図11に示すフローチャートのステップS31、ステップS34、ステップS35、ステップS32、ステップS33の処理と同様である。
 制御部30は、近接する他車両の有無を判定する(ステップS41)。制御部30は、近接する他車両があると判定した場合(ステップS41でYes)、合成した後方映像データ110Cを生成して(ステップS42)、合成した後方映像データ110Cを表示する(ステップS43)。
 制御部30は、ステップS41で検出された後方から近接する他車両に対して、他車両と車両100との距離が所定未満であるか否かを判定する(ステップS45)。制御部30は、後方から近接する他車両と車両100との距離が所定以上であると判定した場合(ステップS45でNo)、ステップS41の処理を再度実行する。制御部30は、後方から近接する他車両と車両100との距離が所定未満であると判定した場合(ステップS45でYes)、ステップS46に進む。
 制御部30は、検出方向に対応する右側後方映像データ120Bおよび左側後方映像データ130Bの少なくともどちらかの合成範囲において、表示される映像を拡大する(ステップS46)。より詳しくは、制御部30は、ステップS42で生成した、合成した後方映像データ110Cの検出方向に対応する左右いずれかの右側後方映像データ120Bまたは左側後方映像データ130Bの合成範囲において、右側後方映像データ120Bまたは左側後方映像データ130Bの表示される映像を拡大して、合成した後方映像データ110C2を生成する。本実施形態では、制御部30は、合成した後方映像データ110Cの検出方向に対応する左側後方映像データ130Bの合成範囲において表示される映像を拡大して、例えば、図13に示すような後方映像データ110C2を生成する。表示される映像の拡大処理は、切出部51における切出す範囲を狭くして切出し、狭く切出した右側後方映像データ120Bまたは左側後方映像データ130Bを拡大して表示させる。
 このようにして、車両用表示システム1は、近接他車両検出部60が検出した後方から近接する他車両と車両100との距離が所定未満のとき、検出方向に対応する右側後方映像データ120Bおよび左側後方映像データ130Bが拡大された、合成した後方映像データ110C2をリヤビューモニタ140の表示面に表示させる。
 上述したように、本実施形態では、近接他車両検出部60が検出した後方から近接する他車両と車両100との距離が所定未満のとき、他車両の検出方向に対応する右側後方映像データ120Bおよび左側後方映像データ130Bが拡大された、合成した後方映像データ110C2をリヤビューモニタ140の表示面に表示させる。このため、本実施形態は、リヤビューモニタ140の表示面において、後方から近接する他車両を容易に確認することができる。このように、本実施形態は、適切な車両100周辺の確認を可能にすることができる。
[第五実施形態]
 図14を参照しながら、本実施形態に係る車両用表示システム1について説明する。図14は、第五実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。本実施形態の車両用表示システム1は、制御部30における情報処理が第四実施形態の車両用表示システム1と異なる。
 近接他車両検出部60は、車両100が走行している車線と他車両が走行している車線とを検出する。より詳しくは、近接他車両検出部60は、第一映像データ110Aについて車線認識処理を行い、車線を検出する。または、近接他車両検出部60は、ナビゲーション情報や、外部サーバなどから得られる情報に基づいて車線を検出してもよい。近接他車両検出部60は、後方映像データ110Bから、車両100が走行している車線と隣接する車線を走行している他車両を検出する。近接他車両検出部60は、車両100が走行している車線と隣接する車線のうち、対向車線を除いた車線を検出してもよい。
 映像合成部52は、近接他車両検出部60が検出した、車両100が走行している車線に隣接する車線を走行している他車両と車両100との距離が所定未満の距離となったとき、後方映像データ110Bの左右上方に、他車両の車線方向に対応する左右いずれかの右側後方映像データ120Bまたは左側後方映像データ130Bを合成する。
 制御部30における情報処理について説明する。図14に示すフローチャートのステップS52、ステップS53、ステップS54、ステップS56の処理は、図12に示すフローチャートのステップS42、ステップS43、ステップS44、ステップS46の処理と同様である。
 図14の処理における前提としては、車両100が動作している期間中、リヤビューモニタ140に後方映像データ110Bが表示され、右サイドビューモニタ150に右側後方映像データ120B、左サイドビューモニタ160に左側後方映像データ130Bが表示されている状態である。また、このような状態において、制御部30は、隣接する車線を走行する他車両の検出を継続している。より詳しくは、制御部30は、近接他車両検出部60の検出結果に基づいて、車両100の走行する車線と隣接する車線を走行する他車両を検出する。
 制御部30は、隣接する車線を走行する他車両の有無を判定する(ステップS51)。制御部30は、隣接する車線を走行する他車両がないと判定した場合(ステップS51でNo)、本処理を終了する。制御部30は、隣接する車線を走行する他車両があると判定した場合(ステップS51でYes)、ステップS52に進む。
 制御部30は、車両100が走行している車線に隣接する車線を走行している他車両と車両100との距離が所定未満であるか否かを判定する(ステップS55)。制御部30は、車両100が走行している車線に隣接する車線を走行している他車両と車両100との距離が所定以上であると判定した場合(ステップS55でNo)、ステップS51の処理を再度実行する。制御部30は、車両100が走行している車線に隣接する車線を走行している他車両と車両100との距離が所定未満であると判定した場合(ステップS55でYes)、ステップS56に進む。
 制御部30は、検出方向の右側後方映像データ120Bおよび左側後方映像データ130Bの少なくともどちらかの合成範囲において、表示される映像を拡大する(ステップS56)。
 このようにして、車両用表示システム1は、車両100が走行している車線に隣接する車線を走行している他車両と車両100との距離が所定未満のとき、後方映像データ110Bの左右上方に、検出方向に対応する左右いずれかの右側後方映像データ120Bまたは左側後方映像データ130Bを合成する。
 上述したように、本実施形態では、車両100が走行している車線に隣接する車線を走行している他車両と車両100との距離が所定未満のとき、後方映像データ110Bの左右上方に、検出方向に対応する左右いずれかの右側後方映像データ120Bまたは左側後方映像データ130Bを合成した後方映像データ110Cをリヤビューモニタ140の表示面に表示させる。これにより、本実施形態は、隣接する車線を走行している他車両と車両100との距離が所定未満のとき、リヤビューモニタ140の表示面で、検出方向の側後方を確認することができる。このため、本実施形態は、運転者の視線移動を抑制することができる。本実施形態は、運転者の後方及び側後方の確認に要する時間を低減することができる。このように、車両用表示システム1は、適切な車両100周辺の確認を可能にすることができる。
[第六実施形態]
 図15を参照しながら、本実施形態に係る車両用表示システム1について説明する。図15は、第六実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。本実施形態の車両用表示システム1は、図示しない走行状況情報取得部を備える点で第一実施形態の車両用表示システム1と異なる。
 走行状況情報取得部は、状況検出部である。走行状況情報取得部は、車両100に備えられたCAN(Controller Area Network)に接続されOBD(On Board Diagnosis)IIデータなどを取得することで、車両100における様々な走行状況情報を取得する。本実施形態では、走行状況情報取得部は、車両100の走行状況情報として、車両100の車線変更予定情報を取得する。より詳しくは、走行状況情報取得部は、例えば、方向指示器に対する操作情報やカーナビゲーションの車線変更情報などを取得する。走行状況情報取得部は、取得した走行状況を映像合成部52に出力する。
 制御部30における情報処理について説明する。図15に示すフローチャートのステップS63~ステップS65の処理は、図9に示すフローチャートのステップS11~ステップS13の処理と同様である。
 図15の処理における前提としては、車両100が動作している期間中、リヤビューモニタ140に後方映像データ110Bが表示され、右サイドビューモニタ150に右側後方映像データ120B、左サイドビューモニタ160に左側後方映像データ130Bが表示されている状態である。また、このような状態において、制御部30は、車線変更予定があるか否かの検出を継続している。より詳しくは、制御部30は、走行状況情報取得部で取得した走行状況情報に基づいて、車線変更予定があるか否かを検出する。
 制御部30は、車線変更予定の有無を判定する(ステップS61)。制御部30は、車線変更予定がないと判定した場合(ステップS61でNo)、本処理を終了する。制御部30は、車線変更予定があると判定した場合(ステップS61でYes)、ステップS62に進む。
 ステップS61において、車線変更予定があると判定された場合(ステップS61でYes)、制御部30は、後方から近接する他車両を検出する(ステップS62)。ステップS62の処理は、ステップS61でYesと判定されたときに開始されてもよく、常時検出を行っていてもよい。
 また、ステップS61において、車線変更予定があると判定された場合(ステップS61でYes)、走行状況情報取得部は、車線変更予定に対する車線変更の終了の検出を開始する。車線変更の終了の検出は、後方カメラ110から取得した第一映像データ110Aから車線認識処理を行い、認識した白線との位置関係に基づき判定する。具体的には、車線変更予定があると判定された場合には、方向指示器に対する操作情報や、カーナビゲーションの車線変更情報などでは車線変更方向も含まれているため、車線変更方向の車線が車両100の車幅方向に移動したことで、車線変更が終了したと判定する。
 制御部30は、車線変更が終了したか否かを判定する(ステップS66)。車線変更が終了していないと判定された場合(ステップS66でNo)、ステップS66の処理を再度実行する。車線変更が終了したと判定された場合(ステップS66でYes)、ステップS61の処理を再度実行する。
 このようにして、車両用表示システム1は、車線変更予定があるとき、図9に示すフローチャートのステップS11以降の処理を行う。図9に示すフローチャートのステップS11以降の処理は、車線変更が終了するまで継続される。
 上述したように、本実施形態では、車線変更予定があるとき、図9に示すフローチャートのステップS11以降の処理を行う。これにより、本実施形態は、車線変更予定があり、運転者が必要とするタイミングで、適切な情報量の映像を表示することができる。
[第七実施形態]
 図16ないし図22を参照しながら、本実施形態に係る車両用表示システム1Aについて説明する。図16は、第七実施形態に係る車両用表示システムの構成例を示すブロック図である。
 車両用表示制御装置10Aは、記憶部20と、制御部30Aとを有する。
 制御部30Aは、映像データ取得部40と、映像処理部50と、走行状況情報取得部60Aと、表示制御部70とを含む。
 映像合成部52Aは、走行状況情報取得部60Aが取得した走行状況に応じて、後方映像データ110Bの左右上方に右側後方映像データ120Bおよび左側後方映像データ130Bを合成した後方映像データ110Cを生成する。本実施形態では、映像合成部52Aは、走行状況情報取得部60Aが、車両100が後退することを示す情報を取得したとき、後方映像データ110Bの左右上方に右側後方映像データ120Bおよび左側後方映像データ130Bを合成した後方映像データ110Cを生成する。例えば、映像合成部52Aは、図8に示すような合成した後方映像データ110Cを生成する。
 走行状況情報取得部60Aは、状況検出部である。走行状況情報取得部60Aは、車両100に備えられたCANに接続されOBDIIデータなどを取得することで、車両100における様々な走行状況情報を取得する。走行状況情報取得部60Aは、車両100の走行状況情報として、車両100が後退することを示す情報を取得する。より詳しくは、走行状況情報取得部60Aは、例えば、シフトポジション情報または進行方向情報を取得する。走行状況情報取得部60Aは、取得した走行状況情報を映像合成部52Aに出力する。
 次に、図17を用いて、制御部30Aにおける情報処理について説明する。図17は、第七実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。
 図17の処理における前提としては、車両100が動作している期間中、リヤビューモニタ140に後方映像データ110Bが表示され、右サイドビューモニタ150に右側後方映像データ120B、左サイドビューモニタ160に左側後方映像データ130Bが表示されている状態である。また、このような状態において、制御部30Aは、走行状況情報取得部60Aで走行状況の取得を継続している。より詳しくは、制御部30Aは、走行状況情報取得部60Aで、例えば、シフトポジション情報または進行方向情報を含む走行状況情報が発生したか常時監視している。
 制御部30Aは、後退トリガの有無を判定する(ステップSA11)。後退トリガとは、例えば、シフトポジションが「リバース」とされたことをいう。または、後退トリガとは、車両100の進行方向が車両100の前後方向の後方となったことをいう。制御部30Aは、走行状況情報取得部60Aで取得した走行状況情報に基づいて、後退トリガの有無を判定する。制御部30Aは、後退トリガがないと判定した場合(ステップSA11でNo)、ステップSA11の処理を再度実行する。制御部30Aは、後退トリガがあると判定した場合(ステップSA11でYes)、ステップSA12に進む。
 ステップSA11において、後退トリガがあると判定された場合、制御部30Aは、合成した後方映像データ110Cを生成する(ステップSA12)。より詳しくは、制御部30Aは、切出部51で、第一映像データ110Aから後方映像データ110Bを切出させる。そして、制御部30Aは、映像合成部52Aで、後方映像データ110Bの左右上方に右側後方映像データ120Bおよび左側後方映像データ130Bを合成した後方映像データ110Cを生成させる。
 制御部30Aは、ステップSA12で生成した、合成した後方映像データ110Cを表示する(ステップSA13)。より詳しくは、制御部30Aは、表示制御部70で、通常の後方映像データ110Bまたは合成した後方映像データ110Cをリヤビューモニタ140に表示させる。
 走行状況情報取得部60Aは、ステップSA11で後退トリガがあると判定された後も継続して走行状況を取得している。より詳しくは、制御部30Aは、走行状況情報取得部60Aで走行状況の取得を継続している。
 ステップSA13において、合成した後方映像データ110Cを表示している期間において、制御部30Aは、走行状況情報取得部60Aで取得した走行状況情報に基づいて、後退終了を判定する(ステップSA14)。より詳しくは、制御部30Aは、走行状況情報取得部60Aで取得した走行状況情報に基づいて、後退トリガの解除を判定する。制御部30Aは、後退トリガの解除がないと判定した場合(ステップSA14でNo)、合成した後方映像データ110Cの表示を継続する。制御部30Aは、後退トリガの解除があると判定された場合(ステップSA14でYes)、制御部30Aは、後方映像データ110Bを生成し(ステップSA15)、後方映像データ110Bを表示する(ステップSA16)。すなわち、ステップSA15およびステップSA16は、ステップSA11において後退トリガが検出される以前と同様、通常の後方映像データBの表示が開始、継続される。
 制御部30Aは、後退トリガの検出ごとに、上記の処理を繰り返す。
 図18ないし図22を用いて、制御部30Aにおける情報処理の具体例を説明する。図18は、第七実施形態に係る車両用表示システムの後方カメラで撮影された映像データの他の例を示す図である。図19は、第七実施形態に係る車両用表示システムのリヤビューモニタに表示される映像の他の例を示す図である。図20は、第七実施形態に係る車両用表示システムの右サイドビューモニタに表示される映像の他の例を示す図である。図21は、第七実施形態に係る車両用表示システムの左サイドビューモニタに表示される映像の他の例を示す図である。図22は、第七実施形態に係る車両用表示システムのリヤビューモニタに表示される映像の他の例を示す図である。車両100は、シフトポジション「リバース」が選択されている。図18に示す第一映像データ110Aには、車両100の後方に駐車されている他車両201が映っている。制御部30Aは、ステップSA11において、後退トリガがあると判定する(ステップSA11でYes)。そして、制御部30Aは、ステップSA12において、切出部51で、図18に示す第一映像データ110Aから、図19に示す後方映像データ110Bを切出させる。そして、制御部30Aは、映像合成部52Aで、後方映像データ110Bの右上方に、図20に示す右側後方映像データ120Bを合成し、左上方に図21に示す左側後方映像データ130Bを合成して、合成した後方映像データ110Cを生成させる。そして、制御部30Aは、ステップSA13において、表示制御部70で、リヤビューモニタ140の表示面に、図22に示す合成した後方映像データ110Cを表示させる。
 このようにして、車両用表示システム1Aは、走行状況情報取得部60Aが取得した走行状況に応じて、合成した後方映像データ110Cをリヤビューモニタ140の表示面に表示させる。
 上述したように、本実施形態は、走行状況情報取得部60Aが取得した走行状況に応じて、合成した後方映像データ110Cをリヤビューモニタ140の表示面に表示させる。本実施形態では、車両100の後退時、後方映像データ110Bの左右上方に右側後方映像データ120Bおよび左側後方映像データ130Bを合成した後方映像データ110Cをリヤビューモニタ140の表示面に表示させる。これにより、本実施形態は、車両100の後退時、リヤビューモニタ140の表示面で、車両100の後方とともに、車両100の側後方を確認することができる。このため、本実施形態は、運転者の視線移動を抑制することができる。より詳しくは、本実施形態は、リヤビューモニタ140から視線移動して右サイドビューモニタ150および左サイドビューモニタ160を視認しなくても、路側方向の側後方を確認することができる。本実施形態は、運転者の後方及び側後方の確認に要する時間を低減することができる。このように、車両用表示システム1Aは、適切な車両100周辺の確認を可能にすることができる。
 本実施形態によれば、車両100の後退時、合成した後方映像データ110Cをリヤビューモニタ140の表示面に表示させる。このため、本実施形態によれば、運転者による操作によらず自動で、リヤビューモニタ140の表示面で、車両100の後方とともに、車両100の側後方を表示させることができる。このように、車両用表示システム1Aは、適切な車両100周辺の確認を可能にすることができる。
 本実施形態によれば、車両100の後退時、所定条件を満たす場合に、合成した後方映像データ110Cをリヤビューモニタ140の表示面に表示させる。言い換えると、本実施形態によれば、所定条件を満たす場合、合成した後方映像データ110Cを表示させ、その他の場合、後方映像データ110Bを表示させる。このため、本実施形態は、車両100の後退時、運転者が必要とするタイミングで、適切な情報量の映像を表示することができる。
 本実施形態によれば、映像合成部52Aは、後方映像データ110Bの左右上方に右側後方映像データ120Bおよび左側後方映像データ130Bを合成する。言い換えると、本実施形態によれば、映像合成部52Aは、後方映像データ110Bの消失点より下方の範囲は、右側後方映像データ120Bおよび左側後方映像データ130Bが重なる範囲を小さくする。言い換えると、後方映像データ110Bの左右上方は、後退時の後方確認の優先度が低いとともに、右側後方映像データ120Bおよび左側後方映像データ130Bによる確認がより適切である。このため、本実施形態は、運転者にとって運転中の安全確認の必要度が高い範囲は、走行状況によらず、従来の光学式のルームミラーと同様に後方を確認することができる。
[第八実施形態]
 図23ないし図25を参照しながら、本実施形態に係る車両用表示システム1Aについて説明する。図23は、第八実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。図24は、第八実施形態に係る車両用表示システムの後方カメラで撮影された映像データの一例を示す図である。図25は、第八実施形態に係る車両用表示システムのリヤビューモニタに表示される映像の一例を示す図である。本実施形態に係る車両用表示システム1Aは、基本的な構成は第七実施形態の車両用表示システム1Aと同様である。以下の説明においては、車両用表示システム1Aと同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。本実施形態の車両用表示システム1Aは、切出部51および制御部30Aにおける情報処理が第七実施形態の車両用表示システム1Aと異なる。
 切出部51は、走行状況に応じて、第一映像データ110Aからの切出範囲を、通常の後方映像データ110Bの切出範囲よりも下方に設定する。より詳しくは、切出部51は、表示制御部70が映像合成部52Aで合成した後方映像データ110Cを表示させるとき、合成していない通常の後方映像データ110Bを表示させるときより下方を切出すように第一映像データ110Aからの切出範囲を設定する。例えば、合成していない通常の後方映像データ110Bを表示させるときの切出範囲より、所定画素下方を含むように切出範囲を設定する。言い換えると、切出部51は、表示制御部70が映像合成部52Aで合成した後方映像データ110Cを表示させるとき、より車両100に近い位置を切出範囲に含むように設定する。切出部51は、切出した後方映像データ110B2を映像合成部52Aと表示制御部70とに出力する。
 次に、図23を用いて、制御部30Aにおける情報処理について説明する。図23に示すフローチャートのステップSA21、ステップSA24~ステップSA27の処理は、図17に示すフローチャートのステップSA11、ステップSA13~ステップSA16の処理と同様である。
 制御部30Aは、切出範囲を下方にシフトして後方映像データ110B2を切出す(ステップSA22)。
 制御部30Aは、合成した後方映像データ110Cを生成する(ステップSA23)。より詳しくは、制御部30Aは、切出部51で切出した後方映像データ110B2の左右上方に右側後方映像データ120Bおよび左側後方映像データ130Bを合成した後方映像データ110Cを生成させる。
 図24および図25を用いて、制御部30Aにおける情報処理の具体例を説明する。車両100は、シフトポジション「リバース」が選択されている。図24に示す第一映像データ110Aは、車両100の後方に駐車されている他車両201が映っている。制御部30Aは、ステップSA21において、後退トリガがあると判定する(ステップSA21でYes)。そして、制御部30Aは、ステップSA22において、切出部51で、後方映像データ110Bの切出範囲を下方にシフトして、図24に示す第一映像データ110Aから後方映像データ110B2を切出させる。そして、制御部30Aは、ステップSA23において、映像合成部52Aで、後方映像データ110B2の左右上方に右側後方映像データ120Bおよび左側後方映像データ130Bを合成した後方映像データ110Cを生成させる。そして、制御部30Aは、ステップSA24において、表示制御部70で、リヤビューモニタ140の表示面に、図25に示す合成した後方映像データ110Cを表示させる。
 このようにして、車両用表示システム1Aは、走行状況情報取得部60Aが取得した走行状況に応じて、合成していない通常の後方映像データ110Bより下方を切出し、合成した後方映像データ110Cをリヤビューモニタ140の表示面に表示させる。
 上述したように、本実施形態では、車両100の後退時、切出範囲を下方にシフトして切出した後方映像データ110B2の左右上方に右側後方映像データ120Bおよび左側後方映像データ130Bを合成し、合成した後方映像データ110Cをリヤビューモニタ140の表示面に表示させる。これにより、本実施形態は、リヤビューモニタ140の表示面で、車両100により近い位置を含んで後方を確認することができる。このように、車両用表示システム1Aは、適切な車両100周辺の確認を可能にすることができる。
[第九実施形態]
 図26ないし図29を参照しながら、本実施形態に係る車両用表示システム1Bについて説明する。図26は、第九実施形態に係る車両用表示システムの構成例を示すブロック図である。図27は、第九実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。図28は、第九実施形態に係る車両用表示システムの後方カメラで撮影された映像データの一例を示す図である。図29は、第九実施形態に係る車両用表示システムのリヤビューモニタに表示される映像の一例を示す図である。本実施形態の車両用表示システム1Bは、検出部80Bと、認識辞書記憶部300とを有する点および制御部30Bにおける情報処理が第七実施形態の車両用表示システム1Aと異なる。
 認識辞書記憶部300は、例えば、車両、人物、壁、縁石、植物などを含む障害物の各方向視の形状、大きさ、色などのパターンを照合可能な認識辞書を記憶している。認識辞書記憶部300は、例えば、RAM、ROM、フラッシュメモリなどの半導体メモリ素子、または、ハードディスク、光ディスク、ネットワークを介した外部記憶装置などの記憶装置である。
 検出部80Bは、後方映像データ110Bの左右側方の障害物を検出する。後方映像データ110Bの左右側方は、右サイドビューモニタ150または左サイドビューモニタ160による確認範囲と重複する範囲である。例えば、後方映像データ110Bの左右側方は、後方映像データ110Bの横方向サイズにおける左右約三分の一程度である。検出部80Bは、後方映像データ110Bの左右側方において、障害物認識処理を行い、障害物を検出する。より詳しくは、検出部80Bは、後方映像データ110Bの左右側方に対して、認識辞書記憶部300が記憶している認識辞書を用いたパターンマッチングを行い、障害物の存在を検出する。検出部80Bは、検出した障害物を画像処理で追尾する。検出部80Bは、検出結果を映像合成部52Bに出力する。
 映像合成部52Bは、検出部80Bで障害物を検出したとき、合成した後方映像データ110Cの、障害物が検出された方向に対応する、右側後方映像データ120Bおよび左側後方映像データ130Bの少なくともどちらかを拡大表示する。より詳しくは、映像合成部52Bは、検出部80Bで後方映像データ110Bの左側方に障害物を検出したとき、合成した後方映像データ110Cの、左側後方映像データ130Bの合成範囲において、左側後方映像データ130Bを拡大する。映像合成部52Bは、検出部80Bで後方映像データ110Bの右側方に障害物を検出したとき、合成した後方映像データ110Cの、右側後方映像データ120Bの合成範囲において、右側後方映像データ120Bを拡大する。本実施形態では、障害物が検出された方向に対応する右側後方映像データ120Bおよび左側後方映像データ130Bの、車両100側の下方を基準として拡大する。映像合成部52Bは、障害物が検出された方向が拡大された、合成した後方映像データ110C3を表示制御部70に出力する。
 制御部30Bにおける情報処理について説明する。図27に示すフローチャートのステップSA31~ステップSA33、ステップSA36~ステップSA38の処理は、図17に示すフローチャートのステップSA11~ステップSA13、ステップSA14~ステップSA16の処理と同様である。
 制御部30Bは、後方映像データ110Bの左右側方に障害物を検出するか否かを判定する(ステップSA34)。より詳しくは、制御部30Bは、検出部80Bで後方映像データ110Bの左右側方の障害物を検出したか否かを判定する。制御部30Bは、検出部80Bで後方映像データ110Bの左右側方に障害物を検出していないと判定した場合(ステップSA34でNo)、ステップSA36に進む。制御部30Bは、検出部80Bで後方映像データ110Bの左右側方に障害物を検出したと判定した場合(ステップSA34でYes)、ステップSA35に進む。
 制御部30Bは、検出方向の右側後方映像データ120Bおよび左側後方映像データ130Bの少なくともどちらかの合成範囲において、表示される映像を拡大する(ステップSA35)。より詳しくは、制御部30Bは、ステップSA32で生成した、合成した後方映像データ110Cの検出方向に対応する左右いずれかの右側後方映像データ120Bまたは左側後方映像データ130Bの合成範囲において、右側後方映像データ120Bまたは左側後方映像データ130Bの表示される映像を拡大して、合成した後方映像データ110C3を生成する。表示される映像の拡大処理は、切出部51における切出範囲を狭くして切出し、狭く切出した右側後方映像データ120Bまたは左側後方映像データ130Bを拡大して表示させる。
 図28および図29を用いて、制御部30Bにおける情報処理の具体例を説明する。車両100は、シフトポジション「リバース」が選択されている。図28に示す第一映像データ110Aには、左側方に縁石202が映っている。制御部30Bは、ステップSA31において、後退トリガがあると判定する(ステップSA31でYes)。そして、制御部30Bは、ステップSA32において、切出部51で、図28に示す第一映像データ110Aから、後方映像データ110Bを切出させる。そして、制御部30Bは、映像合成部52Bで、後方映像データ110Bの左右上方に右側後方映像データ120Bおよび左側後方映像データ130Bを合成した後方映像データ110Cを生成させる。そして、制御部30Bは、ステップSA34において、検出部80Bで後方映像データ110Bの左右側方に障害物を検出したと判定する(ステップSA34でYes)。そして、制御部30Bは、ステップSA35において、映像合成部52Bで、障害物の検出方向である左側に対応する、左側後方映像データ130Bの合成範囲において、左側後方映像データ130Bを拡大して、合成した後方映像データ110C3を生成させる。そして、制御部30Bは、表示制御部70で、リヤビューモニタ140の表示面に、図29に示す拡大された左側後方映像データ130B2を合成した後方映像データ110C3を表示させる。
 このようにして、車両用表示システム1Bは、後方映像データ110Bの左右側方に障害物が検出されたとき、障害物が検出された方向に対応する右側後方映像データ120Bおよび左側後方映像データ130Bが拡大された、合成した後方映像データ110C3をリヤビューモニタ140の表示面に表示させる。
 上述したように、本実施形態では、後方映像データ110Bの左右側方に障害物が検出されたとき、障害物が検出された方向に対応する右側後方映像データ120Bおよび左側後方映像データ130Bが拡大された、合成した後方映像データ110C3をリヤビューモニタ140の表示面に表示させる。このため、本実施形態は、リヤビューモニタ140の表示面において、車両100の左右側方にある障害物を容易に確認することができる。このように、本実施形態は、適切な車両100周辺の確認を可能にすることができる。
[第十実施形態]
 図30を参照しながら、本実施形態に係る車両用表示システム1Aについて説明する。図30は、第十実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。本実施形態の車両用表示システム1Aは、制御部30Aにおける情報処理が第七実施形態の車両用表示システム1Aと異なる。
 走行状況情報取得部60Aは、車両100の走行状況を示す情報として、車両100の走行速度に関する情報を取得する。
 映像合成部52Aは、走行状況情報取得部60Aが、車両100が低速走行状況であることを示している情報を取得したとき、後方映像データ110Bの左右上方に右側後方映像データ120Bおよび左側後方映像データ130Bを合成する。低速走行状況とは、走行状況情報取得部60Aで取得した走行状況が、例えば、車両100の走行速度が所定速度未満の状態が継続していると判定される状況をいう。または、低速走行状況は、ナビゲーション情報や外部サーバなどで取得した情報に基づいて、車両100の走行路が市街地、住宅街、商店街、歩行者の多い道路であると判定される状況としてもよい。または、低速走行状況は、ナビゲーション情報や外部サーバなどで取得した情報に基づいて、車両100が、道路幅が所定幅未満である道路を走行していると判定される状況としてもよい。または、低速走行状況は、ナビゲーション情報や外部サーバなどで取得した情報に基づいて、車両100が、単車線の道路を走行していると判定される状況としてもよい。
 制御部30Aにおける情報処理について説明する。図30に示すフローチャートのステップSA42、ステップSA43、ステップSA45、ステップSA46の処理は、図17に示すフローチャートのステップSA12、ステップSA13、ステップSA15、ステップSA16の処理と同様である。
 制御部30Aは、低速走行状況であるか否かを判定する(ステップSA41)。より詳しくは、制御部30Aは、走行状況情報取得部60Aで取得した走行状況が、車両100が低速走行状況であることを示しているか否かを判定する。制御部30Aは、低速走行状況ではないと判定した場合(ステップSA41でNo)、ステップSA41の処理を再度実行する。制御部30Aは、低速走行状況であると判定した場合(ステップSA41でYes)、ステップSA42に進む。
 走行状況情報取得部60Aは、ステップSA41で低速走行状況であると判定された後も継続して走行状況を取得している。より詳しくは、制御部30Aは、走行状況情報取得部60Aで走行状況の取得を継続している。
 ステップSA43において、合成した後方映像データ110Cを表示している期間において、制御部30Aは、走行状況情報取得部60Aで取得した走行状況情報に基づいて、低速走行状況の終了を判定する(ステップSA44)。制御部30Aは、低速走行状況が終了していないと判定した場合(ステップSA44でNo)、合成した後方映像データ110Cの表示を継続する。制御部30Aは、低速走行状況が終了したと判定された場合(ステップSA44でYes)、制御部30Aは、後方映像データ110Bを生成し(ステップSA45)、後方映像データ110Bを表示する(ステップSA46)。すなわち、ステップSA45およびステップSA46は、ステップSA41において低速走行状況であると判定される以前と同様、通常の後方映像データ110Bの表示が開始、継続される。
 このようにして、車両用表示システム1Aは、低速走行状況であるとき、合成した後方映像データ110Cをリヤビューモニタ140の表示面に表示させる。
 上述したように、本実施形態では、低速走行状況であるとき、合成した後方映像データ110Cをリヤビューモニタ140の表示面に表示させる。これにより、本実施形態は、低速走行状況であるとき、リヤビューモニタ140の表示面で、車両100の側後方を確認することができる。このため、本実施形態は、運転者の視線移動を抑制することができる。本実施形態は、運転者の後方及び側後方の確認に要する時間を低減することができる。このように、車両用表示システム1Aは、適切な車両100周辺の確認を可能にすることができる。
 低速走行時、リヤビューモニタ140は、目視による確認時間が長くなることが知られている。本実施形態によれば、低速走行状況で、運転者が車両100の路側方向の側後方を確認したいとき、リヤビューモニタ140の表示面で、車両100の後方とともに、車両100の側後方を確認することができる。このように、本実施形態は、運転者が必要とするタイミングで、運転者に適切な情報をリヤビューモニタ140の表示面を介して提供することができる。
[第十一実施形態]
 図31ないし図33を参照しながら、本実施形態に係る車両用表示システム1Aについて説明する。図31は、第十一実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。図32は、第十一実施形態に係る車両用表示システムの後方カメラで撮影された映像データの一例を示す図である。図33は、第十一実施形態に係る車両用表示システムのリヤビューモニタに表示される映像の一例を示す図である。本実施形態の車両用表示システム1Aは、制御部30Aにおける情報処理が第七実施形態の車両用表示システム1Aと異なる。
 走行状況情報取得部60Aは、車両100の走行状況を示す情報として、車両100の走行路に関する情報を取得する。より詳しくは、走行状況情報取得部60Aは、ナビゲーション情報や、外部サーバなどから走行路に関する情報を取得する。本実施形態では、走行状況情報取得部60Aは、車両100が走行している道路の車線数を取得する。
 映像合成部52Aは、走行状況情報取得部60Aが取得した道路情報が、片側一車線の道路を示しているとき、後方映像データ110Bの左右上方に、路側方向に対応する左右いずれかの右側後方映像データ120Bまたは左側後方映像データ130Bを合成する。より詳しくは、映像合成部52Aは、路側方向が左側であるとき、後方映像データ110Bの左上方に左側後方映像データ130Bを合成する。映像合成部52Aは、路側方向が右側であるとき、後方映像データ110Bの右上方に右側後方映像データ120Bを合成する。
 制御部30Aにおける情報処理について説明する。図31に示すフローチャートのステップSA53、ステップSA55、ステップSA56の処理は、図17に示すフローチャートのステップSA13、ステップSA15、ステップSA16の処理と同様である。
 制御部30Aは、走行路は片側一車線であるか否かを判定する(ステップSA51)。より詳しくは、制御部30Aは、走行状況情報取得部60Aで取得した走行状況が、車両100の走行路が片側一車線の道路を示しているか否かを判定する。制御部30Aは、走行路が片側一車線ではないと判定した場合(ステップSA51でNo)、ステップSA51の処理を再度実行する。制御部30Aは、走行路が片側一車線であると判定した場合(ステップSA51でYes)、ステップSA52に進む。
 制御部30Aは、路側方向に対応する右側後方映像データ120Bまたは左側後方映像データ130Bを合成した後方映像データ110C4を生成する(ステップSA52)。より詳しくは、制御部30Aは、映像合成部52Aで、後方映像データ110Bの路側方向に対応する左右上方に、右側後方映像データ120Bまたは左側後方映像データ130Bを合成した後方映像データ110C4を生成する。
 走行状況情報取得部60Aは、ステップSA51で走行道路が片側一車線であると判定された後も継続して走行状況を取得している。より詳しくは、制御部30Aは、走行状況情報取得部60Aで走行状況の取得を継続している。
 ステップSA53において、合成した後方映像データ110C4を表示している期間において、制御部30Aは、走行状況情報取得部60Aで取得した走行状況情報に基づいて、片側一車線の道路の終了を判定する(ステップSA54)。制御部30Aは、片側一車線の道路が終了していないと判定した場合(ステップSA54でNo)、合成した後方映像データ110C4の表示を継続する。制御部30Aは、片側一車線の道路が終了したと判定された場合(ステップSA54でYes)、制御部30Aは、後方映像データ110Bを生成し(ステップSA55)、後方映像データ110Bを表示する(ステップSA56)。すなわち、ステップSA55およびステップSA56は、ステップSA51において走行道路が片側一車線であると判定される以前と同様、通常の後方映像データ110Bの表示が開始、継続される。
 図32および図33を用いて、制御部30Aにおける情報処理の具体例を説明する。図32に示す第一映像データ110Aは、車両100が片側一車線の道路を走行しているときの映像である。制御部30Aは、ステップSA51において、走行路が片側一車線であると判定する(ステップSA51でYes)。そして、制御部30Aは、ステップSA52において、後方映像データ110Bの路側方向である左側に対応する左上方に、左側後方映像データ130Bを合成した後方映像データ110C4を生成する。そして、制御部30Aは、リヤビューモニタ140の表示面に、図33に示す左側後方映像データ130Bを合成した後方映像データ110C4を表示させる。
 このようにして、車両用表示システム1Aは、片側一車線の道路を走行しているとき、後方映像データ110Bの左右上方に、路側方向に対応する左右いずれかの右側後方映像データ120Bまたは左側後方映像データ130Bを合成する。
 上述したように、本実施形態では、片側一車線の道路を走行しているとき、後方映像データ110Bの左右上方に、路側方向に対応する左右いずれかの右側後方映像データ120Bまたは左側後方映像データ130Bを合成した後方映像データ110C4をリヤビューモニタ140の表示面に表示させる。これにより、本実施形態は、片側一車線の道路を走行しているとき、リヤビューモニタ140の表示面で、車両100の後方とともに、車両100の路側方向の側後方を確認することができる。このため、本実施形態は、運転者の視線移動を抑制することができる。本実施形態は、運転者の後方及び側後方の確認に要する時間を低減することができる。このように、車両用表示システム1Aは、適切な車両100周辺の確認を可能にすることができる。
[第十二実施形態]
 図34ないし図36を参照しながら、本実施形態に係る車両用表示システム1Aについて説明する。図34は、第十二実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。図35は、第十二実施形態に係る車両用表示システムのリヤビューモニタに表示される映像の一例を示す図である。図36は、第十二実施形態に係る車両用表示システムのリヤビューモニタに表示される映像の他の例を示す図である。本実施形態の車両用表示システム1Aは、制御部30Aにおける情報処理が第七実施形態の車両用表示システム1Aと異なる。
 走行状況情報取得部60Aは、車両100の走行状況を示す情報として、車両100の走行路に関する情報を取得する。より詳しくは、走行状況情報取得部60Aは、例えば、ナビゲーション情報や、外部サーバなどで取得した情報に基づいて、車両100が低速走行を行う道路を走行しているかを判定可能な情報を取得する。低速走行を行う道路とは、走行路が市街地、住宅街、商店街、歩行者の多い道路をいう。または、低速走行を行う道路とは、道路幅が所定幅未満の道路としてもよい。または、単車線の道路としてもよい。または、片側一車線の道路であると判定される道路としてもよい。
 映像合成部52Aは、走行状況情報取得部60Aが、車両100が低速走行を行う道路を走行中であることを示している情報を取得したとき、後方映像データ110Bの左右上方に右側後方映像データ120Bおよび左側後方映像データ130Bを合成する。さらに、映像合成部52Aは、走行状況情報取得部60Aが取得した道路情報が、片側一車線の道路を示しているとき、路側方向に対応する左右いずれかの右側後方映像データ120Bまたは左側後方映像データ130Bを拡大して合成する。より詳しくは、映像合成部52Aは、路側方向が左側であるとき、後方映像データ110Bの左上方に左側後方映像データ130Bを合成する。映像合成部52Aは、路側方向が右側であるとき、後方映像データ110Bの右上方に右側後方映像データ120Bを合成する。
 制御部30Aにおける情報処理について説明する。図34に示すフローチャートのステップSA62、ステップSA63、ステップSA68、ステップSA69の処理は、図17に示すフローチャートのステップSA12、ステップSA13、ステップSA15、ステップSA16の処理と同様である。図34に示すフローチャートのステップSA64、ステップSA66の処理は、図31に示すフローチャートのステップSA51、ステップSA54の処理と同様である。
 制御部30Aは、低速走行を行う道路を走行中であるか否かを判定する(ステップSA61)。より詳しくは、制御部30Aは、走行状況情報取得部60Aで取得した走行状況が、車両100が低速走行を行う道路を走行中であることを示しているか否かを判定する。制御部30Aは、低速走行を行う道路を走行中ではないと判定した場合(ステップSA61でNo)、ステップSA61の処理を再度実行する。制御部30Aは、低速走行を行う道路を走行中であると判定した場合(ステップSA61でYes)、ステップSA62に進む。
 ステップSA64において、走行道路が片側一車線であると判定された場合、制御部30Aは、路側方向に対応する左右いずれかの右側後方映像データ120Bまたは左側後方映像データ130Bにおいて、表示される映像を拡大する(ステップSA65)。より詳しくは、制御部30Aは、映像合成部52Aで、ステップSA62で生成した、合成した後方映像データ110Cの路側方向に対応する左右いずれかの右側後方映像データ120Bまたは左側後方映像データ130Bにおいて、右側後方映像データ120Bまたは左側後方映像データ130Bの表示される映像を拡大して、合成した後方映像データ110C5を生成させる。表示される映像の拡大処理は、切出部51における切出範囲を狭くして切出し、狭く切出した右側後方映像データ120Bまたは左側後方映像データ130Bを拡大して表示させる。
 制御部30Aにおける情報処理の具体例を説明する。制御部30Aは、ステップSA61において、低速走行を行う道路を走行中ではないと判定した場合(ステップSA61でNo)、通常の後方映像データ110Bの生成と表示を継続する。制御部30Aは、ステップSA61において、低速走行を行う道路を走行中であると判定した場合(ステップSA61でYes)、ステップSA62において、合成した後方映像データ110Cを生成する。より詳しくは、制御部30Aは、図35に示す、後方映像データ110Bの左右上方に、右側後方映像データ120Bおよび左側後方映像データ130Bを合成した後方映像データ110Cを生成する。さらに、制御部30Aは、ステップSA64において、走行路が片側一車線であると判定した場合(ステップSA64でYes)、ステップSA65において、路側方向に対応する左右いずれかの右側後方映像データ120Bまたは左側後方映像データ130Bにおいて、表示される映像を拡大した、合成した後方映像データ110C5を生成する。より詳しくは、制御部30Aは、図36に示す、路側方向である左側に対応する左側後方映像データ130Bにおいて、表示される映像を拡大した左側後方映像データ130B2を含む後方映像データ110C5を生成する。そして、制御部30Aは、リヤビューモニタ140の表示面に、通常の後方映像データ110Bまたは合成した後方映像データ110Cまたは合成した後方映像データ110C5を表示させる。
 このようにして、車両用表示システム1Aは、車両100が低速走行を行う道路を走行中であるとき、後方映像データ110Bの左右上方に右側後方映像データ120Bおよび左側後方映像データ130Bを合成する。さらに、車両用表示システム1Aは、走行路が片側一車線であるとき、路側方向に対応する左右いずれかの右側後方映像データ120Bまたは左側後方映像データ130Bを拡大する。
 上述したように、本実施形態では、車両100が低速走行を行う道路を走行中であるとき、リヤビューモニタ140の表示面で、車両100の後方とともに、車両100の路側方向の側後方を確認することができる。さらに、走行路が片側一車線であるとき、路側方向に対応する右側後方映像データ120Bおよび左側後方映像データ130Bが拡大された、合成した後方映像データ110C5をリヤビューモニタ140の表示面に表示させる。このため、本実施形態は、走行路が片側一車線であるとき、リヤビューモニタ140の表示面において、車両100の左右側方にある障害物を容易に確認することができる。本実施形態は、運転者の後方及び側後方の確認に要する時間を低減することができる。このように、車両用表示システム1Aは、適切な車両100周辺の確認を可能にすることができる。
[第十三実施形態]
 図37を参照しながら、本実施形態に係る車両用表示システム1Aについて説明する。図37は、第十三実施形態に係る車両用表示システムの車両用表示制御装置の制御部における処理の流れを示すフローチャートである。本実施形態の車両用表示システム1Aは、制御部30Aにおける情報処理が第七実施形態の車両用表示システム1Aと異なる。
 走行状況情報取得部60Aは、車両100の走行状況を示す情報として、車両100の旋回方向(左右方向)情報を取得する。旋回方向情報とは、車両100の旋回方向への移動を推定する情報である。具体的に、旋回方向情報は、車両100の周辺の地図情報と車両100の現在地情報と車両100の方向指示器操作情報と車両100のギア操作情報と車両100のステアリング操作情報と車両100の角速度との少なくともいずれか一つの情報などである。
 車両100の旋回方向の変化とは、車両100が走行中の道路が延びる方向(以下、「走行路方向」という)に対して、逸れる方向の変化である。旋回方向の変化は、車両100の前後方向の前側に向かって左右方向の変化である。例えば、右左折時や車線変更時に、車両100は、旋回方向の変化を生じる。車両100の旋回方向の変化には、屈曲またはカーブしている道路に沿った車両100の方向の変化は含まない。
 映像合成部52Aは、走行状況情報取得部60Aが取得した旋回情報が、旋回方向の変化を示しているとき、変化する旋回方向に対応する左右いずれかの右側後方映像データ120Bまたは左側後方映像データ130Bを合成する。より詳しくは、映像合成部52Aは、旋回方向が左方向であるとき、後方映像データ110Bの左上方に左側後方映像データ130Bを合成する。映像合成部52Aは、旋回方向が右方向であるとき、後方映像データ110Bの右上方に右側後方映像データ120Bを合成する。映像合成部52Aは、例えば、走行路方向とのズレが15°以上となったら、旋回方向が変化したと判定するようにしてもよい。これは、走行時の多少のブレやステアリングホイールの遊びを、車両100の旋回方向の変化として判定しないためである。
 制御部30Aにおける情報処理について説明する。図37に示すフローチャートのステップSA73、ステップSA75、ステップSA76の処理は、図17に示すフローチャートのステップSA13、ステップSA15、ステップSA16の処理と同様である。
 制御部30Aは、旋回方向が変化したか否かを判定する(ステップSA71)。より詳しくは、制御部30Aは、走行状況情報取得部60Aで取得した走行状況が、旋回方向の変化を示しているか否かを判定する。制御部30Aは、旋回方向が変化していないと判定した場合(ステップSA71でNo)、ステップSA71の処理を再度実行する。制御部30Aは、旋回方向が変化したと判定した場合(ステップSA71でYes)、ステップSA72に進む。
 制御部30Aは、旋回方向に対応する右側後方映像データ120Bまたは左側後方映像データ130Bを合成した後方映像データ110Cを生成する(ステップSA72)。より詳しくは、制御部30Aは、映像合成部52Aで、後方映像データ110Bの旋回方向に対応する左右上方に、右側後方映像データ120Bまたは左側後方映像データ130Bを合成した後方映像データ110Cを生成させる。
 走行状況情報取得部60Aは、ステップSA71で旋回方向が変化したと判定された後も継続して走行状況を取得している。より詳しくは、制御部30Aは、走行状況情報取得部60Aで走行状況の取得を継続している。
 ステップSA73において、合成した後方映像データ110Cを表示している期間において、制御部30Aは、走行状況情報取得部60Aで取得した走行状況情報に基づいて、旋回方向の変化の終了を判定する(ステップSA74)。制御部30Aは、旋回方向の変化が終了していないと判定した場合(ステップSA74でNo)、合成した後方映像データ110Cの表示を継続する。制御部30Aは、旋回方向の変化が終了したと判定された場合(ステップSA74でYes)、制御部30Aは、後方映像データ110Bを生成し(ステップSA75)、後方映像データ110Bを表示する(ステップSA76)。すなわち、ステップSA75およびステップSA76は、ステップSA71において旋回方向が変化したと判定される以前と同様、通常の後方映像データ110Bの表示が開始、継続される。
 このようにして、車両用表示システム1Aは、旋回方向が変化したとき、後方映像データ110Bの左右上方に、旋回方向に対応する左右いずれかの右側後方映像データ120Bまたは左側後方映像データ130Bを合成する。
 上述したように、本実施形態では、旋回方向が変化しているとき、後方映像データ110Bの左右上方に、旋回方向に対応する左右いずれかの右側後方映像データ120Bまたは左側後方映像データ130Bを合成した後方映像データ110Cをリヤビューモニタ140の表示面に表示させる。これにより、本実施形態は、旋回方向が変化しているとき、リヤビューモニタ140の表示面で、車両100の後方とともに、車両100の路側方向の側後方を確認することができる。このため、本実施形態は、運転者の視線移動を抑制することができる。本実施形態は、運転者の後方及び側後方の確認に要する時間を低減することができる。このように、車両用表示システム1Aは、適切な車両100周辺の確認を可能にすることができる。
 図示した車両用表示システム1の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。
 車両用表示システム1の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。
 上記に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記に記載した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。
 近接他車両検出部60は、図示しないレーダ等によって測定した車両100と他車両との距離を用いて、車両100に近接してきた他車両や、車両100と他車両との距離を検出してもよい。
 制御部30は、例えば、図9に示すフローチャートのステップS11における判定条件が、一定時間継続されたら、ステップS12において合成した後方映像データ110Cを生成するものとしてもよい。これにより、車両用表示システム1は、不用意にリヤビューモニタ140に表示する映像が切り替わることを抑制することができる。
 制御部30Aは、例えば、図17に示すフローチャートのステップSA11における判定条件が、一定時間継続されたら、ステップSA12において合成した後方映像データ110Cを生成するものとしてもよい。これにより、車両用表示システム1Aは、不用意にリヤビューモニタ140に表示する映像が切り替わることを抑制することができる。
 制御部30は、合成した後方映像データ110Cにおいて、右側後方映像データ120Bおよび左側後方映像データ130Bに対応する範囲を、所定透明度の半透明で着色して表示してもよい。これにより、車両用表示システム1は、リヤビューモニタ140の表示が右側後方映像データ120Bおよび左側後方映像データ130Bを含んでいることを容易に確認することができる。
 切出部51で、第一映像データ110Aから第一映像データ110Aの一部を切出すものとしたが、これに限定されない。第一映像データ110Aを切出さずに全範囲を後方映像データ110Bとしてもよい。
 切出部51で、第二映像データから、右サイドビューモニタ150および左サイドビューモニタ160に合わせた右側後方映像データ120Bおよび左側後方映像データ130Bを切出すものとしたが、これに限定されない。第二映像データを切出さずに全範囲を右側後方映像データ120Bおよび左側後方映像データ130Bとしてもよい。
 右サイドビューモニタ150および左サイドビューモニタ160を備えるものとしたが、従来の光学式の右サイドミラーおよび左サイドミラーを備えていてもよい。
 後方映像データ110Bの左右上方に合成する右側後方映像データ120Bおよび左側後方映像データ130Bは、右サイドビューモニタ150および左サイドビューモニタ160に表示する右側後方映像データおよび左側後方映像データ(以下、「サイドビューモニタ映像」という)とは異なる切出範囲としてもよい。例えば、右側後方映像データ120Bおよび左側後方映像データ130Bは、サイドビューモニタ映像と同じ範囲を切出してもよい。または、例えば、右側後方映像データ120Bおよび左側後方映像データ130Bは、サイドビューモニタ映像よりも広い範囲を切出してもよい。または、例えば、右側後方映像データ120Bおよび左側後方映像データ130Bは、サイドビューモニタ映像よりも狭い範囲を切出してもよい。この場合、後方映像データ110Bの左右上方に合成された右側後方映像データ120Bおよび左側後方映像データ130Bは、サイドビューモニタ映像より狭い範囲が拡大され表示されていてもよい。さらに、後方映像データ110Bの左右上方に合成された右側後方映像データ120Bおよび左側後方映像データ130Bは、後方映像データ110Bと被撮影物の大きさが同じになるようにしてもよい。
 切出部51による切出範囲や、右側後方映像データ120Bまたは左側後方映像データ130Bのリヤビューモニタ140の表示面における大きさは、例えば、運転者が停車中に調節することができるようにしてもよい。その際に、例えば、リヤビューモニタ140の表示面において2本の指の間隔を縮めたり広げたりする動作で、切出範囲や大きさを所望の大きさに設定できるようにしてもよい。また、例えば、リヤビューモニタ140の表示面をタッチするごとに、切出範囲や大きさが、段階的に変化するようにしてもよい。
 第九実施形態では、検出部80Bは、後方映像データ110Bに対して、認識辞書記憶部300が記憶している認識辞書を用いたパターンマッチングを行い、障害物の存在を検出するものとしたが、障害物の検出方法はこれに限定されない。検出部80Bは、後方映像データ110Bに対して、路面認識処理で車両100の後方の路面を認識し、検出した路面より上方に位置するものを障害物として認識してもよい。
 第十一実施形態および第十二実施形態では、走行状況情報取得部60Aが取得した道路情報に基づいて、片側一車線の道路を示しているか否かを判定したが、これに限定されない。映像合成部52Aは、第一映像データ110Aに対して車線認識処理を行って、走行路が片側一車線であるか否かを判定してもよい。
 第八実施形態において、切出範囲を下方にシフトして後方映像データ110B2を切出す際に、切出範囲を下方にシフトして右側後方映像データ120Bおよび左側後方映像データ130Bを切出すようにしてもよい。または、切出範囲を下方にシフトして後方映像データ110B2を切出す際に、車両100の旋回方向に対応する左右いずれかの右側後方映像データ120Bまたは左側後方映像データ130Bについて、切出範囲を下方にシフトしてもよい。
 1    車両用表示システム
 10   車両用表示制御装置
 30   制御部
 40   映像データ取得部
 41   側後方映像データ取得部
 42   後方映像データ取得部
 50   映像処理部
 51   切出部
 52   映像合成部
 60   近接他車両検出部(状況検出部)
 70   表示制御部
 100  車両
 110  後方カメラ
 110A 第一映像データ(後方映像データ)
 120  右側後方カメラ(側後方カメラ)
 130  左側後方カメラ(側後方カメラ)
 140  リヤビューモニタ(表示装置)
 150  右サイドビューモニタ(側後方確認装置)
 160  左サイドビューモニタ(側後方確認装置)

Claims (21)

  1.  車両の後方を向くように配置され、前記車両の後方を撮影する後方カメラからの後方映像データを取得する後方映像データ取得部と、
     前記車両の左右側方に前記車両の後方を向くように配置され、前記車両の左右側後方を撮影する側後方カメラからの側後方映像データを取得する側後方映像データ取得部と、
     前記車両の周辺状況を検出する状況検出部と、
     前記状況検出部の検出状況に応じて、前記後方映像データの左右上方に前記側後方映像データを合成する映像合成部と、
     前記映像合成部が合成した映像データを、前記車両の後方映像を表示する表示装置に表示させる表示制御部と、
     を備えることを特徴とする車両用表示制御装置。
  2.  前記状況検出部は、前記車両の後方から近接する他車両を検出する近接他車両検出部であり、
     前記映像合成部は、前記近接他車両検出部が前記車両の後方から近接する他車両を検出したとき、前記後方映像データの左右上方に前記側後方映像データを合成する、
     請求項1に記載の車両用表示制御装置。
  3.  前記近接他車両検出部は、前記車両の後方から近接する他車両と前記車両との相対速度を検出し、
     前記映像合成部は、前記近接他車両検出部が検出した他車両が所定以上の相対速度で近接しているとき、前記後方映像データの左右上方に前記側後方映像データを合成する、
     請求項2に記載の車両用表示制御装置。
  4.  前記近接他車両検出部は、前記車両の後方から近接する他車両と前記車両との距離を検出し、
     前記映像合成部は、前記近接他車両検出部が検出した他車両との距離が所定未満の距離となったとき、前記後方映像データの左右上方に前記側後方映像データを合成する、
     請求項2または3に記載の車両用表示制御装置。
  5.  前記近接他車両検出部は、前記車両の後方から近接する他車両と前記車両との距離を検出し、
     前記映像合成部は、前記近接他車両検出部が検出した他車両との距離が所定未満の距離となったとき、前記他車両に対応する左右いずれかの前記側後方映像データを拡大して合成する、
     請求項2または3に記載の車両用表示制御装置。
  6.  前記近接他車両検出部は、前記車両が走行している車線と他車両が走行している車線とを検出し、
     前記映像合成部は、前記近接他車両検出部が検出した、前記車両が走行している車線に隣接する車線を走行している他車両と前記車両との距離が所定未満の距離となったとき、前記他車両の走行車線方向に対応する左右いずれかの前記側後方映像データを拡大して合成する、
     請求項5に記載の車両用表示制御装置。
  7.  前記状況検出部は、前記車両の車線変更予定情報を取得する走行状況情報取得部、をさらに備え、
     前記映像合成部は、前記走行状況情報取得部が前記車両の車線変更を示す情報を検出したとき、前記後方映像データの左右上方に前記側後方映像データを合成する、
     請求項2に記載の車両用表示制御装置。
  8.  前記状況検出部は、前記車両の走行状況を示す情報を取得する走行状況情報取得部であり、
     前記映像合成部は、前記走行状況情報取得部が取得した走行状況に応じて、前記後方映像データの左右上方に前記側後方映像データを合成する、
     請求項1に記載の車両用表示制御装置。
  9.  前記走行状況情報取得部は、前記車両が後退することを示す情報を取得し、
     前記映像合成部は、前記走行状況情報取得部が、前記車両が後退することを示す情報を取得したとき、前記後方映像データの左右上方に前記側後方映像データを合成する、
     請求項8に記載の車両用表示制御装置。
  10.  前記後方映像データから前記表示装置に表示させる表示範囲を切出す切出部、を備え、
     前記切出部は、前記車両用表示制御装置が、合成した後方映像データを前記表示装置に表示させるとき、合成していない前記後方映像データを表示させるときより下方を切出す、
     請求項8または9に記載の車両用表示制御装置。
  11.  前記走行状況情報取得部は、前記車両の走行状況を示す情報として、前記車両の走行速度に関する情報を取得し、
     前記映像合成部は、前記走行状況情報取得部が、前記車両が低速走行状況であることを示している情報を取得したとき、前記後方映像データの左右上方に前記側後方映像データを合成する、
     請求項8から10のいずれか1項に記載の車両用表示制御装置。
  12.  前記走行状況情報取得部は、前記車両の走行状況を示す情報として、前記車両の走行路に関する情報を取得し、
     前記映像合成部は、前記走行状況情報取得部が取得した走行路に関する情報が、片側一車線の道路を示しているとき、前記後方映像データの左右上方に、路側方向に対応する左右どちらかの前記側後方映像データを合成する、
     請求項8に記載の車両用表示制御装置。
  13.  前記走行状況情報取得部は、前記車両の走行状況を示す情報として、前記車両の走行路に関する情報を取得し、
     前記映像合成部は、前記走行状況情報取得部が取得した走行路に関する情報が、低速走行を行う道路であることを示しているとき、前記後方映像データの左右上方に前記側後方映像データを合成する、
     請求項8に記載の車両用表示制御装置。
  14.  前記映像合成部は、前記走行状況情報取得部が取得した走行路に関する情報が、片側一車線の道路を示しているとき、前記後方映像データの左右上方に、路側方向に対応する左右どちらかの前記側後方映像データを拡大して合成する、
     請求項13に記載の車両用表示制御装置。
  15.  前記走行状況情報取得部は、前記車両の走行状況を示す情報として、前記車両の旋回方向情報を取得し、
     前記映像合成部は、前記走行状況情報取得部が取得した旋回方向情報が旋回方向の変化を示しているとき、前記後方映像データの左右上方に、旋回方向に対応する左右どちらかの前記側後方映像データを合成する、
     請求項8に記載の車両用表示制御装置。
  16.  前記後方映像データの左右側方の障害物を検出する検出部、を備え、
     前記映像合成部は、前記検出部で前記後方映像データの左右側方に障害物を検出したとき、前記後方映像データの左右上方に、前記障害物が検出された方向に対応する左右少なくともどちらかの前記側後方映像データを拡大して合成する、
     請求項9または12または15に記載の車両用表示制御装置。
  17.  前記映像合成部は、前記側後方映像データが、前記表示装置における表示面の縦方向サイズにおける上方二分の一程度となるように、前記後方映像データの左右上方に前記側後方映像データを合成する、
     請求項1から16のいずれか一項に記載の車両用表示制御装置。
  18.  前記映像合成部は、前記側後方映像データが、前記表示装置における表示面の横方向サイズにおける左右三分の一程度となるように、前記後方映像データの左右上方に前記側後方映像データを合成する、
     請求項1から17のいずれか一項に記載の車両用表示制御装置。
  19.  請求項1から18のいずれか一項に記載の車両用表示制御装置と、
     少なくとも前記表示装置、前記後方カメラ、前記側後方カメラのうち少なくともいずれかと、を備える車両用表示システム。
  20.  車両の後方を向くように配置され、前記車両の後方を撮影する後方カメラからの後方映像データを取得する後方映像データ取得ステップと、
     前記車両の左右側方に前記車両の後方を向くように配置され、前記車両の左右側後方を撮影する側後方カメラからの側後方映像データを取得する側後方映像データ取得ステップと、
     前記車両の周辺状況を検出する状況検出ステップと、
     前記状況検出ステップの検出状況に応じて、前記後方映像データの左右上方に前記側後方映像データを合成する映像合成ステップと、
     前記映像合成ステップにおいて合成した映像データを、前記車両の後方映像を表示する表示装置に表示させる表示制御ステップと、
     を含むことを特徴とする車両用表示制御方法。
  21.  車両の後方を向くように配置され、前記車両の後方を撮影する後方カメラからの後方映像データを取得する後方映像データ取得ステップと、
     前記車両の左右側方に前記車両の後方を向くように配置され、前記車両の左右側後方を撮影する側後方カメラからの側後方映像データを取得する側後方映像データ取得ステップと、
     前記車両の周辺状況を検出する状況検出ステップと、
     前記状況検出ステップの検出状況に応じて、前記後方映像データの左右上方に前記側後方映像データを合成する映像合成ステップと、
     前記映像合成ステップにおいて合成した映像データを、前記車両の後方映像を表示する表示装置に表示させる表示制御ステップと、
     を車両用表示制御装置として動作するコンピュータに実行させるためのプログラム。
PCT/JP2017/015014 2016-07-26 2017-04-12 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム Ceased WO2018020751A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/170,164 US10730434B2 (en) 2016-07-26 2018-10-25 Vehicular display control device, vehicular display system, vehicular display control method, and non-transitory storage medium

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016-146001 2016-07-26
JP2016146504A JP2018019176A (ja) 2016-07-26 2016-07-26 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP2016-146504 2016-07-26
JP2016146001A JP2018019155A (ja) 2016-07-26 2016-07-26 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/170,164 Continuation US10730434B2 (en) 2016-07-26 2018-10-25 Vehicular display control device, vehicular display system, vehicular display control method, and non-transitory storage medium

Publications (1)

Publication Number Publication Date
WO2018020751A1 true WO2018020751A1 (ja) 2018-02-01

Family

ID=61015994

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/015014 Ceased WO2018020751A1 (ja) 2016-07-26 2017-04-12 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム

Country Status (2)

Country Link
US (1) US10730434B2 (ja)
WO (1) WO2018020751A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018125898A1 (en) 2016-12-30 2018-07-05 Gentex Corporation Full display mirror with on-demand spotter view
EP3761271A4 (en) * 2018-03-02 2021-03-10 Jvckenwood Corporation RECORDING DEVICE FOR VEHICLE, RECORDING METHOD FOR VEHICLE AND PROGRAM

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021214952A1 (de) * 2021-12-22 2023-06-22 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Anzeige einer virtuellen Ansicht einer Umgebung eines Fahrzeugs, Computerprogramm, Steuergerät und Fahrzeug

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0241843U (ja) * 1988-09-14 1990-03-22
JP2005346648A (ja) * 2004-06-07 2005-12-15 Denso Corp 視界支援装置およびプログラム
JP2009029203A (ja) * 2007-07-25 2009-02-12 Honda Motor Co Ltd 運転支援装置
JP2010163104A (ja) * 2009-01-16 2010-07-29 Denso Corp 車両用表示装置及びそれを備えた車両周辺視野表示システム
JP2013005232A (ja) * 2011-06-16 2013-01-07 Aisin Seiki Co Ltd 車両周辺監視装置
JP2014229101A (ja) * 2013-05-23 2014-12-08 日産自動車株式会社 車両用表示装置
JP2015210592A (ja) * 2014-04-24 2015-11-24 日立オートモティブシステムズ株式会社 外界認識装置
JP2016097896A (ja) * 2014-11-25 2016-05-30 アイシン精機株式会社 画像表示制御装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0241843A (ja) 1988-07-28 1990-02-13 Hitachi Constr Mach Co Ltd 作業軌跡の倣い教示方法
JP4114292B2 (ja) * 1998-12-03 2008-07-09 アイシン・エィ・ダブリュ株式会社 運転支援装置
JP4956915B2 (ja) * 2005-05-20 2012-06-20 日産自動車株式会社 映像表示装置及び映像表示方法
JP5195592B2 (ja) * 2009-03-31 2013-05-08 富士通株式会社 映像処理装置
JP5051263B2 (ja) 2010-04-02 2012-10-17 株式会社デンソー 車両用後方視認システム
EP2723069B1 (en) 2011-06-16 2017-10-18 Aisin Seiki Kabushiki Kaisha Vehicle periphery monitoring device
TWI478833B (zh) * 2011-08-31 2015-04-01 Autoequips Tech Co Ltd 調校車用影像裝置之方法及其系統
US10179543B2 (en) * 2013-02-27 2019-01-15 Magna Electronics Inc. Multi-camera dynamic top view vision system
US9878666B2 (en) * 2014-03-19 2018-01-30 Bcat, Llc Digital display system with a front-facing camera and rear digital display
US10449900B2 (en) * 2014-06-20 2019-10-22 Clarion, Co., Ltd. Video synthesis system, video synthesis device, and video synthesis method
JP2016063352A (ja) 2014-09-17 2016-04-25 パナソニックIpマネジメント株式会社 車載用表示装置
JP6406159B2 (ja) * 2015-08-04 2018-10-17 株式会社デンソー 車載表示制御装置、車載表示制御方法
KR20170028125A (ko) * 2015-09-03 2017-03-13 엘지전자 주식회사 차량 운전 보조 장치 및 차량

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0241843U (ja) * 1988-09-14 1990-03-22
JP2005346648A (ja) * 2004-06-07 2005-12-15 Denso Corp 視界支援装置およびプログラム
JP2009029203A (ja) * 2007-07-25 2009-02-12 Honda Motor Co Ltd 運転支援装置
JP2010163104A (ja) * 2009-01-16 2010-07-29 Denso Corp 車両用表示装置及びそれを備えた車両周辺視野表示システム
JP2013005232A (ja) * 2011-06-16 2013-01-07 Aisin Seiki Co Ltd 車両周辺監視装置
JP2014229101A (ja) * 2013-05-23 2014-12-08 日産自動車株式会社 車両用表示装置
JP2015210592A (ja) * 2014-04-24 2015-11-24 日立オートモティブシステムズ株式会社 外界認識装置
JP2016097896A (ja) * 2014-11-25 2016-05-30 アイシン精機株式会社 画像表示制御装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018125898A1 (en) 2016-12-30 2018-07-05 Gentex Corporation Full display mirror with on-demand spotter view
EP3562710A4 (en) * 2016-12-30 2019-11-13 Gentex Corporation Full-view mirror with spotlight on request
JP2020505802A (ja) * 2016-12-30 2020-02-20 ジェンテックス コーポレイション オンデマンドスポッタービューを備えた全画面表示ミラー
US11800050B2 (en) 2016-12-30 2023-10-24 Gentex Corporation Full display mirror with on-demand spotter view
EP3761271A4 (en) * 2018-03-02 2021-03-10 Jvckenwood Corporation RECORDING DEVICE FOR VEHICLE, RECORDING METHOD FOR VEHICLE AND PROGRAM

Also Published As

Publication number Publication date
US10730434B2 (en) 2020-08-04
US20190061624A1 (en) 2019-02-28

Similar Documents

Publication Publication Date Title
EP3367366B1 (en) Display control method and display control device
JP6346614B2 (ja) 情報表示システム
JP6081570B2 (ja) 運転支援装置、および画像処理プログラム
KR102000929B1 (ko) 차량을 위한 미러 대체 시스템
WO2018012299A1 (ja) 画像生成装置、画像生成方法、及び、プログラム
CN113165510B (zh) 显示控制装置、方法和计算机程序
JP2009026003A (ja) 運転支援システム
US20190066382A1 (en) Driving support device, driving support method, information providing device and information providing method
US11412205B2 (en) Vehicle display device
JP6448714B2 (ja) 情報表示システム
WO2022224754A1 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
JP7006235B2 (ja) 表示制御装置、表示制御方法および車両
JP2012153256A (ja) 画像処理装置
WO2018020751A1 (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
US10854172B2 (en) Display system, display control method, and storage medium
US20250316094A1 (en) Image processing device, mobile object, image processing method, and storage medium
JP2016070915A (ja) 車両の視線誘導装置
JP2018019155A (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
WO2023145852A1 (ja) 表示制御装置、表示システム、及び表示制御方法
JP2005214730A (ja) 車両用画像表示装置、車両用画像表示方法及び車両用画像表示プログラム
JP3877127B2 (ja) 車両用表示装置
CN117863873B (zh) 抬头显示装置、显示控制方法、装置及存储介质
JP2018019176A (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP7051335B2 (ja) 運転支援装置及び運転支援方法
JP2025104712A (ja) 表示制御方法及び表示制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17833762

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17833762

Country of ref document: EP

Kind code of ref document: A1