[go: up one dir, main page]

WO2018008542A1 - ショベル - Google Patents

ショベル Download PDF

Info

Publication number
WO2018008542A1
WO2018008542A1 PCT/JP2017/024123 JP2017024123W WO2018008542A1 WO 2018008542 A1 WO2018008542 A1 WO 2018008542A1 JP 2017024123 W JP2017024123 W JP 2017024123W WO 2018008542 A1 WO2018008542 A1 WO 2018008542A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
excavator
camera
operating state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2017/024123
Other languages
English (en)
French (fr)
Inventor
泉川 岳哉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo SHI Construction Machinery Co Ltd
Original Assignee
Sumitomo SHI Construction Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo SHI Construction Machinery Co Ltd filed Critical Sumitomo SHI Construction Machinery Co Ltd
Priority to JP2018526335A priority Critical patent/JP6812432B2/ja
Priority to KR1020187032041A priority patent/KR102386846B1/ko
Priority to CN201780029804.6A priority patent/CN109154154A/zh
Priority to EP17824147.7A priority patent/EP3483349B1/en
Publication of WO2018008542A1 publication Critical patent/WO2018008542A1/ja
Priority to US16/203,890 priority patent/US10920403B2/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/24Safety devices, e.g. for preventing overload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/28Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets
    • E02F3/36Component parts
    • E02F3/42Drives for dippers, buckets, dipper-arms or bucket-arms
    • E02F3/43Control of dipper or bucket position; Control of sequence of drive operations
    • E02F3/435Control of dipper or bucket position; Control of sequence of drive operations for dipper-arms, backhoes or the like
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/08Superstructures; Supports for superstructures
    • E02F9/10Supports for movable superstructures mounted on travelling or walking gears or on other superstructures
    • E02F9/12Slewing or traversing gears
    • E02F9/121Turntables, i.e. structure rotatable about 360°
    • E02F9/123Drives or control devices specially adapted therefor
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/2025Particular purposes of control systems not otherwise provided for
    • E02F9/2033Limiting the movement of frames or implements, e.g. to avoid collision between implements and the cabin
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • E02F9/262Surveying the work-site to be treated with follow-up actions to control the work tool, e.g. controller
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Definitions

  • the present invention relates to an excavator capable of detecting an object existing around.
  • An excavator having a human detection function for detecting a person existing around a shovel based on the output of a camera attached to the excavator is known (see Patent Document 1).
  • This shovel outputs an alarm to an operator of the shovel when it is determined that a human image is present in the image captured by the camera.
  • the excavator of Patent Document 1 cannot detect the person even if there is a person around the excavator and outputs an alarm when the person detection function cannot be properly used, such as when the camera lens is dirty. It may not be possible. And the operator of the shovel may perceive the state where no alarm is output as the state where no person exists around the shovel.
  • an excavator having an object detection function for detecting a predetermined object such as a human detection function and capable of notifying the operator of the excavator when there is a possibility that the predetermined object cannot be detected. Is desirable.
  • An excavator includes a lower traveling body, an upper revolving body that is turnably mounted on the lower traveling body, a camera attached to the upper revolving body, a display device, and an excavator.
  • An object detection device for detecting a predetermined object within a set predetermined detection range, and an operation state of an object detection function using the object detection device is displayed on the display device.
  • the above-described means can provide an excavator that can inform an operator of an excavator when there is a possibility that the object cannot be detected in an excavator having an object detection function.
  • FIG. 1A It is a side view of the structural example of the shovel which concerns on the Example of this invention. It is a top view of the shovel of FIG. 1A. It is a top view of another structural example of the shovel which concerns on the Example of this invention. It is a block diagram which shows the structural example of the person detection system mounted in the shovel which concerns on the Example of this invention. It is a flowchart of a state determination process. It is a figure which shows the example of a display of an output image. It is a figure which shows another example of a display of an output image. It is a figure which shows another example of a display of an output image. It is a figure which shows another example of a display of an output image. It is a figure which shows another example of a display of an output image. It is a figure which shows another example of a display of an output image. It is a figure which shows another example of a display of an output image. It is a figure which shows another example of a display of an output image.
  • FIGS. 1A to 1C an excavator (excavator) according to an embodiment of the present invention will be described with reference to FIGS. 1A to 1C.
  • 1A is a side view of the shovel
  • FIG. 1B is a top view of the shovel
  • FIG. 1C is a top view of another configuration example of the excavator.
  • an upper swing body 3 is turnably mounted on a lower traveling body 1 of an excavator via a swing mechanism 2.
  • a boom 4 is attached to the upper swing body 3.
  • An arm 5 is attached to the tip of the boom 4, and a bucket 6 is attached to the tip of the arm 5.
  • the boom 4, arm 5, and bucket 6 are hydraulically driven by a boom cylinder 7, an arm cylinder 8, and a bucket cylinder 9, respectively.
  • the upper swing body 3 is provided with a cabin 10 as a cab and is mounted with a power source such as an engine.
  • An object detection device 20 is attached to the upper swing body 3.
  • the object detection device 20 is a device for detecting an object around the excavator.
  • the object detection device 20 is, for example, an imaging device (camera) that captures an image around a shovel.
  • the camera is composed of an image sensor such as a CCD or a CMOS, for example.
  • the object detection device 20 is configured by three monocular cameras attached to the upper surface of the upper swing body 3 so that the blind spot of the operator in the cabin 10 can be imaged.
  • the three monocular cameras include a left camera 20L attached to the left end portion of the upper surface of the upper swing body 3, a right camera 20R attached to the right end portion of the upper surface of the upper swing body 3, and an upper surface of the upper swing body 3.
  • FIG. 1B shows the imaging ranges CL, CR, and CB of the left camera 20L, the right camera 20R, and the back camera 20B with alternate long and short dash lines.
  • the three monocular cameras are preferably attached to the upper swing body 3 so as not to protrude from the upper surface of the upper swing body 3 as shown in FIG. 1B.
  • the left camera 20L may be omitted.
  • the object detection device 20 may be an ultrasonic sensor, a laser radar sensor, a millimeter wave sensor, a pyroelectric infrared sensor, a bolometer infrared sensor, an infrared camera, or the like.
  • the object detection device 20 includes three monocular cameras and six pyroelectric infrared sensors. The arrangement of the three monocular cameras is the same as the arrangement in FIG. 1B.
  • the six pyroelectric infrared sensors are the first infrared sensor 20U and the second infrared sensor 20V attached to the left end portion of the upper surface of the upper swing body 3, and the first infrared sensor 20V attached to the rear end portion of the upper surface of the upper swing body 3.
  • FIG. 1C shows the detection ranges CU to CZ of the first infrared sensor 20U to the sixth infrared sensor 20Z by dotted lines.
  • the six pyroelectric infrared sensors are preferably attached to the upper swing body 3 so as not to protrude from the upper surface of the upper swing body 3 as shown in FIG. 1C.
  • the left camera 20L is omitted, the first infrared sensor 20U and the second infrared sensor 20V may be omitted.
  • a display device 14, an indoor alarm device 15, a control device 30 and the like are installed in the cabin 10.
  • the display device 14 is a device that displays various types of information, such as a liquid crystal display or an organic EL display.
  • the indoor alarm device 15 is a device that outputs an alarm toward an operator in the cabin 10, and includes, for example, a buzzer, a speaker, an LED lamp, a seat vibrator, and the like installed in the cabin 10.
  • the control device 30 is a computer that includes a CPU, a volatile storage device, a nonvolatile storage device, and the like.
  • FIG. 2 is a block diagram illustrating a configuration example of the object detection system 50.
  • the object detection system 50 is a system that detects an object that has entered a predetermined detection range set around the excavator, and mainly includes a display device 14, an indoor alarm device 15, an object detection device 20, a control device 30, and the like. Consists of.
  • the object is a person, a vehicle, a work machine, an animal, or the like. In the present embodiment, the object detection system 50 detects a person.
  • control device 30 causes the CPU to execute a program corresponding to each of the functional elements such as the human detection unit 31, the image generation unit 32, the operation state determination unit 33, and the like.
  • the function corresponding to is realized.
  • the human detection unit 31 is a functional element that detects a person who has entered a predetermined detection range set around the excavator. In the example of FIG. 2, the human detection unit 31 determines the presence / absence of a person based on the output of the human detection means and the camera as the object detection device 20. In this case, since the person detection unit 31 detects a person based on the image shape, it can distinguish an object other than a person such as a tree or a building from the person. The human detection unit 31 determines the presence or absence of a person within a predetermined detection range by, for example, finding a human image in the captured image using an image feature quantity such as an HOG feature quantity. The person detection unit 31 may determine the presence or absence of a person within a predetermined detection range using another known image recognition technique.
  • the predetermined detection range is, for example, a space included in the imaging range of the camera.
  • the predetermined detection range is a space that can be reached by the tip of the bucket 6 among the spaces included in the imaging range of the camera.
  • the predetermined detection range may be a space corresponding to the imaging range of the camera, or may be a space within a predetermined distance range from the pivot axis of the shovel among the spaces included in the imaging range of the camera.
  • the predetermined detection range may be composed of a plurality of partial detection ranges.
  • a left detection range on the left side of the shovel which is a space included in the imaging range CL of the left camera 20L
  • a rear detection range behind the shovel which is a space included in the imaging range CB of the back camera 20B
  • You may comprise by the combination of the right side detection range in the right side of the shovel which is the space included in imaging range CR of the right camera 20R.
  • Two adjacent partial detection ranges may be arranged so as to partially overlap, may be arranged adjacent to each other so as not to overlap, or may be arranged with an interval therebetween.
  • the human detection unit 31 is an output of an object detection sensor such as an ultrasonic sensor, a laser radar sensor, a millimeter wave sensor, a pyroelectric infrared sensor, a bolometer infrared sensor, or an infrared camera as the human detection means and the object detection device 20.
  • the presence or absence of a person within a predetermined detection range may be determined based on the above. For example, when using the output of a pyroelectric infrared sensor, the person detection unit 31 determines that a person is present in the detection range when the energy change in the detection range exceeds a predetermined threshold.
  • the predetermined detection range may be a space corresponding to the detection range of the pyroelectric infrared sensor.
  • the person detection unit 31 When the person detection unit 31 detects a person, the person detection unit 31 outputs a control command to the indoor alarm device 15 to activate the indoor alarm device 15 and informs the operator of the excavator that the person has been detected.
  • the human detection unit 31 operates a buzzer installed in the cabin 10.
  • the image generation unit 32 is a functional element that generates an output image based on the output of the camera as the object detection device 20.
  • the image generation unit 32 generates an output image based on input images captured by the back camera 20B, the left camera 20L, and the right camera 20R. Then, the generated output image is displayed on the display device 14.
  • the output image includes a camera image generated from one or more input images.
  • the camera image is generated by performing viewpoint conversion processing on a composite image of three input images.
  • the camera image is, for example, a surrounding image that shows a state when the periphery of the excavator is viewed from above.
  • the area of the surrounding image is set, for example, so as to surround the computer graphic (CG) image of the excavator and so that the outer contour line draws an arc.
  • the region of the surrounding image may be set so that the outer contour line draws an arc having an arbitrary curvature, the outer contour line may be set so as to draw an elliptical arc, and the outer contour line has an arbitrary convex shape. It may be set to draw a curve.
  • the output image may be a through image that shows a state when the periphery of the excavator is viewed from the side. The through image shows, for example, a state when the space behind the shovel is viewed almost horizontally from the shovel side.
  • the region of the through image is set so that the outer contour line has at least one straight line portion.
  • the through image region may be set such that the outer contour line draws a square, a rectangle, a trapezoid, or the like.
  • the through image may be a camera image generated without performing viewpoint conversion processing, for example.
  • the operating state determination unit 33 is a functional element that determines the operating state of a human detection function that is an example of an object detection function.
  • the operating state of the human detection function includes an undetectable state and a detectable state.
  • Undetectable state means a state in which a person may not be detected. For example, it includes a state of poor visibility due to rain, fog, etc., a state of poor visibility due to insufficient illuminance in indoor work, night work, and the like.
  • the configuration for determining the presence or absence of a person based on the output of the camera as the object detection device 20 includes, for example, a state where mud, snow, raindrops, etc. are attached to the lens of the camera.
  • the configuration for determining the presence or absence of a person based on the output of the object detection sensor as the object detection device 20 for example, a state where mud, snow, raindrops, etc.
  • the configuration for determining the presence or absence of a person based on the output of the millimeter wave sensor includes a state in which external radio waves are strong and noise is large.
  • Detectable state means a state where a person can be detected.
  • the operating state determination unit 33 determines that it is in the detectable state unless it is in the undetectable state.
  • the operating state of the human detection function may include states other than the undetectable state and the detectable state.
  • it may include a detection preparation state in which the human detection function is activated and the human detection function is not yet available.
  • the operating state determination unit 33 determines the operating state of the human detection function based on any available information. In the example of FIG. 2, it is determined whether the operation state of the human detection function is an undetectable state based on an input image captured by a camera as the object detection device 20. Specifically, when it is determined that mud or the like is attached to the lens by a known image recognition process, it is determined that the human detection function is in an undetectable state. In the configuration for determining the presence or absence of a person based on the output of the object detection sensor as the object detection device 20, for example, the operating state of the human detection function may be determined based on the output of the object detection sensor over a predetermined time.
  • the operating state determination unit 33 is based on the output of an atmospheric pressure sensor, an air temperature sensor, an illuminance sensor, a humidity sensor, a positioning sensor, or the like, or based on various information such as weather information received via a communication device. You may determine the operating state of a detection function.
  • FIG. 3 is a flowchart of the state determination process. The control device 30 repeatedly executes this state determination process while the excavator is in operation.
  • the operation state determination unit 33 of the control device 30 acquires information related to the object detection function (step ST1).
  • Information relating to the object detection function includes, for example, an input image captured by a camera as the object detection device 20, an output of the object detection sensor as the object detection device 20, an atmospheric pressure sensor, an air temperature sensor, an illuminance sensor, a humidity sensor, a positioning sensor, and the like. Output, weather information received via a communication device, and the like.
  • the operating state determination unit 33 determines whether or not there is a possibility that the object cannot be detected (step ST2).
  • the operating state determination unit 33 determines that there is a possibility that the object cannot be detected when the visibility is poor due to, for example, rain or fog, or when the visibility is poor due to insufficient illuminance in indoor work, night work, or the like. To do.
  • the configuration for detecting an object based on the output of the camera for example, when mud, snow, raindrops, or the like is attached to the lens of the camera, it is determined that the object may not be detected.
  • the object detection sensor In the configuration of detecting an object based on the output of the object detection sensor, for example, it is determined that there is a possibility that the object cannot be detected when mud, snow, raindrops, or the like is attached to the light emitting unit or the light receiving unit of the infrared sensor. In the configuration in which the presence / absence of an object is determined based on the output of the millimeter wave sensor, it is determined that the object may not be detected when the external radio wave is strong and the noise is large.
  • step ST3 If it is determined that there is a possibility that the object cannot be detected (YES in step ST2), the operation state determination unit 33 determines that the operation state of the object detection function is an undetectable state (step ST3).
  • step ST2 when it is determined that there is no possibility that the object cannot be detected (YES in step ST2), that is, when it is determined that the object can be detected, the operation state determination unit 33 is in a state where the operation state of the object detection function can be detected. (Step ST4).
  • control device 30 repeatedly executes the determination of the operating state of the object detection function while the excavator is in operation.
  • the operation state determination unit 33 displays the operation state of the human detection function so that the operator of the excavator can distinguish.
  • the operating state determination unit 33 can distinguish the current operating state of the human detection function by changing the display mode of the operating state display area representing the operating state of the human detection function according to the current operating state.
  • the operation state determination unit 33 displays the current operation state of the human detection function using an operation state display area characterized by a color difference representing the operation state of the human detection function.
  • the operating state display area is displayed superimposed on the output image generated by the image generation unit 32.
  • the operation state display area is filled with a first color (for example, red) when the operation state of the human detection function is in the undetectable state, and is changed to the first state when the operation state of the human detection function is in the detection state. Painted in two colors (for example, green).
  • the operating state of the human detection function may be characterized by a different pattern.
  • the operation state display area is filled with a first pattern (for example, a dot pattern) of a first color (for example, red) when the operation state of the person detection function is in an undetectable state, and the operation state of the person detection function is detected.
  • a first pattern for example, a dot pattern
  • a second pattern for example, a hatched pattern
  • a second color for example, green
  • the first color and the second color may be the same color.
  • the operating state of the human detection function may be characterized by a display / non-display difference.
  • the operating state display area is filled with a first color (for example, red) when the operating state of the human detection function is in an undetectable state, and is not displayed when the operating state of the human detection function is in a detectable state ( Maintenance of the current display state).
  • the operating state of the human detection function may be characterized by a difference between lighting / flashing.
  • the operating state display area is lit in a state where the operating state of the human detection function is undetectable and is filled with a first color (for example, red), and the operating state of the human detection function is in a detectable state.
  • a first color for example, red
  • the operating state of the human detection function is in a detectable state.
  • it may blink in a state of being filled with a second color (for example, green).
  • the first color and the second color may be the same color.
  • the operating state of the human detection function may be characterized by differences in text (character information), icon images, and the like.
  • text character information
  • icon images and the like.
  • the text “Undetectable” is displayed together with an icon image representing the undetectable state
  • the operating state of the human detection function is in a detectable state
  • the text “detectable” may be displayed together with an icon image representing a detectable state when the image is in the position. It may only display either text or icon images.
  • the operating state of the human detection function When the operating state of the human detection function is in the detection preparation state, it may be filled with a third color (for example, yellow).
  • the operation state display area is filled with a first pattern (for example, a hatched pattern) of a first color (for example, red) when the operation state of the person detection function is in an undetectable state, and the operation state of the person detection function is detected.
  • a second pattern for example, a dot pattern of a first color (for example, red).
  • the reason why the same first color is used for the undetectable state and the detection ready state is that both the undetectable state and the detection ready state are common in that there is a possibility that a person cannot be detected.
  • the operation state determination unit 33 changes the display mode (color, pattern, display / non-display, lighting / flashing, etc.) of the operation state display area according to the current operation state, thereby changing the current state of the human detection function.
  • the operating state is displayed so that the operator can distinguish it.
  • FIG. 4A shows an example of an output image when the human detection function is undetectable
  • FIG. 4B shows an example of an output image when the human detection function is detectable
  • FIG. 4C shows another example of an output image when the human detection function is in a detectable state.
  • the output image is shown on the screen of the display device 14. The same applies to FIGS. 5 to 8.
  • the output image includes a CG image G1, a surrounding image region G2, an operation state display region G3, and a text display region G4.
  • the surrounding image region G2 includes a distant view image portion G2a and a foreground image portion G2b.
  • the distant view image portion G2a displays a landscape when the distant view is seen from the virtual viewpoint above the excavator.
  • the foreground image portion G2b displays a scene when the vicinity of the shovel is viewed from a virtual viewpoint above the shovel.
  • the CG image G1 is a computer graphic image representing a shape when the excavator is viewed from directly above.
  • the CG image G1 is arranged at the center of the output image.
  • the surrounding image area G2 is a camera image area that displays surrounding images generated based on input images captured by the back camera 20B, the left camera 20L, and the right camera 20R.
  • the surrounding image area G2 in FIG. 4C is a camera image area that displays surrounding images generated based on input images captured by the back camera 20B and the right camera 20R.
  • the surrounding image region G2 is arranged so as to surround the CG image G1, and includes a near-field image portion G2b in the vicinity of the excavator as viewed from directly above and a far-field image portion G2a as viewed from the side. .
  • the operating state display area G3 is an area that displays the operating state of the human detection function with color, and is arranged along a part of the outline of the surrounding image area G2.
  • the surrounding image region G2 in FIGS. 4A and 4B is arranged so as to form a partial circle of approximately 270 degrees surrounding the three directions on the right, left, and rear of the CG image G1.
  • the operation state display region G3 is arranged so as to form an arc shape of approximately 270 degrees along the outer contour line of the surrounding image region G2.
  • the surrounding image region G2 in FIG. 4C is arranged so as to form a partial circle of approximately 180 degrees surrounding the right and rear two directions of the CG image G1.
  • the operating state display area G3 is arranged so as to form an arc shape of approximately 180 degrees along the outer contour line of the surrounding image area G2.
  • the positional relationship between the surrounding image region G2 and the operation state display region G3 in the output image corresponds to the positional relationship between the shovel and the detection range of the object detection system 50.
  • the length of the operation state display region G3 along a part of the outline of the surrounding image region G2 represents the width of the detection range (for example, horizontal width)
  • the direction of the operation state display region G3 viewed from the CG image G1 is Indicates the direction of the detection range relative to the excavator.
  • the direction of the operating state display region G3 viewed from the center of the output image (the center of the partial circular surrounding image region G2) represents the direction of the detection range relative to the shovel. The example shown in FIGS.
  • 4A and 4B displays the operation state display area G3 having an arc shape of approximately 270 degrees covering the left, rear, and right sides of the CG image G1, so that the left, rear, And the detection range of the width
  • an approximately 180 degree arcuate operation state display region G3 covering the back and right sides of the CG image G1 is displayed, so that a width of about 180 degrees is detected behind and to the right of the shovel. Indicates that the range is set.
  • the operation state display area G3 is desirably displayed so as not to overlap with the surrounding image area G2 (particularly the image portion near the excavator).
  • the operating state display area G3 is desirably in a different location from the surrounding image area G2. This is to prevent the overlapping camera images from becoming difficult or invisible.
  • the operation state display area G3 is desirably arranged so as to be displayed as large as possible. This is to make it possible for the operator of the excavator to easily recognize the operating state of the human detection function.
  • the text display area G4 is an area for displaying various information as text.
  • the text display area G4 is arranged at the lower right corner of the output image and outside the operation state display area G3, and displays the operation state of the human detection function in text.
  • the text display area G4 may be arranged at another position such as the lower left corner of the output image or above the CG image G1. Further, the text display area G4 may be integrated in the operation state display area G3 or may be omitted.
  • the dirt image G5 in FIG. 4A is an image of mud adhering to the lens of the left camera 20L.
  • the operation state display area G3 and the text display area G4 are filled with red.
  • the shaded area in FIG. 4A represents a state filled with red.
  • the operation state display area G3 and the text display area G4 are filled with green as shown in FIG. 4B.
  • the white area in FIG. 4B represents a state filled with green.
  • the object detection system 50 can make the shovel operator intuitively recognize that the detection range of the object detection system 50 covers the left, right, and rear directions of the shovel.
  • the operator of the excavator can instantly recognize whether the operation state of the human detection function is an undetectable state or a detectable state.
  • FIGS. 5 to 7 show examples of output images when a part of the human detection function is in the undetectable state.
  • the operation state determination unit 33 is based on the input images captured by the left camera 20L, the right camera 20R, and the back camera 20B, and the left detection range, the right detection range, and the rear
  • the operating state of the human detection function relating to each detection range is individually determined. Therefore, the operation state display region G3 is divided into a left operation state display region G3L, a right operation state display region G3R, and a rear operation state display region G3B.
  • the left operation state display area G3L displays the operation state of the human detection function related to the left detection range determined based on the input image captured by the left camera 20L.
  • the right operation state display area G3R displays the operation state of the human detection function regarding the right detection range determined based on the input image captured by the right camera 20R.
  • the rear operation state display area G3B displays the operation state of the human detection function related to the rear detection range determined based on the input image captured by the back camera 20B.
  • FIG. 5 is arranged so as to form an arc shape of approximately 270 degrees along the outer contour line of the surrounding image region G2, similarly to the operation state display region G3 of FIG. 4A. And it is equally divided into a left operation state display region G3L, a right operation state display region G3R, and a rear operation state display region G3B. Further, the left operation state display area G3L and the right operation state display area G3R are filled with green, and the rear operation state display area G3B is filled with red.
  • the text display area G4 displays a text message “Unable to detect backward person” and notifies the operator of the excavator that there is a possibility that a person entering the backward detection range may not be detected. As described above, FIG. 5 shows that the operation state of the human detection function related to the rear detection range is undetectable due to the dirt image G5 attached to the lens of the back camera 20B.
  • the operation state display region G3 in FIG. 6 surrounds the left, right, and rear three directions of the CG image G1 along the inner contour line of the surrounding image region G2 (to form three sides of the rectangle). ) Is arranged. And it is divided
  • the text display area G4 displays a text message “Unable to detect right person” to notify the operator of the shovel that there is a possibility that a person who enters the right detection area may not be detected.
  • FIG. 6 shows that the operation state of the human detection function related to the right detection range is undetectable due to the dirt image G5 attached to the lens of the right camera 20R.
  • the text display area displays the text message “Unable to detect left person” in a state integrated with the left operation state display area G3L, and indicates that there is a possibility that a person entering the left detection range may not be detected. To notify.
  • FIG. 7 shows that the operation state of the human detection function related to the left detection range is in an undetectable state due to the dirt image G5 attached to the lens of the left camera 20L.
  • the object detection system 50 allows the shovel operator to intuitively recognize that the detection range of the object detection system 50 covers the left, right, and rear directions of the shovel. Can do. Moreover, the operator of the shovel is individually recognized as to whether the operation state of the human detection function relating to each of the left detection range, the right detection range, and the rear detection range of the shovel is an undetectable state or a detectable state. be able to.
  • FIG. 8 shows an output image including the through image region G2B.
  • the through image area G2B is a camera image area that displays a through image generated without performing viewpoint conversion processing using only the input image captured by the back camera 20B.
  • the operation state display region G3 in FIG. 8 includes a first rear operation state display region G3B1 arranged along the upper side that is a straight line portion of the outer contour line of the through image region G2B, and an outer contour line of the through image region G2B. It is comprised with 2nd back operation state display area G3B2 arrange
  • the backward operation state display area G3B2 is filled with red.
  • the text display area displays the text message “Unable to detect backward person” in a state integrated with the first backward operation state display area G3B1, and indicates that there is a possibility that a person entering the backward detection range may not be detected. To notify.
  • FIG. 8 shows that the operation state of the human detection function related to the rear detection range is undetectable due to the dirt image G5 attached to the lens of the back camera 20B.
  • the object detection system 50 ensures that the operator of the excavator can determine whether the operation state of the human detection function is an undetectable state or a detectable state. Can be recognized.
  • the excavator includes the lower traveling body 1, the upper swinging body 3 that is turnably mounted on the lower traveling body 1, the camera attached to the upper swinging body 3, and the display.
  • an object detection device 20 that detects a predetermined object within a predetermined detection range set around the excavator, and the operation state of the object detection function using the object detection device 20 is displayed on the display device 14. Is displayed.
  • the object detection device 20 may be an image pickup device (camera) that picks up an image around a shovel, such as an ultrasonic sensor, a laser radar sensor, a millimeter wave sensor, a pyroelectric infrared sensor, a bolometer infrared sensor, an infrared camera, or the like.
  • the object detection sensor may be used. With this configuration, when there is a possibility that an object cannot be detected, this can be notified to the operator of the excavator.
  • the image displayed on the display device 14 includes, for example, a first area and a second area at a location different from the first area.
  • the first area displays, for example, a camera image
  • the second area displays, for example, the operating state of the object detection function.
  • the first area corresponds to the surrounding image area G2
  • the second area corresponds to the operating state display area G3.
  • the operating state of the object detection function includes, for example, a detectable state and a non-detectable state.
  • Each of the operating states of the object detection function displayed in the second area has a different display mode. Differences in display modes include color differences, pattern differences, display / non-display differences, and lighting / flashing differences. With this configuration, the operator of the shovel can easily recognize whether or not the object detection function may not be able to detect the object based on the difference in the display mode of the second region.
  • the image displayed on the display device 14 includes, for example, a camera image area for displaying a camera image.
  • the display device 14 displays the operation state of the object detection function by changing the display mode of the operation state display region G3 along a part of the contour of the camera image region, for example.
  • the image displayed on the display device 14 may include a CG image G1 that is a computer graphic image of an excavator.
  • the camera image includes a surrounding image of the excavator viewed from above.
  • the length of the operation state display area G3 along a part of the contour of the camera image area represents the width of the detection range.
  • the detection range is desirably a preset range, for example, a space included in the imaging range of the camera.
  • the detection range may be a space corresponding to the imaging range of the camera, or may be a space within a predetermined distance range from the pivot axis of the shovel among the spaces included in the imaging range of the camera.
  • the direction of the operating state display area G3 viewed from the computer graphic image preferably represents the direction of the detection range with respect to the shovel.
  • the length of the operation state display region G3 along a part of the contour of the camera image region represents the width of the detection range.
  • the direction of the operating state display region G3 viewed from the center of the image displayed on the device 14 desirably represents the direction of the detection range relative to the shovel.
  • the outer contour line of the camera image area may include a straight line portion as shown in FIG. 8, for example.
  • the operation state display area G3 is arranged along the straight line portion of the outer contour line of the camera image area (through image area G2B), for example.
  • the detection range may be composed of a plurality of partial detection ranges.
  • the partial detection range is, for example, a left detection range on the left side of the shovel that is a space included in the imaging range CL of the left camera 20L, and a rear side that is behind the shovel that is a space included in the imaging range CB of the back camera 20B.
  • the display device 14 may individually display the operation state of the object detection function regarding each of the plurality of partial detection ranges. With this configuration, the shovel operator can recognize whether or not there is a possibility that an object cannot be detected for each detection range.
  • An excavator includes a lower traveling body 1, an upper swinging body 3 that is turnably mounted on the lower traveling body 1, a camera attached to the upper swinging body 3, and an image captured by the camera.
  • the human detection means is, for example, a camera or an object detection sensor.
  • the shovel displays the operating state of the human detection function by the human detection unit in the output image. Therefore, the operator of the excavator can recognize whether or not there is a possibility that the person detection function cannot detect the person.
  • the operating state of the human detection function includes, for example, a detectable state and a non-detectable state.
  • the output image includes a first area and a second area at a location different from the first area.
  • the second area displays, for example, the operating state of the human detection function.
  • Each of the operating states of the human detection function displayed in the second area has a different display mode. Differences in display modes include color differences, pattern differences, display / non-display differences, lighting / flashing differences, and the like.
  • the display device 14 may display the operating state of the object detection function as text information. Thereby, the operator of the shovel can more easily recognize whether or not there is a possibility that the object detection function cannot detect the object.
  • the edge of the camera image area may include a curved portion.
  • the operation state display area G3 may include a curved portion along the edge of the camera image area.
  • the surrounding image area G2 as the camera image area forms a partial circle of approximately 270 degrees surrounding the right, left, and rear three directions of the CG image G1. May be arranged.
  • the operation state display area G3 may be arranged so as to form an arc shape of approximately 270 degrees along the outer contour line of the surrounding image area G2. With this screen configuration, the operator of the excavator can intuitively recognize how much of the surrounding 360 degrees is covered by the detection range.
  • each of the left operation state display region G3L, the rear operation state display region G3B, and the right operation state display region G3R is configured as a part of one continuous operation state display region G3. .
  • the present invention is not limited to this configuration.
  • each of the left operation state display region G3L, the rear operation state display region G3B, and the right operation state display region G3R may be an independent discontinuous region.
  • the excavator is equipped with the object detection system 50 for detecting a person, but may be equipped with an object detection system for detecting an object other than a person such as a vehicle, a work machine, or an animal.
  • the object detection system 50 is a person related to each of the left detection range, the right detection range, and the rear detection range based on one or a plurality of input images captured by one, two, or four or more cameras. You may determine the operating state of a detection function separately.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mining & Mineral Resources (AREA)
  • Civil Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Structural Engineering (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Component Parts Of Construction Machinery (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

本発明の実施例に係るショベルは、下部走行体(1)と、下部走行体(1)に旋回可能に搭載された上部旋回体(3)と、上部旋回体(3)に取り付けられたカメラ(20)と、表示装置(14)と、ショベルの周囲に設定された所定の検知範囲内で所定の物体を検知する物体検知装置と、を備え、物体検知装置を用いた物体検知機能の作動状態が表示装置(14)に表示される。

Description

ショベル
 本発明は、周囲に存在する物体を検知可能なショベルに関する。
 ショベルに取り付けられたカメラの出力に基づいてショベルの周囲に存在する人を検知する人検知機能を備えたショベルが知られている(特許文献1参照。)。このショベルは、カメラが撮像した画像の中に人の画像が存在すると判定した場合に、ショベルの操作者に対して警報を出力する。
特開2010-198519号公報
 しかしながら、特許文献1のショベルは、カメラのレンズが汚れている場合等、人検知機能を適切に利用できない場合、ショベルの周囲に人が存在するにもかかわらずその人を検知できず警報を出力できないおそれがある。そして、ショベルの操作者は、警報が出力されていない状態を、ショベルの周囲に人が存在しない状態と捉えてしまうおそれがある。
 そこで、人検知機能等の所定の物体を検知する物体検知機能を備えたショベルにおいて、所定の物体を検知できないおそれがあるときにその旨をショベルの操作者に伝えることができるショベルを提供することが望ましい。
 本発明の実施例に係るショベルは、下部走行体と、前記下部走行体に旋回可能に搭載された上部旋回体と、前記上部旋回体に取り付けられたカメラと、表示装置と、ショベルの周囲に設定された所定の検知範囲内で所定の物体を検知する物体検知装置と、を備え、前記物体検知装置を用いた物体検知機能の作動状態が前記表示装置に表示される。
 上述の手段により、物体検知機能を備えたショベルにおいて、物体を検知できないおそれがあるときにその旨をショベルの操作者に伝えることができるショベルを提供できる。
本発明の実施例に係るショベルの構成例の側面図である。 図1Aのショベルの上面図である。 本発明の実施例に係るショベルの別の構成例の上面図である。 本発明の実施例に係るショベルに搭載される人検知システムの構成例を示すブロック図である。 状態判定処理のフローチャートである。 出力画像の表示例を示す図である。 出力画像の別の表示例を示す図である。 出力画像の更に別の表示例を示す図である。 出力画像の更に別の表示例を示す図である。 出力画像の更に別の表示例を示す図である。 出力画像の更に別の表示例を示す図である。 出力画像の更に別の表示例を示す図である。
 最初に、図1A~図1Cを参照し、本発明の実施例に係るショベル(掘削機)について説明する。図1Aはショベルの側面図であり、図1Bはショベルの上面図である。図1Cは、ショベルの別の構成例の上面図である。
 図1A及び図1Bに示すように、ショベルの下部走行体1には旋回機構2を介して上部旋回体3が旋回可能に搭載されている。上部旋回体3にはブーム4が取り付けられている。ブーム4の先端にはアーム5が取り付けられ、アーム5の先端にはバケット6が取り付けられている。ブーム4、アーム5、バケット6は、ブームシリンダ7、アームシリンダ8、バケットシリンダ9によりそれぞれ油圧駆動される。上部旋回体3には、運転室としてのキャビン10が設けられ且つエンジン等の動力源が搭載されている。また、上部旋回体3には、物体検知装置20が取り付けられている。
 物体検知装置20は、ショベル周辺の物体を検知するための装置である。物体検知装置20は、例えば、ショベル周辺の画像を撮像する撮像装置(カメラ)である。カメラは、例えば、CCD、CMOS等の撮像素子で構成される。図1A及び図1Bの例では、物体検知装置20は、キャビン10にいる操作者の死角を撮像できるように上部旋回体3の上面に取り付けられた3台の単眼カメラで構成される。3台の単眼カメラは、上部旋回体3の上面の左端部に取り付けられた左カメラ20L、上部旋回体3の上面の右端部に取り付けられた右カメラ20R、及び、上部旋回体3の上面の後端部に取り付けられたバックカメラ20Bである。図1Bは、左カメラ20L、右カメラ20R、バックカメラ20Bの撮像範囲CL、CR、CBを一点鎖線で示している。3台の単眼カメラは、望ましくは、図1Bに示すように上部旋回体3の上面からはみ出さないように上部旋回体3に取り付けられている。左カメラ20Lは省略されてもよい。
 物体検知装置20は、超音波センサ、レーザレーダセンサ、ミリ波センサ、焦電型赤外線センサ、ボロメータ型赤外線センサ、赤外線カメラ等であってもよい。図1Cの例では、物体検知装置20は、3台の単眼カメラと6台の焦電型赤外線センサで構成される。3台の単眼カメラの配置は、図1Bでの配置と同じである。6台の焦電型赤外線センサは、上部旋回体3の上面の左端部に取り付けられた第1赤外線センサ20U及び第2赤外線センサ20V、上部旋回体3の上面の後端部に取り付けられた第3赤外線センサ20W及び第4赤外線センサ20X、並びに、上部旋回体3の上面の右端部に取り付けられた第5赤外線センサ20Y及び第6赤外線センサ20Zである。図1Cは、第1赤外線センサ20U~第6赤外線センサ20Zの検出範囲CU~CZを点線で示している。6台の焦電型赤外線センサは、望ましくは、図1Cに示すように上部旋回体3の上面からはみ出さないように上部旋回体3に取り付けられている。左カメラ20Lが省略される場合、第1赤外線センサ20U及び第2赤外線センサ20Vは省略されてもよい。
 図1B及び図1Cに示すように、キャビン10内には、表示装置14、室内警報器15、制御装置30等が設置されている。表示装置14は、各種情報を表示する装置であり、例えば、液晶ディスプレイ、有機ELディスプレイ等である。室内警報器15は、キャビン10内の操作者に向けて警報を出力する装置であり、例えば、キャビン10内に設置されたブザー、スピーカ、LEDランプ、シートバイブレータ等で構成される。制御装置30は、CPU、揮発性記憶装置、不揮発性記憶装置等を備えたコンピュータである。
 ここで、図2を参照し、本発明の実施例に係るショベルに搭載される物体検知システム50について説明する。図2は、物体検知システム50の構成例を示すブロック図である。
 物体検知システム50は、ショベルの周囲に設定された所定の検知範囲内へ侵入した物体を検知するシステムであり、主に、表示装置14、室内警報器15、物体検知装置20、制御装置30等で構成される。物体は、人、車両、作業機械、動物等である。本実施例では、物体検知システム50は、人を検知する。
 図2の物体検知システム50において、制御装置30は、例えば、人検知部31、画像生成部32、作動状態判定部33等の機能要素のそれぞれに対応するプログラムをCPUに実行させて各機能要素に対応する機能を実現する。
 人検知部31は、ショベルの周囲に設定された所定の検知範囲内へ侵入した人を検知する機能要素である。図2の例では、人検知部31は、人検知手段及び物体検知装置20としてのカメラの出力に基づいて人の存否を判定する。この場合、人検知部31は、画像形状に基づいて人を検知するため、樹木、建物等の人以外の物体と人とを区別できる。人検知部31は、例えば、HOG特徴量等の画像特徴量を利用して撮像画像中の人画像を見つけ出すことで所定の検知範囲内における人の存否を判定する。人検知部31は、他の公知の画像認識技術を用いて所定の検知範囲内における人の存否を判定してもよい。
 この場合、所定の検知範囲は、例えば、カメラの撮像範囲に含まれる空間である。図2の例では、所定の検知範囲は、カメラの撮像範囲に含まれる空間のうち、バケット6の爪先が到達可能な空間である。所定の検知範囲は、カメラの撮像範囲に相当する空間であってもよく、カメラの撮像範囲に含まれる空間のうち、ショベルの旋回軸から所定距離範囲内の空間であってもよい。
 所定の検知範囲は、複数の部分検知範囲で構成されてもよい。例えば、左カメラ20Lの撮像範囲CLに含まれる空間であるショベルの左方にある左方検知範囲、バックカメラ20Bの撮像範囲CBに含まれる空間であるショベルの後方にある後方検知範囲、及び、右カメラ20Rの撮像範囲CRに含まれる空間であるショベルの右方にある右方検知範囲の組み合わせで構成されてもよい。隣り合う2つの部分検知範囲は、部分的に重複するように配置されてもよく、重複しないように隣接して配置されてもよく、間隔を空けて配置されていてもよい。
 また、人検知部31は、人検知手段及び物体検知装置20としての超音波センサ、レーザレーダセンサ、ミリ波センサ、焦電型赤外線センサ、ボロメータ型赤外線センサ、赤外線カメラ等の物体検出センサの出力に基づいて所定の検知範囲内における人の存否を判定してもよい。例えば焦電型赤外線センサの出力を用いる場合、人検知部31は、検知範囲内のエネルギ変化が所定の閾値を上回った場合に検知範囲内に人が存在すると判定する。この場合、所定の検知範囲は焦電型赤外線センサの検出範囲に相当する空間であってもよい。
 人検知部31は、人を検知した場合、室内警報器15に制御指令を出力して室内警報器15を作動させ、人を検知したことをショベルの操作者に伝える。図2の例では、人検知部31は、キャビン10内に設置されたブザーを作動させる。
 画像生成部32は、物体検知装置20としてのカメラの出力に基づいて出力画像を生成する機能要素である。図2の例では、画像生成部32は、バックカメラ20B、左カメラ20L、及び右カメラ20Rのそれぞれが撮像した入力画像に基づいて出力画像を生成する。そして、生成した出力画像を表示装置14に表示させる。出力画像は、1つ又は2つ以上の入力画像から生成されるカメラ画像を含む。カメラ画像は、例えば、3つの入力画像の合成画像に視点変換処理を施して生成される。また、カメラ画像は、例えば、ショベルの周囲を上から見たときの状態を映し出す周囲画像である。周囲画像の領域は、例えば、ショベルのコンピュータグラフィック(CG)画像の周りを取り囲むように、且つ、外側輪郭線が円弧を描くように設定される。なお、周囲画像の領域は、外側輪郭線が任意の曲率を有する円弧を描くように設定されてもよく、外側輪郭線が楕円弧を描くように設定されてもよく、外側輪郭線が任意の凸曲線を描くように設定されてもよい。また、出力画像は、ショベルの周囲を横から見たときの状態を映し出すスルー画像であってもよい。スルー画像は、例えば、ショベルの後方の空間をショベル側からほぼ水平に見たときの様子を映し出す。スルー画像の領域は、外側輪郭線が少なくとも1つの直線部分を有するように設定される。例えば、スルー画像の領域は、外側輪郭線が正方形、長方形、台形等を描くように設定されてもよい。また、スルー画像は、例えば、視点変換処理を施すことなく生成されるカメラ画像であってもよい。
 作動状態判定部33は、物体検知機能の一例である人検知機能の作動状態を判定する機能要素である。人検知機能の作動状態は、検知不能状態及び検知可能状態を含む。
 検知不能状態は、人を検知できないおそれがある状態を意味する。例えば、雨、霧等により視界不良となっている状態、屋内作業、夜間作業等での照度不足により視界不良となっている状態等を含む。また、物体検知装置20としてのカメラの出力に基づいて人の存否を判定する構成では、例えば、カメラのレンズに泥、雪、雨粒等が付着している状態を含む。同様に、物体検知装置20としての物体検出センサの出力に基づいて人の存否を判定する構成では、例えば、赤外線センサの発光部又は受光部に泥、雪、雨粒等が付着している状態を含む。或いは、ミリ波センサの出力に基づいて人の存否を判定する構成では、外部電波が強くノイズが大きい状態を含む。
 検知可能状態は、人を検知できる状態を意味する。図2の例では、作動状態判定部33は、検知不能状態でなければ検知可能状態であると判定する。
 人検知機能の作動状態は、検知不能状態及び検知可能状態以外の状態を含んでいてもよい。例えば、人検知機能が起動中であり人検知機能を未だ利用できない状態である検知準備状態を含んでいてもよい。
 作動状態判定部33は、利用可能な任意の情報に基づいて人検知機能の作動状態を判定する。図2の例では、物体検知装置20としてのカメラが撮像した入力画像に基づいて人検知機能の作動状態が検知不能状態であるか否かを判定する。具体的には、公知の画像認識処理により泥等がレンズに付着していると判定した場合、人検知機能が検知不能状態にあると判定する。物体検知装置20としての物体検出センサの出力に基づいて人の存否を判定する構成では、例えば、所定時間にわたる物体検出センサの出力に基づいて人検知機能の作動状態を判定してもよい。具体的には、所定時間にわたって物体検出センサの出力が継続的に所定の閾値以上で維持された場合、人検知機能が検知不能状態にあると判定してもよい。また、作動状態判定部33は、大気圧センサ、気温センサ、照度センサ、湿度センサ、測位センサ等の出力に基づいて、或いは、通信装置を介して受信した気象情報等の各種情報に基づいて人検知機能の作動状態を判定してもよい。
 ここで図3を参照し、制御装置30が物体検知機能の作動状態を判定する処理(以下、「状態判定処理」とする。)について説明する。図3は状態判定処理のフローチャートである。制御装置30は、ショベルの稼働中に繰り返しこの状態判定処理を実行する。
 最初に、制御装置30の作動状態判定部33は、物体検知機能に関する情報を取得する(ステップST1)。物体検知機能に関する情報は、例えば、物体検知装置20としてのカメラが撮像した入力画像、物体検知装置20としての物体検出センサの出力、大気圧センサ、気温センサ、照度センサ、湿度センサ、測位センサ等の出力、通信装置を介して受信した気象情報等を含む。
 その後、作動状態判定部33は、物体を検知できないおそれがあるか否かを判定する(ステップST2)。作動状態判定部33は、例えば、雨、霧等により視界不良となっている場合、屋内作業、夜間作業等での照度不足により視界不良となっている場合に物体を検知できないおそれがあると判定する。カメラの出力に基づいて物体を検知する構成では、例えば、カメラのレンズに泥、雪、雨粒等が付着している場合に、物体を検知できないおそれがあると判定する。物体検出センサの出力に基づいて物体を検知する構成では、例えば、赤外線センサの発光部又は受光部に泥、雪、雨粒等が付着している場合に物体を検知できないおそれがあると判定する。ミリ波センサの出力に基づいて物体の存否を判定する構成では、外部電波が強くノイズが大きい場合に物体を検知できないおそれがあると判定する。
 物体を検知できないおそれがあると判定した場合(ステップST2のYES)、作動状態判定部33は、物体検知機能の作動状態が検知不能状態であると判定する(ステップST3)。
 一方、物体を検知できないおそれがないと判定した場合(ステップST2のYES)、すなわち、物体を検知できると判定した場合、作動状態判定部33は、物体検知機能の作動状態が検知可能状態であると判定する(ステップST4)。
 このようにして、制御装置30は、ショベルの稼働中、物体検知機能の作動状態の判定を繰り返し実行する。
 また、作動状態判定部33は、人検知機能の作動状態をショベルの操作者が区別できるように表示する。例えば、作動状態判定部33は、人検知機能の作動状態を表す作動状態表示領域の表示態様を現在の作動状態に応じて変えることで人検知機能の現在の作動状態を操作者が見分けられるように表示する。具体的には、作動状態判定部33は、人検知機能の作動状態を表す色の違いで特徴付けられる作動状態表示領域を用いて人検知機能の現在の作動状態を表示する。作動状態表示領域は、例えば、画像生成部32が生成した出力画像の上に重畳表示される。そして、作動状態表示領域は、例えば、人検知機能の作動状態が検知不能状態にあるときに第一色(例えば赤色)で塗り潰され、人検知機能の作動状態が検知可能状態にあるときに第二色(例えば緑色)で塗り潰される。
 人検知機能の作動状態は、模様の違いで特徴付けられてもよい。例えば、作動状態表示領域は、人検知機能の作動状態が検知不能状態にあるときに第一色(例えば赤色)の第一模様(例えばドットパターン)で塗り潰され、人検知機能の作動状態が検知可能状態にあるときに第二色(例えば緑色)の第二模様(例えば斜線パターン)で塗り潰されてもよい。なお、第一色と第二色は同じ色であってもよい。
 或いは、人検知機能の作動状態は、表示/非表示の違いで特徴づけられてもよい。例えば、作動状態表示領域は、人検知機能の作動状態が検知不能状態にあるときに第一色(例えば赤色)で塗り潰され、人検知機能の作動状態が検知可能状態にあるときに非表示(現在の表示状態の維持)とされてもよい。
 或いは、人検知機能の作動状態は、点灯/点滅の違いで特徴づけられてもよい。例えば、作動状態表示領域は、人検知機能の作動状態が検知不能状態にあるときに第一色(例えば赤色)で塗り潰された状態で点灯し、人検知機能の作動状態が検知可能状態にあるときに第二色(例えば緑色)で塗り潰された状態で点滅してもよい。なお、第一色と第二色は同じ色であってもよい。
 或いは、人検知機能の作動状態は、テキスト(文字情報)、アイコン画像等の違いで特徴付けられてもよい。例えば、作動状態表示領域は、人検知機能の作動状態が検知不能状態にあるときに検知不能状態を表すアイコン画像と共に「検知不能」のテキストを表示し、人検知機能の作動状態が検知可能状態にあるときに検知可能状態を表すアイコン画像と共に「検知可能」のテキストを表示してもよい。テキスト又はアイコン画像の何れかを表示するだけであってもよい。
 人検知機能の作動状態が検知準備状態にあるときに第三色(例えば黄色)で塗り潰されてもよい。或いは、作動状態表示領域は、人検知機能の作動状態が検知不能状態にあるときに第1色(例えば赤色)の第1パターン(例えば斜線パターン)で塗り潰され、人検知機能の作動状態が検知準備状態にあるときに第1色(例えば赤色)の第2パターン(例えばドットパターン)で塗り潰されてもよい。検知不能状態及び検知準備状態に対して同じ第1色を用いる理由は、検知不能状態及び検知準備状態は何れも人を検知できないおそれがある状態である点で共通するためである。
 このように、作動状態判定部33は、作動状態表示領域の表示態様(色、模様、表示/非表示、点灯/点滅等)を現在の作動状態に応じて変えることで人検知機能の現在の作動状態を操作者が区別できるように表示する。
 ここで図4A~図4Cを参照し、人検知機能の作動状態の表示例について説明する。図4Aは人検知機能が検知不能状態のときの出力画像の一例を示し、図4Bは人検知機能が検知可能状態のときの出力画像の一例を示す。図4Cは、人検知機能が検知可能状態のときの出力画像の別の一例を示す。図4A~図4Cでは、出力画像は表示装置14の画面に表示された状態で示されている。図5~図8においても同様である。
 図4A~図4Cに示すように、出力画像は、CG画像G1、周囲画像領域G2、作動状態表示領域G3、及びテキスト表示領域G4を含む。周囲画像領域G2は、遠景画像部分G2a及び近景画像部分G2bを含む。遠景画像部分G2aは、ショベルの上方にある仮想視点から遠方を見たときの景色を映し出す。近景画像部分G2bは、ショベルの近傍をショベルの上方にある仮想視点から見たときの景色を映し出す。
 CG画像G1は、ショベルを真上から見たときの形状を表すコンピュータグラフィック画像である。本実施例では、CG画像G1は、出力画像の中央部に配置されている。
 周囲画像領域G2は、図4A及び図4Bでは、バックカメラ20B、左カメラ20L、及び右カメラ20Rのそれぞれが撮像した入力画像に基づいて生成される周囲画像を表示するカメラ画像領域である。図4Cにおける周囲画像領域G2は、バックカメラ20B及び右カメラ20Rのそれぞれが撮像した入力画像に基づいて生成される周囲画像を表示するカメラ画像領域である。本実施例では、周囲画像領域G2は、CG画像G1の周りを囲むように配置され、あたかも真上から見たショベル近傍の近景画像部分G2bと横から見た遠方の遠景画像部分G2aとを含む。
 作動状態表示領域G3は、人検知機能の作動状態を色で特徴付けて表示する領域であり、周囲画像領域G2の輪郭の一部に沿うように配置される。具体的には、図4A及び図4Bにおける周囲画像領域G2は、CG画像G1の右方、左方、及び後方の三方向を囲む略270度の部分円を形成するように配置される。そして、作動状態表示領域G3は、周囲画像領域G2の外側輪郭線に沿って略270度の円弧形状を形成するように配置される。図4Cにおける周囲画像領域G2は、CG画像G1の右方及び後方の二方向を囲む略180度の部分円を形成するように配置される。そして、作動状態表示領域G3は、周囲画像領域G2の外側輪郭線に沿って略180度の円弧形状を形成するように配置される。
 また、出力画像における周囲画像領域G2と作動状態表示領域G3の位置関係は、ショベルと物体検知システム50の検知範囲の位置関係に対応する。例えば、周囲画像領域G2の輪郭の一部に沿った作動状態表示領域G3の長さは検知範囲の幅(例えば水平幅)を表し、CG画像G1から見た作動状態表示領域G3の方向は、ショベルに対する検知範囲の方向を表す。或いは、出力画像の中心(部分円形状の周囲画像領域G2の中心)から見た作動状態表示領域G3の方向は、ショベルに対する検知範囲の方向を表す。図4A及び図4Bに示す例は、CG画像G1の左方、後方、及び右方をカバーする略270度の円弧形状の作動状態表示領域G3を表示することで、ショベルの左方、後方、及び右方に略270度の幅の検知範囲が設定されていることを表す。図4Cに示す例は、CG画像G1の後方及び右方をカバーする略180度の円弧形状の作動状態表示領域G3を表示することで、ショベルの後方及び右方に略180度の幅の検知範囲が設定されていることを表す。
 なお、作動状態表示領域G3は、望ましくは、周囲画像領域G2(特にショベル近傍の画像の部分)と重ならないように表示される。すなわち、作動状態表示領域G3は、望ましくは、周囲画像領域G2とは異なる場所にある。重複部分のカメラ画像が見え難くなったり或いは見えなくなったりするのを防止するためである。また、作動状態表示領域G3は、望ましくは、できるだけ大きく表示されるように配置される。人検知機能の作動状態をショベルの操作者が容易に認識できるようにするためである。
 テキスト表示領域G4は、各種情報をテキスト表示する領域である。本実施例では、テキスト表示領域G4は、出力画像の右下隅で且つ作動状態表示領域G3の外側に配置され、人検知機能の作動状態をテキスト表示している。なお、テキスト表示領域G4は、出力画像の左下隅、CG画像G1の上等、別の位置に配置されてもよい。また、テキスト表示領域G4は、作動状態表示領域G3内に統合されてもよく、省略されてもよい。
 図4Aの汚れ画像G5は、左カメラ20Lのレンズに付着した泥の画像である。汚れ画像G5が原因で人検知機能が検知不能状態であると判定されたとき、作動状態表示領域G3及びテキスト表示領域G4は赤色で塗り潰される。図4Aの斜線領域は赤色で塗り潰された状態を表す。また、人検知機能が検知可能状態であると判定されたとき、作動状態表示領域G3及びテキスト表示領域G4は、図4Bに示すように緑色で塗り潰される。図4Bの白色領域は緑色で塗り潰された状態を表す。
 この構成により、物体検知システム50は、物体検知システム50の検知範囲がショベルの左方、右方、及び後方の三方向をカバーすることをショベルの操作者に直感的に認識させることができる。また、人検知機能の作動状態が検知不能状態であるか検知可能状態であるかをショベルの操作者に瞬時に認識させることができる。
 次に図5~図7を参照し、人検知機能の作動状態の別の表示例について説明する。図5~図7は人検知機能の一部が検知不能状態のときの出力画像の一例を示す。
 図5~図7の例では、作動状態判定部33は、左カメラ20L、右カメラ20R、及びバックカメラ20Bのそれぞれが撮像した入力画像に基づいて左方検知範囲、右方検知範囲、及び後方検知範囲のそれぞれに関する人検知機能の作動状態を個別に判定する。そのため、作動状態表示領域G3は、左作動状態表示領域G3L、右作動状態表示領域G3R、及び後方作動状態表示領域G3Bに分割されている。
 左作動状態表示領域G3Lは、左カメラ20Lが撮像した入力画像に基づいて判定される左方検知範囲に関する人検知機能の作動状態を表示する。右作動状態表示領域G3Rは、右カメラ20Rが撮像した入力画像に基づいて判定される右方検知範囲に関する人検知機能の作動状態を表示する。後方作動状態表示領域G3Bは、バックカメラ20Bが撮像した入力画像に基づいて判定される後方検知範囲に関する人検知機能の作動状態を表示する。
 図5の作動状態表示領域G3は、図4Aの作動状態表示領域G3と同様、周囲画像領域G2の外側輪郭線に沿って略270度の円弧形状を形成するように配置されている。そして、左作動状態表示領域G3L、右作動状態表示領域G3R、及び後方作動状態表示領域G3Bに三等分されている。また、左作動状態表示領域G3L及び右作動状態表示領域G3Rは緑色で塗り潰され、後方作動状態表示領域G3Bは赤色で塗り潰されている。テキスト表示領域G4は、テキストメッセージ「後方人検知不能」を表示し、後方検知範囲に侵入する人を検知できないおそれがある旨をショベルの操作者に通知している。このように、図5は、バックカメラ20Bのレンズに付着した汚れ画像G5が原因で後方検知範囲に関する人検知機能の作動状態が検知不能状態になっていることを示している。
 図6の作動状態表示領域G3は、周囲画像領域G2の内側輪郭線に沿ってCG画像G1の左方、右方、及び後方の三方向を囲むように(矩形の三辺を構成するように)配置されている。そして、左辺を構成する左作動状態表示領域G3L、右辺を構成する右作動状態表示領域G3R、及び、底辺を構成する後方作動状態表示領域G3Bに分割されている。また、左作動状態表示領域G3L及び後方作動状態表示領域G3Bは緑色で塗り潰され、右作動状態表示領域G3Rは赤色で塗り潰されている。テキスト表示領域G4は、テキストメッセージ「右方人検知不能」を表示し、右方検知範囲に侵入する人を検知できないおそれがある旨をショベルの操作者に通知している。このように、図6は、右カメラ20Rのレンズに付着した汚れ画像G5が原因で右方検知範囲に関する人検知機能の作動状態が検知不能状態になっていることを示している。
 図7の作動状態表示領域G3は、周囲画像領域G2の外側輪郭線に沿う略270度の範囲にわたり出力画像における周囲画像領域G2の外側全体を埋めるように配置されている。そして、左作動状態表示領域G3L、右作動状態表示領域G3R、及び後方作動状態表示領域G3Bに分割されている。また、後方作動状態表示領域G3B及び右作動状態表示領域G3Rは緑色で塗り潰され、左作動状態表示領域G3Lは赤色で塗り潰されている。テキスト表示領域は、左作動状態表示領域G3Lに統合された状態でテキストメッセージ「左方人検知不能」を表示し、左方検知範囲に侵入する人を検知できないおそれがある旨をショベルの操作者に通知している。このように、図7は、左カメラ20Lのレンズに付着した汚れ画像G5が原因で左方検知範囲に関する人検知機能の作動状態が検知不能状態になっていることを示している。
 上述のような構成により、物体検知システム50は、物体検知システム50の検知範囲がショベルの左方、右方、及び後方の三方向をカバーすることをショベルの操作者に直感的に認識させることができる。また、ショベルの左方検知範囲、右方検知範囲、及び後方検知範囲のそれぞれに関する人検知機能の作動状態が検知不能状態であるか検知可能状態であるかを個別にショベルの操作者に認識させることができる。
 次に図8を参照し、人検知機能の作動状態の更に別の表示例について説明する。図8は、スルー画像領域G2Bを含む出力画像を示す。スルー画像領域G2Bは、バックカメラ20Bが撮像した入力画像のみを使用して視点変換処理を施さずに生成されたスルー画像を表示するカメラ画像領域である。
 図8の作動状態表示領域G3は、スルー画像領域G2Bの外側輪郭線の直線部分である上辺に沿うように配置された第1後方作動状態表示領域G3B1と、スルー画像領域G2Bの外側輪郭線の直線部分である下辺に沿うように配置された第2後方作動状態表示領域G3B2とで構成される。何れか一方が省略されてもよい。
 図8の例では、バックカメラ20Bのレンズに付着した汚れ画像G5が原因でバックカメラ20Bに関する人検知機能の作動状態が検知不能状態になっているため、第1後方作動状態表示領域G3B1及び第2後方作動状態表示領域G3B2は赤色で塗り潰されている。テキスト表示領域は、第1後方作動状態表示領域G3B1に統合された状態でテキストメッセージ「後方人検知不能」を表示し、後方検知範囲に侵入する人を検知できないおそれがある旨をショベルの操作者に通知している。このように、図8は、バックカメラ20Bのレンズに付着した汚れ画像G5が原因で後方検知範囲に関する人検知機能の作動状態が検知不能状態になっていることを示している。
 この構成により、物体検知システム50は、スルー画像を表示している場合であっても、人検知機能の作動状態が検知不能状態であるか検知可能状態であるかをショベルの操作者に確実に認識させることができる。
 上述のように、本発明の実施例に係るショベルは、下部走行体1と、下部走行体1に旋回可能に搭載された上部旋回体3と、上部旋回体3に取り付けられたカメラと、表示装置14と、ショベルの周囲に設定された所定の検知範囲内で所定の物体を検知する物体検知装置20と、を備え、物体検知装置20を用いた物体検知機能の作動状態が表示装置14に表示される。物体検知装置20は、ショベル周辺の画像を撮像する撮像装置(カメラ)であってもよく、超音波センサ、レーザレーダセンサ、ミリ波センサ、焦電型赤外線センサ、ボロメータ型赤外線センサ、赤外線カメラ等の物体検出センサであってもよい。この構成により、物体を検知できないおそれがあるときにその旨をショベルの操作者に伝えることができる。
 表示装置14に表示される画像は、例えば、第1領域と、第1領域とは異なる場所にある第2領域とを含む。第1領域は、例えば、カメラ画像を表示し、第2領域は、例えば、物体検知機能の作動状態を表示する。一実施例では、第1領域が周囲画像領域G2に対応し、第2領域が作動状態表示領域G3に対応する。この構成により、ショベルの操作者は、第2領域を見ることで、物体検知機能が物体を検知できないおそれがあるか否かを認識できる。
 物体検知機能の作動状態は、例えば、検知可能状態及び検知不能状態を含む。そして、第2領域に表示される物体検知機能の作動状態のそれぞれは表示態様が違う。表示態様の違いは、色の違い、模様の違い、表示/非表示の違い、点灯/点滅の違いを含む。この構成により、ショベルの操作者は、第2領域の表示態様の違いに基づき、物体検知機能が物体を検知できないおそれがあるか否かを容易に認識できる。
 表示装置14に表示される画像は、例えば、カメラ画像を表示するカメラ画像領域を含む。この場合、表示装置14は、例えば、カメラ画像領域の輪郭の一部に沿う作動状態表示領域G3の表示態様を変えることで物体検知機能の作動状態を表示する。また、表示装置14に表示される画像は、ショベルのコンピュータグラフィック画像であるCG画像G1を含んでいてもよい。この場合、カメラ画像は、ショベルの周囲を上から見た周囲画像を含む。そして、カメラ画像領域の輪郭の一部に沿った作動状態表示領域G3の長さは検知範囲の幅を表す。検知範囲は、望ましくは、予め設定されている範囲であり、例えば、カメラの撮像範囲に含まれる空間である。検知範囲は、カメラの撮像範囲に相当する空間であってもよく、カメラの撮像範囲に含まれる空間のうち、ショベルの旋回軸から所定距離範囲内の空間であってもよい。コンピュータグラフィック画像から見た作動状態表示領域G3の方向は、望ましくは、ショベルに対する検知範囲の方向を表す。この画面構成により、ショベルの操作者は、検知範囲がショベルの周囲にどのように配置され、どの検知範囲で物体を検知できないおそれがあるかを容易に認識できる。
 上述のように、カメラ画像がショベルの周囲を上から見た周囲画像を含み、カメラ画像領域の輪郭の一部に沿った作動状態表示領域G3の長さが検知範囲の幅を表す場合、表示装置14に表示される画像の中心から見た作動状態表示領域G3の方向は、望ましくは、ショベルに対する検知範囲の方向を表す。この画面構成により、ショベルの操作者は、どの方向にどのような幅の検知範囲が設定されているかを容易に認識できる。
 カメラ画像領域の外側輪郭線は、例えば図8に示すように、直線部分を含んでいてもよい。この場合、作動状態表示領域G3は、例えば、カメラ画像領域(スルー画像領域G2B)の外側輪郭線の直線部分に沿うように配置される。この画面構成により、カメラ画像が1台の単眼カメラの入力画像のみに基づくスルー画像であっても、ショベルの操作者は、物体検知機能の作動状態を容易に認識できる。
 検知範囲は、複数の部分検知範囲で構成されていてもよい。部分検知範囲は、例えば、左カメラ20Lの撮像範囲CLに含まれる空間であるショベルの左方にある左方検知範囲、バックカメラ20Bの撮像範囲CBに含まれる空間であるショベルの後方にある後方検知範囲、右カメラ20Rの撮像範囲CRに含まれる空間であるショベルの右方にある右方検知範囲等である。この場合、表示装置14は、複数の部分検知範囲のそれぞれに関する物体検知機能の作動状態を個別に表示してもよい。この構成により、ショベルの操作者は、検知範囲毎に物体を検知できないおそれがあるか否かを認識できる。
 本発明の実施例に係るショベルは、下部走行体1と、下部走行体1に旋回可能に搭載された上部旋回体3と、上部旋回体3に取り付けられたカメラと、カメラが撮像した画像から出力画像を生成する制御装置30と、出力画像を表示する表示装置14と、ショベルの周囲に設定された所定の検知範囲内へ侵入した人を検知する人検知手段と、を備えていてもよい。人検知手段は、例えば、カメラ、物体検出センサ等である。この構成では、ショベルは、出力画像において、人検知手段による人検知機能の作動状態を表示する。そのため、ショベルの操作者は、人検知機能が人を検知できないおそれがあるか否かを認識できる。この構成においても、人検知機能の作動状態は、例えば、検知可能状態及び検知不能状態を含む。そして、出力画像は、第1領域と、第1領域とは異なる場所にある第2領域とを含む。第2領域は、例えば、人検知機能の作動状態を表示する。第2領域に表示される人検知機能の作動状態のそれぞれは表示態様が違う。表示態様の違いは、色の違い、模様の違い、表示/非表示の違い、点灯/点滅の違い等を含む。この構成により、人を検知できないおそれがあるときにその旨をショベルの操作者に伝えることができる。
 表示装置14は、物体検知機能の作動状態を文字情報で表示してもよい。これにより、ショベルの操作者は、物体検知機能が物体を検知できないおそれがあるか否かを更に容易に認識できる。
 カメラ画像領域の縁は曲線部分を含んでいてもよい。この場合、作動状態表示領域G3は、カメラ画像領域の縁に沿った曲線部分を含んでいてもよい。例えば、カメラ画像領域としての周囲画像領域G2は、図4A及び図4Bに示すように、CG画像G1の右方、左方、及び後方の三方向を囲む略270度の部分円を形成するように配置されていてもよい。そして、作動状態表示領域G3は、周囲画像領域G2の外側輪郭線に沿って略270度の円弧形状を形成するように配置されていてもよい。この画面構成により、ショベルの操作者は、周囲360度のうちのどの程度の角度範囲が検知範囲によってカバーされているのかを直感的に認識できる。
 以上、本発明を実施するための形態について詳述したが、本発明は上述のような特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
 例えば、上述の実施例では、左作動状態表示領域G3L、後方作動状態表示領域G3B、及び右作動状態表示領域G3Rのそれぞれは、連続する1つの作動状態表示領域G3の一部として構成されている。しかしながら、本発明はこの構成に限定されるものではない。例えば、左作動状態表示領域G3L、後方作動状態表示領域G3B、及び右作動状態表示領域G3Rのそれぞれは独立した不連続領域であってもよい。
 また、上述の実施例において、ショベルは、人を検知する物体検知システム50を搭載するが、車両、作業機械、動物等の人以外の物体を検知する物体検知システムを搭載していてもよい。
 また、物体検知システム50は、1台、2台、又は4台以上のカメラが撮像した一又は複数の入力画像に基づいて左方検知範囲、右方検知範囲、及び後方検知範囲のそれぞれに関する人検知機能の作動状態を個別に判定してもよい。
 本願は、2016年7月5日に出願した日本国特許出願2016-133409号に基づく優先権を主張するものであり、この日本国特許出願の全内容を本願に参照により援用する。
 1・・・下部走行体 2・・・旋回機構 3・・・上部旋回体 4・・・ブーム 5・・・アーム 6・・・バケット 7・・・ブームシリンダ 8・・・アームシリンダ 9・・・バケットシリンダ 10・・・キャビン 14・・・表示装置 15・・・室内警報器 20・・・物体検知装置 20B・・・バックカメラ 20L・・・左カメラ 20R・・・右カメラ 30・・・制御装置 31・・・人検知部 32・・・画像生成部 33・・・作動状態判定部 50・・・物体検知システム

Claims (12)

  1.  下部走行体と、
     前記下部走行体に旋回可能に搭載された上部旋回体と、
     前記上部旋回体に取り付けられたカメラと、
     表示装置と、
     ショベルの周囲に設定された所定の検知範囲内で所定の物体を検知する物体検知装置と、を備え、
     前記物体検知装置を用いた物体検知機能の作動状態が前記表示装置に表示される、
     ショベル。
  2.  前記表示装置に表示される画像は、第1領域と、該第1領域とは異なる場所にある第2領域とを含み、
     前記第1領域は、カメラ画像を表示し、
     前記第2領域は、前記物体検知機能の作動状態を表示する、
     請求項1に記載のショベル。
  3.  前記物体検知機能の作動状態は、検知可能状態及び検知不能状態を含み、
     前記第2領域に表示される前記物体検知機能の作動状態のそれぞれは表示態様が違い、
     表示態様の違いは、色の違い、模様の違い、表示/非表示の違い、点灯/点滅の違いを含む、
     請求項2に記載のショベル。
  4.  前記表示装置に表示される画像は、カメラ画像を表示するカメラ画像領域を含み、
     前記表示装置は、前記カメラ画像領域の輪郭の一部に沿う作動状態表示領域の表示態様を変えることで前記物体検知機能の作動状態を表示する、
     請求項1に記載のショベル。
  5.  前記表示装置に表示される画像は、ショベルのコンピュータグラフィック画像を含み、
     前記カメラ画像は、ショベルの周囲を上から見た周囲画像を含み、
     前記カメラ画像領域の輪郭の一部に沿った前記作動状態表示領域の長さは前記検知範囲の幅を表し、
     前記コンピュータグラフィック画像から見た前記作動状態表示領域の方向は、ショベルに対する前記検知範囲の方向を表す、
     請求項4に記載のショベル。
  6.  前記カメラ画像は、ショベルの周囲を上から見た周囲画像を含み、
     前記カメラ画像領域の輪郭の一部に沿った前記作動状態表示領域の長さは前記検知範囲の幅を表し、
     前記表示装置に表示される画像の中心から見た前記作動状態表示領域の方向は、ショベルに対する前記検知範囲の方向を表す、
     請求項4に記載のショベル。
  7.  前記カメラ画像領域の外側輪郭線は直線部分を含み、
     前記作動状態表示領域は、前記カメラ画像領域の前記外側輪郭線の直線部分に沿うように配置される、
     請求項4に記載のショベル。
  8.  前記検知範囲は、複数の部分検知範囲で構成され、
     前記表示装置は、前記複数の部分検知範囲のそれぞれに関する前記物体検知機能の作動状態を個別に表示する、
     請求項1に記載のショベル。
  9.  下部走行体と、
     前記下部走行体に旋回可能に搭載された上部旋回体と、
     前記上部旋回体に取り付けられたカメラと、
     前記カメラが撮像した画像から出力画像を生成する制御装置と、
     前記出力画像を表示する表示装置と、
     ショベルの周囲に設定された所定の検知範囲内へ侵入した人を検知する人検知手段と、を備え、
     前記出力画像において、前記人検知手段による人検知機能の作動状態を表示する、
     ショベル。
  10.  前記人検知機能の作動状態は、検知可能状態及び検知不能状態を含み、
     前記出力画像は、第1領域と、該第1領域とは異なる場所にある第2領域とを含み、
     前記第2領域は、前記人検知機能の作動状態を表示し、
     前記第2領域に表示される前記人検知機能の作動状態のそれぞれは表示態様が違い、
     表示態様の違いは、色の違い、模様の違い、表示/非表示の違い、点灯/点滅の違いを含む、
     請求項9に記載のショベル。
  11.  前記表示装置は、前記物体検知機能の作動状態を文字情報で表示する、
     請求項1に記載のショベル。
  12.  前記カメラ画像領域の縁は曲線部分を含み、
     前記作動状態表示領域は、前記カメラ画像領域の縁に沿った曲線部分を含む、
     請求項4に記載のショベル。
PCT/JP2017/024123 2016-07-05 2017-06-30 ショベル Ceased WO2018008542A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018526335A JP6812432B2 (ja) 2016-07-05 2017-06-30 ショベル
KR1020187032041A KR102386846B1 (ko) 2016-07-05 2017-06-30 쇼벨
CN201780029804.6A CN109154154A (zh) 2016-07-05 2017-06-30 挖土机
EP17824147.7A EP3483349B1 (en) 2016-07-05 2017-06-30 Excavator
US16/203,890 US10920403B2 (en) 2016-07-05 2018-11-29 Shovel

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016133409 2016-07-05
JP2016-133409 2016-07-05

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/203,890 Continuation US10920403B2 (en) 2016-07-05 2018-11-29 Shovel

Publications (1)

Publication Number Publication Date
WO2018008542A1 true WO2018008542A1 (ja) 2018-01-11

Family

ID=60912829

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/024123 Ceased WO2018008542A1 (ja) 2016-07-05 2017-06-30 ショベル

Country Status (6)

Country Link
US (1) US10920403B2 (ja)
EP (1) EP3483349B1 (ja)
JP (1) JP6812432B2 (ja)
KR (1) KR102386846B1 (ja)
CN (1) CN109154154A (ja)
WO (1) WO2018008542A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019153932A (ja) * 2018-03-02 2019-09-12 アイシン精機株式会社 汚れ報知装置
JP2020042618A (ja) * 2018-09-12 2020-03-19 大阪瓦斯株式会社 物体検出センサ及び警報器
JP2020063569A (ja) * 2018-10-15 2020-04-23 日立建機株式会社 油圧ショベル
JP2020125672A (ja) * 2019-01-15 2020-08-20 株式会社カナモト 建設機械の安全装置
WO2020184065A1 (ja) * 2019-03-14 2020-09-17 日立建機株式会社 建設機械
WO2020218455A1 (ja) * 2019-04-26 2020-10-29 住友建機株式会社 ショベル
JPWO2021025123A1 (ja) * 2019-08-08 2021-02-11
JP2021120515A (ja) * 2020-01-30 2021-08-19 住友重機械工業株式会社 作業機械、情報処理装置
JP2022146688A (ja) * 2021-03-22 2022-10-05 住友建機株式会社 ショベル
KR20230019384A (ko) 2021-07-30 2023-02-08 얀마 홀딩스 주식회사 작업 기계의 제어 방법, 작업 기계용 제어 프로그램, 작업 기계용 제어 시스템 및 작업 기계
EP4563756A1 (en) 2023-11-22 2025-06-04 Yanmar Holdings Co., Ltd. Work machine control method, work machine control program, work machine control system, and work machine

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6794879B2 (ja) * 2017-03-10 2020-12-02 株式会社タダノ 作業車両用の人物検知システムおよびこれを備える作業車両
JP7070047B2 (ja) * 2018-04-26 2022-05-18 コベルコ建機株式会社 旋回式作業機械の旋回制御装置
US12227922B2 (en) * 2020-03-27 2025-02-18 Hitachi Construction Machinery Co., Ltd. Work machine
WO2022202855A1 (ja) * 2021-03-22 2022-09-29 住友建機株式会社 建設機械及び建設機械用支援装置
US11840823B2 (en) 2021-03-30 2023-12-12 Darrell Cobb Backhoe camera assembly

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012053105A1 (ja) * 2010-10-22 2012-04-26 日立建機株式会社 作業機械の周辺監視装置
JP2014225803A (ja) * 2013-05-16 2014-12-04 住友建機株式会社 作業機械用周辺監視装置
JP2015055095A (ja) * 2013-09-11 2015-03-23 住友建機株式会社 建設機械
WO2015162800A1 (ja) * 2014-04-25 2015-10-29 株式会社小松製作所 周辺監視システム、作業車両、及び周辺監視方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008179940A (ja) * 2005-03-31 2008-08-07 Hitachi Constr Mach Co Ltd 作業機械の周囲監視装置
JP2008232832A (ja) * 2007-03-20 2008-10-02 Denso Corp 干渉判定方法,fmcwレーダ
JP4991384B2 (ja) * 2007-05-08 2012-08-01 株式会社日立製作所 接近物検知装置及び接近物検知プログラム
JP5227841B2 (ja) 2009-02-27 2013-07-03 日立建機株式会社 周囲監視装置
JP5090496B2 (ja) * 2010-04-12 2012-12-05 住友重機械工業株式会社 画像生成装置及び操作支援システム
US9332229B2 (en) * 2010-06-18 2016-05-03 Hitachi Construction Machinery Co., Ltd. Surrounding area monitoring device for monitoring area around work machine
JP5341044B2 (ja) * 2010-09-29 2013-11-13 日立建機株式会社 作業機械の表示システム
FR2979901B1 (fr) * 2011-09-09 2013-09-06 Snecma Procede de synchronisation des moteurs d'un avion
JP5888956B2 (ja) * 2011-12-13 2016-03-22 住友建機株式会社 ショベル及び該ショベルの周囲画像表示方法
US20140340498A1 (en) * 2012-12-20 2014-11-20 Google Inc. Using distance between objects in touchless gestural interfaces
US9317937B2 (en) * 2013-12-30 2016-04-19 Skribb.it Inc. Recognition of user drawn graphical objects based on detected regions within a coordinate-plane
JP6246014B2 (ja) * 2014-02-18 2017-12-13 クラリオン株式会社 外界認識システム、車両、及びカメラの汚れ検出方法
US9975485B2 (en) * 2014-04-25 2018-05-22 Komatsu Ltd. Surroundings monitoring system, work vehicle, and surroundings monitoring method
JP6434507B2 (ja) * 2014-06-03 2018-12-05 住友重機械工業株式会社 建設機械用人検知システム及びショベル
WO2016013691A1 (ja) * 2015-10-15 2016-01-28 株式会社小松製作所 位置計測システム及び位置計測方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012053105A1 (ja) * 2010-10-22 2012-04-26 日立建機株式会社 作業機械の周辺監視装置
JP2014225803A (ja) * 2013-05-16 2014-12-04 住友建機株式会社 作業機械用周辺監視装置
JP2015055095A (ja) * 2013-09-11 2015-03-23 住友建機株式会社 建設機械
WO2015162800A1 (ja) * 2014-04-25 2015-10-29 株式会社小松製作所 周辺監視システム、作業車両、及び周辺監視方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3483349A4 *

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019153932A (ja) * 2018-03-02 2019-09-12 アイシン精機株式会社 汚れ報知装置
JP2020042618A (ja) * 2018-09-12 2020-03-19 大阪瓦斯株式会社 物体検出センサ及び警報器
JP7138521B2 (ja) 2018-09-12 2022-09-16 大阪瓦斯株式会社 物体検出センサ及び警報器
JP2020063569A (ja) * 2018-10-15 2020-04-23 日立建機株式会社 油圧ショベル
WO2020080294A1 (ja) * 2018-10-15 2020-04-23 日立建機株式会社 油圧ショベル
JP2020125672A (ja) * 2019-01-15 2020-08-20 株式会社カナモト 建設機械の安全装置
KR20210120085A (ko) * 2019-03-14 2021-10-06 히다치 겡키 가부시키 가이샤 건설 기계
KR102579791B1 (ko) 2019-03-14 2023-09-19 히다치 겡키 가부시키 가이샤 건설 기계
JP2020148029A (ja) * 2019-03-14 2020-09-17 日立建機株式会社 建設機械
JP7111641B2 (ja) 2019-03-14 2022-08-02 日立建機株式会社 建設機械
WO2020184065A1 (ja) * 2019-03-14 2020-09-17 日立建機株式会社 建設機械
US12054913B2 (en) 2019-03-14 2024-08-06 Hitachi Construction Machinery Co., Ltd. Construction machine
JPWO2020218455A1 (ja) * 2019-04-26 2020-10-29
WO2020218455A1 (ja) * 2019-04-26 2020-10-29 住友建機株式会社 ショベル
US12252868B2 (en) 2019-04-26 2025-03-18 Sumitomo Construction Machinery Co., Ltd. Shovel
JP7407178B2 (ja) 2019-04-26 2023-12-28 住友建機株式会社 ショベル
JPWO2021025123A1 (ja) * 2019-08-08 2021-02-11
WO2021025123A1 (ja) * 2019-08-08 2021-02-11 住友建機株式会社 ショベル、情報処理装置
JP2021120515A (ja) * 2020-01-30 2021-08-19 住友重機械工業株式会社 作業機械、情報処理装置
JP7479156B2 (ja) 2020-01-30 2024-05-08 住友重機械工業株式会社 作業機械、情報処理装置
JP2022146688A (ja) * 2021-03-22 2022-10-05 住友建機株式会社 ショベル
EP4134493A1 (en) 2021-07-30 2023-02-15 Yanmar Holdings Co., Ltd. Method for controlling work machine, work machine control program, and work machine control system
JP2023019920A (ja) * 2021-07-30 2023-02-09 ヤンマーホールディングス株式会社 作業機械の制御方法、作業機械用制御プログラム、作業機械用制御システム及び作業機械
KR20230019384A (ko) 2021-07-30 2023-02-08 얀마 홀딩스 주식회사 작업 기계의 제어 방법, 작업 기계용 제어 프로그램, 작업 기계용 제어 시스템 및 작업 기계
EP4563756A1 (en) 2023-11-22 2025-06-04 Yanmar Holdings Co., Ltd. Work machine control method, work machine control program, work machine control system, and work machine

Also Published As

Publication number Publication date
JPWO2018008542A1 (ja) 2019-04-18
US10920403B2 (en) 2021-02-16
KR20190022468A (ko) 2019-03-06
EP3483349B1 (en) 2025-12-03
KR102386846B1 (ko) 2022-04-13
US20190093317A1 (en) 2019-03-28
EP3483349A1 (en) 2019-05-15
EP3483349A4 (en) 2019-07-31
JP6812432B2 (ja) 2021-01-13
CN109154154A (zh) 2019-01-04

Similar Documents

Publication Publication Date Title
JP6812432B2 (ja) ショベル
US12263791B2 (en) Vehicular driver monitoring system with camera having micro lens array
JP7108750B2 (ja) システムおよび方法
US9335545B2 (en) Head mountable display system
US9836938B2 (en) Shovel having audio output device installed in cab
JP5961472B2 (ja) 作業機械の周囲監視装置
US9440591B2 (en) Enhanced visibility system
JP7087545B2 (ja) 建設機械
JP6262068B2 (ja) 車体近傍障害物報知システム
JP2013253402A (ja) 作業機械の周囲監視装置
WO2017038123A1 (ja) 車両の周囲監視装置
WO2019111859A1 (ja) 周辺監視装置、情報処理端末、情報処理装置、情報処理プログラム
JP5598731B2 (ja) 車両周辺監視装置
KR20170039615A (ko) 크롤러식 작업 기계의 주변 감시 장치
WO2001028250A1 (en) Monitor camera, method of adjusting camera, and vehicle monitor system
JP2010093605A (ja) 操縦支援装置
JP7076501B2 (ja) 作業車
TWI533694B (zh) 車用障礙物偵測顯示系統
WO2015133367A1 (ja) 作業機械の周辺監視装置
WO2021187082A1 (ja) 作業機械および作業機械の制御方法
JP2020165235A (ja) ショベル
KR20170065738A (ko) 헤드업 디스플레이 제어 장치 및 방법
US20240404002A1 (en) Surroundings monitoring system

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 20187032041

Country of ref document: KR

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17824147

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018526335

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017824147

Country of ref document: EP

Effective date: 20190205

WWG Wipo information: grant in national office

Ref document number: 2017824147

Country of ref document: EP