WO2014073571A1 - Image processing device for self-propelled industrial machine and image processing method for self-propelled industrial machine - Google Patents
Image processing device for self-propelled industrial machine and image processing method for self-propelled industrial machine Download PDFInfo
- Publication number
- WO2014073571A1 WO2014073571A1 PCT/JP2013/080022 JP2013080022W WO2014073571A1 WO 2014073571 A1 WO2014073571 A1 WO 2014073571A1 JP 2013080022 W JP2013080022 W JP 2013080022W WO 2014073571 A1 WO2014073571 A1 WO 2014073571A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- range
- image data
- image
- alert
- self
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- E—FIXED CONSTRUCTIONS
- E02—HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
- E02F—DREDGING; SOIL-SHIFTING
- E02F9/00—Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
- E02F9/24—Safety devices, e.g. for preventing overload
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60P—VEHICLES ADAPTED FOR LOAD TRANSPORTATION OR TO TRANSPORT, TO CARRY, OR TO COMPRISE SPECIAL LOADS OR OBJECTS
- B60P1/00—Vehicles predominantly for transporting loads and modified to facilitate loading, consolidating the load, or unloading
-
- E—FIXED CONSTRUCTIONS
- E02—HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
- E02F—DREDGING; SOIL-SHIFTING
- E02F9/00—Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
- E02F9/26—Indicating devices
- E02F9/261—Surveying the work-site to be treated
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/8093—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
Definitions
- the present invention relates to an image processing apparatus of a self-propelled industrial machine that performs predetermined image processing on image data captured by a photographing unit provided in a self-propelled industrial machine and an image processing method thereof.
- the self-propelled industrial machines include transport machines such as dump trucks and working machines such as hydraulic shovels.
- the dump truck is provided with a vessel which can be undulated on the frame of the vehicle body.
- An excavated object excavated by a hydraulic shovel or the like is loaded on a vessel of the dump truck. After a predetermined amount of excavated material is loaded in the vessel, the dump truck is traveled to a predetermined accumulation site to excavate the loaded excavation material at the accumulation site.
- the dump truck is a large transport vehicle, and there are many blind spots that can not be seen by the operator who gets into the cab.
- a camera is mounted on the dump truck, and an image captured by the camera is displayed on the monitor of the driver's cab.
- the camera takes an image of the area which is the blind spot of the operator. Then, by displaying the image captured by the camera on the monitor, the operator can supplementarily obtain a blind spot. Thereby, the operator can recognize the situation around the dump truck in detail.
- Patent Document 1 discloses a technique for performing predetermined image processing on an image acquired by a camera of a hydraulic shovel to recognize an obstacle. In the technology of Patent Document 1, it is detected by image processing whether or not an intruding moving body is in the working range of the hydraulic shovel. By performing this image processing, the distance of the intruding moving body and the degree of certainty as a human body are evaluated.
- a predetermined visual field range exists in the camera, and an image of this visual field range is displayed on the screen of the monitor as image data. Then, as in the technique of Patent Document 1 described above, by performing predetermined image processing on image data, an obstacle such as a worker, a service car, or another work machine is detected. As a result, the operator who gets in the driver's cab can know that when an obstacle is detected.
- a range close to a self-propelled industrial machine such as a dump truck needs to be alerted, and this range is considered as a critical alert range.
- This alert range can be set as a range in which the dump truck and the obstacle may come in contact with each other. Therefore, all of the alert range needs to be included in the camera view range. That is, the alert range is a partial range of the field of view of the camera. For this reason, a range other than the alert range is generated in the visual field range of the camera.
- the range outside the vigilance range is a vigilance area, and even if an obstacle exists in this range, no problem occurs. That is, it is not necessary to know the operator.
- the operator is notified of information which does not need to be recognized by the operator, which causes the operator to be confused. This reduces the work efficiency.
- the caution-unwanted range is a far range in the visual field range of the camera, and the pixels when this range is imaged become rough. As a result, even non-obstacles may be falsely detected as obstacles, and normal obstacles can not be detected.
- the image processing is performed to the unwarranted range, the amount of information to be processed increases, and the time required for processing also increases.
- the alert range for detecting an obstacle in the camera's field of view is automatically set, and even if the camera's field of view deviates afterward, the alert range is not deviated. With the goal.
- the image processing apparatus for a self-propelled industrial machine is provided in a self-propelled industrial machine, and a part of the structure constituting the self-propelled industrial machine is included in the field of view.
- An imaging unit for imaging a peripheral region a structure detection unit for detecting the structure in the image data based on image data captured by the imaging unit, and a position in the peripheral region of the image data To be detected, and the predetermined range including the obstacle is set as the required alert range, and the required alert range is set in the image data based on the structure detected by the structure detector.
- a warning range setting unit is provided in a self-propelled industrial machine, and a part of the structure constituting the self-propelled industrial machine is included in the field of view.
- An imaging unit for imaging a peripheral region a structure detection unit for detecting the structure in the image data based on image data captured by the imaging unit, and a position in the peripheral region of the image data To be detected, and the predetermined range including the obstacle is set as the required alert range, and the required
- the image processing apparatus may further include an obstacle detection unit configured to detect the obstacle only in the alert range in the image data.
- the image processing apparatus may further include a shift determination unit that determines whether or not the view range of the imaging unit is shifted more than an allowable range based on the number of pixels which is equal to or greater than a threshold.
- the self-propelled industrial machine may include a traveling speed detection unit that detects a traveling speed, and the alert range may be changed based on the traveling speed detected by the traveling speed detection unit.
- the image picked up by the photographing unit is displayed on the image display means.
- the image of the imaging unit is subjected to viewpoint conversion by signal processing to be a bird's eye view with the upper viewpoint It is good also as composition.
- a photographing unit is provided in the self-propelled industrial machine, and a surrounding area including a part of the structure of the self-propelled industrial machine is photographed, Based on the image data captured by the imaging unit, the structure in the image data is detected, and an obstacle located in the peripheral area of the image data is detected, and a predetermined range including the obstacle is detected. Setting the required alert range in the image data based on the structure detected by the structure detection unit, and setting the failure with respect to only the required alert range in the image data Perform processing to detect objects.
- the imaging unit performs imaging so that the structure of the self-propelled industrial machine is included in the field of view, detects the structure edge, and sets the alert range based on the structure edge.
- the imaging unit performs imaging so that the structure of the self-propelled industrial machine is included in the field of view, detects the structure edge, and sets the alert range based on the structure edge.
- FIG. 6A is a diagram showing an example of a vigilance range and a vigilance unnecessary range, wherein (a) is image data in which a vigilance range is set based on edge line segment data, and (b) is image data shown in (a) Image data to which distortion restoration processing has been added. It is a figure which shows an example of the display image of 1st Embodiment. It is a block diagram showing composition of an image processing device of a 2nd embodiment.
- FIG. 1 It is a figure showing an example which specifies the front structure in case a gap has arisen in a visual field range
- (a) is image data from which an edge pixel was extracted
- (b) is an image conversion shown in (a) It is image data after processing.
- (a) is image data in which a vigilance range is set based on edge line segment data
- (b) It is image data obtained by adding distortion restoration processing to the image data shown in (a).
- FIG. 1 It is a block diagram which shows the structure of the image processing apparatus of 3rd Embodiment. It is a figure which shows an example of the image data of 4th Embodiment. It is a figure which shows an example of the image which binarized the image data of FIG. It is a figure which shows an example of the display image of 4th Embodiment. It is explanatory drawing which shows the principle which carries out a bird's-eye view imaging process of a camera image. It is a figure which shows an example which displayed the display image of 2nd Embodiment as a bird's-eye view, (a) shows the area
- a dump truck as a transport vehicle is applied to a self-propelled industrial machine.
- any self-propelled industrial machine other than a dump truck such as a hydraulic shovel having a lower traveling body or the like may be applied.
- the present embodiment can be applied to any self-propelled industrial machine that performs a predetermined operation (such as transportation or digging).
- “left” is the left side when viewed from the driver's cab
- “right” is the right side when viewed from the driver's cab.
- FIG. 1 shows an example of the dump truck 1 of the present embodiment.
- the dump truck 1 includes a vehicle body frame 2, front wheels 3 (3L and 3R), rear wheels 4 (4L and 4R), a vessel 5, a camera 6, a cab 7, an image processing device 8, and a monitor 9 There is.
- the vehicle body frame 2 forms the main body of the dump truck 1, and front wheels 3 and rear wheels 4 are provided in front of the vehicle body frame 2.
- the front wheel 3R is the right front wheel 3 and the front wheel 3L is the left front wheel 3.
- the rear wheel 4R is a right rear wheel 4 and the rear wheel 4L is a left rear wheel 4.
- a vessel 5 is a loading platform for loading soil, minerals, and the like. The vessel 5 is configured to be able to be undulated.
- a camera 6 as an imaging unit can be installed at an arbitrary position on the dump truck 1.
- FIG. 2 shows a side view of the dump truck 1, and the camera 6 is mounted in front of the cab 7.
- the camera 6 performs imaging of the peripheral area of the dump truck 1 in a field of view range 6A (the range of the broken line in the drawing) which looks diagonally downward and forward of the dump truck 1.
- the worker M is present as an obstacle to avoid contact.
- Other obstacles include work machines and service cars, which may be included in the visual field range 6A.
- the field of view range 6A of the camera 6 is obliquely downward in front of the dump truck 1 so that part of the front structure 10 is included in the field of view range 6A.
- the visual field range 6A includes a part of the front structure 10.
- the visual field range 6A which is the peripheral area photographed by the camera 6 may be a direction other than the front of the dump truck 1, or any direction such as the rear, left or right of the dump truck 1 may be a visual field.
- the visual field range 6A By setting the visual field range 6A to the rear of the dump truck 1, it is possible to display an image of the rear situation when moving the dump truck 1 backward. At this time, the visual field range 6A includes a part of the rear structure.
- the operator's cab 7 is provided with various operation means for the operator to ride and operate the dump truck 1. For example, a shift lever or the like for moving the dump truck 1 forward or backward is provided as the operating means.
- An image processing device 8 and a monitor 9 are provided in the driver's cab 7, and the image processing device 8 performs predetermined image processing on image data generated by the camera 6 taking a picture.
- the image data subjected to the image processing is displayed on the monitor 9.
- the monitor 9 is a display device, and basically, an image taken by the camera 6 is displayed on the monitor 9.
- the image processing device 8 is an image processing controller that performs image processing on image data of a video captured by the camera 6. Then, the image data subjected to the image processing is displayed on the monitor 9 as a display image. As shown in FIG. 3, the image processing apparatus 8 includes a distortion correction unit 21, a smoothing processing unit 22, an edge extraction unit 23, a structure edge determination unit 24, an edge line segment data determination unit 25, and a caution range setting unit 26. And a distortion restoration unit 27 and a display image generation unit 28.
- the image captured by the camera 6 is input to the distortion correction unit 21 as image data.
- the distortion correction unit 21 corrects distortion of image data using lens parameters of the camera 6 (focal length, optical axis center of image, lens distortion coefficient, etc.).
- the image reflected by the lens of the camera 6 is not distorted at the center, but is distorted as it goes away from the center. Therefore, the image data obtained by photographing by the camera 6 is distorted as a whole.
- image data with high linearity can be obtained by performing correction using the above-mentioned parameters.
- the smoothing processing unit 22 receives the image data corrected by the distortion correction unit 21 and performs smoothing processing.
- the smoothing process is a process of reducing a change in pixel value between each pixel of image data to generate a smooth image. By performing the smoothing process on the image data, it is possible to smooth the change of the pixel value, and it is possible to make the image data smoothed as a whole.
- any method can be used for the smoothing process, for example, a moving average filter, a median filter, a Gaussian filter or the like can be used.
- the edge extraction unit 23 performs edge extraction processing on the image data that has been subjected to the smoothing processing by the smoothing processing unit 22. For this reason, pixels having a large change in pixel value between adjacent pixels are extracted as edge pixels, and a shape in which the edge pixels are continuously formed is set as an edge. Thus, an edge having a large change in pixel value is extracted from the image data.
- a method such as Sobel filter or Canney's algorithm can be used.
- the structure edge determination unit 24 which is a structure detection unit, uses an edge whose shape is close to the boundary of the front structure 10 in the image data as the edge of the front structure 10. judge.
- the structure edge determination unit 24 straightens the edges in the image data using a linearization method such as Hough transformation. Then, a straightened edge is determined as an edge line segment, and an edge line segment having high connectivity is determined as a boundary (edge) of the front structure 10.
- the edge line segment can be expressed using the coordinates in the image data, and here, the intersection coordinates of the edge line segments, the edge line segment, and the lower end of the image data (closest to the dump truck 1 among the image data P
- the coordinates of the point of intersection with the existing end are stored as edge line segment data.
- the edge line segment data determination unit 25 compares an arbitrary number of edge line segment data, including the latest edge line segment data. Since the camera 6 has a predetermined imaging cycle and image data is periodically acquired, edge line segment data is also periodically acquired. The edge line segment data determination unit 25 stores the past edge line segment data, and calculates an average value with the latest edge line segment data. Then, the average value of the calculated edge line segment data is determined as the determined edge line segment data.
- Each part from the distortion correction unit 21 to the edge line segment data determination unit 25 is a structure detection unit for detecting the front structure 10.
- the caution range setting unit 26 sets a caution range based on the edge line segment data input from the edge line segment data determination unit 25.
- the relative positional relationship between the vigilance range and the front structure 10 of the dump truck 1 is constant, and the vigilance range and the front structure are based on the mounting height or depression angle of the camera 6, the number of pixels of the camera 6, the angle of view, etc.
- the relative positional relationship with 10 can be recognized as known. Therefore, the caution range setting unit 26 sets a predetermined range as the caution range based on the boundary of the front structure 10 obtained by the edge line segment data.
- the distortion restoration unit 27 restores distortion using the camera lens parameters distortion-corrected by the distortion correction unit 21.
- the image data up to the distortion restoration unit 27 is data in which distortion of the camera lens of the camera 6 is corrected, and distortion occurs in the image of the original camera 6. Therefore, when displaying the image of the camera 6 inherently, the distortion restoration unit 27 performs processing to restore distortion to the image data. Due to the restoration of this distortion, distortion also occurs in the required alert range in the image data.
- the display image generation unit 28 generates a display image to be displayed on the monitor 9.
- the display image at this time is image data in which distortion is restored, and a caution range is set in this.
- the display image creation unit 28 outputs the display image in which the alert range is set to the monitor 9 and displays the display image on the monitor 9. As a result, the operator boarding the cab 7 can recognize the image of the camera 6 by visually recognizing the monitor 9.
- the camera 6 installed on the dump truck 1 captures a view range 6A with a view obliquely downward, and performs shooting at a predetermined shooting cycle (for example, frame / second). As a result, image data of one frame obtained for each shooting cycle is periodically output to the image processing device 8 (step S1).
- the camera 6 is installed so that the front structure 10 is included in the visual field range 6A, and the front structure 10 is included in the image data.
- FIG. 1 An example of the image data obtained by the camera 6 photographing the visual field range 6A is shown in FIG.
- the camera 6 has a field of view obliquely downward, and as shown in the figure, the ground in the shooting direction of the camera 6 is projected on the image data P as a background.
- the site where the dump truck 1 is operated is under a severe environment, the ground is not leveled, and there are many irregularities.
- the image data P it is projected as the uneven portion R.
- the field of view of the camera 6 is set so that the front structure 10 of the dump truck 1 is projected in the field of view range 6A. Therefore, the front structure 10 is also included in the image data P.
- the image data P described above is output to the distortion correction unit 21 of the image processing device 8 and is also output to the display image generation unit 28.
- the image data P input to the distortion correction unit 21 is subjected to distortion correction based on the lens parameters of the camera 6 (step S2).
- distortion correction of the image data P using the lens parameters of the camera 6 distortion of a portion separated from the center of the image data P is corrected.
- the image data P is corrected to an image having high linearity as shown in FIG.
- the image data P subjected to distortion correction processing is input to the smoothing processing unit 22.
- the smoothing processing unit 22 performs a smoothing process on the image data P (step S3).
- the smoothing processing unit 22 generates smooth image data P by reducing the difference in pixel value between adjacent pixels for each pixel of the image data P.
- the edge extraction unit 23 performs edge extraction processing.
- the pixel values of the image data P become sparse values due to unevenness of the ground, a difference in illuminance, or the like, and these may be detected as edges.
- these are noise components, and the smoothing processing unit 22 performs smoothing processing in order to remove noise components in advance.
- the sparse pixel values are smoothed and noise components are removed.
- the smoothing processing is performed using the smoothing filter shown in FIG. 7, but any method can be used as long as the difference in pixel value between adjacent pixels can be reduced.
- FIG. 7 shows an example in which a Gaussian filter is applied as the smoothing filter.
- the Gaussian filter is a filter in which the filter coefficients of pixels close to one pixel (central pixel) in the image data P are large and the filter coefficients of pixels far from the central pixel are small in consideration of the spatial arrangement of pixels.
- the Gaussian filter then takes a weighted average of each filtered pixel.
- the following Gaussian function (Expression 1) can be used as the filter coefficient.
- (sigma) in Formula 1 is a standard deviation.
- a Gaussian filter of 3 pixels ⁇ 3 pixels in total of 9 pixels is used.
- the number of pixels of the Gaussian filter is not nine but may be 25 pixels in total of 5 pixels ⁇ 5 pixels, or more.
- the Gaussian filter using the Gaussian function of Equation 1 described above is configured of a central pixel and peripheral pixels (eight pixels).
- the filter coefficient K of the central pixel is the largest, the filter coefficients L of the four pixels above, below, and to the left of the central pixel are the second largest, and the filter coefficients M of the other four pixels are the smallest. That is, "K>L>M".
- the filter coefficients are weighted, and the sum of the filter coefficients is "1".
- the smoothing processing unit 22 performs the smoothing processing using the above-described Gaussian filter on all the pixels of the image data P. Specifically, the pixel value of the central pixel is multiplied by the filter coefficient K, the pixel values of the four pixels above, below, left, and right of the central pixel are multiplied by the filter coefficient L, and the pixel values of the other four pixels are multiplied. Then, the filter coefficient M is multiplied. Then, with respect to the pixel value of the central pixel multiplied by the filter coefficient K, the pixel values of the surrounding eight pixels multiplied by the filter coefficients L and M are added. The pixel value of the central pixel when this addition is performed becomes the smoothed value. This process is performed on all the pixels of the image data P.
- the uneven portion R on the ground and the front structure 10 are shown.
- the pixel of the uneven portion R has a difference between its surrounding pixels and the pixel value. Therefore, when the smoothing processing unit 22 performs the smoothing process on the image data P, the difference in pixel value between the uneven portion R and the surrounding pixels is reduced, and the image data P is smoothed. Then, the values of the filter coefficients K, L and M described above are values such that the boundary of the front structure 10 in the image data P is detected as an edge, but the other uneven portion R etc. is not detected as an edge. Set to As a result, as shown in FIG. 8, the uneven portion R in the image data P can be significantly reduced. Since the values of the filter coefficients K, L, and M are determined by the standard deviation ⁇ of the Gaussian function, the standard deviation ⁇ is set such that the uneven portion R is not detected.
- the difference between the pixel of the uneven portion R and the surrounding pixels may become large depending on the size, the illumination condition, etc. in the uneven portion R.
- the uneven portion R can not be completely removed from the image data P, and a portion of the uneven portion R remains.
- the number can be significantly reduced.
- the boundary between the background and the front structure 10 is clearly distinguishable.
- the dump truck 1 is often colored in a color that can be easily distinguished from the ground or the surrounding environment from the viewpoint of grasping the surrounding situation.
- the front structure 10 also has a clearly different color from the background such as the ground and the surrounding environment. Therefore, the difference between the pixel value of the front structure 10 and the pixel value of the background of the boundary between the background and the front structure 10, that is, the front structure 10, is large. Thereby, since the difference of the pixel value in the boundary of front structure 10 is very large, even if it performs smoothing processing, most remain.
- the edge extracting unit 23 extracts, as an edge pixel, a pixel having a difference in pixel value between adjacent pixels equal to or larger than a predetermined threshold (a pixel having a large difference) from the image data P subjected to the smoothing process (step S4) .
- a Canny algorithm is used as edge extraction processing for extracting edge pixels.
- the Canny algorithm uses two types of Sobel filters, a Sobel filter in the horizontal direction (horizontal direction: X direction) and a Sobel filter in the vertical direction (longitudinal direction: Y direction) as shown in FIG.
- the Sobel filter in the X direction emphasizes the contour in the X direction of the image data P
- the Sobel filter in the Y direction emphasizes the contour in the Y direction.
- Edge pixels are extracted for all pixels of the image data P using these two Sobel filters.
- the edge extraction unit 23 compares the edge intensities g of all the pixels of the image data P subjected to the Sobel filter using the first threshold T1 and the second threshold T2 (where T1> T2). . Focusing on one pixel of the image data P, if the edge strength g of the pixel is equal to or greater than the first threshold T1, the pixel is detected as an edge pixel. On the other hand, if the edge strength g of the focused pixel is less than the second threshold T2, the pixel is detected as not being an edge pixel.
- the edge strength of the focused pixel is equal to or more than the first threshold T1 and less than the second threshold T2
- the edge pixel exists in the vicinity of the pixel (in particular, the pixel adjacent to the pixel) It is detected as a pixel, otherwise it is not detected as an edge pixel.
- image data P in which edge pixels are extracted as shown in FIG. 10A is generated. Then, a shape in which edge pixels are continuous is extracted as an edge E.
- the front structure 10 is determined from the image data P by performing the structure edge determination process on the image data P from which the edge E is extracted (step S5). In the edge extraction process, pixels having a large difference between adjacent pixels are extracted as edge pixels. As a result, since the pixels that originally projected the uneven portion R are hardly detected as edge pixels, the accuracy of detecting the front structure 10 is dramatically improved.
- the boundary of the front structure 10 is likely to be detected as an edge pixel because the difference in pixel value is large.
- the edge E may not exhibit linearity and may exhibit irregular changes.
- the boundary of the front structure 10 which originally has linearity may lose linearity, and part of the boundary may not be detected.
- the structure edge determination unit 24 extracts a straight line from the edge pixel of the image data P.
- Hough transform is used as a known method here.
- straight lines can be extracted from edge pixels, methods other than Hough transform may be used.
- line segments indicating irregular changes are straight lines L and L1 to L4 as shown in FIG. 10 (b). become.
- attention is paid to straight lines L1 and L2 extending in the X direction and straight lines L3 and L4 extending in the Y direction.
- the structure edge determination unit 24 selects the longest straight line L1 among the straight lines L1 and L2, and selects two straight lines L3 and L4.
- the structure edge determination unit 24 extends straight lines L1, L3, and L4 in the image data P.
- the straight line L1 is an extending straight line in the X direction
- the straight lines L3 and L4 are straight lines extending in the Y direction.
- the straight line L1 intersects with the straight line L3 and the straight line L4.
- the intersection of the straight line L1 and the straight line L3 is C1
- the intersection of the straight line L1 and the straight line L4 is C2.
- an intersection between the straight line L3 and the lower end of the image data P is C3
- an intersection between the straight line L4 and the lower end of the image data P is C4.
- Intersection points C1 to C4 indicate the coordinates of pixels in the two-dimensional image data P.
- the information of the intersections C1 to C4 is data for specifying the edge line segment of the front structure 10, and this is used as edge line segment data.
- An area surrounded by the edge line segment data (coordinate information of the intersections C1 to C4) is the front structure 10.
- the structure edge determination unit 24 determines the edge of the front structure 10 based on the edge line segment data.
- the front structure 10 may be specified based on edge line segment data obtained from one image data P, in order to improve the accuracy of detecting the front structure 10 in the image data P, the edge line
- the minute data determination unit 25 compares edge line segment data (step S6).
- the image data P is input from the camera 6 to the image processing device 8 at a predetermined cycle, and a plurality of pieces of image data P can be obtained.
- the edge line segment data determination unit 25 stores edge line segment data based on past image data P, and calculates an average value of edge line segment data based on the latest image data P and past edge line segment data. .
- the edge line segment data determination unit 25 sets the calculated edge line segment data (average value) as the determined edge line segment data. That is, the front structure 10 in the image data P is identified by the determined edge line segment data.
- the edge line segment data determination unit 25 calculates the average value of edge line segment data of a plurality of image data P
- the edge line segment data determination unit 25 stores edge line segment data of a predetermined number of image data P. The determination of the edge line segment data is not performed until it is done.
- the accuracy of the edge line segment data is improved, but the processing time becomes longer. Therefore, in consideration of the balance between the accuracy of the edge line segment data and the processing time, the number of edge line segment data to be calculated is determined.
- the edge line segment data determined by the edge line segment data determination unit 25 is output to the caution range setting unit 26.
- the caution range setting unit 26 sets a caution range based on edge line segment data (step S7).
- the critical range is a range for detecting an obstacle, and is a predetermined range from the dump truck 1. As described above, the relative positional relationship between the front structure 10 of the dump truck 1 and the caution range can be recognized as known. Therefore, if the front structure 10 in the image data P can be identified, the alert range can be automatically recognized.
- FIG. 11A shows a state in which the caution range 31 is set based on edge line segment data.
- the determined edge line segment data is information of the intersections C1 to C4, and the front structure 10 is identified by connecting the intersections C1 to C4. Therefore, the area surrounded by the intersections C1 to C4 in FIG.
- the alert range 31 is set in the image data P based on the relative positional relationship between the front structure 10 and the alert range 31.
- an area other than the alert range 31 becomes an alert-unnecessary range 32 that does not require alerting. Therefore, when an obstacle is detected from the image data P, the obstacle is detected only in the alert range 31, and the obstacle is not detected in the alert unnecessary range 32.
- the method of obstacle detection can be any method. Then, when detecting an obstacle, the alarm-unnecessary area 32 is a mask area, and by masking the area, it is possible to narrow down the alarm area 31 and detect an obstacle.
- the caution range 31 is set based on the image data P subjected to distortion correction by the distortion correction unit 21.
- the display image displayed on the monitor 9 is image data P output from the camera 6 and is an image not subjected to distortion correction. Therefore, the distortion restoration unit 27 restores the distortion correction for the image data P for which the caution range 31 has been set (step S8).
- the distortion restoration unit 27 restores the distortion correction of the image data P using the lens parameters of the camera 6 used by the distortion correction unit 21.
- the alert range 31 is deformed as shown in FIG. Information on the alerting range 31 subjected to the distortion restoration processing is output to the display image creation unit 28.
- the display image generation unit 28 generates an image (display image) to be displayed on the monitor 9 (step S9).
- the display image generation unit 28 periodically inputs image data P from the camera 6.
- the image data P is an image that has not been subjected to distortion correction.
- the display image creation unit 28 inputs the information of the alert range 31 of which the distortion restoration processing has been performed from the distortion restoration unit 27.
- the display image creation unit 28 superimposes the caution range 31 on the image data P input from the camera 6.
- the state is shown in FIG. That is, in the image data P shown in the figure, the caution range 31 is an area surrounded by virtual lines.
- the caution area 31 is an area for detecting an obstacle, and it is not necessary to display the caution area 31 exceptionally as shown in FIG.
- the display image creation unit 28 outputs the image data P input from the camera 6 to the monitor 9.
- An operator who gets in the cab 7 can obtain an auxiliary visual field by visually recognizing the image data P displayed on the monitor 9.
- the front structure 10 of the dump truck 1 is specified based on the image data P, and the alert range 31 is set from the front structure 10.
- the alerting range 31 for detecting an obstacle can be automatically set without manual operation, and the time and effort for setting can be largely omitted.
- the dump truck 1 vibrates violently to cause a shift in the visual field range 6A of the camera 6, there is no shift in the caution range 31. That is, the relative positional relationship between the front structure 10 and the caution range 31 in the image data P is constant as the visual field range 6A is shifted, so the caution range 31 is determined based on the front structure 10 By setting, the occurrence of a shift in the alert range 31 is avoided.
- the structure edge determination unit 24 detects the linearity of the edge pixel to determine the edge line segment of the front structure 10, but if the boundary between the front structure 10 and the background can be detected
- a method other than the method of detecting the edge line segment of the front structure 10 may be used.
- the front structure 10 can be detected based on the difference in pixel value. In this case, it is not necessary to perform distortion correction by the distortion correction unit 21, nor is it necessary to perform distortion correction by the distortion restoration unit 27.
- the front structure 10 has a unique linearity, the accuracy of detecting the boundary between the front structure 10 and the background is improved by adopting a method of detecting the edge line segment of the front structure 10 Do.
- the smoothing processing unit 22 performs smoothing processing on the image data P, thereby reducing the uneven portion R in the image data P.
- the uneven portion R in the image data P is reduced. Therefore, the edge E of the front structure 10 can be extracted without performing the smoothing process.
- the edge line segment data determination unit 25 improves the accuracy of the edge line segment data
- the edge line segment data determination unit may be used when the edge line segment can be clearly identified based on one image data P. 25 may omit the process.
- the edge line segment data by determining the edge line segment data by calculating the average value of the edge line segment data of a plurality of image data P, the accuracy of the edge line segment data is improved. For this reason, it is desirable that the processing by the edge line segment data determination unit 25 be performed.
- FIG. 13 shows the configuration of the image processing apparatus 8 of the second embodiment.
- the alert range image generation unit 41, the obstacle detection unit 42, the mask image generation unit 43, and the deviation determination unit 44 are newly added to the first embodiment, but other than that Since the configuration of is the same as that of the first embodiment, the description will be omitted.
- Image data P is periodically output to the image processing apparatus 8 from the camera 6 which is photographing the visual field range 6A.
- the image data P is output not only to the distortion correction unit 21 and the display image generation unit 28 but also to the caution range image generation unit 41.
- the caution range image generation unit 41 generates an image of only the caution range 31 in the image data P, as shown in FIG.
- the alert restoration range 31 in which the distortion is restored is input from the distortion restoration unit 27, and the image data P is input from the camera 6. Then, of the image data P, only the image within the area of the caution area 31 is generated as the caution area image.
- the caution range image is input to the obstacle detection unit 42.
- the obstacle detection unit 42 detects an obstacle in the alert range image. Workers, service cars and the like are mainly assumed as obstacles for which contact must be avoided, but, for example, other work machines and the like also become obstacles. Arbitrary methods can be used for the method of detecting an obstacle.
- the obstacles include a stationary state and a moving state, and a stationary obstacle is a stationary body, and a moving obstacle is a moving body.
- An arbitrary method can be used as a method of detecting a stationary body, for example, a method of detecting a region of a stationary body by compositely judging an outline, luminance, color or the like in an image can be used.
- the stationary body has a certain area, and when the contour of the certain area has a predetermined shape, when the luminance value has a predetermined value, when the color shows a specific color, etc.
- the above-mentioned certain area can be detected as a stationary body.
- pattern matching method of determining an obstacle by matching using shape information learned in advance based on information of contours of a background and a stationary body can be used.
- Arbitrary methods can be used also as a method of detecting a moving object, and for example, when comparing temporally different image data P, the moving object is moving when a certain area is moving to a different position To detect that.
- a block matching method can be applied to the detection of a moving object. The block matching method will be described later.
- gradient data detected using the relationship between the spatial gradient and the temporal gradient of brightness at each pixel of the image data P, and image data and latest image data when there is no area of the moving object It is possible to use a background subtraction method for detecting a difference between the two and a frame subtraction method for generating two difference images using three pieces of image data of different times to detect a moving object region.
- the mask image generation unit 43 generates a mask image.
- the alert range setting unit 26 sets the alert range 31 in the image data P, and sets the other area as the alert unnecessary range 32.
- the mask image generation unit 43 generates a mask image with the alert unnecessary area 32 as a mask area.
- the mask image is an image of the same size as the image data P, and the number of pixels is also equal.
- the mask area (the area 32 not requiring alarming) and the other area (the area 31 requiring alarming) are clearly distinguished.
- all mask regions in the mask image can be configured in black (zero pixel value), and all regions in the critical range 31 can be configured in white (pixel value 256).
- the shift determination unit 44 receives the mask image from the mask image generation unit 43 and determines the shift.
- the shift determination unit 44 holds a past mask image, and compares the newly input mask image with the past mask image. Then, the difference between the new mask image and the past mask image is calculated for all the pixels, and when there are a predetermined number or more of pixels having a difference of pixel values equal to or more than a predetermined value, the camera 6 is shifted. In the other cases, it is determined that no deviation has occurred.
- the determination result is output to the display image creation unit 28.
- step S8 the alert range 31 in which distortion is restored is generated.
- the information of the alerting range 31 is input to the alerting range image generation unit 41.
- the alert range image generation unit 41 receives the image data P from the camera 6, and an area other than the alert range 31 of the image data P, that is, the alert unnecessary area 32 is an insensitive region 33 P's information has been deleted.
- the insensitive region 33 has the same function as the mask region described above.
- the insensitive regions 33 are all composed of black pixels (zero pixel value) (note that black pixels are shaded in FIG. 15 for convenience of the drawing).
- the alert range image P1 as shown in FIG. 15 is generated (step S10).
- the worker M is included as an obstacle in the alert range image P1.
- the caution range image P1 has the same number of pixels as the image data P in the X and Y directions, and the image data P is displayed in the caution range 31 portion, but black in the insensitive region 33. Only the pixels are displayed. In other words, the black pixels in the insensitive area 33 are a mask, and the unmasked area in the image data P is the caution area 31. As shown in the figure, a large number of uneven portions R exist in the alert range 31 and a worker M exists as an obstacle. Such an alert range image P1 is output to the obstacle detection unit 42.
- the obstacle detection unit 42 detects an obstacle from the alert range image P1 (step S11). Although any method can be used to detect an obstacle, the case where a block matching method is used will be described here.
- FIG. 16 shows an example of a moving object detection method using the block matching method.
- the obstacle detection unit 42 stores the past alert range image P1 and compares the latest alert range image P1 with the past alert range image P1.
- the alert range image P1 one cycle before the imaging cycle of the camera 6 is taken as the past alert range image P1.
- a total of 16 pixels of 4 pixels in the X direction and 4 pixels in the Y direction is taken as a region of interest A1.
- the attention area A1 may adopt the number of pixels other than 16 pixels.
- a total of 64 pixels of 8 pixels in the X direction and 8 pixels in the Y direction are set as the search range A2 with the attention area A1 as the center.
- the number of pixels in the search range A2 can also be set arbitrarily.
- the obstacle detection unit 42 sets the search range A2 to a predetermined position of the image data P, for example, an end in the X direction and the Y direction. Then, the search range A2 is searched.
- the search method in the search range A2 will be described with reference to FIG.
- the comparison area A3 is set in the search range A2.
- the comparison area A3 has four pixels in the X direction and four pixels in the Y direction, as in the case of the attention area A1, and has a total of 16 pixels. Then, the comparison area A3 is set to the end in the X direction and the Y direction.
- the obstacle detection unit 42 calculates the difference in pixel value between corresponding pixels of the attention area A1 in the past caution range image P1 and the comparison area A3 in the latest caution range image P1.
- the attention area A1 and the comparison area A3 are both configured by 4 pixels in the X direction and 4 pixels in the Y direction, and one pixel in the attention area A1 and one pixel in the comparison area A3 correspond 1: 1. doing. Therefore, as described above, the difference calculation of the pixel values between corresponding pixels is performed. By performing this operation, it is possible to obtain difference values for 16 pixels. Then, the difference value for 16 pixels is respectively squared, and the operation is performed to add the squared 16 difference values. The value obtained by performing this calculation is taken as the addition value.
- the obstacle detection unit 42 determines whether the added value is equal to or less than a predetermined threshold.
- the threshold value at this time is a value capable of determining whether or not the attention area A1 and the comparison area A3 can be regarded as identical.
- the obstacle detection unit 42 determines that the past attention area A1 matches the latest comparison area A3. On the other hand, in other cases, it is determined that the past attention area A1 and the latest comparison area A3 do not match.
- the comparison area A3 is shifted by one pixel in the X direction for comparison. Let this be a search (scan) in the X direction. When scanning in the X direction is completed, next, the comparison region A3 is shifted by one pixel in the Y direction, and scanning in the X direction is performed again. Performing scanning in the X direction while shifting one pixel in the Y direction is referred to as scanning in the Y direction. Therefore, scanning is performed in the X direction and the Y direction.
- FIG. 18 shows the method of this scan three-dimensionally.
- the scanning in the X direction and the Y direction is performed until it is detected that the past attention area A1 matches the latest comparison area A3. Therefore, if it is detected that the past attention area A1 matches the latest comparison area A3, the scan is ended at that point. On the other hand, when all the scans in the X direction and the Y direction are completed, if a matching past focused area A1 and the latest comparison area A3 are not detected, a mobile object (a failure Object: It is recognized that there is no worker M).
- the search range A2 is a limit range that can be moved when the worker M normally walks until the latest alert range image P1 is acquired since the past alert range image P1 is acquired. Determined as a standard. As described above, the past alert range image P1 is an image one cycle before the latest alert range image P1. Therefore, the search range A2 is set based on the limit amount when the worker M normally walks during one cycle of the photographing cycle of the camera 6.
- the camera 6 has a case where the imaging cycle is fast and a case where it is slow. At this time, when the shooting cycle of the camera 6 is high speed, even if the worker M is moving, it is recognized that it hardly moves. On the other hand, when the photographing cycle is low, even if the worker M is moving at low speed, it is recognized as moving at high speed. Therefore, when the shooting cycle of the camera 6 is fast, the vigilant range image P1 relatively in the past, which is a plurality of cycles earlier, is set as the vigilance range image P1 of the past. On the other hand, when the shooting cycle of the camera 6 is slow, the relatively latest (for example, one cycle before) the alert range image P1 is set as the past alert range image P1.
- the obstacle detection unit 42 causes the search within the search range A2 to be performed on all the pixels of the alert range image P1. Therefore, when the search range A2 is at the end of the X direction and Y direction, when the search is completed, the next search area A2 is shifted in the X direction by the pixel (8 pixels) in the X direction, Do a search for Then, when the search for all the pixels in the X direction of the alert range image P1 is completed, the search range A2 is shifted in the Y direction by the pixel in the Y direction (8 pixels), and the same search is performed again. Then, the search within the search range A2 is performed on all the pixels of the caution required range image P1.
- the alert range image P ⁇ b> 1 is distinguished into an alert range 31 for detecting an obstacle and a blind area 33.
- the obstacle detection unit 42 recognizes the insensitive area 33 in the alert range image P1. That is, the pixels included in the insensitive area 33 are recognized. Therefore, the obstacle detection unit 42 excludes the dead area 33 when performing a search based on the search range A2. As a result, the worker M as an obstacle can be detected only in the alert range 31. Then, the obstacle detection unit 42 outputs the detected information on the worker M as the obstacle to the display image generation unit 28.
- the display image creation unit 28 receives the image data P from the camera 6, and receives the information of the worker M as an obstacle from the obstacle detection unit 42. Therefore, the display image creation unit 28 recognizes the worker M in the alert range 31 of the image data P.
- the display image creation unit 28 superimposes an obstacle marking display M1 on the periphery of the worker M in order to explicitly display the obstacle.
- the obstacle marking indication M1 is a circumscribed rectangle formed around the worker M, but may of course not be a rectangle.
- the image data P on which the obstacle marking indication M1 is superimposed is shown in FIG.
- the image data P becomes a display image and is output to the monitor 9.
- the obstacle marking display M1 is superimposed around the worker M as an obstacle, so that the operator looks at the presence of the worker M based on the obstacle marking display M1. Can be recognized.
- the caution range 31 is shown with a virtual line in FIG. 19, it has shown that the detection of the obstruction was performed only in this range.
- the alerting range 31 is basically not displayed on the monitor 9, it may be displayed.
- the image data P is a through image
- an image obtained by viewpoint conversion of the data of the through image to be an upper viewpoint is a bird's eye image. Therefore, in order to distinguish it from the bird's eye image,
- the acquired image data is called through image P.
- the camera image (through image) acquired by the camera 6 is displayed, but it is also possible to perform signal processing from this camera image to form a bird's-eye view image and display it on the monitor 9. That is, as shown in FIG. 30A, viewpoint conversion processing is performed in which the through image P is an upper viewpoint.
- FIG. 30 (b) cameras are installed in the dump truck 1 at four locations, the front position, the left and right both positions, and the rear position, respectively, and the periphery of the dump truck 1
- cameras are installed in the dump truck 1 at four locations, the front position, the left and right both positions, and the rear position, respectively, and the periphery of the dump truck 1
- the front side camera, the left and right side Each bird's-eye view image in each image area SPF, SPL, SPR, SPB can be acquired and displayed on the monitor 9.
- FIG. 30A shows an image area SPF of the front camera.
- an icon image Q having the dump truck 1 in a planar shape is disposed at the center of the screen of the monitor 9, and image areas SPF, SPL, SPR, SPB are respectively provided in four directions around the icon image Q. Display the corresponding overhead image.
- this surveillance image can display the obstacle marking display M1 indicating the worker M in the same manner as the through image P of FIG. 30 (a), and further, the position relative to the dump truck 1 because of the overhead image.
- the display mode can also be grasped.
- the vibration of the dump truck 1 may cause a shift in the visual field range 6A of the camera 6. Therefore, it is determined whether or not a shift occurs in the visual field range 6A.
- the deviation of the visual field range 6A has an allowable range, and it is determined that the deviation occurs when the amount of deviation exceeds the allowable range, and it is determined that the deviation does not occur if within the allowable range.
- the information on the alert range 31 is input from the alert range setting unit 26 to the mask image generation unit 43.
- the mask image generation unit 43 generates a mask image based on the image data P and the caution area 31 (step S12).
- the caution range 31 of the image data P is formed of white pixels (pixel value 256), and the caution unnecessary range 32 is formed of black pixels (zero pixel value).
- the mask image generation unit 43 holds the image data P in the past (for example, one cycle before) and the information of the caution range 31 and holds the mask image in the past. Then, when the latest image data P and the information of the alert range 31 are input, the latest mask image is generated. The mask image generation unit 43 outputs the past mask image and the latest mask image to the deviation determination unit 44.
- the shift determination unit 44 calculates the shift amount based on the input past mask image and the latest mask image, and based on the calculated shift amount, whether or not the shift of the visual field range 6A is within the allowable range. It determines (step S13). For this purpose, the shift determination unit 44 calculates the pixel difference between the past mask image and the latest mask image.
- the pixel value becomes zero when the difference between pixels in which the caution range 31 overlaps in the past mask image and the latest mask image is calculated. That is, the pixel becomes black.
- the pixel value becomes zero when the difference between pixels where the unneeded area 32 for warning is overlapped is calculated between the past mask image and the latest mask image.
- the absolute value of the calculation result is 256. That is, the pixel is white.
- the difference image P2 in FIG. 20 is an image resulting from the calculation of the difference.
- a predetermined number of pixels is set as a threshold in the deviation determination unit 44, and the number of white pixels of the difference image P2 is compared with the threshold.
- This threshold indicates the allowable range of deviation of the visual field range 6A.
- the allowable range can be set arbitrarily. For example, a deviation that affects the visibility of the operator can be set as the allowable range. Then, as a result of comparing the pixel count of the white pixel with the threshold, if the pixel count of the white pixel is less than the threshold, the shift determining unit 44 determines that the view range 6A is not shifted. On the other hand, if the number of white pixels is equal to or greater than the threshold value, it is determined that the viewing range 6A has a shift.
- the shift determination unit 44 outputs information on whether or not there is a shift to the display image creation unit 28.
- the display image generation unit 28 displays the shift information G on the image data P when the information that the shift is generated is input from the shift determination unit 44.
- FIG. 21 shows an example of the image data P on which the deviation information G is superimposed.
- the shift information G is displayed at the corner of the image data P, and is a mark for visually recognizing that the camera 6 is shifted.
- the deviation information G is a notification means for causing the operator to recognize that the camera 6 has generated a deviation greater than the allowable range, and based on the deviation information G displayed on the monitor 9, the operator Can be recognized.
- the operator who recognizes this can return the camera 6 to a normal position, and can eliminate the shift of the visual field range 6A.
- the maintenance personnel etc. can return the camera 6 to the normal position by the operator contacting the maintenance personnel etc.
- the edge extraction unit 23 performs an edge extraction process on the image data P, and shows image data P from which an edge pixel is extracted. Then, the structure edge determination unit 24 extracts a straight line from the image data P using a method such as Hough transform.
- FIG. 22B shows a state in which a straight line is extracted from the image data P.
- the structure edge determination unit 24 detects straight lines in the X direction and the Y direction because no shift occurs in the visual field range 6A.
- the structure edge determination unit 24 of the present embodiment since the inclination range is generated in the visual field range 6A, the front structure 10 in the image data P is also inclined. Therefore, the structure edge determination unit 24 of the present embodiment also extracts a straight line that is inclined at a predetermined angle from the X direction and the Y direction. That is, with the predetermined angle as the inclination angle ⁇ , a straight line within the range of the inclination angle ⁇ is extracted among the extracted straight lines.
- the longest straight line is determined as the straight line of the front structure 10 in the X direction being inclined.
- the straight line L5 is the longest straight line.
- the inclination angle from the Y direction Extract a straight line within the range of ⁇ .
- straight lines L7 and L8 are extracted.
- straight lines L7 and L8 are extended.
- FIG. 22B four intersections C5 to C8 of the straight line L5 and the straight lines L7 and L8 are detected. These intersections C5 to C8 become edge line segment data.
- FIG. 23 (a) shows a state in which the alert range 31 is set based on edge line segment data. Since a shift in the tilt direction occurs in the visual field range 6A, the caution range 31 also tilts. At the same time, the caution-unwanted range 32 is also inclined. However, the alert range 31 is all included in the image data P. Then, an image obtained by performing the distortion restoration process on the image data P of FIG. 23 (a) becomes the image data P shown in FIG. 23 (b).
- the image data P shown in FIG. 23B is output to the caution range image generation unit 41, and a caution range image as shown in FIG. 24 is generated.
- the warning image is output to the obstacle detection unit 42, and the obstacle detection unit 42 detects the worker M as an obstacle.
- the alert range 31 is changed according to the traveling speed of the dump truck 1.
- the range in which the obstacle should be warned also changes depending on whether the dump truck 1 is stopped, traveling at a low speed, or traveling at a high speed.
- the dump truck 1 is in the stopped state, it is not necessary to set the warning range 31 to a very wide range, but when traveling at a certain speed, it is necessary to set the wide range to the warning range 31.
- a traveling speed detection unit 45 is added to the second embodiment.
- the dump truck 1 is provided with means for detecting the traveling speed, and outputs the detected traveling speed to the critical alert range setting unit 26.
- the alert range setting unit 26 changes the size of the alert range 31 based on the input information on the traveling speed.
- the size of the critical alert range 31 needs to be within the critical alert range 311 from the stop zone, the critical alert range 312 at low speeds, and the critical alert ranges at high speeds It can be changed to be 313.
- the low speed region is a speed at which the dump truck 1 stops at about that position when the travel stop operation is performed. It should be noted that the above-described alert range in the operation of the dump truck 1 is a range requiring alertness and is not an image display range on the monitor 9.
- the dump truck 1 is applied as a self-propelled industrial machine, but in the fourth embodiment, the dump truck 1 is used.
- a hydraulic shovel is applied as a self-propelled industrial machine.
- the case where the camera 6 is installed in the hydraulic shovel, the rear structure 50 of the hydraulic shovel is extracted, and the alert range 31 is set based on the rear structure 50 will be described.
- FIG. 26 shows image data P subjected to distortion correction processing by the distortion correction unit 21.
- the rear structure 50 of the hydraulic shovel is often rounded, and the boundary between the rear structure 50 and the background in the image data P has curvilinearity with a predetermined radius of curvature.
- the aft structure 50 of the hydraulic shovel is colored in a color distinct from the background color. Therefore, the brightness value of the rear structure 50 and the brightness value of the background are largely different. So, in this embodiment, the pixel which has a luminance value more than a predetermined luminance value (threshold value) about all the pixels of image data P is extracted.
- the threshold value at this time is set to a luminance value that can extract a color colored in the rear structure 50.
- the image data P is binarized with the threshold as a boundary, and as shown in FIG. 27, the pixels constituting the rear structure 50 are extracted.
- the rear structure 50 there may be an edge pixel having a luminance value equal to or greater than a threshold value in the uneven portion R. Therefore, the area of the pixel in contact with the lower end of the screen among the extracted pixels is determined as the rear structure 50. Thereby, the rear structure 50 is specified in the image data P.
- FIG. 28 shows an example of a display image displayed on the monitor 9.
- the relative positional relationship between the rear structure 50 and the alert range 51 is constant, and by specifying the rear structure 50 in the image data P, the alert range 51 indicated by a virtual line is also set. Then, the worker M can be detected as an obstacle by limiting to the alert range 51 required.
- FIG. 6 shows the case where the field of view range is tilted, so that the entire screen is displayed tilted. Then, the shift information G is superimposed on the image data P.
- each process by the smoothing processing unit 22, the edge extraction unit 23, the structure edge determination unit 24, and the edge line segment data determination unit 25 described above Is unnecessary.
- the rear structure 50 may be specified by the processing of each of these portions.
- the method of binarization may be used as in the present embodiment.
- the image displayed on the monitor 9 may be a camera image itself, or may be displayed as a bird's-eye view image by performing viewpoint conversion processing based on the principle of FIG.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Structural Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Civil Engineering (AREA)
- Mining & Mineral Resources (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Closed-Circuit Television Systems (AREA)
- Component Parts Of Construction Machinery (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、自走式産業機械に設けた撮影部が撮影する画像データに対して所定の画像処理を行う自走式産業機械の画像処理装置およびその画像処理方法に関するものである。 The present invention relates to an image processing apparatus of a self-propelled industrial machine that performs predetermined image processing on image data captured by a photographing unit provided in a self-propelled industrial machine and an image processing method thereof.
自走式産業機械には、ダンプトラック等の運搬機械や油圧ショベル等の作業機械がある。このうち、ダンプトラックは、車体のフレームに起伏可能としたベッセルを備えている。ダンプトラックのベッセルには、油圧ショベル等が掘削した掘削物が積載される。ベッセルに所定量の掘削物が積載された後に、ダンプトラックは所定の集積場まで走行されて、当該集積場で積載した掘削物が排土される。 The self-propelled industrial machines include transport machines such as dump trucks and working machines such as hydraulic shovels. Among these, the dump truck is provided with a vessel which can be undulated on the frame of the vehicle body. An excavated object excavated by a hydraulic shovel or the like is loaded on a vessel of the dump truck. After a predetermined amount of excavated material is loaded in the vessel, the dump truck is traveled to a predetermined accumulation site to excavate the loaded excavation material at the accumulation site.
ダンプトラックは大型の運搬車両であり、運転室に搭乗するオペレータが視認不能な多くの死角が存在する。このために、ダンプトラックにカメラを搭載して、カメラが撮影している映像を運転室のモニタに表示する。カメラはオペレータの死角となる範囲を撮影する。そして、カメラが撮影した映像をモニタに表示することで、オペレータは補助的に死角の視野を得ることができる。これにより、オペレータはダンプトラックの周囲の状況を詳細に認識することができる。 The dump truck is a large transport vehicle, and there are many blind spots that can not be seen by the operator who gets into the cab. For this purpose, a camera is mounted on the dump truck, and an image captured by the camera is displayed on the monitor of the driver's cab. The camera takes an image of the area which is the blind spot of the operator. Then, by displaying the image captured by the camera on the monitor, the operator can supplementarily obtain a blind spot. Thereby, the operator can recognize the situation around the dump truck in detail.
自走式産業機械には下部走行体を有する油圧ショベルがある。この油圧ショベルにもカメラを搭載して、周囲の状況を詳細に確認する。油圧ショベルのカメラが取得した映像に対して所定の画像処理を行って、障害物を認識する技術が特許文献1に開示されている。この特許文献1の技術では、油圧ショベルの作業範囲に侵入移動体が入っているか否かを画像処理により検出している。この画像処理を行うことで、侵入移動体の距離や人体としての確信度の評価を行っている。
A self-propelled industrial machine is a hydraulic shovel having a lower traveling body. A camera is also mounted on this hydraulic shovel to check surrounding conditions in detail.
ところで、カメラには所定の視野範囲が存在しており、この視野範囲の映像が画像データとしてモニタの画面に表示される。そして、前述した特許文献1の技術のように、画像データに対して所定の画像処理を行うことで、作業員やサービスカー、他の作業機械等の障害物を検出する。これにより、運転室に搭乗するオペレータは、障害物が検出されたときに、その旨を了知することができる。
By the way, a predetermined visual field range exists in the camera, and an image of this visual field range is displayed on the screen of the monitor as image data. Then, as in the technique of
ここで、ダンプトラック等の自走式産業機械に近接した範囲は警戒を行う必要があり、この範囲を要警戒範囲とする。この要警戒範囲はダンプトラックと障害物とが接触の可能性がある範囲として設定することができる。従って、要警戒範囲の全てはカメラの視野範囲に含まれている必要がある。つまり、要警戒範囲はカメラの視野範囲の一部の範囲となる。このため、カメラの視野範囲には要警戒範囲以外の範囲が発生する。要警戒範囲以外の範囲は警戒不要範囲であり、この範囲に障害物が存在していたとしても、支障を生じることはない。つまり、オペレータに了知する必要はない。 Here, a range close to a self-propelled industrial machine such as a dump truck needs to be alerted, and this range is considered as a critical alert range. This alert range can be set as a range in which the dump truck and the obstacle may come in contact with each other. Therefore, all of the alert range needs to be included in the camera view range. That is, the alert range is a partial range of the field of view of the camera. For this reason, a range other than the alert range is generated in the visual field range of the camera. The range outside the vigilance range is a vigilance area, and even if an obstacle exists in this range, no problem occurs. That is, it is not necessary to know the operator.
この警戒不要範囲についてまで画像処理を行って障害物を検出すると、オペレータに認識させる必要のない情報までオペレータに報知することになり、オペレータを混乱させる要因となる。これにより、作業効率が低下する。また、警戒不要範囲はカメラの視野範囲のうち遠方の範囲となり、この範囲を画像化したときの画素は粗くなる。これにより、障害物でないものまで障害物として誤検出する可能性があり、正常な障害物の検出を行うことができなくなる。さらには、警戒不要範囲にまで画像処理を行うと、処理すべき情報量が多くなり、処理に要する時間が長くなるといった問題も生じる。 If image processing is performed up to this cautionary unnecessary range and an obstacle is detected, the operator is notified of information which does not need to be recognized by the operator, which causes the operator to be confused. This reduces the work efficiency. Further, the caution-unwanted range is a far range in the visual field range of the camera, and the pixels when this range is imaged become rough. As a result, even non-obstacles may be falsely detected as obstacles, and normal obstacles can not be detected. Furthermore, when the image processing is performed to the unwarranted range, the amount of information to be processed increases, and the time required for processing also increases.
従って、カメラの視野範囲のうち要警戒範囲を設定することは重要である。ただし、カメラから取得される画像データに基づいて要警戒範囲を人手により設定することは非常に困難であり、設定する手間が著しく煩雑になる。また、ダンプトラック等の自走式産業機械は過酷な現場で運用されるため、車体の振動等により、カメラの取り付け位置や角度等にずれを生じるおそれがある。これにより、初期的に要警戒範囲の設定を行ったとしても、事後的に要警戒範囲がずれてしまい、障害物の検出を正常に行うことができなくなる。 Therefore, it is important to set an alert range within the field of view of the camera. However, it is very difficult to manually set the alert range based on the image data acquired from the camera, and the effort for setting becomes extremely complicated. In addition, since a self-propelled industrial machine such as a dump truck is operated at a severe site, there is a possibility that the attachment position or angle of the camera may be shifted due to the vibration of the vehicle body. As a result, even if the warning range is initially set, the warning range deviates after the fact, and the obstacle can not be detected normally.
そこで、本発明は、カメラの視野範囲のうち障害物を検出する要警戒範囲を自動的に設定し、事後的にカメラの視野範囲にずれを生じたとしても要警戒範囲にはずれを生じさせないことを目的とする。 Therefore, according to the present invention, the alert range for detecting an obstacle in the camera's field of view is automatically set, and even if the camera's field of view deviates afterward, the alert range is not deviated. With the goal.
以上の課題を解決するため、本発明の自走式産業機械の画像処理装置は、自走式産業機械に設けられ、この自走式産業機械を構成する構造物の一部を視野に含めた周辺領域を撮影する撮影部と、前記撮影部が撮影した画像データに基づいて、この画像データの中の前記構造物を検出する構造物検出部と、前記画像データのうち、周辺領域内に位置する障害物を検出し、この障害物が含まれる所定の範囲を要警戒範囲として、この要警戒範囲を前記構造物検出部が検出した前記構造物に基づいて前記画像データの中に設定する要警戒範囲設定部と、を備えている。 In order to solve the above problems, the image processing apparatus for a self-propelled industrial machine according to the present invention is provided in a self-propelled industrial machine, and a part of the structure constituting the self-propelled industrial machine is included in the field of view. An imaging unit for imaging a peripheral region, a structure detection unit for detecting the structure in the image data based on image data captured by the imaging unit, and a position in the peripheral region of the image data To be detected, and the predetermined range including the obstacle is set as the required alert range, and the required alert range is set in the image data based on the structure detected by the structure detector. And a warning range setting unit.
また、前記画像データの中の前記要警戒範囲のみに対して前記障害物を検出する処理を行う障害物検出部を備えてもよい。 The image processing apparatus may further include an obstacle detection unit configured to detect the obstacle only in the alert range in the image data.
また、前記画像データのうち前記要警戒範囲以外の範囲を警戒不要範囲として、時間的に前後する前記警戒不要範囲における各画素の画素値の差分を演算して、この画素値の差分が所定の閾値以上である画素の画素数に基づいて、前記撮影部の視野範囲に許容範囲以上のずれを生じたか否かを判定するずれ判定部を備えてもよい。 In the image data, a range other than the alert range is set as the alert unnecessary range, and the difference between the pixel values of each pixel in the alert unnecessary range which is temporally adjacent to each other is calculated. The image processing apparatus may further include a shift determination unit that determines whether or not the view range of the imaging unit is shifted more than an allowable range based on the number of pixels which is equal to or greater than a threshold.
また、前記自走式産業機械は走行速度を検出する走行速度検出部を備え、この走行速度検出部が検出する走行速度に基づいて前記要警戒範囲を変化させるようにしてもよい。 The self-propelled industrial machine may include a traveling speed detection unit that detects a traveling speed, and the alert range may be changed based on the traveling speed detected by the traveling speed detection unit.
撮影部により撮像した画像は、画像表示手段に表示されるが、その表示態様としては、前述したものの他、撮像部の画像を信号処理による視点変換を行って、上方視点とした俯瞰画像とする構成としても良い。 The image picked up by the photographing unit is displayed on the image display means. In addition to the display mode described above, the image of the imaging unit is subjected to viewpoint conversion by signal processing to be a bird's eye view with the upper viewpoint It is good also as composition.
また、本発明の自走式産業機械の画像処理方法は、自走式産業機械に撮影部を設けて、この自走式産業機械の構造物の一部を含めた周辺領域を撮影し、前記撮影部が撮影した画像データに基づいて、この画像データの中の前記構造物を検出し、前記画像データのうちの周辺領域内に位置する障害物を検出し、この障害物を含む所定の範囲を要警戒範囲として、この要警戒範囲を前記構造物検出部が検出した前記構造物に基づいて前記画像データの中に設定し、前記画像データの中の前記要警戒範囲のみに対して前記障害物を検出する処理を行う。 In the image processing method of a self-propelled industrial machine according to the present invention, a photographing unit is provided in the self-propelled industrial machine, and a surrounding area including a part of the structure of the self-propelled industrial machine is photographed, Based on the image data captured by the imaging unit, the structure in the image data is detected, and an obstacle located in the peripheral area of the image data is detected, and a predetermined range including the obstacle is detected. Setting the required alert range in the image data based on the structure detected by the structure detection unit, and setting the failure with respect to only the required alert range in the image data Perform processing to detect objects.
本発明は、自走式産業機械の構造物が視野に含まれるように撮影部が撮影を行い、構造物エッジを検出して、この構造物エッジに基づいて要警戒範囲を設定している。これにより、カメラの視野範囲のうち障害物を検出する要警戒範囲を自動的に設定することができる。また、事後的にカメラの視野範囲にずれを生じたとしても要警戒範囲にずれを生じることがない。 In the present invention, the imaging unit performs imaging so that the structure of the self-propelled industrial machine is included in the field of view, detects the structure edge, and sets the alert range based on the structure edge. As a result, it is possible to automatically set an alert range for detecting an obstacle within the visual field range of the camera. Further, even if the view range of the camera is deviated afterward, the caution range does not shift.
A:本発明の第1の実施形態
以下、図面を参照して、本発明の第1の実施形態について説明する。ここでは、自走式産業機械に運搬車両としてのダンプトラックを適用している。勿論、ダンプトラック以外の任意の自走式産業機械、例えば下部走行体を有する油圧ショベル等を適用してもよい。ダンプトラックとしてはリジットタイプとアーティキュレートタイプとがあるが、何れを適用してもよい。要は、所定の作業(運搬や掘削等)を行う任意の自走式産業機械に本実施形態を適用することができる。なお、以下において、「左」とは運転室から見たときの左方であり、「右」とは運転室から見たときの右方である。
A: First Embodiment of the Present Invention Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. Here, a dump truck as a transport vehicle is applied to a self-propelled industrial machine. Of course, any self-propelled industrial machine other than a dump truck, such as a hydraulic shovel having a lower traveling body or the like may be applied. There are a rigid type and an articulated type as a dump truck, either of which may be applied. The point is that the present embodiment can be applied to any self-propelled industrial machine that performs a predetermined operation (such as transportation or digging). In the following, “left” is the left side when viewed from the driver's cab, and “right” is the right side when viewed from the driver's cab.
図1は、本実施形態のダンプトラック1の一例を示している。ダンプトラック1は、車体フレーム2と前輪3(3Lおよび3R)と後輪4(4Lおよび4R)とベッセル5とカメラ6と運転室7と画像処理装置8とモニタ9とを備えて構成している。車体フレーム2はダンプトラック1の本体を形成するものであり、車体フレーム2の前方に前輪3、後方に後輪4を設けている。なお、前輪3Rは右方の前輪3であり、前輪3Lは左方の前輪3である。また、後輪4Rは右方の後輪4であり、後輪4Lは左方の後輪4である。ベッセル5は荷台であり、土砂や鉱物等を積載する。ベッセル5は起伏可能に構成されている。
FIG. 1 shows an example of the
ダンプトラック1には任意の位置に撮影部としてのカメラ6を設置することができる。図2はダンプトラック1の側面図を示しており、カメラ6は運転室7の前方に取り付けられている。そして、カメラ6はダンプトラック1の前方の斜め下方を俯瞰するような視野範囲6A(図中の破線の範囲)で、このダンプトラック1の周辺領域の撮影を行っている。この視野範囲6Aの中には作業員Mが接触を避けるべき障害物として存在している。障害物としては他に作業機械やサービスカー等があり、これらが視野範囲6Aに含まれることもある。
A
カメラ6の視野範囲6Aはダンプトラック1の前方の斜め下方となっており、視野範囲6Aの中に前方構造物10の一部が含まれるようにする。図2の破線で示すように、視野範囲6Aには前方構造物10の一部が含まれている。なお、カメラ6により撮影される周辺領域である視野範囲6Aはダンプトラック1の前方以外の方向でもよく、ダンプトラック1の後方や左方、右方等の任意の方向を視野としてもよい。視野範囲6Aをダンプトラック1の後方とすることで、ダンプトラック1を後進させるときに、後方の状況を画像表示することができる。このときには、視野範囲6Aには後方構造物の一部が含まれるようにする。
The field of
運転室7はオペレータが搭乗してダンプトラック1を操作する各種の操作手段が設けられている。例えば、ダンプトラック1を前進または後進させるシフトレバー等が操作手段として設けられている。運転室7には、画像処理装置8とモニタ9とが設けられており、カメラ6が撮影することにより生成される画像データは画像処理装置8で所定の画像処理が行われる。画像処理が行われた画像データはモニタ9に表示される。モニタ9は表示装置であり、基本的にモニタ9にはカメラ6が撮影する映像が表示されている。
The operator's
画像処理装置8はカメラ6が撮影した映像の画像データに対して画像処理を行う画像処理コントローラである。そして、画像処理を行った画像データを表示画像としてモニタ9に表示する。図3に示すように、画像処理装置8は、歪み補正部21と平滑化処理部22とエッジ抽出部23と構造物エッジ判定部24とエッジ線分データ確定部25と要警戒範囲設定部26と歪み復元部27と表示画像作成部28とを備えている。
The
カメラ6が撮影した映像は画像データとして歪み補正部21に入力される。歪み補正部21は、カメラ6のレンズパラメータ(焦点距離や画像の光軸中心、レンズ歪係数等)を用いて、画像データの歪みを補正する。カメラ6のレンズの映り込む映像は中心では歪みを生じていないが、中心から離間するほど歪みを生じる。従って、カメラ6が撮影して得られる画像データは全体的に歪曲されている。これに対して、前記のパラメータを用いて補正を行うことで、直線性の高い画像データを得ることができる。
The image captured by the
平滑化処理部22は、歪み補正部21により補正された画像データを入力して、平滑化処理を行う。平滑化処理は、画像データの各画素の間の画素値の変化を少なくし、滑らかな画像を生成する処理である。画像データに対して平滑化処理を行うことで、画素値の変化を滑らかにすることができ、全体的に平滑化された画像データにすることができる。平滑化処理には、任意の手法を用いることができるが、例えば移動平均フィルタや中央値フィルタ、ガウシアンフィルタ等を用いることができる。
The smoothing
エッジ抽出部23は、平滑化処理部22により平滑化処理された画像データに対してエッジ抽出処理を行う。このために、隣接する画素間の画素値の変化が大きい画素をエッジ画素として抽出し、エッジ画素が連続して形成される形状をエッジとする。これにより、画像データの中から画素値の変化が大きいエッジが抽出される。エッジ抽出処理には任意の手法を用いることができるが、例えばソーベルフィルタやキャニーのアルゴリズム等の手法を用いることができる。
The
構造物検出部である構造物エッジ判定部24は、エッジ抽出部23が抽出したエッジのうち、その形状が画像データの中の前方構造物10の境界に近いエッジを前方構造物10のエッジとして判定する。このために、構造物エッジ判定部24はハフ変換等の直線化手法を用いて、画像データの中のエッジの直線化を行う。そして、直線化されたエッジをエッジ線分として、連結性の高いエッジ線分を前方構造物10の境界(エッジ)として判定する。エッジ線分は画像データ中の座標を用いて表現することができ、ここではエッジ線分同士の交点座標およびエッジ線分と画像データの下端(画像データPのうち最もダンプトラック1に近接している端部)との交点座標をエッジ線分データとして記憶する。
Among the edges extracted by the
エッジ線分データ確定部25は、最新のエッジ線分データを含めて、任意の数のエッジ線分データを比較する。カメラ6には所定の撮影周期があり、周期的に画像データが取得されることから、エッジ線分データも周期的に取得される。エッジ線分データ確定部25は過去のエッジ線分データを記憶しており、最新のエッジ線分データとの平均値を演算する。そして、演算されたエッジ線分データの平均値を確定されたエッジ線分データとする。なお、歪み補正部21からエッジ線分データ確定部25までの各部は前方構造物10を検出するための構造物検出部となる。
The edge line segment
要警戒範囲設定部26は、エッジ線分データ確定部25から入力したエッジ線分データに基づいて、要警戒範囲を設定する。要警戒範囲とダンプトラック1の前方構造物10との相対位置関係は一定であり、カメラ6の取り付け高さや俯角、カメラ6の画素数、画角等に基づいて、要警戒範囲と前方構造物10との相対位置関係は既知のものとして認識することができる。従って、要警戒範囲設定部26は、エッジ線分データにより得られる前方構造物10の境界に基づいて、所定範囲を要警戒範囲として設定する。
The caution
歪み復元部27は、歪み補正部21が歪み補正したカメラレンズのパラメータを用いて、歪みを復元する。歪み復元部27までの画像データはカメラ6のカメラレンズの歪みを補正したデータであり、本来のカメラ6の映像には歪みを生じている。よって、本来的なカメラ6の映像を表示するときには、歪み復元部27が画像データに対して歪みを復元する処理を行う。この歪みの復元により画像データ中の要警戒範囲にも歪みが発生する。
The
表示画像作成部28はモニタ9に表示する表示画像を生成する。このときの表示画像は歪みが復元された画像データであり、この中に要警戒範囲が設定されている。表示画像作成部28は要警戒範囲が設定された表示画像をモニタ9に出力し、モニタ9に表示画像を表示する。これにより、運転室7に搭乗するオペレータはモニタ9を視認することにより、カメラ6の映像を認識することができる。
The display
次に、図4のフローチャートに基づいて、動作について説明する。ダンプトラック1に設置されたカメラ6は斜め下方を視野とした視野範囲6Aを撮影しており、所定の撮影周期(例えば、フレーム/秒)で撮影を行っている。これにより、撮影周期ごとに得られる1フレーム分の画像データを画像処理装置8に周期的に出力する(ステップS1)。視野範囲6Aに前方構造物10が含まれるようにカメラ6が設置しており、画像データの中には前方構造物10が含まれる。
Next, the operation will be described based on the flowchart of FIG. The
カメラ6が視野範囲6Aを撮影することにより得られる画像データの一例を図5に示す。カメラ6は斜め下方を視野としており、同図に示すように、画像データPにはカメラ6の撮影方向の地面が背景として映し出されている。ダンプトラック1が運用される現場は過酷な環境下にあり、地面は整地状態となっておらず、多くの凹凸が存在する。画像データPの中では凹凸部Rとして映し出されている。また、視野範囲6Aにダンプトラック1の前方構造物10が映し出されるようにカメラ6の視野を設定している。よって、画像データPには前方構造物10も含まれている。
An example of the image data obtained by the
以上の画像データPが画像処理装置8の歪み補正部21に出力され、且つ表示画像作成部28にも出力される。歪み補正部21に入力された画像データPはカメラ6のレンズパラメータに基づいて歪み補正がされる(ステップS2)。カメラ6のレンズパラメータを用いて画像データPの歪み補正を行うことで、画像データPの中心から離間した部位の歪みが補正される。これにより、画像データPは、図6に示すような直線性の高い画像に補正される。
The image data P described above is output to the
歪み補正処理がされた画像データPは平滑化処理部22に入力される。平滑化処理部22は画像データPに対して平滑化処理を行う(ステップS3)。平滑化処理部22は、前述したように、画像データPの各画素について、隣接する画素間の画素値の差分を少なくして、滑らかな画像データPを生成する。前述したように、エッジ抽出部23によりエッジ抽出処理が行われる。このとき、地面の凹凸や照度の違い等に起因して画像データPの画素値がまばらな値になり、これらがエッジとして検出されるおそれがある。ただし、これらはノイズ成分であり、平滑化処理部22は予めノイズ成分を除去するために平滑化処理を行う。この平滑化処理を行うことで、まばらな画素値が平滑化され、ノイズ成分が除去される。ここでは、図7に示す平滑化フィルタを用いて平滑化処理を行っているが、隣接する画素間の画素値の差分を少なくすることができれば任意の手法を用いることができる。
The image data P subjected to distortion correction processing is input to the smoothing
図7は、平滑化フィルタとしてガウシアンフィルタを適用した例を示している。ガウシアンフィルタは、画素の空間的配置を考慮して、画像データPの中の1つの画素(中心画素)に近い画素のフィルタ係数が大きく、中心画素から遠い画素のフィルタ係数が小さいフィルタである。そして、ガウシアンフィルタはフィルタリングした各画素の加重平均を取る。フィルタ係数としては、例えば下記のガウス関数(式1)を用いることができる。なお、式1の中のσは標準偏差である。
図7の例では3画素×3画素の合計9画素のガウシアンフィルタを用いる。なお、ガウシアンフィルタの画素数は9画素ではなく、5画素×5画素の合計25画素としてもよいし、それ以上としてもよい。前述の式1のガウス関数を用いたガウシアンフィルタは、中心画素と周辺画素(8画素)とにより構成される。中心画素のフィルタ係数Kが最も大きく、中心画素の上下左右の4画素のフィルタ係数Lが次に大きく、それ以外の4画素のフィルタ係数Mが最も小さい。つまり、「K>L>M」となる。なお、フィルタ係数は重み付けであり、フィルタ係数の合計は「1」となる。
In the example of FIG. 7, a Gaussian filter of 3 pixels × 3 pixels in total of 9 pixels is used. The number of pixels of the Gaussian filter is not nine but may be 25 pixels in total of 5 pixels × 5 pixels, or more. The Gaussian filter using the Gaussian function of
平滑化処理部22は画像データPの全ての画素に対して、前述したガウシアンフィルタを用いた平滑化処理を行う。具体的には、中心画素の画素値に対してフィルタ係数Kを乗算し、中心画素の上下左右の4画素の画素値に対してフィルタ係数Lを乗算し、それ以外の4画素の画素値に対してフィルタ係数Mを乗算する。そして、フィルタ係数Kを乗算した中心画素の画素値に対して、フィルタ係数L、Mを乗算した周辺の8画素の画素値を加算する。この加算を行ったときの中心画素の画素値が平滑化値となる。この処理を画像データPの全ての画素に対して行う。
The smoothing
ところで、前述したように、画像データPには地面の凹凸部Rと前方構造物10とが映し出されている。凹凸部Rの画素はその周囲の画素と画素値に差分を有している。従って、平滑化処理部22が画像データPに対して平滑化処理を行うことで、凹凸部Rと周囲の画素との間の画素値の差分が少なくなり、平滑化される。そして、前述のフィルタ係数K、L、Mの値は、画像データPの中の前方構造物10の境界はエッジとして検出されるが、それ以外の凹凸部R等はエッジとして検出されないような値に設定する。これにより、図8に示したように、画像データPの中の凹凸部Rを大幅に低減することができる。フィルタ係数K、L、Mの値はガウス関数の標準偏差σにより決定されるため、凹凸部Rが検出されなくなるような標準偏差σを設定する。
By the way, as described above, in the image data P, the uneven portion R on the ground and the
勿論、凹凸部Rの中にはその大きさや照度条件等により、凹凸部Rの画素とその周囲の画素との差分が大きくなることがある。この場合には、平滑化処理を行ったとしても、完全に画像データPの中から凹凸部Rを除去することができず、一部の凹凸部Rは残存する。ただし、図8に示すように、その数を大幅に低減させることができる。 Of course, the difference between the pixel of the uneven portion R and the surrounding pixels may become large depending on the size, the illumination condition, etc. in the uneven portion R. In this case, even if the smoothing process is performed, the uneven portion R can not be completely removed from the image data P, and a portion of the uneven portion R remains. However, as shown in FIG. 8, the number can be significantly reduced.
一方、前方構造物10については、背景と前方構造物10との境界は明確に区別可能になっている。一般に、ダンプトラック1は、周囲状況を把握する観点から地面や周囲の環境と容易に区別が可能なような色に着色されていることが多い。これに伴い、前方構造物10も地面や周囲環境等の背景とは明確に異なる色となっている。このため、背景と前方構造物10との境界、つまり前方構造物10における背景の画素値と前方構造物10の画素値との差分は大きい。これにより、前方構造物10の境界における画素値の差分は非常に大きいため、平滑化処理を行ったとしても、大半は残存する。
On the other hand, for the
次に、エッジ抽出部23の処理について説明する。図8に示したように、平滑化処理を行った画像データPには、その数が大幅に低減された凹凸部Rおよび前方構造物10の境界が映し出されている。エッジ抽出部23は、この平滑化処理を行った画像データPから隣接する画素の間の画素値の差分が所定の閾値以上の画素(差分が大きい画素)をエッジ画素として抽出する(ステップS4)。
Next, the process of the
ここでは、エッジ画素を抽出するエッジ抽出処理としてキャニーのアルゴリズムを用いる。勿論、他の手法を用いてエッジ画素を抽出してもよい。キャニーのアルゴリズムでは、図9に示すような水平方向(横方向:X方向)のソーベルフィルタおよび垂直方向(縦方向:Y方向)のソーベルフィルタの2種類のソーベルフィルタを用いる。X方向のソーベルフィルタは画像データPのX方向の輪郭を強調し、Y方向のソーベルフィルタはY方向の輪郭を強調する。これら2種類のソーベルフィルタを用いて画像データPの全ての画素に対してエッジ画素を抽出する。 Here, a Canny algorithm is used as edge extraction processing for extracting edge pixels. Of course, other methods may be used to extract edge pixels. The Canny algorithm uses two types of Sobel filters, a Sobel filter in the horizontal direction (horizontal direction: X direction) and a Sobel filter in the vertical direction (longitudinal direction: Y direction) as shown in FIG. The Sobel filter in the X direction emphasizes the contour in the X direction of the image data P, and the Sobel filter in the Y direction emphasizes the contour in the Y direction. Edge pixels are extracted for all pixels of the image data P using these two Sobel filters.
X方向およびY方向のソーベルフィルタを画像データPの全ての画素に対して施すことにより、画像データPの全ての画素について、当該画素とその周囲の画素との間の微分値(fx、fy)を抽出する。fxはX方向の微分値であり、fyはY方向の微分値である。そして、画像データのPの全ての画素に対して、fx、fyに基づいて、エッジ強度gを「g=(fx2+fy2)1/2」として演算する。エッジ強度gは1つの画素と周囲の画素との間の画素値の差分を示しており、演算されたエッジ強度gに基づいて、エッジ画素を検出する。 By applying Sobel filters in the X and Y directions to all the pixels of the image data P, the differential values (fx, fy) between the pixels and the surrounding pixels for all the pixels of the image data P are applied. Extract). fx is a differential value in the X direction, and fy is a differential value in the Y direction. Then, the edge strength g is calculated as “g = (fx 2 + fy 2 ) 1/2 ” based on fx and fy for all pixels of P of the image data. The edge strength g indicates the difference in pixel value between one pixel and the surrounding pixels, and edge pixels are detected based on the calculated edge strength g.
エッジ抽出部23は、ソーベルフィルタが施された画像データPの全ての画素のエッジ強度gに対して、第1閾値T1および第2閾値T2(ただし、T1>T2)を用いて比較を行う。画像データPの1つの画素に着目して、当該画素のエッジ強度gが第1閾値T1以上であれば、当該画素はエッジ画素として検出する。一方、着目した画素のエッジ強度gが第2閾値T2未満であれば、当該画素はエッジ画素ではないとして検出する。着目した画素のエッジ強度が第1閾値T1以上且つ第2閾値T2未満のときには、当該画素の近傍(特に、当該画素に隣接している画素)にエッジ画素が存在しているときには当該画素をエッジ画素として検出し、それ以外の場合はエッジ画素として検出しない。
The
以上のエッジ抽出処理を行うと、図10(a)に示すようなエッジ画素が抽出された画像データPが生成される。そして、エッジ画素が連続した形状をエッジEとして抽出される。エッジEが抽出された画像データPに対して構造物エッジ判定処理を行うことにより、画像データPの中から前方構造物10を判定する(ステップS5)。エッジ抽出処理では、隣接する画素間の差分が大きい画素をエッジ画素として抽出している。これにより、もともと凹凸部Rを映し出していた画素は殆どエッジ画素として検出されなくなるため、前方構造物10を検出する精度は飛躍的に向上する。
When the above edge extraction processing is performed, image data P in which edge pixels are extracted as shown in FIG. 10A is generated. Then, a shape in which edge pixels are continuous is extracted as an edge E. The
一方、前方構造物10の境界は画素値の差分が大きいため、エッジ画素として検出されやすくなる。ただし、ソーベルフィルタを用いたエッジ抽出処理を行うことにより、図10(a)に示すように、エッジEは直線性を示さず、不規則な変化を示すことがある。例えば、本来なら直線性を有している前方構造物10の境界も直線性を失い、当該境界の一部が検出されなくなる場合もある。
On the other hand, the boundary of the
構造物エッジ判定部24は、画像データPのエッジ画素から直線を抽出する。直線を抽出する手段としては任意の手段を用いることができるが、ここでは既知の手法としてハフ変換を用いる。勿論、エッジ画素から直線を抽出できれば、ハフ変換以外の手法を用いてもよい。図10(a)に示した画像データPに対して、ハフ変換の演算処理を行うことで、不規則な変化を示す線分は、同図(b)に示すように直線L、L1乃至L4になる。このうち、X方向に延在する直線L1、L2およびY方向に延在する直線L3、L4に着目する。そして、構造物エッジ判定部24は直線L1、L2のうち最も長い直線L1を選択し、2つの直線L3、L4を選択する。
The structure
構造物エッジ判定部24は画像データPの中で直線L1、L3、L4を延長する。直線L1はX方向の延在する直線であり、直線L3、L4はY方向に延在する直線であることから、これらを延長することにより、直線L1と直線L3および直線L4が交わる。直線L1と直線L3との交点をC1、直線L1と直線L4との交点をC2とする。また、直線L3と画像データPの下端との交点をC3、直線L4と画像データPの下端との交点をC4とする。交点C1乃至C4は2次元の画像データPの中の画素の座標を示している。
The structure
交点C1乃至C4を直線で結ぶと前方構造物10のエッジ線分が形成される。従って、交点C1乃至C4の情報は前方構造物10のエッジ線分を特定するためのデータとなり、これをエッジ線分データとする。エッジ線分データ(交点C1乃至C4の座標情報)により囲まれた領域が前方構造物10となる。構造物エッジ判定部24はエッジ線分データに基づいて、前方構造物10のエッジを判定する。1枚の画像データPから得られるエッジ線分データに基づいて前方構造物10を特定してもよいが、画像データPの中の前方構造物10を検出する確度を向上させるために、エッジ線分データ確定部25がエッジ線分データの比較を行う(ステップS6)。
When the intersection points C1 to C4 are connected by a straight line, an edge line segment of the
前述したように、カメラ6から所定周期で画像データPが画像処理装置8に入力されており、複数枚の画像データPが得られる。エッジ線分データ確定部25は過去の画像データPに基づくエッジ線分データを記憶しており、最新の画像データPに基づくエッジ線分データと過去のエッジ線分データとの平均値を算出する。エッジ線分データ確定部25は、算出されたエッジ線分データ(平均値)を確定されたエッジ線分データとする。つまり、確定されたエッジ線分データにより画像データPの中の前方構造物10が特定される。
As described above, the image data P is input from the
なお、エッジ線分データ確定部25が複数の画像データPのエッジ線分データの平均値の演算を行うときには、所定枚数の画像データPのエッジ線分データがエッジ線分データ確定部25に蓄積されるまで、エッジ線分データの確定は行わない。また、多くのエッジ線分データの平均値を算出することにより、エッジ線分データの確度は向上するが、処理時間が長くなる。従って、エッジ線分データの確度と処理時間とのバランスを考慮して、平均値の演算を行うエッジ線分データの個数を決定する。
When the edge line segment
エッジ線分データ確定部25が確定したエッジ線分データは要警戒範囲設定部26に出力される。要警戒範囲設定部26はエッジ線分データに基づいて要警戒範囲を設定する(ステップS7)。要警戒範囲は障害物を検出する範囲であり、ダンプトラック1から所定の範囲となる。前述したように、ダンプトラック1の前方構造物10と要警戒範囲との相対位置関係は既知のものとして認識することができる。従って、画像データPの中の前方構造物10が特定できれば、要警戒範囲を自動的に認識することができる。
The edge line segment data determined by the edge line segment
図11(a)は、エッジ線分データに基づいて、要警戒範囲31が設定される状態を示している。確定されたエッジ線分データは交点C1乃至C4の情報であり、交点C1乃至C4を連結することにより前方構造物10が特定される。従って、同図(a)の中で交点C1乃至C4により囲まれた領域が前方構造物10となる。前方構造物10と要警戒範囲31との相対位置関係に基づいて、画像データPの中で要警戒範囲31が設定される。
FIG. 11A shows a state in which the
一方、画像データPの中で要警戒範囲31以外の領域は警戒が不要な警戒不要範囲32となる。従って、画像データPの中から障害物を検出するときに、要警戒範囲31のみを対象として障害物の検出を行い、警戒不要範囲32については障害物の検出は行わない。障害物の検出の手法は任意の手法を採用することができる。そして、障害物の検出を行うときに、警戒不要範囲32はマスク領域として、当該範囲をマスクすることで、要警戒範囲31に絞って障害物の検出を行うことができる。
On the other hand, in the image data P, an area other than the
要警戒範囲31は歪み補正部21により歪み補正がされた画像データPに基づいて設定されている。モニタ9に表示される表示画像はカメラ6から出力される画像データPであり、歪み補正がされていない画像になる。そこで、歪み復元部27は、要警戒範囲31が設定された画像データPに対して歪み補正を復元する(ステップS8)。歪み復元部27は歪み補正部21が使用したカメラ6のレンズパラメータを使用して、画像データPの歪み補正を復元する。これにより、要警戒範囲31は、図11(b)のように変形する。歪み復元処理がされた要警戒範囲31の情報は表示画像作成部28に出力される。
The
表示画像作成部28はモニタ9に表示する画像(表示画像)を生成する(ステップS9)。表示画像作成部28は、カメラ6から周期的に画像データPを入力する。この画像データPは歪み補正がされていない画像になる。また、表示画像作成部28は歪み復元部27から歪み復元処理がされた要警戒範囲31の情報を入力している。そして、表示画像作成部28は、カメラ6から入力した画像データPに要警戒範囲31を重畳する。その状態を図12に示している。つまり、同図に示す画像データPのうち要警戒範囲31は仮想線で囲まれた領域になる。なお、要警戒範囲31は障害物を検出するための領域であり、図12のように格別に要警戒範囲31を表示させる必要はない。
The display
そして、表示画像作成部28はカメラ6から入力した画像データPをモニタ9に出力する。運転室7に搭乗したオペレータはモニタ9に表示されている画像データPを視認することで、補助的な視野を得ることができる。
Then, the display
以上説明したように、本実施形態では、画像データPに基づいてダンプトラック1の前方構造物10を特定し、前方構造物10から要警戒範囲31を設定している。これにより、障害物を検出する要警戒範囲31を手動によらず自動的に設定することができ、設定する手間を大幅に省略することができる。また、ダンプトラック1が激しく振動してカメラ6の視野範囲6Aにずれを生じたとしても、要警戒範囲31にずれを生じることはない。つまり、画像データPの中の前方構造物10と要警戒範囲31との相対位置関係は、視野範囲6Aにずれを生じたとして一定であるため、前方構造物10を基準として要警戒範囲31を設定することで、要警戒範囲31にずれを生じることがなくなる。
As described above, in the present embodiment, the
以上において、構造物エッジ判定部24はエッジ画素の直線性を検出して、前方構造物10のエッジ線分を判定していたが、前方構造物10と背景との境界を検出することができれば、前方構造物10のエッジ線分を検出する手法以外の手法を用いてもよい。例えば、前方構造物10と背景との間で画素値の差分が極端に大きい場合等は、画素値の差分に基づいて前方構造物10を検出することができる。この場合、歪み補正部21により歪み補正を行う必要もなく、歪み復元部27により歪み復元の補正を行う必要もない。ただし、前方構造物10には特有の直線性が存在するため、前方構造物10のエッジ線分を検出する手法を採用することで、前方構造物10と背景との境界を検出する精度が向上する。
In the above, the structure
また、平滑化処理部22により画像データPに対して平滑化処理を行っており、これにより画像データPの中の凹凸部Rを低減させている。この点、カメラ6が撮影している地面がある程度整地されている場合等においては、画像データPの中の凹凸部Rは少なくなる。従って、平滑化処理を行わなくても前方構造物10のエッジEを抽出することはできる。ただし、前方構造物10のエッジEの検出精度を向上させるためには、平滑化処理を行った方が望ましい。
Further, the smoothing
また、エッジ線分データ確定部25によりエッジ線分データの確度を向上させているが、1枚の画像データPに基づいてエッジ線分が明確に識別できる場合等は、エッジ線分データ確定部25により処理を省略してもよい。ただし、複数の画像データPのエッジ線分データの平均値を演算することにより、エッジ線分データを確定させることで、エッジ線分データの確度が向上する。このため、エッジ線分データ確定部25による処理を行うことが望ましい。
In addition, although the edge line segment
B:本発明の第2の実施形態
次に、第2の実施形態について説明する。図13は第2の実施形態の画像処理装置8の構成を示している。図13に示すように、要警戒範囲画像生成部41と障害物検出部42とマスク画像生成部43とずれ判定部44とが第1の実施形態に対して新たに追加されたが、それ以外の構成は第1の実施形態と同じであるので説明を省略する。
B: Second Embodiment of the Present Invention Next, a second embodiment will be described. FIG. 13 shows the configuration of the
視野範囲6Aを撮影しているカメラ6から周期的に画像データPが画像処理装置8に出力される。画像データPは歪み補正部21および表示画像作成部28だけでなく、要警戒範囲画像生成部41に対しても出力される。要警戒範囲画像生成部41は、図12等で示したように、画像データPのうち要警戒範囲31のみの画像を生成する。このために、歪み復元部27から歪みが復元された要警戒範囲31を入力し、カメラ6から画像データPを入力する。そして、画像データPのうち要警戒範囲31の領域内の画像のみを要警戒範囲画像として生成する。
Image data P is periodically output to the
要警戒範囲画像は障害物検出部42に入力される。障害物検出部42は要警戒範囲画像の中の障害物を検出する。接触を避けなければならない障害物としては主に作業員やサービスカー等が想定されるが、例えば他の作業機械等も障害物となる。障害物を検出する手法には任意の手法を用いることができる。障害物には静止状態と移動状態とがあり、静止状態の障害物を静止体、移動状態の障害物を移動体とする。
The caution range image is input to the
静止体を検出する手法にも任意の手法を用いることができるが、例えば画像中の輪郭や輝度、色等を複合的に判断して静止体の領域を検出する手法を用いることができる。静止体は一定の領域を有しており、当該一定の領域の輪郭が所定の形状をしている場合、輝度値が所定の値を有する場合、色が特定の色を示している場合等において、前記の一定の領域を静止体として検出することができる。 An arbitrary method can be used as a method of detecting a stationary body, for example, a method of detecting a region of a stationary body by compositely judging an outline, luminance, color or the like in an image can be used. The stationary body has a certain area, and when the contour of the certain area has a predetermined shape, when the luminance value has a predetermined value, when the color shows a specific color, etc. The above-mentioned certain area can be detected as a stationary body.
静止体を検出する具体的な手法としては、例えば背景と静止体との輪郭の情報に基づいて事前に学習した形状情報を用いてマッチングし、障害物を判定するパターンマッチング手法を用いることができる。また、特定の輝度や色情報を持つが画素のみを抽出し、抽出した画素領域の面積や周囲長、モーメントといった形状特徴を抽出し、形状を識別することにより障害物と判定する手法を用いることができる。 As a specific method of detecting a stationary body, for example, pattern matching method of determining an obstacle by matching using shape information learned in advance based on information of contours of a background and a stationary body can be used. . Also, use a method of extracting an image feature having specific luminance and color information but extracting only pixels, extracting the shape feature such as area, perimeter, and moment of the extracted pixel area, and identifying the shape as an obstacle. Can.
移動体を検出する手法にも任意の手法を用いることができ、例えば時間的に異なる画像データPを比較したときに、一定の領域が異なる位置に移動しているときには移動体が移動していることを検出する。移動体の検出には例えばブロックマッチング手法を適用することができる。このブロックマッチング手法については後述する。他にも、画像データPの各画素における明るさの空間的勾配と時間的勾配との間の関係性を用いて検出する勾配法や移動体の領域がないときの画像データと最新の画像データとの差分を検出する背景差分法、時間の異なる3枚の画像データを用いて2枚の差分画像を生成して移動体領域を検出するフレーム差分法等を用いることができる。 Arbitrary methods can be used also as a method of detecting a moving object, and for example, when comparing temporally different image data P, the moving object is moving when a certain area is moving to a different position To detect that. For example, a block matching method can be applied to the detection of a moving object. The block matching method will be described later. In addition, gradient data detected using the relationship between the spatial gradient and the temporal gradient of brightness at each pixel of the image data P, and image data and latest image data when there is no area of the moving object It is possible to use a background subtraction method for detecting a difference between the two and a frame subtraction method for generating two difference images using three pieces of image data of different times to detect a moving object region.
マスク画像生成部43はマスク画像を生成する。第1の実施形態で説明したように、要警戒範囲設定部26は画像データPの中で要警戒範囲31を設定し、それ以外の領域を警戒不要範囲32として設定している。このうち、マスク画像生成部43は警戒不要範囲32をマスク領域としたマスク画像を生成する。マスク画像は画像データPと同じサイズの画像であり、画素数も等しい。そして、マスク画像のうちマスク領域(警戒不要範囲32)とそれ以外の領域(要警戒範囲31)とが明確に区別されている。例えば、マスク画像のうちマスク領域は全て黒(画素値ゼロ)で構成し、要警戒範囲31の領域は全て白(画素値256)で構成することができる。
The mask
ずれ判定部44はマスク画像生成部43からマスク画像を入力して、ずれを判定する。ずれ判定部44には過去のマスク画像が保持されており、新しく入力したマスク画像と過去のマスク画像との比較を行う。そして、全ての画素について新しいマスク画像と過去のマスク画像との差分演算を行い、所定値以上の画素値の差分を持つ画素が所定数以上存在している場合、カメラ6にずれを生じていると判定し、それ以外の場合にはずれを生じていないと判定する。判定結果は表示画像作成部28に出力される。
The
次に、図14のフローチャートを用いて、第2の実施形態の動作について説明する。図14に示すステップS1乃至ステップS8は第1の実施形態と同じであるため、説明を省略する。ステップS8において、歪みが復元された要警戒範囲31が生成される。この要警戒範囲31の情報が要警戒範囲画像生成部41に入力される。要警戒範囲画像生成部41はカメラ6から画像データPを入力しており、画像データPのうち要警戒範囲31以外の領域、すなわち警戒不要範囲32を不感領域33として、不感領域33では画像データPの情報は削除されている。不感領域33は前述したマスク領域と同じ機能を持つ。ここでは、不感領域33は全て黒い画素(画素値ゼロ)で構成する(なお、図面の都合上、図15では、黒い画素を網掛けで示している)。
Next, the operation of the second embodiment will be described using the flowchart of FIG. Steps S1 to S8 shown in FIG. 14 are the same as in the first embodiment, and thus the description thereof is omitted. In step S8, the
これにより、図15に示すような要警戒範囲画像P1が生成される(ステップS10)。この要警戒範囲画像P1には障害物として作業員Mが含まれている。要警戒範囲画像P1は画像データPとX方向およびY方向に同じ画素数を有しており、要警戒範囲31の部分には画像データPが表示されるが、不感領域33の部分には黒い画素が表示されているだけになる。不感領域33の黒い画素は、換言すればマスクであり、画像データPのうちマスクされていない領域が要警戒範囲31となる。同図に示されるように、要警戒範囲31に多数の凹凸部Rが存在し、また障害物として作業員Mが存在している。このような要警戒範囲画像P1は障害物検出部42に出力される。
Thereby, the alert range image P1 as shown in FIG. 15 is generated (step S10). The worker M is included as an obstacle in the alert range image P1. The caution range image P1 has the same number of pixels as the image data P in the X and Y directions, and the image data P is displayed in the
障害物検出部42は要警戒範囲画像P1から障害物を検出する(ステップS11)。障害物を検出するために任意の手法を用いることができるが、ここではブロックマッチング手法を用いた場合を説明する。図16はブロックマッチング手法を用いた移動体の検出手法の一例を示している。障害物検出部42は、過去の要警戒範囲画像P1を記憶しており、最新の要警戒範囲画像P1と過去の要警戒範囲画像P1との比較を行う。ここでは、カメラ6の撮影周期の1周期前の要警戒範囲画像P1を過去の要警戒範囲画像P1としている。
The
図16の例では、X方向に4画素、Y方向に4画素の合計16画素を注目領域A1とする。勿論、注目領域A1は16画素以外の画素数を採用してもよい。そして、注目領域A1を中心として、X方向に8画素、Y方向に8画素の合計64画素を検索範囲A2とする。勿論、検索範囲A2の画素数も任意に設定することができる。 In the example of FIG. 16, a total of 16 pixels of 4 pixels in the X direction and 4 pixels in the Y direction is taken as a region of interest A1. Of course, the attention area A1 may adopt the number of pixels other than 16 pixels. Then, a total of 64 pixels of 8 pixels in the X direction and 8 pixels in the Y direction are set as the search range A2 with the attention area A1 as the center. Of course, the number of pixels in the search range A2 can also be set arbitrarily.
障害物検出部42は、検索範囲A2を画像データPの所定位置、例えばX方向およびY方向の端部に設定する。そして、検索範囲A2の中を検索する。検索範囲A2の中の検索手法について図17を用いて説明する。検索範囲A2の中に比較領域A3を設定する。比較領域A3は注目領域A1と同じくX方向に4画素、Y方向に4画素の合計16画素を有している。そして、比較領域A3をX方向およびY方向の端部に設定する。
The
障害物検出部42は、過去の要警戒範囲画像P1における注目領域A1と最新の要警戒範囲画像P1における比較領域A3との対応する画素間の画素値の差分の演算を行う。注目領域A1と比較領域A3とは共に、X方向に4画素、Y方向に4画素により構成されており、注目領域A1の1つの画素と比較領域A3の1つの画素とは1:1で対応している。そこで、前述したように、対応する画素間の画素値の差分演算を行う。この演算を行うことにより、16画素分の差分値を得ることができる。そして、16画素分の差分値をそれぞれ二乗して、二乗した16個の差分値を加算する演算を行う。この演算を行うことにより得られる値を加算値とする。
The
障害物検出部42は、前記の加算値が所定の閾値以下であるか否かを判定する。このときの閾値は注目領域A1と比較領域A3とが同一であるとみなせるか否かを判定できる値とする。障害物検出部42は、前記の加算値が所定の閾値以下であるときには、過去の注目領域A1と最新の比較領域A3とが一致しているものと判定する。一方、それ以外の場合は、過去の注目領域A1と最新の比較領域A3とは一致していないと判定する。
The
過去の注目領域A1と最新の比較領域A3とが一致しており、且つ両者が検索範囲A2の中で完全に一致していなければ、注目領域A1が検索範囲A2の中で移動していることを認識することができる。図17に示すように、比較領域A3をX方向に1画素ずつずらして比較を行う。これをX方向の検索(スキャン)とする。X方向のスキャンが完了したときには、次に、比較領域A3をY方向に1画素ずらして、再びX方向のスキャンを行う。Y方向に1画素ずらしてX方向のスキャンを行うことをY方向のスキャンとする。従って、X方向およびY方向にスキャンが行なわれることになる。このスキャンの手法を3次元的に示したのが図18である。 If the past attention area A1 matches the latest comparison area A3 and both do not completely match within the search range A2, then the attention area A1 moves within the search range A2 Can be recognized. As shown in FIG. 17, the comparison area A3 is shifted by one pixel in the X direction for comparison. Let this be a search (scan) in the X direction. When scanning in the X direction is completed, next, the comparison region A3 is shifted by one pixel in the Y direction, and scanning in the X direction is performed again. Performing scanning in the X direction while shifting one pixel in the Y direction is referred to as scanning in the Y direction. Therefore, scanning is performed in the X direction and the Y direction. FIG. 18 shows the method of this scan three-dimensionally.
X方向およびY方向のスキャンは、過去の注目領域A1と最新の比較領域A3とが一致することが検出されるまで行われる。従って、過去の注目領域A1と最新の比較領域A3とが一致していることが検出されれば、その時点でスキャンを終了する。一方、X方向およびY方向の全てのスキャンが完了した時点で、一致している過去の注目領域A1と最新の比較領域A3とが検出されなければ、検索範囲A2の中には移動体(障害物:作業員M)が存在していないことが認識される。 The scanning in the X direction and the Y direction is performed until it is detected that the past attention area A1 matches the latest comparison area A3. Therefore, if it is detected that the past attention area A1 matches the latest comparison area A3, the scan is ended at that point. On the other hand, when all the scans in the X direction and the Y direction are completed, if a matching past focused area A1 and the latest comparison area A3 are not detected, a mobile object (a failure Object: It is recognized that there is no worker M).
検索範囲A2は、過去の要警戒範囲画像P1が取得された時点から最新の要警戒範囲画像P1が取得されるまでの間に、作業員Mが通常に歩行したときに移動可能な限界範囲を基準として決定する。前述したように、過去の要警戒範囲画像P1は最新の要警戒範囲画像P1の1周期前の画像である。従って、カメラ6の撮影周期の1周期の間に作業員Mが通常に歩行したときの限界量を基準として検索範囲A2を設定する。
The search range A2 is a limit range that can be moved when the worker M normally walks until the latest alert range image P1 is acquired since the past alert range image P1 is acquired. Determined as a standard. As described above, the past alert range image P1 is an image one cycle before the latest alert range image P1. Therefore, the search range A2 is set based on the limit amount when the worker M normally walks during one cycle of the photographing cycle of the
ところで、カメラ6には、撮影周期が高速な場合と低速な場合とがある。このとき、カメラ6の撮影周期が高速である場合には、作業員Mが移動していたとしても、殆ど移動していないように認識される。一方、撮影周期が低速である場合には、作業員Mが低速に移動していたとしても、高速に移動しているように認識される。そこで、カメラ6の撮影周期が高速な場合には、比較的過去の複数周期前の要警戒範囲画像P1を過去の要警戒範囲画像P1とする。一方、カメラ6の撮影周期が低速な場合には、比較的直近(例えば、1周期前)の要警戒範囲画像P1を過去の要警戒範囲画像P1とする。
By the way, the
障害物検出部42は、要警戒範囲画像P1の全画素について検索範囲A2による検索が行われるようにする。従って、検索範囲A2がX方向およびY方向の端部にあるときに、その検索が完了すると、次に検索範囲A2のX方向の画素分(8画素)だけX方向にシフトさせて、再び同様の検索を行う。そして、要警戒範囲画像P1のX方向の全ての画素について検索が終了したときに、検索範囲A2をY方向の画素分(8画素)だけY方向にシフトさせて、再び同様の検索を行う。そして、要警戒範囲画像P1の全画素について検索範囲A2の中の検索が行われるようにする。
The
ここで、図16にも示しているように、要警戒範囲画像P1は障害物を検出する要警戒範囲31と不感領域33とに区別されている。障害物検出部42は要警戒範囲画像P1の中の不感領域33を認識している。つまり、不感領域33に含まれる画素を認識している。よって、障害物検出部42は検索範囲A2による検索を行うときに、不感領域33を除外して行う。これにより、要警戒範囲31に限定して障害物としての作業員Mを検出することができる。そして、障害物検出部42は、検出された障害物としての作業員Mの情報を表示画像作成部28に出力する。
Here, as also shown in FIG. 16, the alert range image P <b> 1 is distinguished into an
表示画像作成部28はカメラ6から画像データPを入力しており、且つ障害物検出部42より障害物としての作業員Mの情報を入力している。従って、表示画像作成部28は画像データPの要警戒範囲31の中での作業員Mを認識している。表示画像作成部28は障害物を明示的に表示するために、作業員Mの周囲に障害物マーキング表示M1を重畳している。ここでは、障害物マーキング表示M1は作業員Mの周囲に形成される外接矩形となっているが、勿論矩形でなくてもよい。
The display
障害物マーキング表示M1が重畳された画像データPを図19に示す。この画像データPが表示画像となり、モニタ9に出力される。そして、同図に示されるように、障害物としての作業員Mの周囲に障害物マーキング表示M1が重畳されていることで、オペレータは障害物マーキング表示M1に基づいて作業員Mの存在を一見して認識することができる。なお、図19で要警戒範囲31を仮想線で示しているが、この範囲内でのみ障害物の検出が行われたことを示している。モニタ9には基本的に要警戒範囲31は表示されないが、表示されるようにしてもよい。
The image data P on which the obstacle marking indication M1 is superimposed is shown in FIG. The image data P becomes a display image and is output to the
ところで、カメラ6で取得したカメラ画像を画像処理により視点変換して、俯瞰画像化することにより周囲監視を行うようになし、この周囲監視画像をモニタ9に表示する構成は、従来から知られている。即ち、図29に示したように、所定の高さ位置にカメラ6を配置して、角度αをもって斜め下方に対物レンズの光軸CAを向けた状態で撮影すると、スルー画像Pが得られる。この角度θを持ったスルー画像Pから、同図に仮想線で示したように、仮想視点VFからスルー画像Pに対して光軸VAが垂直になるように座標変換した画像が作成される。これによって、角度αをもった斜め上方からのカメラ画像を平面視した俯瞰画像とすることができる。(なお、画像データPはスルー画像であり、このスルー画像のデータを上方視点となるように視点変換した画像は俯瞰画像である。従って、ここでは、俯瞰画像と区別するために、カメラ6から取得した画像データをスルー画像Pという。)
By the way, it is possible to perform peripheral monitoring by performing viewpoint conversion of the camera image acquired by the
前述した各実施形態においてはカメラ6で取得したカメラ画像(スルー画像)を表示するようにしているが、このカメラ画像から信号処理を行って俯瞰画像化してモニタ9に表示することもできる。即ち、図30(a)に示したように、スルー画像Pを上方視点となる視点変換処理が行われる。
In each embodiment described above, the camera image (through image) acquired by the
そして、図30(b)に示したように、ダンプトラック1に、その前部位置と、左右の両側位置と、後部位置との4箇所にそれぞれカメラを設置して、このダンプトラック1の周囲のカメラ画像を取得し、これらのカメラ画像を俯瞰画像化処理して、モニタ9に表示するに当って、ダンプトラック1の前部側カメラ,左右の両側部側カメラ及び後部側カメラについて、それぞれ各画像領域SPF,SPL,SPR,SPBにおける各俯瞰画像を取得して、モニタ9に表示することができる。なお、図30(a)には前部側カメラによる画像領域SPFが示されている。この表示の際には、ダンプトラック1を平面形状としたアイコン画像Qをモニタ9の画面の中央に配置し、このアイコン画像Qの周囲4方向に各画像領域SPF,SPL,SPR,SPBにそれぞれ対応する俯瞰画像を表示する。
Then, as shown in FIG. 30 (b), cameras are installed in the
このように、アイコン画像Qを中心として、その周囲に合成して周囲の状況の俯瞰画像を表示することによって、ダンプトラック1の周囲全体を俯瞰するようにして表示される監視画像が得られる。しかも、この監視画像は作業員Mを示す障害物マーキング表示M1を図30(a)のスルー画像Pと同様に表示することができ、さらに俯瞰画像のため、ダンプトラック1との相対的な位置も把握できる表示態様とすることができる。
As described above, by displaying the overhead view image of the surrounding situation by combining around the icon image Q and displaying the bird's-eye view of the surrounding situation, it is possible to obtain the monitoring image displayed so as to look around the entire periphery of the
次に、ダンプトラック1に設置しているカメラ6の視野範囲6Aにずれを生じた場合について説明する。前述したように、ダンプトラック1の振動によりカメラ6の視野範囲6Aにずれを生じる場合がある。そこで、視野範囲6Aにずれを生じているか否かを判定する。ただし、視野範囲6Aのずれには許容範囲があり、ずれ量が許容範囲を超過したときにずれが生じていると判定し、許容範囲内であればずれが生じていないと判定する。
Next, the case where a shift occurs in the
図13に示したように、要警戒範囲設定部26から要警戒範囲31の情報がマスク画像生成部43に入力される。マスク画像生成部43は画像データPと要警戒範囲31とに基づいてマスク画像を生成する(ステップS12)。マスク画像は、図20に示すように、画像データPのうち要警戒範囲31を白い画素(画素値256)で構成し、警戒不要範囲32を黒い画素(画素値ゼロ)で構成する。
As shown in FIG. 13, the information on the
マスク画像生成部43は過去(例えば、1周期前)の画像データPおよび要警戒範囲31の情報を保持しており、過去のマスク画像を保持している。そして、最新の画像データPおよび要警戒範囲31の情報が入力されたときに、最新のマスク画像を生成する。マスク画像生成部43は過去のマスク画像および最新のマスク画像をずれ判定部44に出力する。
The mask
ずれ判定部44は、入力した過去のマスク画像と最新のマスク画像とに基づいてずれ量を算出し、算出されたずれ量に基づいて視野範囲6Aのずれが許容範囲内であるか否かを判定する(ステップS13)。このために、ずれ判定部44は過去のマスク画像と最新のマスク画像との画素の差分を演算する。
The
過去のマスク画像と最新のマスク画像とで要警戒範囲31が重複している画素の差分を演算すると、画素値はゼロになる。つまり、画素は黒くなる。また、過去のマスク画像と最新のマスク画像とで警戒不要範囲32が重複している画素の差分を演算すると、画素値はゼロになる。つまり、画素は黒くなる。一方、要警戒範囲31と警戒不要範囲32とが重複している画素の差分を演算すると、演算結果の絶対値は256になる。つまり、画素は白くなる。図20の差分画像P2は、この差分の演算を行った結果の画像になる。
The pixel value becomes zero when the difference between pixels in which the
視野範囲6Aにずれを生じている場合、差分画像P2に白い画素が生じる。この白い画素の画素数がずれ量を示す。つまり、視野範囲6Aに全くずれを生じていなければ、過去のマスク画像と最新のマスク画像とは完全に一致するため、要警戒範囲31と警戒不要範囲32とが重複する画素は存在しなくなる。このため、白い画素は存在しなくなる。一方、視野範囲6Aにずれを生じれば、要警戒範囲31と警戒不要範囲32とが重複している部分が存在するため、当該部分の画素は白い画素となる。
When a shift occurs in the
ずれ判定部44には所定の画素数が閾値として設定されており、差分画像P2の白い画素の画素数と閾値とを比較する。この閾値は視野範囲6Aのずれの許容範囲を示している。この許容範囲は任意に設定することができ、例えばオペレータの視認性に影響を与える程度のずれを許容範囲として設定することができる。そして、ずれ判定部44は、白い画素の画素数と閾値とを比較した結果、白い画素の画素数が閾値未満であれば、視野範囲6Aにずれを生じていないと判定する。一方、白い画素の画素数が閾値以上であれば、視野範囲6Aにずれを生じていると判定する。
A predetermined number of pixels is set as a threshold in the
ずれ判定部44は、ずれを生じているか否かの情報を表示画像作成部28に出力する。表示画像作成部28は、ずれ判定部44からずれを生じている旨の情報を入力したときに、ずれ情報Gを画像データPに表示する。図21はずれ情報Gが重畳された画像データPの一例を示している。ずれ情報Gは画像データPの角隅部に表示されており、カメラ6にずれが生じていることを視覚的に認識させるマークになっている。
The
ずれ情報Gは、カメラ6に許容範囲以上のずれが発生していることをオペレータに認識させる報知手段であり、オペレータはモニタ9に表示されているずれ情報Gに基づいて、許容範囲以上のずれを認識することができる。これを認識したオペレータは、カメラ6を正常な位置に戻すことができ、視野範囲6Aのずれを解消することができる。または、オペレータがメンテナンス要員等に連絡をすることにより、メンテナンス要員等がカメラ6を正常な位置に戻すことができる。
The deviation information G is a notification means for causing the operator to recognize that the
前述したように、視野範囲6Aにずれを生じたとしても、画像データPの中で前方構造物10と要警戒範囲31との相対位置関係は一定であるため、要警戒範囲31は常に正しく設定される。図22(a)は、エッジ抽出部23が画像データPに対してエッジ抽出処理を行い、エッジ画素が抽出された画像データPを示している。そして、構造物エッジ判定部24はハフ変換等の手法を用いて、画像データPから直線の抽出を行う。図22(b)は画像データPから直線が抽出された状態を示している。
As described above, even if a shift occurs in the
前述した第1の実施形態では、視野範囲6Aにずれを生じていなかったため、構造物エッジ判定部24はX方向およびY方向の直線を検出していた。しかし、本実施形態では、視野範囲6Aに傾きのずれを生じているため、画像データPの中の前方構造物10にも傾きを生じている。そこで、本実施形態の構造物エッジ判定部24はX方向およびY方向から所定角度傾斜している直線も抽出する。つまり、所定角度を傾斜角θとし、抽出された直線のうち傾斜角θの範囲内の直線を抽出する。
In the first embodiment described above, the structure
そして、X方向から傾斜角θの範囲内で傾斜した直線のうち、最も長い直線を前方構造物10のX方向の直線が傾斜したものとして判定する。ここでは、直線L5が最も長い直線となる。次に、直線L5を画像データPの両端まで延長した直線よりも下端(画像データPのうち最もダンプトラック1に近接している端部)側で検出された直線のうちY方向からの傾斜角θの範囲内の直線を抽出する。ここでは、直線L7およびL8が抽出される。そして、直線L7およびL8を延長する。これにより、図22(b)に示したように、直線L5と直線L7、L8との4つの交点C5乃至C8が検出される。これら交点C5乃至C8がエッジ線分データとなる。
Then, of the straight lines inclined within the range of the inclination angle θ from the X direction, the longest straight line is determined as the straight line of the
図23(a)は、エッジ線分データに基づいて、要警戒範囲31が設定されている状態を示している。視野範囲6Aに傾き方向のずれを生じていることから、要警戒範囲31も傾きを生じている。同時に、警戒不要範囲32も傾きを生じている。ただし、要警戒範囲31は全て画像データPの中に含まれている。そして、図23(a)の画像データPに対して歪み復元処理を行った画像が図23(b)に示す画像データPになる。図23(b)に示す画像データPが要警戒範囲画像生成部41に出力され、図24に示すような要警戒範囲画像が生成される。この要警戒範囲画像が障害物検出部42に出力され、障害物検出部42により作業員Mが障害物として検出される。
FIG. 23 (a) shows a state in which the
従って、ダンプトラック1の振動により、視野範囲6Aにずれを生じたとしても、要警戒範囲31を再び設定する必要はなく、前方構造物10に基づいて正しい要警戒範囲31が設定される。これにより、視野範囲6Aにずれを生じたとしても、要警戒範囲31に限定して障害物の検出を行うことができる。ただし、視野範囲6Aに傾きのずれを生じることで、オペレータの視認性は低下する。このような場合には、カメラ6の位置の修正を行い、傾きのずれを解消するようにしてもよい。
Therefore, even if a shift occurs in the
C:本発明の第3の実施形態
次に、第3の実施形態について説明する。本実施形態では、ダンプトラック1の走行速度に応じて、要警戒範囲31を変化させている。ダンプトラック1が停止状態の場合と低速に走行している場合と高速に走行している場合とでは、障害物を警戒すべき範囲も変化する。ダンプトラック1が停止状態のときには、それほど広範な範囲を要警戒範囲31とする必要がないが、ある程度の速度で走行しているときには、広範な範囲を要警戒範囲31とする必要がある。
C: Third Embodiment of the Present Invention Next, a third embodiment will be described. In the present embodiment, the
そこで、図25に示すように、本実施形態では、第2の実施形態に走行速度検出部45を追加している。ダンプトラック1には走行速度を検出する手段が備えられており、検出した走行速度を要警戒範囲設定部26に出力している。要警戒範囲設定部26は入力した走行速度の情報に基づいて、要警戒範囲31の大きさを変化させている。
Therefore, as shown in FIG. 25, in the present embodiment, a traveling
ここで、ダンプトラック1が停止している場合、低速または高速に走行している場合の何れの場合であっても、前方構造物10と要警戒範囲31との相対位置関係は一定である。よって、要警戒範囲31は走行速度を基準として、所定の範囲を要警戒範囲31とすることができる。具体的には、図31に示したように、要警戒範囲31の大きさを停止域から微速域における要警戒範囲311と、低速走行時の要警戒範囲312と、高速走行時の要警戒範囲313となるように変化させることができる。ここで、微速域は走行停止操作を行ったときには、ほぼその位置でダンプトラック1が停止する程度の速度である。なお、前述したダンプトラック1の作動時における要警戒範囲は警戒を必要とする範囲であり、モニタ9における画像表示範囲ではない。
Here, when the
D:本発明の第4の実施形態
第1の実施形態、第2の実施形態および第3の実施形態では、自走式産業機械としてダンプトラック1を適用したが、第4の実施形態では、自走式産業機械として油圧ショベルを適用している。ここでは、油圧ショベルにカメラ6を設置して、当該油圧ショベルの後方構造物50を抽出し、後方構造物50に基づいて要警戒範囲31を設定する場合を説明する。
D: Fourth Embodiment of the Present Invention In the first, second and third embodiments, the
図26は、歪み補正部21により歪み補正処理がされた画像データPを示している。油圧ショベルの後方構造物50は丸みを帯びているものが多く、画像データPの中の後方構造物50と背景との境界は所定の曲率半径で曲線性を有している。油圧ショベルの後方構造物50は背景色とは明確に異なる色に着色されている。従って、後方構造物50の輝度値と背景の輝度値とは大きく異なることになる。そこで、本実施形態では、画像データPの全画素について所定の輝度値(閾値)以上の輝度値を持つ画素を抽出する。なお、このときの閾値は、後方構造物50に着色された色を抽出できるような輝度値に設定する。
FIG. 26 shows image data P subjected to distortion correction processing by the
これにより、画像データPは閾値を境界にして二値化され、図27に示すように、後方構造物50を構成する画素が抽出される。ただし、後方構造物50以外にも、凹凸部Rの中に閾値以上の輝度値を有するエッジ画素が存在することもある。そこで、抽出された画素のうち画面下端に接触している画素の領域を後方構造物50として判定する。これにより、画像データPの中で後方構造物50が特定される。
Thereby, the image data P is binarized with the threshold as a boundary, and as shown in FIG. 27, the pixels constituting the
図28はモニタ9に表示されている表示画像の一例を示している。後方構造物50と要警戒範囲51との相対位置関係は一定であり、画像データPの中で後方構造物50を特定することで、仮想線で示す要警戒範囲51も設定される。そして、要警戒範囲51に限定して作業員Mを障害物として検出するができる。なお、同図は、視野範囲に傾きを生じている場合を示しており、このため画面全体が傾いて表示される。そして、ずれ情報Gが画像データPに重畳される。
FIG. 28 shows an example of a display image displayed on the
本実施形態では、二値化により後方構造物50を特定していたため、前述してきた平滑化処理部22、エッジ抽出部23、構造物エッジ判定部24、エッジ線分データ確定部25による各処理は不要である。ただし、所定の曲線性を有する後方構造物50を検出できるのであれば、これら各部の処理により後方構造物50を特定してもよい。また、前述してきた実施形態、つまりダンプトラック1において、前方構造物10を特定するときに、本実施形態のように二値化の手法を用いてもよい。
In the present embodiment, since the
なお、前述した各実施形態において、モニタ9に表示される画像はカメラ画像そのものであっても良く、また図29の原理に基づいて視点変換処理を行って俯瞰画像として表示することもできる。
In each of the embodiments described above, the image displayed on the
1 ダンプトラック
6 カメラ
6A 視野範囲
8 画像処理装置
9 モニタ
10 前方構造物
21 歪み補正部
22 平滑化処理部
23 エッジ抽出部
24 構造物エッジ判定部
25 エッジ線分データ確定部
26 要警戒範囲設定部
27 歪み復元部
28 表示画像作成部
31,311,312,313 要警戒範囲
32 警戒不要範囲
33 不感領域
41 要警戒範囲画像生成部
42 障害物検出部
43 マスク画像生成部
44 ずれ判定部
45 走行速度検出部
G ずれ情報
M 作業員
M1 障害物マーキング表示
P 画像データ(スルー画像)
P1 要警戒範囲画像
SPF,SPL,SPR,SPB 画像領域
P1 Warning range image SPF, SPL, SPR, SPB Image area
Claims (6)
前記撮影部(9)が撮影した画像データに基づいて、この画像データの中の前記構造物(10)を検出する構造物検出部(25)と、
前記画像データのうち、周辺領域内に位置する障害物(M)を検出し、この障害物(M)が含まれる所定の範囲を要警戒範囲(31,311,312,313)として、この要警戒範囲(31,311,312,313)を前記構造物検出部(25)が検出した前記構造物(10)に基づいて前記画像データの中に設定する要警戒範囲設定部(26)と、
を備えた自走式産業機械の画像処理装置。 A photographing unit (9) provided in the self-propelled industrial machine (1) and photographing a peripheral area including a part of a structure (10) constituting the self-propelled industrial machine (1) in a field of view;
A structure detection unit (25) that detects the structure (10) in the image data based on the image data captured by the imaging unit (9);
Among the image data, an obstacle (M) located in the peripheral area is detected, and a predetermined range including the obstacle (M) is set as a required alert range (31, 311, 312, 313). An alert range setting unit (26) for setting an alert range (31, 311, 312, 313) in the image data based on the structure (10) detected by the structure detection unit (25);
Image processing device for a self-propelled industrial machine equipped with
請求項1記載の自走式産業機械の画像処理装置。 The obstacle detection unit (42) according to claim 1, further comprising: an obstacle detection unit (42) configured to detect the obstacle (M) only in the alert range (31, 311, 312, 313) in the image data. Image processing device for self-propelled industrial machines.
請求項2記載の自走式産業機械の画像処理装置。 In the image data, a range other than the alert range (31, 311, 312, 313) is taken as the alert unnecessary range (32), and the difference between the pixel values of each pixel in the alert unnecessary range (32) Deviation determination to determine whether or not the visual field range of the imaging unit (9) has deviated beyond the allowable range based on the number of pixels of pixels whose difference in pixel value is equal to or greater than a predetermined threshold value. The image processing apparatus for a self-propelled industrial machine according to claim 2, further comprising: a section (44).
請求項2記載の自走式産業機械の画像処理装置。 The self-propelled industrial machine (1) includes a traveling speed detection unit (45) for detecting a traveling speed, and the alert range (31, 311,...) Based on the traveling speed detected by the traveling speed detection unit (45). The image processing apparatus for a self-propelled industrial machine according to claim 2, wherein
前記撮影部(9)が撮影した画像データに基づいて、この画像データの中の前記構造物(10)を検出し、
前記画像データのうちの周辺領域内に位置する障害物(M)を検出し、
この障害物(M)を含む所定の範囲を要警戒範囲(31,311,312,313)として、この要警戒範囲(31,311,312,313)を前記構造物検出部(25)が検出した前記構造物(10)に基づいて前記画像データの中に設定し、
前記画像データの中の前記要警戒範囲(31,311,312,313)のみに対して前記障害物(M)を検出する処理を行う
自走式産業機械の画像処理方法。 A photographing unit (9) is provided in the self-propelled industrial machine (1), and a surrounding area including a part of the structure of the self-propelled industrial machine (1) is photographed,
The structure (10) in the image data is detected based on the image data captured by the imaging unit (9),
Detecting an obstacle (M) located in a peripheral area of the image data;
The structure detection unit (25) detects the alert range (31, 311, 312, 313) with the predetermined range including the obstacle (M) as the alert range (31, 311, 312, 313) Setting in the image data based on the structure (10)
The image processing method of the self-propelled industrial machine which performs the process which detects the said obstruction (M) only with respect to the said caution range (31, 311, 312, 313) in the said image data.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014545734A JP6072064B2 (en) | 2012-11-08 | 2013-11-06 | Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012246190 | 2012-11-08 | ||
| JP2012-246190 | 2012-11-08 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2014073571A1 true WO2014073571A1 (en) | 2014-05-15 |
Family
ID=50684673
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2013/080022 Ceased WO2014073571A1 (en) | 2012-11-08 | 2013-11-06 | Image processing device for self-propelled industrial machine and image processing method for self-propelled industrial machine |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP6072064B2 (en) |
| WO (1) | WO2014073571A1 (en) |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016115259A (en) * | 2014-12-17 | 2016-06-23 | 日立建機株式会社 | Work machine and monitoring device of periphery of the same |
| JP2016144110A (en) * | 2015-02-04 | 2016-08-08 | 日立建機株式会社 | System for detecting mobile object outside vehicle body |
| WO2017022262A1 (en) * | 2015-08-06 | 2017-02-09 | 日立建機株式会社 | Surrounding monitoring device for operating machines |
| CN106462962A (en) * | 2014-06-03 | 2017-02-22 | 住友重机械工业株式会社 | Human body detection system for construction machinery |
| CN106462961A (en) * | 2014-06-03 | 2017-02-22 | 住友重机械工业株式会社 | Human detection system for construction machine |
| JP2017155491A (en) * | 2016-03-02 | 2017-09-07 | 株式会社神戸製鋼所 | Construction equipment interference prevention device |
| JP2018064191A (en) * | 2016-10-13 | 2018-04-19 | 日立建機株式会社 | Obstacle detection system and construction machine |
| WO2018164273A1 (en) * | 2017-03-10 | 2018-09-13 | 株式会社タダノ | Human detection system for work vehicle, and work vehicle equipped with same |
| JP2020173524A (en) * | 2019-04-09 | 2020-10-22 | 清水建設株式会社 | Monitoring system |
| JPWO2020027139A1 (en) * | 2018-07-31 | 2021-08-26 | 住友建機株式会社 | Excavator |
| JP2021185366A (en) * | 2018-03-29 | 2021-12-09 | ヤンマーパワーテクノロジー株式会社 | Obstacle detection system |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH06301782A (en) * | 1993-04-16 | 1994-10-28 | N T T Data Tsushin Kk | Monitor device |
| JP2002327470A (en) * | 2001-05-02 | 2002-11-15 | Komatsu Ltd | Work machine display |
| JP2008163719A (en) * | 2007-01-05 | 2008-07-17 | Hitachi Constr Mach Co Ltd | Work machine ambient monitoring device |
| JP2008248613A (en) * | 2007-03-30 | 2008-10-16 | Hitachi Constr Mach Co Ltd | Work machine periphery monitoring device |
| JP2009193494A (en) * | 2008-02-18 | 2009-08-27 | Shimizu Corp | Alarm system |
| JP2010198519A (en) * | 2009-02-27 | 2010-09-09 | Hitachi Constr Mach Co Ltd | Periphery monitoring device |
| JP2010218246A (en) * | 2009-03-17 | 2010-09-30 | Toyota Motor Corp | Object identification device |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008027309A (en) * | 2006-07-24 | 2008-02-07 | Sumitomo Electric Ind Ltd | Collision determination system and collision determination method |
| JP2008108135A (en) * | 2006-10-26 | 2008-05-08 | Sumitomo Electric Ind Ltd | Obstacle detection system and obstacle detection method |
| JP2009086788A (en) * | 2007-09-28 | 2009-04-23 | Hitachi Ltd | Vehicle periphery monitoring device |
| JP5208790B2 (en) * | 2009-02-04 | 2013-06-12 | アイシン精機株式会社 | Image processing apparatus, image processing method, and program |
| JP5853206B2 (en) * | 2011-03-31 | 2016-02-09 | パナソニックIpマネジメント株式会社 | In-vehicle display device |
-
2013
- 2013-11-06 JP JP2014545734A patent/JP6072064B2/en active Active
- 2013-11-06 WO PCT/JP2013/080022 patent/WO2014073571A1/en not_active Ceased
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH06301782A (en) * | 1993-04-16 | 1994-10-28 | N T T Data Tsushin Kk | Monitor device |
| JP2002327470A (en) * | 2001-05-02 | 2002-11-15 | Komatsu Ltd | Work machine display |
| JP2008163719A (en) * | 2007-01-05 | 2008-07-17 | Hitachi Constr Mach Co Ltd | Work machine ambient monitoring device |
| JP2008248613A (en) * | 2007-03-30 | 2008-10-16 | Hitachi Constr Mach Co Ltd | Work machine periphery monitoring device |
| JP2009193494A (en) * | 2008-02-18 | 2009-08-27 | Shimizu Corp | Alarm system |
| JP2010198519A (en) * | 2009-02-27 | 2010-09-09 | Hitachi Constr Mach Co Ltd | Periphery monitoring device |
| JP2010218246A (en) * | 2009-03-17 | 2010-09-30 | Toyota Motor Corp | Object identification device |
Cited By (28)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6997066B2 (en) | 2014-06-03 | 2022-01-17 | 住友重機械工業株式会社 | Human detection system |
| EP3154024A4 (en) * | 2014-06-03 | 2017-11-15 | Sumitomo Heavy Industries, Ltd. | Human detection system for construction machine |
| CN106462962B (en) * | 2014-06-03 | 2020-08-04 | 住友重机械工业株式会社 | Human detection system for construction machinery and excavator |
| US10465362B2 (en) | 2014-06-03 | 2019-11-05 | Sumitomo Heavy Industries, Ltd. | Human detection system for construction machine |
| JP2019053753A (en) * | 2014-06-03 | 2019-04-04 | 住友重機械工業株式会社 | Person detection system and work machine |
| CN106462962A (en) * | 2014-06-03 | 2017-02-22 | 住友重机械工业株式会社 | Human body detection system for construction machinery |
| CN106462961A (en) * | 2014-06-03 | 2017-02-22 | 住友重机械工业株式会社 | Human detection system for construction machine |
| US20170073934A1 (en) * | 2014-06-03 | 2017-03-16 | Sumitomo Heavy Industries, Ltd. | Human detection system for construction machine |
| US10824853B2 (en) | 2014-06-03 | 2020-11-03 | Sumitomo Heavy Industries, Ltd. | Human detection system for construction machine |
| EP3154025A4 (en) * | 2014-06-03 | 2017-07-12 | Sumitomo Heavy Industries, Ltd. | Human detection system for construction machine |
| JP2016115259A (en) * | 2014-12-17 | 2016-06-23 | 日立建機株式会社 | Work machine and monitoring device of periphery of the same |
| JP2016144110A (en) * | 2015-02-04 | 2016-08-08 | 日立建機株式会社 | System for detecting mobile object outside vehicle body |
| US9990543B2 (en) | 2015-02-04 | 2018-06-05 | Hitachi Construction Machinery Co., Ltd. | Vehicle exterior moving object detection system |
| CN106797450A (en) * | 2015-02-04 | 2017-05-31 | 日立建机株式会社 | Vehicle exterior moving object detection system |
| CN106797450B (en) * | 2015-02-04 | 2019-12-20 | 日立建机株式会社 | Vehicle body external moving object detection device |
| WO2016125332A1 (en) * | 2015-02-04 | 2016-08-11 | 日立建機株式会社 | System for detecting moving object outside vehicle body |
| JP2017030688A (en) * | 2015-08-06 | 2017-02-09 | 日立建機株式会社 | Periphery monitoring device of work machine |
| WO2017022262A1 (en) * | 2015-08-06 | 2017-02-09 | 日立建機株式会社 | Surrounding monitoring device for operating machines |
| JP2017155491A (en) * | 2016-03-02 | 2017-09-07 | 株式会社神戸製鋼所 | Construction equipment interference prevention device |
| US11111654B2 (en) * | 2016-03-02 | 2021-09-07 | Kabushiki Kaisha Kobe Seiko Sho (Kobe Steel, Ltd.) | Interference prevention device for construction machinery |
| JP2018064191A (en) * | 2016-10-13 | 2018-04-19 | 日立建機株式会社 | Obstacle detection system and construction machine |
| WO2018164273A1 (en) * | 2017-03-10 | 2018-09-13 | 株式会社タダノ | Human detection system for work vehicle, and work vehicle equipped with same |
| CN110383831A (en) * | 2017-03-10 | 2019-10-25 | 株式会社多田野 | Personnel's detection system of working truck and the working truck for having the system |
| JP2018152685A (en) * | 2017-03-10 | 2018-09-27 | 株式会社タダノ | Person detection system for work vehicle and work vehicle including the same |
| JP2021185366A (en) * | 2018-03-29 | 2021-12-09 | ヤンマーパワーテクノロジー株式会社 | Obstacle detection system |
| JPWO2020027139A1 (en) * | 2018-07-31 | 2021-08-26 | 住友建機株式会社 | Excavator |
| JP7396987B2 (en) | 2018-07-31 | 2023-12-12 | 住友建機株式会社 | excavator |
| JP2020173524A (en) * | 2019-04-09 | 2020-10-22 | 清水建設株式会社 | Monitoring system |
Also Published As
| Publication number | Publication date |
|---|---|
| JPWO2014073571A1 (en) | 2016-09-08 |
| JP6072064B2 (en) | 2017-02-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6072064B2 (en) | Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine | |
| KR101448411B1 (en) | Three-dimensional object detection device and three -dimensional object detection method | |
| JP5995899B2 (en) | Self-propelled industrial machine image processing device | |
| JP6126094B2 (en) | In-vehicle image recognition device | |
| JP6267972B2 (en) | Work machine ambient monitoring device | |
| JP3780922B2 (en) | Road white line recognition device | |
| US9773177B2 (en) | Surrounding environment recognition device | |
| JP5902990B2 (en) | Self-propelled industrial machine image processing device | |
| KR101464489B1 (en) | Method and system for detecting an approaching obstacle based on image recognition | |
| JP6542539B2 (en) | Vehicle accessibility determination device | |
| WO2018225446A1 (en) | Map points-of-change detection device | |
| JP2002197470A (en) | Lane detection device | |
| JP4930046B2 (en) | Road surface discrimination method and road surface discrimination device | |
| WO2016076449A1 (en) | Method and system for detecting an approaching obstacle based on image recognition | |
| JP6878221B2 (en) | Obstacle detection system for work machines | |
| JP2019003606A (en) | Map change point detector | |
| JPWO2016140016A1 (en) | Vehicle surroundings monitoring device | |
| CN110659552A (en) | Tramcar obstacle detection and alarm method | |
| JP7280852B2 (en) | Person detection system, person detection program, trained model generation program and trained model | |
| JP2007280387A (en) | Object movement detection method and detection apparatus | |
| JP3532896B2 (en) | Smear detection method and image processing apparatus using the smear detection method | |
| KR101531313B1 (en) | Apparatus and method for object detection of vehicle floor | |
| JP2018005441A (en) | Inter-vehicle distance alarm and collision alarm device | |
| US20190102902A1 (en) | System and method for object detection | |
| JP6868996B2 (en) | Obstacle detection system and construction machinery |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13852710 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2014545734 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 13852710 Country of ref document: EP Kind code of ref document: A1 |