WO2018025825A1 - Image capture system - Google Patents
Image capture system Download PDFInfo
- Publication number
- WO2018025825A1 WO2018025825A1 PCT/JP2017/027790 JP2017027790W WO2018025825A1 WO 2018025825 A1 WO2018025825 A1 WO 2018025825A1 JP 2017027790 W JP2017027790 W JP 2017027790W WO 2018025825 A1 WO2018025825 A1 WO 2018025825A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- imaging
- images
- unit
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B37/00—Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
Definitions
- the present invention relates to an imaging system that generates an omnidirectional image.
- VR virtual reality
- HMD head mounted display
- the user can recognize an image having a three-dimensional effect by wearing the HMD on the head and viewing the screen built in the HMD with both eyes.
- the HMD incorporates a gyro sensor and an acceleration sensor, and the image displayed on the screen changes according to the movement of the user's head detected by these sensors. As a result, the user can experience as if it were embedded in a three-dimensionally displayed image (virtual space).
- An image to be a material of VR is acquired by capturing an image of a real subject with a camera, configuring it with computer graphics, or combining both.
- images of a plurality of frames generated by repeating imaging while changing the direction of the camera have been stitched together.
- a camera hereinafter, also referred to as a "all-sky camera" capable of picking up an image (so-called all-sky image) in which a 360.degree. Reference 1 and 2) are put to practical use.
- the omnidirectional camera it is possible to easily and quickly acquire an image containing substantially the entire subject around the camera.
- an image for VR can be easily created by imaging each room of a facility or a real estate property with an omnidirectional camera.
- an omnidirectional camera there is a problem that a photographer operating the omnidirectional camera may be reflected in an image. Therefore, in the related art, it has been necessary to set up the omnidirectional camera at the site, move the photographer to the next room or hide behind objects, and remotely perform imaging.
- Patent Document 2 is an imaging device that simultaneously captures a plurality of images for generating a omnidirectional image, and is generated from a captured image captured by the imaging device or the captured image. In the generated image, it is determined whether or not the image of the support supporting the imaging device is within a predetermined range, and based on the determination result, guide information for changing the position of the viewpoint at which the camera captures an image A technology to notify is disclosed. That is, in Patent Document 2, by notifying the photographer of the guide information, an image suitable for removing the image of the photographer is acquired.
- an area (photographer's area) where the photographer is photographed is extracted from the acquired image, and the photographer is arranged by arranging a texture image based on another area (for example, the ground area where the ground is photographed) to this area. Has erased the image.
- Patent Document 2 since the photographer has to adjust his / her position and the position of the camera according to the guide information, the imaging operation is troublesome. Further, image processing for extracting a photographer area and a ground area from the acquired image is also complicated.
- the present invention has been made in view of the above, and can easily perform an imaging operation of an omnidirectional image at a site such as a facility or a real estate property, and an image of a photographer from the acquired omnidirectional image It is an object of the present invention to provide an imaging system capable of erasing unnecessary portions such as by simple image processing.
- the imaging system which is one mode of the present invention generates the picture in which the subject included in the range of 360 degrees of all directions of a circumference was photographed by one imaging operation, and the above-mentioned imaging device
- An image data acquisition unit configured to acquire image data of a plurality of images generated by imaging the same subject a plurality of times in the plurality of images, wherein positions of objects other than the subject with respect to the imaging device are different;
- an image processing unit configured to generate an image in which the image of the object is erased by combining a plurality of images.
- the imaging system includes a server that manages an image, and a portable terminal connected to the server via a communication network, the image data acquisition unit is provided in the portable terminal, and the image processing unit is Provided in a server, the portable terminal transmits image data of the plurality of images acquired by the image data acquisition unit to the server, the server receives image data of the plurality of images, and the image data
- the image processing unit may execute image processing based on the above.
- the image processing unit may further generate image data for virtual reality by using image data of an image from which an image of the object has been erased.
- the imaging system includes a server that manages an image, and a portable terminal connected to the server via a communication network, and the image data acquisition unit and the image processing unit are provided in the portable terminal.
- the portable terminal may transmit the image data of the image from which the image of the object generated by the image processing unit is erased to the server.
- the server may further include a second image processing unit that generates image data for virtual reality using image data of an image from which the image of the object has been erased.
- the portable terminal includes a display unit, an input device for inputting a signal according to an operation performed from the outside, and one of the plurality of images displayed on the display unit.
- a signal for selecting at least one region in the one image is input from an input device, the signal in the other image of the plurality of images for the at least one region in the one image is input.
- a display control unit that causes the display unit to display an area corresponding to the at least one area in an overlapping manner, and further, to the server, positional information indicating the position of the at least one area in the one image.
- the image processing unit may transmit, and in addition to the image data of the plurality of images, the position information may be used to generate an image in which the image of the object is erased.
- the portable terminal includes a display unit, an input device for inputting a signal according to an operation performed from the outside, and a display control unit which causes one of the plurality of images to be displayed on the display unit.
- the image processing unit adds the image data of the plurality of images when the signal for selecting at least one area in the one image is input from the input device.
- Position information representing a position of the at least one region in one image may be used to generate an image in which the image of the object is erased.
- the portable terminal acquires image data of the other image from the imaging device when a signal for selecting at least one region in the one image is input from the input device. Also good.
- the mobile terminal changes the position of the object after the first imaging is finished, a display unit, and a first imaging instruction screen instructing to execute the first imaging by the imaging device.
- the display control unit may further include: a display control unit that causes the display unit to sequentially display a second imaging instruction screen that instructs the imaging device to execute a second imaging operation.
- the image processing unit extracts an area in which a change in pixel value occurs among the plurality of images, and a plurality of pixel values of the area in one image of the plurality of images are detected. The pixel value of the area in another image among the images of
- the imaging system further includes a display unit, an input device for inputting a signal according to an operation performed from the outside, and a display control unit for displaying one of the plurality of images on the display unit.
- the image processing unit may be configured to input a plurality of pixel values of the at least one region in the one image, when a signal for selecting at least one region in the one image is input from the input device. The pixel value of the area corresponding to the at least one area in the other image among the images of.
- the imaging system further includes a display unit, an input device for inputting a signal according to an operation performed from the outside, and a display control unit for displaying one of the plurality of images on the display unit.
- the image processing unit extracts at least one region in which a change in pixel value occurs among the plurality of images, and the display control unit causes the display unit to display the one image displayed on the display unit.
- At least one mark respectively representing the at least one region extracted by the processing unit is superimposed and displayed, and the image processing unit is a signal for selecting at least one of the at least one mark from the input device.
- the pixel value of the area corresponding to the at least one mark in the one image corresponds to that in another of the plurality of images. It may be replaced with the pixel values of the range.
- the imaging system further includes a display unit, an input device for inputting a signal according to an operation performed from the outside, and a display control unit that superimposes the plurality of images and causes the display unit to display the images.
- the processing unit may make the area transparent when a signal for selecting an area in the top layer image displayed on the display unit among the plurality of images is input from the input device.
- the display control unit may cause the display unit to display an image obtained by projecting the one image on a plane.
- the display control unit may cause the display unit to display an image obtained by performing coordinate conversion of the one image into an orthogonal coordinate system.
- the imaging system includes: a storage unit storing image data of an image specifying a position of an imaging location; and a mapping processing unit mapping image data of the plurality of images to image data of an image specifying the position You may provide further.
- the imaging device by causing the imaging device to capture the same subject a plurality of times, a plurality of images different in the position of an object other than the subject with respect to the imaging device are acquired, and the object is eliminated by combining these images. Because the generated image is generated, it is possible to easily perform the imaging operation of the omnidirectional image at the site, and unnecessary portions such as the image of the photographer from the acquired omnidirectional image can be simply processed. It becomes possible to erase.
- VR virtual reality
- FIG. 1 is a schematic view showing a schematic configuration of an imaging system according to a first embodiment of the present invention.
- the imaging system 1 shown in FIG. 1 includes a server 10 that manages information on real estate properties (hereinafter referred to as “property information”) and an image on the real estate properties, and a mobile terminal that acquires image data of real estate properties and transfers it to the server 10 20 and an imaging device 30.
- the server 10 and the portable terminal 20 are connected via the communication network N.
- the portable terminal 20 and the imaging device 30 may be directly connected by wire or wireless, or may be connected via the communication network N.
- the communication network N for example, an Internet line, a telephone line, a LAN, a dedicated line, a mobile communication network, a communication line such as WiFi (Wireless Fidelity), Bluetooth (registered trademark), or a combination thereof is used.
- the communication network N may be wired, wireless, or a combination of these.
- FIG. 2 is a block diagram showing a schematic configuration of the server 10.
- the server 10 is a device that accumulates and manages image data of an image in which a real estate property is photographed, and is configured by, for example, a computer.
- the server 10 does not necessarily have to be configured by one computer, and for example, the server 10 may be configured by a plurality of computers connected to the communication network N.
- the server 10 includes a communication unit 11, a storage unit 12, and an arithmetic unit 13.
- the communication unit 11 is an interface that connects the server 10 to the communication network N and communicates with other devices connected to the communication network N.
- the communication unit 11 is configured using, for example, a soft modem, a cable modem, a wireless modem, an ADSL modem, or the like.
- the storage unit 12 is a computer-readable storage medium such as a semiconductor memory such as a ROM or a RAM or a hard disk, and includes a program storage unit 121, an image data storage unit 122, and a property information database 123.
- the program storage unit 121 stores, in addition to the operating system program and the driver program, application programs for executing various functions, various parameters used during execution of these programs, and the like. Specifically, the program storage unit 121 manages property information, and performs image processing based on the image data acquired by the imaging device 30 and transferred via the portable terminal 20, thereby processing the image data of the VR image. And a program for causing the calculation unit 13 to execute a series of operations for managing the image data in association with property information.
- the image data storage unit 122 is image data of an image showing a real estate property, image data of an image obtained by constructing this image for VR (hereinafter referred to as “VR image data”), and image data of a floor plan of real estate property Hereinafter, “lay-out data” is stored.
- the property information database 123 stores, in the image data storage unit 122, information on properties for which image data is stored.
- the property information is identification information (property ID) for identifying the property information, the location of the property, and an image in which the image data, VR image data, and floor plan data of the property are stored. It includes an address or the like representing a storage area on the data storage unit 122.
- the arithmetic unit 13 is configured by using, for example, a central processing unit (CPU) or a graphics processing unit (GPU), and reads various programs stored in the program storage unit 121 to centrally control the respective units of the server 10.
- the imaging system 1 executes various arithmetic processing for managing the image data of the property.
- the calculation unit 13 includes a property information registration unit 131, a property information extraction unit 132, a property information update unit 133, and an image processing unit 134.
- the property information registration unit 131 registers property information in the property information database 123 based on the information input via the communication network N. Specifically, when information such as the location or floor plan of a real estate property, rent or selling price is input, the property ID is issued, and the input information is linked to the property ID and recorded in the property information database 123 Do.
- the property information extraction unit 132 extracts property information associated with the property ID from the property information database 123.
- the property information updating unit 133 updates property information in accordance with the information input via the communication network N.
- the image processing unit 134 executes predetermined image processing on the image of the real estate based on the image data input via the communication network N.
- the image processing unit 134 includes an image combining unit 135 and a VR image data generating unit 136.
- the image combining unit 135 combines a plurality of images acquired by capturing the same subject a plurality of times to obtain an unnecessary object reflected in these images, that is, an object other than the subject to be captured. Erase the image.
- the VR image data generation unit 136 generates image data for VR based on the image from which the image of the unnecessary object has been erased by the image synthesis unit 135.
- FIG. 3 is a block diagram showing a schematic configuration of the portable terminal 20.
- the mobile terminal 20 is a device for controlling a series of operations for imaging using the imaging device 30 at the site of a real estate property, such as a smartphone, a tablet terminal, a mobile phone, and a personal digital assistant (PDA), for example. It is comprised by the portable apparatus which can transmit / receive information via the communication network N.
- PDA personal digital assistant
- the mobile terminal 20 includes a communication unit 21, an input unit 22, a display unit 23, a reading unit 24, a storage unit 25, and an arithmetic unit 26.
- the communication unit 21 is an interface that connects the portable terminal 20 to the communication network N and communicates with the server 10 and other devices.
- the communication unit 21 communicates with the imaging device 30 via a communication cable or by wireless communication.
- the communication unit 21 is configured using, for example, an ISDN modem, an ADSL modem, a cable modem, an optical modem, a soft modem, and the like.
- the input unit 22 is an input device such as an operation button or a touch panel provided on the display unit 23, and inputs a signal corresponding to an operation performed from the outside to the calculation unit 26.
- the display unit 23 is, for example, a liquid crystal display or an organic EL display, and displays an icon for a user to perform an input operation, a text message, an image, and the like.
- the reading unit 24 is, for example, a camera incorporated in the mobile terminal 20, and has a function of recognizing an identification code such as a two-dimensional code.
- the portable terminal 20 does not necessarily have to have a built-in camera.
- a reader device capable of recognizing the identification code may be externally attached.
- the storage unit 25 is a computer-readable storage medium such as a semiconductor memory such as a ROM or a RAM, and includes a program storage unit 251 and an image data storage unit 252.
- the program storage unit 251 stores, in addition to the operating system program and the driver program, various application programs, various parameters used during execution of these programs, and the like. Specifically, the program storage unit 251 stores an application program for causing the computing unit 26 to execute a series of operations for acquiring image data by causing the imaging device 30 to perform imaging of a real estate property.
- the image data storage unit 252 stores floor plan data of real estate properties transmitted from the server 10 and image data generated by the imaging device 30 performing imaging.
- Arithmetic unit 26 is configured using, for example, a central processing unit (CPU) or a graphics processing unit (GPU), and reads various programs stored in program storage unit 251 to control each part of portable terminal 20 in an integrated manner. At the same time, a series of operations for acquiring image data of a real estate property from the imaging device 30 are executed.
- the calculation unit 26 includes an identification information acquisition unit 261, a display control unit 262, an image data acquisition unit 263, and a mapping processing unit 264.
- the identification information acquisition unit 261 acquires information such as a property ID represented by the identification code.
- the identification code an optically readable code such as a bar code or a two-dimensional code is used.
- the display control unit 262 causes the imaging device 30 to image the same subject multiple times, thereby displaying on the display unit 23 during a series of imaging operations for acquiring a plurality of images in which the position of an object other than the object with respect to the imaging device 30 is different.
- the screen to be displayed is generated and displayed on the display unit 23.
- the image data acquisition unit 263 takes in the image data output from the imaging device 30, and causes the image data storage unit 252 to store the image data of the images acquired by imaging the same subject a plurality of times in association with each other.
- the mapping processing unit 264 acquires floor plan data of a real estate property from the server 10, and performs mapping of the image data acquired by the image data acquisition unit 263 from the imaging device 30 on the floor plan data.
- FIG. 4 is a schematic view illustrating the appearance of the imaging device 30.
- FIG. 5 is a block diagram showing a schematic configuration of the imaging device 30.
- the imaging device 30 is a so-called all-sky camera capable of imaging 360 degrees of all directions around it by one imaging operation, and as shown in FIG. 4, two super wide-angle lenses 30a attached to a housing 30c, 30b, and two imaging units (a first imaging unit 31a and a second imaging unit 31b) that each include a CCD image sensor or a CMOS image sensor, and generate and output image data of a color image.
- Each of the super wide-angle lenses 30a, 30b has an angle of view of at least 180 °.
- the first imaging unit 31a is provided such that a light receiving surface for receiving light from a subject faces the outside through the super wide-angle lens 30a.
- an optical system such as a prism is disposed between the super wide-angle lens 30a and the first imaging unit 31a to make the light collected by the super wide-angle lens 30a incident on the light receiving surface of the first imaging unit 31a. ing.
- a hemispherical image having a horizontal angle of view of 180 ° and a vertical angle of view of 180 ° can be acquired by the first imaging unit 31a.
- the super wide-angle lens 30 b and the second imaging unit 31 b also have the same configuration.
- the imaging device 30 includes a communication unit 32, a storage unit 33, an operation unit 34, and a control unit 35 in addition to the first imaging unit 31 a and the second imaging unit 31 b.
- the communication unit 32 is an interface that connects the imaging device 30 to the portable terminal 20 via a communication cable or by wireless communication.
- the storage unit 33 is, for example, a semiconductor memory such as a ROM or a RAM, and temporarily stores image data output from the first imaging unit 31a and the second imaging unit 31b.
- the operation unit 34 is an input device such as a push button, for example, and inputs an imaging instruction to the control unit 35 in response to an input operation (shutter operation) of the user.
- the input of the imaging instruction to the imaging device 30 may be performed by remote operation from the portable terminal 20 connected to the imaging device 30, in addition to directly operating the operation unit 34.
- the control unit 35 is configured using, for example, a central processing unit (CPU) or a graphics processing unit (GPU), controls the operation of the imaging device 30, and outputs each of the first imaging unit 31a and the second imaging unit 31b. Predetermined image processing is performed on the image based on the selected image data. Specifically, the control unit 35 performs image processing such as white balance processing and gamma processing on hemispherical images based on the image data output from the first imaging unit 31a and the second imaging unit 31b, respectively, and further, And an image processing unit 351 that generates an omnidirectional image by combining the hemispherical images.
- image processing such as white balance processing and gamma processing
- an all-sky digital camera (product name: THETA) manufactured by Ricoh Co., Ltd. can be used.
- FIG. 6 is a flowchart showing the operation of the imaging system 1.
- the photographer Prior to imaging a real estate property, the photographer obtains a property ID of the property to be imaged.
- the method of obtaining the property ID is not particularly limited, but as an example, as shown in FIG. 7, a flyer printed with an identification code (for example, a two-dimensional code) m11 representing the property ID may be obtained.
- an identification code for example, a two-dimensional code
- information such as the floor plan m12 of the property and the location of the property are printed on the flyer M1.
- step S20 the photographer activates an imaging application on the portable terminal 20, and the reading unit 24 reads the identification code m11 printed on the leaflet M1.
- FIG. 8 is a schematic view illustrating an identification code reading screen displayed on the portable terminal 20 after activation of the imaging application. First, the photographer holds the reading unit 24 over the identification code m11 printed on the leaflet M1 in accordance with the message m21 displayed on the identification code reading screen M2.
- the portable terminal 20 reads the identification code m11, accesses the server 10 by the URL included in the read information, and transmits the property ID included in the read information to the server 10 (step S21).
- object ID to the server 10 is not limited to this.
- the photographer may directly input the property ID to the portable terminal 20 and transmit it.
- step S10 the server 10 receives the property ID.
- the property information extraction unit 132 of the server 10 searches the property information database 123, and extracts property information corresponding to the received property ID.
- step S12 the property information extraction unit 132 of the server 10 acquires the address of the storage area in which the floor plan data is stored from the extracted property information, and the floor plan data from the image data storage unit 122 according to this address. It reads out and transmits to the portable terminal 20.
- step S22 the portable terminal 20 receives the floor plan data, and displays the floor plan on the display unit 23 (step S23).
- FIG. 9 is a schematic view illustrating an imaging location selection screen on which a floor plan is displayed.
- FIG. 10 is a schematic view illustrating a confirmation screen of the selected imaging location.
- the photographer follows a message m32 displayed on the imaging location selection screen M3 shown in FIG. 9 and performs a predetermined operation (for example, a tap operation) at a position (for example, LDK) on the floor plan m31 corresponding to the location to be imaged Do.
- the portable terminal 20 selects a position on the floor plan m31 at which the operation is detected as an imaging location (step S24), and displays the pin m33 at this position (see FIG. 10).
- the imaging location confirmation screen M4 shown in FIG. 10 displays a message m34 for confirming the imaging location, a confirmation button m35, and a change button m36.
- a predetermined operation for example, a tap operation
- the portable terminal 20 determines the selected imaging location.
- detecting a predetermined operation for example, a tap operation
- the portable terminal 20 cancels the selection of the imaging location and displays the imaging location selection screen M3 shown in FIG. 9 again.
- the portable terminal 20 acquires an image by causing the imaging device 30 to perform the first imaging. Specifically, as illustrated in FIG. 11, the portable terminal 20 first displays an imaging instruction screen (first time) M5 on which a message m37 instructing execution of imaging is displayed. When the photographer performs a shutter operation on the imaging device 30 according to the message m37, the imaging device 30 starts imaging and generates image data of a omnidirectional image in which a subject around the imaging device 30 is captured. The image data is transferred from the imaging device 30 to the portable terminal 20 via a communication cable or wireless communication.
- the imaging device 30 when imaging is performed, preferably, the imaging device 30 may be fixed using a tripod or the like. More preferably, the shutter operation may be performed from a position slightly away from the imaging device 30 by using the self-timer function of the imaging device 30 or by performing remote operation from the portable terminal 20 or the like. This is to reduce composition change and blurring during multiple imagings as much as possible.
- FIG. 12 is a schematic view illustrating the state of the first imaging at the selected imaging location (for example, LDK).
- FIG. 13 is a schematic view illustrating the first image acquired when imaging is performed in the positional relationship shown in FIG.
- FIG. 13 shows a state in which a part of the subject captured in the omnidirectional image (for example, the subject captured in the area of the hemisphere) is projected on a plane.
- the photographer 2 performs imaging in a state of standing on the left side of the imaging device 30 in the drawing. Therefore, as shown in FIG. 13, the image 2 'of the photographer is reflected at the left position of the image I1.
- the portable terminal 20 acquires an image by causing the imaging device 30 to perform the second and subsequent imaging. Specifically, the portable terminal 20 first displays an imaging instruction screen (second and subsequent times) M6 illustrated in FIG. In the imaging instruction screen M6, a message m38 instructing movement of only the photographer to perform a second imaging is displayed without moving the camera (imaging device 30). According to this message m38, the photographer moves himself while maintaining the position of the imaging device 30, and when the shutter operation is performed in this state, the imaging device 30 starts imaging and the subject around the imaging device 30 is Generate image data of the photographed omnidirectional image. This image data is also transferred from the imaging device 30 to the portable terminal 20.
- an imaging instruction screen M6 illustrated in FIG.
- a message m38 instructing movement of only the photographer to perform a second imaging is displayed without moving the camera (imaging device 30).
- the imaging device 30 starts imaging and the subject around the imaging device 30 is Generate image data of the photographed omnidirectional image. This image data is also transferred from the imaging device 30 to the portable terminal 20.
- FIG. 15 is a schematic view illustrating the state of the second imaging.
- FIG. 16 is a schematic view illustrating a second image acquired when imaging is performed in the positional relationship shown in FIG.
- FIG. 16 shows a state in which a part of the subject captured in the omnidirectional image (for example, the subject captured in the area of the hemisphere) is projected on a plane.
- the photographer 2 performs imaging in a state where the imaging device 30 stands on the right side of the figure. Therefore, as shown in FIG. 16, the image 2 'of the photographer is reflected at the position on the right side of the image I2.
- each staff when imaging is performed by a plurality of staff members including the photographer, each staff also moves between the imaging operations each time as in the case of the photographer 2. In short, it is only necessary to acquire a plurality of images having different relative positions between the imaging device 30 and the staff.
- FIG. 17 is a schematic view illustrating the imaging confirmation screen displayed on the portable terminal 20.
- the imaging confirmation screen M7 illustrated in FIG. 17 includes a message m39 asking whether imaging is successful, a success button m40, and a redo button m41.
- a predetermined operation for example, a tap operation
- the portable terminal 20 erases the image data regarding the imaging location transferred from the imaging device 30. In this case, the photographer can redo imaging in a place where the pin m33 is displayed on the floor plan m31.
- the image data storage unit 252 associates image data generated by performing imaging a plurality of times at the imaging location as one group.
- the number of times of imaging in step S26 can be set as appropriate. For example, in the case of automatically performing image processing for deleting the image of the photographer from the omnidirectional image, imaging is performed at least three times in total (including step S25). In addition, in the case of manually selecting the image of the photographer from the omnidirectional image, the imaging may be performed at least twice in total.
- the mapping processing unit 264 maps the image data transferred from the imaging device 30 on the floor plan data. Thereby, the transferred image data is associated with the position specified by the pin m33 on the floor plan m31.
- FIG. 18 is a schematic view illustrating an imaging location change screen displayed on the portable terminal 20 after the end of imaging at one imaging location.
- the imaging location change screen M8 illustrated in FIG. 18 includes, in addition to the floor plan m31, a message m42 for selecting the next imaging location, and an end button m43.
- the portable terminal 20 displays an imaging location confirmation screen (see FIG. 10) in which the pin m33 is displayed at the position according to the operation. The photographer captures an image of all the rooms of the real estate property by repeating such an operation.
- the portable terminal 20 displays an imaging completion confirmation screen illustrated in FIG.
- the imaging completion confirmation screen M9 shown in FIG. 19 includes a message m44 asking whether imaging of all rooms is completed, a YES button m45, and a NO button m46.
- the portable terminal 20 displays the imaging location selection screen M3 shown in FIG. 9 again. Thus, the photographer can continue imaging.
- the transmission confirmation screen M10 shown in FIG. 20 includes a message m47 asking whether to transmit image data, a button m48 for inputting an instruction to transmit now, and a button m49 for inputting an instruction to be transmitted later. And.
- the portable terminal 20 transmits the image data of the property transferred from the imaging device 30 and the floor plan data after the mapping process to the server 10 via the communication network N.
- the portable terminal 20 detects an operation on the button m49, it does not transmit image data etc. on the spot, and stores the image data of the property and the floor plan data after the mapping process in the image data storage unit 252 . In this case, the portable terminal 20 transmits the image data and the floor plan data to the server 10 when receiving the transmission instruction separately.
- the photographer may transmit the image data and floor plan data of the property to the server 10 at the site of the real estate property, or may transmit when the communication environment with the server 10 is established. For example, when the number of rooms to be imaged is large, it is expected that data transmission will take a long time, so it is preferable to use the latter.
- the image data may be directly transmitted from the portable terminal 20 to the server 10, or the image data may be transmitted from the portable terminal 20 to the computer via the communication cable, and the image data may be transmitted from the computer to the server 10. Also good.
- step S28 the portable terminal 20 transmits the image data of the property and the floor plan data after the mapping process to the server 10.
- the server receives these data.
- the property information updating unit 133 of the server 10 updates the floor plan data stored in the image data storage unit 122 with the floor plan data after the mapping process received in step S13.
- the image processing unit 134 performs image processing on the image based on the image data of the property received in step S13. Specifically, the image combining unit 135 performs processing of erasing the image of the photographer from a plurality of omnidirectional images obtained by imaging the same subject (the same room) a plurality of times.
- the image I1 shown in FIG. 13 and the image I2 shown in FIG. 16 are images obtained by imaging the same subject while changing the position of the photographer with respect to the imaging device 30. Therefore, in each of the images I1 and I2, only the position of the image 2 'of the photographer reflected in each image is different, and the images of the other objects are common. Therefore, the image 2 'of the photographer can be extracted by detecting the area (for example, the area 3 shown in FIG. 21) in which there is a change between the image I1 and the image I2.
- the pixel value of the pixel located at the coordinate x of the image I1 is p (x)
- the pixel value of the pixel located at the coordinate x of the image I2 is q (x)
- is binarized by the threshold value Th, and contour tracking is performed on the obtained binary image to obtain the image 2 ′ of the photographer and the original subject. Can be separated and extracted.
- an image A, an image B, and an image C obtained by imaging the same subject at least three times
- the images A and B and The area of the image of the photographer in the image B is extracted by taking the AND of the image of the photographer extracted from the difference image of and the image of the photographer extracted from the difference image of the image B and the image C.
- an image of the same area in another image is fitted to the area of the image of the photographer extracted from the image B. That is, the pixel values of pixels in the region of the image of the photographer in image B are replaced with the pixel values of pixels in the corresponding region in another image.
- an image I3 in which the image of the photographer is erased as shown in FIG. 22 can be obtained.
- the imaging device 30 when the imaging device 30 is fixed using a tripod etc. at the time of imaging, about the area
- the entire area has the same texture as that in the vicinity of the area, and the image of the tripod or the like supporting the imaging device 30 can be erased.
- the range of the region in which the pixel value is to be replaced may be set in advance.
- the VR image data generation unit 136 generates VR image data using the mapping information in the floor plan data, based on the image data of the omnidirectional image from which the image of the photographer has been deleted. Furthermore, in step S17, the VR image data generation unit 136 stores the generated VR image data in the image data storage unit 122 in association with the property ID. Thus, the operations of the server 10 and the portable terminal 20 end.
- the photographer only has to change the position with respect to the imaging device 30 at each imaging location and perform imaging a plurality of times.
- the imaging can be completed.
- the image 2 'of the photographer can be erased from the omnidirectional image by simple arithmetic processing among a plurality of images different in the position of the photographer. Therefore, it is possible to easily acquire an omnidirectional image without reflection of the photographer or the like.
- the imaging is performed twice on the same subject, but the number of imaging times is not limited to two.
- the image of the staff can be more reliably erased from the omnidirectional image by performing imaging three or more times while changing the staff positions .
- the server 10 performs image processing for removing unnecessary portions such as the photographer's image from the omnidirectional image, but the image processing is performed on the portable terminal 20 side. Also good.
- the image processing can be performed with a small load even in the portable terminal 20.
- the image data of the omnidirectional image from which the image of the photographer is erased may be transferred from the portable terminal 20 to the server 10, and the server 10 may generate the VR image data using the received image data as it is .
- the server 10 automatically performs the image processing for deleting unnecessary areas (hereinafter, also simply referred to as unnecessary areas) such as the image of the photographer from the omnidirectional image, but The above image processing may be performed based on information input from a terminal device that has accessed the server 10.
- the terminal device includes a communication interface for communicating with the server 10, a display unit, an operation unit having a display control function for controlling screen display in the display unit, etc., and a signal corresponding to an operation performed from the outside.
- a general-purpose device having an input device (mouse, touch panel, keyboard, etc.) for input can be used. Specifically, a personal computer, a notebook PC, a tablet terminal or the like is used.
- FIG. 23 is a schematic view illustrating an operation screen for allowing the user (operator of the terminal device) to select the unnecessary area, which is displayed on the display unit provided in the terminal device that has accessed the server 10.
- FIG. 24 is a schematic diagram for explaining the image processing in the first modification. In the following example, imaging may be performed at least twice for one imaging location.
- the operation screen M11 shown in FIG. 23 is one of the images (see steps S25 and S26 in FIG. 6) acquired by imaging the same subject (one imaging location) multiple times (image in FIG. 23). It includes I1), a message m50 for prompting selection of the unnecessary area, and an OK button m51.
- the image I1 is displayed in a state where a part of the subject captured in the omnidirectional image (for example, the subject captured in the region of the hemisphere) is projected on a plane.
- the image I1 may be scrolled by performing a predetermined operation (for example, a slide operation) on the image I1 by an input device provided in the terminal device.
- the user visually finds the image 2 'of the photographer from the image I1 and visually detects the image 2 of the photographer by a predetermined operation (for example, a drawing operation using a mouse or a touch panel) on the operation screen M11. Enclose the area including '(refer to the enclosing line 4), and select the OK button m51.
- the terminal device detects an operation surrounding the area in the image I1 and an operation on the OK button m51 from the signal input from the input device, the terminal apparatus determines that the enclosed area is selected as an unnecessary area, and Position information (coordinate information) indicating the position of the area is transmitted to the server 10.
- the area to be selected may be one or plural.
- the image processing unit 134 of the server 10 selects the pixel value of the pixel in the area selected in the image I1 on the basis of the position information received from the terminal device. It replaces with the pixel value of the pixel (refer area
- FIG. 22 an image (see FIG. 22) from which the image 2 'of the photographer is erased can be obtained.
- the unnecessary area such as the image 2 'of the photographer is selected by surrounding it with the locus 4, but the method of selecting the unnecessary area is not limited to this.
- an operation to select the unnecessary area is It is preferable to minimize the operation to the area in the image.
- 25 and 26 are schematic views illustrating another operation screen for causing the user to select an unnecessary area. These operation screens are also displayed on the display unit provided in the terminal device that has accessed the server 10, as in the first modification.
- the fan-shaped area 6 including the arc 5 is selected. It is When the user finds the image 2 'of the photographer from the image I1, the user traces the arc 5 near the image 2' of the photographer. Thereby, the fan-shaped area 6 including the image 2 'of the photographer is selected as the unnecessary area. In this case, the user can easily perform the area selection operation without touching the inside of the image I1.
- the operation screen M13 shown in FIG. 26 divides the image I1 into a plurality of areas 7a to 7h in advance to display unnecessary areas in units of divided areas.
- the user performs a predetermined operation (for example, double-click operation or double-tap) on a desired area (for example, the area 7g including the image 2 'of the photographer) of the divided areas 7a to 7h using the input device Do the operation).
- a predetermined operation for example, double-click operation or double-tap
- a desired area for example, the area 7g including the image 2 'of the photographer
- the area 7g is selected as the unnecessary area.
- the user can easily perform the area selection operation with the minimum operation on the image I1.
- the division method is not limited to this.
- the image I1 may be divided into sectors and may be divided radially, or may be divided into grids.
- FIG. 27 is a schematic view illustrating still another operation screen for causing the user to select an unnecessary area. This operation screen is also displayed on the display unit provided in the terminal device that has accessed the server 10, as in the first modification.
- a rectangular image I2 'obtained by coordinate-converting an omnidirectional image for example, an image I2 shown in FIG. 16
- the icons m52 and m53 are displayed on the left and right of the image I2 ′, respectively, and the image I2 ′ is displayed by performing a predetermined operation (for example, click or tap operation) on the icons m52 and m53.
- a predetermined operation for example, click or tap operation
- the image I2 ' may be scrolled by directly performing a predetermined operation (e.g., a slide operation) on the image I2'.
- the method of selecting an unnecessary area for the image I2 ' is not particularly limited.
- the unnecessary area may be selected by surrounding a desired area in the image I2 '.
- a rectangular area including a traced line may be selected as an unnecessary area by horizontally tracing the upper side or the lower side of the image I2 ′ or the image I2 ′.
- the image I2 ' may be divided in advance into a plurality of areas, and the unnecessary area may be selected in the divided area units.
- the 4th modification In the first to third modifications, although the user visually finds the image 2 'of the photographer from the image, the candidate area of the image 2' of the photographer is automatically detected, and from among the candidate areas The unnecessary area may be selected by the user.
- the image processing unit 134 of the server 10 takes the difference between the plurality of images acquired by imaging the same subject a plurality of times based on the image data transmitted from the portable terminal 20.
- the candidate area to be seen as the image 2 'of the image is detected in advance.
- the candidate area can be detected by performing contour tracking on the area satisfying Expression (1), as in the first embodiment.
- FIG. 28 is a schematic view illustrating still another operation screen for causing the user to select an unnecessary area. This operation screen is also displayed on the display unit provided in the terminal device that has accessed the server 10, as in the first modification.
- one of a plurality of images (for example, the image I1 shown in FIG. 13 and the image I2 shown in FIG. 16) acquired by imaging the same subject a plurality of times In FIG. 28, an image I1) is displayed. Further, marks 8a and 8b indicating candidate areas detected in the server 10 are superimposed and displayed on the image I1. Among these, the mark 8a corresponds to the image 2 'of the photographer appearing in the image I1, and the mark 8b corresponds to the image 2' of the photographer appearing in the image I2.
- the type of mark is not limited to the contour of the candidate area as shown in FIG. For example, it may be an object in which the entire candidate area is filled, or may be an arrow pointing to the position of the candidate area.
- the portable terminal 20 When detecting an operation on any of the marks 8a and 8b on the operation screen M15, the portable terminal 20 transmits, to the server 10, information indicating the mark (for example, the mark 8a) on which the operation has been performed.
- the image processing unit 134 of the server 10 corresponds the pixel value of the pixel of the area corresponding to the mark 8a in the image I1 displayed on the operation screen M15 to the position in another image I2. Replace with the pixel value of the selected pixel.
- an image see FIG. 22
- a region where there is a change between a plurality of images acquired by imaging the same subject multiple times is automatically detected as a candidate region, thereby reducing the oversight of unnecessary regions by the user's visual observation. be able to. Further, according to the present modification, since the user is made to select the unnecessary area to be erased from the candidate areas, it is possible to suppress unnecessary image processing.
- the image 2 of the photographer is obtained from the omnidirectional images. Performed image processing to erase unnecessary areas such as'.
- the image processing may be performed on the portable terminal 20 in parallel with the imaging operation.
- the operation unit 26 of the portable terminal 20 also functions as an image processing unit by reading the image processing program stored in the program storage unit 251.
- the operation of the imaging system 1 in the case of performing image processing in the portable terminal 20 will be described.
- FIG. 29 is a flowchart showing the operation of the imaging system according to the second embodiment of the present invention. Among these, steps S10 to S14, S16, S17, and steps S20 to S24 are the same as in the first embodiment.
- step S30 the portable terminal 20 acquires an image by causing the imaging device 30 to execute the first imaging.
- the details of step S30 are the same as step S25 of FIG. 6 (see FIGS. 11 to 13).
- the imaging device 30 starts imaging and generates image data of a omnidirectional image in which a subject around the imaging device 30 is captured. This image data is transferred to the portable terminal 20 via the communication cable or by wireless communication.
- the portable terminal 20 displays the image acquired in step S30 on the display unit 23.
- operation unit 26 creates the unnecessary area selection screen shown in FIG. 30, and arranges an image based on the image data transferred from imaging device 30 in the screen to display the display unit.
- Display on 23 The unnecessary area selection screen M16 shown in FIG. 30 includes the image I4 acquired in step S30, a message m60 for causing the user to select the unnecessary area, and an OK button m61.
- the photographer visually searches an area to be erased from the image I4, that is, an area (unnecessary area) in which the photographer himself is reflected, and performs an operation of selecting the unnecessary area on the portable terminal 20.
- the operation of selecting the unnecessary area is not particularly limited.
- a method may be employed in which a region including an unnecessary region is surrounded by a line, or in the same manner as in the second modification, a method of tracing the arc of a fan-shaped region including an unnecessary region It is also possible to select one of a plurality of regions divided in advance.
- the unnecessary area selection screen M16 as in the third modified example, an image in which the omnidirectional image is coordinate-transformed into an orthogonal coordinate system may be displayed.
- the region to be selected may be one or more.
- FIG. 30 shows a state in which an area including the image 2 'of the photographer in the image I4 is surrounded by an encircling line 9.
- FIG. 30 shows a state in which an area including the image 2 '
- the portable terminal 20 When the portable terminal 20 receives a signal for selecting one or more regions in the image I4 and further detects that the OK button m61 has been subjected to a predetermined operation (for example, a tap operation), the mobile terminal 20 is selected in the image I4.
- the position information (coordinate information) of the unnecessary area is stored (step S32).
- the portable terminal 20 acquires an image by causing the imaging device 30 to perform imaging again.
- the calculation unit 26 first causes the display unit 23 to display an imaging instruction screen shown in FIG.
- a message m62 for instructing the photographer to move and perform imaging is displayed.
- the imaging device 30 starts imaging, and an image of the omnidirectional image in which the subject around the imaging device 30 is taken Data is generated and transferred to the mobile terminal 20.
- step S34 the portable terminal 20 performs image processing to combine the image acquired in step S30 and the image acquired in step S33.
- the calculation unit 26 as an image processing unit acquires the pixel value of the pixel at the position of the unnecessary area stored in step S32 from the image acquired in step S33. Then, the pixel values of the pixels in the unnecessary area in the image I4 acquired in step S30 are replaced with these pixel values.
- step S35 the portable terminal 20 displays the image subjected to the image processing in step S34.
- the calculation unit 26 creates an image confirmation screen shown in FIG. 32, arranges the image processed image in this screen, and causes the display unit 23 to display the image.
- An image confirmation screen M18 shown in FIG. 32 includes an image I5 subjected to image processing, a message m64 for allowing the user to confirm the presence or absence of the unnecessary area, and buttons m65 and m66 for inputting the confirmation result of the unnecessary area. .
- the photographer visually checks the image I5, and when there is no unnecessary area to be further erased, performs a predetermined operation (for example, a tap operation) on the button m65. On the other hand, when there is an unnecessary area to be deleted, a predetermined operation (same as above) is performed on the button m66.
- step S36 When the portable terminal 20 detects an operation indicating that there is an unnecessary area (step S36: Yes), the operation of the portable terminal 20 returns to step S31. In this case, the portable terminal 20 again creates the unnecessary area selection screen (see FIG. 30), and displays the image I5 on which the image processing has been performed on this screen. Thereby, the photographer can further select an unnecessary area from the image I5.
- step S36 when the portable terminal 20 detects an operation indicating that there is no unnecessary area (step S36: No), the computing unit 26 (mapping processing unit 264) generates floor plan data of image data corresponding to the image-processed image I5. Are mapped (step S37). Thereby, the image data of the image-processed image I5 is associated with the position specified by the pin m33 on the floor plan m31.
- the portable terminal 20 transmits the image data of the property subjected to the image processing and the floor plan data after the mapping processing to the server 10.
- the server 10 receives the image data and the floor plan data of the property (step S13), and updates the floor plan data (step S14). Then, VR image data is generated using the image data subjected to image processing received in step S13 (step S16), and the generated VR image data is stored.
- the photographer can proceed with the imaging operation while confirming the presence or absence of the unnecessary region in the image at the site of the property. Therefore, it becomes possible to obtain an image without omission omission of the unnecessary area.
- the portable terminal 20 (display control unit 262) sets the image of the area corresponding to the unnecessary area in the image acquired in step S33 to the unnecessary area selected in the image I4 (see steps S31 and S32). A simple process of only superposing and displaying a part is performed (steps S34 and S35). Then, in step S38, the portable terminal 20 transmits, to the server 10, the image data before image processing acquired in steps S30 and S33 and the position information (coordinate information) of the unnecessary area stored in step S32. .
- the server 10 replaces the unnecessary area by replacing the pixel value of the pixel of the unnecessary area in one image with the pixel value of the pixel of the corresponding area in another image based on the received image data and the position information. Execute image processing to delete.
- FIG. 33 is a flowchart showing the operation of the imaging system according to the third embodiment of the present invention.
- FIG. 34 and FIG. 35 are schematic diagrams for explaining image processing in the third embodiment of the present invention.
- the image processing for deleting an unnecessary area such as the image of the photographer from the omnidirectional image is different from the first and second embodiments.
- the mobile terminal 20 performs image processing for deleting an unnecessary area from the omnidirectional image, but after the image processing is stored in the server 10, the terminal device accesses the server 10 You may do it.
- steps S10 to S14, S16, S17 and steps S20 to S24 are the same as in the first embodiment.
- step S40 following step S24 the portable terminal 20 acquires two or more images generated by causing the imaging device 30 to perform imaging a plurality of times at one imaging location. At this time, the position of the unnecessary area is changed between the images by, for example, moving the photographer each time an imaging operation is performed at one imaging location.
- FIG. 34 shows a state in which the image I1 shown in FIG. 13 and the image I2 shown in FIG. 16 are superimposed.
- the image I2 since the image I2 is superimposed on the image I1, the image 2 '(broken line part) of the photographer in the image I1 is not shown on the screen, and the image 2' of the photographer in the image I2 (Solid line part) is reflected on the screen.
- the portable terminal 20 determines whether or not an operation indicating that there is an unnecessary area in the displayed image is detected. In this determination, for example, as in FIG. 32, two buttons for causing the user to input the presence or absence of an unnecessary area are displayed on the screen, and it is detected whether an operation (for example, a tap operation) is performed on any of the two buttons. Can be done by
- the portable terminal 20 selects a portion (erased portion) to be erased in the image displayed on the screen according to the operation performed on the screen (Step S43). Specifically, when detecting a swipe operation of swiping the screen with the finger, the portable terminal 20 selects the swiped area as the erased portion. For example, in FIG. 34, when an operation of tracing the area A1 including the image 2 'of the photographer of the image I2 is detected, the area A1 is selected as the erasure portion.
- the erased portion may be on a subject (a door on both sides of the image 2 'of the photographer in FIG. 34) which is originally desired to be left in the image.
- step S44 the portable terminal 20 makes the portion selected in step S43 transparent. That is, the transmittance of the selected part is set to 100%. As a result, the lower layer image is displayed on the screen at that portion. For example, as shown in FIG. 35, by making the selected part A2 transparent, the image 2 'of the photographer shown in the image I2 and the image around it disappear from the screen, and the image I1 of the lower layer comes to be visible . Thereafter, the process returns to step S41.
- an operation swipe operation
- an image for example, one sheet
- a transparency processing A process is performed to make the selected portion of the image (for example, the second image) directly below the eye image transparent.
- the corresponding portion of the lower layer for example, the third sheet
- step S42 when the portable terminal 20 does not detect an operation indicating that there is an unnecessary area (step S42: No), the process proceeds to step S37.
- step S37 and S38 the two or more superimposed images are treated as a set.
- the user can erase the unnecessary area by intuitive operation on the screen using his / her finger or the like.
- the same subject captured in the lower layer image is displayed on the screen. Mistakes can be reduced. Therefore, the user can easily erase the unnecessary area by rough operation.
- the present invention is also applicable to the surroundings by the omnidirectional camera.
- the present invention can be applied to the case of acquiring various images that want to capture an object at once but do not want to capture the image of the photographer in the image.
- an image for preview of a facility such as a wedding hall, an image for virtual experience of a sightseeing spot for sightseeing guidance, and the like can be mentioned.
- the image processing method may be automatically performed in the server 10 as in the first embodiment, or an image displayed on the terminal device as in the first or second modification or the second embodiment.
- the method may be such that the user selects the unnecessary area, or the user may select the unnecessary area from the candidate areas of the unnecessary area detected in the server 10 as in the fourth modification.
- imaging, selection of an unnecessary area from an image, and image processing or display of a superimposed image may be repeated at an imaging location. In the latter case, since it is possible to confirm whether or not the unnecessary area can be erased at the place where the imaging is performed, it is possible to suppress the erasure leakage of the unnecessary area due to the image processing. Alternatively, it is possible to reduce the time and effort for performing imaging more in preparation for failure of image processing.
- the image data of the omnidirectional image may be mapped to the image data of the image that specifies the position of the imaging location, like the floor plan data of the real estate property. Specifically, map data, image data of a sketch of a tourist facility, etc. may be mentioned.
- the present invention is not limited to the above first to third embodiments and modifications, and various combinations of plural components disclosed in the above first to third embodiments and modifications can be made.
- Invention can be formed.
- some components may be excluded from all the components shown in the first to third embodiments and the modification, or the components shown in the first to third embodiments and the modification These may be combined appropriately.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Studio Devices (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
Description
本発明は、全天球画像を生成する撮像システムに関する。 The present invention relates to an imaging system that generates an omnidirectional image.
近年、仮想現実(バーチャルリアリティ、以下「VR」とも記す)の画像表示技術が、ゲームやエンターテインメント、学習支援、職業訓練、ビジネス等の様々な分野で利用されている。VRにおいては、通常、ヘッドマウントディスプレイ(以下、「HMD」とも記す)と呼ばれるメガネ型又はゴーグル型の表示装置が用いられる。ユーザは、HMDを頭部に装着し、HMDに内蔵された画面を両眼で見ることにより、立体感のある画像を認識することができる。HMDにはジャイロセンサや加速度センサが内蔵されており、これらのセンサにより検出されたユーザの頭部の動きに応じて、画面に表示される画像が変化する。それにより、ユーザは、あたかも3次元的に表示された画像(仮想空間)の中に入り込んだような体験をすることができる。 In recent years, image display technology of virtual reality (virtual reality, hereinafter also referred to as "VR") is used in various fields such as games and entertainment, learning support, vocational training, and business. In the VR, usually, a glasses-type or goggle-type display device called a head mounted display (hereinafter also referred to as “HMD”) is used. The user can recognize an image having a three-dimensional effect by wearing the HMD on the head and viewing the screen built in the HMD with both eyes. The HMD incorporates a gyro sensor and an acceleration sensor, and the image displayed on the screen changes according to the movement of the user's head detected by these sensors. As a result, the user can experience as if it were embedded in a three-dimensionally displayed image (virtual space).
VRの素材となる画像は、カメラで現実の被写体を撮像したり、コンピュータグラフィックスで構成したり、或いは、両者を組み合わせたりして取得される。従来、広画角のパノラマ画像を取得する場合、カメラの向きを変化させながら撮像を繰り返すことにより生成した複数フレームの画像をつなぎ合わせていた。これに対し、最近では、一度の撮像動作により周囲の全方位360°の範囲が写った画像(所謂全天球画像)を撮像可能なカメラ(以下、「全天球カメラ」ともいう。例えば特許文献1、2参照)が実用化されている。全天球カメラを用いる場合、カメラの周囲の被写体のほぼ全体が収められた画像を、簡単且つ短時間に取得することができる。
An image to be a material of VR is acquired by capturing an image of a real subject with a camera, configuring it with computer graphics, or combining both. Conventionally, when acquiring a panoramic image with a wide angle of view, images of a plurality of frames generated by repeating imaging while changing the direction of the camera have been stitched together. On the other hand, recently, a camera (hereinafter, also referred to as a "all-sky camera") capable of picking up an image (so-called all-sky image) in which a 360.degree.
VRのビジネスにおける利用例として、結婚式場等の施設の下見や不動産物件の内見等を、顧客を現場に連れて行く代わりに、VRによって顧客に体験させるといった例が挙げられる。これらの場合、施設や不動産物件の各部屋を全天球カメラで撮像することにより、VR用の画像を簡単に作成することができる。その一方で、全天球カメラを用いる際、全天球カメラを操作する撮影者が画像内に写り込んでしまうという問題がある。そのため、従来においては、全天球カメラを現場に据え付けた上で、撮影者が隣室に移動し又は物陰に隠れて、遠隔操作により撮像を行う必要があった。特に、撮影者を含む複数のスタッフが現場にいる場合、撮像時に隠れる場所の確保が困難なことがあり、1人でも画像内に写り込むと撮像をやり直さなければならず、かえって手間がかかることもあった。 As an example of use in the business of VR, there is an example of having the customer experience the preview of the facility such as a wedding hall or the inside view of the real estate property by the customer instead of taking the customer to the site. In these cases, an image for VR can be easily created by imaging each room of a facility or a real estate property with an omnidirectional camera. On the other hand, when using an omnidirectional camera, there is a problem that a photographer operating the omnidirectional camera may be reflected in an image. Therefore, in the related art, it has been necessary to set up the omnidirectional camera at the site, move the photographer to the next room or hide behind objects, and remotely perform imaging. In particular, when a plurality of staff members including a photographer are present at a site, it may be difficult to secure a hiding place at the time of imaging, and even one person may have to recapture imaging when it is reflected in the image, which takes time and effort. There was also.
このような問題に対し、特許文献2には、全天球画像を生成するための複数の画像を同時に撮像する撮像装置であって、撮像装置が撮像した撮像画像又は該撮像画像から生成された生成画像において、撮像装置を支持する支持体の像が所定の範囲に存在するか否かを判定し、その判定結果に基づいて、カメラが撮像を行う視点の位置を変更するためのガイド情報を通知する技術が開示されている。即ち、特許文献2においては、撮影者にガイド情報を通知することにより、撮影者の像を除去するのに適した画像を取得することとしている。それにより、取得された画像から撮影者が写った領域(撮影者領域)を抽出し、この領域に対して別の領域(例えば地面が写った地面領域)に基づくテクスチャ画像を並べることにより撮影者の像を消去している。
With respect to such a problem,
しかし、特許文献2の場合、撮影者は、ガイド情報に従って自分の位置やカメラの位置を調節しなければならないため、撮像作業が面倒である。また、取得された画像から撮影者領域や地面領域を抽出する画像処理も煩雑である。
However, in the case of
本発明は以上を鑑みてなされたものであり、施設や不動産物件等の現場での全天球画像の撮像作業を容易に行うことができ、且つ、取得した全天球画像から撮影者の像などの不要な部分を簡単な画像処理で消去することができる撮像システムを提供することを目的とする。 The present invention has been made in view of the above, and can easily perform an imaging operation of an omnidirectional image at a site such as a facility or a real estate property, and an image of a photographer from the acquired omnidirectional image It is an object of the present invention to provide an imaging system capable of erasing unnecessary portions such as by simple image processing.
上記課題を解決するために、本発明の一態様である撮像システムは、一度の撮像動作により周囲の全方位360°の範囲に含まれる被写体が写った画像を生成する撮像装置と、前記撮像装置に同一の被写体を複数回撮像させることにより生成される複数の画像であって、前記撮像装置に対する前記被写体以外の物体の位置が異なる複数の画像の画像データを取得する画像データ取得部と、前記複数の画像を合成することにより、前記物体の像が消去された画像を生成する画像処理部と、を備えるものである。 In order to solve the above-mentioned subject, the imaging system which is one mode of the present invention generates the picture in which the subject included in the range of 360 degrees of all directions of a circumference was photographed by one imaging operation, and the above-mentioned imaging device An image data acquisition unit configured to acquire image data of a plurality of images generated by imaging the same subject a plurality of times in the plurality of images, wherein positions of objects other than the subject with respect to the imaging device are different; And an image processing unit configured to generate an image in which the image of the object is erased by combining a plurality of images.
上記撮像システムは、画像を管理するサーバと、通信ネットワークを介して前記サーバと接続された携帯端末と、を備え、前記画像データ取得部は、前記携帯端末に設けられ、前記画像処理部は前記サーバに設けられ、前記携帯端末は、前記画像データ取得部が取得した前記複数の画像の画像データを前記サーバに送信し、前記サーバは、前記複数の画像の画像データを受信し、該画像データに基づく画像処理を前記画像処理部に実行させても良い。 The imaging system includes a server that manages an image, and a portable terminal connected to the server via a communication network, the image data acquisition unit is provided in the portable terminal, and the image processing unit is Provided in a server, the portable terminal transmits image data of the plurality of images acquired by the image data acquisition unit to the server, the server receives image data of the plurality of images, and the image data The image processing unit may execute image processing based on the above.
上記撮像システムにおいて、前記画像処理部は、さらに、前記物体の像が消去された画像の画像データを用いて、バーチャルリアリティ用の画像データを生成しても良い。 In the imaging system, the image processing unit may further generate image data for virtual reality by using image data of an image from which an image of the object has been erased.
上記撮像システムは、画像を管理するサーバと、通信ネットワークを介して前記サーバと接続された携帯端末と、を備え、前記画像データ取得部及び前記画像処理部は、前記携帯端末に設けられ、前記携帯端末は、前記画像処理部により生成された前記物体の像が消去された画像の画像データを前記サーバに送信しても良い。 The imaging system includes a server that manages an image, and a portable terminal connected to the server via a communication network, and the image data acquisition unit and the image processing unit are provided in the portable terminal. The portable terminal may transmit the image data of the image from which the image of the object generated by the image processing unit is erased to the server.
上記撮像システムにおいて、前記サーバは、前記物体の像が消去された画像の画像データを用いてバーチャルリアリティ用の画像データを生成する第2の画像処理部をさらに有しても良い。 In the above imaging system, the server may further include a second image processing unit that generates image data for virtual reality using image data of an image from which the image of the object has been erased.
上記撮像システムは、前記携帯端末は、表示部と、外部からなされる操作に応じた信号を入力する入力デバイスと、前記複数の画像のうちの1つの画像を前記表示部に表示させると共に、前記入力デバイスから前記1つの画像内の少なくとも1つの領域を選択する信号が入力された場合に、前記1つの画像内の前記少なくとも1つの領域に対し、前記複数の画像のうちの他の画像内の前記少なくとも1つの領域に対応する領域を重畳して前記表示部に表示させる表示制御部と、をさらに有すると共に、前記1つの画像における前記少なくとも1つの領域の位置を表す位置情報を前記サーバにさらに送信し、前記画像処理部は、前記複数の画像の画像データに加え、前記位置情報を用いて、前記物体の像が消去された画像を生成しても良い。 In the imaging system, the portable terminal includes a display unit, an input device for inputting a signal according to an operation performed from the outside, and one of the plurality of images displayed on the display unit. When a signal for selecting at least one region in the one image is input from an input device, the signal in the other image of the plurality of images for the at least one region in the one image is input. And a display control unit that causes the display unit to display an area corresponding to the at least one area in an overlapping manner, and further, to the server, positional information indicating the position of the at least one area in the one image. The image processing unit may transmit, and in addition to the image data of the plurality of images, the position information may be used to generate an image in which the image of the object is erased.
上記撮像システムにおいて、前記携帯端末は、表示部と、外部からなされる操作に応じた信号を入力する入力デバイスと、前記複数の画像のうちの1つの画像を前記表示部に表示させる表示制御部と、をさらに有し、前記画像処理部は、前記入力デバイスから前記1つの画像内の少なくとも1つの領域を選択する信号が入力された場合に、前記複数の画像の画像データに加え、前記1つの画像における前記少なくとも1つの領域の位置を表す位置情報を用いて、前記物体の像が消去された画像を生成しても良い。 In the above imaging system, the portable terminal includes a display unit, an input device for inputting a signal according to an operation performed from the outside, and a display control unit which causes one of the plurality of images to be displayed on the display unit. And the image processing unit adds the image data of the plurality of images when the signal for selecting at least one area in the one image is input from the input device. Position information representing a position of the at least one region in one image may be used to generate an image in which the image of the object is erased.
上記撮像システムにおいて、前記携帯端末は、前記入力デバイスから前記1つの画像内の少なくとも1つの領域を選択する信号が入力された場合に、前記撮像装置から前記他の画像の画像データを取得しても良い。 In the imaging system, the portable terminal acquires image data of the other image from the imaging device when a signal for selecting at least one region in the one image is input from the input device. Also good.
上記撮像システムにおいて、前記携帯端末は、表示部と、前記撮像装置により1回目の撮像を実行する旨を指示する第1の撮像指示画面と、前記1回目の撮像終了後に前記物体の位置を変更させて前記撮像装置により2回目の撮像を実行する旨を指示する第2の撮像指示画面とを前記表示部に順次表示させる表示制御部と、さらに有しても良い。 In the above imaging system, the mobile terminal changes the position of the object after the first imaging is finished, a display unit, and a first imaging instruction screen instructing to execute the first imaging by the imaging device. The display control unit may further include: a display control unit that causes the display unit to sequentially display a second imaging instruction screen that instructs the imaging device to execute a second imaging operation.
上記撮像システムにおいて、前記画像処理部は、前記複数の画像間で画素値の変化が生じている領域を抽出し、前記複数の画像のうちの1つの画像における前記領域の画素値を、前記複数の画像のうちの他の画像における前記領域の画素値に置き換えても良い。 In the imaging system, the image processing unit extracts an area in which a change in pixel value occurs among the plurality of images, and a plurality of pixel values of the area in one image of the plurality of images are detected. The pixel value of the area in another image among the images of
上記撮像システムにおいて、表示部と、外部からなされる操作に応じた信号を入力する入力デバイスと、前記複数の画像のうちの1つの画像を前記表示部に表示させる表示制御部と、をさらに備え、前記画像処理部は、前記入力デバイスから前記1つの画像内の少なくとも1つの領域を選択する信号が入力された場合に、前記1つの画像内の前記少なくとも1つの領域の画素値を、前記複数の画像のうちの他の画像内の前記少なくとも1つの領域に対応する領域の画素値に置き換えても良い。 The imaging system further includes a display unit, an input device for inputting a signal according to an operation performed from the outside, and a display control unit for displaying one of the plurality of images on the display unit. The image processing unit may be configured to input a plurality of pixel values of the at least one region in the one image, when a signal for selecting at least one region in the one image is input from the input device. The pixel value of the area corresponding to the at least one area in the other image among the images of.
上記撮像システムは、表示部と、外部からなされる操作に応じた信号を入力する入力デバイスと、前記複数の画像のうちの1つの画像を前記表示部に表示させる表示制御部と、をさらに備え、前記画像処理部は、前記複数の画像間で画素値の変化が生じている少なくとも1つの領域を抽出し、前記表示制御部は、前記表示部に表示させた前記1つの画像に、前記画像処理部が抽出した前記少なくとも1つの領域をそれぞれ表す少なくとも1つのマークを重畳して表示させ、前記画像処理部は、前記入力デバイスから前記少なくとも1つのマークのうちの少なくともいずれかを選択する信号が入力された場合に、前記1つの画像内の前記少なくともいずれかのマークに対応する領域の画素値を、前記複数の画像のうちの他の画像内の対応する領域の画素値に置き換えても良い。 The imaging system further includes a display unit, an input device for inputting a signal according to an operation performed from the outside, and a display control unit for displaying one of the plurality of images on the display unit. The image processing unit extracts at least one region in which a change in pixel value occurs among the plurality of images, and the display control unit causes the display unit to display the one image displayed on the display unit. At least one mark respectively representing the at least one region extracted by the processing unit is superimposed and displayed, and the image processing unit is a signal for selecting at least one of the at least one mark from the input device. When it is input, the pixel value of the area corresponding to the at least one mark in the one image corresponds to that in another of the plurality of images. It may be replaced with the pixel values of the range.
上記撮像システムは、表示部と、外部からなされる操作に応じた信号を入力する入力デバイスと、前記複数の画像を重畳し、前記表示部に表示させる表示制御部と、をさらに備え、前記画像処理部は、前記入力デバイスから、前記複数の画像のうち前記表示部に表示された最上層の画像内の領域を選択する信号が入力された場合に、前記領域を透明化しても良い。 The imaging system further includes a display unit, an input device for inputting a signal according to an operation performed from the outside, and a display control unit that superimposes the plurality of images and causes the display unit to display the images. The processing unit may make the area transparent when a signal for selecting an area in the top layer image displayed on the display unit among the plurality of images is input from the input device.
上記撮像システムにおいて、前記表示制御部は、前記1つの画像を平面に投影した画像を前記表示部に表示させても良い。 In the imaging system, the display control unit may cause the display unit to display an image obtained by projecting the one image on a plane.
上記撮像システムにおいて、前記表示制御部は、前記1つの画像を直交座標系に座標変換した画像を前記表示部に表示させても良い。 In the imaging system, the display control unit may cause the display unit to display an image obtained by performing coordinate conversion of the one image into an orthogonal coordinate system.
上記撮像システムは、撮像場所の位置を特定する画像の画像データを記憶する記憶部と、前記複数の画像の画像データを、前記位置を特定する画像の画像データにマッピングするマッピング処理部と、をさらに備えても良い。 The imaging system includes: a storage unit storing image data of an image specifying a position of an imaging location; and a mapping processing unit mapping image data of the plurality of images to image data of an image specifying the position You may provide further.
本発明によれば、撮像装置に同一の被写体を複数回撮像させることにより、撮像装置に対する被写体以外の物体の位置が異なる複数の画像を取得し、これらの画像を合成することにより上記物体が消去された画像を生成するので、現場での全天球画像の撮像作業を容易に行うことができ、且つ、取得した全天球画像から撮影者の像などの不要な部分を簡単な画像処理で消去することが可能となる。 According to the present invention, by causing the imaging device to capture the same subject a plurality of times, a plurality of images different in the position of an object other than the subject with respect to the imaging device are acquired, and the object is eliminated by combining these images. Because the generated image is generated, it is possible to easily perform the imaging operation of the omnidirectional image at the site, and unnecessary portions such as the image of the photographer from the acquired omnidirectional image can be simply processed. It becomes possible to erase.
以下、本発明の実施形態に係る撮像システムについて、図面を参照しながら説明する。なお、これらの実施形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。 Hereinafter, an imaging system according to an embodiment of the present invention will be described with reference to the drawings. Note that the present invention is not limited by these embodiments. Further, in the descriptions of the respective drawings, the same parts are denoted by the same reference numerals.
以下においては、一例として、バーチャルリアリティ(以下「VR」と記す)の素材となる画像として、不動産物件の内見用の画像を生成する場合を説明する。 In the following, as an example, a case of generating an inside-looking image of a real estate property as an image to be a material of virtual reality (hereinafter referred to as “VR”) will be described.
(第1の実施形態)
図1は、本発明の第1の実施形態に係る撮像システムの概略構成を示す模式図である。図1に示す撮像システム1は、不動産物件に関する情報(以下「物件情報」という)や該不動産物件に関する画像を管理するサーバ10と、不動産物件の画像データを取得してサーバ10に転送する携帯端末20と、撮像装置30とを含む。このうち、サーバ10と携帯端末20とは、通信ネットワークNを介して接続されている。また、携帯端末20と撮像装置30とは、有線又は無線により直接接続されていても良いし、通信ネットワークNを介して接続されていても良い。
First Embodiment
FIG. 1 is a schematic view showing a schematic configuration of an imaging system according to a first embodiment of the present invention. The
通信ネットワークNは、例えばインターネット回線や電話回線、LAN、専用線、移動体通信網、WiFi(Wireless Fidelity)、ブルートゥース(登録商標)等の通信回線、又はこれらの組み合わせが用いられる。通信ネットワークNは、有線、無線、又はこれらの組み合わせのいずれであっても良い。 As the communication network N, for example, an Internet line, a telephone line, a LAN, a dedicated line, a mobile communication network, a communication line such as WiFi (Wireless Fidelity), Bluetooth (registered trademark), or a combination thereof is used. The communication network N may be wired, wireless, or a combination of these.
図2は、サーバ10の概略構成を示すブロック図である。サーバ10は、不動産物件が写った画像の画像データを蓄積して管理する装置であり、例えばコンピュータによって構成される。ここで、サーバ10は、必ずしも1台のコンピュータで構成する必要はなく、例えば、通信ネットワークNに接続された複数のコンピュータによってサーバ10を構成しても良い。図2に示すように、サーバ10は、通信部11と、記憶部12と、演算部13とを備える。
FIG. 2 is a block diagram showing a schematic configuration of the
通信部11は、サーバ10を通信ネットワークNに接続し、通信ネットワークNに接続された他の機器との間で通信を行うインタフェースである。通信部11は、例えばソフトモデム、ケーブルモデム、無線モデム、ADSLモデム等を用いて構成される。
The
記憶部12は、例えばROMやRAMといった半導体メモリやハードディスク等のコンピュータ読取可能な記憶媒体であり、プログラム記憶部121と、画像データ記憶部122と、物件情報データベース123とを含む。
The
プログラム記憶部121は、オペレーティングシステムプログラム及びドライバプログラムに加えて、各種機能を実行するアプリケーションプログラムや、これらのプログラムの実行中に使用される各種パラメータ等を格納する。具体的には、プログラム記憶部121は、物件情報を管理すると共に、撮像装置30によって取得され、携帯端末20を介して転送された画像データに基づいて画像処理を行うことによりVR画像の画像データを生成し、この画像データを物件情報と紐づけて管理する一連の動作を演算部13に実行させるためのプログラムを記憶している。
The
画像データ記憶部122は、不動産物件が写った画像の画像データや、この画像をVR用に構築した画像の画像データ(以下「VR画像データ」という)や、不動産物件の間取り図の画像データ(以下「間取り図データ」という)を格納する。
The image
物件情報データベース123は、画像データ記憶部122に画像データが蓄積されている物件に関する情報を格納する。具体的には、物件情報は、物件情報を識別するための識別情報(物件ID)、当該物件の所在地、並びに、当該物件の画像データ、VR画像データ、及び間取り図データが記憶されている画像データ記憶部122上の記憶領域を表すアドレス等を含む。
The
演算部13は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)を用いて構成され、プログラム記憶部121に記憶された各種プログラムを読み込むことにより、サーバ10の各部を統括的に制御すると共に、撮像システム1において物件の画像データを管理するための各種演算処理を実行する。詳細には、演算部13は、物件情報登録部131と、物件情報抽出部132と、物件情報更新部133と、画像処理部134とを含む。
The
物件情報登録部131は、通信ネットワークNを介して入力される情報に基づいて、物件情報を物件情報データベース123に登録する。具体的には、不動産物件の所在地や間取り、賃料若しくは売値等の情報が入力された場合に、物件IDを発行すると共に、入力された情報を物件IDと紐づけて、物件情報データベース123に記録する。
The property
物件情報抽出部132は、通信ネットワークNを介して物件IDが入力された場合に、この物件IDと紐づけられた物件情報を物件情報データベース123から抽出する。
物件情報更新部133は、通信ネットワークNを介して入力される情報に従って、物件情報を更新する。
When the property ID is input through the communication network N, the property
The property
画像処理部134は、通信ネットワークNを介して入力される画像データに基づき、不動産物件の画像に対して所定の画像処理を実行する。詳細には、画像処理部134は、画像合成部135及びVR画像データ生成部136を含む。
The
画像合成部135は、同一の被写体を複数回撮像することにより取得された複数の画像を合成することにより、これらの画像に写り込んだ不要な物体、即ち、撮像対象とする被写体以外の物体の像を消去する。
The
VR画像データ生成部136は、画像合成部135により不要な物体の像が消去された画像をもとに、VR用の画像データを生成する。
The VR image
図3は、携帯端末20の概略構成を示すブロック図である。携帯端末20は、不動産物件の現場で撮像装置30を用いて撮像を行う一連の動作を制御するための装置であり、例えばスマートフォン、タブレット端末、携帯電話、携帯情報端末(PDA)のように、通信ネットワークNを介した情報の送受信が可能な携帯機器によって構成される。
FIG. 3 is a block diagram showing a schematic configuration of the
図3に示すように、携帯端末20は、通信部21と、入力部22と、表示部23と、読み取り部24と、記憶部25と、演算部26とを備える。
As shown in FIG. 3, the
通信部21は、携帯端末20を通信ネットワークNに接続し、サーバ10やその他の機器との間で通信を行うインタフェースである。また、通信部21は、通信ケーブルを介して又は無線通信により撮像装置30との間で通信を行う。通信部21は、例えばISDNモデム、ADSLモデム、ケーブルモデム、光モデム、ソフトモデム等を用いて構成される。
The
入力部22は、操作ボタンや、表示部23上に設けられたタッチパネル等の入力デバイスであり、外部からなされる操作に応じた信号を演算部26に入力する。
The
表示部23は、例えば液晶ディスプレイや有機ELディスプレイであり、ユーザが入力操作を行うためのアイコンや、テキストメッセージや、画像等を表示する。
The
読み取り部24は、例えば携帯端末20に内蔵されたカメラであり、2次元コード等の識別コードの認識機能を有する。なお、携帯端末20は、必ずしもカメラを内蔵している必要はない。携帯端末20がカメラを内蔵していない場合には、識別コードを認識可能なリーダ装置を外付けにして用いれば良い。
The
記憶部25は、例えばROMやRAMといった半導体メモリ等のコンピュータ読取可能な記憶媒体であり、プログラム記憶部251と画像データ記憶部252とを含む。
The
プログラム記憶部251は、オペレーティングシステムプログラムやドライバプログラムに加えて、各種アプリケーションプログラムや、これらのプログラムの実行中に使用される各種パラメータ等を記憶する。具体的には、プログラム記憶部251は、不動産物件の撮像を撮像装置30に実行させることにより画像データを取得する一連の動作を演算部26に実行させるためのアプリケーションプログラムを記憶している。
The
画像データ記憶部252は、サーバ10から送信された不動産物件の間取り図データや、撮像装置30が撮像を行うことにより生成された画像データを記憶する。
The image
演算部26は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)を用いて構成され、プログラム記憶部251に記憶された各種プログラムを読み込むことにより、携帯端末20の各部を統括的に制御すると共に、撮像装置30から不動産物件の画像データを取得する一連の動作を実行する。詳細には、演算部26は、識別情報取得部261と、表示制御部262と、画像データ取得部263と、マッピング処理部264とを備える。
識別情報取得部261は、読み取り部24が識別コードを認識した場合に、この識別コードによって表される物件ID等の情報を取得する。ここで、識別コードとしては、バーコードや2次元コードのように光学的に読み取り可能なコードが用いられる。
When the
表示制御部262は、撮像装置30に同一の被写体を複数回撮像させることにより、撮像装置30に対する被写体以外の物体の位置が異なる複数の画像を取得する一連の撮像動作中に表示部23に表示させる画面を生成し、表示部23に表示させる。
The
画像データ取得部263は、撮像装置30から出力される画像データを取り込み、同一の被写体を複数回撮像することにより取得された画像の画像データを互いに関連付けて画像データ記憶部252に記憶させる。
The image
マッピング処理部264は、サーバ10から不動産物件の間取り図データを取得し、この間取り図データに対し、画像データ取得部263が撮像装置30から取り込んだ画像データのマッピングを行う。
The
図4は、撮像装置30の外観を例示する模式図である。また、図5は、撮像装置30の概略構成を示すブロック図である。撮像装置30は、一度の撮像動作により周囲の全方位を360°にわたって撮像可能な所謂全天球カメラであり、図4に示すように、筐体30cに取り付けられた2つの超広角レンズ30a、30bと、各々がCCDイメージセンサ又はCMOSイメージセンサを含み、カラー画像の画像データを生成して出力する2つの撮像部(第1撮像部31a、第2撮像部31b)とを備える。
FIG. 4 is a schematic view illustrating the appearance of the
超広角レンズ30a、30bの各々は少なくとも180°の画角を有する。第1撮像部31aは、被写体からの光を受光する受光面が超広角レンズ30aを介して外部を臨むように設けられている。また、超広角レンズ30aと第1撮像部31aとの間には、超広角レンズ30aによって集光された光を第1撮像部31aの受光面に入射させるためのプリズム等の光学系が配置されている。これにより、第1撮像部31aによって、水平画角180°及び垂直画角180°を有する半球画像を取得することができる。また、超広角レンズ30b及び第2撮像部31bも同様の構成を有している。
Each of the super wide-
これらの第1撮像部31a及び第2撮像部31bによってそれぞれ取得された2つの半球画像を貼り合わせることにより、周囲の全方位が360°にわたって写った画像を取得することができる。このような画像は、全天球画像とも呼ばれる。
By combining the two hemispherical images acquired by the
図5に示すように、撮像装置30は、第1撮像部31a、第2撮像部31bに加えて、通信部32、記憶部33、操作部34、及び制御部35を備える。
通信部32は、通信ケーブルを介して又は無線通信により当該撮像装置30を携帯端末20と接続するインタフェースである。
As illustrated in FIG. 5, the
The
記憶部33は、例えばROMやRAMといった半導体メモリであり、第1撮像部31a、第2撮像部31bから出力された画像データを一時的に記憶する。
The
操作部34は、例えば押ボタン等の入力デバイスであり、ユーザの入力操作(シャッター操作)に応じて撮像指示を制御部35に入力する。なお、撮像装置30に対する撮像指示の入力は、操作部34を直接操作する他、撮像装置30と接続された携帯端末20からのリモート操作により行っても良い。
The
制御部35は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)を用いて構成され、当該撮像装置30の動作を制御すると共に、第1撮像部31a及び第2撮像部31bからそれぞれ出力された画像データに基づく画像に対して所定の画像処理を実行する。詳細には、制御部35は、第1撮像部31a及び第2撮像部31bからそれぞれ出力された画像データに基づく半球画像に対し、ホワイトバランス処理やガンマ処理等の画像処理を施し、さらに、これらの半球画像を貼り合わせることにより、全天球画像を生成する画像処理部351を有する。
The
このような撮像装置30として、例えば、株式会社リコー製の全天球デジタルカメラ(製品名:THETA)を用いることができる。
As such an
次に、本実施形態に係る撮像システム1の動作について説明する。図6は、撮像システム1の動作を示すフローチャートである。
Next, the operation of the
不動産物件の撮像に先立って、撮影者は、撮像対象の物件の物件IDを入手する。物件IDの入手方法は特に限定されないが、一例として、図7に示すように、物件IDを表す識別コード(例えば2次元コード)m11が印刷されたチラシを入手することとしても良い。このチラシM1には、識別コードm11の他、物件の間取り図m12や、物件の所在地等の情報が印刷されている。 Prior to imaging a real estate property, the photographer obtains a property ID of the property to be imaged. The method of obtaining the property ID is not particularly limited, but as an example, as shown in FIG. 7, a flyer printed with an identification code (for example, a two-dimensional code) m11 representing the property ID may be obtained. In addition to the identification code m11, information such as the floor plan m12 of the property and the location of the property are printed on the flyer M1.
まず、ステップS20において、撮影者は、携帯端末20において撮像アプリケーションを起動し、読み取り部24によってチラシM1に印刷された識別コードm11を読み取る。図8は、撮像アプリケーションの起動後に携帯端末20に表示される識別コード読み取り画面を例示する模式図である。撮影者は、まず、識別コード読み取り画面M2に表示されたメッセージm21に従い、チラシM1に印刷された識別コードm11に読み取り部24をかざす。
First, in step S20, the photographer activates an imaging application on the
これに応じて、携帯端末20は、識別コードm11を読み取り、読み取った情報に含まれるURLによりサーバ10にアクセスして、読み取った情報に含まれる物件IDをサーバ10に送信する(ステップS21)。なお、物件IDをサーバ10に送信する方法はこれに限定されない。例えば、撮影者が携帯端末20に物件IDを直接入力して送信することとしても良い。
In response to this, the
ステップS10において、サーバ10は物件IDを受信する。続くステップS11において、サーバ10の物件情報抽出部132は、物件情報データベース123を検索し、受信した物件IDに対応する物件情報を抽出する。
In step S10, the
続く、ステップS12において、サーバ10の物件情報抽出部132は、抽出した物件情報から間取り図データが記憶されている記憶領域のアドレスを取得し、このアドレスに従って画像データ記憶部122から間取り図データを読み出して携帯端末20に送信する。
Subsequently, in step S12, the property
ステップS22において、携帯端末20は、間取り図データを受信し、表示部23に間取り図を表示する(ステップS23)。図9は、間取り図が表示された撮像場所選択画面を例示する模式図である。また、図10は、選択された撮像場所の確認画面を例示する模式図である。
In step S22, the
撮影者は、図9に示す撮像場所選択画面M3に表示されたメッセージm32に従い、これから撮像しようとする場所に対応する間取り図m31上の位置(例えばLDK)に所定の操作(例えばタップ操作)を行う。携帯端末20は、操作を検知した間取り図m31上の位置を撮像場所として選択し(ステップS24)、この位置にピンm33を表示する(図10参照)。
The photographer follows a message m32 displayed on the imaging location selection screen M3 shown in FIG. 9 and performs a predetermined operation (for example, a tap operation) at a position (for example, LDK) on the floor plan m31 corresponding to the location to be imaged Do. The
図10に示す撮像場所確認画面M4には、間取り図m31及びピンm33に加えて、撮像場所を確認する旨のメッセージm34と、確認ボタンm35と、変更ボタンm36とが表示されている。携帯端末20は、確認ボタンm35に対する所定の操作(例えばタップ操作)を検知すると、選択された撮像場所を確定する。反対に、携帯端末20は、変更ボタンm36に対する所定の操作(同上)を検知すると、撮像場所の選択を解除し、再び図9に示す撮像場所選択画面M3を表示する。
In addition to the floor plan m31 and the pin m33, the imaging location confirmation screen M4 shown in FIG. 10 displays a message m34 for confirming the imaging location, a confirmation button m35, and a change button m36. When detecting a predetermined operation (for example, a tap operation) on the confirmation button m35, the
続くステップS25において、携帯端末20は、撮像装置30に1回目の撮像を実行させることにより画像を取得する。詳細には、携帯端末20はまず、図11に例示するように、撮像の実行を指示するメッセージm37が表示された撮像指示画面(1回目)M5を表示する。撮影者がこのメッセージm37に従い、撮像装置30に対してシャッター操作を行うと、撮像装置30は撮像を開始し、撮像装置30の周囲の被写体が写った全天球画像の画像データを生成する。この画像データは、通信ケーブル又は無線通信を介して、撮像装置30から携帯端末20に転送される。
In the subsequent step S25, the
ここで、撮像を行う際には、好ましくは、三脚等を用いて撮像装置30を固定すると良い。より好ましくは、撮像装置30のセルフタイマー機能を利用し、或いは、携帯端末20からリモート操作を行うなどして、撮像装置30から若干離れた位置からシャッター操作を行うと良い。複数回撮像を行う間の構図の変化やブレを極力低減するためである。
Here, when imaging is performed, preferably, the
図12は、選択された撮像場所(例えばLDK)における1回目の撮像の様子を例示する模式図である。また、図13は、図12に示す位置関係で撮像を行った場合に取得される1枚目の画像を例示する模式図である。なお、図13は、全天球画像に写った被写体の一部(例えば半球分の領域に写った被写体)を平面に投影した状態を示している。 FIG. 12 is a schematic view illustrating the state of the first imaging at the selected imaging location (for example, LDK). FIG. 13 is a schematic view illustrating the first image acquired when imaging is performed in the positional relationship shown in FIG. FIG. 13 shows a state in which a part of the subject captured in the omnidirectional image (for example, the subject captured in the area of the hemisphere) is projected on a plane.
撮像は、図12に示すように、撮像装置30をできるだけ部屋の中心に設置した状態で行うことが好ましい。図12において、撮影者2は、撮像装置30に対して図の左側に立った状態で撮像を行っている。そのため、図13に示すように、撮影者の像2’は、画像I1の左寄りの位置に写り込んでいる。
It is preferable to perform imaging in a state where the
続くステップS26において、携帯端末20は、撮像装置30に2回目以降の撮像を実行させることにより画像を取得する。詳細には、携帯端末20はまず、図14に例示する撮像指示画面(2回目以降)M6を表示する。この撮像指示画面M6は、カメラ(撮像装置30)を移動させることなく、撮影者のみ移動して2回目の撮像を行うよう指示するメッセージm38が表示されている。撮影者がこのメッセージm38に従い、撮像装置30の位置を保ったまま、自分自身が移動し、この状態でシャッター操作を行うと、撮像装置30は撮像を開始し、撮像装置30の周囲の被写体が写った全天球画像の画像データを生成する。この画像データも、撮像装置30から携帯端末20に転送される。
In the subsequent step S26, the
図15は、2回目の撮像の様子を例示する模式図である。また、図16は、図15に示す位置関係で撮像を行った場合に取得される2枚目の画像を例示する模式図である。なお、図16は、全天球画像に写った被写体の一部(例えば半球分の領域に写った被写体)を平面に投影した状態を示している。図15において、撮影者2は、撮像装置30に対して図の右側に立った状態で撮像を行っている。そのため、図16に示すように、撮影者の像2’は、画像I2の右寄りの位置に写り込んでいる。
FIG. 15 is a schematic view illustrating the state of the second imaging. FIG. 16 is a schematic view illustrating a second image acquired when imaging is performed in the positional relationship shown in FIG. FIG. 16 shows a state in which a part of the subject captured in the omnidirectional image (for example, the subject captured in the area of the hemisphere) is projected on a plane. In FIG. 15, the
なお、撮影者を含む複数のスタッフで撮像を行う場合、各スタッフも撮影者2と同様、各回の撮像を行う間に場所を移動する。要するに、撮像装置30とスタッフとの相対的な位置が異なる複数の画像を取得できれば良い。
Note that, when imaging is performed by a plurality of staff members including the photographer, each staff also moves between the imaging operations each time as in the case of the
図17は、携帯端末20に表示される撮像確認画面を例示する模式図である。図17に示す撮像確認画面M7は、撮像が成功したか否かを問うメッセージm39と、成功ボタンm40と、やり直しボタンm41とを含む。携帯端末20は、やり直しボタンm41に対する所定の操作(例えばタップ操作)を検知すると、撮像装置30から転送された当該撮像場所に関する画像データを消去する。この場合、撮影者は、間取り図m31上でピンm33が表示されている場所における撮像をやり直すことができる。
FIG. 17 is a schematic view illustrating the imaging confirmation screen displayed on the
他方、携帯端末20は、成功ボタンm40に対する所定の操作(同上)を検知すると、当該撮像場所において複数回撮像を行うことにより生成された画像データを1つのグループとして関連付けて画像データ記憶部252に記憶させる。
On the other hand, when the
ステップS26において撮像を行う回数は、適宜設定することができる。例えば、全天球画像から撮影者の像を消去する画像処理を自動で行う場合には、トータルで(ステップS25を含め)少なくとも3回撮像を行う。また、全天球画像から撮影者の像を手動で選択する場合には、トータルで少なくとも2回撮像を行えば良い。 The number of times of imaging in step S26 can be set as appropriate. For example, in the case of automatically performing image processing for deleting the image of the photographer from the omnidirectional image, imaging is performed at least three times in total (including step S25). In addition, in the case of manually selecting the image of the photographer from the omnidirectional image, the imaging may be performed at least twice in total.
続くステップS27において、マッピング処理部264は、撮像装置30から転送された画像データを間取り図データに対してマッピングする。それにより、転送された画像データが、間取り図m31上でピンm33により特定された位置に関連づけられる。
In the subsequent step S27, the
図18は、1つの撮像場所における撮像の終了後に携帯端末20に表示される撮像場所変更画面を例示する模式図である。図18に示す撮像場所変更画面M8は、間取り図m31に加えて、次の撮像場所を選択させるメッセージm42と、終了ボタンm43とを含む。携帯端末20は、間取り図m31に対する操作を検知すると、操作に応じた位置にピンm33を表示した撮像場所確認画面(図10参照)を表示する。撮影者はこのような作業を繰り返すことにより、不動産物件の全ての部屋を撮像する。
FIG. 18 is a schematic view illustrating an imaging location change screen displayed on the
他方、携帯端末20は、終了ボタンm43に対する操作を検知すると、図19に例示する撮像完了確認画面を表示する。図19に示す撮像完了確認画面M9は、全ての部屋の撮像が完了したか否かを問うメッセージm44と、YESボタンm45と、NOボタンm46とを含む。携帯端末20は、NOボタンm46に対する操作を検知すると、再び図9に示す撮像場所選択画面M3を表示する。それにより、撮影者は、引き続き撮像を行うことができる。
On the other hand, when detecting the operation on the end button m43, the
他方、携帯端末20は、YESボタンm45に対する操作を検知すると、続いて図20に示す画像データの送信確認画面を表示する。図20に示す送信確認画面M10は、画像データを送信するか否かを問うメッセージm47と、今すぐ送信する指示を入力するためのボタンm48と、後で送信する指示を入力するためのボタンm49とを含む。携帯端末20は、ボタンm48に対する操作を検知すると、撮像装置30から転送された物件の画像データと、マッピング処理後の間取り図データとを、通信ネットワークNを介してサーバ10に送信する。他方、携帯端末20は、ボタンm49に対する操作を検知すると、その場では画像データ等の送信を行わず、物件の画像データ及びマッピング処理後の間取り図データを画像データ記憶部252に保存しておく。この場合、携帯端末20は、別途送信指示を受けた段階で、画像データ及び間取り図データをサーバ10に送信する。
On the other hand, when detecting the operation on the YES button m45, the
ここで、撮影者は、物件の画像データ及び間取り図データを、不動産物件の現場でサーバ10に送信しても良いし、サーバ10との通信環境が整ったときに送信しても良い。例えば、撮像対象の部屋数が多い場合には、データ送信に長時間を要することが予想されるので、後者とすることが好ましい。また、携帯端末20からサーバ10に画像データを直接送信しても良いし、携帯端末20から通信ケーブルを介してコンピュータに画像データを送信し、このコンピュータからサーバ10に画像データを送信することとしても良い。
Here, the photographer may transmit the image data and floor plan data of the property to the
ステップS28において、携帯端末20は、物件の画像データ及びマッピング処理後の間取り図データをサーバ10に送信する。ステップS13において、サーバは、これらのデータを受信する。
In step S28, the
続くステップS14において、サーバ10の物件情報更新部133は、画像データ記憶部122に記憶されている間取り図データを、ステップS13において受信したマッピング処理後の間取り図データに更新する。
In the subsequent step S14, the property
続くステップS15において、画像処理部134は、ステップS13において受信した物件の画像データに基づく画像に対して画像処理を施す。詳細には、画像合成部135が、同一の被写体(同じ部屋)を複数回撮像することにより得られた複数の全天球画像から、撮影者の像を消去する処理を行う。
In the subsequent step S15, the
ここで、撮影者の像を消去する処理を、図13、図16、図21、図22を参照しながら説明する。
図13に示す画像I1と図16に示す画像I2とは、同一の被写体を、撮像装置30に対する撮影者の位置を変えて撮像することにより得られた画像である。従って、各画像I1、I2においては、それぞれの画像に写り込んでいる撮影者の像2’の位置が異なるだけであって、それ以外の被写体の像は共通である。そこで、画像I1と画像I2との間で変化があった領域(例えば、図21に示す領域3)を検出することにより、撮影者の像2’を抽出することができる。詳細には、画像I1の座標xに位置する画素の画素値をp(x)、画像I2の座標xに位置する画素の画素値をq(x)として、位置が対応する画素同士で画素値の差を算出する。この差が所定の閾値Th以上である領域、即ち、次式(1)を満たす領域が、画像I1と画像I2との間で変化のあった領域である。
|p(x)-q(x)|≧Th…(1)
Here, the process of erasing the image of the photographer will be described with reference to FIGS. 13, 16, 21 and 22.
The image I1 shown in FIG. 13 and the image I2 shown in FIG. 16 are images obtained by imaging the same subject while changing the position of the photographer with respect to the
| P (x) -q (x) | ≧ Th (1)
従って、|p(x)-q(x)|により算出される画像を閾値Thにより二値化し、得られた二値画像において輪郭追跡を行うことにより、撮影者の像2’と本来の被写体の像とを分離して抽出することができる。
Therefore, the image calculated by | p (x) −q (x) | is binarized by the threshold value Th, and contour tracking is performed on the obtained binary image to obtain the
実際の処理としては、同一の被写体を少なくとも3回撮像することにより得られた3枚の全天球画像(以下、画像A、画像B、画像Cとする)を用い、画像Aと画像Bとの差分画像から抽出した撮影者の像と、画像Bと画像Cとの差分画像から抽出した撮影者の像とのアンドを取ることにより、画像Bにおける撮影者の像の領域を抽出する。そして、画像Bから抽出された撮影者の像の領域に対し、別の画像(画像A又はC)における同じ領域の像を嵌め込む。即ち、画像Bにおける撮影者の像の領域内の画素の画素値を、別の画像内の対応する領域内の画素の画素値に置き換える。それにより、図22に示すような撮影者の像が消去された画像I3を得ることができる。 As the actual processing, using the three omnidirectional images (hereinafter referred to as an image A, an image B, and an image C) obtained by imaging the same subject at least three times, the images A and B and The area of the image of the photographer in the image B is extracted by taking the AND of the image of the photographer extracted from the difference image of and the image of the photographer extracted from the difference image of the image B and the image C. Then, an image of the same area in another image (image A or C) is fitted to the area of the image of the photographer extracted from the image B. That is, the pixel values of pixels in the region of the image of the photographer in image B are replaced with the pixel values of pixels in the corresponding region in another image. Thereby, an image I3 in which the image of the photographer is erased as shown in FIG. 22 can be obtained.
なお、撮像時に三脚等を用いて撮像装置30を固定している場合、撮像装置30の真下の領域については、複数の画像間で差異が生じない。この場合、上述したような画像処理により撮影者の像が消去された画像に対してさらに、撮像装置30の真下を含む所定の範囲が写った領域内の画素の画素値を、当該領域の近傍の画素の画素値に置き換える画像処理を実行する。これにより、当該領域全体が、当該領域の近傍と同じテクスチャとなり、撮像装置30を支持する三脚等の像を消去することができる。この際に画素値を置き換える領域の範囲については、予め設定しておけば良い。
In addition, when the
続くステップS16において、VR画像データ生成部136は、撮影者の像が消去された全天球画像の画像データをもとに、間取り図データにおけるマッピング情報を用いてVR画像データを生成する。さらに、ステップS17において、VR画像データ生成部136は、生成したVR画像データを物件IDと関連付けて画像データ記憶部122に記憶させる。これにより、サーバ10及び携帯端末20の動作は終了する。
In the subsequent step S16, the VR image
以上説明したように、本発明の第1の実施形態によれば、撮影者は、各撮像場所において撮像装置30に対する位置を変更して複数回撮像を行うだけで良いので、容易且つ短時間に撮像を完了することができる。また、第1の実施形態によれば、撮影者の位置が異なる複数の画像間での簡単な演算処理により、全天球画像から撮影者の像2’を消去することができる。従って、撮影者等の写り込みのない全天球画像を容易に取得することができる。
As described above, according to the first embodiment of the present invention, the photographer only has to change the position with respect to the
なお、上記第1の実施形態においては、同一の被写体に対して2回撮像を行うこととしたが、撮像回数は2回に限定されない。例えば、撮影者を含む複数のスタッフが現場にいる場合には、スタッフの位置を変えつつ3回以上撮像を行うことにより、より確実に、スタッフの像を全天球画像から消去することができる。 In the first embodiment, the imaging is performed twice on the same subject, but the number of imaging times is not limited to two. For example, when a plurality of staff members including a photographer are in the field, the image of the staff can be more reliably erased from the omnidirectional image by performing imaging three or more times while changing the staff positions .
また、上記第1の実施形態においては、全天球画像から撮影者の像などの不要な部分を消去する画像処理をサーバ10側において行ったが、この画像処理を携帯端末20側で行っても良い。第1の実施形態においては、上述したように、簡単な演算処理で全天球画像から不要な部分を消去できるので、携帯端末20においても少ない負荷で当該画像処理を実行することができる。この場合、撮影者の像が消去された全天球画像の画像データを携帯端末20からサーバ10に転送し、サーバ10においては、受信した画像データをそのまま用いてVR画像データを生成すれば良い。
In the first embodiment, the
(第1の変形例)
上記第1の実施形態においては、全天球画像から撮影者の像などの不要な領域(以下、単に不要領域ともいう)を消去する画像処理を、サーバ10において自動で行うこととしたが、サーバ10にアクセスした端末装置から入力される情報に基づいて上記画像処理を行うこととしても良い。端末装置としては、サーバ10と通信を行うための通信インタフェースと、表示部と、該表示部における画面表示を制御する表示制御機能等を有する演算部と、外部からなされる操作に応じた信号を入力する入力デバイス(マウス、タッチパネル、キーボード等)とを有する汎用の装置を用いることができる。具体的には、パーソナルコンピュータ、ノートPC、タブレット端末等が用いられる。
(First modification)
In the first embodiment, the
図23は、不要領域をユーザ(端末装置の操作者)に選択させるための操作画面を例示する模式図であり、サーバ10にアクセスした端末装置に設けられた表示部に表示される。図24は、第1の変形例における画像処理を説明するための模式図である。以下の例においては、1つの撮像場所について少なくとも2回撮像を行えば良い。
FIG. 23 is a schematic view illustrating an operation screen for allowing the user (operator of the terminal device) to select the unnecessary area, which is displayed on the display unit provided in the terminal device that has accessed the
図23に示す操作画面M11は、同一の被写体(1つの撮像場所)を複数回撮像することにより取得された画像(図6のステップS25、S26参照)のうちのいずれか(図23においては画像I1)と、不要領域の選択を促すメッセージm50と、OKボタンm51とを含む。ここで、図23においては、画像I1を、全天球画像に写った被写体の一部(例えば半球分の領域に写った被写体)を平面に投影した状態で表示している。操作画面M11においては、端末装置に設けられた入力デバイスにより画像I1に対して所定の操作(例えばスライド操作)を行うことにより、画像I1がスクロールされるようにしても良い。 The operation screen M11 shown in FIG. 23 is one of the images (see steps S25 and S26 in FIG. 6) acquired by imaging the same subject (one imaging location) multiple times (image in FIG. 23). It includes I1), a message m50 for prompting selection of the unnecessary area, and an OK button m51. Here, in FIG. 23, the image I1 is displayed in a state where a part of the subject captured in the omnidirectional image (for example, the subject captured in the region of the hemisphere) is projected on a plane. In the operation screen M11, the image I1 may be scrolled by performing a predetermined operation (for example, a slide operation) on the image I1 by an input device provided in the terminal device.
ユーザは、画像I1の中から目視により撮影者の像2’を見つけ、操作画面M11に対する入力デバイスを用いた所定の操作(例えば、マウスやタッチパネルを用いた描画操作)により、撮影者の像2’を含む領域を囲み(囲み線4参照)、OKボタンm51を選択する。当該端末装置は、入力デバイスから入力される信号から画像I1内の領域を囲む操作及びOKボタンm51に対する操作を検知すると、囲まれた領域が不要領域として選択されたものと判断し、画像I1における当該領域の位置を表す位置情報(座標情報)をサーバ10に送信する。なお、選択される領域は1つであっても良いし、複数であっても良い。
The user visually finds the image 2 'of the photographer from the image I1 and visually detects the
これに応じて、サーバ10の画像処理部134は、端末装置から受信した位置情報に基づき、画像I1において選択された領域内の画素の画素値を、当該撮像時に取得された別の画像(図24に示す画像I2)において対応する領域内の画素(領域4’参照)の画素値に置き換える。これにより、撮影者の像2’が消去された画像(図22参照)を得ることができる。
In response to this, the
本変形例によれば、画像内から消去したい領域をユーザが選択するので、より簡単な画像処理で、不要領域が消去された画像を得ることができる。 According to this modification, since the user selects an area to be deleted from the image, an image from which the unnecessary area is deleted can be obtained by simpler image processing.
(第2の変形例)
上記第1の変形例においては、撮影者の像2’などの不要領域を軌跡4で囲むことにより選択したが、不要領域の選択方法はこれに限定されない。例えば、操作画面に表示された画像(全天球画像の一部)に対してスライド操作をすることにより、当該画像がスクロールされるようになっている場合、不要領域を選択する操作としては、画像内の領域への操作をできるだけ少なくすることが好ましい。
(Second modification)
In the first modification, the unnecessary area such as the image 2 'of the photographer is selected by surrounding it with the
図25及び図26は、不要領域をユーザに選択させるための別の操作画面を例示する模式図である。これらの操作画面も、上記第1の変形例と同様、サーバ10にアクセスした端末装置に設けられた表示部に表示される。
25 and 26 are schematic views illustrating another operation screen for causing the user to select an unnecessary area. These operation screens are also displayed on the display unit provided in the terminal device that has accessed the
図25に示す操作画面M12は、画像I1に対し、マウスやタッチパネル等の入力デバイスを用いて円弧5をなぞる描画操作がなされた場合に、当該円弧5を含む扇形領域6が選択されるようにしたものである。ユーザは、画像I1から撮影者の像2’を見つけた場合、この撮影者の像2’の近傍の円弧5をなぞる。それにより、撮影者の像2’を含む扇形領域6が不要領域として選択される。この場合、ユーザは、画像I1の内部に触れることなく、簡単に領域の選択操作を行うことができる。
In the operation screen M12 shown in FIG. 25, when a drawing operation of tracing the
図26に示す操作画面M13は、画像I1を予め複数の領域7a~7hに分割して表示することにより、分割された領域単位で不要領域が選択されるようにしたものである。ユーザは、分割された領域7a~7hのうちの所望の領域(例えば、撮影者の像2’を含む領域7g)に対し、入力デバイスを用いた所定の操作(例えば、ダブルクリック操作やダブルタップ操作)を行う。それにより、操作がなされた領域(例えば領域7g)が不要領域として選択される。この場合、ユーザは、画像I1に対する最小限の操作で、簡単に領域の選択操作を行うことができる。
The operation screen M13 shown in FIG. 26 divides the image I1 into a plurality of
なお、図26においては、画像I1を扇形に分割しているが、分割方法はこれに限定されない。例えば、画像I1を扇形に分割すると共に、径方向に分割しても良いし、格子状に分割しても良い。 Although the image I1 is divided into sectors in FIG. 26, the division method is not limited to this. For example, the image I1 may be divided into sectors and may be divided radially, or may be divided into grids.
(第3の変形例)
上記第1の変形例においては、不要領域をユーザに選択させるための操作画面に、全天球画像を平面に投影した円形の画像を表示しているが、全天球画像の表示方法はこれに限定されない。
(Third modification)
In the first modified example, a circular image obtained by projecting the omnidirectional image on a plane is displayed on the operation screen for causing the user to select the unnecessary region, but the method of displaying the omnidirectional image is the same. It is not limited to.
図27は、不要領域をユーザに選択させるためのさらに別の操作画面を例示する模式図である。この操作画面も、上記第1の変形例と同様、サーバ10にアクセスした端末装置に設けられた表示部に表示される。
FIG. 27 is a schematic view illustrating still another operation screen for causing the user to select an unnecessary area. This operation screen is also displayed on the display unit provided in the terminal device that has accessed the
図27に示す操作画面M14には、全天球画像(例えば図16に示す画像I2)を直交座標系に座標変換した方形の画像I2’が表示されている。画像I2’の左方及び右方には、アイコンm52、m53がそれぞれ表示されており、これらのアイコンm52、m53に対して所定の操作(例えばクリック又はタップ操作)を行うことにより、画像I2’を左右にスクロールすることができる。或いは、画像I2’に対して直接、所定の操作(例えばスライド操作)を行うことにより、画像I2’がスクロールされるようにしても良い。 On the operation screen M14 shown in FIG. 27, there is displayed a rectangular image I2 'obtained by coordinate-converting an omnidirectional image (for example, an image I2 shown in FIG. 16) into an orthogonal coordinate system. The icons m52 and m53 are displayed on the left and right of the image I2 ′, respectively, and the image I2 ′ is displayed by performing a predetermined operation (for example, click or tap operation) on the icons m52 and m53. You can scroll left and right. Alternatively, the image I2 'may be scrolled by directly performing a predetermined operation (e.g., a slide operation) on the image I2'.
画像I2’に対する不要領域の選択方法は特に限定されない。例えば、第1の変形例と同様に、画像I2’内の所望の領域を囲むことで不要領域が選択されるようにしても良い。或いは、第2の変形例と同様に、画像I2’又は画像I2’の上辺若しくは下辺を水平方向になぞることで、なぞったラインを含む方形の領域が不要領域として選択されるようにしても良い。さらには、画像I2’を予め複数の領域に分割し、分割された領域単位で不要領域が選択されるようにしても良い。 The method of selecting an unnecessary area for the image I2 'is not particularly limited. For example, as in the first modification, the unnecessary area may be selected by surrounding a desired area in the image I2 '. Alternatively, as in the second modification, a rectangular area including a traced line may be selected as an unnecessary area by horizontally tracing the upper side or the lower side of the image I2 ′ or the image I2 ′. . Furthermore, the image I2 'may be divided in advance into a plurality of areas, and the unnecessary area may be selected in the divided area units.
(第4の変形例)
上記第1~3の変形例においては、画像内からユーザが目視により撮影者の像2’を見つけることとしたが、撮影者の像2’の候補領域を自動検出し、候補領域の中から不要領域をユーザに選択させても良い。この場合、サーバ10の画像処理部134は、携帯端末20から送信された画像データに基づき、同一の被写体を複数回撮像することにより取得された複数の画像間の差分を取ることにより、撮影者の像2’と見られる候補領域を予め検出する。候補領域は、第1の実施形態と同様に、式(1)を満たす領域に対して輪郭追跡を行うことにより検出することができる。
(The 4th modification)
In the first to third modifications, although the user visually finds the image 2 'of the photographer from the image, the candidate area of the image 2' of the photographer is automatically detected, and from among the candidate areas The unnecessary area may be selected by the user. In this case, the
図28は、不要領域をユーザに選択させるためのさらに別の操作画面を例示する模式図である。この操作画面も、上記第1の変形例と同様、サーバ10にアクセスした端末装置に設けられた表示部に表示される。
FIG. 28 is a schematic view illustrating still another operation screen for causing the user to select an unnecessary area. This operation screen is also displayed on the display unit provided in the terminal device that has accessed the
図28に示す操作画面M15には、同一の被写体を複数回撮像することにより取得された複数の画像(例えば、図13に示す画像I1と、図16に示す画像I2)のうちのいずれか(図28においては画像I1)が表示されている。この画像I1には、さらに、サーバ10において検出された候補領域を表すマーク8a、8bが重畳して表示されている。このうち、マーク8aは、画像I1に写り込んだ撮影者の像2’に対応し、マーク8bは、画像I2に写り込んだ撮影者の像2’に対応している。なお、マークの種類としては、図28に示すような候補領域の輪郭に限定されない。例えば、候補領域全体を塗りつぶしたオブジェクトであっても良いし、候補領域の位置を指す矢印等であっても良い。
On the operation screen M15 shown in FIG. 28, one of a plurality of images (for example, the image I1 shown in FIG. 13 and the image I2 shown in FIG. 16) acquired by imaging the same subject a plurality of times In FIG. 28, an image I1) is displayed. Further, marks 8a and 8b indicating candidate areas detected in the
携帯端末20は、操作画面M15上でのいずれかのマーク8a、8bに対する操作を検知すると、操作がなされたマーク(例えばマーク8a)を示す情報をサーバ10に送信する。これに応じて、サーバ10の画像処理部134は、操作画面M15に表示されている方の画像I1内のマーク8aに対応する領域の画素の画素値を、別の画像I2内の位置が対応する画素の画素値に置き換える。これにより、撮影者の像2’が消去された画像(図22参照)を得ることができる。
When detecting an operation on any of the
本変形例によれば、同一の被写体を複数回撮像することにより取得された複数の画像間で変化があった領域を候補領域として自動検出するので、ユーザの目視による不要領域の見落としを低減することができる。また、本変形例によれば、候補領域の中から、消去すべき不要領域をユーザに選択させるので、無用な画像処理を抑制することができる。 According to this modification, a region where there is a change between a plurality of images acquired by imaging the same subject multiple times is automatically detected as a candidate region, thereby reducing the oversight of unnecessary regions by the user's visual observation. be able to. Further, according to the present modification, since the user is made to select the unnecessary area to be erased from the candidate areas, it is possible to suppress unnecessary image processing.
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
上記第1の実施形態においては、同一の被写体を複数回撮像することにより複数の全天球画像を取得した後(図6のステップS25、S26参照)、全天球画像から撮影者の像2’などの不要領域を消去する画像処理を行った。しかし、この画像処理を、携帯端末20において、撮像作業と並行して行っても良い。この場合、携帯端末20の演算部26が、プログラム記憶部251に記憶された画像処理プログラムを読み込むことにより、画像処理部としても機能する。以下、携帯端末20において画像処理を行う場合の撮像システム1の動作について説明する。
Second Embodiment
Next, a second embodiment of the present invention will be described.
In the first embodiment, after acquiring a plurality of omnidirectional images by imaging the same subject a plurality of times (see steps S25 and S26 in FIG. 6), the
図29は、本発明の第2の実施形態に係る撮像システムの動作を示すフローチャートである。このうち、ステップS10~S14、S16、S17、及びステップS20~S24は、第1の実施形態と同様である。 FIG. 29 is a flowchart showing the operation of the imaging system according to the second embodiment of the present invention. Among these, steps S10 to S14, S16, S17, and steps S20 to S24 are the same as in the first embodiment.
ステップS24に続くステップS30において、携帯端末20は、撮像装置30に最初の撮像を実行させることにより画像を取得する。このステップS30の詳細は、図6のステップS25と同様である(図11~図13参照)。撮影者が撮像装置30のシャッター操作を行うと、撮像装置30は撮像を開始し、撮像装置30の周囲の被写体が写った全天球画像の画像データを生成する。この画像データは、通信ケーブルを介して又は無線通信により、携帯端末20に転送される。
In step S30 following step S24, the
続くステップS31において、携帯端末20は、ステップS30において取得された画像を表示部23に表示する。詳細には、演算部26(表示制御部262)は、図30に示す不要領域選択画面を作成し、この画面内に、撮像装置30から転送された画像データに基づく画像を配置して表示部23に表示させる。図30に示す不要領域選択画面M16は、ステップS30において取得された画像I4と、不要領域をユーザに選択させるためのメッセージm60と、OKボタンm61とを含む。
In the subsequent step S31, the
撮影者は、画像I4から消去すべき領域、即ち、撮影者自身が写り込んでいる領域(不要領域)を目視で探し、この不要領域を選択する操作を携帯端末20に対して行う。不要領域を選択する操作は特に限定されない。例えば、第1の変形例と同様に不要領域を含む領域を線で囲む方法であっても良いし、第2の変形例と同様に、不要領域を含む扇形領域の円弧をなぞる方法であっても良いし、予め分割された複数の領域のいずれかを選択する方法であっても良い。また、不要領域選択画面M16において、第3の変形例と同様に全天球画像を直交座標系に座標変換した画像を表示しても良い。さらに、選択する領域は1つであっても良いし、複数であっても良い。図30は、画像I4において撮影者の像2’を含む領域を囲み線9で囲んだ状態を示している。
The photographer visually searches an area to be erased from the image I4, that is, an area (unnecessary area) in which the photographer himself is reflected, and performs an operation of selecting the unnecessary area on the
携帯端末20は、画像I4内の1つ以上の領域を選択する信号が入力され、さらに、OKボタンm61に所定の操作(例えばタップ操作)がなされたことを検知すると、画像I4において選択された不要領域の位置情報(座標情報)を記憶する(ステップS32)。
When the
続くステップS33において、携帯端末20は、撮像装置30に再び撮像を実行させることにより画像を取得する。詳細には、演算部26はまず、図31に示す撮像指示画面を表示部23に表示させる。この撮像指示画面M17には、撮影者に移動して撮像を行うよう指示するメッセージm62が表示されている。撮影者がこのメッセージm62に従い、自分自身が移動した上で撮像装置30のシャッター操作を行うと、撮像装置30は撮像を開始し、撮像装置30の周囲の被写体が写った全天球画像の画像データを生成して携帯端末20に転送する。
In the subsequent step S33, the
続くステップS34において、携帯端末20は、ステップS30において取得された画像と、ステップS33において取得された画像とを合成する画像処理を行う。詳細には、画像処理部としての演算部26が、ステップS33において取得された画像から、ステップS32において記憶した不要領域の位置における画素の画素値を取得する。そして、これらの画素値によって、ステップS30において取得された画像I4における不要領域内の画素の画素値を置き換える。
In the following step S34, the
続くステップS35において、携帯端末20は、ステップS34において画像処理が施された画像を表示する。詳細には、演算部26は、図32に示す画像確認画面を作成し、この画面内に、画像処理済みの画像を配置して表示部23に表示させる。図32に示す画像確認画面M18は、画像処理済みの画像I5と、不要領域の有無をユーザに確認させるためのメッセージm64と、不要領域の確認結果を入力させるためのボタンm65、m66とを含む。撮影者は、画像I5を目視し、さらに消去すべき不要領域がない場合には、ボタンm65に対して所定の操作(例えばタップ操作)を行う。反対に、さらに消去すべき不要領域がある場合には、ボタンm66に対して所定の操作(同上)を行う。
In the following step S35, the
携帯端末20が、不要領域がある旨の操作を検知すると(ステップS36:Yes)、携帯端末20の動作はステップS31に戻る。この場合、携帯端末20は、再び不要領域選択画面(図30参照)を作成し、この画面に画像処理済みの画像I5を表示する。それにより、撮影者は、画像I5からさらに不要領域を選択することができる。
When the
他方、携帯端末20が、不要領域はない旨の操作を検知すると(ステップS36:No)、演算部26(マッピング処理部264)は、画像処理済みの画像I5に対応する画像データを間取り図データに対してマッピングする(ステップS37)。それにより、画像処理済みの画像I5の画像データが、間取り図m31上でピンm33により特定された位置に関連づけられる。
On the other hand, when the
続くステップS38において、携帯端末20は、画像処理済みの物件の画像データ及びマッピング処理後の間取り図データをサーバ10に送信する。
In the subsequent step S38, the
サーバ10は、物件の画像データ及び間取り図データを受信し(ステップS13)、間取り図データを更新する(ステップS14)。そして、ステップS13において受信した画像処理済みの画像データを用いてVR画像データを生成し(ステップS16)、生成したVR画像データを記憶する。
The
以上説明したように、本発明の第2の実施形態によれば、撮影者は、物件の現場において、画像内の不要領域の有無を確認しながら撮像作業を進めることができる。従って、不要領域の消去漏れのない画像を取得することが可能となる。 As described above, according to the second embodiment of the present invention, the photographer can proceed with the imaging operation while confirming the presence or absence of the unnecessary region in the image at the site of the property. Therefore, it becomes possible to obtain an image without omission omission of the unnecessary area.
次に、上記第2の実施形態の変形例を説明する。本変形例において携帯端末20(表示制御部262)は、画像I4において選択された不要領域に(ステップS31、S32参照)、ステップS33において取得された画像内の上記不要領域に対応する領域の画像部分を重畳して表示するだけの簡易的な処理を行う(ステップS34、S35)。そして、ステップS38において、携帯端末20は、ステップS30及びステップS33においてそれぞれ取得された画像処理前の画像データと、ステップS32において記憶した不要領域の位置情報(座標情報)とをサーバ10に送信する。サーバ10は、受信した画像データと位置情報とに基づいて、ある画像内の不要領域の画素の画素値を、別の画像内の対応する領域の画素の画素値に置き換えることにより、不要領域を消去する画像処理を実行する。
Next, a modification of the second embodiment will be described. In the present modification, the portable terminal 20 (display control unit 262) sets the image of the area corresponding to the unnecessary area in the image acquired in step S33 to the unnecessary area selected in the image I4 (see steps S31 and S32). A simple process of only superposing and displaying a part is performed (steps S34 and S35). Then, in step S38, the
本変形例によれば、不要領域の有無を確認しながら撮像作業を進めるので、不要領域の消去に必要な画像を確実に取得することができると共に、携帯端末20における演算負荷を低減することが可能となる。
According to this modification, since the imaging operation is performed while confirming the presence or absence of the unnecessary area, it is possible to reliably acquire an image necessary for erasing the unnecessary area and to reduce the calculation load in the
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。図33は、本発明の第3の実施形態に係る撮像システムの動作を示すフローチャートである。図34及び図35は、本発明の第3の実施形態における画像処理を説明するための模式図である。
Third Embodiment
Next, a third embodiment of the present invention will be described. FIG. 33 is a flowchart showing the operation of the imaging system according to the third embodiment of the present invention. FIG. 34 and FIG. 35 are schematic diagrams for explaining image processing in the third embodiment of the present invention.
本実施形態に係る撮像システムにおいては、全天球画像から撮影者の像などの不要領域を消去する画像処理が、上記第1及び第2の実施形態と異なる。以下においては、全天球画像から不要領域を消去する画像処理を、携帯端末20において行う場合を説明するが、この画像処理を、画像をサーバ10に保存した後、端末装置からサーバ10にアクセスして行っても良い。
In the imaging system according to the present embodiment, the image processing for deleting an unnecessary area such as the image of the photographer from the omnidirectional image is different from the first and second embodiments. In the following, a case is described in which the
図33において、ステップS10~S14、S16、S17、及びステップS20~S24は、第1の実施形態と同様である。ステップS24に続くステップS40において、携帯端末20は、撮影場所1箇所につき、撮像装置30に複数回撮像を実行させることにより生成された2枚以上の画像を取得する。この際、1つの撮影場所において、1回撮像するたびに撮影者が移動するなどして、画像間において不要領域の位置が変化するようにする。
In FIG. 33, steps S10 to S14, S16, S17 and steps S20 to S24 are the same as in the first embodiment. In step S40 following step S24, the
続くステップS41において、携帯端末20は、同じ場所で撮影された2枚以上の画像を重畳し、表示部23に表示する。このとき、2枚以上の画像の間で、不要領域以外の被写体の位置が重なるように、画像の向きを揃える。図34は、図13に示す画像I1と、図16に示す画像I2とを重畳した状態を示している。図34においては、画像I1の上に画像I2を重ねているため、画像I1に写った撮影者の像2’(破線部分)は画面に映らず、画像I2に写った撮影者の像2’(実線部分)が画面に映っている。
In the subsequent step S41, the
続くステップS42において、携帯端末20は、表示された画像において不要領域がある旨の操作を検知したか否かを判定する。この判定は、例えば図32と同様に、不要領域の有無をユーザに入力させる2つのボタンを画面に表示し、2つのボタンのいずれかに対して操作(例えばタップ操作)がなされたかを検知することで行うことができる。
In the following step S42, the
携帯端末20は、不要領域がある旨の操作を検知した場合(ステップS42:Yes)、画面になされる操作に応じて、画面に表示された画像内において消去する部分(消去部分)を選択する(ステップS43)。具体的には、携帯端末20は、画面を指でなぞるスワイプ操作を検知すると、なぞられた領域を消去部分として選択する。例えば図34において、画像I2の撮影者の像2’を含む領域A1をなぞる操作が検知された場合、領域A1が消去部分として選択される。消去部分は、本来画像内に残したい被写体(図34においては撮影者の像2’の両脇のドア)にかかっても良い。
When detecting an operation indicating that there is an unnecessary area (step S42: Yes), the
続くステップS44において、携帯端末20は、ステップS43において選択された部分を透明化する。即ち、選択された部分の透過度を100%に設定する。それにより、当該部分においては、下層の画像が画面に映される。例えば図35に示すように、選択された部分A2を透明化することにより、画像I2に写った撮影者の像2’やその周辺の像が画面から消え、下層の画像I1が見えるようになる。その後、処理はステップS41に戻る。
In the following step S44, the
画像が3枚以上重畳されている場合には、透明化された部分に対してさらに消去部分を選択する操作(スワイプ操作)が行われたとき、透明化処理が施された画像(例えば1枚目の画像)の直下(例えば2枚目)の画像における当該選択された部分を透明化する処理が行われる。それにより、さらに下層(例えば3枚目)の画像の当該部分が画面に表示される。 When three or more images are superimposed, when an operation (swipe operation) is further performed to select an erased portion for a portion that has been made transparent, an image (for example, one sheet) that has been subjected to a transparency processing A process is performed to make the selected portion of the image (for example, the second image) directly below the eye image transparent. Thereby, the corresponding portion of the lower layer (for example, the third sheet) is displayed on the screen.
また、ステップS42において、携帯端末20が、不要領域がある旨の操作を検知しない場合(ステップS42:No)、処理はステップS37に移行する。以後のステップS37、S38においては、重畳された2枚以上の画像はセットとして取り扱われる。
Moreover, in step S42, when the
以上説明したように、本発明の第3の実施形態によれば、ユーザ(撮影者)は、自身の指などを用いた画面に対する直感的な操作により、不要領域を消去することができる。また、上層の画像に写った被写体のうち、本来画像内に残すべき被写体が消去部分として選択されてしまった場合でも、下層の画像に写った同じ被写体が画面に表示されるので、消去操作のミスを低減することができる。従って、ユーザは、ラフな操作で簡単に不要領域を消去することが可能となる。 As described above, according to the third embodiment of the present invention, the user (photographer) can erase the unnecessary area by intuitive operation on the screen using his / her finger or the like. In addition, even if a subject that should originally be left in the image is selected as the erased portion among the subjects captured in the upper layer image, the same subject captured in the lower layer image is displayed on the screen. Mistakes can be reduced. Therefore, the user can easily erase the unnecessary area by rough operation.
上記第1~3の実施形態及びこれらの変形例においては、不動産物件の内見用の画像を生成する場合を例として説明したが、本発明はこの他にも、全天球カメラにより周囲の被写体を一気に撮像したいが、撮影者の像を画像に写り込ませたくない各種画像を取得する場合に適用することができる。具体例として、結婚式場等の施設の下見用の画像や、観光案内用として観光地を仮想体験させるための画像などが挙げられる。 In the above first to third embodiments and their modifications, although the case of generating the image for the inside of the real estate property has been described as an example, the present invention is also applicable to the surroundings by the omnidirectional camera. The present invention can be applied to the case of acquiring various images that want to capture an object at once but do not want to capture the image of the photographer in the image. As a specific example, an image for preview of a facility such as a wedding hall, an image for virtual experience of a sightseeing spot for sightseeing guidance, and the like can be mentioned.
一例として、観光案内用の画像を取得する場合、著名な観光地には観光客がひっきりなしに訪れるため、人物が写り込まない観光施設や風景のみの画像を取得することが困難である。このような場合、観光施設や風景を、適宜タイミングを開けて複数回撮像を行うことにより、複数の画像を取得する。この際、撮影者自身も移動する。そして、これらの画像を用いて、画像間で変化が生じている領域、即ち、観光客や通行人等が写った領域を消去する処理を行えば良い。それにより、観光施設や風景のみが写った画像を容易に取得することができる。 As an example, when acquiring an image for sightseeing guidance, it is difficult to acquire an image of only a tourist facility or a landscape in which a person is not reflected, because a tourist visits a famous tourist spot without exception. In such a case, a plurality of images are acquired by imaging a tourist facility or a landscape a plurality of times at appropriate timings. At this time, the photographer also moves. Then, using these images, processing may be performed to delete an area in which a change occurs between the images, that is, an area in which a tourist, a passerby, or the like is captured. As a result, it is possible to easily acquire an image in which only a tourist facility or a landscape is shown.
画像処理の方法としては、第1の実施形態と同様にサーバ10において自動で行っても良いし、第1若しくは第2の変形例又は第2の実施形態と同様に端末装置に表示させた画像からユーザが不要領域を選択する方法であっても良いし、第4の変形例と同様にサーバ10において検出された不要領域の候補領域からユーザが不要領域を選択する方法であっても良い。或いは、第2の実施形態と同様に、撮像と、画像からの不要領域の選択と、画像処理又は重畳画像の表示とを、撮像場所において繰り返しても良い。後者の場合には、撮像しているその場で、不要領域を消去できているか否かを確認することができるので、画像処理による不要領域の消去漏れを抑制することができる。或いは、画像処理の失敗に備えて多めに撮像を行うといった手間を減らすことができる。
The image processing method may be automatically performed in the
別の例として、旅行先での記念写真を撮る場合、やはり、著名な観光地には観光客が訪れるため、観光施設や風景を背景に自分(撮影者自身)たちだけが写った画像を取得することが困難である。このような場合、背景及び写真に残したい人物の構図を決め、適宜タイミングを開け、同じ構図で複数回撮像を行う。このときは、撮影者自身も移動する必要はない。そして、取得した複数の画像を用いて、画像間で変化が生じている領域を消去する処理を行うことにより、背景と自分たちだけが写った画像を容易に取得することができる。 As another example, when taking a memorial photo at a travel destination, a tourist visits a famous tourist spot, so I get an image showing only myself (photographer himself) in the background of a tourist facility or landscape. It is difficult to do. In such a case, the composition of the person to be left in the background and the photograph is determined, the timing is appropriately opened, and imaging is performed multiple times with the same composition. At this time, the photographer does not have to move as well. Then, by using the plurality of acquired images and performing processing to delete the area in which changes occur between the images, it is possible to easily acquire an image in which only the background and the images appear.
これらの場合には、全天球画像の画像データを、不動産物件の間取り図データのように、撮像場所の位置を特定する画像の画像データにマッピングしても良い。具体的には、地図データ、観光施設の見取り図の画像データ等が挙げられる。 In these cases, the image data of the omnidirectional image may be mapped to the image data of the image that specifies the position of the imaging location, like the floor plan data of the real estate property. Specifically, map data, image data of a sketch of a tourist facility, etc. may be mentioned.
本発明は、上記第1~3の実施形態及び変形例に限定されるものではなく、上記第1~3の実施形態及び変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、第1~3の実施形態及び変形例に示した全構成要素からいくつかの構成要素を除外して形成しても良いし、第1~3の実施形態及び変形例に示した構成要素を適宜組み合わせて形成しても良い。 The present invention is not limited to the above first to third embodiments and modifications, and various combinations of plural components disclosed in the above first to third embodiments and modifications can be made. Invention can be formed. For example, some components may be excluded from all the components shown in the first to third embodiments and the modification, or the components shown in the first to third embodiments and the modification These may be combined appropriately.
1 撮像システム
2 撮影者
2’ 撮影者の像
3、4’7a~7h 領域
4、9 囲み線
5 円弧
6 扇形領域
8a、8b マーク
10 サーバ
11 通信部
12 記憶部
13 演算部
20 携帯端末
21 通信部
22 入力部
23 表示部
24 読み取り部
25 記憶部
26 演算部
30 撮像装置
30a、30b 超広角レンズ
30c 筐体
31a、31b 撮像部
32 通信部
33 記憶部
34 操作部
35 制御部
121 プログラム記憶部
122 画像データ記憶部
123 物件情報データベース
131 物件情報登録部
132 物件情報抽出部
133 物件情報更新部
134 画像処理部
135 画像合成部
136 VR画像データ生成部
251 プログラム記憶部
252 画像データ記憶部
261 識別情報取得部
262 表示制御部
263 画像データ取得部
264 マッピング処理部
351 画像処理部
DESCRIPTION OF
Claims (16)
前記撮像装置に同一の被写体を複数回撮像させることにより生成される複数の画像であって、前記撮像装置に対する前記被写体以外の物体の位置が異なる複数の画像の画像データを取得する画像データ取得部と、
前記複数の画像を合成することにより、前記物体の像が消去された画像を生成する画像処理部と、
を備える撮像システム。 An imaging device for generating an image in which an object included in a range of 360 ° in all directions is captured by one imaging operation;
An image data acquisition unit that acquires image data of a plurality of images generated by causing the imaging device to capture the same subject a plurality of times, the images being different in position of an object other than the subject with respect to the imaging device When,
An image processing unit that generates an image in which the image of the object is erased by combining the plurality of images;
An imaging system comprising:
通信ネットワークを介して前記サーバと接続された携帯端末と、
を備え、
前記画像データ取得部は、前記携帯端末に設けられ、
前記画像処理部は前記サーバに設けられ、
前記携帯端末は、前記画像データ取得部が取得した前記複数の画像の画像データを前記サーバに送信し、
前記サーバは、前記複数の画像の画像データを受信し、該画像データに基づく画像処理を前記画像処理部に実行させる、
請求項1に記載の撮像システム。 A server that manages images,
A mobile terminal connected to the server via a communication network,
Equipped with
The image data acquisition unit is provided in the portable terminal.
The image processing unit is provided in the server,
The portable terminal transmits image data of the plurality of images acquired by the image data acquisition unit to the server.
The server receives image data of the plurality of images, and causes the image processing unit to execute image processing based on the image data.
The imaging system according to claim 1.
通信ネットワークを介して前記サーバと接続された携帯端末と、
を備え、
前記画像データ取得部及び前記画像処理部は、前記携帯端末に設けられ、
前記携帯端末は、前記画像処理部により生成された前記物体の像が消去された画像の画像データを前記サーバに送信する、
請求項1に記載の撮像システム。 A server that manages images,
A mobile terminal connected to the server via a communication network,
Equipped with
The image data acquisition unit and the image processing unit are provided in the portable terminal.
The portable terminal transmits, to the server, image data of an image from which the image of the object generated by the image processing unit is erased.
The imaging system according to claim 1.
表示部と、
外部からなされる操作に応じた信号を入力する入力デバイスと、
前記複数の画像のうちの1つの画像を前記表示部に表示させると共に、前記入力デバイスから前記1つの画像内の少なくとも1つの領域を選択する信号が入力された場合に、前記1つの画像内の前記少なくとも1つの領域に対し、前記複数の画像のうちの他の画像内の前記少なくとも1つの領域に対応する領域を重畳して前記表示部に表示させる表示制御部と、
をさらに有すると共に、前記1つの画像における前記少なくとも1つの領域の位置を表す位置情報を前記サーバにさらに送信し、
前記画像処理部は、前記複数の画像の画像データに加え、前記位置情報を用いて、前記物体の像が消去された画像を生成する、
請求項2又は3に記載の撮像システム。 The portable terminal is
A display unit,
An input device for inputting a signal according to an operation performed from the outside;
When one of the plurality of images is displayed on the display unit, and a signal for selecting at least one region in the one image is input from the input device, the signal in the one image A display control unit configured to superimpose a region corresponding to the at least one region in another image of the plurality of images on the at least one region and to display the region on the display unit;
, And further transmitting to the server position information representing the position of the at least one region in the one image;
The image processing unit generates the image in which the image of the object is erased, using the position information in addition to the image data of the plurality of images.
The imaging system according to claim 2 or 3.
表示部と、
外部からなされる操作に応じた信号を入力する入力デバイスと、
前記複数の画像のうちの1つの画像を前記表示部に表示させる表示制御部と、
をさらに有し、
前記画像処理部は、前記入力デバイスから前記1つの画像内の少なくとも1つの領域を選択する信号が入力された場合に、前記複数の画像の画像データに加え、前記1つの画像における前記少なくとも1つの領域の位置を表す位置情報を用いて、前記物体の像が消去された画像を生成する、
請求項4又は5に記載の撮像システム。 The portable terminal is
A display unit,
An input device for inputting a signal according to an operation performed from the outside;
A display control unit that causes one of the plurality of images to be displayed on the display unit;
And have
The image processing unit adds, to the image data of the plurality of images, the at least one of the one image when a signal for selecting at least one region in the one image is input from the input device. Generating an image in which the image of the object is erased, using position information representing the position of the area;
The imaging system according to claim 4 or 5.
表示部と、
前記撮像装置により1回目の撮像を実行する旨を指示する第1の撮像指示画面と、前記1回目の撮像終了後に前記物体の位置を変更させて前記撮像装置により2回目の撮像を実行する旨を指示する第2の撮像指示画面とを前記表示部に順次表示させる表示制御部と、
をさらに有する請求項2~5のいずれか1項に記載の撮像システム。 The portable terminal is
A display unit,
A first imaging instruction screen for instructing to execute the first imaging by the imaging device, and changing the position of the object after the first imaging is completed, and performing the second imaging by the imaging device A display control unit that causes the display unit to sequentially display a second imaging instruction screen for instructing the
The imaging system according to any one of claims 2 to 5, further comprising
請求項1~5のいずれか1項に記載の撮像システム。 The image processing unit extracts an area in which a change in pixel value occurs among the plurality of images, and the pixel value of the area in one image of the plurality of images is set to one of the plurality of images. Replace with the pixel value of the area in another image
The imaging system according to any one of claims 1 to 5.
外部からなされる操作に応じた信号を入力する入力デバイスと、
前記複数の画像のうちの1つの画像を前記表示部に表示させる表示制御部と、
をさらに備え、
前記画像処理部は、前記入力デバイスから前記1つの画像内の少なくとも1つの領域を選択する信号が入力された場合に、前記1つの画像内の前記少なくとも1つの領域の画素値を、前記複数の画像のうちの他の画像内の前記少なくとも1つの領域に対応する領域の画素値に置き換える、
請求項1~5のいずれか1項に記載の撮像システム。 A display unit,
An input device for inputting a signal according to an operation performed from the outside;
A display control unit that causes one of the plurality of images to be displayed on the display unit;
And further
When the image processing unit receives a signal for selecting at least one region in the one image from the input device, the image processing unit may generate pixel values of the at least one region in the one image by the plurality of pixels. Replace the pixel value of the area corresponding to the at least one area in another image of the images,
The imaging system according to any one of claims 1 to 5.
外部からなされる操作に応じた信号を入力する入力デバイスと、
前記複数の画像のうちの1つの画像を前記表示部に表示させる表示制御部と、
をさらに備え、
前記画像処理部は、前記複数の画像間で画素値の変化が生じている少なくとも1つの領域を抽出し、
前記表示制御部は、前記表示部に表示させた前記1つの画像に、前記画像処理部が抽出した前記少なくとも1つの領域をそれぞれ表す少なくとも1つのマークを重畳して表示させ、
前記画像処理部は、前記入力デバイスから前記少なくとも1つのマークのうちの少なくともいずれかを選択する信号が入力された場合に、前記1つの画像内の前記少なくともいずれかのマークに対応する領域の画素値を、前記複数の画像のうちの他の画像内の対応する領域の画素値に置き換える、
請求項1~5のいずれか1項に記載の撮像システム。 A display unit,
An input device for inputting a signal according to an operation performed from the outside;
A display control unit that causes one of the plurality of images to be displayed on the display unit;
And further
The image processing unit extracts at least one region in which a change in pixel value occurs among the plurality of images,
The display control unit superimposes and displays at least one mark respectively representing the at least one area extracted by the image processing unit on the one image displayed on the display unit.
The image processing unit is configured such that, when a signal for selecting at least one of the at least one marks is input from the input device, a pixel of an area corresponding to the at least one of the marks in the one image. Replace the values with pixel values of corresponding regions in other ones of the plurality of images,
The imaging system according to any one of claims 1 to 5.
外部からなされる操作に応じた信号を入力する入力デバイスと、
前記複数の画像を重畳し、前記表示部に表示させる表示制御部と、
をさらに備え、
前記画像処理部は、前記入力デバイスから、前記複数の画像のうち前記表示部に表示された最上層の画像内の領域を選択する信号が入力された場合に、前記領域を透明化する、
請求項1~5のいずれか1項に記載の撮像システム。 A display unit,
An input device for inputting a signal according to an operation performed from the outside;
A display control unit configured to superimpose the plurality of images and display the plurality of images on the display unit;
And further
The image processing unit makes the region transparent when a signal for selecting a region in the image of the top layer displayed on the display unit among the plurality of images is input from the input device.
The imaging system according to any one of claims 1 to 5.
前記複数の画像の画像データを、前記位置を特定する画像の画像データにマッピングするマッピング処理部と、
をさらに備える請求項1~15のいずれか1項に記載の撮像システム。
A storage unit that stores image data of an image that specifies the position of an imaging location;
A mapping processing unit that maps the image data of the plurality of images to the image data of the image specifying the position;
The imaging system according to any one of claims 1 to 15, further comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018531898A JP6514418B2 (en) | 2016-08-02 | 2017-07-31 | Imaging system, imaging method, and program |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016-151768 | 2016-08-02 | ||
| JP2016151768 | 2016-08-02 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018025825A1 true WO2018025825A1 (en) | 2018-02-08 |
Family
ID=61073463
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2017/027790 Ceased WO2018025825A1 (en) | 2016-08-02 | 2017-07-31 | Image capture system |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP6514418B2 (en) |
| WO (1) | WO2018025825A1 (en) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020016767A (en) * | 2018-07-26 | 2020-01-30 | キヤノン株式会社 | Imaging device |
| WO2020145212A1 (en) * | 2019-01-11 | 2020-07-16 | Ricoh Company, Ltd. | Image capturing apparatus, image capturing method, and recording medium |
| JP2020113974A (en) * | 2019-01-11 | 2020-07-27 | 株式会社リコー | Imaging device, method and program |
| JP2023059632A (en) * | 2021-10-15 | 2023-04-27 | 株式会社デンソーテン | Image processing device, image display system and image processing method |
| JP2023105319A (en) * | 2022-01-19 | 2023-07-31 | シャープ株式会社 | Information processing device, image determination method and program |
| US11825213B2 (en) | 2019-06-17 | 2023-11-21 | Ricoh Company, Ltd. | Removal of image capture device from omnidirectional image created by stitching partial images |
| WO2024247850A1 (en) * | 2023-05-26 | 2024-12-05 | Fairy Devices株式会社 | Portable terminal, program, method, and system |
| US12389122B2 (en) | 2022-12-13 | 2025-08-12 | Canon Kabushiki Kaisha | Image capturing apparatus, control method therefor, and storage medium storing program |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008295107A (en) * | 2000-03-14 | 2008-12-04 | Fujifilm Corp | Digital camera and image processing method |
| JP2014096661A (en) * | 2012-11-08 | 2014-05-22 | International Business Maschines Corporation | Method for realtime diminishing of moving object in moving image during photographing of moving image, moving image photographing apparatus for the same, and program for mentioned moving image photographing apparatus |
| JP2015109497A (en) * | 2013-12-03 | 2015-06-11 | キヤノン株式会社 | Movie playback device, movie playback method and program |
| JP2015173407A (en) * | 2014-03-12 | 2015-10-01 | 有限会社デザインオフィス・シィ | Subject composite image generation method, computer-readable recording medium having recorded program for generating subject composite image, and composite image provision method |
| JP2016019249A (en) * | 2014-07-11 | 2016-02-01 | キヤノン株式会社 | Display control device |
| JP2016062486A (en) * | 2014-09-19 | 2016-04-25 | 株式会社ソニー・コンピュータエンタテインメント | Image generation device and image generation method |
| JP2016082327A (en) * | 2014-10-14 | 2016-05-16 | ソニー株式会社 | Information processing apparatus, information processing method and program |
| JP2016103806A (en) * | 2014-11-28 | 2016-06-02 | キヤノン株式会社 | Imaging apparatus, image processing apparatus, imaging system, image processing method, and program |
| JP2016110639A (en) * | 2014-12-05 | 2016-06-20 | 株式会社リコー | Service system, information processor, and service providing method |
Family Cites Families (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002140715A (en) * | 2000-10-31 | 2002-05-17 | Dainippon Printing Co Ltd | Multi-screen composition system |
| JP2005012660A (en) * | 2003-06-20 | 2005-01-13 | Nikon Corp | Image generation method and image generation apparatus |
| DE102007045835B4 (en) * | 2007-09-25 | 2012-12-20 | Metaio Gmbh | Method and device for displaying a virtual object in a real environment |
| JP2012175533A (en) * | 2011-02-23 | 2012-09-10 | Sanyo Electric Co Ltd | Electronic apparatus |
| JP6065195B2 (en) * | 2012-05-08 | 2017-01-25 | パナソニックIpマネジメント株式会社 | Display image forming apparatus and display image forming method |
| JP6065474B2 (en) * | 2012-09-11 | 2017-01-25 | 株式会社リコー | Imaging control apparatus, imaging control method, and program |
| JP6002529B2 (en) * | 2012-10-04 | 2016-10-05 | パイオニア株式会社 | Electronic device, data generation method, program, recording medium, client server system, client terminal, and server device |
| JP2015070483A (en) * | 2013-09-30 | 2015-04-13 | 株式会社日立ソリューションズ | Image acquisition program, image acquisition device, and image acquisition method |
| JP6099595B2 (en) * | 2014-04-22 | 2017-03-22 | 本田技研工業株式会社 | In-car communication system |
| JP2015207964A (en) * | 2014-04-23 | 2015-11-19 | キヤノンマーケティングジャパン株式会社 | Imaging apparatus, imaging control method, program and recording medium |
| JP6222205B2 (en) * | 2015-11-20 | 2017-11-01 | 株式会社リコー | Image processing device |
-
2017
- 2017-07-31 JP JP2018531898A patent/JP6514418B2/en active Active
- 2017-07-31 WO PCT/JP2017/027790 patent/WO2018025825A1/en not_active Ceased
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008295107A (en) * | 2000-03-14 | 2008-12-04 | Fujifilm Corp | Digital camera and image processing method |
| JP2014096661A (en) * | 2012-11-08 | 2014-05-22 | International Business Maschines Corporation | Method for realtime diminishing of moving object in moving image during photographing of moving image, moving image photographing apparatus for the same, and program for mentioned moving image photographing apparatus |
| JP2015109497A (en) * | 2013-12-03 | 2015-06-11 | キヤノン株式会社 | Movie playback device, movie playback method and program |
| JP2015173407A (en) * | 2014-03-12 | 2015-10-01 | 有限会社デザインオフィス・シィ | Subject composite image generation method, computer-readable recording medium having recorded program for generating subject composite image, and composite image provision method |
| JP2016019249A (en) * | 2014-07-11 | 2016-02-01 | キヤノン株式会社 | Display control device |
| JP2016062486A (en) * | 2014-09-19 | 2016-04-25 | 株式会社ソニー・コンピュータエンタテインメント | Image generation device and image generation method |
| JP2016082327A (en) * | 2014-10-14 | 2016-05-16 | ソニー株式会社 | Information processing apparatus, information processing method and program |
| JP2016103806A (en) * | 2014-11-28 | 2016-06-02 | キヤノン株式会社 | Imaging apparatus, image processing apparatus, imaging system, image processing method, and program |
| JP2016110639A (en) * | 2014-12-05 | 2016-06-20 | 株式会社リコー | Service system, information processor, and service providing method |
Cited By (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022128489A (en) * | 2018-07-26 | 2022-09-01 | キヤノン株式会社 | Imaging device |
| WO2020022132A1 (en) * | 2018-07-26 | 2020-01-30 | キヤノン株式会社 | Image capture device |
| US11843852B2 (en) | 2018-07-26 | 2023-12-12 | Canon Kabushiki Kaisha | Imaging apparatus for generating image from first image corresponding to first field of view and second image corresponding to second field of view |
| JP2020016767A (en) * | 2018-07-26 | 2020-01-30 | キヤノン株式会社 | Imaging device |
| US11595563B2 (en) | 2018-07-26 | 2023-02-28 | Canon Kabushiki Kaisha | Imaging apparatus for generating a composite image from a plurality of images |
| JP7154858B2 (en) | 2018-07-26 | 2022-10-18 | キヤノン株式会社 | Imaging device |
| JP2020113974A (en) * | 2019-01-11 | 2020-07-27 | 株式会社リコー | Imaging device, method and program |
| US11388332B2 (en) | 2019-01-11 | 2022-07-12 | Ricoh Company, Ltd. | Image capturing apparatus, image capturing method, and recording medium |
| CN113261272A (en) * | 2019-01-11 | 2021-08-13 | 株式会社理光 | Image capturing apparatus, image capturing method, and recording medium |
| WO2020145212A1 (en) * | 2019-01-11 | 2020-07-16 | Ricoh Company, Ltd. | Image capturing apparatus, image capturing method, and recording medium |
| CN113261272B (en) * | 2019-01-11 | 2024-01-12 | 株式会社理光 | Image capture device, image capture method and recording medium |
| JP7516755B2 (en) | 2019-01-11 | 2024-07-17 | 株式会社リコー | Imaging device, method and program |
| US11825213B2 (en) | 2019-06-17 | 2023-11-21 | Ricoh Company, Ltd. | Removal of image capture device from omnidirectional image created by stitching partial images |
| JP2023059632A (en) * | 2021-10-15 | 2023-04-27 | 株式会社デンソーテン | Image processing device, image display system and image processing method |
| JP7674987B2 (en) | 2021-10-15 | 2025-05-12 | 株式会社デンソーテン | IMAGE PROCESSING APPARATUS, IMAGE DISPLAY SYSTEM AND IMAGE PROCESSING METHOD |
| JP2023105319A (en) * | 2022-01-19 | 2023-07-31 | シャープ株式会社 | Information processing device, image determination method and program |
| US12389122B2 (en) | 2022-12-13 | 2025-08-12 | Canon Kabushiki Kaisha | Image capturing apparatus, control method therefor, and storage medium storing program |
| JP2024170038A (en) * | 2023-05-26 | 2024-12-06 | Fairy Devices株式会社 | Mobile terminal, program, method, and system |
| JP7627443B2 (en) | 2023-05-26 | 2025-02-06 | Fairy Devices株式会社 | Mobile terminal, program, method, and system |
| WO2024247850A1 (en) * | 2023-05-26 | 2024-12-05 | Fairy Devices株式会社 | Portable terminal, program, method, and system |
Also Published As
| Publication number | Publication date |
|---|---|
| JPWO2018025825A1 (en) | 2019-01-17 |
| JP6514418B2 (en) | 2019-05-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6514418B2 (en) | Imaging system, imaging method, and program | |
| US20250321650A1 (en) | Augmented reality eyewear 3d painting | |
| JP6627861B2 (en) | Image processing system, image processing method, and program | |
| CN112926428B (en) | Method and system and storage medium for training object detection algorithms using synthetic images | |
| JP4434890B2 (en) | Image composition method and apparatus | |
| CN106133794B (en) | Information processing method, information processing apparatus, and program | |
| JP4137078B2 (en) | Mixed reality information generating apparatus and method | |
| JP2013206322A (en) | Information processor, information processing system and information processing method | |
| WO2018188499A1 (en) | Image processing method and device, video processing method and device, virtual reality device and storage medium | |
| JP2017199379A (en) | Tracking display system, tracking display program, tracking display method, wearable device using the same, tracking display program for wearable device, and manipulation method for wearable device | |
| CN110610531A (en) | Image processing method, image processing apparatus, and recording medium | |
| CN108304075A (en) | A kind of method and apparatus carrying out human-computer interaction in augmented reality equipment | |
| CN109448050B (en) | Method for determining position of target point and terminal | |
| JP7499819B2 (en) | Head-mounted display | |
| JP6938494B2 (en) | Flowerbed ordering system and planting plan support program | |
| US20190311796A1 (en) | Color analysis and control using an electronic mobile device transparent display screen integral with the use of augmented reality glasses | |
| JP6495538B2 (en) | Image content search | |
| EP2107529A2 (en) | Storage medium storing image conversion programm and image conversion apparatus | |
| JPWO2018225804A1 (en) | Image display device, image display method, and image display program | |
| WO2024022070A1 (en) | Picture display method and apparatus, and device and medium | |
| KR102339825B1 (en) | Device for situation awareness and method for stitching image thereof | |
| JP2007034628A (en) | Image processing method and apparatus | |
| JP2009015583A (en) | Image processing apparatus and image processing method | |
| CN114339029B (en) | Shooting method, device and electronic equipment | |
| JP4703744B2 (en) | Content expression control device, content expression control system, reference object for content expression control, and content expression control program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| WWE | Wipo information: entry into national phase |
Ref document number: 2018531898 Country of ref document: JP |
|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17836930 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 17836930 Country of ref document: EP Kind code of ref document: A1 |