WO2019163599A1 - 情報処理装置、移動装置、および方法、並びにプログラム - Google Patents
情報処理装置、移動装置、および方法、並びにプログラム Download PDFInfo
- Publication number
- WO2019163599A1 WO2019163599A1 PCT/JP2019/005045 JP2019005045W WO2019163599A1 WO 2019163599 A1 WO2019163599 A1 WO 2019163599A1 JP 2019005045 W JP2019005045 W JP 2019005045W WO 2019163599 A1 WO2019163599 A1 WO 2019163599A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- display
- information processing
- mobile device
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
- G06Q30/0265—Vehicular advertisement
- G06Q30/0266—Vehicular advertisement based on the position of the vehicle
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
- G06Q30/0259—Targeted advertisements based on store location
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/02—Registering or indicating driving, working, idle, or waiting time only
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09F—DISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
- G09F21/00—Mobile visual advertising
- G09F21/04—Mobile visual advertising by land vehicles
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09F—DISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
- G09F21/00—Mobile visual advertising
- G09F21/04—Mobile visual advertising by land vehicles
- G09F21/048—Advertisement panels on sides, front or back of vehicles
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09F—DISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
- G09F9/00—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
- G09F9/30—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/377—Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09F—DISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
- G09F9/00—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
- G09F9/30—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
- G09F9/35—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements being liquid crystals
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/068—Adjustment of display parameters for control of viewing angle adjustment
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/06—Remotely controlled electronic signs other than labels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/10—Automotive applications
Definitions
- the present disclosure relates to an information processing device, a mobile device, a method, and a program. More specifically, the present invention relates to an information processing apparatus, a moving apparatus, a method, and a program that execute display control of an output image of a display unit installed on the outer surface of the moving apparatus, and processing that applies the display image.
- an advertising technique in which an advertisement image is displayed on a large display provided on the side of the vehicle and the vehicle is moved to a busy area where many people gather to provide advertisements to more people.
- Patent Document 1 Japanese Patent Application Laid-Open No. 2015-184335 discloses a configuration for controlling a moving path of a moving body that presents an advertisement in order to enhance an advertisement providing effect.
- Patent Document 1 discloses a configuration for increasing the advertising effect by controlling the movement path, for example, by display control of an image displayed on the display unit of the moving body and various processes using the image. A configuration for increasing the user's attention is not disclosed.
- the present disclosure is intended to improve the degree of attention of the user and further improve the advertising effect by performing display control of the output image of the display unit installed on the outer surface of the mobile device and various processes using the image. It is an object of the present invention to provide an information processing apparatus, a mobile apparatus, a method, and a program that are made possible.
- the first aspect of the present disclosure is: A display unit provided outside the moving device; An image control unit that executes control of a display image of the display unit; The image control unit The information processing apparatus executes control for changing a display image of the display unit according to a traveling state of the moving device.
- the second aspect of the present disclosure is: A display unit provided outside the moving device; An image control unit for controlling the display image of the display unit; A camera that is an image input unit that captures an image around the mobile device; The image control unit The information processing apparatus executes control for changing a display image of the display unit according to a user analysis result around the moving apparatus based on a camera photographed image.
- the third aspect of the present disclosure is: A display unit provided outside the moving device; An image control unit for controlling the display image of the display unit; A sensor for detecting a traveling state of the mobile device; The image control unit The mobile device executes control for changing a display image of the display unit according to a traveling state of the mobile device analyzed from detection information of the sensor.
- the fourth aspect of the present disclosure is: An information processing method executed in an information processing apparatus,
- the information processing apparatus includes an image control unit that executes control of a display image of a display unit provided outside the moving device;
- the image control unit In the information processing method for executing control for changing a display image of the display unit in accordance with a traveling state of the moving device.
- the fifth aspect of the present disclosure is: An information processing method executed in a mobile device,
- the mobile device is A display unit provided outside the moving device;
- An image control unit for controlling the display image of the display unit;
- a sensor for detecting a traveling state of the mobile device;
- the image control unit The information processing method includes executing control for changing a display image of the display unit in accordance with a traveling state of the moving device analyzed from detection information of the sensor.
- the sixth aspect of the present disclosure is: A program for executing information processing in an information processing apparatus;
- the information processing apparatus includes an image control unit that executes control of a display image of a display unit provided outside the moving device;
- the program is stored in the image control unit.
- the program of the present disclosure is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format to an information processing apparatus or a computer system that can execute various program codes.
- a program in a computer-readable format, processing corresponding to the program is realized on the information processing apparatus or the computer system.
- system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
- a configuration is realized in which a display image on a display unit provided outside a mobile device such as a bus is controlled to increase the degree of attention of the user and increase the advertising effect.
- a display unit provided on the outside of a moving device such as a bus and an image control unit that executes control of a display image on the display unit, the image control unit is in a traveling state of the moving device. Accordingly, control for changing the display image of the display unit is executed. For example, the display image is changed according to each state in which the mobile device is accelerating, decelerating, or traveling at a constant speed. Alternatively, an AR image using a real object in the vicinity of the moving device is generated and displayed.
- FIG. 25 is a diagram for describing a configuration example of an information processing device. It is a figure explaining the example of a process which a moving apparatus and information processing apparatus perform. It is a figure explaining the example of a process which a moving apparatus and information processing apparatus perform. It is a figure explaining the example of a process which a moving apparatus and information processing apparatus perform. It is a figure explaining the example of a process which a moving apparatus and information processing apparatus perform. It is a figure explaining the example of a process which a mobile device and information processing apparatus perform. It is a figure explaining the example of a process which a moving apparatus and information processing apparatus perform.
- FIG. 25 is a diagram for describing an example hardware configuration of an information processing device. It is a figure explaining an example of the detailed composition of a moving device. It is a figure explaining an example of the detailed composition of a moving device. It is a figure explaining an example of the detailed composition of a moving device. It is a figure explaining an example of the detailed composition of a moving device. It is a figure explaining an example of the detailed composition of a moving device.
- FIG. 1 illustrates an example of the mobile device 10 of the present disclosure.
- a moving device 10 shown in FIG. 1 is a vehicle such as a bus, a passenger car, or a golf cart. Either a general vehicle by a driver or an automatic driving vehicle that performs unmanned driving may be used.
- the mobile device 10 will be described as a vehicle, but the processing and configuration of the present disclosure can be applied to various mobile devices such as a logistics robot, a ship, a flying object, and the like.
- a display unit 11 is provided on the outer surface of the moving device 10 such as a bus.
- a thin display device such as an LCD or an organic EL panel is provided.
- the moving device 10 is provided with a camera 12 that captures images in the front, rear, left, and right directions of the moving device 10.
- the example shown in FIG. 1 is an example in which the display unit 11 is installed on the side surface of the moving device 10.
- the display unit 11 is provided on the front and rear surfaces of the moving device 10. It is good also as a setting to do. For example, in the case of an autonomous driving vehicle, traveling is performed based on an image of a camera or sensor detection information, so that a driver is unnecessary. Therefore, it is not necessary for the driver to confirm the front, and the display unit can be set without providing a window in front.
- FIG. 3 is a diagram illustrating an example of a network connection configuration of the mobile device 10.
- the mobile device 10 includes a communication unit that performs wireless communication, and via a communication network 20 illustrated in FIG. 3, a user terminal 21, a signage device 22 that is an image output device such as an advertisement, a data processing server 31, and service provision It is configured to be able to communicate with various cloud devices such as the server 32 and the advertisement server 33.
- the data processing server 31 performs, for example, a process of executing data processing related to data received from the mobile device 10 and other devices of the user terminal 21 and providing a processing result to each device. For example, when the mobile device 10 is an autonomous driving vehicle, a process of receiving camera-captured images and sensor acquisition information of the mobile device 10 and transmitting control information on the travel route to the mobile device 10 is performed. Further, display information is provided to the display unit 11 and controlled.
- the service providing server 32 is a server that provides various information and services such as a news information providing server, a weather information providing server, and a traffic information providing server. As shown in the figure, the mobile device 10 executes, for example, a process of acquiring information related to a weather forecast from a weather information providing server and displaying it on the display unit 11.
- the advertisement server 33 is a server that distributes advertisements provided by various companies.
- the mobile device 10 acquires various advertisement information from the advertisement server 33 such as a car advertisement, a clothing advertisement, an appliance advertisement, and a travel information advertisement, and displays them on the display unit 11.
- the mobile device 10 the user terminal 21, the signage device 22, the data processing server 31, the service providing server 32, the advertisement server 33, and one each of these are shown.
- a large number of devices are connected to a network and can communicate with each other.
- FIG. 4 is a diagram illustrating a configuration example of the information processing apparatus 100 mounted on the mobile device 10.
- the information processing apparatus 100 includes an input unit 110, an output unit 120, and a data processing unit 150.
- the data processing unit 150 can be configured in the information processing apparatus 100 mounted on the mobile device 10, but is not configured in the information processing apparatus 100 of the mobile device 10, and the data processing unit of the external server. May be used.
- the information processing apparatus 100 transmits the input data input from the input unit 110 to the server via the network, receives the processing result of the data processing unit 150 of the server, and outputs the output unit 120. Output via.
- the input unit 110 includes an audio input unit (microphone) 111, an image input unit (camera) 112, and a sensor 113.
- the output unit 120 includes an audio output unit (speaker) 121 and an image output unit (display unit) 122.
- the information processing apparatus 100 of the mobile device 10 has these components at a minimum.
- the image output unit (display unit) 122 is a display installed in the vehicle of the moving device 10 in addition to the left and right side surfaces and the front and rear surfaces of the moving device 10. It is comprised by several display parts, such as a part.
- the data processing unit 150 is configured in either the information processing device 100 of the mobile device 10 or a server that can communicate with the information processing device 100 of the mobile device 10.
- the data processing unit 150 includes an input data analysis unit 160, a storage unit 170, an output control unit 180, and a communication unit 190.
- the input data analysis unit 160 includes a voice analysis unit 161, an image analysis unit 162, and a sensor information analysis unit 163.
- the output control unit 180 includes an audio control unit 181 and an image control unit 182.
- the voice input unit (microphone) 111 acquires voice outside the mobile device 10, for example, voice of a user such as a pedestrian, and inputs the voice to the voice analysis unit 161.
- the voice analysis unit 161 analyzes the voice of the user 50, stores the analysis result in the storage unit 170, and outputs it to the output control unit 180.
- the image input unit (camera) 112 captures an image around the moving device 10 and inputs the image to the image analysis unit 162.
- the image input unit (camera) 112 inputs images of the entire periphery of the moving apparatus 10 in the left and right and front and rear directions.
- the image analysis unit 162 analyzes the surrounding image of the moving device 10. For example, the position of a user such as a pedestrian, the user's behavior, and the like are analyzed, and the analysis result is stored in the storage unit 170 and output to the output control unit 180.
- the sensor 113 is, for example, a position sensor that indicates the position of the mobile device 10, an external environment, specifically, an environmental sensor such as temperature, humidity, and atmospheric pressure, and the speed, acceleration, and door opening / closing of the mobile device 10. It is comprised by the sensor etc. which acquire the control state information of the moving apparatus 10, such as a situation.
- the sensor information analysis unit 163 generates analysis information based on the sensor acquisition information, stores the analysis result in the storage unit 170, and outputs the analysis result to the output control unit 180.
- the voice input unit (microphone) 111 and the image input unit (camera) 112 are also one mode of the sensor, and the voice input unit (microphone) 111, the image input unit (camera) 112, and the sensor 113 are collectively referred to as sensors. There is also.
- the voice information (utterance content) of the user such as a pedestrian analyzed by the voice analysis unit 161 and the analysis result from the surrounding image of the mobile device 10 analyzed by the image analysis unit 162, for example, walking
- information such as the position of the user such as the user and the behavior of the user, and the analysis result of the sensor information analysis unit 163, for example, the position of the mobile device 10, the external environment, control information of the mobile device 10, and the like are stored.
- the storage unit 170 further stores route information for determining the travel route of the mobile device 10, audio data output by the control of the output control unit 180, and image data. For example, audio data and image data constituting advertisement information and guide information are stored.
- the output control unit 180 includes an audio control unit 181 and an image control unit 182.
- the audio control unit 181 controls the audio output via the audio output unit (speaker) 121 installed in the mobile device 10.
- the sound output via the sound output unit (speaker) 121 is various information such as various guides, guide information, information such as news, advertisement information, and music. ,
- the image control unit 182 executes output control of image data output to the image output unit (display unit) 122.
- the image output unit (display unit) 122 is installed in the vehicle of the moving device 10 in addition to the left and right side surfaces and the front and rear surfaces of the moving device 10.
- the image control unit 182 executes output control of image data output to the plurality of display units.
- the communication unit 190 performs communication with various external devices.
- the user terminal 21, the signage device 22 that is an image output device such as an advertisement via the communication network 20, a data processing server 31, a service providing server 32, an advertising server Communicate with various cloud devices such as 33.
- the audio control unit 181 and the image control unit 182 of the output control unit 180 are acquired via the analysis information of the input data analysis unit 160, the audio data stored in the storage unit 170, the image data, and the communication unit 190.
- the information output to the audio output unit (speaker) 121 and the image output unit (display unit) 122 is generated and controlled, and the like.
- FIG. 5 is a diagram illustrating an example of an advertisement providing process in which the user terminal 21, the mobile device 10, and the signage device 22 cooperate.
- This advertisement providing process is an example of an advertisement providing process for a user that provides an optimal advertisement according to the preference of a user (pedestrian or the like) 50 in front of the mobile device 10.
- the processing is executed in the order of steps S01 to S09 shown in FIG.
- these processes will be described sequentially.
- Step S01 First, a user 50 such as a pedestrian in front of the display unit of the mobile device 10 displays a site provided by a certain clothing brand on the user terminal 21 such as a smartphone, and browses products (ware) of the brand. doing.
- step S02 site browsing information by the user 50 is acquired by the advertisement server 33.
- Step S ⁇ b> 03 is image capturing processing of the user 50 by the camera of the mobile device 10.
- the image input unit (camera) 112 of the mobile device 10 captures an image of the user 50 who is browsing the site displayed on the user terminal 21 such as a smartphone in front of the mobile device 10. Further, in step S04, the captured image is transmitted to the advertisement server 33.
- Step S05 The process of step S05 is executed in the advertisement server 33.
- the advertisement server 33 combines the image of the user 50 and the image of the wear, and generates a combined image in a state where the user 50 is wearing the brand wear that the user was looking at.
- the advertisement server 33 executes the following processes (a) to (c).
- A) Based on the site browsing information acquired from the user terminal 21 in step S02, the wear that the user 50 was viewing is specified, and an image of the wear is acquired from the storage unit of the advertisement server 33.
- B) Further, an image of the user 50 acquired from the mobile device 10 in step S04 is acquired.
- C) Finally, the advertisement server 33 combines the image of the user 50 and the image of the wear, and generates a combined image in a state where the user 50 is wearing the brand wear that the user was looking at.
- step S06 the advertisement server 33 transmits the generated composite image to the mobile device 10.
- the image control unit 182 of the information processing apparatus 100 of the mobile device 10 outputs the composite image acquired from the advertisement server 33 to the image output unit (display unit) 122.
- the user 50 sees an image of himself / herself displayed on the display unit of the mobile device 10 in front of him / herself.
- the display image is exactly the image of the user wearing the wear of the favorite brand of the site that the user 50 has displayed and viewed on the user terminal 21 now. By performing such a display, the user 50 can further increase the interest in the wear and can have a great advertising effect.
- the advertisement server 33 transmits not only the mobile device 10 but also a signage device 22 provided on a wall surface of a building or the like, for example, a composite image in which the user is wearing brandware.
- the signage device 22 outputs the composite image acquired from the advertisement server 33.
- the image display on the signage device 22 may be controlled such that, for example, the user gets into the mobile device 10 and the signage device 22 is visible from the window of the mobile device 10. By performing such processing, the user 50 can see his / her appearance displayed on the signage devices at various locations as he / she moves.
- the composite image is presented to the mobile device 10 or other signage devices in the city. It is possible to increase the user's interest in the product and increase the advertising effect.
- the user 50 downloads a specific application to the user terminal 21 and consents that the user's own image may be used as an advertisement. It is preferable that the configuration is executed on the condition that the above is obtained. Moreover, it is good also as a structure which provides services, such as reward, such as providing coupons, such as a discount ticket and a special coupon, to the user 50 at the time of advertisement use.
- services such as reward, such as providing coupons, such as a discount ticket and a special coupon
- an information processing device in the mobile device 10 may generate a composite image.
- a composite image is generated using the wear image information stored in the storage unit in the information processing device in the mobile device 10.
- only the wear image information may be acquired from the advertisement server 33.
- the moving device 10 moves from left to right. It is assumed that the mobile device 10 transitions between these five different states before starting, during acceleration, during constant speed travel, during deceleration, and after stopping.
- the image control unit 182 of the output control unit 180 controls the display image of the image output unit (display unit) 122 according to the traveling state of these moving devices 10.
- the image output unit (display unit) 122 of the moving apparatus 10 displays an image in which a balloon with one end of the string fixed to a predetermined place is floated.
- This image is sequentially updated as follows according to the traveling state of the mobile device 10. (1) Before the start from time t0 to t1, the balloon is displayed in a substantially vertical state (rising). (2) During the acceleration from time t1 to t2, the balloon is displayed as an image that flows behind the moving device 10. (3) In the constant speed running from time t2 to t3, the balloon is displayed in a substantially vertical state (ascending). (4) During deceleration from time t3 to t4, the balloon is displayed as an image that flows in front of the moving apparatus 10. (5) After the stop after time t4, the balloon is displayed in a substantially vertical state (rising).
- each state of the mobile device 10 that is, before starting, during acceleration, during constant speed travel, during deceleration, after stop, these states are based on sensor information analysis based on mobile device control information acquired by the sensor 113. Analyzed by the unit 163.
- the image control unit 182 performs image display control as shown in FIG. 6 based on the information analyzed by the sensor information analysis unit 163.
- FIG. 6 an example in which a balloon is used as an image has been described.
- display control for generating the same movement as the movement of a balloon may be performed for other images and characters.
- the example using the balloon shown in FIG. 6 shows an example in which the position of the balloon is fixed substantially at the center of the screen, the position of the balloon may be sequentially changed, for example, moved so as to flow on the screen. .
- a motion that a plurality of objects collide may be generated.
- the movement of the balloon is expressed as a movement corresponding to the movement of the moving device 10. It is possible to attract the attention of the viewing user.
- FIG. 7 shows display examples of the following two AR images.
- A1 An example with a bench behind the mobile device 10
- b1 An example with a slide on the back side of the mobile device 10
- a user 50 such as a pedestrian is looking at the display on the side of the mobile device 10,
- (a1) an example of display control in an example in which a bench is behind the moving device 10 will be described.
- the camera of the mobile device 10 captures an image behind the mobile device 10. In this image, a bench that is an actual object is photographed.
- the image control unit 182 generates an AR image obtained by combining the animation image with the actual image including the bench, and outputs the AR image to the image output unit (display unit) 122.
- FIG. 7A2 shows an image when the mobile device 10 passes through the sections A to B shown in FIG. 7A1.
- the image of the ball which is an animation image
- the bench which is an actual image
- the image control unit 182 generates such an AR image and outputs it to the image output unit (display unit) 122.
- the image control unit 182 generates an AR image obtained by combining the animation image with the actual image including the slide, and outputs the AR image to the image output unit (display unit) 122.
- FIG. 7 (b2) shows an image when the mobile device 10 passes through the sections A to B shown in FIG. 7 (b1).
- the image of the ball which is an animation image
- the slide which is an actual image
- the image control unit 182 generates such an AR image and outputs it to the image output unit (display unit) 122.
- a composite image of the real object and the animation image is displayed on the display unit of the mobile device 10, and many viewing users such as pedestrians It is possible to attract attention.
- the moving device 10 moves from the left to the right in front of the user 50 such as a pedestrian.
- the characters are displayed on the display unit on the side surface of the moving device 10 so as to flow from right to left as the moving device 10 moves.
- the image control unit 182 of the output control unit 180 may execute such display image control using an image stored in the storage unit 170 in advance, or based on input information from the sensor 113. It is good also as a structure performed based on the position of the moving apparatus 10 analyzed.
- the moving device 10 moves from left to right in front of a user 50 such as a pedestrian.
- a user 50 such as a pedestrian.
- an image corresponding to the line-of-sight direction of the user 50 who is looking at the display unit is displayed on the display unit on the side surface of the mobile device 10.
- the display unit of the mobile device 10 is on the left side of the user 50, and displays an image of the front of the bus traveling toward the user looking in the left direction.
- the display unit of the mobile device 10 displays an image of the side of the bus that is substantially in front of the user 50 and is traveling in a direction parallel to the user looking in the front direction.
- the display unit of the mobile device 10 is on the right side of the user 50 and displays an image of the rear surface of the bus that is traveling away from the user looking in the right direction.
- the image control unit 182 of the output control unit 180 may execute such display image control using an image stored in the storage unit 170 in advance, or based on input information from the sensor 113. It is good also as a structure which performs control based on the position of the moving apparatus 10 analyzed and a user's positional information.
- a bus that is parsed forward is displayed
- a horizontally facing image is displayed
- a parsed backward image is displayed.
- voice information may be added.
- sound output with adjusted sound field such as a wavefront synthesis speaker is performed.
- the sound combined with the display image is output. Output.
- a bus is displayed, but when this is replaced with a sports car, when the mobile device 10 is far from the user 50 such as a pedestrian, the engine sound of the sports car is Output in the sound field. After that, when the mobile device 10 comes closest to the user 50, a roaring sound that blows the engine is emitted.
- a roaring sound that blows the engine is emitted.
- the moving device 10 moves from left to right in front of a user 50 such as a pedestrian.
- the mobile device 10 passes in front of various shops (stores).
- stores stores
- an advertisement for the product provided by the shoe shop is displayed on the display unit of the mobile device 10.
- an advertisement for a product provided by the golf equipment store is displayed on the display unit of the mobile device 10.
- the image control unit 182 of the output control unit 180 may execute such display image control using an image stored in the storage unit 170 in advance, or outputs information acquired from an external advertisement server. It is good also as composition to do. Note that the position information of the mobile device 10 analyzed based on the input information from the sensor 113 is applied to the information about which shop the mobile device 10 is near.
- a shop advertisement that the mobile device 10 passes is displayed on the display unit on the spot, so that many viewing users such as pedestrians who are watching the display unit go to the shop. It is possible to enhance the advertising effect, such as contemplating the drop-in.
- the moving device 10 moves in front of a user 50 such as a pedestrian.
- the camera of the mobile device 10 is capturing an image of the user 50.
- An advertisement image is displayed on the display unit of the mobile device 10, and the characters are "Please wave your hand. I'll give you a coupon.” Call. Audio is output via an audio output unit (speaker) 121. An image of the user 50 waving his hand in response to this call is taken by the camera of the mobile device 10 and transmitted to the advertisement server 33.
- the advertisement server 50 transmits a coupon such as a discount ticket or a special coupon to the user terminal 21 of the user.
- a process for specifying a coupon transmission destination from the advertisement server 33 a process using correspondence data between a user's face image and an address registered in advance in the storage unit of the advertisement server 33 is possible.
- a process such as displaying a site address or a QR code (registered trademark) for accessing the site on the display unit of the mobile device 10, and the user accessing the site using these pieces of information to obtain a coupon, etc. Is possible.
- FIG. 12 is for displaying images with a sense of depth on the display units on the front, back, left, and right sides of the mobile device 10. For example, the depth set as a vanishing point with the most central portion of each display surface as the farthest point. Display a feeling image.
- the image control unit 182 When displaying an image having a sense of depth as described above, the image control unit 182 acquires the position of the user who is viewing the image on each display surface from the camera captured image, and the viewpoint direction of the user is the farthest point ( Control is performed such that the image is changed so as to be a vanishing point.
- FIG. 13 when it is detected that a user 50 such as a pedestrian is present near the mobile device 10, an image as if the bus door is opened is displayed on the display unit on the user side. By displaying such an image, the user 50 pays attention to the mobile device 10. For example, after this, by switching the image and displaying the advertisement. It is possible to increase the degree of attention to the advertisement.
- FIG. 14 shows a system configuration example.
- Information processing system configuration example 1 is an example in which almost all functions of the information processing apparatus shown in FIG. 4 are configured in the information processing apparatus 200 in the mobile device 10.
- the information processing device 200 in the mobile device 10 acquires information from an external server when acquiring data or the like to be displayed on the display unit. For example, information is acquired from a service providing server 221 that provides guide information, weather information, or news information, or an advertisement server 222 that provides advertising information. Generation, control, and the like of output information to which the acquired information is applied are executed in the information processing device 200 in the mobile device 10.
- FIG. 14 (2) information processing system configuration example 2 configures part of the functions of the information processing apparatus shown in FIG. 4 in the information processing apparatus 200 in the mobile apparatus 10, and part of the functions of the information processing apparatus 200. It is an example of a system configured to execute in a communicable data processing server 230.
- a configuration in which only the input unit 110 and the output unit 120 in the apparatus shown in FIG. 4 are configured in the information processing apparatus 200 in the mobile apparatus 10 and all other functions are executed on the server side is possible.
- the function division mode of the function on the information processing apparatus 200 side and the function on the server side in the mobile device 10 can be set in various different ways, and a configuration in which one function is executed by both is also possible. .
- FIG. 15 is a hardware configuration example of the information processing apparatus described with reference to FIG. 4, and the hardware of the user terminal and various servers 31 to 33 shown in FIG. It is an example of a structure.
- a CPU (Central Processing Unit) 301 functions as a data processing unit that executes various processes in accordance with a program stored in a ROM (Read Only Memory) 302 or a storage unit 308. For example, the process described in the above embodiment is executed.
- a RAM (Random Access Memory) 303 stores programs executed by the CPU 301, data, and the like. These CPU 301, ROM 302, and RAM 303 are connected to each other by a bus 304.
- the CPU 301 is connected to an input / output interface 305 via a bus 304.
- the input / output interface 305 includes inputs including various switches, a keyboard, a touch panel, a mouse, a microphone, a status data acquisition unit such as a sensor, a camera, and a GPS.
- An output unit 307 including a unit 306, a display, a speaker, and the like is connected.
- the input unit 306 includes the voice input unit (microphone) 111, the image input unit (camera) 112, and the sensor 113 described with reference to FIG.
- the output unit 307 includes the audio output unit (speaker) 120 and the image output unit (display unit) 122 illustrated in FIG. 4 in the case of the information processing apparatus provided in the mobile device 10.
- the CPU 301 inputs a command, status data, or the like input from the input unit 306, executes various processes, and outputs a processing result to the output unit 307, for example.
- the storage unit 308 connected to the input / output interface 305 includes, for example, a hard disk and stores programs executed by the CPU 301 and various data.
- the communication unit 309 functions as a data transmission / reception unit via a network such as the Internet or a local area network, and communicates with an external device.
- the drive 310 connected to the input / output interface 305 drives a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card, and executes data recording or reading.
- a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card
- FIGS. 16 to 18 are diagrams showing a configuration of a passenger car or a shuttle bus as an example of a moving device.
- the mobile device shown in FIGS. 16 to 18 is a vehicle for transporting people such as passengers, and is a passenger car or a shuttle bus that can autonomously travel automatically without any human operation.
- FIG. 16 is a diagram showing the overall shape of a partial design of a passenger car or shuttle bus.
- a display unit using a liquid crystal panel, an organic EL, or the like is provided outside the open / close door, and is used to display a destination or a moving image for corporate advertisement. It is possible to display an advertisement according to the preference or the like of a pedestrian walking along the display side by means such as reading information stored in an information terminal possessed by the pedestrian.
- the portion indicated by light ink has transparency. That is, it functions as a window for passengers on board to view the outside scenery.
- FIG. 17 shows a partial design as a passenger car or a shuttle bus.
- An alternate long and short dash line designates a region as a partial design, and does not constitute an external shape.
- the partial design is configured including a drawing showing the open state. The description is omitted because it overlaps with that of the overall design described with reference to FIG.
- FIG. 18 shows a partial design as a passenger car or a shuttle bus.
- An alternate long and short dash line designates a region as a partial design, and does not constitute an external shape.
- the partial design is configured including a drawing showing the open state. The description is omitted because it overlaps with that of the overall design described with reference to FIG.
- the technology disclosed in this specification can take the following configurations.
- the information processing apparatus It has a data analysis unit that analyzes the traveling state of the mobile device based on input information from the sensor,
- the display control unit The information processing apparatus according to (1), wherein control for changing a display image of the display unit is executed based on an analysis result of the data analysis unit.
- the information processing apparatus A data analysis unit that analyzes whether the moving device is accelerating, decelerating, or traveling at a constant speed based on input information from a sensor;
- the display control unit The information processing apparatus according to (1) or (2), wherein control is performed to change a display image of the display unit in accordance with each state in which the moving device is accelerating, decelerating, or traveling at a constant speed.
- the image control unit The information processing apparatus according to (4), wherein an AR image using a real object on a side opposite to a display unit side surface of the moving device is generated and displayed on the display unit.
- the image control unit The information processing apparatus according to any one of (1) to (6), wherein control is performed to update a display image of a display unit provided on a side surface of the moving apparatus so as to flow backward from a traveling direction of the moving apparatus.
- the image control unit The information processing apparatus according to any one of (1) to (7), wherein a display image of a display unit provided on a side surface of the moving device is changed according to a line-of-sight direction of a user looking at the display unit.
- the image control unit The information processing apparatus according to any one of (1) to (8), wherein advertisement information of a store in the vicinity of the mobile device is displayed on the display unit.
- the information processing apparatus includes: The information processing apparatus according to (9), wherein a position of the mobile device is detected based on input information from a sensor, and advertisement information of a store near the mobile device is displayed on the display unit according to the detected position.
- (11) a display unit provided outside the moving device; An image control unit for controlling the display image of the display unit; A camera that is an image input unit that captures an image around the mobile device; The image control unit An information processing apparatus that executes control for changing a display image of the display unit in accordance with a user analysis result around the moving apparatus based on a camera photographed image.
- the information processing apparatus includes: The information processing apparatus according to (11), in which, when it is confirmed that the user has executed a prescribed action as a user analysis result around the mobile apparatus based on the camera photographed image, a service providing process for the user is executed.
- a display unit provided outside the moving device; An image control unit for controlling the display image of the display unit; A sensor for detecting a traveling state of the mobile device; The image control unit A moving device that executes control to change a display image of the display unit in accordance with a traveling state of the moving device analyzed from detection information of the sensor.
- the moving device includes: A camera that is an image input unit that captures an image around the mobile device; The image control unit The moving device according to (14), wherein control for changing a display image of the display unit is executed according to a user analysis result around the moving device based on a camera photographed image.
- the moving device includes: The mobile device according to (15), in which, when it is confirmed as a user analysis result around the mobile device based on the camera photographed image that the user has performed a prescribed action, a service providing process for the user is executed.
- the information processing apparatus includes an image control unit that executes control of a display image of a display unit provided outside the moving device;
- the image control unit An information processing method for executing control for changing a display image of the display unit according to a traveling state of the mobile device.
- the mobile device is A display unit provided outside the moving device; An image control unit for controlling the display image of the display unit; A sensor for detecting a traveling state of the mobile device; The image control unit An information processing method for executing control for changing a display image of the display unit according to a traveling state of the mobile device analyzed from detection information of the sensor.
- the information processing apparatus includes an image control unit that executes control of a display image of a display unit provided outside the moving device;
- the program is stored in the image control unit.
- the program which performs control which changes the display image of the said display part according to the driving
- the series of processes described in the specification can be executed by hardware, software, or a combined configuration of both.
- the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
- the program can be recorded in advance on a recording medium.
- the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed on a recording medium such as a built-in hard disk.
- the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
- the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
- the display image of the display unit provided outside the mobile device such as a bus is controlled to increase the degree of attention of the user and increase the advertising effect.
- An increasing configuration is realized. Specifically, for example, a display unit provided on the outside of a moving device such as a bus, and an image control unit that executes control of a display image on the display unit, the image control unit is in a traveling state of the moving device. Accordingly, control for changing the display image of the display unit is executed. For example, the display image is changed according to each state in which the mobile device is accelerating, decelerating, or traveling at a constant speed. Alternatively, an AR image using a real object in the vicinity of the moving device is generated and displayed. With this configuration, a configuration is realized in which the display image of the display unit provided outside the mobile device such as a bus is controlled, the degree of attention of the user is increased, and the advertising effect is increased.
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- Game Theory and Decision Science (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Controls And Circuits For Display Device (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
バス等の移動装置の外側に設けられた表示部の表示画像の制御を行い、ユーザの注目度を高め、広告効果を増大させる構成を実現する。バス等の移動装置の外側に設けられた表示部と、表示部の表示画像の制御を実行する画像制御部を有し、画像制御部は、移動装置の走行状態に応じて表示部の表示画像を変更する制御を実行する。例えば、移動装置が加速中、または減速中、または定速走行中の各状態に応じて表示画像を変更する。あるいは移動装置の近傍にある実在オブジェクトを用いたAR画像を生成して表示する。
Description
本開示は、情報処理装置、移動装置、および方法、並びにプログラムに関する。さらに詳細には、移動装置の外面に設置した表示部の出力画像の表示制御や、表示画像を適用した処理を実行する情報処理装置、移動装置、および方法、並びにプログラムに関する。
例えば車両の側面に設けた大型ディスプレイに広告画像を表示して車両を多くの人が集まる繁華街等を移動することで、より多くの人に広告を提供するといった広告手法がある。
例えば、特許文献1(特開2015-184335号公報)は、広告提供効果を高めるため、広告を提示する移動体の移動経路を制御する構成を開示している。
上述した特許文献1は、移動経路の制御による広告効果の増大を行う構成は開示しているものの、例えば、移動体の表示部に表示する画像の表示制御や、画像を用いた様々な処理によりユーザの注目度を高める等の構成については開示してない。
本開示は、移動装置の外側面に設置した表示部の出力画像の表示制御や、画像を用いた様々な処理を行うことで、ユーザの注目度を向上させ、さらに広告効果も向上させることを可能とした情報処理装置、移動装置、および方法、並びにプログラムを提供することを目的とする。
本開示の第1の側面は、
移動装置の外側に設けられた表示部と、
前記表示部の表示画像の制御を実行する画像制御部を有し、
前記画像制御部は、
前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行する情報処理装置にある。
移動装置の外側に設けられた表示部と、
前記表示部の表示画像の制御を実行する画像制御部を有し、
前記画像制御部は、
前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行する情報処理装置にある。
さらに、本開示の第2の側面は、
移動装置の外側に設けられた表示部と、
前記表示部の表示画像の制御を実行する画像制御部と、
前記移動装置周囲の画像を撮影する画像入力部であるカメラを有し、
前記画像制御部は、
カメラ撮影画像に基づく前記移動装置周囲のユーザ解析結果に応じて、前記表示部の表示画像を変更する制御を実行する情報処理装置にある。
移動装置の外側に設けられた表示部と、
前記表示部の表示画像の制御を実行する画像制御部と、
前記移動装置周囲の画像を撮影する画像入力部であるカメラを有し、
前記画像制御部は、
カメラ撮影画像に基づく前記移動装置周囲のユーザ解析結果に応じて、前記表示部の表示画像を変更する制御を実行する情報処理装置にある。
さらに、本開示の第3の側面は、
移動装置の外側に設けられた表示部と、
前記表示部の表示画像の制御を実行する画像制御部と、
前記移動装置の走行状態を検出するセンサーを有し、
前記画像制御部は、
前記センサーの検出情報から解析される前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行する移動装置にある。
移動装置の外側に設けられた表示部と、
前記表示部の表示画像の制御を実行する画像制御部と、
前記移動装置の走行状態を検出するセンサーを有し、
前記画像制御部は、
前記センサーの検出情報から解析される前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行する移動装置にある。
さらに、本開示の第4の側面は、
情報処理装置において実行する情報処理方法であり、
前記情報処理装置は、移動装置の外側に設けられた表示部の表示画像の制御を実行する画像制御部を有し、
前記画像制御部が、
前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行する情報処理方法にある。
情報処理装置において実行する情報処理方法であり、
前記情報処理装置は、移動装置の外側に設けられた表示部の表示画像の制御を実行する画像制御部を有し、
前記画像制御部が、
前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行する情報処理方法にある。
さらに、本開示の第5の側面は、
移動装置において実行する情報処理方法であり、
前記移動装置は、
移動装置の外側に設けられた表示部と、
前記表示部の表示画像の制御を実行する画像制御部と、
前記移動装置の走行状態を検出するセンサーを有し、
前記画像制御部が、
前記センサーの検出情報から解析される前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行する情報処理方法にある。
移動装置において実行する情報処理方法であり、
前記移動装置は、
移動装置の外側に設けられた表示部と、
前記表示部の表示画像の制御を実行する画像制御部と、
前記移動装置の走行状態を検出するセンサーを有し、
前記画像制御部が、
前記センサーの検出情報から解析される前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行する情報処理方法にある。
さらに、本開示の第6の側面は、
情報処理装置において情報処理を実行させるプログラムであり、
前記情報処理装置は、移動装置の外側に設けられた表示部の表示画像の制御を実行する画像制御部を有し、
前記プログラムは、前記画像制御部に、
前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行させるプログラムにある。
情報処理装置において情報処理を実行させるプログラムであり、
前記情報処理装置は、移動装置の外側に設けられた表示部の表示画像の制御を実行する画像制御部を有し、
前記プログラムは、前記画像制御部に、
前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行させるプログラムにある。
なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本開示の一実施例の構成によれば、バス等の移動装置の外側に設けられた表示部の表示画像の制御を行い、ユーザの注目度を高め、広告効果を増大させる構成が実現される。
具体的には、例えば、バス等の移動装置の外側に設けられた表示部と、表示部の表示画像の制御を実行する画像制御部を有し、画像制御部は、移動装置の走行状態に応じて表示部の表示画像を変更する制御を実行する。例えば、移動装置が加速中、または減速中、または定速走行中の各状態に応じて表示画像を変更する。あるいは移動装置の近傍にある実在オブジェクトを用いたAR画像を生成して表示する。
本構成により、バス等の移動装置の外側に設けられた表示部の表示画像の制御を行い、ユーザの注目度を高め、広告効果を増大させる構成が実現される。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
具体的には、例えば、バス等の移動装置の外側に設けられた表示部と、表示部の表示画像の制御を実行する画像制御部を有し、画像制御部は、移動装置の走行状態に応じて表示部の表示画像を変更する制御を実行する。例えば、移動装置が加速中、または減速中、または定速走行中の各状態に応じて表示画像を変更する。あるいは移動装置の近傍にある実在オブジェクトを用いたAR画像を生成して表示する。
本構成により、バス等の移動装置の外側に設けられた表示部の表示画像の制御を行い、ユーザの注目度を高め、広告効果を増大させる構成が実現される。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
以下、図面を参照しながら本開示の情報処理装置、移動装置、および方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
1.移動装置の概要について
2.情報処理装置の構成例について
3.情報処理装置の実行する具体的な処理例について
3-(1).移動装置、ユーザ端末、サイネージ装置との連携処理例
3-(2).移動装置の移動状態に応じた表示画像の制御処理
3-(3).移動装置の背後にある実在オブジェクトを用いたAR画像を表示する処理
3-(4).移動装置の位置に応じた文字や画像を表示する処理
3-(5).表示部を見ているユーザの視線方向に応じた画像を表示する処理
3-(6).移動装置周囲のショップと連動した広告画像を表示する処理
3-(7).移動装置の表示部を見ているユーザのアクションに応じたサービスを提供する処理
3-(8).その他の画像表示例について
4.情報処理装置、および情報処理システムの構成例について
5.情報処理装置のハードウェア構成例について
6.移動装置の詳細形状の一例について
7.本開示の構成のまとめ
1.移動装置の概要について
2.情報処理装置の構成例について
3.情報処理装置の実行する具体的な処理例について
3-(1).移動装置、ユーザ端末、サイネージ装置との連携処理例
3-(2).移動装置の移動状態に応じた表示画像の制御処理
3-(3).移動装置の背後にある実在オブジェクトを用いたAR画像を表示する処理
3-(4).移動装置の位置に応じた文字や画像を表示する処理
3-(5).表示部を見ているユーザの視線方向に応じた画像を表示する処理
3-(6).移動装置周囲のショップと連動した広告画像を表示する処理
3-(7).移動装置の表示部を見ているユーザのアクションに応じたサービスを提供する処理
3-(8).その他の画像表示例について
4.情報処理装置、および情報処理システムの構成例について
5.情報処理装置のハードウェア構成例について
6.移動装置の詳細形状の一例について
7.本開示の構成のまとめ
[1.移動装置の概要について]
まず、図1以下を参照して、本開示の移動装置の概要について説明する。
図1には、本開示の移動装置10の一実施例を示している。
図1に示す移動装置10は、例えばバス、乗用車、ゴルフカート等の車両である。
運転者による一般的な車両、あるいは無人運転を行う自動運転車両のいずれでもよい。
なお、以下においては、移動装置10を車両として説明するが、本開示の処理、構成は、例えば物流ロボット、船舶、飛行体等、様々な移動装置に適用可能である。
まず、図1以下を参照して、本開示の移動装置の概要について説明する。
図1には、本開示の移動装置10の一実施例を示している。
図1に示す移動装置10は、例えばバス、乗用車、ゴルフカート等の車両である。
運転者による一般的な車両、あるいは無人運転を行う自動運転車両のいずれでもよい。
なお、以下においては、移動装置10を車両として説明するが、本開示の処理、構成は、例えば物流ロボット、船舶、飛行体等、様々な移動装置に適用可能である。
図1に示すように、バス等の移動装置10の外側の面には、表示部11が設けられる。例えばLCD、有機ELパネル等の薄型の表示装置が設けられる。さらに、移動装置10には移動装置10の前後左右の各方向の画像を撮影するカメラ12が設けられている。
図1に示す例は、表示部11を移動装置10の側面に設置した例であるが、例えば図2に示すように、移動装置10の前面、さらに後面に設け、全周囲に表示部を構成する設定としてもよい。
例えば、自動運転車両の場合、カメラの画像やセンサー検出情報に基づいて走行が行われるため、運転手は不要となる。従って、運転者が前方を確認する必要がなく、前方に窓を設けず表示部を設定することが可能となる。
例えば、自動運転車両の場合、カメラの画像やセンサー検出情報に基づいて走行が行われるため、運転手は不要となる。従って、運転者が前方を確認する必要がなく、前方に窓を設けず表示部を設定することが可能となる。
図3は、移動装置10のネットワーク接続構成例について説明する図である。
移動装置10は、無線通信を行う通信部を備えており、図3示す通信ネットワーク20を介してユーザ端末21、広告等の画像出力装置であるサイネージ装置22、さらに、データ処理サーバ31、サービス提供サーバ32、広告サーバ33等の様々なクラウド側装置と通信可能な構成となっている。
移動装置10は、無線通信を行う通信部を備えており、図3示す通信ネットワーク20を介してユーザ端末21、広告等の画像出力装置であるサイネージ装置22、さらに、データ処理サーバ31、サービス提供サーバ32、広告サーバ33等の様々なクラウド側装置と通信可能な構成となっている。
データ処理サーバ31は、例えば、移動装置10や、ユーザ端末21他の装置から受信するデータに関するデータ処理を実行して、処理結果を各装置に提供するといった処理を行う。
例えば、移動装置10が自動運転車両である場合、移動装置10のカメラ撮影画像やセンサー取得情報を受信し、走行ルートの制御情報を移動装置10に送信する処理等を行う。
さらに、表示部11に対する表示情報の提供、制御等を実行する。
例えば、移動装置10が自動運転車両である場合、移動装置10のカメラ撮影画像やセンサー取得情報を受信し、走行ルートの制御情報を移動装置10に送信する処理等を行う。
さらに、表示部11に対する表示情報の提供、制御等を実行する。
サービス提供サーバ32は、例えば、ニュース情報提供サーバ、天気情報提供サーバ、交通情報提供サーバ等、様々な情報やサービスを提供するサーバである。
図に示すように、移動装置10は、例えば天気情報提供サーバから天気予報に関する情報を取得して表示部11に表示する処理等を実行する。
図に示すように、移動装置10は、例えば天気情報提供サーバから天気予報に関する情報を取得して表示部11に表示する処理等を実行する。
広告サーバ33は、様々な企業の提供する広告を配信するサーバである。
移動装置10は、広告サーバ33から、例えば車の広告、衣料品の広告、電化製品の広告、旅行情報の広告等、様々な広告情報を取得して表示部11に表示する。
移動装置10は、広告サーバ33から、例えば車の広告、衣料品の広告、電化製品の広告、旅行情報の広告等、様々な広告情報を取得して表示部11に表示する。
なお、図3には、移動装置10、ユーザ端末21、サイネージ装置22、データ処理サーバ31、サービス提供サーバ32、広告サーバ33、これらを各々1台ずつ示しているが、これらの各装置は、いずれも多数の装置がネットワークに接続され、相互に通信可能な構成を持つ。
[2.情報処理装置の構成例について]
次に、図4を参照して、移動装置10に搭載される情報処理装置100の具体的な構成例について説明する。
図4は、移動装置10に搭載される情報処理装置100の一構成例を示す図である。
次に、図4を参照して、移動装置10に搭載される情報処理装置100の具体的な構成例について説明する。
図4は、移動装置10に搭載される情報処理装置100の一構成例を示す図である。
図4に示すように、情報処理装置100は、入力部110、出力部120、データ処理部150を有する。
なお、データ処理部150は、移動装置10に搭載される情報処理装置100内に構成することも可能であるが、移動装置10の情報処理装置100内に構成せず、外部サーバのデータ処理部を利用してもよい。サーバを利用した構成の場合、情報処理装置100は、入力部110から入力した入力データを、ネットワークを介してサーバに送信し、サーバのデータ処理部150の処理結果を受信して、出力部120を介して出力する。
なお、データ処理部150は、移動装置10に搭載される情報処理装置100内に構成することも可能であるが、移動装置10の情報処理装置100内に構成せず、外部サーバのデータ処理部を利用してもよい。サーバを利用した構成の場合、情報処理装置100は、入力部110から入力した入力データを、ネットワークを介してサーバに送信し、サーバのデータ処理部150の処理結果を受信して、出力部120を介して出力する。
次に、図4に示す情報処理装置10の構成要素について説明する。
入力部110は、音声入力部(マイク)111、画像入力部(カメラ)112、センサー113を有する。
出力部120は、音声出力部(スピーカー)121、画像出力部(表示部)122を有する。
移動装置10の情報処理装置100は、最低限、これらの構成要素を有する。
入力部110は、音声入力部(マイク)111、画像入力部(カメラ)112、センサー113を有する。
出力部120は、音声出力部(スピーカー)121、画像出力部(表示部)122を有する。
移動装置10の情報処理装置100は、最低限、これらの構成要素を有する。
なお、画像出力部(表示部)122は、図1、図2を参照して説明したように、移動装置10の左右側面、前後の面の他、さらに移動装置10の車内に設置される表示部等、複数の表示部によって構成される。
データ処理部150は、前述したように移動装置10の情報処理装置100、または移動装置10の情報処理装置100と通信可能なサーバのいずれかに構成される。
データ処理部150は、入力データ解析部160、記憶部170、出力制御部180、通信部190を有する。
データ処理部150は、入力データ解析部160、記憶部170、出力制御部180、通信部190を有する。
入力データ解析部160は、音声解析部161、画像解析部162、センサー情報解析部163を有する。
出力制御部180は、音声制御部181、画像制御部182を有する。
出力制御部180は、音声制御部181、画像制御部182を有する。
音声入力部(マイク)111は、移動装置10の外部の音声、例えば、歩行者等のユーザの声等を取得し、音声解析部161に入力する。
音声解析部161は、ユーザ50の声等の解析を行い、解析結果を記憶部170に格納するとともに、出力制御部180に出力する。
音声解析部161は、ユーザ50の声等の解析を行い、解析結果を記憶部170に格納するとともに、出力制御部180に出力する。
画像入力部(カメラ)112は、移動装置10の周囲の画像を撮影して、画像解析部162に入力する。
画像入力部(カメラ)112は、移動装置10の左右、前後の全周囲の画像を入力する。
画像解析部162は、移動装置10の周囲画像の解析を行う。例えば、歩行者等のユーザの位置や、ユーザの行動等を解析し、解析結果を記憶部170に格納するとともに、出力制御部180に出力する。
画像入力部(カメラ)112は、移動装置10の左右、前後の全周囲の画像を入力する。
画像解析部162は、移動装置10の周囲画像の解析を行う。例えば、歩行者等のユーザの位置や、ユーザの行動等を解析し、解析結果を記憶部170に格納するとともに、出力制御部180に出力する。
センサー113は、例えば移動装置10の位置を示す位置センサーの他、外部の環境、具体的には、気温、湿度、気圧等の環境センサー、さらに、移動装置10の速度、加速度、さらにドアの開閉状況等、移動装置10の制御状態情報を取得するセンサー等によって構成される。
センサー情報解析部163は、センサー取得情報に基づく解析情報を生成し、解析結果を記憶部170に格納するとともに、出力制御部180に出力する。
なお、音声入力部(マイク)111、画像入力部(カメラ)112もセンサーの一態様であり、音声入力部(マイク)111、画像入力部(カメラ)112、センサー113をまとめてセンサーと呼ぶ場合もある。
なお、音声入力部(マイク)111、画像入力部(カメラ)112もセンサーの一態様であり、音声入力部(マイク)111、画像入力部(カメラ)112、センサー113をまとめてセンサーと呼ぶ場合もある。
記憶部170には、音声解析部161の解析した歩行者等のユーザの声の情報(発話内容)や、画像解析部162の解析した移動装置10の周囲の画像からの解析結果、例えば、歩行者等のユーザの位置や、ユーザの行動等の情報、さらに、センサー情報解析部163の解析結果、例えば移動装置10の位置、外部環境、移動装置10の制御情報等が格納される。
記憶部170には、さらに、移動装置10の走行経路を決定するためのルート情報や、出力制御部180の制御によって出力される音声データや、画像データが格納されている。例えば広告情報やガイド情報を構成する音声データや、画像データが格納されている。
出力制御部180は、音声制御部181、画像制御部182を有する。
音声制御部181は、移動装置10に設置された音声出力部(スピーカー)121を介して出力する音声の制御を行う。
音声出力部(スピーカー)121を介して出力する音声は、様々な案内、ガイド情報、ニュース等の情報、広告情報、さらに音楽等の各種情報である。、
音声制御部181は、移動装置10に設置された音声出力部(スピーカー)121を介して出力する音声の制御を行う。
音声出力部(スピーカー)121を介して出力する音声は、様々な案内、ガイド情報、ニュース等の情報、広告情報、さらに音楽等の各種情報である。、
画像制御部182は、画像出力部(表示部)122に出力する画像データの出力制御を実行する。
なお、画像出力部(表示部)122は、図1、図2を参照して説明したように、移動装置10の左右側面、前後の面の他、さらに移動装置10の車内に設置される複数の表示部によって構成されており、画像制御部182は、これら複数の表示部に出力する画像データの出力制御を実行する。
なお、画像出力部(表示部)122は、図1、図2を参照して説明したように、移動装置10の左右側面、前後の面の他、さらに移動装置10の車内に設置される複数の表示部によって構成されており、画像制御部182は、これら複数の表示部に出力する画像データの出力制御を実行する。
通信部190は、様々な外部装置との通信を実行する。
例えば先に図3を参照して説明したように、通信ネットワーク20を介してユーザ端末21、広告等の画像出力装置であるサイネージ装置22、さらに、データ処理サーバ31、サービス提供サーバ32、広告サーバ33等の様々なクラウド側装置と通信を実行する。
例えば先に図3を参照して説明したように、通信ネットワーク20を介してユーザ端末21、広告等の画像出力装置であるサイネージ装置22、さらに、データ処理サーバ31、サービス提供サーバ32、広告サーバ33等の様々なクラウド側装置と通信を実行する。
出力制御部180の音声制御部181、画像制御部182は、は、入力データ解析部160の解析情報や、記憶部170に格納された音声データや、画像データ、通信部190を介して取得される情報等を用いて、音声出力部(スピーカー)121、画像出力部(表示部)122に出力する情報の生成や更新処理等の制御を実行する。
[3.情報処理装置の実行する具体的な処理例について]
次に、情報処理装置の実行する具体的な処理例について説明する。
以下の各処理について、順次、説明する。
(1)移動装置、ユーザ端末、サイネージ装置との連携処理例
(2)移動装置の移動状態に応じた表示画像の制御処理
(3)移動装置の背後にある実在オブジェクトを用いたAR画像を表示する処理
(4)移動装置の位置に応じた文字や画像を表示する処理
(5)表示部を見ているユーザの視線方向に応じた画像を表示する処理
(6)移動装置周囲のショップと連動した広告画像を表示する処理
(7)移動装置の表示部を見ているユーザのアクションに応じたサービスを提供する処理
(8)その他の画像表示例について
次に、情報処理装置の実行する具体的な処理例について説明する。
以下の各処理について、順次、説明する。
(1)移動装置、ユーザ端末、サイネージ装置との連携処理例
(2)移動装置の移動状態に応じた表示画像の制御処理
(3)移動装置の背後にある実在オブジェクトを用いたAR画像を表示する処理
(4)移動装置の位置に応じた文字や画像を表示する処理
(5)表示部を見ているユーザの視線方向に応じた画像を表示する処理
(6)移動装置周囲のショップと連動した広告画像を表示する処理
(7)移動装置の表示部を見ているユーザのアクションに応じたサービスを提供する処理
(8)その他の画像表示例について
[3-(1).移動装置、ユーザ端末、サイネージ装置との連携処理例]
まず、移動装置と、ユーザ端末と、サイネージ装置との連携処理の一例について説明する。
図5は、ユーザ端末21と移動装置10、さらにサイネージ装置22とが連携した広告提供処理の一例を示す図である。
この広告提供処理は、移動装置10の前にいるユーザ(歩行者等)50の嗜好に応じた最適な広告を提供するユーザ対応の広告提供処理の一例である。
例えば、図5に示すステップS01~S09の順に処理が実行される。
以下、これらの処理について、順次、説明する。
まず、移動装置と、ユーザ端末と、サイネージ装置との連携処理の一例について説明する。
図5は、ユーザ端末21と移動装置10、さらにサイネージ装置22とが連携した広告提供処理の一例を示す図である。
この広告提供処理は、移動装置10の前にいるユーザ(歩行者等)50の嗜好に応じた最適な広告を提供するユーザ対応の広告提供処理の一例である。
例えば、図5に示すステップS01~S09の順に処理が実行される。
以下、これらの処理について、順次、説明する。
(ステップS01)
まず、移動装置10の表示部の前にいる歩行者等のユーザ50が、スマホ等のユーザ端末21に、ある衣料品ブランドが提供するサイトを表示して、そのブランドの商品(ウェア)を閲覧している。
まず、移動装置10の表示部の前にいる歩行者等のユーザ50が、スマホ等のユーザ端末21に、ある衣料品ブランドが提供するサイトを表示して、そのブランドの商品(ウェア)を閲覧している。
(ステップS02)
ステップS02において、このユーザ50によるサイト閲覧情報が、広告サーバ33によって取得される。
ステップS02において、このユーザ50によるサイト閲覧情報が、広告サーバ33によって取得される。
(ステップS03~S04)
ステップS03は、移動装置10のカメラによるユーザ50の画像撮影処理である。
移動装置10の画像入力部(カメラ)112は、移動装置10の前でスマホ等のユーザ端末21に表示されたサイトを閲覧しているユーザ50の画像を撮影する。
さらに、ステップS04において、この撮影画像が、広告サーバ33に送信される。
ステップS03は、移動装置10のカメラによるユーザ50の画像撮影処理である。
移動装置10の画像入力部(カメラ)112は、移動装置10の前でスマホ等のユーザ端末21に表示されたサイトを閲覧しているユーザ50の画像を撮影する。
さらに、ステップS04において、この撮影画像が、広告サーバ33に送信される。
(ステップS05)
ステップS05の処理は、広告サーバ33において実行される。
広告サーバ33は、ユーザ50の画像とウェアの画像を合成し、ユーザ50が、ユーザが見ていたブランドのウェアを着ている状態の合成画像を生成する。
ステップS05の処理は、広告サーバ33において実行される。
広告サーバ33は、ユーザ50の画像とウェアの画像を合成し、ユーザ50が、ユーザが見ていたブランドのウェアを着ている状態の合成画像を生成する。
すなわち、広告サーバ33は以下の処理(a)~(c)を実行する。
(a)ステップS02でユーザ端末21から取得したサイト閲覧情報に基づいて、ユーザ50が見ていたウェアを特定し、ウェアの画像を広告サーバ33の記憶部から取得する。
(b)さらに、ステップS04で移動装置10から取得したユーザ50の画像を取得する。
(c)最後に、広告サーバ33は、ユーザ50の画像とウェアの画像を合成し、ユーザ50が、ユーザが見ていたブランドのウェアを着ている状態の合成画像を生成する。
(a)ステップS02でユーザ端末21から取得したサイト閲覧情報に基づいて、ユーザ50が見ていたウェアを特定し、ウェアの画像を広告サーバ33の記憶部から取得する。
(b)さらに、ステップS04で移動装置10から取得したユーザ50の画像を取得する。
(c)最後に、広告サーバ33は、ユーザ50の画像とウェアの画像を合成し、ユーザ50が、ユーザが見ていたブランドのウェアを着ている状態の合成画像を生成する。
(ステップS06~S07)
広告サーバ33は、ステップS06において、生成した合成画像を移動装置10に送信する。
移動装置10の情報処理装置100の画像制御部182は、広告サーバ33から取得した合成画像を画像出力部(表示部)122に出力する。
広告サーバ33は、ステップS06において、生成した合成画像を移動装置10に送信する。
移動装置10の情報処理装置100の画像制御部182は、広告サーバ33から取得した合成画像を画像出力部(表示部)122に出力する。
ユーザ50は、自分の目の前の移動装置10の表示部に自分自身が表示された画像を見ることになる。
その表示画像は、まさに、今、ユーザ50がユーザ端末21に表示して見ていたサイトの自分の好きなブランドのウェアを着た自分自身の画像となる。
このような表示を行うことで、ユーザ50は、そのウェアに対する興味をさらに高めることとなり、大きな広告効果を奏することが可能となる。
その表示画像は、まさに、今、ユーザ50がユーザ端末21に表示して見ていたサイトの自分の好きなブランドのウェアを着た自分自身の画像となる。
このような表示を行うことで、ユーザ50は、そのウェアに対する興味をさらに高めることとなり、大きな広告効果を奏することが可能となる。
(ステップS08~S09)
広告サーバ33は、移動装置10に対してのみでなく、例えばビル等の壁面に設けたサイネージ装置22に対しても、ユーザがブランドウェアを着ている状態の合成画像を送信する。
サイネージ装置22は、広告サーバ33から取得した合成画像を出力する。
広告サーバ33は、移動装置10に対してのみでなく、例えばビル等の壁面に設けたサイネージ装置22に対しても、ユーザがブランドウェアを着ている状態の合成画像を送信する。
サイネージ装置22は、広告サーバ33から取得した合成画像を出力する。
なお、サイネージ装置22に対する画像表示は、例えば移動装置10にユーザが乗り込み、その移動装置10の窓から見える場所のサイネージ装置22とする制御を行ってもよい。
このような処理を行うことで、ユーザ50は、自分の移動に伴い、様々な場所のサイネージ装置に表示された自分の姿を見ることができる。
このような処理を行うことで、ユーザ50は、自分の移動に伴い、様々な場所のサイネージ装置に表示された自分の姿を見ることができる。
このように、ユーザの興味のあるブランドのウェアなどの商品と、ユーザ自身の画像を合わせた合成画像を生成して、移動装置10や、その他の街中のサイネージ装置に合成画像を提示することで、ユーザの商品に対する興味を高め、広告効果を高めることが可能となる。
なお、このような合成画像の生成、表示処理は、例えばユーザ50がユーザ端末21に、特定のアプリケーションをダウンロードし、その際に、自分の画像が広告として利用される可能性かあることの承諾を得たことを条件として実行する構成とすることが好ましい。
また、広告利用時には、ユーザ50に割引券や優待券等のクーポンを提供する等の報酬等のサービス提供を行う構成としてもよい。
また、広告利用時には、ユーザ50に割引券や優待券等のクーポンを提供する等の報酬等のサービス提供を行う構成としてもよい。
図5を参照して説明した処理例では、合成画像の生成を広告サーバ33が実行する構成例として説明したが、移動装置10内の情報処理装置が合成画像を生成する構成としてもよい。
移動装置10内の情報処理装置内の記憶部に格納されたウェア画像情報を利用して合成画像を生成する。
あるいはウェア画像情報のみを広告サーバ33から取得する構成としてもよい。
移動装置10内の情報処理装置内の記憶部に格納されたウェア画像情報を利用して合成画像を生成する。
あるいはウェア画像情報のみを広告サーバ33から取得する構成としてもよい。
[3-(2).移動装置の移動状態に応じた表示画像の制御処理]
次に、移動装置の移動状態に応じた表示画像の制御処理の一例について説明する。
図6を参照して、移動装置10の移動状態に応じて、画像出力部(表示部)122の表示画像を制御する処理例について説明する。
この表示画像制御は、出力制御部180の画像制御部182によって実行される。
次に、移動装置の移動状態に応じた表示画像の制御処理の一例について説明する。
図6を参照して、移動装置10の移動状態に応じて、画像出力部(表示部)122の表示画像を制御する処理例について説明する。
この表示画像制御は、出力制御部180の画像制御部182によって実行される。
図6に示すように、移動装置10が左から右に移動する。
移動装置10は、発進前、加速中、定速走行中、減速中、停止後、これらの5つの異なる状態を遷移するものとする。
出力制御部180の画像制御部182は、これらの移動装置10の走行状態に応じて、画像出力部(表示部)122の表示画像を制御する。
移動装置10は、発進前、加速中、定速走行中、減速中、停止後、これらの5つの異なる状態を遷移するものとする。
出力制御部180の画像制御部182は、これらの移動装置10の走行状態に応じて、画像出力部(表示部)122の表示画像を制御する。
図6に示すように、移動装置10の画像出力部(表示部)122には、紐の一端が所定か所に固定された風船が浮かんだ画像が表示されている。
この画像が、移動装置10の走行状態に応じて、以下のように順次、更新される。
(1)時間t0~t1の発進前において、風船は、ほぼ垂直な状態(上昇中)で表示される。
(2)時間t1~t2の加速中において、風船は、移動装置10の後方に流れるような画像として表示される。
(3)時間t2~t3の定速走行において、風船は、また、ほぼ垂直な状態(上昇中)で表示される。
(4)時間t3~t4の減速中において、風船は、移動装置10の前方に流れるような画像として表示される。
(5)時間t4以降の停止後において、風船は、また、ほぼ垂直な状態(上昇中)で表示される。
この画像が、移動装置10の走行状態に応じて、以下のように順次、更新される。
(1)時間t0~t1の発進前において、風船は、ほぼ垂直な状態(上昇中)で表示される。
(2)時間t1~t2の加速中において、風船は、移動装置10の後方に流れるような画像として表示される。
(3)時間t2~t3の定速走行において、風船は、また、ほぼ垂直な状態(上昇中)で表示される。
(4)時間t3~t4の減速中において、風船は、移動装置10の前方に流れるような画像として表示される。
(5)時間t4以降の停止後において、風船は、また、ほぼ垂直な状態(上昇中)で表示される。
なお、移動装置10の各状態、すなわち、発進前、加速中、定速走行中、減速中、停止後、これらの状態は、センサー113によって取得される移動装置制御情報に基づいて、センサー情報解析部163によって解析される。
画像制御部182は、センサー情報解析部163によって解析された情報に基づいて、図6に示すような画像の表示制御を実行する。
画像制御部182は、センサー情報解析部163によって解析された情報に基づいて、図6に示すような画像の表示制御を実行する。
なお、図6に示す例では、画像として風船を利用した例について説明したが、例えばその他の画像や文字についても、風船の動きと同様の動きを発生させる表示制御を行ってもよい。
また、図6に示す風船を用いた例では、風船の位置をほぼ画面の中央に固定した例を示しているが、風船の位置を逐次変更し、例えば画面を流れるように移動させてもよい。
また、加速/減速する際に、複数の物体がぶつかるような動きを発生させてもよい。
また、図6に示す風船を用いた例では、風船の位置をほぼ画面の中央に固定した例を示しているが、風船の位置を逐次変更し、例えば画面を流れるように移動させてもよい。
また、加速/減速する際に、複数の物体がぶつかるような動きを発生させてもよい。
図6に示すように、移動装置10の移動状態に応じた表示制御を行うことで、風船の動きが移動装置10の動きに対応した動きとして表現されることになり、歩行者等の多くの視聴ユーザの注目を集めることが可能となる。
[3-(3).移動装置の背後にある実在オブジェクトを用いたAR画像を表示する処理]
次に、移動装置の背後にある実在オブジェクトを用いたAR画像を表示する処理の一例について説明する。
図7を参照して、移動装置10の背後にある実在オブジェクトを用いたAR画像(拡張現実画像:Augmented Reality画像)を画像出力部(表示部)122に表示する処理例について説明する。
この表示画像制御は、出力制御部180の画像制御部182によって実行される。
次に、移動装置の背後にある実在オブジェクトを用いたAR画像を表示する処理の一例について説明する。
図7を参照して、移動装置10の背後にある実在オブジェクトを用いたAR画像(拡張現実画像:Augmented Reality画像)を画像出力部(表示部)122に表示する処理例について説明する。
この表示画像制御は、出力制御部180の画像制御部182によって実行される。
図7には、以下の2つのAR画像の表示例を示している。
(a1)移動装置10の後ろ側にベンチがある例
(b1)移動装置10の後ろ側にすべり台がある例
歩行者等鵜のユーザ50は、移動装置10の側面の表示部を見ており、移動装置10の通過する背後にベンチや、すべり台がある。
(a1)移動装置10の後ろ側にベンチがある例
(b1)移動装置10の後ろ側にすべり台がある例
歩行者等鵜のユーザ50は、移動装置10の側面の表示部を見ており、移動装置10の通過する背後にベンチや、すべり台がある。
まず、(a1)移動装置10の後ろ側にベンチがある例における表示制御例について説明する。
移動装置10のカメラが移動装置10の通過する背後の画像を撮影する。この画像には、実在オブジェクトであるベンチが撮影されている。
移動装置10のカメラが移動装置10の通過する背後の画像を撮影する。この画像には、実在オブジェクトであるベンチが撮影されている。
画像制御部182は、このベンチを含む実画像に、アニメーション画像を合成したAR画像を生成して画像出力部(表示部)122に出力する。
図7(a1)に示す区間A~Bを移動装置10が通過する際の画像を図7(a2)に示している。
図7(a1)に示す区間A~Bを移動装置10が通過する際の画像を図7(a2)に示している。
区間A~Bを移動装置10が通過する際、図7(a2)に示すように、アニメーション画像であるボールの画像が、実画像であるベンチに上り、その後、ベンチから降りるように、画像が遷移する。
画像制御部182は、このようなAR画像を生成して画像出力部(表示部)122に出力する。
画像制御部182は、このようなAR画像を生成して画像出力部(表示部)122に出力する。
次に、(b1)移動装置10の後ろ側にすべり台がある例における表示制御例について説明する。
移動装置10のカメラが移動装置10の通過する背後の画像を撮影する。この画像には、実在オブジェクトであるすべり台が撮影されている。
移動装置10のカメラが移動装置10の通過する背後の画像を撮影する。この画像には、実在オブジェクトであるすべり台が撮影されている。
画像制御部182は、このすべり台を含む実画像に、アニメーション画像を合成したAR画像を生成して画像出力部(表示部)122に出力する。
図7(b1)に示す区間A~Bを移動装置10が通過する際の画像を図7(b2)に示している。
図7(b1)に示す区間A~Bを移動装置10が通過する際の画像を図7(b2)に示している。
区間A~Bを移動装置10が通過する際、図7(b2)に示すように、アニメーション画像であるボールの画像が、実画像であるすべり台に上り、その後、すべり台をすべるように、画像が遷移する。
画像制御部182は、このようなAR画像を生成して画像出力部(表示部)122に出力する。
画像制御部182は、このようなAR画像を生成して画像出力部(表示部)122に出力する。
なお、図7では、アニメーション画像としてボールを用いた例について説明したが、その他、文字、キャラクタ画像、乗り物等、様々なアニメーション画像の利用が可能である。
また、アニメーション画像の動きについても、例えばボールをバウンドさせたり、速度を変化させたり、様々な表示が可能である。
また、アニメーション画像の動きについても、例えばボールをバウンドさせたり、速度を変化させたり、様々な表示が可能である。
図7に示すようなAR画像を生成して表示を行うことで、移動装置10の表示部には実在オブジェクトとアニメーション画像の合成画像が表示されることになり、歩行者等の多くの視聴ユーザの注目を集めることが可能となる。
[3-(4).移動装置の位置に応じた文字や画像を表示する処理]
次に、移動装置の位置に応じた文字や画像を表示する処理の一例について説明する。
図8を参照して、移動装置10の位置に応じた文字や画像を画像出力部(表示部)122に表示する処理例について説明する。
この表示画像制御は、出力制御部180の画像制御部182によって実行される。
次に、移動装置の位置に応じた文字や画像を表示する処理の一例について説明する。
図8を参照して、移動装置10の位置に応じた文字や画像を画像出力部(表示部)122に表示する処理例について説明する。
この表示画像制御は、出力制御部180の画像制御部182によって実行される。
図8に示すように、歩行者等のユーザ50の前を移動装置10が左から右に移動する。
このとき、移動装置10の側面の表示部に、図に示すように、移動装置10の移動に併せて、文字を右から左に流れるように表示する。
このとき、移動装置10の側面の表示部に、図に示すように、移動装置10の移動に併せて、文字を右から左に流れるように表示する。
図に示す例では、
「SALE」
「Discount」
この2つのワードを、移動装置10の移動に応じて、第1文字から、順次、表示する設定としている。
「SALE」
「Discount」
この2つのワードを、移動装置10の移動に応じて、第1文字から、順次、表示する設定としている。
時間(t1)では、「Discount」の「Di」のみが表示部の右端に表示される。
時間(t2)では、「Discount」の「Disc」と、「SALE」の「S」のみが表示部に表示される。
時間(t3)では、「Discount」の「Disco」と、「SALE」の「SA」のみが表示部に表示される。
時間(t4)では、「Discount」の「Discou」と、「SALE」の「SAL」のみが表示部に表示される。
時間(t5)では、「Discount」と、「SALE」の全てが表示部に表示される。
時間(t2)では、「Discount」の「Disc」と、「SALE」の「S」のみが表示部に表示される。
時間(t3)では、「Discount」の「Disco」と、「SALE」の「SA」のみが表示部に表示される。
時間(t4)では、「Discount」の「Discou」と、「SALE」の「SAL」のみが表示部に表示される。
時間(t5)では、「Discount」と、「SALE」の全てが表示部に表示される。
なお、図8では、文字を表示した例について説明したが、文字以外の画像、アニメーション等、様々な表示データについても、同様に移動装置10の前方から後方に流れるように表示する構成としてもよい。
なお、出力制御部180の画像制御部182は、このような表示画像の制御を予め記憶部170に格納された画像を用いて実行してもよいし、あるいはセンサー113からの入力情報に基づいて解析された移動装置10の位置に基づいて実行する構成としてもよい。
図8に示すように、移動装置10の位置に応じた画像を表示することで、歩行者等の多くの視聴ユーザの注目を集めることが可能となる。
[3-(5).表示部を見ているユーザの視線方向に応じた画像を表示する処理]
次に、表示部を見ているユーザの視線方向に応じた画像を表示する処理の一例について説明する。
図9を参照して、移動装置10の表示部を見ているユーザの視線方向に応じた画像を表示する処理例について説明する。
この表示画像制御は、出力制御部180の画像制御部182によって実行される。
次に、表示部を見ているユーザの視線方向に応じた画像を表示する処理の一例について説明する。
図9を参照して、移動装置10の表示部を見ているユーザの視線方向に応じた画像を表示する処理例について説明する。
この表示画像制御は、出力制御部180の画像制御部182によって実行される。
図9に示すように、歩行者等のユーザ50の前を移動装置10が左から右に移動する。
このとき、移動装置10の側面の表示部に、図に示すように、表示部を見ているユーザ50の視線方向に応じた画像を表示する。
このとき、移動装置10の側面の表示部に、図に示すように、表示部を見ているユーザ50の視線方向に応じた画像を表示する。
図に示す例では、
バスの画像を、移動装置10の表示部を見ているユーザの視線方向に応じた画像として表示した例を示している。
時間(t1)では、移動装置10の表示部は、ユーザ50の左側にあり、左側方向を見ているユーザに向かって走行しているバスの前面の画像を表示する。
時間(t2)では、移動装置10の表示部は、ユーザ50のほぼ正面にあり、正面方向を見ているユーザに平行な方向に走行しているバスの側面の画像を表示する。
時間(t3)では、移動装置10の表示部は、ユーザ50の右側にあり、右側方向を見ているユーザから離れるように走行しているバスの後面の画像を表示する。
バスの画像を、移動装置10の表示部を見ているユーザの視線方向に応じた画像として表示した例を示している。
時間(t1)では、移動装置10の表示部は、ユーザ50の左側にあり、左側方向を見ているユーザに向かって走行しているバスの前面の画像を表示する。
時間(t2)では、移動装置10の表示部は、ユーザ50のほぼ正面にあり、正面方向を見ているユーザに平行な方向に走行しているバスの側面の画像を表示する。
時間(t3)では、移動装置10の表示部は、ユーザ50の右側にあり、右側方向を見ているユーザから離れるように走行しているバスの後面の画像を表示する。
このように、表示部を見ているユーザの視線方向に応じた画像を表示する。
なお、出力制御部180の画像制御部182は、このような表示画像の制御を予め記憶部170に格納された画像を用いて実行してもよいし、あるいはセンサー113からの入力情報に基づいて解析された移動装置10の位置や、ユーザの位置情報に基づいて制御を実行する構成としてもよい。
なお、出力制御部180の画像制御部182は、このような表示画像の制御を予め記憶部170に格納された画像を用いて実行してもよいし、あるいはセンサー113からの入力情報に基づいて解析された移動装置10の位置や、ユーザの位置情報に基づいて制御を実行する構成としてもよい。
なお、図9に示す表示態様に、さらに遠近法に基づくパースをかけた強調表示を行う構成としてもよい。時間(t1)において正面向きのパースのかかったバスを表示し、時間(t2)において、横向きの正対画像を表示し、時間(t3)においてパースをかけた後ろ向きの画像を表示する。
また、この時、音声情報を付加してもよい。例えば波面合成スピーカーのような音場を調整した音声出力を行う。画像入力部(カメラ)112の撮影画像やセンサー113の取得情報に基づいて、歩行者等のユーザ50が移動装置10に視線を向けているとの判定に応じて、表示画像に併せた音声を出力する。
また、この時、音声情報を付加してもよい。例えば波面合成スピーカーのような音場を調整した音声出力を行う。画像入力部(カメラ)112の撮影画像やセンサー113の取得情報に基づいて、歩行者等のユーザ50が移動装置10に視線を向けているとの判定に応じて、表示画像に併せた音声を出力する。
図9に示す例ではバスを表示しているが、これをスポーツカーに置き換えた場合、歩行者等のユーザ50から、移動装置10が遠い位置にある場合、スポーツカーのエンジン音を遠い位置の音場で出力させる。その後、移動装置10がユーザ50に最も近付いた際、エンジンをふかすような爆音を出す。
このように、移動装置10とユーザとの距離に応じた音量の音を出力する構成としてもよい。
このように、移動装置10とユーザとの距離に応じた音量の音を出力する構成としてもよい。
図9を参照して説明したように、移動装置10の表示部を見ているユーザの視線方向に応じた画像を表示することで、歩行者等の多くの視聴ユーザの注目を集めることが可能となる。
[3-(6).移動装置周囲のショップと連動した広告画像を表示する処理]
次に、移動装置周囲のショップと連動した広告画像を表示する処理の一例について説明する。
図10を参照して、移動装置10の周囲のショップと連動した広告画像を表示する処理の一例について説明する。
この表示画像制御は、出力制御部180の画像制御部182によって実行される。
次に、移動装置周囲のショップと連動した広告画像を表示する処理の一例について説明する。
図10を参照して、移動装置10の周囲のショップと連動した広告画像を表示する処理の一例について説明する。
この表示画像制御は、出力制御部180の画像制御部182によって実行される。
図10に示すように、歩行者等のユーザ50の前を移動装置10が左から右に移動する。
このとき、移動装置10は、様々なショップ(店舗)の前を通過する。
時間(t1)において、シューズショップの前を通過し、
時間(t2)において、ゴルフ用品店の前を通過する。
このとき、移動装置10は、様々なショップ(店舗)の前を通過する。
時間(t1)において、シューズショップの前を通過し、
時間(t2)において、ゴルフ用品店の前を通過する。
移動装置10が、時間(t1)において、シューズショップの前を通過する際、移動装置10の表示部にシューズショップの提供する商品の広告を表示する。
また、移動装置10が、時間(t2)において、ゴルフ用品店の前を通過する際、移動装置10の表示部にゴルフ用品店の提供する商品の広告を表示する。
また、移動装置10が、時間(t2)において、ゴルフ用品店の前を通過する際、移動装置10の表示部にゴルフ用品店の提供する商品の広告を表示する。
なお、出力制御部180の画像制御部182は、このような表示画像の制御を予め記憶部170に格納された画像を用いて実行してもよいし、外部の広告サーバから取得した情報を出力する構成としてもよい。
なお、移動装置10がどのショップの近くにいるかの情報については、センサー113からの入力情報に基づいて解析された移動装置10の位置情報を適用する。
なお、移動装置10がどのショップの近くにいるかの情報については、センサー113からの入力情報に基づいて解析された移動装置10の位置情報を適用する。
図10を参照して説明したように、移動装置10が通過するショップの広告をその場で表示部に表示することで、表示部を見ている歩行者等の多くの視聴ユーザに、ショップへの立ち寄りを思い立たせる等、広告効果を高めることが可能となる。
[3-(7).移動装置の表示部を見ているユーザのアクションに応じたサービスを提供する処理]
次に、移動装置周囲の表示部を見ているユーザのアクションに応じたサービスを提供する処理の一例について説明する。
図11を参照して、移動装置10の表示部を見ているユーザのアクションに応じたサービスを提供する処理の一例について説明する。
次に、移動装置周囲の表示部を見ているユーザのアクションに応じたサービスを提供する処理の一例について説明する。
図11を参照して、移動装置10の表示部を見ているユーザのアクションに応じたサービスを提供する処理の一例について説明する。
図11に示すように、歩行者等のユーザ50の前を移動装置10が移動する。
このとき、移動装置10のカメラは、ユーザ50の画像を撮影している。
このとき、移動装置10のカメラは、ユーザ50の画像を撮影している。
移動装置10の表示部には、広告画像が表示され、登場人物が、
「手を振ってください。クーポンを差し上げます」
と呼びかける。音声出力部(スピーカー)121を介して音声が出力される。
この呼びかけに応じて手を振ったユーザ50の画像が移動装置10のカメラによって撮影されて広告サーバ33に送信される。
「手を振ってください。クーポンを差し上げます」
と呼びかける。音声出力部(スピーカー)121を介して音声が出力される。
この呼びかけに応じて手を振ったユーザ50の画像が移動装置10のカメラによって撮影されて広告サーバ33に送信される。
広告サーバ50は、ユーザのユーザ端末21に割引券や優待券等のクーポンを送信する。
なお、広告サーバ33からのクーポン送信先の特定処理としては、予め広告サーバ33の記憶部に登録されたユーザの顔画像とアドレスの対応データを用いた処理等が可能である。
あるいは移動装置10の表示部にサイトアドレスや、サイトにアクセスするためのQRコード(登録商標)を表示して、ユーザがこれらの情報を用いてサイトにアクセスしてクーポンを入手するといった処理等が可能である。
なお、広告サーバ33からのクーポン送信先の特定処理としては、予め広告サーバ33の記憶部に登録されたユーザの顔画像とアドレスの対応データを用いた処理等が可能である。
あるいは移動装置10の表示部にサイトアドレスや、サイトにアクセスするためのQRコード(登録商標)を表示して、ユーザがこれらの情報を用いてサイトにアクセスしてクーポンを入手するといった処理等が可能である。
[3-(8).その他の画像表示例について]
情報処理装置100の出力制御部180における画像制御部182が実行するその他の表示画像の制御例について説明する。
情報処理装置100の出力制御部180における画像制御部182が実行するその他の表示画像の制御例について説明する。
図12は、移動装置10の前後左右の各面の表示部に奥行感のある画像の表示を行うものであり、例えば各表示面のほぼ中央部を最も遠い点とした消失点として設定した奥行感のある画像を表示する。
このよう奥行感のある画像の表示を行う場合、画像制御部182は、各表示面の画像を見ているユーザの位置をカメラ撮影画像から取得して、ユーザの視点方向が、最も遠い点(消失点)となるように画像を変更するといった制御を行う。
図13は、移動装置10の近くに歩行者等のユーザ50がいることを検出した場合、そのユーザ側の表示部に、あたかもバスのドアが開いた状態の画像を表示する。
このような画像を表示することで、ユーザ50は、移動装置10に注目することになる。
例えば、この後に画像を切り替えて広告表示を行うことで。広告に対する注目度を高めることが可能となる。
このような画像を表示することで、ユーザ50は、移動装置10に注目することになる。
例えば、この後に画像を切り替えて広告表示を行うことで。広告に対する注目度を高めることが可能となる。
なお、複数の実施例について説明したが、これらの実施例は個別に実行することも可能であるが、任意の複数の実施例を組み合わせて実行することも可能である。
[4.情報処理装置、および情報処理システムの構成例について]
本開示の移動装置10の実行する処理について説明したが、先に図4を参照して説明したように、図4に示す情報処理装置100の各構成要素の処理機能は、移動装置10内の情報処理装置内に構成することも可能であるが、その一部をサーバ等において実行する構成とすることも可能である。
本開示の移動装置10の実行する処理について説明したが、先に図4を参照して説明したように、図4に示す情報処理装置100の各構成要素の処理機能は、移動装置10内の情報処理装置内に構成することも可能であるが、その一部をサーバ等において実行する構成とすることも可能である。
図14にシステム構成例を示す。
図14(1)情報処理システム構成例1は、図4に示す情報処理装置のほぼ全ての機能を移動装置10内の情報処理装置200内に構成した例である。
移動装置10内の情報処理装置200は、表示部に表示するデータ等を取得する場合には外部サーバから情報を取得する。
例えばガイド情報や、天気情報、あるいはニュース情報を提供するサービス提供サーバ221や、広告情報を提供する広告サーバ222から情報を取得する。
取得情報を適用した出力情報の生成、制御等は、移動装置10内の情報処理装置200内で実行する。
図14(1)情報処理システム構成例1は、図4に示す情報処理装置のほぼ全ての機能を移動装置10内の情報処理装置200内に構成した例である。
移動装置10内の情報処理装置200は、表示部に表示するデータ等を取得する場合には外部サーバから情報を取得する。
例えばガイド情報や、天気情報、あるいはニュース情報を提供するサービス提供サーバ221や、広告情報を提供する広告サーバ222から情報を取得する。
取得情報を適用した出力情報の生成、制御等は、移動装置10内の情報処理装置200内で実行する。
一方、図14(2)情報処理システム構成例2は、図4に示す情報処理装置の機能の一部を移動装置10内の情報処理装置200内に構成し、一部を情報処理装置200と通信可能なデータ処理サーバ230において実行する構成としたシステム例である。
例えば、図4に示す装置中の入力部110、出力部120のみを移動装置10内の情報処理装置200内に構成し、その他の機能をすべてサーバ側で実行するといった構成等が可能である。
なお、移動装置10内の情報処理装置200側の機能と、サーバ側の機能の機能分割態様は、様々な異なる設定が可能であり、また、1つの機能を双方で実行する構成も可能である。
なお、移動装置10内の情報処理装置200側の機能と、サーバ側の機能の機能分割態様は、様々な異なる設定が可能であり、また、1つの機能を双方で実行する構成も可能である。
[5.情報処理装置のハードウェア構成例について]
次に、図15を参照して、情報処理装置のハードウェア構成例について説明する。
図15を参照して説明するハードウェアは、先に図4を参照して説明した情報処理装置のハードウェア構成例であり、また、図3に示すユーザ端末、各種サーバ31~33のハードウェア構成の一例である。
次に、図15を参照して、情報処理装置のハードウェア構成例について説明する。
図15を参照して説明するハードウェアは、先に図4を参照して説明した情報処理装置のハードウェア構成例であり、また、図3に示すユーザ端末、各種サーバ31~33のハードウェア構成の一例である。
CPU(Central Processing Unit)301は、ROM(Read Only Memory)302、または記憶部308に記憶されているプログラムに従って各種の処理を実行するデータ処理部として機能する。例えば、上述した実施例において説明した処理を実行する。RAM(Random Access Memory)303には、CPU301が実行するプログラムやデータなどが記憶される。これらのCPU301、ROM302、およびRAM303は、バス304により相互に接続されている。
CPU301はバス304を介して入出力インタフェース305に接続され、入出力インタフェース305には、各種スイッチ、キーボード、タッチパネル、マウス、マイクロフォン、さらに、センサー、カメラ、GPS等の状況データ取得部などよりなる入力部306、ディスプレイ、スピーカーなどよりなる出力部307が接続されている。
なお、移動装置10に備えられた情報処理装置の場合、入力部306は、図4を参照して説明した音声入力部(マイク)111、画像入力部(カメラ)112、センサー113が含まれる。
また、出力部307には、移動装置10に備えられた情報処理装置の場合、図4に示す音声出力部(スピーカー)120、画像出力部(表示部)122が含まれる。
また、出力部307には、移動装置10に備えられた情報処理装置の場合、図4に示す音声出力部(スピーカー)120、画像出力部(表示部)122が含まれる。
CPU301は、入力部306から入力される指令や状況データ等を入力し、各種の処理を実行し、処理結果を例えば出力部307に出力する。
入出力インタフェース305に接続されている記憶部308は、例えばハードディスク等からなり、CPU301が実行するプログラムや各種のデータを記憶する。通信部309は、インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
入出力インタフェース305に接続されている記憶部308は、例えばハードディスク等からなり、CPU301が実行するプログラムや各種のデータを記憶する。通信部309は、インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
入出力インタフェース305に接続されているドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア311を駆動し、データの記録あるいは読み取りを実行する。
[6.移動装置の詳細形状の一例について]
次に、図16以下を参照して、移動装置の形状の一例について説明する。
図16~図18には、移動装置の一例としての乗用自動車またはシャトルバスの構成を示す図である。
図16~図18に示す移動装置は、旅客等の人を輸送するための車両であり、人による操作を介さず自律的に自動で走行し得る乗用自動車あるいはシャトルバスである。
次に、図16以下を参照して、移動装置の形状の一例について説明する。
図16~図18には、移動装置の一例としての乗用自動車またはシャトルバスの構成を示す図である。
図16~図18に示す移動装置は、旅客等の人を輸送するための車両であり、人による操作を介さず自律的に自動で走行し得る乗用自動車あるいはシャトルバスである。
図16は乗用自動車またはシャトルバスの部分意匠全体形状を示す図である。
開閉扉の外側には液晶パネルあるいは有機EL等によるディスプレイ部が設けられており、目的地や企業広告用動画等の表示に用いる。歩行者が所持する情報端末に格納された情報を読み取る等の手段によってディスプレイ脇を歩行する歩行者の嗜好等に応じた広告を表示することが可能である。当該開閉扉は、中央から左右に開くと乗降用の入り口が現れる。
図面中、薄墨で示した部分は透過性を有する。すなわち、搭乗した乗客が外部の景観を眺めるための窓として機能する。
開閉扉の外側には液晶パネルあるいは有機EL等によるディスプレイ部が設けられており、目的地や企業広告用動画等の表示に用いる。歩行者が所持する情報端末に格納された情報を読み取る等の手段によってディスプレイ脇を歩行する歩行者の嗜好等に応じた広告を表示することが可能である。当該開閉扉は、中央から左右に開くと乗降用の入り口が現れる。
図面中、薄墨で示した部分は透過性を有する。すなわち、搭乗した乗客が外部の景観を眺めるための窓として機能する。
図17は、乗用自動車またはシャトルバスとしての部分意匠を示すものである。一点鎖線は部分意匠としての領域を指定するものであって、外観形状を構成しない。
開状態を示す図面を含めて部分意匠を構成している。説明は図16を参照して説明した全体意匠のものと重複するため割愛する。
開状態を示す図面を含めて部分意匠を構成している。説明は図16を参照して説明した全体意匠のものと重複するため割愛する。
図18は、乗用自動車またはシャトルバスとしての部分意匠を示すものである。一点鎖線は部分意匠としての領域を指定するものであって、外観形状を構成しない。
開状態を示す図面を含めて部分意匠を構成している。説明は図16を参照して説明した全体意匠のものと重複するため割愛する。
開状態を示す図面を含めて部分意匠を構成している。説明は図16を参照して説明した全体意匠のものと重複するため割愛する。
[7.本開示の構成のまとめ]
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
なお、本明細書において開示した技術は、以下のような構成をとることができる。
(1) 移動装置の外側に設けられた表示部と、
前記表示部の表示画像の制御を実行する画像制御部を有し、
前記画像制御部は、
前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行する情報処理装置。
(1) 移動装置の外側に設けられた表示部と、
前記表示部の表示画像の制御を実行する画像制御部を有し、
前記画像制御部は、
前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行する情報処理装置。
(2) 前記情報処理装置は、
センサーからの入力情報に基づいて移動装置の走行状態を解析するデータ解析部を有し、
前記表示制御部は、
前記データ解析部の解析結果に基づいて、前記表示部の表示画像を変更する制御を実行する(1)に記載の情報処理装置。
センサーからの入力情報に基づいて移動装置の走行状態を解析するデータ解析部を有し、
前記表示制御部は、
前記データ解析部の解析結果に基づいて、前記表示部の表示画像を変更する制御を実行する(1)に記載の情報処理装置。
(3) 前記情報処理装置は、
センサーからの入力情報に基づいて前記移動装置が加速中、または減速中、または定速走行中のいずれであるかを解析するデータ解析部を有し、
前記表示制御部は、
前記移動装置が加速中、または減速中、または定速走行中の各々の状態に応じて前記表示部の表示画像を変更する制御を実行する(1)または(2)に記載の情報処理装置。
センサーからの入力情報に基づいて前記移動装置が加速中、または減速中、または定速走行中のいずれであるかを解析するデータ解析部を有し、
前記表示制御部は、
前記移動装置が加速中、または減速中、または定速走行中の各々の状態に応じて前記表示部の表示画像を変更する制御を実行する(1)または(2)に記載の情報処理装置。
(4) 前記画像制御部は、
前記移動装置の近傍にある実在オブジェクトを用いたAR(Augmented Reality)画像を生成して前記表示部に表示する(1)~(3)いずれかに記載の情報処理装置。
前記移動装置の近傍にある実在オブジェクトを用いたAR(Augmented Reality)画像を生成して前記表示部に表示する(1)~(3)いずれかに記載の情報処理装置。
(5) 前記画像制御部は、
前記移動装置の表示部側面と反対側にある実在オブジェクトを用いたAR画像を生成して前記表示部に表示する(4)に記載の情報処理装置。
前記移動装置の表示部側面と反対側にある実在オブジェクトを用いたAR画像を生成して前記表示部に表示する(4)に記載の情報処理装置。
(6) 前記AR画像は、前記実在オブジェクトの形状に沿ってアニメーション画像が移動する画像である(4)または(5)に記載の情報処理装置。
(7) 前記画像制御部は、
前記移動装置の側面に設けられた表示部の表示画像を、前記移動装置の進行方向から後方に流れるように更新する制御を実行する(1)~(6)いずれかに記載の情報処理装置。
前記移動装置の側面に設けられた表示部の表示画像を、前記移動装置の進行方向から後方に流れるように更新する制御を実行する(1)~(6)いずれかに記載の情報処理装置。
(8) 前記画像制御部は、
前記移動装置の側面に設けられた表示部の表示画像を、前記表示部を見ているユーザの視線方向に応じて変更する(1)~(7)いずれかに記載の情報処理装置。
前記移動装置の側面に設けられた表示部の表示画像を、前記表示部を見ているユーザの視線方向に応じて変更する(1)~(7)いずれかに記載の情報処理装置。
(9) 前記画像制御部は、
前記移動装置の近傍の店舗の広告情報を前記表示部に表示する(1)~(8)いずれかに記載の情報処理装置。
前記移動装置の近傍の店舗の広告情報を前記表示部に表示する(1)~(8)いずれかに記載の情報処理装置。
(10) 前記情報処理装置は、
センサーからの入力情報に基づいて前記移動装置の位置を検出し、検出位置に応じて、前記移動装置の近傍店舗の広告情報を前記表示部に表示する(9)に記載の情報処理装置。
センサーからの入力情報に基づいて前記移動装置の位置を検出し、検出位置に応じて、前記移動装置の近傍店舗の広告情報を前記表示部に表示する(9)に記載の情報処理装置。
(11) 移動装置の外側に設けられた表示部と、
前記表示部の表示画像の制御を実行する画像制御部と、
前記移動装置周囲の画像を撮影する画像入力部であるカメラを有し、
前記画像制御部は、
カメラ撮影画像に基づく前記移動装置周囲のユーザ解析結果に応じて、前記表示部の表示画像を変更する制御を実行する情報処理装置。
前記表示部の表示画像の制御を実行する画像制御部と、
前記移動装置周囲の画像を撮影する画像入力部であるカメラを有し、
前記画像制御部は、
カメラ撮影画像に基づく前記移動装置周囲のユーザ解析結果に応じて、前記表示部の表示画像を変更する制御を実行する情報処理装置。
(12) 前記情報処理装置は、
前記カメラ撮影画像に基づく前記移動装置周囲のユーザ解析結果として、ユーザが規定のアクションを実行したことが確認された場合、ユーザに対するサービス提供処理を実行する(11)に記載の情報処理装置。
前記カメラ撮影画像に基づく前記移動装置周囲のユーザ解析結果として、ユーザが規定のアクションを実行したことが確認された場合、ユーザに対するサービス提供処理を実行する(11)に記載の情報処理装置。
(13) 前記サービス提供処理は、前記ユーザの保持するユーザ端末に対するクーポン送信処理である(12)に記載の情報処理装置。
(14) 移動装置の外側に設けられた表示部と、
前記表示部の表示画像の制御を実行する画像制御部と、
前記移動装置の走行状態を検出するセンサーを有し、
前記画像制御部は、
前記センサーの検出情報から解析される前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行する移動装置。
前記表示部の表示画像の制御を実行する画像制御部と、
前記移動装置の走行状態を検出するセンサーを有し、
前記画像制御部は、
前記センサーの検出情報から解析される前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行する移動装置。
(15) 前記移動装置は、
前記移動装置周囲の画像を撮影する画像入力部であるカメラを有し、
前記画像制御部は、
カメラ撮影画像に基づく前記移動装置周囲のユーザ解析結果に応じて、前記表示部の表示画像を変更する制御を実行する(14)に記載の移動装置。
前記移動装置周囲の画像を撮影する画像入力部であるカメラを有し、
前記画像制御部は、
カメラ撮影画像に基づく前記移動装置周囲のユーザ解析結果に応じて、前記表示部の表示画像を変更する制御を実行する(14)に記載の移動装置。
(16) 前記移動装置は、
前記カメラ撮影画像に基づく前記移動装置周囲のユーザ解析結果として、ユーザが規定のアクションを実行したことが確認された場合、ユーザに対するサービス提供処理を実行する(15)に記載の移動装置。
前記カメラ撮影画像に基づく前記移動装置周囲のユーザ解析結果として、ユーザが規定のアクションを実行したことが確認された場合、ユーザに対するサービス提供処理を実行する(15)に記載の移動装置。
(17) 情報処理装置において実行する情報処理方法であり、
前記情報処理装置は、移動装置の外側に設けられた表示部の表示画像の制御を実行する画像制御部を有し、
前記画像制御部が、
前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行する情報処理方法。
前記情報処理装置は、移動装置の外側に設けられた表示部の表示画像の制御を実行する画像制御部を有し、
前記画像制御部が、
前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行する情報処理方法。
(18) 移動装置において実行する情報処理方法であり、
前記移動装置は、
移動装置の外側に設けられた表示部と、
前記表示部の表示画像の制御を実行する画像制御部と、
前記移動装置の走行状態を検出するセンサーを有し、
前記画像制御部が、
前記センサーの検出情報から解析される前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行する情報処理方法。
前記移動装置は、
移動装置の外側に設けられた表示部と、
前記表示部の表示画像の制御を実行する画像制御部と、
前記移動装置の走行状態を検出するセンサーを有し、
前記画像制御部が、
前記センサーの検出情報から解析される前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行する情報処理方法。
(19) 情報処理装置において情報処理を実行させるプログラムであり、
前記情報処理装置は、移動装置の外側に設けられた表示部の表示画像の制御を実行する画像制御部を有し、
前記プログラムは、前記画像制御部に、
前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行させるプログラム。
前記情報処理装置は、移動装置の外側に設けられた表示部の表示画像の制御を実行する画像制御部を有し、
前記プログラムは、前記画像制御部に、
前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行させるプログラム。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本開示の一実施例の構成によれば、バス等の移動装置の外側に設けられた表示部の表示画像の制御を行い、ユーザの注目度を高め、広告効果を増大させる構成が実現される。
具体的には、例えば、バス等の移動装置の外側に設けられた表示部と、表示部の表示画像の制御を実行する画像制御部を有し、画像制御部は、移動装置の走行状態に応じて表示部の表示画像を変更する制御を実行する。例えば、移動装置が加速中、または減速中、または定速走行中の各状態に応じて表示画像を変更する。あるいは移動装置の近傍にある実在オブジェクトを用いたAR画像を生成して表示する。
本構成により、バス等の移動装置の外側に設けられた表示部の表示画像の制御を行い、ユーザの注目度を高め、広告効果を増大させる構成が実現される。
具体的には、例えば、バス等の移動装置の外側に設けられた表示部と、表示部の表示画像の制御を実行する画像制御部を有し、画像制御部は、移動装置の走行状態に応じて表示部の表示画像を変更する制御を実行する。例えば、移動装置が加速中、または減速中、または定速走行中の各状態に応じて表示画像を変更する。あるいは移動装置の近傍にある実在オブジェクトを用いたAR画像を生成して表示する。
本構成により、バス等の移動装置の外側に設けられた表示部の表示画像の制御を行い、ユーザの注目度を高め、広告効果を増大させる構成が実現される。
10 移動装置
11 表示部
12 カメラ
21 ユーザ端末
22 サイネージ装置
31 データ処理サーバ
32 サービス提供サーバ
33 広告サーバ
50 ユーザ
100 情報処理装置
110 入力部
111 音声入力部
112 画像入力部
113 センサー
120 出力部
121 音声出力部
122 画像出力部
150 データ処理部
160 入力データ解析部
161 音声解析部
162 画像解析部
163 センサー情報解析部
170 記憶部
180 出力情報生成部
181 音声制御部
182 画像制御部
190 通信部
200 情報処理装置
221 サービス提供サーバ
222 広告サーバ
230 データ処理サーバ
301 CPU
302 ROM
303 RAM
304 バス
305 入出力インタフェース
306 入力部
307 出力部
308 記憶部
309 通信部
310 ドライブ
311 リムーバブルメディア
11 表示部
12 カメラ
21 ユーザ端末
22 サイネージ装置
31 データ処理サーバ
32 サービス提供サーバ
33 広告サーバ
50 ユーザ
100 情報処理装置
110 入力部
111 音声入力部
112 画像入力部
113 センサー
120 出力部
121 音声出力部
122 画像出力部
150 データ処理部
160 入力データ解析部
161 音声解析部
162 画像解析部
163 センサー情報解析部
170 記憶部
180 出力情報生成部
181 音声制御部
182 画像制御部
190 通信部
200 情報処理装置
221 サービス提供サーバ
222 広告サーバ
230 データ処理サーバ
301 CPU
302 ROM
303 RAM
304 バス
305 入出力インタフェース
306 入力部
307 出力部
308 記憶部
309 通信部
310 ドライブ
311 リムーバブルメディア
Claims (19)
- 移動装置の外側に設けられた表示部と、
前記表示部の表示画像の制御を実行する画像制御部を有し、
前記画像制御部は、
前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行する情報処理装置。 - 前記情報処理装置は、
センサーからの入力情報に基づいて移動装置の走行状態を解析するデータ解析部を有し、
前記表示制御部は、
前記データ解析部の解析結果に基づいて、前記表示部の表示画像を変更する制御を実行する請求項1に記載の情報処理装置。 - 前記情報処理装置は、
センサーからの入力情報に基づいて前記移動装置が加速中、または減速中、または定速走行中のいずれであるかを解析するデータ解析部を有し、
前記表示制御部は、
前記移動装置が加速中、または減速中、または定速走行中の各々の状態に応じて前記表示部の表示画像を変更する制御を実行する請求項1に記載の情報処理装置。 - 前記画像制御部は、
前記移動装置の近傍にある実在オブジェクトを用いたAR(Augmented Reality)画像を生成して前記表示部に表示する請求項1に記載の情報処理装置。 - 前記画像制御部は、
前記移動装置の表示部側面と反対側にある実在オブジェクトを用いたAR画像を生成して前記表示部に表示する請求項4に記載の情報処理装置。 - 前記AR画像は、前記実在オブジェクトの形状に沿ってアニメーション画像が移動する画像である請求項4に記載の情報処理装置。
- 前記画像制御部は、
前記移動装置の側面に設けられた表示部の表示画像を、前記移動装置の進行方向から後方に流れるように更新する制御を実行する請求項1に記載の情報処理装置。 - 前記画像制御部は、
前記移動装置の側面に設けられた表示部の表示画像を、前記表示部を見ているユーザの視線方向に応じて変更する請求項1に記載の情報処理装置。 - 前記画像制御部は、
前記移動装置の近傍の店舗の広告情報を前記表示部に表示する請求項1に記載の情報処理装置。 - 前記情報処理装置は、
センサーからの入力情報に基づいて前記移動装置の位置を検出し、検出位置に応じて、前記移動装置の近傍店舗の広告情報を前記表示部に表示する請求項9に記載の情報処理装置。 - 移動装置の外側に設けられた表示部と、
前記表示部の表示画像の制御を実行する画像制御部と、
前記移動装置周囲の画像を撮影する画像入力部であるカメラを有し、
前記画像制御部は、
カメラ撮影画像に基づく前記移動装置周囲のユーザ解析結果に応じて、前記表示部の表示画像を変更する制御を実行する情報処理装置。 - 前記情報処理装置は、
前記カメラ撮影画像に基づく前記移動装置周囲のユーザ解析結果として、ユーザが規定のアクションを実行したことが確認された場合、ユーザに対するサービス提供処理を実行する請求項11に記載の情報処理装置。 - 前記サービス提供処理は、前記ユーザの保持するユーザ端末に対するクーポン送信処理である請求項12に記載の情報処理装置。
- 移動装置の外側に設けられた表示部と、
前記表示部の表示画像の制御を実行する画像制御部と、
前記移動装置の走行状態を検出するセンサーを有し、
前記画像制御部は、
前記センサーの検出情報から解析される前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行する移動装置。 - 前記移動装置は、
前記移動装置周囲の画像を撮影する画像入力部であるカメラを有し、
前記画像制御部は、
カメラ撮影画像に基づく前記移動装置周囲のユーザ解析結果に応じて、前記表示部の表示画像を変更する制御を実行する請求項14に記載の移動装置。 - 前記移動装置は、
前記カメラ撮影画像に基づく前記移動装置周囲のユーザ解析結果として、ユーザが規定のアクションを実行したことが確認された場合、ユーザに対するサービス提供処理を実行する請求項15に記載の移動装置。 - 情報処理装置において実行する情報処理方法であり、
前記情報処理装置は、移動装置の外側に設けられた表示部の表示画像の制御を実行する画像制御部を有し、
前記画像制御部が、
前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行する情報処理方法。 - 移動装置において実行する情報処理方法であり、
前記移動装置は、
移動装置の外側に設けられた表示部と、
前記表示部の表示画像の制御を実行する画像制御部と、
前記移動装置の走行状態を検出するセンサーを有し、
前記画像制御部が、
前記センサーの検出情報から解析される前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行する情報処理方法。 - 情報処理装置において情報処理を実行させるプログラムであり、
前記情報処理装置は、移動装置の外側に設けられた表示部の表示画像の制御を実行する画像制御部を有し、
前記プログラムは、前記画像制御部に、
前記移動装置の走行状態に応じて、前記表示部の表示画像を変更する制御を実行させるプログラム。
Priority Applications (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP19758320.6A EP3757982A4 (en) | 2018-02-22 | 2019-02-13 | INFORMATION PROCESSING DEVICE, MOBILE BODY, PROCEDURE AND PROGRAM |
| US16/969,985 US11482190B2 (en) | 2018-02-22 | 2019-02-13 | Information processing apparatus, transportation apparatus, method, and program |
| KR1020207023005A KR20200123108A (ko) | 2018-02-22 | 2019-02-13 | 정보 처리 장치, 이동 장치 및 방법, 그리고 프로그램 |
| CN201980013136.7A CN111712870B (zh) | 2018-02-22 | 2019-02-13 | 信息处理装置、移动装置、方法和程序 |
| JP2020501697A JP7310793B2 (ja) | 2018-02-22 | 2019-02-13 | 情報処理装置、移動装置、および方法、並びにプログラム |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018029600 | 2018-02-22 | ||
| JP2018-029600 | 2018-02-22 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2019163599A1 true WO2019163599A1 (ja) | 2019-08-29 |
Family
ID=67688290
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2019/005045 Ceased WO2019163599A1 (ja) | 2018-02-22 | 2019-02-13 | 情報処理装置、移動装置、および方法、並びにプログラム |
Country Status (6)
| Country | Link |
|---|---|
| US (1) | US11482190B2 (ja) |
| EP (1) | EP3757982A4 (ja) |
| JP (1) | JP7310793B2 (ja) |
| KR (1) | KR20200123108A (ja) |
| CN (1) | CN111712870B (ja) |
| WO (1) | WO2019163599A1 (ja) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB2595316A (en) * | 2020-05-20 | 2021-11-24 | Joseph Brooks Aaron | Mobile marketing communication systems and methods |
| JP2022167701A (ja) * | 2021-04-23 | 2022-11-04 | ソニーグループ株式会社 | 情報処理装置、情報処理プログラム、情報処理方法及びモビリティサイネージシステム |
| JP2023049315A (ja) * | 2021-09-29 | 2023-04-10 | 株式会社東海理化電機製作所 | 情報配信サービス管理装置、デバイス、及び情報配信サービスシステム |
| WO2024047850A1 (ja) * | 2022-09-01 | 2024-03-07 | 株式会社Subaru | 車両 |
| JP7763549B1 (ja) * | 2025-04-28 | 2025-11-04 | 株式会社We Truck | 撮像装置、照合システム、分析システムおよび移動体ユニット |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7200643B2 (ja) * | 2018-12-10 | 2023-01-10 | トヨタ自動車株式会社 | 車両用開錠装置及びこれを備えた車両、並びに開錠システム |
| US12288126B1 (en) * | 2020-03-27 | 2025-04-29 | Mitchell Abrams | Digital information capture sun visor system and method of implementation |
| US11699367B1 (en) * | 2022-02-16 | 2023-07-11 | Ranjit Singh Phagura | Smart display for trailer door or panel |
Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10207413A (ja) * | 1997-01-17 | 1998-08-07 | Omron Corp | 情報表示方法および装置 |
| JPH1124603A (ja) * | 1997-07-04 | 1999-01-29 | Sanyo Electric Co Ltd | 情報表示装置及び情報収集装置 |
| JP2004279509A (ja) * | 2003-03-13 | 2004-10-07 | Toyota Motor Corp | 広告配信方法、広告配信システム、センターおよび広告表示装置 |
| JP2007265125A (ja) * | 2006-03-29 | 2007-10-11 | Matsushita Electric Ind Co Ltd | コンテンツ表示装置 |
| JP2009530669A (ja) * | 2006-03-16 | 2009-08-27 | ブルベーカー,カーチス,エム. | 移動物体上に非常に関連性の高い広告を表示することによって収入を得るためのシステム及び方法 |
| JP2010072713A (ja) * | 2008-09-16 | 2010-04-02 | Asia Air Survey Co Ltd | 大型車輌後方映像提供システム |
| JP2011118186A (ja) * | 2009-12-04 | 2011-06-16 | Sanyo Electric Co Ltd | クーポン配信装置 |
| JP2012068481A (ja) * | 2010-09-24 | 2012-04-05 | Asia Air Survey Co Ltd | 拡張現実表現システムおよび方法 |
| JP2015184335A (ja) | 2014-03-20 | 2015-10-22 | ヤフー株式会社 | 移動制御装置、移動制御方法及び移動制御システム |
| JP2015192810A (ja) * | 2014-03-31 | 2015-11-05 | 株式会社電通西日本 | 特典発行装置 |
| WO2016014966A2 (en) * | 2014-07-24 | 2016-01-28 | Brubaker Curtis M | Systems, methods, and devices for generating critical mass in a mobile advertising, media, and communications platform |
Family Cites Families (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7444771B2 (en) * | 2007-03-26 | 2008-11-04 | Enrico Raccah | Display device for use with vehicle |
| JP2010002759A (ja) * | 2008-06-20 | 2010-01-07 | Toyota Motor Corp | 車両用広告呈示装置 |
| US9147192B2 (en) * | 2009-01-14 | 2015-09-29 | International Business Machines Corporation | Targeted vehicle advertising and entertainment system method |
| TWI453707B (zh) * | 2010-11-30 | 2014-09-21 | Chunghwa Telecom Co Ltd | Mobile information kanban with adaptive broadcast function and its information display method |
| JP6056178B2 (ja) * | 2012-04-11 | 2017-01-11 | ソニー株式会社 | 情報処理装置、表示制御方法及びプログラム |
| US20140040016A1 (en) * | 2012-08-03 | 2014-02-06 | Vanya Amla | Real-time targeted dynamic advertising in moving vehicles |
| US11093196B2 (en) * | 2013-10-07 | 2021-08-17 | Intel Corporation | Method, system, and device for selecting and displaying information on a mobile digital display device |
| WO2015157564A1 (en) | 2014-04-10 | 2015-10-15 | Bumper Glass LLC | Prioritized location based ad display |
| JP2017054320A (ja) * | 2015-09-09 | 2017-03-16 | 株式会社ローレル・コード | Hmd装置におけるセンサー類を用いたユーザーインタフェースプログラムと広告および装置 |
| JP2017181842A (ja) | 2016-03-31 | 2017-10-05 | 拓志 船木 | 広告方法、広告用車両及び広告システム |
| US20180032536A1 (en) * | 2016-08-01 | 2018-02-01 | Barbara Carey Stachowski | Method of and system for advertising real estate within a defined geo-targeted audience |
| US10242457B1 (en) * | 2017-03-20 | 2019-03-26 | Zoox, Inc. | Augmented reality passenger experience |
| EP4250066A3 (en) * | 2017-03-21 | 2023-11-29 | InterDigital VC Holdings, Inc. | Method and system for the detection and augmentation of tactile interactions in augmented reality |
| CN107589851A (zh) * | 2017-10-17 | 2018-01-16 | 极鱼(北京)科技有限公司 | 汽车的交互方法和系统 |
| CN109842790B (zh) * | 2017-11-29 | 2021-02-26 | 财团法人工业技术研究院 | 影像信息显示方法与显示器 |
-
2019
- 2019-02-13 KR KR1020207023005A patent/KR20200123108A/ko not_active Withdrawn
- 2019-02-13 US US16/969,985 patent/US11482190B2/en active Active
- 2019-02-13 WO PCT/JP2019/005045 patent/WO2019163599A1/ja not_active Ceased
- 2019-02-13 JP JP2020501697A patent/JP7310793B2/ja active Active
- 2019-02-13 EP EP19758320.6A patent/EP3757982A4/en active Pending
- 2019-02-13 CN CN201980013136.7A patent/CN111712870B/zh active Active
Patent Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10207413A (ja) * | 1997-01-17 | 1998-08-07 | Omron Corp | 情報表示方法および装置 |
| JPH1124603A (ja) * | 1997-07-04 | 1999-01-29 | Sanyo Electric Co Ltd | 情報表示装置及び情報収集装置 |
| JP2004279509A (ja) * | 2003-03-13 | 2004-10-07 | Toyota Motor Corp | 広告配信方法、広告配信システム、センターおよび広告表示装置 |
| JP2009530669A (ja) * | 2006-03-16 | 2009-08-27 | ブルベーカー,カーチス,エム. | 移動物体上に非常に関連性の高い広告を表示することによって収入を得るためのシステム及び方法 |
| JP2007265125A (ja) * | 2006-03-29 | 2007-10-11 | Matsushita Electric Ind Co Ltd | コンテンツ表示装置 |
| JP2010072713A (ja) * | 2008-09-16 | 2010-04-02 | Asia Air Survey Co Ltd | 大型車輌後方映像提供システム |
| JP2011118186A (ja) * | 2009-12-04 | 2011-06-16 | Sanyo Electric Co Ltd | クーポン配信装置 |
| JP2012068481A (ja) * | 2010-09-24 | 2012-04-05 | Asia Air Survey Co Ltd | 拡張現実表現システムおよび方法 |
| JP2015184335A (ja) | 2014-03-20 | 2015-10-22 | ヤフー株式会社 | 移動制御装置、移動制御方法及び移動制御システム |
| JP2015192810A (ja) * | 2014-03-31 | 2015-11-05 | 株式会社電通西日本 | 特典発行装置 |
| WO2016014966A2 (en) * | 2014-07-24 | 2016-01-28 | Brubaker Curtis M | Systems, methods, and devices for generating critical mass in a mobile advertising, media, and communications platform |
Non-Patent Citations (1)
| Title |
|---|
| See also references of EP3757982A4 |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB2595316A (en) * | 2020-05-20 | 2021-11-24 | Joseph Brooks Aaron | Mobile marketing communication systems and methods |
| JP2022167701A (ja) * | 2021-04-23 | 2022-11-04 | ソニーグループ株式会社 | 情報処理装置、情報処理プログラム、情報処理方法及びモビリティサイネージシステム |
| JP7507722B2 (ja) | 2021-04-23 | 2024-06-28 | ソニーグループ株式会社 | 情報処理プログラム及び情報処理方法 |
| JP2023049315A (ja) * | 2021-09-29 | 2023-04-10 | 株式会社東海理化電機製作所 | 情報配信サービス管理装置、デバイス、及び情報配信サービスシステム |
| WO2024047850A1 (ja) * | 2022-09-01 | 2024-03-07 | 株式会社Subaru | 車両 |
| JPWO2024047850A1 (ja) * | 2022-09-01 | 2024-03-07 | ||
| JP7693844B2 (ja) | 2022-09-01 | 2025-06-17 | 株式会社Subaru | 車両 |
| JP7763549B1 (ja) * | 2025-04-28 | 2025-11-04 | 株式会社We Truck | 撮像装置、照合システム、分析システムおよび移動体ユニット |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7310793B2 (ja) | 2023-07-19 |
| EP3757982A4 (en) | 2021-06-09 |
| CN111712870A (zh) | 2020-09-25 |
| KR20200123108A (ko) | 2020-10-28 |
| US20200402480A1 (en) | 2020-12-24 |
| CN111712870B (zh) | 2024-03-08 |
| JPWO2019163599A1 (ja) | 2021-03-11 |
| US11482190B2 (en) | 2022-10-25 |
| EP3757982A1 (en) | 2020-12-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7310793B2 (ja) | 情報処理装置、移動装置、および方法、並びにプログラム | |
| US20170289596A1 (en) | Networked public multi-screen content delivery | |
| KR102281602B1 (ko) | 사용자의 발화 음성을 인식하는 인공 지능 장치 및 그 방법 | |
| EP4306471A1 (en) | A method and system for providing audio-visual information along a continuous path | |
| JP6929707B2 (ja) | 広告を管理するためにコンピュータが実行する方法およびプログラムならびに移動通信端末を制御するためのプログラム | |
| US20200151943A1 (en) | Display system for presentation of augmented reality content | |
| US20160217496A1 (en) | System and Method for a Personalized Venue Experience | |
| US20150220991A1 (en) | External messaging in the automotive environment | |
| US20220303607A1 (en) | Hardware for entertainment content in vehicles | |
| Krüger et al. | Adaptive mobile guides | |
| JP2017533106A (ja) | 顧客サービスロボットおよび関連するシステムおよび方法 | |
| KR102303785B1 (ko) | 로봇의 언어를 설정하는 인공 지능 서버 및 그 방법 | |
| US20220396202A1 (en) | Display control apparatus, speed control apparatus and display control method | |
| US20240153469A1 (en) | Systems and methods for advertising using relative motion | |
| WO2020067071A1 (en) | System and method for providing a mobile real-world hyperlink using a vehicle | |
| KR102802728B1 (ko) | 인공 지능을 이용하여, 안내 서비스를 제공하는 로봇 및 그의 동작 방법 | |
| US12154139B2 (en) | Contextual targeting based on metaverse monitoring | |
| KR102601329B1 (ko) | 디지털사이니지를 이용한 맞춤형 고객 대응 장치 | |
| KR102529920B1 (ko) | 쉐어링 차량의 증강 이미지 제공 장치 및 방법 | |
| US11436827B1 (en) | Location tracking system using a plurality of cameras | |
| KR102653992B1 (ko) | 사용자의 주거지에 기반한 지역 서비스를 제공하는 지역 서비스 제공 장치 및 그 방법 | |
| KR20210069860A (ko) | 스마트 장치 | |
| JP2020525917A (ja) | 自動運転車を使用して動的なブランドプロモーションを促進するためのシステムおよび方法 | |
| JP7650333B2 (ja) | キャラクターインタラクションシステム、および、キャラクターインタラクション方法 | |
| KR102745279B1 (ko) | Uam 및 자율 주행 객체를 위한 인터렉티브 광고 제공 방법 및 시스템 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19758320 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2020501697 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| ENP | Entry into the national phase |
Ref document number: 2019758320 Country of ref document: EP Effective date: 20200922 |