WO2018105544A1 - コレクションシステム,端末用プログラム,及びコレクション方法 - Google Patents
コレクションシステム,端末用プログラム,及びコレクション方法 Download PDFInfo
- Publication number
- WO2018105544A1 WO2018105544A1 PCT/JP2017/043422 JP2017043422W WO2018105544A1 WO 2018105544 A1 WO2018105544 A1 WO 2018105544A1 JP 2017043422 W JP2017043422 W JP 2017043422W WO 2018105544 A1 WO2018105544 A1 WO 2018105544A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- target
- terminal device
- display
- video
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
- H04N7/185—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/216—Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/69—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
Definitions
- the present invention relates to a system, a program, and a method for collecting character images and the like in a digital picture book. More specifically, the present invention provides a recreation in which, for example, an image of a target displayed by a projector or the like is captured by a camera of a mobile terminal, and information related to the target is collected together with the captured image in a digital picture book. It relates to a system for the purpose.
- Patent Literature 1 discloses a store attracting support system using so-called AR (Augmented Reality) technology.
- a video of a predetermined character is projected on a screen provided in an area where merchandise in a store is arranged, and this video is captured by a user with a mobile terminal, and the character included in the captured image is displayed. And the identified character is registered in the picture book as captured.
- an image captured by a user's mobile terminal is transmitted to the management server via the Internet, the captured image is analyzed by the management server, and a character included in the image is specified.
- the management server Since the marking information (eg, the shape of the character's hat) is embedded in the image of the character projected on the screen, the management server extracts this marking information from the photographed image to determine which type the user has. It is possible to specify whether or not the character is photographed.
- the marking information eg, the shape of the character's hat
- an image taken by a portable terminal is analyzed by a management server, marking information is extracted from the image, and a character included in the image is specified.
- the management server is responsible for image analysis processing.
- this system is installed in an exhibition hall or store, it is assumed that a large number of mobile terminals access the management server at the same time.
- the management server is in charge of the relatively heavy processing of image analysis, when a large number of captured images are sent to the management server at the same time, the processing power cannot catch up and a system error occurs. There is a problem that a bottleneck occurs and the image analysis result cannot be quickly provided to the user's mobile terminal.
- the present invention provides a collection system for capturing an image of an object (such as a character) displayed on a display device with a user's terminal device, without subjecting the captured image to the object captured by the terminal device.
- the main purpose is to be able to identify the type.
- a first aspect of the present invention relates to a collection system.
- the system according to the present invention includes at least a terminal device having a photographing unit, a plurality of display devices that display a target video, and a management device that controls the display device.
- the management device has a display device control unit. Based on the “target appearance information”, the display device control unit controls the specific display device to display a specific type of target video for a specific display time.
- the “target appearance information” here is information that specifies at least the display device (location) for displaying the target video, the type of target to be displayed on the display device, and the display time of the target video of the type. is there.
- the system according to the present invention belongs to the same area as the display device where the shooting location by a terminal device is located based on the target appearance information, and the shooting time by the terminal device is a specific type by the display device. It is determined whether or not the display time of the target video is the same. When the system of the present invention determines that they match, it determines that the video of the specific type of object has been captured by the terminal device.
- a notification device for notifying the terminal device of location information of the area is installed in the area where the display device is installed.
- the notification device include an ultrasonic generator that generates ultrasonic waves of a predetermined frequency and transmits area position information, a light-emitting device that transmits information on areas by placing information on visible light or invisible light, or a beacon.
- a wireless base station that transmits position information of an area by short-range wireless communication (so-called BLE) using a wireless LAN.
- the position information specifying unit of the terminal device specifies the shooting location by acquiring the position information from the notification device.
- the position information acquisition unit of the terminal device may adopt an ultrasonic sensor, an optical sensor, or a beacon receiving device in accordance with the form of the notification device.
- the terminal device stores the target appearance information, and the terminal device itself determines whether the shooting location and the shooting time match the target appearance information, so that the terminal device is temporarily offline. It is also possible to specify the type of object included in the captured image. That is, when specifying the type of object, the terminal device does not need to be connected to the management device via the Internet or the like.
- the system of the present invention may further include a server device connected to the terminal device and the management device via the Internet.
- the server device has the same area as the display device where the target appearance information generation unit (the element that generates the target appearance information) and the target shooting success / failure determination unit (based on the target appearance information, where the shooting location by a certain terminal device exists) And when the shooting time of the terminal device coincides with the display time of the video of the specific type of target by the display device. It is also possible to have an element that determines that the video of the specific type of object has been shot. In this case, the type of object included in the captured image cannot be specified unless the terminal device is in an online state at the time of shooting, but the system of the present invention can also include such a form. Even with such a configuration, at least the first object described above can be achieved.
- the third aspect of the present invention relates to a collection method executed by a computer system.
- the collection method according to the present invention includes a first step and a second step.
- the first step on a specific display device based on target display information for specifying a display device for displaying a target video, a type of target to be displayed on the display device, and a display time of the target video of the type, Display a video of a specific type for a specific display time.
- the second step based on the target appearance information, the display time of the video of a specific type of target belonging to the display device that belongs to the same area as the display device where the shooting location by the terminal device is located and the terminal device It is determined whether or not the video of the specific type is captured by the terminal device.
- the method according to the third aspect of the present invention can be executed by the system according to the first aspect described above.
- FIG. 1 is a conceptual diagram schematically showing the overall configuration of a collection system according to the present invention.
- FIG. 2 is a block diagram showing a functional configuration of the collection system according to the present invention.
- FIG. 3 is a conceptual diagram showing an example of target appearance information (time table).
- FIG. 4 is a flowchart illustrating an example of processing performed by the terminal device.
- FIG. 5 shows an example of a digital animal pictorial book.
- FIG. 1 schematically shows the overall configuration of a collection system 100 according to an embodiment of the present invention.
- the system 100 includes a terminal device 10, a management device 20, a server device 30, a plurality of display devices 40, and a plurality of notification devices 50.
- the terminal device 10 is owned by a user and corresponds to a portable information communication terminal such as a general smartphone.
- the management device 20 is deployed at a site such as an exhibition hall or a store and is operated by a system administrator, and a general laptop personal computer or the like corresponds to this.
- FIG. 2 shows a functional configuration of the collection system 100 according to an embodiment of the present invention.
- each element which comprises this system is demonstrated in detail.
- the terminal device 10 includes a terminal control unit 11, a storage unit 12, a communication unit 13, a photographing unit 14, a position information specifying unit 15, a time measuring unit 16, an input unit 17, and an output unit 18. is doing.
- a general function configuration of the terminal device 10 is illustrated. In this system, it is assumed that there are a plurality of terminal devices 10, but it is not necessary for all the terminal devices 10 to have the same configuration, and they may have different configurations.
- the terminal control unit 11 performs arithmetic processing for controlling the other elements 12 to 18 included in the terminal device 10.
- a processor such as a CPU or a GPU can be used.
- the terminal control unit 11 reads an application program stored in the storage unit 12 and controls other elements according to the application program. Further, the terminal control unit 11 can appropriately write or read the calculation result according to the application program in the terminal device 10.
- the terminal control unit 11 has a target imaging success / failure determination unit 11a.
- the target imaging success / failure determination unit 11 a is a functional unit realized by the terminal control unit 11.
- the target shooting success / failure determination unit 11a belongs to the same area as the display device 40 in which the terminal device 10 has its shooting location, and its own shooting time is the display device. It is determined whether or not the display time of the target video of the specific type according to 40 coincides, and when it is determined that they match, it has a function of determining that the target video of the specific type is captured by itself. . Details of the processing performed by the target imaging success / failure determination unit 11a will be described later with reference to FIG.
- the communication unit 13 of the terminal device 10 is an element for exchanging information between the terminal device 10 and the server device 30 via the Internet.
- the communication unit 13 can receive various types of information from the server device 30 or transmit the information to the server device 30 according to the control of the terminal control unit 11.
- the terminal device 10 receives the target appearance information (time table) generated by the management device 20 from the server device 30 via the communication unit 13.
- Information (specifically, target appearance information) received from the server device 30 by the communication unit 13 is stored in the storage unit 12.
- the photographing unit 14 is a camera for acquiring still image or moving image data.
- photography part 14 utilizes what was built in the terminal device 10.
- the image data acquired by the imaging unit 14 is sent to the terminal control unit 11 and subjected to predetermined calculation processing, and then stored in the storage unit 12.
- the camera is, for example, a lens, a mechanical shutter, a shutter driver, a photoelectric conversion element such as a CCD image sensor unit or a CMOS image sensor unit, a digital signal processor (DSP) that reads out the amount of charge from the photoelectric conversion element and generates image data, an IC memory, etc. It is realized with.
- the location information specifying unit 15 is an element for specifying the current location information of the terminal device 10.
- the location information specifying unit 15 of the terminal device 10 has a function capable of receiving location information transmitted from the notification device 50.
- the notification device 50 is an ultrasonic generator
- an ultrasonic sensor is employed as the position information specifying unit 15
- the position information specifying unit 15 is an optical sensor.
- a beacon receiving device may be employed as the position information specifying unit 15.
- a case where the notification device 50 is an ultrasonic generator will be described as an example.
- a 100 kHz ultrasonic wave is emitted from the notification device 50a in the area A, and a 150 kHz ultrasonic wave is emitted from the notification device 50b in the area B. Sound waves are emitted, and 200 kHzn ultrasonic waves are emitted from the notification device 50c in the area C.
- the position information specifying unit 15 of the terminal device 10 can specify that the current area is the area A when detecting an ultrasonic wave of about 100 kHz, for example.
- Information for associating the ultrasonic frequency with each area is stored in the storage unit 12 of the terminal device 10.
- the position information specifying unit 15 can specify the area of the frequency by detecting the frequency of the ultrasonic wave and collating the frequency with the information stored in the storage unit 12.
- the terminal device 10 is temporarily in an offline state.
- the current position of the self can be specified.
- the position information specifying unit 15 of the terminal device 10 may be a GPS positioning unit having a function of performing positioning using GPS (Global Positioning System).
- the GPS positioning unit measures the time required to receive each radio wave based on the radio wave transmission time information included in the radio waves sent from a plurality of GPS satellites, and displays the time indicating the time. Based on the information, information on the latitude and longitude of the location of the terminal device 10 is calculated.
- the timekeeping unit 16 performs various timekeeping processes using a system clock such as RTC (Real Time Clock). For example, the timer unit 16 counts the current time and the shooting time when the shooting unit 14 takes an image. Information about the time acquired by the time measuring unit 16 is sent to the terminal control unit 11 and used for arithmetic processing in the terminal control unit 11.
- RTC Real Time Clock
- the input unit 17 of the terminal device 10 is an element for receiving input of information from the user to the terminal device 10. Information input via the input unit 17 is transmitted to the terminal control unit 11.
- the input unit 17 can employ various input devices that are used in known information communication terminals. Examples of the input unit 17 are a touch panel, a button, a cursor, a microphone, a keyboard, and a mouse, but are not limited thereto. Further, the touch panel constituting the input unit 17 may constitute a touch panel display together with the display constituting the output unit 18.
- the output unit 18 of the terminal device 10 is an element for outputting various types of information to the user of the terminal device 10.
- Information calculated by the terminal control unit 11 is output by the output unit 18.
- the output unit 18 can employ various external output devices that are used in known information communication terminals. Examples of the output unit 18 are a display, a speaker, a flashlight, and a vibrator, but are not limited thereto. As described above, the display may be a touch panel display.
- the output unit 18 can output various information according to the control of the terminal control unit 11.
- the management device 20 includes a management control unit 21, a storage unit 22, a communication unit 23, an input unit 24, and an output unit 25.
- the management device 20 is basically a computer for controlling each display device 40 arranged in each area, is arranged in the same facility as each display device 40, and is wired or wirelessly connected to each display device 40. It is preferable that they are connected with each other. However, the management device 40 may be connected to each display device 40 via the Internet, or may be arranged in a facility different from each display device 40.
- the management control unit 21 includes a target appearance information generation unit 21a for generating target appearance information.
- the “target appearance information” is information that specifies at least a display device (location) for displaying the target video, a type of target to be displayed on the display device, and a display time of the target video of the type. More specifically, the target appearance information is defined by associating information related to a certain area with information related to a display device belonging to the area. Further, the notification device 50 specifies information related to a certain area and the area. Position information (such as the frequency of ultrasonic waves) output from is defined in association with each other. For example, FIG. 3 schematically shows an example of target appearance information. In the example of FIG.
- the projector 40a belonging to the area A displays an image of an elephant (identification No. 001) during AM10: 05 to 10:20 minutes and AM10: 25 to 30 at 10 AM.
- the target appearance information is information that determines which type of target video is displayed in which time zone for each display device, and is similar to time table type data. Further, in the target appearance information, it is determined which area each display device belongs to and what position information is notified from the notification device 50 in each area. It should be noted that the target appearance information described here stipulates that a specific type of target video be displayed on a specific display device “in a specific time zone” from the past to the future. However, the example of the target appearance information is not limited to this, and may be information defining that “currently”, a specific type of target video is displayed on the specific display device, for example. It can be said that the former and the latter specify common information in that the type, display location, and display time of the target are specified.
- the target appearance information generation unit 21a can receive information input by the administrator via the input unit 24 and generate or correct the target appearance information. That is, the target appearance information (time table) shown in FIG. 3 can be freely generated and corrected by the manager operating the management device 20. In this way, by providing the target appearance information generation unit 21a in the management device 20 and allowing the administrator to arbitrarily generate the information, the display device can be selected according to the situation in the facility such as an exhibition hall or a store. 40 can freely adjust the type and timing of the video displayed on the screen. Note that the target appearance information can be stored in the storage unit 22 in advance, and in this case, the target appearance information generation unit 21a may read the information in the storage unit 22.
- the management control unit 21 includes a display device control unit 21b for controlling the display device 40.
- the display device control unit 21b controls the display devices 40 deployed in each area according to the target appearance information generated by the target appearance information generation unit 21a.
- the target appearance information defines the type of target for displaying an image for each display device 40 and the display time thereof
- the display device control unit 21b displays the display device 40 according to the target appearance information. For each, it is possible to control the type of display object and its display time.
- the display device 40 arranged in each area operates according to the target appearance information.
- the management control unit 21 has a notification device control unit 21c that controls the notification device 50 provided in each area.
- the notification device control unit 21c controls each notification device 50 so that different position information is notified from each notification device 50 for each area.
- the notification device control unit 21c receives 100 kHz from the notification devices 50a to 50c provided in the areas A, B, and C, respectively.
- Each notification device is controlled so that ultrasonic waves having different frequencies such as 150 kHz and 200 kHz are generated.
- the position information specifying unit 15 of the terminal device 10 can determine which area is the current position by detecting the position information (for example, the frequency of the ultrasonic wave) output from the notification device 50.
- the storage unit 22 of the management device 20 is an element for storing information used for arithmetic processing or the like in the management control unit 21.
- the storage function of the storage unit 22 can be realized by a nonvolatile memory such as an HDD and an SDD.
- the storage unit 22 may have a function as a memory for writing or reading out the progress of the arithmetic processing by the control arithmetic unit 21.
- the memory function of the storage unit 22 can be realized by a volatile memory such as RAM or DRAM.
- the storage unit 22 of the management device 20 stores target video data to be displayed on the display device 40.
- the target video data may be still image data or moving image data.
- the target to be displayed as a video is not particularly limited, but examples include animals, plants, insects, aquatic organisms, automobiles, ships, aircraft, anime, movies, comics, and story characters.
- the storage unit 22 stores a plurality of types of target video data. For example, in the example of the system described in the present application, an image of an animal is displayed on the display device 40, but an elephant (identification No. 001), a rabbit (identification No. 002), a dog (identification No. 003). ), Fox (identification No. 004), monkey (identification No. 005), cat (identification No.
- the display device control unit 21b of the management control unit 21 reads the target video data from the storage unit 22 in accordance with the target appearance information, and displays the target video data on the predetermined display device 40 for a predetermined display time.
- the communication unit 23 of the management device 20 is an element for exchanging information between the management device 20 and the server device 30 via the Internet.
- the communication unit 23 can receive various types of information from the server device 30 and can transmit the information to the server device 30 under the control of the management control unit 21.
- the management device 20 transmits the target appearance information generated by the management control unit 21 from the communication unit 23 to the terminal device 10 through the server device 30.
- the management device 20 and the terminal device 10 can share information (target appearance information) indicating which display device displays which type of target video at which timing.
- the input unit 24 of the management device 20 is an element for accepting input of information to the management device 20 from the administrator. Information input via the input unit 24 is transmitted to the management control unit 21.
- the input unit 24 may employ various input devices that are used in known information communication terminals. Examples of the input unit 17 are a touch panel, a button, a cursor, a microphone, a keyboard, and a mouse, but are not limited thereto.
- the administrator can generate arbitrary target appearance information by inputting information via the input unit 24.
- the output unit 25 of the management device 20 is an element for outputting various information to the administrator. Information calculated by the management control unit 21 is output by the output unit 25.
- the output unit 25 can employ various external output devices used in known personal computers. Examples of the output unit 25 are a display and a speaker, but are not limited thereto.
- the display may be a touch panel display.
- the server device 40 includes a server control unit 31, a storage unit 32, and a communication unit 33.
- the server device 40 mainly has an information relay function of providing the target appearance information received from the management device 20 to the terminal device 10.
- the server control unit 31 performs overall control of the server device 30.
- a processor such as a CPU or a GPU can be used.
- the storage unit 32 of the server device 30 is an element for storing information used for arithmetic processing or the like in the server control unit 31.
- the storage function of the storage unit 32 can be realized by a nonvolatile memory such as an HDD and an SDD.
- the memory function of the storage unit 32 can be realized by a volatile memory such as RAM or DRAM.
- the communication unit 33 of the server device 30 is an element for exchanging information via the Internet between the server device 30 and the terminal device 10 and between the server device 30 and the management device 20.
- the server device 30 receives the target appearance information from the management device 20 through the communication unit 33 and transmits it to the terminal device 10.
- the target appearance information received from the management device 20 is stored in the storage unit 32 of the server device 30. Further, when the target appearance information is corrected by the management device 20, the target appearance information stored in the storage unit 32 of the server device 30 is also updated.
- the display device 40 displays the target video according to the control from the management device 20.
- a projector that projects an image on a screen or a wall can be employed, or a liquid crystal display or an organic EL display that can display an image can be employed.
- the display device 40 may display a three-dimensional hologram image.
- a known device can be appropriately adopted. At least one display device 40 is disposed in each area. Although it is possible to arrange a plurality of display devices 40 in one area, basically, the plurality of display devices 40 arranged in the same area are controlled to display the same type of target video. .
- the notification device 50 is an element for notifying the terminal device 10 of position information.
- Examples of the notification device include an ultrasonic generator that generates ultrasonic waves of a predetermined frequency and transmits area position information, a light-emitting device that transmits information on areas by placing information on visible light or invisible light, or a beacon.
- a wireless base station that transmits position information of an area by short-range wireless communication (so-called BLE) using a wireless LAN.
- At least one notification device 50 is arranged in each area. Information emitted from the notification device 50 in each area is different in each area. For example, when the notification device 50 is an ultrasonic generator, the frequency of the ultrasonic wave emitted in each area is different.
- the terminal device 10 can identify the area to which its current position belongs by analyzing the information emitted from the notification device 50.
- the plurality of notification devices 50 arranged in the same area basically transmits the same position information to the terminal device 10.
- the terminal device 10 receives (downloads) the target appearance information generated by the management device 20 from the server device 30. (Step S1).
- the terminal device 10 stores the target appearance information received from the server device 30 in the storage unit 12.
- the target appearance information includes information on the display device (location) for displaying the target video, information on the type of target to be displayed on the display device, and information on the display time for displaying the target video on the display device. included.
- the target appearance information is defined by associating information on a certain area with information on a display device belonging to the area, and further, information on a certain area and a position output from the notification device 50 for specifying the area.
- the terminal device 10 obtains the target appearance information, thereby displaying the display device 40 arranged in each area, the position information notified from the notification device 50 in each area, and the target image displayed by each display device 40. And the time during which each display device displays the target video. Thereby, even when there is a place where radio waves do not reach in the facility or when the terminal device 10 is in an offline state, the terminal device 10 can specify the type of target included in the captured image.
- the terminal device 10 can specify the type of target included in the captured image.
- the terminal device 10 analyzes the frequency of the ultrasonic wave with the position information specifying unit 15, thereby the area where the terminal device 10 is currently located. Can be identified.
- the position information specifying unit 15 of the terminal device 10 may detect two or more frequencies at the same time. In that case, the position information specifying unit 15 may compare the intensities of the two types of frequencies and specify the area associated with the stronger frequency as the area where the current position is located.
- step S3 when the user of the terminal device 10 finds the target video displayed by the display device 40 in the area, the target video is shot by the camera (shooting unit 14) (step S3). Thereafter, the process proceeds to a process for specifying the type of object that will appear in the captured image.
- step S4 When the photographing is performed, the terminal device 10 accesses the server device 30 and receives the target appearance information again (step S4).
- this step S4 is not essential and can be omitted when the terminal device 10 is in an offline state. Moreover, since this step S4 is performed to receive the latest target appearance information, it can be omitted if the target appearance information received in step S1 has not been changed. On the other hand, if step S4 is essential, step S1 can be omitted.
- the terminal device 10 identifies the display device 40 arranged in the same area as the shooting location (step S6). Since the target appearance information defines which display device 40 is arranged in which area, the terminal device 10 refers to the target appearance information so that the terminal device 10 can display the display device in the same area as its own shooting location. 40 can be specified.
- the terminal device 10 specifies the time of shooting (step S7).
- the photographing time is acquired from the time measuring unit 16.
- the target shooting success / failure determination unit 11a of the terminal control unit 11 of the terminal device 10 refers to the target appearance information, and the display device 40 in which the shooting time acquired in step S7 belongs to the same area as that at the time of shooting. It is determined whether or not it is within the display time of the target video (step S8).
- the target shooting success / failure determination unit 11a determines that the shooting time acquired in step S7 is within the display time of the target video by the display device 40 that belonged to the same area as that at the time of shooting, the terminal device 10 is determined to have successfully photographed the specific type of object displayed by the display device 40 (step S9). For example, in the example shown in FIG.
- the display device 40a in area A displays an image of an elephant (identification No. 001) between AM 10:05 and 10:20. . Therefore, the display device 40a in area A displays the elephant video between AM 10:05 and 10:20 in accordance with the target appearance information. Therefore, if the shooting location by the terminal device 10 is in the area A and the shooting time by the terminal device 10 is between AM10: 05 and 10:20, the shooting location and shooting time of the terminal device 10 are images of elephants. Therefore, it can be said that there is a high possibility that the image of the elephant displayed by the display device 40a in the area A is reflected in the photographed image of the terminal device 10.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Computer Networks & Wireless Communication (AREA)
- Environmental & Geological Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Tourism & Hospitality (AREA)
- General Physics & Mathematics (AREA)
- Economics (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Theoretical Computer Science (AREA)
- Human Resources & Organizations (AREA)
- General Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Information Transfer Between Computers (AREA)
- Closed-Circuit Television Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Debugging And Monitoring (AREA)
Abstract
【課題】撮影画像の解析処理を行わずに端末装置が撮影した対象の種類を特定する。 【解決手段】管理装置20は,対象の映像を表示させる表示装置40,当該表示装置に表示させる対象の種類,及び当該種類の対象の映像の表示時間を特定する対象出現情報に基づいて,特定の表示装置40に,特定の表示時間の間,特定種類の対象の映像を表示させる。端末装置10は,撮影部14によって撮影した撮影場所と撮影時刻とを特定する。本システムでは,対象出現情報に基づいて,ある端末装置10による撮影場所がある表示装置40と同じエリアに属し,かつ,当該端末装置による撮影時刻が当該表示装置による特定種類の対象の映像の表示時間と一致しているか否かを判定し,一致していると判定した場合に,当該端末装置によって当該特定種類の対象の映像が撮影されたと判断する。
Description
本発明は,ディジタル図鑑にキャラクタの画像などをコレクションすることができるシステム,プログラム,及びその方法に関する。具体的に説明すると,本発明は,例えばプロジェクタなどによって表示された対象の映像を,携帯端末のカメラで撮影することで,その対象に関する情報を撮影画像とともにディジタル図鑑にコレクションするというレクリエーションを提供するためのシステムなどに関するものである。
近年,高機能かつ多機能の携帯端末(いわゆるスマートフォン)の普及率が高まったことに伴い,利用者が持つ携帯端末に魅力的なコンテンツを提供することで,展示会や店舗への集客力を高めようとする試みが多く見受けられる。
例えば,特許文献1には,いわゆるAR(Augmented Reality)技術を利用した店舗集客支援システムが開示されている。特許文献1のシステムでは,店舗内の商品が配置されるエリアに設けられたスクリーンに所定のキャラクタの映像を投影し,この映像を利用者に携帯端末で撮影させ,その撮影画像に含まれるキャラクタを特定して,特定したキャラクタを捕獲済みとして図鑑に登録する。このシステムでは,利用者の携帯端末で撮影した画像をインターネットを介して管理サーバへ送信し,管理サーバにおいて撮影画像の解析を行い,その画像に含まれるキャラクタを特定する。スクリーンに投影されたキャラクタの映像にはマーキング情報(例:キャラクタの帽子の形状など)が埋め込まれているため,管理サーバは,撮影画像からこのマーキング情報を抽出することで,利用者がどの種類のキャラクタを撮影したのかを特定することができるようになっている。
ところで,特許文献1のシステムでは,管理サーバで携帯端末が撮影した画像を解析し,その画像からマーキング情報を抽出して,画像に含まれるキャラクタを特定することとしている。このシステムでは,管理サーバが画像の解析処理を一極集中的に担っているといえる。しかしながら,展示会場内や店舗内にこのシステムを導入した場合,多数の携帯端末が同時に管理サーバにアクセスすることが想定される。この場合に,管理サーバに画像の解析という比較的に重い処理を一手に担当させると,管理サーバに対して多数の撮影画像が同時に送信されてきたときにその処理能力が追いつかずシステムエラーを起こしたり,ボトルネックが発生して利用者の携帯端末に対して迅速に画像解析結果を提供できなくなるという問題がある。
また,特許文献1のシステムでは,利用者の携帯端末がインターネットに接続できる状態(オンライン状態)となっていることを前提としており,インターネットに接続できない状態(オフライン状態)では機能しない。つまり,特許文献1のシステムでは,携帯端末から管理サーバへ撮影画像を送信し,この管理サーバで撮影画像を解析してその画像に含まれるキャラクタを特定することとしているため,携帯端末がオフライン状態にあっては画像の解析を行うことができない。しかしながら,展示会場内や店舗内では携帯端末に電波が届かない場所が点在している場合があり,携帯端末が常にオンライン状態にあることを前提としてシステムを構築すると,システムが上手く機能せず,利用者に対して却ってストレスを与えかねないという問題がある。
そこで,本発明は,表示装置によって表示された対象(キャラクタ等)の映像を利用者の端末装置で撮影させるコレクションシステムにおいて,撮影画像の解析処理を行わなくても,端末装置が撮影した対象の種類を特定できるようにすることを主たる目的とする。
本発明の発明者は,上記従来発明の問題を解決する手段について鋭意検討した結果,対象の映像を表示する場所(表示装置)・対象の種類・表示時間を特定する対象出現情報に基づいて表示装置を制御することで,端末装置による撮影場所と撮影時刻が対象出現情報と一致したときには,端末装置の撮影画像を解析しなくても,端末装置によって撮影された対象の種類を特定することができるという知見を得た。また,上記対象出現情報を端末装置に提供し,端末装置自身で撮影場所と撮影時刻が対象出現情報と一致するかどうかを判定させることで,迅速に端末装置によって撮影された対象の種類を特定することができる。そして,本発明者は,上記知見に基づけば,従来技術の課題を解決できることに想到し,本発明を完成させた。具体的に説明すると,本発明は以下の構成・工程を有する。
本発明の第1の側面は,コレクションシステムに関する。本発明に係るシステムは,少なくとも,撮影部を有する端末装置と,対象の映像を表示する複数の表示装置と,この表示装置を制御する管理装置とを備える。
管理装置は,表示装置制御部を有する。表示装置制御部は,「対象出現情報」に基づいて,特定の表示装置に,特定の表示時間の間,特定種類の対象の映像を表示させる制御を行う。ここにいう「対象出現情報」とは,少なくとも,対象の映像を表示させる表示装置(場所),当該表示装置に表示させる対象の種類,及び当該種類の対象の映像の表示時間を特定する情報である。なお,対象出現情報は,例えば,“特定の時間帯に”特定種類の対象の映像を特定表示装置に表示させることを規定した情報であってもよいし,“今現在”特定種類の対象の映像を特定表示装置に表示させているということを規定した情報であってもよい。
端末装置は,位置情報特定部と計時部とを有する。位置情報特定部は,撮影部によって撮影した撮影場所を特定する。なお,位置情報取得部の例は,GPS受信部や,後述する超音波センサなどである。計時部は,撮影部によって撮影した撮影時刻を特定する。
ここで,本発明に係るシステムは,上記の対象出現情報に基づいて,ある端末装置による撮影場所がある表示装置と同じエリアに属し,かつ,当該端末装置による撮影時刻が当該表示装置による特定種類の対象の映像の表示時間と一致しているか否かを判定する。そして,本発明のシステムは,一致していると判定した場合に,当該端末装置によって当該特定種類の対象の映像が撮影されたと判断する。
管理装置は,表示装置制御部を有する。表示装置制御部は,「対象出現情報」に基づいて,特定の表示装置に,特定の表示時間の間,特定種類の対象の映像を表示させる制御を行う。ここにいう「対象出現情報」とは,少なくとも,対象の映像を表示させる表示装置(場所),当該表示装置に表示させる対象の種類,及び当該種類の対象の映像の表示時間を特定する情報である。なお,対象出現情報は,例えば,“特定の時間帯に”特定種類の対象の映像を特定表示装置に表示させることを規定した情報であってもよいし,“今現在”特定種類の対象の映像を特定表示装置に表示させているということを規定した情報であってもよい。
端末装置は,位置情報特定部と計時部とを有する。位置情報特定部は,撮影部によって撮影した撮影場所を特定する。なお,位置情報取得部の例は,GPS受信部や,後述する超音波センサなどである。計時部は,撮影部によって撮影した撮影時刻を特定する。
ここで,本発明に係るシステムは,上記の対象出現情報に基づいて,ある端末装置による撮影場所がある表示装置と同じエリアに属し,かつ,当該端末装置による撮影時刻が当該表示装置による特定種類の対象の映像の表示時間と一致しているか否かを判定する。そして,本発明のシステムは,一致していると判定した場合に,当該端末装置によって当該特定種類の対象の映像が撮影されたと判断する。
上記構成のように,本発明のシステムでは,どの表示装置(Where)が,どの時間帯(When)に,どの種類(What)の対象を表示するのかという情報が,対象出現情報(タイムテーブル)によって定められている。このため,端末装置の撮影場所(Where)及び撮影時刻(When)をこの対象出現情報(タイムテーブル)と照合することで,端末装置がどの種類(What)の対象を撮影したのかを推定できる。つまり,端末装置の撮影画像に対象の映像が実際に写っているかどうかは判定しなくても,端末装置が,ある特定種類の対象の表示場所において,その表示時間内に撮影を行ったのであれば,その撮影画像には特定種類の対象の映像が写っている可能性が極めて高いといえる。このため,本発明のシステムでは,撮影場所と撮影時刻が上記対象出現情報(タイムテーブル)と一致したときに,その撮影画像には特定種類の対象の映像が写っているものと見做すこととした。これにより,撮影画像を解析しなくても,利用者が撮影した対象の種類を特定することができる。
本発明のシステムにおいて,表示装置が設置されたエリアには,当該エリアの位置情報を端末装置に報知するための報知装置が設置されていることが好ましい。報知装置の例は,所定周波数の超音波を発生させてエリアの位置情報を伝達する超音波発生装置や,可視光又は不可視光に情報を乗せてエリアの位置情報を伝達する発光装置,或いはビーコンを利用した近距離無線通信(いわゆるBLE)によってエリアの位置情報を伝達する無線基地局などである。この場合,端末装置の位置情報特定部は,報知装置から位置情報を取得することで,撮影場所を特定する。端末装置の位置情報取得部は,報知装置の形態に合わせて,超音波センサや,光センサ,或いはビーコン受信装置を採用すればよい。
上記のように,表示装置が設置されたエリア内に,各表示装置と対応付けた報知装置を設置しておくことで,端末装置に対して迅速に位置情報を伝達することができる。また,端末装置としては,表示装置と同じエリアに属するか否かの判定が容易になる。
本発明のシステムにおいて,端末装置は,さらに記憶部と対象撮影成否判断部を有することが好ましい。記憶部は,対象出現情報(タイムテーブル)を記憶する。また,対象撮影成否判断部は,対象出現情報に基づいて,端末装置自身の撮影場所がある表示装置と同じエリアに属し,かつ,自身の撮影時刻が当該表示装置による特定種類の対象の映像の表示時間と一致しているか否かを判定し,一致していると判定した場合に,自身によって当該特定種類の対象の映像が撮影されたと判断する
上記構成のように,端末装置に対象出現情報を記憶させ,端末装置自身で撮影場所と撮影時刻がこの対象出現情報と一致するかどうかを判定させることで,端末装置が仮にオフライン状態であっても,撮影画像に含まれる対象の種類を特定することが可能となる。つまり,対象の種類を特定する際に,端末装置は管理装置とインターネット等を介して接続されている必要はない。
本発明において,管理装置は,対象出現情報を生成する対象出現情報生成部と,対象出現情報を端末装置に向けて送信する通信部とを有することとしてもよい。
上記構成のように,管理装置に対象出現情報を生成する機能を持たせることで,対象が出現する場所や時間帯を,展示会や店舗の現場でリアルタイムに変更・追加することができる。これにより,例えば客が少ない場所に希少な対象を出現させたり,客が多い場所には対象が出現する頻度を低くするなどの対処が可能となる。
本発明のシステムは,端末装置及び管理装置にインターネットを介して接続されたサーバ装置をさらに備えていてもよい。この場合に,サーバ装置は,管理装置によって生成された対象出現情報を受け取り,端末装置に対して送信する通信部を有することが好ましい。
上記構成のように,管理装置にて生成した対象出現情報をサーバ装置を介して端末装置に送信してもよい。この場合には,端末装置が展示会場内や店舗内に入る前に対象出現情報を端末装置に提供しておけば,端末装置が仮にオフライン状態になっても特に問題が発生しないようにすることができる。
本発明のシステムは,端末装置及び管理装置にインターネットを介して接続されたサーバ装置をさらに備えていてもよい。この場合に,サーバ装置が,対象出現情報生成部(対象出現情報を生成する要素)と,対象撮影成否判断部(対象出現情報に基づいて,ある端末装置による撮影場所がある表示装置と同じエリアに属し,かつ,当該端末装置による撮影時刻が当該表示装置による特定種類の対象の映像の表示時間と一致しているか否かを判定し,一致していると判定した場合に,当該端末装置によって当該特定種類の対象の映像が撮影されたと判断する要素)を有することとすることもできる。この場合には,端末装置が撮影時にオンライン状態にないと撮影画像に含まれる対象の種類を特定できないこととなるが,本発明のシステムは,このような形態も含み得る。このような形態であっても,少なくとも前述した第1の目的は達成できる。
本発明の第2の側面は,端末装置用のプログラムに関する。本発明に係るプログラムは,携帯型情報通信端末(例えば汎用的なスマートフォン)を,前述した第1の側面に係るシステムにおける端末装置として機能させる。本発明のプログラムは,インターネットを介して携帯型情報通信端末にダウンロードできるものであってもよいし,携帯型情報通信端末に予めインストールされたものであってもよい。
本発明の第3の側面は,コンピュータシステムが実行するコレクション方法に関する。本発明に係るコレクション方法は,第1工程と第2工程を含む。第1工程では,対象の映像を表示させる表示装置,当該表示装置に表示させる対象の種類,及び当該種類の対象の映像の表示時間を特定する対象出現情報に基づいて,特定の表示装置に,特定の表示時間の間,特定種類の対象の映像を表示させる。第2工程では,対象出現情報に基づいて,ある端末装置による撮影場所がある表示装置と同じエリアに属し,かつ,当該端末装置による撮影時刻が当該表示装置による特定種類の対象の映像の表示時間と一致しているか否かを判定し,一致していると判定した場合に,当該端末装置によって当該特定種類の対象の映像が撮影されたと判断する。本発明の第3の側面に係る方法は,前述した第1の側面に係るシステムによって実行できる。
本発明によれば,撮影画像の解析処理を行わなくても,端末装置が撮影した対象の種類を特定することができる。
以下,図面を用いて本発明を実施するための形態について説明する。本発明は,以下に説明する形態に限定されるものではなく,以下の形態から当業者が自明な範囲で適宜変更したものも含む。
まず,図1を参照して,本発明のコレクションシステム100の概要を説明する。図1は,本発明の一実施形態に係るコレクションシステム100の全体構成を模式的に示している。図1に示されるように,本実施形態に係るシステム100は,端末装置10と,管理装置20と,サーバ装置30と,複数の表示装置40と,複数の報知装置50とを備えている。端末装置10は,利用者によって所有されるものであり,一般的なスマートフォンなどの携帯型情報通信端末がこれに相当する。管理装置20は,展示会場や店舗などの現場に配備されシステムの管理者によって操作されるものであり,一般的なラップトップ型のパーソナルコンピュータなどがこれに相当する。サーバ装置30は,インターネットを通じて端末装置10及び管理装置20に接続されたウェブサーバであり,システムの管理者によって運用される。各表示装置40は,管理装置20に有線又は無線接続されており,管理装置20の制御に従って映像を表示する。報知装置50は,表示装置40と同じエリアに配置され,端末装置10に対して各エリアを識別するための位置情報を報知するための装置である。
図1にされるように,本システムにおいて,展示会場や店舗は複数のエリアに区分けされる。図示した例では,便宜的に,エリアA,エリアB,エリアCの3つのエリアに区分けされているが,実際にはより多くのエリアが設けられる。各エリアには,表示装置40と報知装置50が少なくとも1つずつ設置されている。エリアA内の報知装置50aは,当該報知装置50aが設置されたエリアが「エリアA」であることを端末装置10に伝達し,同様に,エリアB内の報知装置50bは,当該報知装置50bが設置されたエリアが「エリアB」であることを端末装置10に伝達する。これにより,端末装置10は各報知装置50からの情報を受けて自身の現在位置がどのエリアに属するかを判別できる。また,各エリアには表示装置40が設置されており,別のエリアに属する表示装置40は,管理装置20によって別々に制御されている。例えば,図示した例では,エリアAに属する表示装置40aは,ゾウの映像を表示しており,エリアBに属する表示装置40bは,ウサギの映像を表示しており,エリアBに属する表示装置40cは,映像を表示していない。このように,各エリアの表示装置40は,表示する映像の種類と映像を表示するタイミングについて,個別に管理装置20からの制御を受けることとなる。
利用者は,自身が所有する端末装置10を各エリア内に持ち込み,各表示装置40が表示する映像を,端末装置10が備える撮影手段(カメラ)を利用して撮影する。本システムは,各エリアにおいて,特定種類の対象の映像が表示されている表示時間内に,端末装置10が撮影を行った場合,その端末装置10の撮影画像にはその特定種類の対象の映像が写っていると判断する。例えば,エリアAでは,表示装置40aによってゾウの映像が映し出されている。このゾウの映像の表示時間内に,エリアAにおいて端末装置10が撮影を行った場合,その撮影画像にはゾウの映像が写っていると判断される。本システムは,表示装置によって映し出された映像を端末装置で撮影するという趣旨のレクリエーションで利用されるものであるため,上記のように,特定種類の対象の映像が表示されている表示時間内に同じエリアで端末装置10による撮影が行われた場合,その撮影画像にはその特定種類の対象の映像が写っている可能性が高いといえる。なお,実際の撮影画像に特定種類の対象の映像が写っているかどうかは,本システムにおいては判断しない。
図2は,本発明の一実施形態に係るコレクションシステム100の機能構成を示している。以下,図2を参照して,本システムを構成する各要素について詳しく説明する。
図2に示されるように,端末装置10は,端末制御部11,記憶部12,通信部13,撮影部14,位置情報特定部15,計時部16,入力部17,及び出力部18を有している。なお,図2では,端末装置10の機能構成として一般的なものを例示している。本システムでは,端末装置10が複数台存在することを想定しているが,各端末装置10はすべてが同じ構成を有している必要はなく,異なる構成を有していてもよい。
端末制御部11は,端末装置10が備える他の要素12~18を制御する演算処理を行う。端末制御部11としては,CPU又はGPUといったプロセッサを利用することができる。端末制御部11は,記憶部12に記憶されているアプリケーションプログラムを読み出し,このアプリケーションプログラムに従って他の要素を制御する。また,端末制御部11は,アプリケーションプログラムに従った演算結果を,端末装置10に適宜書き込んだり読み出したりすることができる。
また,本実施形態において,端末制御部11は,対象撮影成否判断部11aを有している。対象撮影成否判断部11aは,端末制御部11によって実現される一機能部である。対象撮影成否判断部11aは,管理装置20によって生成された対象出現情報に基づいて,端末装置10自身の撮影場所がある表示装置40と同じエリアに属し,かつ,自身の撮影時刻が当該表示装置40による特定種類の対象の映像の表示時間と一致しているか否かを判定し,一致していると判定した場合に,自身によって当該特定種類の対象の映像が撮影されたと判断する機能を持つ。対象撮影成否判断部11aが行う処理の詳細については,図4を参照して後述する。
端末装置10の記憶部12は,端末制御部11での演算処理等に用いられる情報を記憶するための要素である。具体的に説明すると,記憶部12は,汎用的な携帯型の情報通信端末を,本発明に係るコレクションシステム100における端末装置10として機能させるアプリケーションプログラムを記憶している。このアプリケーションプログラムは,インターネットを経由して端末装置10にダウンロードされたものであってもよいし,端末装置10にプリインストールされたものであってもよい。また,記憶部12には,本システム用のアプリケーションプログラム以外にも,その他のプログラムが記憶されていてもよい。ユーザからの指示により,本システム用のアプリケーションプログラムが起動されると,このプログラムに従った処理が実行される。記憶部12のストレージ機能は,例えばHDD及びSDDといった不揮発性メモリによって実現できる。また,記憶部12は,端末制御部11による演算処理の途中経過などを書き込む又は読み出すためのメモリとしての機能を有していてもよい。記憶部12のメモリ機能は,RAMやDRAMといった揮発性メモリにより実現できる。また,端末装置10の記憶部12には,それを所持する利用者固有のユーザIDが記憶されていてもよい。また,記憶部12には,ネットワーク上の識別情報であるIPアドレスが記憶されている。
端末装置10の通信部13は,端末装置10とサーバ装置30との間で,インターネットを介して情報の授受を行うための要素である。通信部13は,端末制御部11の制御に従って,各種の情報をサーバ装置30から受信することもできるし,サーバ装置30へと送信することもできる。本実施形態では,端末装置10は,通信部13を介して,管理装置20が生成した対象出現情報(タイムテーブル)を,サーバ装置30から受信する。通信部13によってサーバ装置30から受信した情報(具体的には対象出現情報)は,記憶部12に記憶される。
撮影部14は,静止画又は動画の画像データを取得するためのカメラである。撮影部14を構成するカメラは,端末装置10に内蔵されているものを利用する。撮影部14によって取得された画像データは,端末制御部11へと送出され所定の演算処理が行われた後に,記憶部12に保存される。カメラは,例えば,レンズ,メカシャッター,シャッタードライバ,CCDイメージセンサユニットやCMOSイメージセンサユニットといった光電変換素子,光電変換素子から電荷量を読み出し画像データを生成するデジタルシグナルプロセッサ(DSP),ICメモリなどで実現される。
位置情報特定部15は,端末装置10の現在の位置情報を特定するための要素である。本実施形態において,端末装置10の位置情報特定部15は,報知装置50から発信される位置情報を受信可能な機能を持つ。例えば,報知装置50が超音波発生装置である場合には,位置情報特定部15としては超音波センサを採用し,報知装置50が発光装置である場合には,位置情報特定部15としては光センサを採用し,報知装置50が無線基地局である場合には,位置情報特定部15としてはビーコン受信装置を採用すればよい。例えば,報知装置50が超音波発生装置である場合を例に挙げて説明すると,エリアA内の報知装置50aからは100kHzの超音波が放出され,エリアB内の報知装置50bからは150kHzの超音波が放出され,エリアC内の報知装置50cからは200kHzn超音波が放出される。このため,端末装置10の位置情報特定部15は,例えば約100kHzの超音波を検知したときに,現在のエリアがエリアAであることを特定できる。なお,超音波の周波数と各エリアとを関連付けるための情報は,端末装置10の記憶部12に記憶されている。このため,位置情報特定部15は,超音波の周波数を検出し,その周波数を記憶部12に記憶されている情報と照合することで,その周波数がどのエリアのものであるかを特定できる。このように,端末装置10の位置情報特定部15として,同じエリア内に属する報知装置50から直接位置情報を入手できる機能構成を採用することにより,端末装置10は,仮にオフライン状態であっても自己の現在位置を特定することができる。その他,端末装置10の位置情報特定部15は,GPS(Global Positioning System)を利用した測位を行う機能を持つGPS測位部であってもよい。具体的には,GPS測位部は,複数のGPS衛星から送られた電波に含まれる電波送信時間の情報に基づき,それぞれの電波を受信するのに要した時間を測定し,その時間を示す時間情報に基づいて,端末装置10の所在位置の緯度経度に関する情報を算出する。
計時部16は,RTC(Real Time Clock)などのシステムクロックを利用してさまざまな計時処理を行う。例えば,計時部16は,現在時刻の計時や,撮影部14によって画像を撮影した撮影時刻の計時を行う。計時部16が取得した時刻に関する情報は端末制御部11へと送出され,端末制御部11での演算処理に利用される。
端末装置10の入力部17は,利用者から端末装置10に対する情報の入力を受け付けるための要素である。入力部17を介して入力された情報は,端末制御部11へと伝達される。入力部17は,公知の情報通信端末に利用されている種々の入力装置を採用することができる。入力部17の例は,タッチパネル,ボタン,カーソル,マイクロフォン,キーボード,及びマウスであるが,これらに限定されない。また,入力部17を構成するタッチパネルは,出力部18を構成するディスプレイと共に,タッチパネルディスプレイを構成していてもよい。
端末装置10の出力部18は,端末装置10の利用者に向けて各種の情報を出力するための要素である。端末制御部11で演算処理された情報は,出力部18によって出力される。出力部18は,公知の情報通信端末に利用されている種々の外部出力装置を採用することができる。出力部18の例は,ディスプレイ,スピーカ,フラッシュライト,及びバイブレータであるが,これらに限定されない。前述のとおり,ディスプレイは,タッチパネルディスプレイであってもよい。出力部18は,端末制御部11の制御に従って,種々の情報を出力できる。
図2に示されるように,管理装置20は,管理制御部21,記憶部22,通信部23,入力部24,及び出力部25を有している。管理装置20は,基本的に,各エリアに配置された各表示装置40を制御するためのコンピュータであり,各表示装置40と同じ施設内に配置され,各表示装置40に対して有線又は無線にて接続されていることが好ましい。ただし,管理装置40は,各表示装置40とインターネットを介して接続されていてもよいし,また各表示装置40と異なる施設に配置されたものであってもよい。
管理制御部21は,管理装置20が備える他の要素22~35の全体制御を行う。管理制御部21としては,CPU又はGPUといったプロセッサを利用することができる。管理制御部21は,端末装置10に対する情報を生成して,通信部23を介してこの情報を送信することもできる。このため,管理端末20の管理制御部21は,本システムにおける端末装置10を制御する機能も担っている。
管理制御部21は,対象出現情報を生成するための対象出現情報生成部21aを有する。「対象出現情報」とは,少なくとも,対象の映像を表示させる表示装置(場所),当該表示装置に表示させる対象の種類,及び当該種類の対象の映像の表示時間を特定する情報である。さらに具体的に説明すると,対象出現情報には,あるエリアに関する情報とそこに属する表示装置に関する情報が関連付けて規定されており,さらに,あるエリアに関する情報とそのエリアを特定するために報知装置50から出力される位置情報(超音波の周波数など)が関連付けて規定されている。例えば,図3には,対象出現情報の一例が,模式的に示されている。図3の例では,エリアAに属するプロジェクタ40aは,AM10時台において,AM10:05~10:20分の間はゾウ(識別No.001)の映像を表示し,AM10:25~30の間はウサギ(識別No.002)の映像を表示し,AM10:40~10:50の間はイヌ(識別No.003)の映像を表示することが,対象出現情報として規定されている。また,例えば,エリアAには表示装置40aが配置されていることと,エリアAでは報知装置50から100kHzの周波数の超音波が出力されていることが,対象出現情報として規定されている。
このように,対象出現情報は,各表示装置について,どの時間帯にどの種類の対象の映像を表示させるかを定めた情報であり,タイムテーブル型のデータに類するものである。また,対象出現情報では,各表示装置がどのエリアに属するのか,及び各エリアでは報知装置50からどのような位置情報が報知されているのかが定められている。なお,ここで説明した対象出現情報は,過去から将来に亘る“特定の時間帯に”,特定種類の対象の映像を特定表示装置に表示させることを規定している。ただし,対象出現情報の例はこれに限られず,例えば,“今現在”,特定種類の対象の映像を特定表示装置に表示させているということを規定した情報であってもよい。前者と後者は,対象の種類・表示場所・表示時間を規定したものである点において共通の情報を規定したものであるといえる。
対象出現情報生成部21aは,管理者が入力部24を介して入力した情報を受け付けて,対象出現情報を生成したり修正したりすることができる。つまり,図3に示した対象出現情報(タイムテーブル)は,管理者が管理装置20を操作することで自由に生成及び修正することが可能である。このように,対象出現情報生成部21aを管理装置20に設け,管理者がその情報を任意に生成等できるようにすることで,展示会場や店舗などの施設内の状況に応じて,表示装置40に表示させる映像の種類やタイミングを自由に調整できる。なお,対象出現情報は予め記憶部22に記憶しておくことも可能であり,その場合には,対象出現情報生成部21aは,この記憶部22内の情報を読み出すこととすればよい。
また,管理制御部21は,表示装置40を制御するための表示装置制御部21bを有する。表示装置制御部21bは,対象出現情報生成部21aが生成した対象出現情報に従って,各エリアに配備された表示装置40を制御する。前述したとおり,対象出現情報には,表示装置40ごとに映像を表示する対象の種類とその表示時間とが規定されているため,この対象出現情報に従い,表示装置制御部21bは,表示装置40ごとに,映像を表示する対象の種類とその表示時間を制御することができる。このように,各エリアに配置された表示装置40は,対象出現情報に従って動作する。
また,管理制御部21は,各エリアに配備された報知装置50を制御する報知装置制御部21cを有する。報知装置制御部21cは,エリアごとに各報知装置50から異なる位置情報が報知されるように,各報知装置50を制御する。例えば,報知装置50が超音波発生装置である場合を例に挙げて説明すると,報知装置制御部21cは,エリアA,エリアB,エリアCに配備された報知装置50a~50cから,それぞれ100kHz,150kHz,200kHzといったように異なった周波数の超音波が発生されるように,各報知装置を制御している。これにより,端末装置10の位置情報特定部15は,報知装置50から出力された位置情報(例えば超音波の周波数)を検知することで,現在位置するエリアがどのエリアであるのかを特定できる。
管理装置20の記憶部22は,管理制御部21での演算処理等に用いられる情報を記憶するための要素である。記憶部22のストレージ機能は,例えばHDD及びSDDといった不揮発性メモリによって実現できる。また,記憶部22は,制御演算部21による演算処理の途中経過などを書き込む又は読み出すためのメモリとしての機能を有していてもよい。記憶部22のメモリ機能は,RAMやDRAMといった揮発性メモリにより実現できる。
また,管理装置20の記憶部22には,表示装置40に表示させる対象の映像データが記憶されている。対象の映像データは,静止画データであってもよいし動画データであってもよい。映像として表示する対象は特に限定されないが,一例として,動物や,植物,昆虫,水生生物,自動車,船舶,航空機,アニメ・映画・漫画・物語のキャラクタなどが挙げられる。また,記憶部22には,対象の映像データが複数種類記憶される。例えば,本願で説明したシステムの一例では,動物の映像が表示装置40によって表示されるものであるが,ゾウ(識別No.001)や,ウサギ(識別No.002),イヌ(識別No.003),キツネ(識別No.004),サル(識別No.005),ネコ(識別No.006)などの各種の動物が,その識別IDとともに記憶部22によって構築されたデータベースに記憶されている。管理制御部21の表示装置制御部21bは,対象出現情報に従って,対象の映像データを記憶部22から読み出して,所定の表示時間の間,所定の表示装置40に対象の映像データを表示させる。
管理装置20の通信部23は,管理装置20とサーバ装置30との間で,インターネットを介した情報の授受を行うための要素である。通信部23は,管理制御部21の制御に従って,各種の情報をサーバ装置30から受信することもできるし,サーバ装置30へと送信することもできる。本実施形態では,管理装置20は,管理制御部21で生成した対象出現情報を,通信部23から,サーバ装置30を通じて,端末装置10に向けて送信する。これにより,管理装置20と端末装置10とで,どの表示装置が,どのタイミングで,どの種類の対象の映像を表示するかという情報(対象出現情報)を共有することができる。
管理装置20の入力部24は,管理者から管理装置20に対する情報の入力を受け付けるための要素である。入力部24を介して入力された情報は,管理制御部21へと伝達される。入力部24は,公知の情報通信端末に利用されている種々の入力装置を採用することができる。入力部17の例は,タッチパネル,ボタン,カーソル,マイクロフォン,キーボード,及びマウスであるが,これらに限定されない。管理者は,入力部24を介して情報を入力することで,任意の対象出現情報を生成できる。
管理装置20の出力部25は,管理者に向けて各種の情報を出力するための要素である。管理制御部21で演算処理された情報は,出力部25によって出力される。出力部25は,公知のパーソナルコンピュータに利用されている種々の外部出力装置を採用することができる。出力部25の例は,ディスプレイやスピーカであるが,これらに限定されない。なお,ディスプレイは,タッチパネルディスプレイであってもよい。
図2に示されるように,サーバ装置40は,サーバ制御部31,記憶部32,及び通信部33を有する。本実施形態において,サーバ装置40は,主に,管理装置20から受信した対象出現情報を,端末装置10に提供するという情報の中継機能を担う。
サーバ制御部31は,サーバ装置30の全体制御を行う。サーバ制御部31としては,CPU又はGPUといったプロセッサを利用することができる。
サーバ装置30の記憶部32は,サーバ制御部31での演算処理等に用いられる情報を記憶するための要素である。記憶部32のストレージ機能は,例えばHDD及びSDDといった不揮発性メモリによって実現できる。また,記憶部32のメモリ機能は,RAMやDRAMといった揮発性メモリにより実現できる。
サーバ装置30の通信部33は,サーバ装置30と端末装置10との間,及びサーバ装置30と管理装置20との間で,インターネットを介した情報の授受を行うための要素である。前述のように,サーバ装置30は,通信部33により,管理装置20から対象出現情報を受信して,これを端末装置10に送信する。管理装置20から受信した対象出現情報は,サーバ装置30の記憶部32に記憶される。また,管理装置20によって対象出現情報が修正された場合には,サーバ装置30の記憶部32に記憶されている対象出現情報も更新される。
表示装置40は,管理装置20からの制御に従って,対象の映像を表示する。表示装置40としては,スクリーンや壁に映像を投影するプロジェクタを採用することもできるし,映像を表示可能な液晶ディスプレイや有機ELディスプレイを採用することもできる。また,表示装置40は,3次元のホログラム映像を表示するものであってもよい。その他,表示装置40としては公知のものを適宜採用できる。表示装置40は,各エリアに少なくとも1台配置される。一つのエリアに複数の表示装置40を配置することも可能であるが,基本的に,同じエリアに配置された複数の表示装置40は,同じ種類の対象の映像を表示するように制御される。
報知装置50は,端末装置10に対して位置情報を報知するための要素である。報知装置の例は,所定周波数の超音波を発生させてエリアの位置情報を伝達する超音波発生装置や,可視光又は不可視光に情報を乗せてエリアの位置情報を伝達する発光装置,或いはビーコンを利用した近距離無線通信(いわゆるBLE)によってエリアの位置情報を伝達する無線基地局などである。報知装置50は,各エリアに少なくとも一台配置される。各エリア内の報知装置50から発せられる情報は,それぞれのエリアで異なっている。例えば,報知装置50が超音波発生装置である場合には,各エリアで放出される超音波の周波数が異なる。このため,端末装置10は報知装置50から発せられる情報を解析することで,自身の現在位置がどのエリアに属しているのかを特定できる。一つのエリアに複数の報知装置50を配置することも可能であるが,基本的に,同じエリアに配置された複数の報知装置50は,同じ位置情報を端末装置10に伝達するものである。
続いて,図4を参照して,端末装置10が行う処理の一例を説明する。ここでは,主に,端末装置10が,あるエリア内で撮影を行ったときに,その撮影画像に写っている可能性が高い対象の映像の種類を特定する処理について説明する。
まず事前の準備として,端末装置10を持った利用者が展示会や店舗などの施設に入る前に,端末装置10は,管理装置20で生成された対象出現情報をサーバ装置30から受信(ダウンロード)する(ステップS1)。端末装置10は,サーバ装置30から受け取った対象出現情報を,記憶部12に記憶する。前述したとおり,対象出現情報には,対象の映像を表示させる表示装置(場所)に関する情報,表示装置に表示させる対象の種類に関する情報,及び対象の映像を表示装置に表示させる表示時間に関する情報が含まれる。また,対象出現情報には,あるエリアに関する情報とそこに属する表示装置に関する情報が関連付けて規定されており,さらに,あるエリアに関する情報とそのエリアを特定するために報知装置50から出力される位置情報(超音波の周波数など)が関連付けて規定されている。従って,端末装置10は,対象出現情報を得ることで,各エリアに配置されている表示装置40,各エリアで報知装置50から報知されている位置情報,各表示装置40が表示する対象の映像の種類,及び,各表示装置が対象の映像を表示する時間を把握できる。これにより,施設内に電波の届かない場所がある場合や,端末装置10が仮にオフライン状態となっている場合であっても,端末装置10は,撮影画像に含まれる対象の種類を特定できる。
次に,端末装置10が表示装置40及び報知装置50が配置されたエリアに入ると,報知装置50から報知されている位置情報を検出する(ステップS2)。例えば,エリア毎に報知装置50から放出されている超音波の周波数が異なるため,端末装置10は位置情報特定部15でこの超音波の周波数を解析することで,現在自身が位置しているエリアを特定できる。なお,エリアが近接している場合,端末装置10の位置情報特定部15は2種以上の周波数を同時に検知することがあり得る。その場合,位置情報特定部15は,2種の周波数の強度を比較し,より強い強度の周波数に関連付けられたエリアを,現在自身が位置しているエリアであると特定すればよい。
次に,端末装置10の利用者は,エリア内で,表示装置40によって表示された対象の映像を見つけると,その対象の映像をカメラ(撮影部14)で撮影する(ステップS3)。以降,この撮影画像に写り込んでいるであろう対象の種類を特定するための処理に移行する。
撮影がなされると,端末装置10は,サーバ装置30にアクセスして,対象出現情報を再度受信する(ステップS4)。ただし,このステップS4は,必須ではなく,端末装置10がオフライン状態にある場合には省略することができる。また,このステップS4は,最新の対象出現情報を受信するために行うものであるため,ステップS1で受信した対象出現情報が変更されていない場合には,省略することができる。他方で,ステップS4を必須とするのであれば,ステップS1を省略することも可能である。
次に,端末装置10は,対象の映像の撮影を行った撮影場所を特定する(ステップS5)。前述したステップS2において,端末装置10は,報知装置50からの報知された位置情報を検出しているため,そのまま同じエリア内で撮影を行ったのであれば,その報知装置50から得られた位置情報に基づいて,そのエリアを撮影場所(撮影エリア)として特定する。
次に,端末装置10は,撮影場所と同じエリア内に配置されている表示装置40を特定する(ステップS6)。対象出現情報には,どのエリアにどの表示装置40が配置されているかが規定されているため,この対象出現情報を参照することで,端末装置10は自身の撮影場所と同じエリア内の表示装置40を特定できる。
次に,端末装置10は,撮影を行った時刻を特定する(ステップS7)。端末装置10では,計時部16が時刻を計測しているため,この計時部16から撮影時刻を取得する。
次に,端末装置10の端末制御部11の対象撮影成否判断部11aは,対象出現情報を参照して,ステップS7で取得した撮影時刻が,撮影時に自身と同じエリアに属していた表示装置40による対象の映像の表示時間内であるか否かを判定する(ステップS8)。そして,対象撮影成否判断部11aは,ステップS7で取得した撮影時刻が,撮影時に自身と同じエリアに属していた表示装置40による対象の映像の表示時間内であると判定した場合に,端末装置10がその表示装置40によって表示されている特定種類の対象の撮影に成功したものと判断する(ステップS9)。例えば,図3に示した例では,AM10:05~10:20の間はエリアAの表示装置40aがゾウ(識別No.001)の映像を表示することが,対象出現情報に規定されている。このため,エリアAの表示装置40aは,この対象出現情報に従って,AM10:05~10:20の間にゾウの映像を表示することとなる。従って,端末装置10による撮影場所がエリアA内であり,かつ,端末装置10による撮影時刻がAM10:05~10:20の間であれば,端末装置10の撮影場所と撮影時刻がゾウの映像の表示場所と表示時間と一致しているため,端末装置10の撮影画像には,エリアAの表示装置40aによって表示されたゾウの映像が写り込んでいる可能性が高いといえる。そこで,端末装置10の対象撮影成否判断部11aは,撮影画像の撮影場所と撮影時刻がゾウの映像の表示場所と表示時間と一致している場合に,ゾウの映像の撮影に成功したものと判断する。他方で,ステップS8でNOと判定した場合には,対象撮影成否判断部11aは,表示装置40によって表示されている対象の撮影に失敗したものと判断する(ステップS10)。
次に,対象撮影成否判断部11aは,撮影に成功した対象の種類を特定する(ステップS11)。端末装置10による撮影時刻が表示装置40の表示時間内であった場合,対象出現情報を参照することにより,その表示装置40によって表示されていた対象の種類を一意に特定できる。これにより,撮影画像内に写り込んだ対象の種類を特定する。前述した例では,端末装置10の撮影画像には,ゾウの映像が写り込んでいるものと判断する。
続いて,端末装置10の端末制御部11は,ステップS3で撮影した撮影画像を,ステップS11で特定した対象の種類と関連付けて,記憶部12に保存する(ステップS12)。具体的には,記憶部12には,撮影画像を保存するための記憶空間が設けられており,撮影画像は,記憶部12に図鑑形式で保存されることが好ましい。例えば,図5には,撮影画像を保存するための図鑑の一例が示されている。図5に示されるように,図鑑用の記憶空間には,対象(動物)の撮影画像を,対象の種類に分けて記録できるようになっている。例えば,識別No.001用の記憶領域には,ゾウ用の撮影画像が記録できるようになっており,識別No.002用の記憶領域には,ウサギ用の撮影画像が記録できるようになっている。このため,ステップS10~S12において,ゾウの映像の撮影に成功したと判断した場合には,その撮影画像を,識別No.001用の記憶領域(ゾウ用の記憶領域)に保存する。このように,撮影画像を図鑑形式で保存できるようにすれば,展示会場や店舗内を散策して,各エリアで色々な種類の対象の映像を撮影し,その撮影画像をコレクションしていくという楽しみ方を,端末装置10の利用者に対して提供することができる。
以上のように,本発明のシステムでは,端末装置10の撮影画像を解析しなくても,その撮影画像に含まれる対象の種類を特定し,撮影画像を図鑑形式で保存しておくことが可能となる。また,撮影画像に含まれる対象の種類を特定する際に,端末装置10はサーバ装置30と通信する必要がないため,迅速にその種類を特定することが可能となる。
以上,本願明細書では,本発明の内容を表現するために,図面を参照しながら本発明の実施形態の説明を行った。ただし,本発明は,上記実施形態に限定されるものではなく,本願明細書に記載された事項に基づいて当業者が自明な変更形態や改良形態を包含するものである。
例えば,本願明細書で説明した好ましい実施形態では,端末装置10に対象撮影成否判断部11aと設け,管理装置20に対象出現情報生成部21aを設けることとした。ただし,これらの対象撮影成否判断部11aと対象出現情報生成部21aの機能は,サーバ装置30のサーバ制御部31が担うものであってもよい。この場合には,サーバ装置30のサーバ制御部31が,管理装置20の代わりに,対象出現情報を生成する。また,端末装置10で撮影が行われた場合には,サーバ装置30が,その撮影画像に特定種類の対象が写り込んでいるか否かを判断する。例えば,サーバ装置30は,自身で生成した対象出現情報を管理装置20に送信し,この対象出現情報に基づいて管理装置20に各エリアの表示装置40の制御を行わせる。また,端末装置10で撮影が行われた後に,端末装置10は,端末装置10が報知装置50から取得した位置情報と撮影時刻に関する情報を,サーバ装置30に送信する。サーバ装置30は,端末装置10からこれらの情報を受け取ると,自身で生成した対象出現情報を参照して,端末装置10による撮影場所がある表示装置40と同じエリアに属し,かつ,当該端末装置10による撮影時刻が当該表示装置40による特定種類の対象の映像の表示時間と一致しているか否かを判定する。そして,一致していると判定した場合に,サーバ装置30は,当該端末装置10が当該特定種類の対象の映像の撮影に成功したと判断し,その判断結果に関する情報を,端末装置10に提供する。これにより,サーバ装置30は,撮影画像を解析しなくても,その撮影画像に写り込んでいる可能性の高い対象の種類を特定できる。また,このようにすれば,端末装置10は,サーバ装置30の判断結果に基づいて,自身の撮影画像に写り込んでいる可能性の高い対象の種類を特定することができる。従って,端末装置10は,撮影画像を対象の種類と関連付けて図鑑形式で保存することが可能となる。
本発明は,ディジタル図鑑にキャラクタの画像などをコレクションすることができるシステムに関する。従って,本発明は,エンターテイメント産業などにおいて好適に利用できる。
10…端末装置 11…端末制御部
11a…対象撮影成否判断部 12…記憶部
13…通信部 14…撮影部
15…位置情報特定部 16…計時部
17…入力部 18…出力部
20…管理装置 21…管理制御部
21a…対象出現情報生成部 21b…表示装置制御部
21c…報知装置制御部 22…記憶部
23…通信部 24…入力部
25…出力部 30…サーバ装置
31…サーバ制御部 32…記憶部
33…通信部 100…コレクションシステム
11a…対象撮影成否判断部 12…記憶部
13…通信部 14…撮影部
15…位置情報特定部 16…計時部
17…入力部 18…出力部
20…管理装置 21…管理制御部
21a…対象出現情報生成部 21b…表示装置制御部
21c…報知装置制御部 22…記憶部
23…通信部 24…入力部
25…出力部 30…サーバ装置
31…サーバ制御部 32…記憶部
33…通信部 100…コレクションシステム
Claims (8)
- 撮影部を有する端末装置と,対象の映像を表示する複数の表示装置と,前記表示装置を制御する管理装置と,を備えるシステムであって,
前記管理装置は,
対象の映像を表示させる表示装置,当該表示装置に表示させる対象の種類,及び当該種類の対象の映像の表示時間を特定する対象出現情報に基づいて,特定の表示装置に,特定の表示時間の間,特定種類の対象の映像を表示させる表示装置制御部を有し,
前記端末装置は,
前記撮影部によって撮影した撮影場所を特定する位置情報特定部と,
前記撮影部によって撮影した撮影時刻を特定する計時部と,を有し,
前記システムは,
前記対象出現情報に基づいて,ある端末装置による撮影場所がある表示装置と同じエリアに属し,かつ,当該端末装置による撮影時刻が当該表示装置による特定種類の対象の映像の表示時間と一致しているか否かを判定し,一致していると判定した場合に,当該端末装置によって当該特定種類の対象の映像が撮影されたと判断する
システム。 - 前記表示装置が設置されたエリアには,当該エリアの位置情報を前記端末装置に報知するための報知装置が設置されており,
前記端末装置の前記位置情報特定部は,前記報知装置から前記位置情報を取得することで,前記撮影場所を特定する
請求項1に記載のシステム。 - 前記端末装置は,
前記対象出現情報を記憶する記憶部と,
前記対象出現情報に基づいて,自己の撮影場所がある表示装置と同じエリアに属し,かつ,自己の撮影時刻が当該表示装置による特定種類の対象の映像の表示時間と一致しているか否かを判定し,一致していると判定した場合に,自身によって当該特定種類の対象の映像が撮影されたと判断する対象撮影成否判断部と,を有する
請求項1又は請求項2に記載のシステム。 - 前記管理装置は,
前記対象出現情報を生成する対象出現情報生成部と,
前記対象出現情報を前記端末装置に向けて送信する通信部と,を有する
請求項1から請求項3のいずれかに記載のシステム。 - 前記システムは,前記端末装置及び前記管理装置にインターネットを介して接続されたサーバ装置をさらに備え,
前記サーバ装置は,前記管理装置によって生成された前記対象出現情報を受け取り,前記端末装置に対して送信する通信部を有する
請求項4に記載のシステム。 - 前記システムは,前記端末装置及び前記管理装置にインターネットを介して接続されたサーバ装置をさらに備え,
前記サーバ装置は,
前記対象出現情報を生成する対象出現情報生成部と,
前記対象出現情報に基づいて,ある端末装置による撮影場所がある表示装置と同じエリアに属し,かつ,当該端末装置による撮影時刻が当該表示装置による特定種類の対象の映像の表示時間と一致しているか否かを判定し,一致していると判定した場合に,当該端末装置によって当該特定種類の対象の映像が撮影されたと判断する対象撮影成否判断部と,を有する
請求項1に記載のシステム。 - 携帯型情報通信端末を,請求項1に記載のシステムにおける前記端末装置として機能させるためのプログラム。
- 対象の映像を表示させる表示装置,当該表示装置に表示させる対象の種類,及び当該種類の対象の映像の表示時間を特定する対象出現情報に基づいて,特定の表示装置に,特定の表示時間の間,特定種類の対象の映像を表示させる工程と,
前記対象出現情報に基づいて,ある端末装置による撮影場所がある表示装置と同じエリアに属し,かつ,当該端末装置による撮影時刻が当該表示装置による特定種類の対象の映像の表示時間と一致しているか否かを判定し,一致していると判定した場合に,当該端末装置によって当該特定種類の対象の映像が撮影されたと判断する工程と,を含む
方法。
Priority Applications (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| ES17878151T ES2975229T3 (es) | 2016-12-08 | 2017-12-04 | Sistema de recopilación, programa para terminal y método de recopilación |
| SG11201906309PA SG11201906309PA (en) | 2016-12-08 | 2017-12-04 | Collection system, program for terminal, and collection method |
| CN201780075285.7A CN110036406B (zh) | 2016-12-08 | 2017-12-04 | 收集系统、存储有终端用程序的记录介质以及收集方法 |
| US16/467,497 US10965915B2 (en) | 2016-12-08 | 2017-12-04 | Collection system, program for terminal, and collection method |
| EP17878151.4A EP3553734B1 (en) | 2016-12-08 | 2017-12-04 | Collection system, program for terminal, and collection method |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016-238833 | 2016-12-08 | ||
| JP2016238833A JP7137173B2 (ja) | 2016-12-08 | 2016-12-08 | コレクションシステム,端末用プログラム,及びコレクション方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018105544A1 true WO2018105544A1 (ja) | 2018-06-14 |
Family
ID=62491163
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2017/043422 Ceased WO2018105544A1 (ja) | 2016-12-08 | 2017-12-04 | コレクションシステム,端末用プログラム,及びコレクション方法 |
Country Status (8)
| Country | Link |
|---|---|
| US (1) | US10965915B2 (ja) |
| EP (1) | EP3553734B1 (ja) |
| JP (1) | JP7137173B2 (ja) |
| CN (1) | CN110036406B (ja) |
| ES (1) | ES2975229T3 (ja) |
| SG (1) | SG11201906309PA (ja) |
| TW (1) | TWI811198B (ja) |
| WO (1) | WO2018105544A1 (ja) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114207656A (zh) * | 2019-08-14 | 2022-03-18 | 本田技研工业株式会社 | 信息提供系统、信息终端以及信息提供方法 |
| US11164333B2 (en) * | 2020-01-31 | 2021-11-02 | Gracenote, Inc. | Monitoring icon status in a display from an external device |
| CN113498107B (zh) * | 2020-03-19 | 2024-02-13 | 大唐移动通信设备有限公司 | 全息影像的传输方法及装置、系统 |
| JP2023171091A (ja) * | 2022-05-20 | 2023-12-01 | 荏原環境プラント株式会社 | コンピュータープログラム、制御方法、及び、ユーザー端末 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002073689A (ja) * | 2000-08-31 | 2002-03-12 | Kajima Corp | 情報収集システム |
| JP2003178221A (ja) * | 2001-09-28 | 2003-06-27 | Fuji Photo Film Co Ltd | 注文処理装置及び画像撮影装置 |
| JP2016062273A (ja) | 2014-09-17 | 2016-04-25 | 株式会社リコー | 店舗集客支援システム、サーバ装置、プログラムおよび方法 |
Family Cites Families (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20030063575A1 (en) * | 2001-09-28 | 2003-04-03 | Fuji Photo Film Co., Ltd. | Order processing apparatus, order processing system and image photographing device |
| JP4259298B2 (ja) * | 2003-12-02 | 2009-04-30 | セイコーエプソン株式会社 | 画像表示システム、及び画像表示方法 |
| KR20060058323A (ko) * | 2004-11-25 | 2006-05-30 | 엘지전자 주식회사 | 촬영장소 표시를 위한 이동통신 단말기의 사진촬영시스템및 그 방법 |
| KR101641513B1 (ko) * | 2010-10-22 | 2016-07-21 | 엘지전자 주식회사 | 이동 단말기의 영상 촬영 장치 및 그 방법 |
| US9437247B2 (en) * | 2011-11-14 | 2016-09-06 | Apple Inc. | Preview display for multi-camera media clips |
| WO2014006758A1 (ja) * | 2012-07-06 | 2014-01-09 | パイオニア株式会社 | 情報処理方法 |
| KR101437448B1 (ko) * | 2012-12-05 | 2014-09-05 | 삼성전자주식회사 | 디스플레이 장치 및 그 디스플레이 장치의 제어 방법 |
| CN103440318B (zh) * | 2013-08-29 | 2016-08-17 | 王靖洲 | 移动终端的景观识别系统 |
| KR20150030082A (ko) * | 2013-09-11 | 2015-03-19 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
| JP6380789B2 (ja) * | 2014-06-17 | 2018-08-29 | パナソニックIpマネジメント株式会社 | 情報提供方法 |
| KR20160015838A (ko) * | 2014-07-31 | 2016-02-15 | 삼성전자주식회사 | 컨텐츠 분류 방법 및 이를 위한 디바이스 |
| JP5830729B1 (ja) * | 2014-11-07 | 2015-12-09 | 株式会社ビアンコネロ | 携帯通信端末を所持するユーザーを自動もしくは手動にて撮影する撮影及び映像配信システム |
| CN104506800B (zh) * | 2014-12-15 | 2018-11-13 | 浙江宇视科技有限公司 | 一种多方向电警摄像机场景合成及综合监控方法和装置 |
| CN105323456B (zh) * | 2014-12-16 | 2018-11-30 | 维沃移动通信有限公司 | 用于拍摄装置的图像预览方法、图像拍摄装置 |
| CN105787063A (zh) * | 2016-02-29 | 2016-07-20 | 深圳天珑无线科技有限公司 | 一种照片的存储方法和终端设备 |
-
2016
- 2016-12-08 JP JP2016238833A patent/JP7137173B2/ja active Active
-
2017
- 2017-12-04 US US16/467,497 patent/US10965915B2/en active Active
- 2017-12-04 ES ES17878151T patent/ES2975229T3/es active Active
- 2017-12-04 EP EP17878151.4A patent/EP3553734B1/en active Active
- 2017-12-04 CN CN201780075285.7A patent/CN110036406B/zh active Active
- 2017-12-04 WO PCT/JP2017/043422 patent/WO2018105544A1/ja not_active Ceased
- 2017-12-04 SG SG11201906309PA patent/SG11201906309PA/en unknown
- 2017-12-08 TW TW106143267A patent/TWI811198B/zh active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002073689A (ja) * | 2000-08-31 | 2002-03-12 | Kajima Corp | 情報収集システム |
| JP2003178221A (ja) * | 2001-09-28 | 2003-06-27 | Fuji Photo Film Co Ltd | 注文処理装置及び画像撮影装置 |
| JP2016062273A (ja) | 2014-09-17 | 2016-04-25 | 株式会社リコー | 店舗集客支援システム、サーバ装置、プログラムおよび方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN110036406B (zh) | 2023-03-24 |
| EP3553734B1 (en) | 2024-04-03 |
| EP3553734A4 (en) | 2020-06-10 |
| SG11201906309PA (en) | 2019-08-27 |
| ES2975229T3 (es) | 2024-07-04 |
| EP3553734A1 (en) | 2019-10-16 |
| US20190373224A1 (en) | 2019-12-05 |
| US10965915B2 (en) | 2021-03-30 |
| CN110036406A (zh) | 2019-07-19 |
| EP3553734C0 (en) | 2024-04-03 |
| JP2018097433A (ja) | 2018-06-21 |
| TWI811198B (zh) | 2023-08-11 |
| TW201822034A (zh) | 2018-06-16 |
| JP7137173B2 (ja) | 2022-09-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2019169154A (ja) | 端末装置およびその制御方法、並びにプログラム | |
| WO2018105544A1 (ja) | コレクションシステム,端末用プログラム,及びコレクション方法 | |
| JP6541701B2 (ja) | 端末装置およびその制御方法、並びにプログラム | |
| CN108369561B (zh) | 电子设备控制装置及方法、计算机可读的记录介质 | |
| JP2022156375A (ja) | プログラム、方法、情報処理装置 | |
| JP6171705B2 (ja) | 地図情報取得プログラム、地図情報取得方法及び地図情報取得装置 | |
| JP2018509671A (ja) | ワイヤレス信号情報を用いて視覚データをタグ付けすること | |
| JP7266911B2 (ja) | コレクションシステム用の端末装置及び方法 | |
| CN111641774B (zh) | 中继终端、通信系统、输入系统、中继控制方法 | |
| JP2021064825A (ja) | 撮像装置、学習装置、制御方法、学習方法、及びコンピュータプログラム | |
| JP6171416B2 (ja) | 機器制御システム、及び機器制御方法 | |
| HK40009367A (en) | Collection system, storage media stored with a program for terminal, and collection method | |
| JP6424927B2 (ja) | 処理制御方法及び処理制御システム | |
| HK40009367B (en) | Collection system, storage media stored with a program for terminal, and collection method | |
| JP2022156374A (ja) | プログラム、方法、情報処理装置 | |
| TWI700588B (zh) | 顯示控制系統、終端裝置、電腦程式、控制裝置、以及顯示控制方法 | |
| JP6855773B2 (ja) | 画像提供システム | |
| US20230079461A1 (en) | Information processing apparatus, information processing system, and information processing method | |
| JP7212711B2 (ja) | プログラム、方法、情報処理装置 | |
| JP2019114016A (ja) | 支援システム | |
| JP2025144944A (ja) | 表示端末、通信システム、表示方法、及びプログラム | |
| JP2025144438A (ja) | 通信端末、撮影システム、撮影方法、及びプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17878151 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| ENP | Entry into the national phase |
Ref document number: 2017878151 Country of ref document: EP Effective date: 20190708 |