WO2017033544A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- WO2017033544A1 WO2017033544A1 PCT/JP2016/068089 JP2016068089W WO2017033544A1 WO 2017033544 A1 WO2017033544 A1 WO 2017033544A1 JP 2016068089 W JP2016068089 W JP 2016068089W WO 2017033544 A1 WO2017033544 A1 WO 2017033544A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- display
- information
- information processing
- area
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/14—Display of multiple viewports
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/1066—Session management
- H04L65/1083—In-session procedures
- H04L65/1089—In-session procedures by adding media; by removing media
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/40—Support for services or applications
- H04L65/401—Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
- H04L65/4015—Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference where at least one of the additional parallel sessions is real time or time sensitive, e.g. white board sharing, collaboration or spawning of a subconference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/40—Support for services or applications
- H04L65/403—Arrangements for multi-party communication, e.g. for conferences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/56—Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
- H04M3/567—Multimedia conference systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
- H04N7/152—Multipoint control units therefor
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Definitions
- the present disclosure relates to an information processing apparatus, an information processing method, and a program.
- Patent Document 1 discloses an example of a system that can share a display screen among a plurality of terminals connected via a network.
- information that needs to be shared among a plurality of users in a meeting or the like is not necessarily limited to display information displayed on the screen of a terminal such as a PC.
- information presented on an object (real object) existing in the real space can also be included. Therefore, various types of information such as display information displayed on a screen of a terminal or the like and other information different from the display information (for example, information on a real object) are shared in a more preferable manner between remote locations. There is a need for a mechanism that can do this.
- the present disclosure proposes an information processing apparatus, an information processing method, and a computer that can share various types of information in a more preferable manner between remote locations.
- an acquisition unit that acquires first control information for displaying display information indicating a real object that exists in a first area where a screen shared between a plurality of devices is displayed; Second control for displaying a display image in which display information indicating the real object is superimposed on the screen based on the first control information that is displayed on a second region different from the first region.
- An information processing apparatus including a generation unit that generates information is provided.
- an acquisition unit that acquires an image of a first area that is captured by the imaging unit and displays a screen shared among a plurality of devices, and the acquired first area
- a generating unit that generates control information for displaying display information indicating a real object existing in the first area in a second area different from the first area where the screen is displayed based on an image Is provided.
- the display information indicating the real object existing in the first area where the screen shared between the plurality of devices is displayed is displayed in the second area different from the first area.
- Generating second control information to be displayed in the area is provided.
- an image of the first area on which a screen shared by a plurality of devices is captured and acquired by the imaging unit is acquired. Based on the image of the area, control information for displaying display information indicating the real object existing in the first area in a second area different from the first area where the screen is displayed is generated. And an information processing method including the above.
- the display information indicating the real object existing in the first area where the screen shared between the plurality of devices is displayed on the computer is displayed in the second area different from the first area.
- Generating a second control information to be displayed in the area is provided.
- the computer acquires an image of the first area on which a screen shared by a plurality of devices is captured and is acquired by the imaging unit, and the acquired first Based on the image of the area, control information for displaying display information indicating the real object existing in the first area in a second area different from the first area where the screen is displayed is generated. And a program for executing the above are provided.
- an information processing apparatus As described above, according to the present disclosure, an information processing apparatus, an information processing method, and a computer that can share a work space in a more preferable manner between remote locations are provided.
- FIG. 10 is an explanatory diagram for explaining an example of a schematic system configuration of an information processing system according to a modification example 4; FIG.
- 10 is an explanatory diagram for explaining an example of a schematic system configuration of an information processing system according to a modification example 5; 10 is a block diagram illustrating an example of a functional configuration of an information processing system according to Modification Example 5. FIG. It is explanatory drawing for demonstrating other examples of the schematic system configuration
- FIG. 1 is an explanatory diagram for describing an overview of an information processing system according to an embodiment of the present disclosure.
- the information processing system 1 according to the present embodiment includes a plurality of information processing apparatuses 100 (for example, information processing apparatuses 100a and 100b) connected via a network n11.
- a mechanism is provided that allows various types of information to be shared between apparatuses 100.
- the information processing system 1 enables a common display screen to be shared among a plurality of information processing apparatuses 100, and one work space (for example, a space in which the display screen is displayed). ) Presents real object information (for example, an object such as a paper medium document) as display information in the other work space.
- one work space for example, a space in which the display screen is displayed.
- real object information for example, an object such as a paper medium document
- reference numeral R10a indicates an area for the information processing apparatus 100a to display a common display screen with the information processing apparatus 100b.
- Reference sign R10b indicates an area for the information processing apparatus 100b to display a common display screen with the information processing apparatus 100a.
- the area R10a and the space between the information processing apparatus 100a and the area R10a correspond to a work space corresponding to the information processing apparatus 100a. Further, the region R10b and the space between the information processing device 100b and the region R10b correspond to a work space corresponding to the information processing device 100b.
- the information processing apparatus 100a Detect real objects. Then, the information processing apparatus 100b receives the detection result of the real object on the area R10a by the information processing apparatus 100a and presents display information indicating the real object in the area R10b.
- the information processing system 1 allows information that can be visually recognized on a work space corresponding to each of the plurality of information processing apparatuses 100 between remote locations, that is, display information displayed as a screen, and real objects. Share information.
- FIG. 2 is an explanatory diagram for describing a configuration example of the information processing apparatus according to an embodiment of the present disclosure.
- the information processing apparatus 100 a includes an input unit 110 and an output unit 130.
- the information processing apparatus 100 according to an embodiment of the present disclosure illustrated in FIG. 1 displays information on the top surface of the table 140, and operates the information displayed on the table 140 for a user who uses the information processing apparatus 100.
- a method for displaying information on the top surface of the table 140 may be referred to as a “projection type”.
- the information processing apparatus 100 may be configured as an information processing system in which at least one of the input unit 110 and the output unit 130 is externally attached as an external device.
- the input unit 110 is a device for inputting the operation contents of the user who uses the information processing apparatus 100 and the shape and pattern of an object placed on the table 140.
- the input unit 110 is provided above the table 140 in a state of being suspended from the ceiling, for example.
- the input unit 110 is provided separately from the table 140 on which information is displayed.
- a camera that captures the table 140 with one imaging optical system (for example, a series of lens groups), or the table 140 is captured with two imaging optical systems to record information in the depth direction.
- a sound collecting device for example, a microphone or the like for collecting acoustic information such as a possible stereo camera, sound emitted by a user using the information processing apparatus 100, and environmental sound of the environment where the information processing apparatus 100 is placed Can be used.
- the information processing apparatus 100 is placed on the table 140 by analyzing an image captured by the camera, for example. Detect an object.
- a stereo camera is used as the input unit 110, for example, a visible light camera or an infrared camera can be applied to the stereo camera.
- the input unit 110 can acquire depth information.
- the information processing apparatus 100 can detect a real object such as a hand or an object placed on the table 140, for example.
- the information processing apparatus 100 detects the contact and proximity of the operating body such as the user's hand to the table 140 and the detachment of the operating body from the table 140 by the depth information acquired by the input unit 110. Is possible. In the following description, when the user touches or brings an operating body such as a hand in contact with the information display surface is also simply referred to as “contact”.
- a microphone array for collecting acoustic information for example, voice
- the information processing apparatus 100 may adjust the sound collection direction of the microphone array in an arbitrary direction.
- the information processing apparatus 100 may estimate the arrival direction of the acoustic information according to the sound collection result of the acoustic information by each microphone constituting the microphone array.
- the information processing apparatus 100 may estimate the arrival direction of the acoustic information according to the volume ratio of the acoustic information collected by each microphone constituting the array microphone.
- a user operation by an operating body such as a hand is detected from an image captured by the input unit 110
- the user's operation may be detected by a touch panel that detects contact of the user's finger or the like.
- Other user operations that can be acquired by the input unit 110 may include, for example, a stylus operation on an information display surface, a gesture operation on a camera, and the like.
- the output unit 130 is a user operation using the information processing apparatus 100 input by the input unit 110, a content of information output by the output unit 130, and a shape or pattern of an object placed on the table 140. This is a configuration for displaying information on the table 140 or outputting sound according to the information. For example, a projector or a speaker is used as the output unit 130.
- the output unit 130 is provided above the table 140 in a state of being suspended from the ceiling, for example.
- the output unit 130 projects information on the top surface of the table 140.
- a region that is, a projection surface
- information that is, display information
- the output unit 130 when the output unit 130 is configured by a speaker, the output unit 130 outputs sound based on the audio signal.
- the number of speakers may be one or more.
- the information processing apparatus 100 may limit the speakers that output sound or adjust the direction in which sound is output.
- the output unit 130 may include a lighting device.
- the information processing apparatus 100 may control the lighting device to be turned on or off based on the content of information input by the input unit 110.
- the user using the information processing apparatus 100 can operate the information displayed on the table 140 by the output unit 130 by placing a finger or the like on the table 140. Further, a user who uses the information processing apparatus 100 can execute various operations related to the recognized object (that is, a real object) by placing the object on the table 140 and causing the input unit 110 to recognize the object.
- the recognized object that is, a real object
- another device may be connected to the information processing device 100.
- a lighting device for illuminating the table 140 may be connected to the information processing apparatus 100. Since the lighting device for illuminating the table 140 is connected to the information processing device 100, the information processing device 100 can control the lighting state of the lighting device in accordance with the state of the information display surface.
- the information processing apparatus 100 is configured as a so-called table top type display apparatus that projects information on a projection surface that extends in a horizontal direction like the top surface of the table 140. An example was described. On the other hand, the usage form of the information processing apparatus 100 is not limited to the table top type display apparatus as shown in FIG.
- FIG. 3 is an explanatory diagram for describing another aspect of the information processing apparatus 100 according to the present embodiment, and illustrates an example of a usage form of the information processing apparatus 100.
- the information processing apparatus 100 projects information on a projection surface that extends in the vertical direction, such as a wall surface 140 ′.
- the region R10 on which information is projected by the information processing device 100 and the front surface of the region R10 are related to the information. This corresponds to a work space corresponding to the processing apparatus 100.
- the configuration of the information processing apparatus 100 according to the present disclosure is not limited to the projection type illustrated in FIGS. 2 and 3 as long as information can be displayed in the region R10.
- the information processing apparatus 100 forms the region R10 with a transparent material such as a glass plate or a transparent plastic plate, and projects information on the region R10 from the back surface side of the region R10, whereby information is displayed on the region R10. May be configured (so-called “rear projection type”).
- the region R10 may be configured as a flat panel display.
- FIG. 4 to FIG. 7 are explanatory diagrams for describing an overview of control for information sharing by the information processing system 1 according to an embodiment of the present disclosure.
- the information processing system 1 includes information processing apparatuses 100a and 100b, and a case where various types of information can be shared between the information processing apparatuses 100a and 100b is described as an example. To do.
- FIG. 4 shows an example of the state of the work space corresponding to one of the plurality of information processing apparatuses 100.
- FIG. 4 shows the state of the work space corresponding to the information processing apparatus 100a.
- FIG. 5 shows an example of an image v10 showing a display screen displayed (ie, projected) in the region R10a in the example shown in FIG. Note that the image v10 illustrated in FIG. 5 represents a display screen shared between the information processing apparatuses 100a and 100b.
- a real object (paper medium material) indicated by a reference symbol b25 and a real object (coffee cup) indicated by a reference symbol b27 are arranged on the region R10a.
- a plurality of users operate the display screen displayed on the region R ⁇ b> 10 a by a so-called touch operation using each hand as an operating tool.
- Reference numerals u21 and u23 indicate operation bodies corresponding to the respective users (that is, the hands of the respective users).
- the information processing apparatus 100a captures an image of the region R10a corresponding to the work space corresponding to itself by the input unit 110 (for example, an image capturing unit such as a camera), and analyzes the captured image so that the information on the region R10 The object (real object) which exists in is detected.
- FIG. 6 shows an example of information v20 indicating a real object detected based on the image of the region R10a shown in FIG.
- the information processing apparatus 100a detects the real objects b25 and b27 and the operation objects u21 and u23 existing on the region R10a.
- the information processing apparatus 100a extracts the partial images of the real objects b25 and b27 and the operation objects u21 and u23 existing on the R10a as information v20 indicating the real object. Yes.
- the information processing apparatus 100a transmits the control information for displaying the image v10 indicating the display screen illustrated in FIG. 5 and the control information for displaying the display information indicating the detected real object to the network n11.
- the information v20 (for example, a partial image of a real object existing on the region R10a) shown in FIG. 6 corresponds to control information for displaying display information indicating the detected real object.
- the control information for displaying the image v10 indicating the display screen may be described as “screen data”.
- the control information for displaying the display information indicating the detected real object may be described as “intermediate data”.
- the intermediate data corresponds to an example of “first control information”.
- the information processing apparatus 100b displays, for example, an image v10 indicating a display screen as shown in FIG. 5 in the region R10b corresponding to the information processing apparatus 100b based on the screen data acquired from the information processing apparatus 100a. Further, the information processing apparatus 100b displays display information indicating the real object on the area R10a detected by the information processing apparatus 100a on the display screen displayed in the area R10b based on the intermediate data acquired from the information processing apparatus 100a. Overlay display.
- FIG. 7 shows an example of an image v30 that the information processing device 100b displays in the region R10b, that is, display information indicating a real object on the region R10a detected by the information processing device 100a on the display screen.
- An example of the image is shown.
- reference numerals v21 and v21 indicate an example of display information (for example, an image) indicating the operating bodies u21 and u23 existing on the region R10a in the example illustrated in FIG.
- Reference numerals v25 and v27 indicate an example of display information indicating the real objects b25 and b27 existing on the region R10a in the example illustrated in FIG.
- the information processing apparatus 100b may restrict the display of display information for some of the real objects indicated by the acquired intermediate data (that is, real objects existing on the R10a). For example, in the example illustrated in FIG. 7, the information processing apparatus 100 b restricts the display of the display information v ⁇ b> 27 that indicates the real object b ⁇ b> 27 among the real objects that exist on the region R ⁇ b> 10 a illustrated in FIG. 4. As a specific example, the information processing apparatus 100b displays only real objects that satisfy a predetermined condition among real objects indicated by the acquired intermediate data, and restricts display of display information for other real objects. May be. As another example, the information processing apparatus 100b may limit display of display information for a real object specified based on a user operation. The details of the operation related to the limitation of the display information display corresponding to the real object will be separately described later as a modified example.
- the display mode of the display information is not particularly limited.
- the information processing apparatus 100b may display the display information v21 to v27 on the region R10b as an image of a corresponding real object on the region R10a as shown in FIG.
- the information processing apparatus 100b may display the display information v21 to v27 as display information (for example, a shadow) indicating the area of the corresponding real object on the area R10a.
- the content of the intermediate data transmitted from the information processing apparatus 100a is not particularly limited as long as the information processing apparatus 100b can display display information indicating a real object on the region R10b in a desired display mode.
- the information processing apparatus 100b displays display information (for example, a shadow) indicating the area of the real object as display information indicating the real object
- the information processing apparatus 100a indicates the area of the real object.
- Vector information may be transmitted as intermediate data.
- the information processing apparatus 100b may detect a real object existing in the region R10b corresponding to itself and transmit intermediate data for displaying display information indicating the real object to the information processing apparatus 100a.
- the information processing apparatus 100a shows the real object on the area R10b detected by the information processing apparatus 100b on the display screen displayed on the area R10a based on the intermediate data acquired from the information processing apparatus 100b. Display information may be superimposed and displayed.
- the information processing apparatus 100b receives operations on various display information (for example, display objects v11 and v13 and display information v21 to v27 shown in FIG. 7) displayed in the region R10b, and displays the contents of the operations.
- the operation information shown may be transmitted to the information processing apparatus 100a.
- the information processing apparatus 100a displays a display screen shared between the information processing apparatuses 100a and 100b based on the operation information acquired from the information processing apparatus 100b (for example, the image v10 indicating the display screen illustrated in FIG. 5). May be updated.
- the display screen and one of the information processing apparatuses 100 (for example, between remote locations connected via the network n11) It is possible to share information indicating real objects existing in the work space in a suitable manner.
- FIG. 8 is an explanatory diagram for describing an example of a schematic system configuration of the information processing system 1 according to an embodiment of the present disclosure.
- the information processing system 1 includes one of the plurality of information processing apparatuses 100 that operates as a master, and other information processing apparatuses other than the information processing apparatus 100 that operates as a master. 100 operates as a slave.
- the information processing apparatus 100 a operates as a master and the information processing apparatus 100 b operates as a slave among the information processing apparatuses 100 a and 100 b.
- the information processing apparatus 100a operating as a master generates and updates a display screen shared between the information processing apparatuses 100a and 100b.
- the information processing apparatus 100a generates a display screen shared between the information processing apparatuses 100a and 100b, displays the generated display screen in the region R10a, and displays screen data for displaying the display screen. And transmitted to the information processing apparatus 100b operating as a slave.
- the information processing apparatus 100b displays the display screen in the region R10b based on the screen data acquired from the information processing apparatus 100a. Thereby, a display screen common to the information processing apparatuses 100a and 100b is displayed in the region R10a and the region R10b.
- the information processing apparatus 100 a analyzes the image of the region R ⁇ b> 10 a captured by its input unit 110, and based on the analysis result, an actual object (for example, an operation object) existing on the region R ⁇ b> 10 a. Body and other objects).
- the information processing apparatus 100a generates intermediate data for displaying display information indicating the detected real object (in other words, information on the real object), and transmits the generated intermediate data to the other information processing apparatus 100b.
- the information processing apparatus 100b Based on the intermediate data acquired from the information processing apparatus 100a, the information processing apparatus 100b superimposes display information indicating a real object existing on the area R10a on the display screen displayed in the area R10b.
- the information processing apparatus 100b analyzes the image of the region R10b picked up by the input unit 110 thereof, and detects a real object existing on the region R10b based on the analysis result.
- the information processing apparatus 100b generates intermediate data for displaying display information indicating the detected real object, and transmits the generated intermediate data to the other information processing apparatus 100a.
- the information processing apparatus 100a superimposes display information indicating a real object that exists on the area R10b on the display screen displayed on the area R10a.
- the information processing apparatus 100a operating as the master receives a user operation on the display screen displayed in each of the regions R10a and R10b, and updates the display screen based on the content of the operation.
- the information processing apparatus 100a operating as a master analyzes an image of the region R10a captured by its input unit 110, and based on the analysis result, a user operation on the display screen displayed in the region R10a Recognize the contents of
- the information processing apparatus 100b operating as a slave analyzes the image of the region R10b captured by its input unit 110, and based on the analysis result, the content of the user operation on the display screen displayed in the region R10b Recognize Then, the information processing apparatus 100b transmits operation information indicating the recognized operation content to the information processing apparatus 100a that operates as a master. Thereby, the information processing apparatus 100a can recognize the content of the user operation on the display screen displayed in the region R10b.
- the information processing apparatus 100a operating as the master recognizes the operation content of the user operation on the display screen displayed in each of the areas R10a and R10b, and based on the recognized operation content, the information processing apparatuses 100a and 100b. Update the display screen shared between users. Then, the information processing apparatus 100a updates the display screen displayed in the region R10a with the updated display screen, and transmits screen data for displaying the display screen to the information processing apparatus 100b operating as a slave. . The information processing apparatus 100b updates the display screen displayed in the region R10b based on the screen data acquired from the information processing apparatus 100a.
- the display screen shared between the information processing apparatuses 100a and 100b and the information indicating the real object existing in each work space It is possible to share in a suitable manner.
- FIG. 1 an example of a schematic system configuration of the information processing system 1 according to an embodiment of the present disclosure has been described with reference to FIG.
- FIG. 9 is a block diagram illustrating an example of a functional configuration of the information processing system 1 according to an embodiment of the present disclosure.
- the information processing system 1 is configured such that the information processing apparatus 100a operates as a master and the information processing apparatus 100b operates as a slave among the information processing apparatuses 100a and 100b. It will be described as being.
- the information processing apparatuses 100a and 100b may be simply described as “information processing apparatus 100” unless they are particularly distinguished.
- the information processing apparatus 100 a includes an input unit 110, a control unit 120 a, and an output unit 130.
- the information processing apparatus 100b includes an input unit 110, a control unit 120b, and an output unit 130. Note that the configurations of the input unit 110 and the output unit 130 are the same between the information processing apparatuses 100a and 100b.
- the control unit 120a of the information processing device 100a and the control unit 120b of the information processing device 100b have strictly different functional configurations, but the control units 120a and 120b are not particularly distinguished from each other. May simply be described as “control unit 120”.
- the input unit 110 is an operation content of the user who uses the information processing device 100, and a surface on which the output unit 130 outputs information (for example, the region R10 such as the top surface of the table 140 illustrated in FIG. 2). This is a configuration for acquiring information indicating the shape or pattern of an object placed on the.
- the operation contents for the information processing apparatus 100 of the user who uses the information processing apparatus 100 include the operation contents for a display screen (for example, GUI) output on the information display surface by the information processing apparatus 100.
- the imaging unit 111 included in the input unit 110 indicates the operation content of the user with respect to the information processing apparatus 100, the shape or pattern of an object placed in the region R10, and the like. Information is acquired as image information. Specifically, for example, the imaging unit 111 captures an image of the region R10 and outputs the captured image to the control unit 120 described later. Note that the imaging unit 111 can be configured by, for example, a camera configured by one imaging optical system, a stereo camera configured by two imaging optical systems, or the like.
- the input unit 110 may include a configuration for collecting sound information such as a voice uttered by the user and environmental sound of the surrounding environment as input information, which may be configured by a sound collection device such as a microphone.
- the control unit 120a includes a communication unit 121, an image analysis unit 123, an input analysis unit 125, a screen update unit 127, and a display control unit 129a.
- the control unit 120b includes a communication unit 121, an image analysis unit 123, an input analysis unit 125, and a display control unit 129b.
- the communication unit 121 the image analysis unit 123, and the input analysis unit 125 of the control unit 120a will be described.
- the communication unit 121 is a communication interface for each component in the control unit 120a to communicate with the external information processing apparatus 100b via the network n11.
- the network n11 can be configured by, for example, the Internet, a dedicated line, a LAN (Local Area Network), or a WAN (Wide Area Network).
- the network n11 may be configured as a wireless network or a wired network. That is, the form of the network n11 is not particularly limited as long as it is a network that connects different devices.
- each component in the control unit 120a transmits and receives information to and from the external information processing apparatus 100b via the network n11, even if there is no particular configuration, It is assumed that the information is transmitted / received via the communication unit 121.
- the image analysis unit 123 acquires an image of the region R10a imaged by the imaging unit 111 and analyzes the image, thereby operating an operator such as a hand existing in the region R10a, an object placed in the region R10a, and the like. Detect real object. At this time, the image analysis unit 123 may detect only real objects that satisfy a predetermined condition among real objects existing in the region R10a. As a specific example, the image analysis unit 123 may detect only a moving real object (that is, a moving object) among the detected real objects. As another example, the image analysis unit 123 may detect only a real object having a predetermined shape feature among the detected real objects.
- the image analysis unit 123 outputs control information (that is, intermediate data) indicating the detected real object in the region R10a to the input analysis unit 125 and transmits it to the external information processing apparatus 100b via the network n11.
- the intermediate data may be image information of a real object in the region R10a.
- the intermediate data includes, for example, an area corresponding to the real object in the area R10a, such as vector information indicating the position, orientation, or range of the area corresponding to the real object in the area R10a.
- Control information for displaying (or forming) the displayed display information may be used.
- the input analysis unit 125 acquires intermediate data indicating the real object in the detected region R10a from the image analysis unit 123. Based on the acquired intermediate data, the input analysis unit 125 identifies a real object that satisfies a predetermined condition from among the detected real objects in the region R10a as an operating body. As a specific example, the input analysis unit 125 identifies a real object (for example, a hand) having a predetermined shape feature among the detected real objects as an operating body. Note that, for example, even when the hand is specified as the operating body, the input analysis unit 125 is limited to the hand only when the hand has a specific shape (for example, when the hand has a shape that specifies an object). Can also be recognized as an operating tool. As another example, the input analysis unit 125 may specify a moving real object (that is, a moving object) as an operating object among the detected real objects.
- a moving real object that is, a moving object
- the input analysis unit 125 specifies the user operation target by the operation object and the content of the user operation based on the position and movement of the real object specified as the operation object.
- the input analysis unit 125 for example, is calibrated in advance so that the coordinates of the region R10 displaying information and the coordinates of the contact of the operating body such as the user's hand with the region R10 match. It is possible to detect which part of the display screen (for example, GUI) the operating body touches.
- the input analysis unit 125 specifies the content of the user operation (specifically, the operation target and the type of the operation) by the operation body such as the hand in the region R10a, and the specified user operation.
- the operation information indicating the contents is output to the screen update unit 127.
- the communication unit 121 and the image analysis unit 123 in the control unit 120b are the same as the communication unit 121 and the image analysis unit 123 in the control unit 120a described above.
- the communication unit 121 of the control unit 120b is a communication interface for each component in the control unit 120b to communicate with the external information processing apparatus 100a via the network n11.
- each component in the control unit 120b transmits / receives information to / from an external information processing apparatus 100a via the network n11, even if there is no particular configuration, It is assumed that the information is transmitted / received via the communication unit 121.
- the image analysis unit 123 of the control unit 120b acquires an image of the region R10b captured by the imaging unit 111 and analyzes the image to place the operation object such as a hand existing in the region R10b or the region R10b. A real object such as an object is detected. Then, the image analysis unit 123 outputs intermediate data indicating the detected real object in the region R10b to the input analysis unit 125 of the control unit 120b, and transmits the intermediate data to the external information processing apparatus 100a via the network n11. To do.
- the input analysis unit 125 of the control unit 120b specifies an operation body based on the intermediate data acquired from the image analysis unit 123, and details of the user operation by the operation body (that is, the operation target and the type of the operation). About the operation
- the input analysis unit 125 acquires intermediate data indicating the real object in the detected region R10b from the image analysis unit 123. Based on the acquired intermediate data, the input analysis unit 125 specifies a real object that satisfies a predetermined condition as an operating body from the detected real objects in the region R10b.
- the input analysis unit 125 of the control unit 120b based on the identified position and movement of the operating body, the contents of the user operation by the operating body in the region R10b (specifically, the operation target and the type of the operation). And the operation information indicating the content of the specified user operation is transmitted to the information processing apparatus 100a via the network n11.
- the screen update unit 127 is a configuration for generating and updating a display screen shared between the information processing apparatuses 100a and 100b.
- the screen update unit 127 generates a display screen shared between the information processing apparatuses 100a and 100b based on the operation status of various applications.
- the screen update unit 127 outputs the generated display screen to the display control unit 129a, and transmits screen data for displaying the display screen to the external information processing apparatus 100b via the network n11.
- the screen data may be image information indicating a display screen, for example.
- the screen data is control information for displaying (or forming) the display screen, such as vector information indicating the position, orientation, range, etc. of the display object on the display screen. May be.
- the screen update unit 127 receives a user operation on the display screen displayed in each of the regions R10a and R10b, and updates the display screen based on the content of the operation.
- the screen update unit 127 acquires operation information indicating the content of the user operation on the display screen displayed in the region R10a from the input analysis unit 125. That is, the screen update unit 127 recognizes the contents of the user operation (specifically, the operation target and the type of the operation) for the display screen displayed in the region R10a based on the operation information acquired from the input analysis unit 125. To do.
- the screen update unit 127 acquires operation information indicating the content of the user operation on the display screen displayed in the region R10b, which is generated in the same manner in the information processing apparatus 100b, from the information processing apparatus 100b via the network n11. To do.
- the screen update unit 127 recognizes the operation content of the user operation on the display screen displayed in each of the regions R10a and R10b, and shares it between the information processing devices 100a and 100b based on the recognized operation content. Update the display screen. Then, the screen updating unit 127 outputs the updated display screen to the display control unit 129a, and transmits screen data for displaying the display screen to the external information processing apparatus 100b via the network n11.
- the display control unit 129a acquires the generated or updated display screen from the screen update unit 127. Further, the display control unit 129a acquires intermediate data indicating the detected real object in the area R10b from the information processing apparatus 100b via the network n11. The display control unit 129a generates display information indicating a real object in the region R10b based on the acquired intermediate data. Then, the display control unit 129a generates an image in which display information indicating the real object in the generated region R10b is superimposed on the acquired display screen, and causes the output unit 130 to output the generated image. Thereby, a display screen on which display information indicating a real object in the region R10b is superimposed is displayed on the region R10a.
- the display control unit 129a may generate display information indicating the real object only for the real object satisfying a predetermined condition among the real objects indicated by the acquired intermediate data.
- the display control unit 129a may generate display information only for a moving real object (that is, a moving object) among real objects indicated by the intermediate data.
- the display control unit 129a may generate display information only for a real object having a predetermined shape characteristic among real objects indicated by the intermediate data.
- the display control unit 129b acquires screen data for displaying the generated or updated display screen from the information processing apparatus 100a via the network n11.
- the display control unit 129b acquires intermediate data indicating the detected real object in the area R10a from the information processing apparatus 100a via the network n11.
- the display control unit 129b generates display information indicating a real object in the region R10a based on the acquired intermediate data.
- the display control unit 129b generates an image in which display information indicating the real object in the generated region R10a is superimposed on the display screen based on the acquired screen data, and causes the output unit 130 to output the generated image. .
- a display screen on which display information indicating a real object in the region R10a is superimposed is displayed on the region R10b.
- the display control units 129a and 129b may be simply described as “display control unit 129” unless otherwise distinguished. Further, in this configuration, the images generated by the display control units 129a and 129b (that is, an image obtained by superimposing display information indicating a real object on the display screen based on the screen data) are “second control information”. Is equivalent to an example.
- the output unit 130 controls according to the operation content input by the input unit 110, the content of the information output by the output unit 130, and the information of the real object on the region R10 to which the output unit 130 outputs information.
- the information generated by the unit 120 is output.
- the video output unit 131 included in the output unit 130 is configured to output display information such as a screen (GUI) on which a display object is presented.
- GUI screen
- the video output unit 131 can be configured by, for example, a projector for projecting display information toward a desired projection plane (that is, the region R10).
- the output unit 130 may include a configuration for outputting acoustic information such as sound effects, music, voice, and the like as output information, which may be configured by an acoustic device such as a speaker.
- FIGS. 10 to 12 are flowcharts illustrating an example of a flow of a series of processes of the information processing system 1 according to an embodiment of the present disclosure.
- “generation and transmission of intermediate data” by the information processing apparatuses 100a and 100b “update and output of display screen” by the information processing apparatus 100a, and “acquisition and output of display screen” by the information processing apparatus 100b.
- Each process will be described separately.
- Step S101 The imaging unit 111 included in the input unit 110 of the information processing device 100a captures an image of the region R10a and outputs the captured image to the control unit 120a.
- the timing at which the imaging unit 111 captures an image of the region R10a and the timing at which the captured image is output to the control unit 120a are not particularly limited.
- the imaging unit 111 may capture an image of the region R10a at every predetermined timing, and sequentially output the captured image to the control unit 120a.
- the imaging unit 111 may capture an image of the region R10a using a predetermined process as a trigger, and output the captured image to the control unit 120a.
- the image analysis unit 123 acquires an image of the region R10a imaged by the imaging unit 111, and analyzes the image, such as an operation body such as a hand existing in the region R10a, an object placed in the region R10a, or the like. Detect real objects.
- the image analysis unit 123 Based on the detection result, the image analysis unit 123 generates intermediate data indicating the real object in the detected region R10a.
- the intermediate data may be image information of a real object in the region R10a.
- the intermediate data includes display information indicating a real object in the region R10a, such as vector information indicating the position, orientation, range, or the like of the region corresponding to the real object in the region R10a. It may be control information for displaying (or forming).
- Step S107 The image analysis unit 123 then outputs the generated intermediate data to the input analysis unit 125, and transmits the intermediate data to the external information processing apparatus 100b via the network n11.
- the same processing of the information processing apparatus 100b is the same as the contents described above. That is, the image analysis unit 123 in the information processing apparatus 100b generates intermediate data indicating a real object in the region R10b based on the image of the region R10b captured by the imaging unit 111. Then, the image analysis unit 123 outputs the generated intermediate data to the input analysis unit 125, and transmits the intermediate data to the external information processing apparatus 100a via the network n11.
- the information processing apparatuses 100 a and 100 b each generate intermediate data, and an example of a processing flow for transmitting the generated intermediate data to the external information processing apparatus 100 has been described.
- Step S201 The input analysis unit 125 acquires from the image analysis unit 123 intermediate data indicating a real object in the detected region R10a. Based on the acquired intermediate data, the input analysis unit 125 identifies a real object that satisfies a predetermined condition from among the detected real objects in the region R10a as an operating body. Then, the input analysis unit 125 specifies the user operation target by the operation object and the content of the user operation based on the position and movement of the real object specified as the operation object.
- the input analysis unit 125 specifies the content of the user operation (specifically, the operation target and the type of the operation) by the operation body such as the hand in the region R10a, and the specified user operation.
- the operation information indicating the contents is output to the screen update unit 127.
- the screen update unit 127 acquires operation information indicating the content of the user operation on the display screen displayed in the region R10a from the input analysis unit 125. That is, the screen update unit 127 recognizes the contents of the user operation (specifically, the operation target and the type of the operation) for the display screen displayed in the region R10a based on the operation information acquired from the input analysis unit 125. To do.
- the screen update unit 127 acquires operation information indicating the content of the user operation on the display screen displayed in the region R10b, which is generated in the same manner in the information processing apparatus 100b, from the information processing apparatus 100b via the network n11. To do.
- the screen update unit 127 recognizes the operation content of the user operation on the display screen displayed in each of the regions R10a and R10b.
- Step S203 The screen update unit 127 updates the display screen shared between the information processing apparatuses 100a and 100b based on the recognition result of the operation content of the user operation on the display screen displayed in each of the regions R10a and R10b. Then, the screen updating unit 127 outputs the updated display screen to the display control unit 129a, and transmits screen data for displaying the display screen to the external information processing apparatus 100b via the network n11.
- Step S205 The display control unit 129a acquires intermediate data indicating the detected real object in the area R10b from the information processing apparatus 100b via the network n11.
- the display control unit 129a generates display information indicating a real object in the region R10b based on the acquired intermediate data.
- Step S207 the display control unit 129a acquires the generated or updated display screen from the screen update unit 127. Then, the display control unit 129a generates an image in which display information indicating the real object in the generated region R10b is superimposed on the acquired display screen, and causes the output unit 130 to output the generated image. Thereby, an image in which display information indicating a real object in the region R10b is superimposed on a display screen shared between the information processing devices 100a and 100b is displayed on the region R10a.
- the information processing apparatus 100a has generated or updated the display screen and described an example of the processing flow for outputting the display screen.
- the information processing apparatus 100b transmits operation information to the information processing apparatus 100a, and as a result, acquires a display screen generated or updated by the information processing apparatus 100a, and displays the display screen.
- An example of the flow of the process of outputting is described.
- Step S301 The input analysis unit 125 of the information processing device 100b acquires intermediate data indicating the real object in the detected region R10b from the image analysis unit 123. Based on the acquired intermediate data, the input analysis unit 125 specifies a real object that satisfies a predetermined condition as an operating body from the detected real objects in the region R10b.
- the input analysis unit 125 of the control unit 120b based on the identified position and movement of the operating body, the contents of the user operation by the operating body in the region R10b (specifically, the operation target and the type of the operation). And the operation information indicating the content of the specified user operation is transmitted to the information processing apparatus 100a via the network n11.
- Step S303 The display control unit 129b acquires screen data for displaying the generated or updated display screen from the information processing apparatus 100a via the network n11. Note that the display screen indicated by the screen data acquired at this time can correspond to a display screen updated based on the operation information transmitted from the input analysis unit 125 to the information processing apparatus 100a.
- Step S305 the display control unit 129b acquires intermediate data indicating the detected real object in the area R10a from the information processing apparatus 100a via the network n11.
- the display control unit 129b generates display information indicating a real object in the region R10a based on the acquired intermediate data.
- Step S307 the display control unit 129b generates an image in which display information indicating the real object in the generated region R10a is superimposed on the display screen based on the acquired screen data, and causes the output unit 130 to output the generated image. .
- an image in which display information indicating a real object in the region R10a is superimposed on the display screen shared between the information processing devices 100a and 100b is displayed on the region R10b.
- the information processing apparatus 100b transmits the operation information to the information processing apparatus 100a, and as a result, acquires the display screen generated or updated by the information processing apparatus 100a, and displays the display screen.
- An example of the output process flow has been described.
- the information processing apparatus 100 according to the first modification has the display screen shared with the other information processing apparatus 100 and the area R10 corresponding to the other information processing apparatus 100 in the area R10 corresponding to itself. Display information indicating an existing real object is displayed. That is, the display object displayed on the display screen and the display information indicating the real object are mixed in the region R10.
- FIG. 13 is an explanatory diagram for explaining an overview of the information processing apparatus 100 according to the first modification, in which the display object displayed on the display screen and the display information indicating the real object are presented in an identifiable manner.
- An example of the display mode is shown.
- reference numerals v11 and v13 indicate display objects displayed on the display screen.
- Reference numerals v25 and v27 indicate display information indicating real objects. That is, FIG. 13 illustrates an example of an image v30 displayed in the region R10 in which display information indicating a real object is superimposed on the display screen.
- the information processing apparatus 100 borders the outer edges of the display information v25 and v27 with respect to the display information v25 and v27 indicating the real object among the information displayed in the image v30. As shown, the identification information v45 and v47 are displayed.
- the user can display the display objects v11 and v13 in the display screen (that is, the image v30) displayed in the region R10 based on the presented identification information v45 and v47, and display information indicating the real object. It becomes possible to distinguish v25 and v27.
- the mode is not necessarily limited to the example illustrated in FIG.
- the information processing apparatus 100 may display a pseudo shadow on display information indicating a real object. As a result, the user can recognize that the information displayed with the shadow among the various types of information presented on the display screen displayed in the region R10 corresponds to the display information indicating the real object.
- identification information for example, border or shadow
- identification information may be attached to the object side.
- Modification 1 an example of control in which the information processing apparatus 100 presents the display object displayed on the display screen and the display information indicating the real object in a distinguishable manner has been described with reference to FIG. .
- FIG. 14 is an explanatory diagram for explaining an overview of the information processing system 1 according to the second modification.
- the interaction with the user operation to the display information indicating the real object displayed in the area R10 corresponding to the one information processing apparatus 100 is the real object arranged in the other area. Project also onto (object).
- the real object b25 (paper medium document) is arranged on the area R10a corresponding to the information processing apparatus 100a. Further, display information v25 corresponding to the real object b25 existing in the region R10 is displayed in the region R10b corresponding to the information processing apparatus 100b.
- the information processing apparatus 100b displays the display information v51b and v52b on the display information v25. It shall be displayed.
- the information processing apparatus 100a displays the display information corresponding to the display information v51b and v52b displayed in the region R10b. v51a and v52a are projected onto the real object b25.
- the information processing apparatus 100b displays the display information v51b and v52b on the display information v25 in the region R10b according to the content of the user operation on the display information v25, and the content of the user operation (for example, , The operation information indicating the operation target and operation type) is transmitted to the information processing apparatus 100a.
- the information processing apparatus 100a displays the display information v51a and v52a corresponding to the display information v51b and v52b according to the content of the operation indicated by the operation information acquired from the information processing apparatus 100b, and the real object b25 arranged in the region R10a. Project above.
- each user can not only share information (for example, display objects) on a display screen shared between remote locations, but also a medium (that is, a paper medium, etc.) existing in one work space. Information sharing via such real objects) can be carried out smoothly.
- the information processing system 1 includes the information processing apparatuses 100a and 100b, and the information processing apparatus 100b corresponds to display information indicating a real object existing in the area R10a on the information processing apparatus 100a side. The description will be made assuming that the image is displayed in the region R10b.
- FIG. 15 is an explanatory diagram for describing one aspect of the information processing system 1 according to the third modification.
- the real object b25 exists in the area R10a on the information processing apparatus 100a side, and the information processing apparatus 100b displays the display information indicating the real object in the area R10b corresponding to itself. Yes.
- the information processing apparatus 100b may move the display position of the display information indicating the real object b25 or present the display information so that the display information can be duplicated or deformed.
- reference numerals v251 and v252 indicate an example of display information indicating the real object and b25.
- Reference sign v25 ' indicates a position in the region R10b corresponding to a position where the real object b25 exists in the region R10a.
- the information processing apparatus 100 b displays the display information v251 and v252 as a copy of the display information indicating the real object b25 presented at the position of the reference sign v25 ′ according to a user operation. You may display on R10b. At this time, the information processing apparatus 100b may display the display information indicating the real object b25 in an enlarged or reduced size with a size different from that of the actual real object b25, as shown as the display information v251. Further, as shown as display information v252, the information processing apparatus 100b may display the display information indicating the real object b25 in a direction different from the actual real object b25.
- the information processing apparatus 100b displays the presentation information indicating the position where the real object b25 exists on the region R10a side, as indicated by the reference sign v25 ′. Alternatively, it may be presented separately on the region R10b side.
- the information processing apparatus 100b follows the movement of the real object b25 on the region R10a side with the display position of the presentation information indicating the position where the real object b25 exists. It is good to control to do. At this time, the information processing apparatus 100b does not necessarily have to move the positions of the display information v251 and v252 indicating the real object b25 displayed as a duplicate.
- the information processing apparatus 100b may reflect the interaction with the user operation on the other.
- the information processing apparatus 100b may reflect an interaction with the user operation on the display information v252 in addition to the display information v251.
- the information processing apparatus 100a may project the interaction with the user operation on the display information v251 onto the real object b25 as in the example described above as the second embodiment.
- the information processing apparatus 100b may be configured to control display and non-display of display information indicating a real object.
- FIG. 16 is an explanatory diagram for describing another aspect of the information processing system 1 according to the third modification.
- the information processing apparatus 100 b temporarily restricts the display of the display information v ⁇ b> 25 indicating the real object b ⁇ b> 25 on the region R ⁇ b> 10 b in response to the user operation (that is, does not display). .
- the information processing apparatus 100a acquires information indicating the display state of the display information v25 indicating the real object b25 from the information processing apparatus 100b, and displays the display information v61 indicating the display state as the corresponding real object b25. You may display in relation to.
- the information processing apparatus 100 b may present a UIv 63 for displaying the display information v ⁇ b> 25 that has been hidden again.
- the information processing apparatus 100b may display the hidden display information v25 again in response to an operation on the UIv63.
- the information processing system 1 is configured to be able to control the display mode of the display information v25 displayed on the region R10b side and indicating the real object b25 based on an operation from the region R10a side where the real object b25 exists. It may be.
- FIG. 17 is an explanatory diagram for describing another aspect of the information processing system 1 according to the third modification.
- the information processing apparatus 100 a receives a user operation and displays a UIv 71 for controlling the display mode of the display information v ⁇ b> 25 displayed on the region R ⁇ b> 10 b side. And displayed in association with the real object b25 corresponding to the display information v25.
- the information processing apparatus 100a may receive a user operation on the UIv 71 and instruct the information processing apparatus 100b to perform display control of the display information v25 based on a mode specified based on the user operation.
- a mode specified based on the user operation For a specific example, when “non-display” of the display information v25 is designated by the user through an operation via the UIv 71, the information processing apparatus 100a displays the display information v25 in a non-display state. 100b is instructed. In response to this instruction, the information processing apparatus 100b may limit the display of the display information v25 in the region R10b as illustrated in the lower diagram of FIG.
- the display control of the display information v25 based on the operation on the UIv71 is not limited to display and non-display of the display information v25, and may include, for example, switching of the display mode of the display information v25.
- the information processing system 1 displays only a display mode in which the display information v25 is displayed as an image of the real object b25 and an area of the real object b25 based on an operation on the UIv71 (that is, displays as a shadow). The display mode may be switched.
- the display control method is not particularly limited as long as the display of the display information v25 displayed in the region R10b can be controlled based on the user operation on the UIv71 presented on the region R10a side.
- the information processing apparatus 100a may control transmission of intermediate data for displaying the display information v25 to the information processing apparatus 100b based on a user operation on the UIv71.
- the information processing apparatus 100a displays the display information v25 on the information processing apparatus 100b. Transmission of intermediate data (that is, intermediate data corresponding to the real object b25) may be restricted.
- the information processing apparatus 100a may switch the content of information to be transmitted as intermediate data according to a display mode designated by the user by an operation via the UIv71.
- a display mode for displaying the display information v25 as an image of the real object b25 is designated by the user through an operation via the UIv71.
- the information processing apparatus 100a may transmit the image of the real object b25 to the information processing apparatus 100b as intermediate data.
- the display mode for displaying only the area of the real object b25 is designated by the user through an operation via the UIv71.
- the information processing apparatus 100a may transmit information (for example, vector information) indicating the position, orientation, range, or the like of the region corresponding to the real object b25 in the region R10a as intermediate data. Good.
- Modification 3 an example of display control of display information indicating a real object in the information processing system 1 according to the present embodiment has been described with reference to FIGS. 14 to 17.
- FIG. 18 is an explanatory diagram for describing an example of a schematic system configuration of the information processing system 1 according to Modification 4.
- the information processing apparatus 100a that operates as a master transmits screen data and real objects in the region R10a to the information processing apparatus 100b that operates as a slave.
- the corresponding intermediate data was transmitted. That is, in the information processing system 1, the information processing apparatus 100b generates an image displayed in the region R10b, that is, an image in which display information indicating the real object in the region R10a is superimposed on the screen data.
- the information processing apparatus 100a operating as a master describes an image obtained by imaging the region R10a (hereinafter referred to as “imaging data”). May be transmitted to the information processing apparatus 100b operating as a slave.
- imaging data a display screen shared between the information processing apparatuses 100a and 100b and a real object existing in the region R10a are captured.
- moves as a slave should just display the acquired imaging data on area
- the information processing apparatus 100a that operates as the master distributes the imaging data of the region R10a to the information processing apparatus 100b that operates as the slave based on the streaming method. Also good.
- the content of information transmitted from the information processing apparatus 100b operating as a slave to the information processing apparatus 100a operating as a master and the content of control based on the information are the information processing system 1 ( The detailed description is omitted because it is the same as FIG.
- the information processing system 1 according to the modified example 4 can reduce the processing load of the information processing apparatus 100b that operates as a slave, as compared with the information processing system 1 according to the above-described embodiment.
- Modification 4 an example of the system configuration of the information processing system 1 according to the present embodiment has been described with reference to FIG.
- Modification Example 5 System Configuration Example 2 (Configuration with Server)]
- an example of a system configuration in which an external server is provided in addition to the information processing apparatuses 100a and 100b will be described as an example of the system configuration of the information processing system 1 according to an embodiment of the present disclosure.
- FIG. 19 is an explanatory diagram for explaining an example of a schematic system configuration of the information processing system 1 according to the modification 5.
- the information processing system 1 includes information processing apparatuses 100 a and 100 b and a server 300, and the server 300 generates and updates a display screen shared between the information processing apparatuses 100 a and 100 b.
- the server 300 acquires operation information indicating the content of the operation on the display screen displayed in the region R10a from the information processing apparatus 100a. Similarly, the server 300 acquires operation information indicating the content of the operation on the display screen displayed in the region R10b from the information processing apparatus 100b. Then, the server 300 updates the display screen based on the operation information acquired from each of the information processing apparatuses 100a and 100b, and displays screen data for displaying an image indicating the display screen, respectively, for each of the information processing apparatuses 100a and 100b. Deliver to.
- the control for displaying the real object on the display screen shared between the information processing apparatuses 100a and 100b is executed by each of the information processing apparatuses 100a and 100b.
- the information processing apparatus 100a when focusing on the information processing apparatus 100a, the information processing apparatus 100a detects a real object that exists in the region R10a, and transmits intermediate data for displaying display information indicating the detected real object to the information processing apparatus 100b. .
- the information processing apparatus 100a acquires intermediate data for displaying display information indicating real objects existing in the region R10b from the information processing apparatus 100b.
- the information processing apparatus 100a displays an image in which display information indicating a real object existing in the region R10b is superimposed on the display screen based on the image data distributed from the server 300 based on the intermediate data acquired from the information processing apparatus 100b. Generate. Then, the information processing apparatus 100a projects the generated image on the region R10a.
- the operation of the information processing apparatus 100b is the same as the operation of the information processing apparatus 100a described above. That is, the information processing apparatus 100b is an image in which display information indicating a real object existing in the region R10a is superimposed on the display screen based on image data distributed from the server 300 and intermediate data from the information processing apparatus 100a. And the image is projected onto the region R10b.
- FIG. 20 is a block diagram illustrating an example of a functional configuration of the information processing system 1 according to the fifth modification.
- the server 300 includes a communication unit 301 and a screen update unit 311.
- the communication unit 301 is a communication interface for each component in the server 300 to communicate with the external information processing apparatuses 100a and 100b via the network n11.
- the screen update unit 311 corresponds to the screen update unit 127 of the information processing apparatus 100a operating as a master in the information processing system 1 described with reference to FIG.
- the screen update unit 311 generates a display screen shared between the information processing apparatuses 100a and 100b based on the operation status of various applications.
- the screen update unit 311 acquires operation information indicating the content of the user operation on the display screen displayed in the areas R10a and R10b from the information processing apparatuses 100a and 100b. Then, the screen update unit 311 recognizes the operation content of the user operation on the display screen displayed in each of the regions R10a and R10b based on the acquired operation information, and based on the recognized operation content, between the information processing devices 100a and 100b. Update the display screen shared with.
- the screen update unit 311 distributes the screen data for displaying the generated or updated display screen to the external information processing apparatuses 100a and 100b via the network n11.
- the information processing apparatuses 100a and 100b have the same functional configuration. Therefore, the functional configuration of the information processing apparatuses 100a and 100b will be described by focusing on the information processing apparatus 100a side, and detailed description on the information processing apparatus 100b side will be omitted.
- the information processing apparatus 100 a includes an input unit 110, a control unit 120, and an output unit 130.
- the input unit 110 and the output unit 130 are the same as those in the information processing system 1 according to the embodiment described above with reference to FIG.
- the control unit 120 includes a communication unit 121, an image analysis unit 123, an input analysis unit 125, and a display control unit 129.
- the image analysis unit 123 corresponds to the image analysis unit 123 in the information processing system 1 illustrated in FIG. That is, the image analysis unit 123 acquires an image of the region R10a imaged by the imaging unit 111, and analyzes the image, whereby an operation body such as a hand existing in the region R10a or an object placed in the region R10a. Detect real objects such as Then, the image analysis unit 123 outputs intermediate data indicating the detected real object in the region R10a to the input analysis unit 125 and transmits it to the external information processing apparatus 100b via the network n11.
- the input analysis unit 125 corresponds to the input analysis unit 125 in the information processing system 1 shown in FIG. That is, the input analysis unit 125 acquires the intermediate data from the image analysis unit 123, and specifies, as the operation object, a real object that satisfies a predetermined condition from the detected real objects in the region R10a based on the acquired intermediate data. To do. Then, the input analysis unit 125 specifies the user operation target by the operation object and the content of the user operation based on the position and movement of the real object specified as the operation object.
- the input analysis unit 125 specifies the content of the user operation (specifically, the operation target and the type of the operation) by the operation body such as the hand in the region R10a, and the specified user operation.
- the operation information indicating the contents is transmitted to the server 300 via the network n11.
- the display control unit 129 acquires the generated or updated display screen from the server 300 via the network n11. In addition, the display control unit 129 acquires intermediate data indicating the detected real object in the area R10b from the information processing apparatus 100b via the network n11. The display control unit 129 generates display information indicating a real object in the region R10b based on the acquired intermediate data. Then, the display control unit 129 generates an image in which display information indicating a real object in the generated region R10b is superimposed on the acquired display screen, and causes the output unit 130 to output the generated image. Thereby, a display screen on which display information indicating a real object in the region R10b is superimposed is displayed on the region R10a.
- the functional configuration of the information processing system 1 according to the modified example 5 is not particularly limited as long as the server 300 processes at least a part of the processes of the information processing apparatuses 100a and 100b described with reference to FIG. It is not limited.
- FIG. 21 is an explanatory diagram for explaining another example of a schematic system configuration of the information processing system 1 according to the fifth modification.
- detection of real objects from the captured images of the areas R10a and R10b generation and update of a display screen shared between the information processing apparatuses 100a and 100b, and display information indicating real objects for the display screen
- the server 300 executes a series of processes such as superimposed display.
- the information processing apparatus 100a transmits the image of the region R10a captured by the input unit 110 to the server 300 via the network n11.
- the information processing apparatus 100b transmits the image of the region R10b captured by the input unit 110 to the server 300 via the network n11.
- the server 300 analyzes the image of the region R10a acquired from the information processing apparatus 100a, thereby detecting an operation object such as a hand existing in the region R10a or a real object such as an object placed in the region R10a. Similarly, the server 300 analyzes the image of the region R10b acquired from the information processing apparatus 100b, thereby detecting an operation object such as a hand existing in the region R10b or a real object such as an object placed in the region R10b. .
- the server 300 identifies a real object that satisfies a predetermined condition among the real objects detected from each of the region R10a and the region R10b as an operating body. Based on the position and movement of the real object specified as the operating tool, the server 300 specifies the target of the user operation by the operating tool and the content of the user operation. Then, the server 300 generates and updates the display screen shared between the information processing apparatuses 100a and 100b based on the content of the specified user operation.
- the server 300 generates an image of the display screen to be displayed in the region R10a and the region R10b based on the generated and updated display screen and the detection result of the real object existing in the region R10a and the region R10b.
- the server 300 displays display information indicating the real object existing in the region R10b on the display screen based on the generated and updated display screen and the detection result of the real object existing in the region R10b. A superimposed image is generated. Then, the server 300 transmits the generated image to the information processing apparatus 100b.
- the server 300 also superimposes display information indicating the real object existing in the region R10a on the display screen based on the generated and updated display screen and the detection result of the real object existing in the region R10a. Generated images. Then, the server 300 transmits the generated image to the information processing apparatus 100b.
- the information processing apparatuses 100a and 100b may display the images distributed from the server 300 in the area R10 corresponding to the information processing apparatuses 100a and 100b.
- the server 300 may transmit the image based on the streaming method when transmitting the image to each of the information processing apparatuses 100a and 100b.
- information transmitted (distributed) from the server 300 to each of the information processing apparatuses 100a and 100b is “second control”. It corresponds to an example of “information”.
- FIG. 21 illustrates another example of the schematic system configuration of the information processing system 1 according to the modification 5.
- the information processing system 1 is provided with the server 300, so that at least of the processes of the information processing devices 100a and 100b with reference to FIG.
- the server 300 may be configured to process a part.
- FIG. 22 is a block diagram illustrating a hardware configuration example of the information processing apparatus 100 according to an embodiment of the present disclosure.
- the information processing apparatus 100 includes a CPU (Central Processing unit) 901, a ROM (Read Only Memory) 903, and a RAM (Random Access Memory) 905. Further, the information processing apparatus 100 may include a host bus 907, a bridge 909, an external bus 911, an interface 913, an input device 915, an output device 917, a storage device 919, a drive 921, a connection port 923, and a communication device 925. Furthermore, the information processing apparatus 100 may include an imaging device 933 and a sensor 935 as necessary. The information processing apparatus 100 may have a processing circuit called DSP (Digital Signal Processor) or ASIC (Application Specific Integrated Circuit) instead of or in addition to the CPU 901.
- DSP Digital Signal Processor
- ASIC Application Specific Integrated Circuit
- the CPU 901 functions as an arithmetic processing device and a control device, and controls all or a part of the operation in the information processing device 100 according to various programs recorded in the ROM 903, the RAM 905, the storage device 919, or the removable recording medium 927.
- the ROM 903 stores programs and calculation parameters used by the CPU 901.
- the RAM 905 primarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like.
- the CPU 901, the ROM 903, and the RAM 905 are connected to each other by a host bus 907 configured by an internal bus such as a CPU bus. Further, the host bus 907 is connected to an external bus 911 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 909.
- PCI Peripheral Component Interconnect / Interface
- the input device 915 is a device operated by the user, such as a mouse, a keyboard, a touch panel, a button, a switch, and a lever.
- the input device 915 may include a microphone that detects the user's voice.
- the input device 915 may be, for example, a remote control device using infrared rays or other radio waves, or may be an external connection device 929 such as a mobile phone corresponding to the operation of the information processing device 100.
- the input device 915 includes an input control circuit that generates an input signal based on information input by the user and outputs the input signal to the CPU 901.
- the user operates the input device 915 to input various data to the information processing device 100 and instruct processing operations.
- An imaging device 933 which will be described later, can also function as an input device by imaging a user's hand movement and the like.
- the output device 917 is a device that can notify the user of the acquired information visually or audibly.
- the output device 917 includes, for example, a display device such as an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), an organic EL (Electro-Luminescence) display, a projector, a hologram display device, a sound output device such as a speaker and headphones, As well as a printer device.
- the output device 917 outputs the result obtained by the processing of the information processing device 100 as video such as text or an image, or outputs it as audio such as voice or sound.
- the output device 917 may include a light or the like to brighten the surroundings.
- the storage device 919 is a data storage device configured as an example of a storage unit of the information processing device 100.
- the storage device 919 includes, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
- the storage device 919 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.
- the drive 921 is a reader / writer for a removable recording medium 927 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and is built in or externally attached to the information processing apparatus 100.
- the drive 921 reads information recorded on the attached removable recording medium 927 and outputs the information to the RAM 905.
- the drive 921 writes a record in the attached removable recording medium 927.
- the connection port 923 is a port for directly connecting a device to the information processing apparatus 100.
- the connection port 923 can be, for example, a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, or the like.
- the connection port 923 may be an RS-232C port, an optical audio terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) port, or the like.
- Various data can be exchanged between the information processing apparatus 100 and the external connection device 929 by connecting the external connection device 929 to the connection port 923.
- the communication device 925 is a communication interface configured with, for example, a communication device for connecting to the communication network 931.
- the communication device 925 may be, for example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB).
- the communication device 925 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various communication.
- the communication device 925 transmits and receives signals and the like using a predetermined protocol such as TCP / IP with the Internet and other communication devices, for example.
- the communication network 931 connected to the communication device 925 is a wired or wireless network, such as the Internet, a home LAN, infrared communication, radio wave communication, or satellite communication.
- the imaging device 933 uses various members such as an imaging element such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor), and a lens for controlling the imaging of a subject image on the imaging element. It is an apparatus that images a real space and generates a captured image.
- the imaging device 933 may capture a still image or may capture a moving image.
- the sensor 935 is various sensors such as an acceleration sensor, a gyro sensor, a geomagnetic sensor, an optical sensor, and a sound sensor. For example, the sensor 935 acquires information about the state of the information processing apparatus 100 itself, such as the attitude of the housing of the information processing apparatus 100, and information about the surrounding environment of the information processing apparatus 100, such as brightness and noise around the information processing apparatus 100. To do.
- the sensor 935 may include a GPS sensor that receives a GPS (Global Positioning System) signal and measures the latitude, longitude, and altitude of the apparatus.
- GPS Global Positioning System
- Each component described above may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Such a configuration can be appropriately changed according to the technical level at the time of implementation.
- the information processing system 1 includes a plurality of information processing apparatuses 100 connected via a network.
- each of the plurality of information processing devices 100 captures an image of the region R10 corresponding to the work space of the information processing device 100, and based on the analysis result of the image, the actual information existing in the region R10. The object is detected. Then, in each region R10, in one region R10, an image in which display information indicating a real object detected from another region R10 is superimposed on a display screen shared among a plurality of information processing devices 100. Is displayed.
- a display screen to be shared between a plurality of information processing apparatuses 100 and information indicating real objects existing in each work space It is possible to share in a suitable manner.
- An acquisition unit for acquiring first control information for displaying display information indicating a real object existing in a first area where a screen shared between a plurality of devices is displayed; Based on the acquired first control information, a second image for displaying a display image obtained by superimposing display information indicating the real object on the screen in a second area different from the first area.
- An information processing apparatus comprising: (2) The generation unit generates the second control information for displaying the display image in which the image of the real object is superimposed on the screen on the second area based on the first control information.
- the generation unit is configured to display the display image in which display information indicating an area occupied by the real object is superimposed on the screen based on the first control information.
- the information processing apparatus according to (1) which generates control information.
- the generation unit displays, in the second area, the display image in which display information indicating the real object satisfying a predetermined condition among the real objects existing in the first area is superimposed on the screen.
- the information processing apparatus according to any one of (1) to (3), wherein the second control information for generating the second control information is generated.
- the generating unit is configured to display, in the second area, the display image in which display information indicating the moving real object is superimposed on the screen among the real objects existing in the first area.
- the generation unit displays the display image in which display of display information indicating the real object is limited in the second area for at least a part of the real object existing in the first area.
- the information processing apparatus according to any one of (1) to (5), wherein the second control information is generated.
- the generation unit is configured to display the display image presented in a different form between the display object presented in the screen and the display information indicating the real object in the second area.
- the information processing apparatus according to any one of (1) to (6), wherein the control information is generated.
- the acquisition unit acquires operation information indicating operation contents for the real object in the first area,
- the generation unit generates the second control information for displaying the display image on which the display information corresponding to the operation content is presented in the second region based on the acquired operation information.
- the information processing apparatus according to any one of (1) to (7).
- the acquisition unit acquires operation information indicating operation contents for display information indicating the real object displayed in the second area,
- the information processing apparatus according to any one of (1) to (9), further including a display control unit configured to display the display image in the second area based on the second control information.
- the said display control part makes the projection part which projects display information to the said 2nd area project the said display image to the said 2nd area
- the information processing apparatus according to any one of (1) to (9), further including: a transmission unit that transmits the second control information to an external apparatus that controls display of information in the second area. .
- the information processing apparatus according to any one of (1) to (12), wherein the first area and the second area are isolated different areas.
- An acquisition unit that acquires an image of a first area on which a screen shared by a plurality of devices is displayed, which is captured by the imaging unit; Based on the acquired image of the first area, display information indicating a real object existing in the first area is displayed in a second area different from the first area where the screen is displayed.
- Generating unit for generating control information for An information processing apparatus comprising: (15) The information processing apparatus according to (14), wherein the control information is a partial image of the real object extracted from the image of the first region. (16) The information processing apparatus according to (14) or (15), wherein the control information includes at least one of information indicating a position, an orientation, and a range of the real object in the first region. (17) The information processing apparatus according to any one of (14) to (16), further including: a transmission unit that transmits the control information to an external apparatus that controls display of information in the second area.
- the information processing apparatus First control information for displaying, in a second area different from the first area, display information indicating a real object existing in the first area where a screen shared between a plurality of devices is displayed. And getting Based on the acquired first control information, the processor generates second control information for displaying a display image in which display information indicating the real object is superimposed on the screen in the second area.
- An information processing method including: (23) Obtaining an image of a first area on which a screen shared by a plurality of devices is displayed, which is imaged by an imaging unit; Based on the acquired image of the first area, the processor displays the display information indicating the real object existing in the first area as a second area different from the first area where the screen is displayed.
- Generating control information for display on the An information processing method including: (24) On the computer, First control information for displaying, in a second area different from the first area, display information indicating a real object existing in the first area where a screen shared between a plurality of devices is displayed.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Hardware Design (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
Abstract
【課題】遠隔地間において各種情報をより好適な態様での共有を可能とする。 【解決手段】複数の装置間で共有された画面が表示された第1の領域に存在する実オブジェクトを示す表示情報を表示させるための第1の制御情報を取得する取得部と、取得された前記第1の制御情報に基づき、前記実オブジェクトを示す表示情報を前記画面に重畳させた表示画像を、前記第1の領域とは異なる第2の領域に表示させるための第2の制御情報を生成する生成部と、を備えた情報処理装置。
Description
本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
近年では、テレビ会議システム等のような遠隔地間での会議を実現するためのシステムが普及してきている。このようなシステムの中には、ネットワークを介して接続された複数の端末(例えば、PC:Personal Computer)に共通の表示画面を表示し、当該表示画面に表示された表示オブジェクトに対して各端末からの操作を可能とすることで、当該端末間での表示画面の共有を可能とするシステムもある。例えば、特許文献1には、ネットワークを介して接続された複数の端末間で表示画面を共有することが可能なシステムの一例が開示されている。
一方で、会議などの場において複数のユーザ間での共有を要する情報は、必ずしも、PC等の端末の画面内に表示された表示情報のみには限定されず、例えば、紙媒体の資料等のように実空間上に存在する物体(実オブジェクト)上に提示された情報も含まれ得る。そのため、遠隔地間において、例えば端末等の画面内に表示された表示情報と、当該表示情報とは異なる他の情報(例えば、実オブジェクトの情報)との各種情報を、より好適な態様で共有することが可能な仕組みが求められている。
そこで、本開示では、遠隔地間において各種情報をより好適な態様で共有することが可能な、情報処理装置、情報処理方法、及びコンピュータを提案する。
本開示によれば、複数の装置間で共有された画面が表示された第1の領域に存在する実オブジェクトを示す表示情報を表示させるための第1の制御情報を取得する取得部と、取得された前記第1の制御情報に基づき、前記実オブジェクトを示す表示情報を前記画面に重畳させた表示画像を、前記第1の領域とは異なる第2の領域に表示させるための第2の制御情報を生成する生成部と、を備えた情報処理装置が提供される。
また、本開示によれば、撮像部により撮像された、複数の装置間で共有された画面が表示された第1の領域の画像を取得する取得部と、取得された前記第1の領域の画像に基づき、前記第1の領域に存在する実オブジェクトを示す表示情報を、前記画面が表示された当該第1の領域とは異なる第2の領域に表示させるための制御情報を生成する生成部と、を備えた情報処理装置が提供される。
また、本開示によれば、複数の装置間で共有された画面が表示された第1の領域に存在する実オブジェクトを示す表示情報を、当該第1の領域とは異なる第2の領域に表示させるための第1の制御情報を取得することと、プロセッサが、取得された前記第1の制御情報に基づき、前記実オブジェクトを示す表示情報を前記画面に重畳させた表示画像を、前記第2の領域に表示させるための第2の制御情報を生成することと、を含む情報処理方法が提供される。
また、本開示によれば、撮像部により撮像された、複数の装置間で共有された画面が表示された第1の領域の画像を取得することと、プロセッサが、取得された前記第1の領域の画像に基づき、前記第1の領域に存在する実オブジェクトを示す表示情報を、前記画面が表示された当該第1の領域とは異なる第2の領域に表示させるための制御情報を生成することと、を含む情報処理方法が提供される。
また、本開示によれば、コンピュータに、複数の装置間で共有された画面が表示された第1の領域に存在する実オブジェクトを示す表示情報を、当該第1の領域とは異なる第2の領域に表示させるための第1の制御情報を取得することと、取得された前記第1の制御情報に基づき、前記実オブジェクトを示す表示情報を前記画面に重畳させた表示画像を、前記第2の領域に表示させるための第2の制御情報を生成することと、を実行させるプログラムが提供される。
また、本開示によれば、コンピュータに、撮像部により撮像された、複数の装置間で共有された画面が表示された第1の領域の画像を取得することと、取得された前記第1の領域の画像に基づき、前記第1の領域に存在する実オブジェクトを示す表示情報を、前記画面が表示された当該第1の領域とは異なる第2の領域に表示させるための制御情報を生成することと、を実行させるプログラムが提供される。
以上説明したように本開示によれば、遠隔地間において、より好適な態様で作業空間を共有することが可能な、情報処理装置、情報処理方法、及びコンピュータが提供される。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.概要
2.システム構成
3.機能構成
4.処理
5.変形例
5.1.変形例1:識別情報の提示
5.2.変形例2:実オブジェクト上への情報の投影
5.3.変形例3:実オブジェクトを示す表示情報の表示制御
5.4.変形例4:システム構成例1(マスター/スレーブ構成の一例)
5.5.変形例5:システム構成例2(サーバを設ける場合の構成)
6.ハードウェア構成
7.まとめ
1.概要
2.システム構成
3.機能構成
4.処理
5.変形例
5.1.変形例1:識別情報の提示
5.2.変形例2:実オブジェクト上への情報の投影
5.3.変形例3:実オブジェクトを示す表示情報の表示制御
5.4.変形例4:システム構成例1(マスター/スレーブ構成の一例)
5.5.変形例5:システム構成例2(サーバを設ける場合の構成)
6.ハードウェア構成
7.まとめ
<1.概要>
まず、本開示の一実施形態に係る情報処理システムの概要について説明する。例えば、図1は、本開示の一実施形態に係る情報処理システムの概要について説明するための説明図である。図1に示すように、本実施形態に係る情報処理システム1は、ネットワークn11を介して接続された複数の情報処理装置100(例えば、情報処理装置100a及び100b)を含み、当該複数の情報処理装置100間において各種情報を共有可能とする仕組みを提供する。
まず、本開示の一実施形態に係る情報処理システムの概要について説明する。例えば、図1は、本開示の一実施形態に係る情報処理システムの概要について説明するための説明図である。図1に示すように、本実施形態に係る情報処理システム1は、ネットワークn11を介して接続された複数の情報処理装置100(例えば、情報処理装置100a及び100b)を含み、当該複数の情報処理装置100間において各種情報を共有可能とする仕組みを提供する。
具体的には、本実施形態に係る情報処理システム1は、複数の情報処理装置100間において、共通の表示画面を共有可能とするとともに、一方の作業空間(例えば、表示画面が表示された空間)に存在する実オブジェクト(例えば、紙媒体の書類等のような物体)の情報を、他方の作業空間に表示情報として提示する。
例えば、図1において、参照符号R10aは、情報処理装置100aが、情報処理装置100bとの間で共通の表示画面を表示させるための領域を示している。また、参照符号R10bは、情報処理装置100bが、情報処理装置100aとの間で共通の表示画面を表示させるための領域を示している。
本実施形態に係る情報処理システム1において、領域R10aと、情報処理装置100aと当該領域R10aと間の空間とは、情報処理装置100aに対応する作業空間に相当する。また、領域R10bと、情報処理装置100bと当該領域R10bとの間の空間とは、情報処理装置100bに対応する作業空間に相当する。
本実施形態に係る情報処理システム1において、例えば、領域R10a上に紙媒体の資料等のような実オブジェクトが配置された場合には、情報処理装置100aは、当該領域R10a上に配置された当該実オブジェクトを検出する。そして、情報処理装置100bは、情報処理装置100aによる領域R10a上の実オブジェクトの検出結果を受けて、当該実オブジェクトを示す表示情報を、領域R10bに提示する。
このような構成により、情報処理システム1は、遠隔地間において、複数の情報処理装置100それぞれに対応する作業空間上で視認可能な情報、即ち、画面として表示された表示情報と、実オブジェクトの情報とを共有可能とする。
そこで、本実施形態に係る情報処理システム1の詳細について説明する前に、当該情報処理システム1の特徴をよりわかりやすくするために、まず、情報処理装置100の構成例について説明する。
[1.1.情報処理装置の構成例]
図2を参照して、本開示の一実施形態に係る情報処理装置100の構成例について説明する。図2は、本開示の一実施形態に係る情報処理装置の構成例について説明するための説明図である。
図2を参照して、本開示の一実施形態に係る情報処理装置100の構成例について説明する。図2は、本開示の一実施形態に係る情報処理装置の構成例について説明するための説明図である。
図2に示したように、本開示の一実施形態に係る情報処理装置100aは、入力部110と、出力部130とを含む。図1に示した本開示の一実施形態に係る情報処理装置100は、テーブル140の天面に情報を表示し、テーブル140に表示した情報に対して情報処理装置100を使用するユーザに操作をさせる。なお、以降では、図2に示すようにテーブル140の天面に情報を表示する方式を「プロジェクション型」と称する場合がある。また、情報処理装置100は、入力部110と、出力部130とのうち、少なくともいずれかが外部装置として外付けされた情報処理システムとして構成されていてもよい。
入力部110は、情報処理装置100を使用するユーザの操作内容や、テーブル140に置かれている物体の形状や模様などを入力するための装置である。図2に示した例では、入力部110は、テーブル140の上方に、例えば天井から吊り下げられた状態で設けられる。すなわち、入力部110は、情報が表示される対象となるテーブル140とは離隔して設けられる。入力部110としては、例えば1つの撮像光学系(例えば、一連のレンズ群)でテーブル140を撮像するカメラや、2つの撮像光学系でテーブル140を撮像して奥行き方向の情報を記録することが可能なステレオカメラ、情報処理装置100を使用するユーザが発する音声や情報処理装置100が置かれている環境の環境音等の音響情報を集音するための集音デバイス(例えば、マイク等)が用いられ得る。
入力部110として、1つの撮像光学系でテーブル140を撮像するカメラが用いられる場合には、情報処理装置100は、例えば、そのカメラが撮像した画像を解析することで、テーブル140に置かれた物体を検出する。また入力部110としてステレオカメラが用いられる場合には、そのステレオカメラには、例えば可視光カメラや赤外線カメラ等が適用され得る。入力部110としてステレオカメラが用いられることで、入力部110は、深度情報を取得することが可能となる。入力部110が、深度情報を取得することで、情報処理装置100は、例えばテーブル140の上に置かれた手や物体等の実オブジェクトを検出することが可能となる。また入力部110が、深度情報を取得することで、情報処理装置100は、テーブル140へのユーザの手のような操作体の接触及び近接や、テーブル140からの操作体の離脱を検出することが可能となる。なお、以下の説明では、ユーザが情報の表示面に手等の操作体を接触または近接させることを、まとめて単に「接触」とも称する。
また、入力部110としてマイクが用いられる場合、そのマイクは特定の方向からの音響情報(例えば、音声)を収音するためのマイクアレイが用いられ得る。入力部110としてマイクアレイが用いられる場合、情報処理装置100は、マイクアレイの集音方向を任意の方向に調整しても良い。また、情報処理装置100は、マイクアレイを構成する各マイクによる音響情報の集音結果に応じて、当該音響情報の到来方向を推定してもよい。具体的な一例として、情報処理装置100は、アレイマイクを構成する各マイクにより集音された音響情報それぞれの音量の比率に応じて、当該音響情報の到来方向を推定してもよい。
なお、以下では、手などの操作体によるユーザの操作が、入力部110によって撮像された画像から検出される場合を主に説明するが、本開示は係る例に限定されるものではない。ユーザの操作は、ユーザの指等の接触を検出するタッチパネルによって検出されてもよい。また入力部110が取得できるユーザ操作としては、この他にも、例えば情報の表示面に対するスタイラス操作、カメラに対するジェスチャ操作等が含まれ得る。
出力部130は、入力部110によって入力された、情報処理装置100を使用するユーザの操作内容や、出力部130が出力している情報の内容、テーブル140に置かれている物体の形状や模様等の情報に応じて、テーブル140に情報を表示したり、音声を出力したりするための構成である。出力部130としては、例えばプロジェクタやスピーカ等が用いられる。
図2に示した例では、出力部130は、テーブル140の上方に、例えば天井から吊り下げられた状態で設けられる。出力部130がプロジェクタで構成される場合、出力部130は、テーブル140の天面に情報を投影する。なお、以降では、出力部130により情報(即ち、表示情報)が投影される領域(即ち、投影面)を、「領域R10」と称する場合がある。
また、出力部130がスピーカで構成される場合、出力部130は、音声信号に基づいて音声を出力する。出力部130がスピーカで構成される場合、スピーカの数は1つで合っても良く、複数であっても良い。出力部130が複数のスピーカで構成される場合、情報処理装置100は、音声を出力するスピーカを限定したり、音声を出力する方向を調整したりしても良い。
また、情報処理装置100が図2に示したようなプロジェクション型である場合、出力部130に、照明機器が含まれていても良い。出力部130に照明機器が含まれる場合、情報処理装置100は、入力部110によって入力された情報の内容に基づいて、照明機器の点灯、消灯等の状態を制御しても良い。
情報処理装置100を使用するユーザは、出力部130がテーブル140に表示する情報に対して、指などをテーブル140に置いて操作することが出来る。また、情報処理装置100を使用するユーザは、テーブル140に物体を置いて入力部110に認識させることで、その認識させた物体(即ち、実オブジェクト)に関する種々の操作を実行することが出来る。
なお、図2には図示しないが、情報処理装置100には他の装置が接続されていても良い。例えば情報処理装置100には、テーブル140を照らすための照明機器が接続されていても良い。情報処理装置100にテーブル140を照らすための照明機器が接続されていることで、情報処理装置100は、情報の表示面の状態に応じて照明機器の点灯状態を制御することが可能となる。
また、図2に示す例では、情報処理装置100が、テーブル140の天面のように水平方向に延伸する投影面に対して情報を投影する、所謂テーブルトップ型の表示装置と構成されている例について説明した。一方で、情報処理装置100の利用形態は、図2に示すようなテーブルトップ型の表示装置のみには限定されない。
例えば、図3は、本実施形態に係る情報処理装置100の他の一態様について説明するための説明図であり、当該情報処理装置100の利用形態の一例を示している。図3に示す例では、情報処理装置100は、壁面140’のように鉛直方向に延伸する投影面に対して情報を投影している。この場合には、壁面140’のうち、情報処理装置100により情報が投影される領域R10と、当該領域R10の前面(即ち、領域R10と情報処理装置100との間の空間)が、当該情報処理装置100に対応する作業空間に相当する。
また、本開示における情報処理装置100の形態は、領域R10に情報を表示できれば、図2及び図3に示したプロジェクション型に限定されるものではない。具体的には、情報処理装置100は、領域R10をガラス板や透明プラスチック板等の透明な材質で形成し、領域R10の裏面側から当該領域R10に情報を投影することで、領域R10に情報を表示するように構成されていてもよい(所謂、「リアプロジェクション型」)。また、他の一例として、情報処理装置100は、領域R10がフラットパネルのディスプレイとして構成されていてもよい。
以上、図2及び図3を参照して、本開示の一実施形態に係る情報処理装置100の構成例について説明した。
[1.2.制御の概要]
次に、図4~図7を参照して、本開示の一実施形態に係る情報処理システム1による、複数の情報処理装置100間で、画面として表示された表示情報と、実オブジェクトの情報とを共有可能とするための制御の概要について説明する。図4~図7は、本開示の一実施形態に係る情報処理システム1による、情報共有のための制御の概要について説明するための説明図である。なお、本説明では、図1に示すように、情報処理システム1は、情報処理装置100a及び100bを含み、当該情報処理装置100a及び100b間で各種情報の共有を可能とする場合を例に説明する。
次に、図4~図7を参照して、本開示の一実施形態に係る情報処理システム1による、複数の情報処理装置100間で、画面として表示された表示情報と、実オブジェクトの情報とを共有可能とするための制御の概要について説明する。図4~図7は、本開示の一実施形態に係る情報処理システム1による、情報共有のための制御の概要について説明するための説明図である。なお、本説明では、図1に示すように、情報処理システム1は、情報処理装置100a及び100bを含み、当該情報処理装置100a及び100b間で各種情報の共有を可能とする場合を例に説明する。
例えば、図4は、複数の情報処理装置100のうち、いずれかに対応する作業空間の状態の一例を示している。なお、本説明では、図4は、情報処理装置100aに対応する作業空間の状態を示しているものとする。
図4に示す例では、領域R10aには、表示オブジェクトv11及びv13が提示された表示画面が表示されている。例えば、図5は、図4に示す例において、領域R10aに表示された(即ち、投影された)表示画面を示す画像v10の一例を示している。なお、図5に示した画像v10が、情報処理装置100a及び100b間で共有されている表示画面を示していることとなる。
また、領域R10a上には、参照符号b25で示された実オブジェクト(紙媒体の資料)と、参照符号b27で示された実オブジェクト(コーヒーカップ)とが配置されている。このような状況下のもと、図4に示す例では、複数のユーザが、それぞれの手を操作体として、所謂タッチ操作により、領域R10a上に表示された表示画面を操作している。参照符号u21及びu23は、各ユーザに対応する操作体(即ち、各ユーザの手)を示している。
情報処理装置100aは、入力部110(例えば、カメラなどの撮像部)により、自身に対応する作業空間に相当する領域R10aの画像を撮像し、撮像した当該画像を解析することで、領域R10上に存在する物体(実オブジェクト)を検出する。例えば、図6は、図4に示した領域R10aの画像に基づき検出された実オブジェクトを示す情報v20の一例を示している。この場合には、情報処理装置100aは、図6に示すように、領域R10a上に存在する実オブジェクトb25及びb27と、操作体u21及びu23とを検出することとなる。なお、図6に示す例では、情報処理装置100aは、R10a上に存在する実オブジェクトb25及びb27と、操作体u21及びu23とのそれぞれの部分画像を、実オブジェクトを示す情報v20として抽出している。
次いで、情報処理装置100aは、図5に示した表示画面を示す画像v10を表示させるための制御情報と、検出された実オブジェクトを示す表示情報を表示させるための制御情報とを、ネットワークn11を介して情報処理装置100bに送信する。なお、図6に示した、実オブジェクトを示す情報v20(例えば、領域R10a上に存在する実オブジェクトの部分画像)が、検出された実オブジェクトを示す表示情報を表示させるための制御情報に相当し得る。また、以降では、表示画面を示す画像v10を表示させるための制御情報を、「画面データ」と記載する場合がある。また、検出された実オブジェクトを示す表示情報を表示させるための制御情報を、「中間データ」と記載する場合がある。なお、中間データが、「第1の制御情報」の一例に相当する。
情報処理装置100bは、情報処理装置100aから取得した画面データに基づき、自身に対応する領域R10bに、例えば、図5に示すような表示画面を示す画像v10を表示させる。また、情報処理装置100bは、情報処理装置100aから取得した中間データに基づき、領域R10bに表示された表示画面上に、情報処理装置100aにより検出された領域R10a上の実オブジェクトを示す表示情報を重畳表示させる。
例えば、図7は、情報処理装置100bが、領域R10bに表示させる画像v30の一例、即ち、表示画面上に、情報処理装置100aにより検出された領域R10a上の実オブジェクトを示す表示情報を重畳表示させた画像の一例を示している。図7において、参照符号v21及びv21は、図4に示す例において、領域R10a上に存在する操作体u21及びu23を示す表示情報(例えば、画像)の一例を示している。また、参照符号v25及びv27は、図4に示す例において、領域R10a上に存在する実オブジェクトb25及びb27を示す表示情報の一例を示している。
なお、情報処理装置100bは、取得した中間データが示す実オブジェクト(即ち、R10a上に存在する実オブジェクト)のうち、一部については、表示情報の表示を制限してもよい。例えば、図7に示す例では、情報処理装置100bは、図4に示した領域R10a上に存在する実オブジェクトのうち、実オブジェクトb27を示す表示情報v27の表示を制限している。具体的な一例として、情報処理装置100bは、取得した中間データが示す実オブジェクトのうち、所定の条件を満たす実オブジェクトのみを表示対象とし、他の実オブジェクトについては、表示情報の表示を制限してもよい。また、他の一例として、情報処理装置100bは、ユーザ操作に基づき指定された実オブジェクトについては、表示情報の表示を制限してもよい。なお、実オブジェクトに対応する表示情報の表示の制限に係る動作の詳細については、変形例としても別途後述する。
また、情報処理装置100bは、領域R10a上に存在する実オブジェクトを示す表示情報v21~v27を領域R10b上に表示できれば、当該表示情報の表示態様は特に限定されない。具体的な一例として、情報処理装置100bは、図7に示すように、表示情報v21~v27を、領域R10a上の対応する実オブジェクトの画像として領域R10b上に表示させてもよい。また、他の一例として、情報処理装置100bは、表示情報v21~v27を、領域R10a上の対応する実オブジェクトの領域を示す表示情報(例えば、影)として表示してもよい。
また、情報処理装置100aから送信される中間データの内容は、情報処理装置100bが所望の表示態様で領域R10b上に実オブジェクトを示す表示情報を表示させることが可能であれば、特に限定されない。例えば、情報処理装置100bが、実オブジェクトを示す表示情報として、当該実オブジェクトの領域を示す表示情報(例えば、影)を表示する場合には、情報処理装置100aは、当該実オブジェクトの領域を示すベクトル情報を中間データとして送信してもよい。
また、情報処理装置100bは、自身に対応する領域R10bに存在する実オブジェクトを検出し、当該実オブジェクトを示す表示情報を表示させるための中間データを、情報処理装置100aに送信してもよい。この場合には、情報処理装置100aは、情報処理装置100bから取得した中間データに基づき、領域R10aに表示された表示画面上に、情報処理装置100bにより検出された領域R10b上の実オブジェクトを示す表示情報を重畳表示させてもよい。
また、情報処理装置100bは、領域R10bに表示された各種表示情報(例えば、図7に示した、表示オブジェクトv11及びv13や、表示情報v21~v27)に対する操作を受けて、当該操作の内容を示す操作情報を情報処理装置100aに送信してもよい。この場合には、情報処理装置100aは、情報処理装置100bから取得した操作情報に基づき、情報処理装置100a及び100b間で共有する表示画面(例えば、図5に示した表示画面を示す画像v10)を更新してもよい。
以上のような構成により、本実施形態に係る情報処理システム1に依れば、複数の情報処理装置100間(例えば、ネットワークn11を介して接続された遠隔地間)において、表示画面と、一方の作業空間に存在する実オブジェクトを示す情報とを、好適な態様で共有することが可能となる。
以上、図4~図7を参照して、本開示の一実施形態に係る情報処理システム1による、複数の情報処理装置100間で、画面として表示された表示情報と、実オブジェクトの情報とを共有可能とするための制御の概要について説明した。なお、以降では、本開示の一実施形態に係る情報処理システム1についてさらに詳しく説明する。
<2.システム構成>
まず、図8を参照して、本開示の一実施形態に係る情報処理システム1の概略的なシステム構成の一例について説明する。図8は、本開示の一実施形態に係る情報処理システム1の概略的なシステム構成の一例について説明するための説明図である。
まず、図8を参照して、本開示の一実施形態に係る情報処理システム1の概略的なシステム構成の一例について説明する。図8は、本開示の一実施形態に係る情報処理システム1の概略的なシステム構成の一例について説明するための説明図である。
図8に示す例では、情報処理システム1は、複数の情報処理装置100のうち、いずれかの情報処理装置100がマスターとして動作し、マスターとして動作する情報処理装置100以外の他の情報処理装置100がスレーブとして動作する。具体的な一例として、図8に示す例では、情報処理装置100a及び100bのうち、情報処理装置100aがマスターとして動作し、情報処理装置100bがスレーブとして動作している。
図8に示したシステム構成の場合には、マスターとして動作する情報処理装置100aが、情報処理装置100a及び100b間で共有する表示画面の生成及び更新を行う。
具体的には、情報処理装置100aは、情報処理装置100a及び100b間で共有する表示画面を生成し、生成した表示画面を領域R10aに表示させるとともに、当該表示画面を表示するための画面データを、スレーブとして動作する情報処理装置100bに送信する。情報処理装置100bは、情報処理装置100aから取得した画面データに基づき、表示画面を領域R10bに表示させる。これにより、領域R10aと領域R10bとに、情報処理装置100a及び100b間で共通の表示画面が表示される。
また、図8に示す例では、情報処理装置100aは、自身の入力部110により撮像された領域R10aの画像を解析し、当該解析結果に基づき、領域R10a上に存在する実オブエジェク(例えば、操作体や他の物体)を検出する。情報処理装置100aは、検出された実オブジェクトを示す表示情報を表示させるための中間データ(換言すると、実オブジェクトの情報)を生成し、生成した中間データを、他の情報処理装置100bに送信する。情報処理装置100bは、情報処理装置100aから取得した中間データに基づき、領域R10a上に存在する実オブジェクトを示す表示情報を、領域R10bに表示された表示画面上に重畳表示させる。
同様に、情報処理装置100bは、自身の入力部110により撮像された領域R10bの画像を解析し、当該解析結果に基づき、領域R10b上に存在する実オブエジェクを検出する。情報処理装置100bは、検出された実オブジェクトを示す表示情報を表示させるための中間データを生成し、生成した中間データを、他の情報処理装置100aに送信する。情報処理装置100aは、情報処理装置100bから取得した中間データに基づき、領域R10b上に存在する実オブジェクトを示す表示情報を、領域R10aに表示された表示画面上に重畳表示させる。
また、マスターとして動作する情報処理装置100aは、領域R10a及びR10bそれぞれに表示された表示画面に対するユーザ操作を受けて、当該操作の内容に基づき表示画面を更新する。
具体的には、マスターとして動作する情報処理装置100aは、自身の入力部110により撮像された領域R10aの画像を解析し、当該解析結果に基づき、当該領域R10aに表示された表示画面に対するユーザ操作の内容を認識する。
同様に、スレーブとして動作する情報処理装置100bは、自身の入力部110により撮像された領域R10bの画像を解析し、当該解析結果に基づき、当該領域R10bに表示された表示画面に対するユーザ操作の内容を認識する。そして、情報処理装置100bは、認識した操作内容を示す操作情報を、マスターとして動作する情報処理装置100aに送信する。これにより、情報処理装置100aは、領域R10bに表示された表示画面に対するユーザ操作の内容を認識することが可能となる。
以上のようにして、マスターとして動作する情報処理装置100aは、領域R10a及びR10bそれぞれに表示された表示画面に対するユーザ操作の操作内容を認識し、認識した操作内容に基づき、情報処理装置100a及び100b間で共有する表示画面を更新する。そして、情報処理装置100aは、更新した表示画面により、領域R10aに表示された表示画面を更新するとともに、当該表示画面を表示するための画面データを、スレーブとして動作する情報処理装置100bに送信する。情報処理装置100bは、情報処理装置100aから取得した画面データに基づき、領域R10bに表示された表示画面を更新する。
以上のような構成により、本実施形態に係る情報処理システム1に依れば、情報処理装置100a及び100b間において、共有する表示画面と、各作業空間に存在する実オブジェクトを示す情報とを、好適な態様で共有することが可能となる。以上、図8を参照して、本開示の一実施形態に係る情報処理システム1の概略的なシステム構成の一例について説明した。
<3.機能構成>
次に、図9を参照して、本開示の一実施形態に係る情報処理システム1の機能構成の一例について説明する。図9は、本開示の一実施形態に係る情報処理システム1の機能構成の一例について示したブロック図である。なお、本説明では、情報処理システム1は、図8に示すように、情報処理装置100a及び100bのうち、情報処理装置100aがマスターとして動作し、情報処理装置100bがスレーブとして動作するように構成されているものとして説明する。なお、本説明では、情報処理装置100a及び100bを特に区別しない場合には、単に「情報処理装置100」と記載する場合がある。
次に、図9を参照して、本開示の一実施形態に係る情報処理システム1の機能構成の一例について説明する。図9は、本開示の一実施形態に係る情報処理システム1の機能構成の一例について示したブロック図である。なお、本説明では、情報処理システム1は、図8に示すように、情報処理装置100a及び100bのうち、情報処理装置100aがマスターとして動作し、情報処理装置100bがスレーブとして動作するように構成されているものとして説明する。なお、本説明では、情報処理装置100a及び100bを特に区別しない場合には、単に「情報処理装置100」と記載する場合がある。
図9に示すように、情報処理装置100aは、入力部110と、制御部120aと、出力部130とを含む。また、情報処理装置100bは、入力部110と、制御部120bと、出力部130とを含む。なお、情報処理装置100a及び100b間において、入力部110及び出力部130の構成は同様である。また、図9に示すように、情報処理装置100aの制御部120aと、情報処理装置100bの制御部120bとは、厳密には機能構成が異なるが、制御部120a及び120bを特に区別にしない場合には、単に「制御部120」と記載する場合がある。
入力部110は、情報処理装置100を使用するユーザの情報処理装置100に対する操作内容や、出力部130が情報を出力する面(例えば、図2に示したテーブル140の天面等の領域R10)に置かれている物体の形状や模様などを示す情報を取得するための構成である。情報処理装置100を使用するユーザの情報処理装置100に対する操作内容には、情報処理装置100が情報の表示面に出力する表示画面(例えば、GUI)に対する操作内容を含む。
例えば、入力部110に含まれる撮像部111は、情報処理装置100がプロジェクション型の場合に、ユーザの情報処理装置100に対する操作内容や、領域R10に置かれている物体の形状や模様などを示す情報を、画像情報として取得する。具体的には、撮像部111は、例えば、領域R10の画像を撮像し、撮像した画像を後述する制御部120に出力する。なお、撮像部111は、例えば、1つの撮像光学系で構成されるカメラや、2つの撮像光学系で構成されるステレオカメラ等により構成され得る。
また、入力部110は、マイク等の集音デバイスにより構成され得る、ユーザが発する音声や、周囲の環境の環境音等の音響情報を、入力情報として集音するための構成を含んでもよい。
制御部120aは、通信部121と、画像解析部123と、入力解析部125と、画面更新部127と、表示制御部129aとを含む。また、制御部120bは、通信部121と、画像解析部123と、入力解析部125と、表示制御部129bとを含む。
まず、制御部120aの、通信部121、画像解析部123、及び入力解析部125について説明する。
通信部121は、制御部120a内の各構成が、ネットワークn11を介して、外部の情報処理装置100bと通信を行うための通信インタフェースである。ネットワークn11は、例えば、インターネット、専用線、LAN(Local Area Network)、または、WAN(Wide Area Network)等により構成され得る。また、ネットワークn11は、無線のネットワークとして構成されていてもよいし、有線のネットワークとして構成されていてもよい。即ち、異なる装置間を接続するネットワークであれば、ネットワークn11の態様は特に限定されない。なお、以降の説明では、制御部120a内の各構成が、ネットワークn11を介して、外部の情報処理装置100bとの間で情報の送受信を行う場合には、特に設営が無い場合においても、当該通信部121を介して当該情報の送受信を行うものとする。
画像解析部123は、撮像部111により撮像された領域R10aの画像を取得し、当該画像を解析することで、領域R10aに存在する手等の操作体や、領域R10aに置かれている物体等の実オブジェクトを検出する。なお、このとき画像解析部123は、領域R10aに存在する実オブジェクトのうち、所定の条件を満たす実オブジェクトのみを対象として検出してもよい。具体的な一例として、画像解析部123は、検出された実オブジェクトのうち、動作する実オブジェクト(即ち、動体)のみを検出してもよい。また、他の一例として、画像解析部123は、検出された実オブジェクトのうち、所定の形状特徴を有する実オブジェクトのみを検出してもよい。
画像解析部123は、検出された領域R10a中の実オブジェクトを示す制御情報(即ち、中間データ)を、入力解析部125に出力するとともに、ネットワークn11を介して、外部の情報処理装置100bに送信する。なお、中間データは、領域R10a中の実オブジェクトの画像情報であってもよい。また、他の一例として、中間データは、例えば、領域R10a中の実オブジェクトに対応する領域の位置、向き、または範囲等を示すベクトル情報のように、領域R10a中の実オブジェクトに対応する領域を示す表示情報を表示させる(もしくは、形成する)ための制御情報であってもよい。
入力解析部125は、画像解析部123から、検出された領域R10a中の実オブジェクトを示す中間データを取得する。入力解析部125は、取得した中間データに基づき、検出された領域R10a中の実オブジェクト中から、所定の条件を満たす実オブジェクトを操作体として特定する。具体的な一例として、入力解析部125は、検出された実オブジェクトのうち、所定の形状特徴を有する実オブジェクト(例えば、手等)を、操作体として特定する。なお、入力解析部125は、例えば、手を操作体として特定する場合においても、手が特定の形状となった場合(例えば、指で物を指定する形状となった場合)にのみ、その手を操作体として認識することも可能である。また、他の一例として、入力解析部125は、検出された実オブジェクトのうち、動作する実オブジェクト(即ち、動体)を、操作体として特定してもよい。
入力解析部125は、操作体として特定した実オブジェクトの位置や動きに基づき、当該操作体によるユーザ操作の対象や、当該ユーザ操作の内容を特定する。なお、このとき、情報を表示する領域R10の座標と、ユーザの手等の操作体の領域R10への接触座標とが一致するように予め校正されることで、例えば、入力解析部125は、操作体が、表示画面(例えば、GUI)のどの部分に接触したかを検出することが可能となる。
以上のようにして、入力解析部125は、領域R10a中の手等の操作体によるユーザ操作の内容(具体的には、操作対象や、当該操作の種別)を特定し、特定したユーザ操作の内容を示す操作情報を画面更新部127に出力する。
次に、制御部120bの、通信部121、画像解析部123、及び入力解析部125について説明する。
制御部120bにおける通信部121及び画像解析部123は、前述した制御部120aにおける通信部121及び画像解析部123と同様である。
即ち、制御部120bの通信部121は、制御部120b内の各構成が、ネットワークn11を介して、外部の情報処理装置100aと通信を行うための通信インタフェースである。なお、以降の説明では、制御部120b内の各構成が、ネットワークn11を介して、外部の情報処理装置100aとの間で情報の送受信を行う場合には、特に設営が無い場合においても、当該通信部121を介して当該情報の送受信を行うものとする。
また、制御部120bの画像解析部123は、撮像部111により撮像された領域R10bの画像を取得し、当該画像を解析することで、領域R10bに存在する手等の操作体や領域R10bに置かれている物体等の実オブジェクトを検出する。そして、画像解析部123は、検出された領域R10b中の実オブジェクトを示す中間データを、制御部120bの入力解析部125に出力するとともに、ネットワークn11を介して、外部の情報処理装置100aに送信する。
また、制御部120bの入力解析部125は、画像解析部123から取得した中間データに基づき操作体を特定し、当該操作体によるユーザ操作の内容(即ち、操作対象や、当該操作の種別)を特定する動作については、前述した制御部120aの入力解析部125と同様である。
即ち、入力解析部125は、画像解析部123から、検出された領域R10b中の実オブジェクトを示す中間データを取得する。入力解析部125は、取得した中間データに基づき、検出された領域R10b中の実オブジェクト中から、所定の条件を満たす実オブジェクトを操作体として特定する。
そして、制御部120bの入力解析部125は、特定した操作体の位置や動きに基づき、領域R10b中の当該操作体によるユーザ操作の内容(具体的には、操作対象や、当該操作の種別)を特定し、特定したユーザ操作の内容を示す操作情報を、ネットワークn11を介して情報処理装置100aに送信する。
次に、制御部120aの画面更新部127及び表示制御部129aと、制御部120bの表示制御部129bと、各情報処理装置100の出力部130とについて説明する。
画面更新部127は、情報処理装置100a及び100b間で共有する表示画面の生成及び更新を行うための構成である。
具体的には、画面更新部127は、各種アプリケーションの動作状況に基づき、情報処理装置100a及び100b間で共有する表示画面を生成する。画面更新部127は、生成した表示画面を表示制御部129aに出力するとともに、当該表示画面を表示するための画面データを、ネットワークn11を介して外部の情報処理装置100bに送信する。なお、画面データは、例えば、表示画面を示す画像情報であってもよい。また、他の一例として、画面データは、表示画面中の表示オブジェクトの位置、向き、または範囲等を示すベクトル情報のように、表示画面を表示させる(もしくは、形成する)ための制御情報であってもよい。
また、画面更新部127は、領域R10a及びR10bそれぞれに表示された表示画面に対するユーザ操作を受けて、当該操作の内容に基づき表示画面を更新する。
具体的には、画面更新部127は、領域R10aに表示された表示画面に対するユーザ操作の内容を示す操作情報を、入力解析部125から取得する。即ち、画面更新部127は、入力解析部125から取得した操作情報に基づき、領域R10aに表示された表示画面に対するユーザ操作の内容(具体的には、操作対象や、当該操作の種別)を認識する。
また、画面更新部127は、情報処理装置100bにおいて同様に生成された、領域R10bに表示された表示画面に対するユーザ操作の内容を示す操作情報を、ネットワークn11を介して当該情報処理装置100bから取得する。
以上のようにして、画面更新部127は、領域R10a及びR10bそれぞれに表示された表示画面に対するユーザ操作の操作内容を認識し、認識した操作内容に基づき、情報処理装置100a及び100b間で共有する表示画面を更新する。そして、画面更新部127は、更新した表示画面を表示制御部129aに出力するとともに、当該表示画面を表示するための画面データを、ネットワークn11を介して外部の情報処理装置100bに送信する。
表示制御部129aは、生成または更新された表示画面を、画面更新部127から取得する。また、表示制御部129aは、ネットワークn11を介して情報処理装置100bから、検出された領域R10b中の実オブジェクトを示す中間データを取得する。表示制御部129aは、取得した中間データに基づき、領域R10b中の実オブジェクトを示す表示情報を生成する。そして、表示制御部129aは、取得した表示画面に、生成した領域R10b中の実オブジェクトを示す表示情報を重畳させた画像を生成し、生成した当該画像を出力部130に出力させる。これにより、領域R10b中の実オブジェクトを示す表示情報が重畳された表示画面が、領域R10a上に表示される。
なお、このとき、表示制御部129aは、取得した中間データが示す実オブジェクトのうち、所定の条件を満たす実オブジェクトについてのみ、当該実オブジェクトを示す表示情報を生成してもよい。具体的な一例として、表示制御部129aは、中間データが示す実オブジェクトのうち、動作する実オブジェクト(即ち、動体)についてのみ表示情報を生成してもよい。また、他の一例として、表示制御部129aは、中間データが示す実オブジェクトのうち、所定の形状特徴を有する実オブジェクトについてのみ表示情報を生成してもよい。
また、表示制御部129bは、生成または更新された表示画面を表示するための画面データを、ネットワークn11を介して情報処理装置100aから取得する。また、表示制御部129bは、ネットワークn11を介して情報処理装置100aから、検出された領域R10a中の実オブジェクトを示す中間データを取得する。表示制御部129bは、取得した中間データに基づき、領域R10a中の実オブジェクトを示す表示情報を生成する。そして、表示制御部129bは、取得した画面データに基づく表示画面に、生成した領域R10a中の実オブジェクトを示す表示情報を重畳させた画像を生成し、生成した当該画像を出力部130に出力させる。これにより、領域R10a中の実オブジェクトを示す表示情報が重畳された表示画面が、領域R10b上に表示される。
なお、以降では、表示制御部129a及び129bを特に区別しない場合には、単に「表示制御部129」と記載する場合がある。また、本構成においては、表示制御部129a及び129bのそれぞれが生成する画像(即ち、画面データに基づく表示画面に、実オブジェクトを示す表示情報を重畳させた画像)が、「第2の制御情報」の一例に相当する。
出力部130は、入力部110によって入力された操作内容や、当該出力部130が出力している情報の内容、また出力部130が情報を出力する領域R10上の実オブジェクトの情報に応じて制御部120が生成した情報を出力する。
例えば、出力部130に含まれる映像出力部131は、表示オブジェクトが提示された画面(GUI)等の表示情報を出力するための構成である。情報処理装置100がプロジェクション型として構成されている場合には、映像出力部131は、例えば、所望の投影面(即ち、領域R10)に向けて表示情報を投影するためのプロジェクタにより構成され得る。
また、出力部130は、スピーカ等の音響デバイスにより構成され得る、効果音、音楽、音声等のような音響情報を、出力情報として出力するための構成を含んでもよい。
以上、図9を参照して、本開示の一実施形態に係る情報処理システム1の機能構成の一例について説明した。
<4.処理>
次に、図10~図12を参照して、本開示の一実施形態に係る情報処理システム1の一連の処理の流れの一例について説明する。図10~図12は、本開示の一実施形態に係る情報処理システム1の一連の処理の流れの一例について示したフローチャートである。なお、本説明では、情報処理装置100a及び100bによる「中間データの生成及び送信」と、情報処理装置100aによる「表示画面の更新及び出力」と、情報処理装置100bによる「表示画面の取得及び出力」とに分けて、各処理についてそれぞれ説明する。
次に、図10~図12を参照して、本開示の一実施形態に係る情報処理システム1の一連の処理の流れの一例について説明する。図10~図12は、本開示の一実施形態に係る情報処理システム1の一連の処理の流れの一例について示したフローチャートである。なお、本説明では、情報処理装置100a及び100bによる「中間データの生成及び送信」と、情報処理装置100aによる「表示画面の更新及び出力」と、情報処理装置100bによる「表示画面の取得及び出力」とに分けて、各処理についてそれぞれ説明する。
[4.1.中間データの生成及び送信]
まず、図10を参照して、情報処理装置100a及び100bのそれぞれが、中間データを生成し、生成した中間データを外部の情報処理装置100に送信する処理の流れの一例について説明する。なお、本説明では、情報処理装置100aの動作に着目して説明するが、情報処理装置100bについても同様であるものとする。
まず、図10を参照して、情報処理装置100a及び100bのそれぞれが、中間データを生成し、生成した中間データを外部の情報処理装置100に送信する処理の流れの一例について説明する。なお、本説明では、情報処理装置100aの動作に着目して説明するが、情報処理装置100bについても同様であるものとする。
(ステップS101)
情報処理装置100aの入力部110に含まれる撮像部111は、領域R10aの画像を撮像し、撮像した画像を制御部120aに出力する。なお、撮像部111が領域R10aの画像を撮像するタイミングや、撮像した画像を制御部120aに出力するタイミングは特に限定されない。具体的な一例として、撮像部111は、所定のタイミングごとに領域R10aの画像を撮像し、撮像した画像を制御部120aに逐次出力してもよい。また、他の一例として、撮像部111は、所定の処理をトリガとして領域R10aの画像を撮像し、撮像した画像を制御部120aに出力してもよい。
情報処理装置100aの入力部110に含まれる撮像部111は、領域R10aの画像を撮像し、撮像した画像を制御部120aに出力する。なお、撮像部111が領域R10aの画像を撮像するタイミングや、撮像した画像を制御部120aに出力するタイミングは特に限定されない。具体的な一例として、撮像部111は、所定のタイミングごとに領域R10aの画像を撮像し、撮像した画像を制御部120aに逐次出力してもよい。また、他の一例として、撮像部111は、所定の処理をトリガとして領域R10aの画像を撮像し、撮像した画像を制御部120aに出力してもよい。
(ステップS103)
画像解析部123は、撮像部111により撮像された領域R10aの画像を取得し、当該画像を解析することで、領域R10aに存在する手等の操作体や領域R10aに置かれている物体等の実オブジェクトを検出する。
画像解析部123は、撮像部111により撮像された領域R10aの画像を取得し、当該画像を解析することで、領域R10aに存在する手等の操作体や領域R10aに置かれている物体等の実オブジェクトを検出する。
(ステップS105)
画像解析部123は、検出結果に基づき、検出された領域R10a中の実オブジェクトを示す中間データを生成する。なお、中間データは、領域R10a中の実オブジェクトの画像情報であってもよい。また、他の一例として、中間データは、例えば、領域R10a中の実オブジェクトに対応する領域の位置、向き、または範囲等を示すベクトル情報のように、領域R10a中の実オブジェクトを示す表示情報を表示させる(もしくは、形成する)ための制御情報であってもよい。
画像解析部123は、検出結果に基づき、検出された領域R10a中の実オブジェクトを示す中間データを生成する。なお、中間データは、領域R10a中の実オブジェクトの画像情報であってもよい。また、他の一例として、中間データは、例えば、領域R10a中の実オブジェクトに対応する領域の位置、向き、または範囲等を示すベクトル情報のように、領域R10a中の実オブジェクトを示す表示情報を表示させる(もしくは、形成する)ための制御情報であってもよい。
(ステップS107)
そして、画像解析部123は、生成した中間データを入力解析部125に出力するとともに、当該中間データを、ネットワークn11を介して、外部の情報処理装置100bに送信する。
そして、画像解析部123は、生成した中間データを入力解析部125に出力するとともに、当該中間データを、ネットワークn11を介して、外部の情報処理装置100bに送信する。
なお、前述した通り、情報処理装置100bの同処理についても上記に示した内容と同様である。即ち、情報処理装置100b中の画像解析部123は、撮像部111により撮像された領域R10bの画像に基づき、当該領域R10b中の実オブジェクトを示す中間データを生成する。そして、当該画像解析部123は、生成した中間データを入力解析部125に出力するとともに、当該中間データを、ネットワークn11を介して、外部の情報処理装置100aに送信する。
以上、図10を参照して、情報処理装置100a及び100bのそれぞれが、中間データを生成し、生成した中間データを外部の情報処理装置100に送信する処理の流れの一例について説明した。
[4.2.表示画面の更新及び出力]
次に、図11を参照して、情報処理装置100aが、表示画面を生成または更新し、当該表示画面を出力する処理の流れの一例について説明する。
次に、図11を参照して、情報処理装置100aが、表示画面を生成または更新し、当該表示画面を出力する処理の流れの一例について説明する。
(ステップS201)
入力解析部125は、画像解析部123から、検出された領域R10a中の実オブジェクトを示す中間データを取得する。入力解析部125は、取得した中間データに基づき、検出された領域R10a中の実オブジェクト中から、所定の条件を満たす実オブジェクトを操作体として特定する。そして、入力解析部125は、操作体として特定した実オブジェクトの位置や動きに基づき、当該操作体によるユーザ操作の対象や、当該ユーザ操作の内容を特定する。
入力解析部125は、画像解析部123から、検出された領域R10a中の実オブジェクトを示す中間データを取得する。入力解析部125は、取得した中間データに基づき、検出された領域R10a中の実オブジェクト中から、所定の条件を満たす実オブジェクトを操作体として特定する。そして、入力解析部125は、操作体として特定した実オブジェクトの位置や動きに基づき、当該操作体によるユーザ操作の対象や、当該ユーザ操作の内容を特定する。
以上のようにして、入力解析部125は、領域R10a中の手等の操作体によるユーザ操作の内容(具体的には、操作対象や、当該操作の種別)を特定し、特定したユーザ操作の内容を示す操作情報を画面更新部127に出力する。
画面更新部127は、領域R10aに表示された表示画面に対するユーザ操作の内容を示す操作情報を、入力解析部125から取得する。即ち、画面更新部127は、入力解析部125から取得した操作情報に基づき、領域R10aに表示された表示画面に対するユーザ操作の内容(具体的には、操作対象や、当該操作の種別)を認識する。
また、画面更新部127は、情報処理装置100bにおいて同様に生成された、領域R10bに表示された表示画面に対するユーザ操作の内容を示す操作情報を、ネットワークn11を介して当該情報処理装置100bから取得する。
以上のようにして、画面更新部127は、領域R10a及びR10bそれぞれに表示された表示画面に対するユーザ操作の操作内容を認識する。
(ステップS203)
画面更新部127は、領域R10a及びR10bそれぞれに表示された表示画面に対するユーザ操作の操作内容の認識結果に基づき、情報処理装置100a及び100b間で共有する表示画面を更新する。そして、画面更新部127は、更新した表示画面を表示制御部129aに出力するとともに、当該表示画面を表示するための画面データを、ネットワークn11を介して外部の情報処理装置100bに送信する。
画面更新部127は、領域R10a及びR10bそれぞれに表示された表示画面に対するユーザ操作の操作内容の認識結果に基づき、情報処理装置100a及び100b間で共有する表示画面を更新する。そして、画面更新部127は、更新した表示画面を表示制御部129aに出力するとともに、当該表示画面を表示するための画面データを、ネットワークn11を介して外部の情報処理装置100bに送信する。
(ステップS205)
表示制御部129aは、ネットワークn11を介して情報処理装置100bから、検出された領域R10b中の実オブジェクトを示す中間データを取得する。表示制御部129aは、取得した中間データに基づき、領域R10b中の実オブジェクトを示す表示情報を生成する。
表示制御部129aは、ネットワークn11を介して情報処理装置100bから、検出された領域R10b中の実オブジェクトを示す中間データを取得する。表示制御部129aは、取得した中間データに基づき、領域R10b中の実オブジェクトを示す表示情報を生成する。
(ステップS207)
また、表示制御部129aは、生成または更新された表示画面を、画面更新部127から取得する。そして、表示制御部129aは、取得した表示画面に、生成した領域R10b中の実オブジェクトを示す表示情報を重畳させた画像を生成し、生成した当該画像を出力部130に出力させる。これにより、情報処理装置100a及び100b間で共有する表示画面に対して、領域R10b中の実オブジェクトを示す表示情報が重畳された画像が、領域R10a上に表示される。
また、表示制御部129aは、生成または更新された表示画面を、画面更新部127から取得する。そして、表示制御部129aは、取得した表示画面に、生成した領域R10b中の実オブジェクトを示す表示情報を重畳させた画像を生成し、生成した当該画像を出力部130に出力させる。これにより、情報処理装置100a及び100b間で共有する表示画面に対して、領域R10b中の実オブジェクトを示す表示情報が重畳された画像が、領域R10a上に表示される。
以上、図11を参照して、情報処理装置100aが、表示画面を生成または更新し、当該表示画面を出力する処理の流れの一例について説明した。
[4.3.表示画面の取得及び出力]
次に、図12を参照して、情報処理装置100bが、操作情報を情報処理装置100aに送信し、その結果として、情報処理装置100aにより生成または更新された表示画面を取得し、当該表示画面を出力する処理の流れの一例について説明する。
次に、図12を参照して、情報処理装置100bが、操作情報を情報処理装置100aに送信し、その結果として、情報処理装置100aにより生成または更新された表示画面を取得し、当該表示画面を出力する処理の流れの一例について説明する。
(ステップS301)
情報処理装置100bの入力解析部125は、画像解析部123から、検出された領域R10b中の実オブジェクトを示す中間データを取得する。入力解析部125は、取得した中間データに基づき、検出された領域R10b中の実オブジェクト中から、所定の条件を満たす実オブジェクトを操作体として特定する。
情報処理装置100bの入力解析部125は、画像解析部123から、検出された領域R10b中の実オブジェクトを示す中間データを取得する。入力解析部125は、取得した中間データに基づき、検出された領域R10b中の実オブジェクト中から、所定の条件を満たす実オブジェクトを操作体として特定する。
そして、制御部120bの入力解析部125は、特定した操作体の位置や動きに基づき、領域R10b中の当該操作体によるユーザ操作の内容(具体的には、操作対象や、当該操作の種別)を特定し、特定したユーザ操作の内容を示す操作情報を、ネットワークn11を介して情報処理装置100aに送信する。
(ステップS303)
表示制御部129bは、ネットワークn11を介して情報処理装置100aから、生成または更新された表示画面を表示するための画面データを取得する。なお、このとき取得された画面データが示す表示画面は、入力解析部125により情報処理装置100aに送信された操作情報に基づき更新された表示画面に相当し得る。
表示制御部129bは、ネットワークn11を介して情報処理装置100aから、生成または更新された表示画面を表示するための画面データを取得する。なお、このとき取得された画面データが示す表示画面は、入力解析部125により情報処理装置100aに送信された操作情報に基づき更新された表示画面に相当し得る。
(ステップS305)
また、表示制御部129bは、ネットワークn11を介して情報処理装置100aから、検出された領域R10a中の実オブジェクトを示す中間データを取得する。表示制御部129bは、取得した中間データに基づき、領域R10a中の実オブジェクトを示す表示情報を生成する。
また、表示制御部129bは、ネットワークn11を介して情報処理装置100aから、検出された領域R10a中の実オブジェクトを示す中間データを取得する。表示制御部129bは、取得した中間データに基づき、領域R10a中の実オブジェクトを示す表示情報を生成する。
(ステップS307)
そして、表示制御部129bは、取得した画面データに基づく表示画面に、生成した領域R10a中の実オブジェクトを示す表示情報を重畳させた画像を生成し、生成した当該画像を出力部130に出力させる。これにより、情報処理装置100a及び100b間で共有する表示画面に対して、領域R10a中の実オブジェクトを示す表示情報が重畳された画像が、領域R10b上に表示される。
そして、表示制御部129bは、取得した画面データに基づく表示画面に、生成した領域R10a中の実オブジェクトを示す表示情報を重畳させた画像を生成し、生成した当該画像を出力部130に出力させる。これにより、情報処理装置100a及び100b間で共有する表示画面に対して、領域R10a中の実オブジェクトを示す表示情報が重畳された画像が、領域R10b上に表示される。
以上、図12を参照して、情報処理装置100bが、操作情報を情報処理装置100aに送信し、その結果として、情報処理装置100aにより生成または更新された表示画面を取得し、当該表示画面を出力する処理の流れの一例について説明した。
<5.変形例>
次に、本開示の一実施形態に係る情報処理システム1の変形例について説明する。
次に、本開示の一実施形態に係る情報処理システム1の変形例について説明する。
[5.1.変形例1:識別情報の提示]
まず、変形例1に係る情報処理装置100について説明する。前述したように、本実施形態に係る情報処理装置100は、自身に対応する領域R10に、他の情報処理装置100と共有する表示画面と、当該他の情報処理装置100に対応する領域R10に存在する実オブジェクトを示す表示情報とを表示させる。即ち、領域R10には、表示画面中に表示された表示オブジェクトと、実オブジェクトを示す表示情報とが混在することとなる。
まず、変形例1に係る情報処理装置100について説明する。前述したように、本実施形態に係る情報処理装置100は、自身に対応する領域R10に、他の情報処理装置100と共有する表示画面と、当該他の情報処理装置100に対応する領域R10に存在する実オブジェクトを示す表示情報とを表示させる。即ち、領域R10には、表示画面中に表示された表示オブジェクトと、実オブジェクトを示す表示情報とが混在することとなる。
そこで、以下に変形例1として、図13を参照しながら、情報処理装置100が、表示画面中に表示された表示オブジェクトと、実オブジェクトを示す表示情報とを識別可能に提示する制御の一例について説明する。図13は、変形例1に係る情報処理装置100の概要について説明するための説明図であり、表示画面中に表示された表示オブジェクトと、実オブジェクトを示す表示情報とを識別可能に提示するための表示態様の一例について示している。
図13において、参照符号v11及びv13は、表示画面中に表示された表示オブジェクトを示している。また、参照符号v25及びv27は、実オブジェクトを示す表示情報を示している。即ち、図13は、表示画面上に、実オブジェクトを示す表示情報が重畳表示させた、領域R10に表示される画像v30の一例を示している。
即ち、図13に示す例では、情報処理装置100は、画像v30中に表示される情報のうち、実オブジェクトを示す表示情報v25及びv27に対して、当該表示情報v25及びv27の外縁を縁取るように、識別情報v45及びv47を表示させている。
このような構成により、ユーザは、提示された識別情報v45及びv47に基づき、領域R10に表示された表示画面(即ち、画像v30)中の、表示オブジェクトv11及びv13と、実オブジェクトを示す表示情報v25及びv27とを識別することが可能となる。
なお、表示画面中に表示された表示オブジェクトと、実オブジェクトを示す表示情報とが識別可能に提示されていれば、その態様は必ずしも図13に示す例には限定されない。具体的な一例として、情報処理装置100は、実オブジェクトを示す表示情報に対して、疑似的に影を表示させてもよい。これにより、ユーザは、領域R10に表示された表示画面に提示された各種情報のうち、影が表示された情報が、実オブジェクトを示す表示情報に相当するものと認識することが可能となる。
また、上記では、表示画面中の表示オブジェクトと、実オブジェクトを示す表示情報とのうち、実オブジェクトを示す表示情報に対して識別情報(例えば、縁取りや影)を付す例について説明したが、表示オブジェクト側に識別情報を付してもよいことは言うまでもない。
以上、変形例1として、図13を参照しながら、情報処理装置100が、表示画面中に表示された表示オブジェクトと、実オブジェクトを示す表示情報とを識別可能に提示する制御の一例について説明した。
[5.2.変形例2:実オブジェクト上への情報の投影]
次に、図14を参照して、変形例2に係る情報処理システム1について説明する。図14は、変形例2に係る情報処理システム1の概要について説明するための説明図である。
次に、図14を参照して、変形例2に係る情報処理システム1について説明する。図14は、変形例2に係る情報処理システム1の概要について説明するための説明図である。
変形例2に係る情報処理システム1では、一方の情報処理装置100に対応する領域R10に表示された実オブジェクトを示す表示情報へのユーザ操作に対するインタラクションを、他方の領域に配置された当該実オブジェクト(物体)上にも投影する。
例えば、図14に示す例では、情報処理装置100aに対応する領域R10a上に、実オブジェクトb25(紙媒体の書類)が配置されている。また、情報処理装置100bに対応する領域R10bには、領域R10に存在する実オブジェクトb25に対応する表示情報v25が表示されている。
ここで、図14の上側の図に示すように、領域R10bに表示された表示情報v25へのユーザ操作に対するインタラクションとして、情報処理装置100bが、当該表示情報v25上に、表示情報v51b及びv52bを表示させたものとする。このとき、本実施形態に係る情報処理システム1では、図14の下側の図に示すように、情報処理装置100aは、領域R10bに表示されたに表示情報v51b及びv52bに対応するに表示情報v51a及びv52aを、実オブジェクトb25上に投影する。
具体的には、情報処理装置100bは、表示情報v25に対するユーザ操作の内容に応じて、表示情報v51b及びv52bを領域R10b中の当該表示情報v25上に表示させるとともに、当該ユーザ操作の内容(例えば、操作対象や操作の種別)を示す操作情報を情報処理装置100aに送信する。
そして、情報処理装置100aは、情報処理装置100bから取得した操作情報が示す操作の内容に応じて、表示情報v51b及びv52bに対応する表示情報v51a及びv52aを、領域R10aに配置された実オブジェクトb25上に投影する。
即ち、変形例2に係る情報処理システム1に依れば、一方の領域において、他方の領域側に存在する紙媒体の資料に対応する表示情報に対して書き込みが施された場合に、当該他方領域側に実体として存在する紙媒体上にも、当該書き込みの内容が投影される。このような構成により、各ユーザは、遠隔地間において、共有された表示画面上の情報(例えば、表示オブジェクト)のみならず、一方の作業空間に存在する媒体(即ち、紙媒体の資料等のような実オブジェクト)を介した情報共有を円滑に進めることが可能となる。
以上、図14を参照して、変形例2に係る情報処理システム1について説明した。
[5.3.変形例3:実オブジェクトを示す表示情報の表示制御]
次に、変形例3として、本実施形態に係る情報処理システム1における、実オブジェクトを示す表示情報の表示制御の一例について説明する。なお、本説明では、情報処理システム1は、情報処理装置100a及び100bを含み、情報処理装置100bが、情報処理装置100a側の領域R10aに存在する実オブジェクトを示す表示情報を、自身に対応する領域R10bに表示させるものとして説明する。
次に、変形例3として、本実施形態に係る情報処理システム1における、実オブジェクトを示す表示情報の表示制御の一例について説明する。なお、本説明では、情報処理システム1は、情報処理装置100a及び100bを含み、情報処理装置100bが、情報処理装置100a側の領域R10aに存在する実オブジェクトを示す表示情報を、自身に対応する領域R10bに表示させるものとして説明する。
例えば、図15は、変形例3に係る情報処理システム1の一態様について説明するための説明図である。図15に示す例では、情報処理装置100a側の領域R10aに実オブジェクトb25が存在しており、情報処理装置100bは、当該実オブエジェクを示す表示情報を、自身に対応する領域R10bに表示させている。このとき、情報処理装置100bは、実オブジェクトb25を示す表示情報の表示位置を移動したり、当該表示情報を複製または変形できるように提示してもよい。
例えば、図15において、参照符号v251、v252は、実オブエジェクとb25を示す表示情報の一例を示している。また、参照符号v25’は、領域R10a中の実オブジェクトb25が存在する位置に対応する、領域R10b中の位置を示している。
図15に示すように、情報処理装置100bは、例えば、ユーザ操作に応じて、参照符号v25’の位置に提示された実オブジェクトb25を示す表示情報の複製として、表示情報v251及びv252を、領域R10bに表示させてもよい。また、このとき情報処理装置100bは、表示情報v251として示すように、実際の実オブジェクトb25とは異なる大きさで、当該実オブジェクトb25を示す表示情報を拡大または縮小して表示させてもよい。また、情報処理装置100bは、表示情報v252として示すように、実際の実オブジェクトb25とは異なる向きで、当該実オブジェクトb25を示す表示情報を表示させてもよい。
また、情報処理装置100bは、実オブジェクトb25を示す表示情報の表示位置を移動した場合には、参照符号v25’に示すように、領域R10a側における実オブジェクトb25が存在する位置を示す提示情報を、領域R10b側に別途提示してもよい。なお、情報処理装置100bは、領域R10a側の実オブジェクトb25の位置が移動した場合に、実オブジェクトb25が存在する位置を示す提示情報の表示位置を、領域R10a側における実オブジェクトb25の移動に追従するように制御するとよい。なお、このとき、情報処理装置100bは、複製として表示させた実オブジェクトb25を示す表示情報v251及びv252の位置は、必ずしも移動させなくてもよい。
また、情報処理装置100bは、表示情報v251及びv252のいずれか一方に対してユーザ操作が行われた場合に、当該ユーザ操作に対するインタラクションを他方にも反映してもよい。具体的な一例として、情報処理装置100bは、表示情報v251へのユーザ操作を受け付けた場合に、当該ユーザ操作に対するインタラクションを当該表示情報v251に加えて、表示情報v252にも反映してもよい。また、このとき情報処理装置100aは、実施例2として前述した例と同様に、表示情報v251へのユーザ操作に対するインタラクションを、実オブジェクトb25上に投影してもよい。
また、情報処理装置100bは、実オブジェクトを示す表示情報の表示及び非表示を制御できるように構成されていてもよい。例えば、図16は、変形例3に係る情報処理システム1の他の一態様について説明するための説明図である。図16に示す例では、情報処理装置100bは、ユーザ操作を受けて、領域R10bへの、実オブジェクトb25を示す表示情報v25の表示を一時的に制限している(即ち、非表示としている)。
なお、このとき、情報処理装置100aは、情報処理装置100bから、実オブジェクトb25を示す表示情報v25の表示状態を示す情報を取得し、当該表示状態を示す表示情報v61を、対応する実オブジェクトb25に関連付けて表示させてもよい。
また、情報処理装置100bは、図16に示すように、非表示となった表示情報v25を再度表示させるためのUIv63を提示してもよい。この場合には、情報処理装置100bは、UIv63に対する操作を受けて、非表示となった表示情報v25を再度表示させればよい。
また、情報処理システム1は、領域R10b側に表示された、実オブジェクトb25を示す表示情報v25の表示態様を、当該実オブジェクトb25が存在する領域R10a側からの操作に基づき制御できるように構成されていてもよい。
例えば、図17は、変形例3に係る情報処理システム1の他の一態様について説明するための説明図である。図17に示す例では、図17の上側の図に示すように、情報処理装置100aは、ユーザ操作を受けて、領域R10b側に表示される表示情報v25の表示態様を制御するためのUIv71を、当該表示情報v25に対応する実オブジェクトb25に関連付けて表示している。
この場合には、情報処理装置100aは、UIv71に対するユーザ操作を受けて、当該ユーザ操作に基づき指定された態様に基づく表示情報v25の表示制御を情報処理装置100bに指示してもよい。具体的な一例として、UIv71を介した操作により、ユーザから表示情報v25の「非表示」が指定された場合には、情報処理装置100aは、表示情報v25を非表示とするように情報処理装置100bに指示する。この指示を受けて、情報処理装置100bは、図17の下側の図に示すように、領域R10bへの表示情報v25の表示を制限すればよい。
また、UIv71に対する操作に基づく表示情報v25の表示制御は、当該表示情報v25の表示及び非表示には限定されず、例えば、当該表示情報v25の表示態様の切り替えも含み得る。具体的な一例として、情報処理システム1は、UIv71に対する操作に基づき、表示情報v25を実オブジェクトb25の画像として表示する表示態様と、当該実オブジェクトb25の領域のみを表示する(即ち、影として表示する)表示態様とを切り替えられるように構成されていてもよい。
また、領域R10a側に提示されたUIv71に対するユーザ操作に基づき、領域R10bに表示された表示情報v25の表示を制御できれば、当該表示制御の方法は特に限定されない。例えば、情報処理装置100aは、UIv71に対するユーザ操作に基づき、情報処理装置100bへの、表示情報v25を表示するための中間データの送信を制御してもよい。具体的な一例として、UIv71を介した操作により、ユーザから表示情報v25の「非表示」が指定された場合には、情報処理装置100aは、情報処理装置100bへの、当該表示情報v25を表示するための中間データ(即ち、実オブジェクトb25に対応する中間データ)の送信を制限してもよい。
また、情報処理装置100aは、UIv71を介した操作により、ユーザから指定された表示態様に応じて、中間データとして送信する情報の内容を切り替えてもよい。例えば、UIv71を介した操作により、表示情報v25を実オブジェクトb25の画像として表示する表示態様がユーザから指定されたものとする。この場合には、情報処理装置100aは、中間データとして、当該実オブジェクトb25の画像を情報処理装置100bに送信してもよい。これに対して、UIv71を介した操作により、実オブジェクトb25の領域のみを表示する表示態様がユーザから指定されたものとする。この場合には、情報処理装置100aは、例えば、中間データとして、領域R10a中の当該実オブジェクトb25に対応する領域の位置、向き、または範囲等を示す情報(例えば、ベクトル情報を送信してもよい。
以上、変形例3として、図14~図17を参照して、本実施形態に係る情報処理システム1における、実オブジェクトを示す表示情報の表示制御の一例について説明した。
[5.4.変形例4:システム構成例1(マスター/スレーブ構成の一例)]
次に、変形例4として、図18を参照して、本実施形態に係る情報処理システム1のシステム構成の一例について説明する。例えば、図18は、変形例4に係る情報処理システム1の概略的なシステム構成の一例について説明するための説明図である。
次に、変形例4として、図18を参照して、本実施形態に係る情報処理システム1のシステム構成の一例について説明する。例えば、図18は、変形例4に係る情報処理システム1の概略的なシステム構成の一例について説明するための説明図である。
前述した実施形態に係る情報処理システム1(図8参照)では、マスターとして動作する情報処理装置100aは、スレーブとして動作する情報処理装置100bに対して、画面データと、領域R10a中の実オブジェクトに対応する中間データとを送信していた。即ち、当該情報処理システム1では、領域R10bに表示される画像、即ち、画面データに、領域R10a中の実オブジェクトを示す表示情報が重畳された画像を、情報処理装置100bが生成していた。
これに対して、変形例4に係る情報処理システム1では、図18に示すように、マスターとして動作する情報処理装置100aは、領域R10aを撮像した画像(以降では、「撮像データ」と記載する場合がある)を、スレーブとして動作する情報処理装置100bに送信している。なお、この撮像データには、情報処理装置100a及び100b間で共有する表示画面と、領域R10aに存在する実オブジェクトとが撮像されていることとなる。そして、変形例4に係る情報処理システム1では、スレーブとして動作する情報処理装置100bは、取得した撮像データを、そのまま領域R10bに表示させればよい。
このような構成により、変形例4に係る情報処理システム1では、マスターとして動作する情報処理装置100aが、領域R10aの撮像データを、ストリーミング方式に基づきスレーブとして動作する情報処理装置100bに配信してもよい。
なお、スレーブとして動作する情報処理装置100bから、マスターとして動作する情報処理装置100aに送信される情報の内容と、当該情報に基づく制御の内容とは、前述した実施形態に係る情報処理システム1(図8参照)と同様のため、詳細な説明は省略する。
以上のような構成により、変形例4に係る情報処理システム1は、前述した実施形態に係る情報処理システム1に比べて、スレーブとして動作する情報処理装置100bの処理負荷を軽減することが可能となる。以上、変形例4として、図18を参照して、本実施形態に係る情報処理システム1のシステム構成の一例について説明した。
[5.5.変形例5:システム構成例2(サーバを設ける場合の構成)]
次に、変形例5として、本開示の一実施形態に係る情報処理システム1のシステム構成の一例として、情報処理装置100a及び100b以外に外部サーバを設けるシステム構成の一例について説明する。
次に、変形例5として、本開示の一実施形態に係る情報処理システム1のシステム構成の一例として、情報処理装置100a及び100b以外に外部サーバを設けるシステム構成の一例について説明する。
例えば、図19は、変形例5に係る情報処理システム1の概略的なシステム構成の一例について説明するための説明図である。図19に示す例では、情報処理システム1は、情報処理装置100a及び100bと、サーバ300とを含み、サーバ300が、情報処理装置100a及び100b間で共有する表示画面の生成及び更新を行う。
具体的には、サーバ300は、情報処理装置100aから、領域R10aに表示された表示画面に対する操作の内容を示す操作情報を取得する。同様に、サーバ300は、情報処理装置100bから、領域R10bに表示された表示画面に対する操作の内容を示す操作情報を取得する。そして、サーバ300は、情報処理装置100a及び100bのそれぞれから取得した操作情報に基づき表示画面を更新し、当該表示画面を示す画像を表示させるための画面データを、情報処理装置100a及び100bのそれぞれに配信する。
一方で、図19に示す例では、情報処理装置100a及び100b間で共有する表示画面上に実オブジェクトを重畳表示させる制御については、情報処理装置100a及び100bのそれぞれで実行される。
例えば、情報処理装置100aに着目すると、情報処理装置100aは、領域R10aに存在する実オブジェクトを検出し、検出した実オブジェクトを示す表示情報を表示させるための中間データを情報処理装置100bに送信する。
また、情報処理装置100aは、情報処理装置100bから、領域R10bに存在する実オブジェクトを示す表示情報を表示させるための中間データを取得する。情報処理装置100aは、サーバ300から配信される画像データに基づく表示画面に、情報処理装置100bから取得した中間データに基づき、領域R10bに存在する実オブジェクトを示す表示情報を重畳表示させた画像を生成する。そして、情報処理装置100aは、生成した当該画像を領域R10aに投影する。
なお、情報処理装置100bの動作は、上記に示した情報処理装置100aの動作と同様である。即ち、情報処理装置100bは、サーバ300から配信される画像データと、情報処理装置100aからの中間データとに基づき、領域R10aに存在する実オブジェクトを示す表示情報が表示画面に重畳表示された画像を生成し、当該画像を領域R10bに投影する。
ここで、図20を参照して、図19に示した実施例5に係る情報処理システム1の機能構成の一例について説明する。図20は、変形例5に係る情報処理システム1の機能構成の一例を示したブロック図である。
図20に示すように、サーバ300は、通信部301と、画面更新部311とを含む。
通信部301は、サーバ300内の各構成が、ネットワークn11を介して、外部の情報処理装置100a及び100bと通信を行うための通信インタフェースである。
また、画面更新部311は、図9を参照して説明した情報処理システム1において、マスターとして動作する情報処理装置100aの画面更新部127に相当する。
即ち、画面更新部311は、各種アプリケーションの動作状況に基づき、情報処理装置100a及び100b間で共有する表示画面を生成する。
また、画面更新部311は、情報処理装置100a及び100bから、領域R10a及びR10bに表示された表示画面に対するユーザ操作の内容を示す操作情報を取得する。そして、画面更新部311は、取得した操作情報に基づき、領域R10a及びR10bそれぞれに表示された表示画面に対するユーザ操作の操作内容を認識し、認識した操作内容に基づき、情報処理装置100a及び100b間で共有する表示画面を更新する。
以上のようにして、画面更新部311は、生成または更新した表示画面を表示するための画面データを、ネットワークn11を介して外部の情報処理装置100a及び100bに配信する。
また、図20に示すように、実施例5に係る情報処理システム1は、情報処理装置100a及び100bが同様の機能構成を有する。そのため、情報処理装置100a及び100bの機能構成について、情報処理装置100a側に着目して説明し、情報処理装置100b側については詳細な説明は省略する。
図20に示すように、情報処理装置100aは、入力部110と、制御部120と出力部130とを含む。入力部110及び出力部130は、図9を参照して前述した実施形態に係る情報処理システム1の場合と同様である。また、制御部120は、通信部121と、画像解析部123と、入力解析部125と、表示制御部129とを含む。
画像解析部123は、図9に示した情報処理システム1における画像解析部123に相当する。即ち、画像解析部123は、撮像部111により撮像された領域R10aの画像を取得し、当該画像を解析することで、領域R10aに存在する手等の操作体や領域R10aに置かれている物体等の実オブジェクトを検出する。そして、画像解析部123は、検出された領域R10a中の実オブジェクトを示す中間データを、入力解析部125に出力するとともに、ネットワークn11を介して、外部の情報処理装置100bに送信する。
また、入力解析部125は、図9に示した情報処理システム1における入力解析部125に相当する。即ち、入力解析部125は、画像解析部123から中間データを取得し、取得した中間データに基づき、検出された領域R10a中の実オブジェクト中から、所定の条件を満たす実オブジェクトを操作体として特定する。そして、入力解析部125は、操作体として特定した実オブジェクトの位置や動きに基づき、当該操作体によるユーザ操作の対象や、当該ユーザ操作の内容を特定する。
以上のようにして、入力解析部125は、領域R10a中の手等の操作体によるユーザ操作の内容(具体的には、操作対象や、当該操作の種別)を特定し、特定したユーザ操作の内容を示す操作情報を、ネットワークn11を介してサーバ300に送信する。
表示制御部129は、生成または更新された表示画面を、ネットワークn11を介してサーバ300から取得する。また、表示制御部129は、ネットワークn11を介して情報処理装置100bから、検出された領域R10b中の実オブジェクトを示す中間データを取得する。表示制御部129は、取得した中間データに基づき、領域R10b中の実オブジェクトを示す表示情報を生成する。そして、表示制御部129は、取得した表示画面に、生成した領域R10b中の実オブジェクトを示す表示情報を重畳させた画像を生成し、生成した当該画像を出力部130に出力させる。これにより、領域R10b中の実オブジェクトを示す表示情報が重畳された表示画面が、領域R10a上に表示される。
以上、図19及び図20を参照して、変形例5に係る情報処理システム1のシステム構成の一例として、外部のサーバ300が、情報処理装置100a及び100b間で共有する表示画面の生成及び更新を行う構成の一例について説明した。
なお、図19及び図20を参照して説明した例はあくまで一例である。即ち、図9を参照して説明した情報処理装置100a及び100bの各処理のうち、少なくとも一部をサーバ300が処理する構成であれば、変形例5に係る情報処理システム1の機能構成は特に限定されない。
例えば、図21は、変形例5に係る情報処理システム1の概略的なシステム構成の他の一例について説明するための説明図である。図21に示す例では、撮像された領域R10a及びR10bの画像からの実オブジェクトの検出、情報処理装置100a及び100b間で共有する表示画面の生成及び更新、表示画面に対する実オブジェクトを示す表示情報の重畳表示等、一連の処理をサーバ300が実行する。
具体的には、情報処理装置100aは、入力部110により撮像された領域R10aの画像を、ネットワークn11を介してサーバ300に送信する。同様に、情報処理装置100bは、入力部110により撮像された領域R10bの画像を、ネットワークn11を介してサーバ300に送信する。
サーバ300は、情報処理装置100aから取得した領域R10aの画像を解析することで、領域R10aに存在する手等の操作体や領域R10aに置かれている物体等の実オブジェクトを検出する。同様に、サーバ300は、情報処理装置100bから取得した領域R10bの画像を解析することで、領域R10bに存在する手等の操作体や領域R10bに置かれている物体等の実オブジェクトを検出する。
次いで、サーバ300は、領域R10a及び領域R10bのそれぞれから検出した実オブジェクトのうち、所定の条件を満たす実オブジェクトを操作体として特定する。サーバ300は、操作体として特定した実オブジェクトの位置や動きに基づき、当該操作体によるユーザ操作の対象や、当該ユーザ操作の内容を特定する。そして、サーバ300は、特定したユーザ操作の内容に基づき、情報処理装置100a及び100b間で共有する表示画面の生成及び更新を行う。
次いで、サーバ300は、生成及び更新した表示画面と、領域R10a及び領域R10bに存在する実オブジェクトの検出結果とに基づき、領域R10a及び領域R10bに表示させる表示画面の画像を生成する。
具体的には、サーバ300は、生成及び更新した表示画面と、領域R10bに存在する実オブジェクトの検出結果とに基づき、当該表示画面に対して、領域R10bに存在する実オブジェクトを示す表示情報を重畳表示させた画像を生成する。そして、サーバ300は、生成した画像を、情報処理装置100bに送信する。
また、サーバ300は、生成及び更新した表示画面と、領域R10aに存在する実オブジェクトの検出結果とに基づき、当該表示画面に対して、領域R10aに存在する実オブジェクトを示す表示情報を重畳表示させた画像を生成する。そして、サーバ300は、生成した当該画像を、情報処理装置100bに送信する。
そして、情報処理装置100a及び100bは、サーバ300からそれぞれに配信される画像を、自身に対応する領域R10に表示させればよい。なお、サーバ300は、情報処理装置100a及び100bのそれぞれに画像を送信する際に、ストリーミング方式に基づき当該画像を送信してもよい。なお、本構成の場合には、サーバ300から、情報処理装置100a及び100bのそれぞれに送信(配信)される情報(即ち、生成された画像を表示するためのデータ)が、「第2の制御情報」の一例に相当する。
以上のような構成により、情報処理装置100a側に対応する領域R10aには、情報処理装置100a及び100b間で共有する表示画面に対して、領域R10bに存在する実オブジェクトを示す表示情報が重畳表示された画像が表示される。同様に、情報処理装置100b側に対応する領域R10bには、情報処理装置100a及び100b間で共有する表示画面に対して、領域R10aに存在する実オブジェクトを示す表示情報が重畳表示された画像が表示される。
以上、図21は、変形例5に係る情報処理システム1の概略的なシステム構成の他の一例について説明した。
以上、変形例5として説明したように、本開示の一実施形態に係る情報処理システム1は、サーバ300を設けることで、図9を参照して情報処理装置100a及び100bの処理のうち、少なくとも一部をサーバ300が処理する構成としてもよい。このように、サーバ300を設けることで、情報処理装置100a及び100bの処理負荷を軽減することが可能となる。
<6.ハードウェア構成>
次に、図22を参照して、本開示の一実施形態にかかる情報処理装置100のハードウェア構成について説明する。図22は、本開示の一実施形態にかかる情報処理装置100のハードウェア構成例を示すブロック図である。
次に、図22を参照して、本開示の一実施形態にかかる情報処理装置100のハードウェア構成について説明する。図22は、本開示の一実施形態にかかる情報処理装置100のハードウェア構成例を示すブロック図である。
図22に示すように、情報処理装置100は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置100は、ホストバス907、ブリッジ909、外部バス911、インタフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置100は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置100は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置100内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、ユーザの音声を検出するマイクを含んでもよい。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置100の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置100に対して各種のデータを入力したり処理動作を指示したりする。また、後述する撮像装置933も、ユーザの手の動きなどを撮像することによって、入力装置として機能しうる。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイ、プロジェクタなどの表示装置、ホログラムの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などでありうる。出力装置917は、情報処理装置100の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。また、出力装置917は、周囲を明るくするためライトなどを含んでもよい。
ストレージ装置919は、情報処理装置100の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置100に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置100に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置100と外部接続機器929との間で各種のデータが交換されうる。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インタフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置100の筐体の姿勢など、情報処理装置100自体の状態に関する情報や、情報処理装置100の周辺の明るさや騒音など、情報処理装置100の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
以上、情報処理装置100のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
<7.まとめ>
以上、説明したように、本実施形態に係る情報処理システム1は、ネットワークを介して接続された複数の情報処理装置100を含む。当該情報処理システム1では、複数の情報処理装置100それぞれにより、当該情報処理装置100の作業空間に相当する領域R10の画像が撮像され、当該画像の解析結果に基づき、当該領域R10に存在する実オブジェクトが検出される。そして、各領域R10のうち、一の領域R10には、複数の情報処理装置100間で共有する表示画面に対して、他の領域R10から検出された実オブジェクトを示す表示情報が重畳された画像が表示される。
以上、説明したように、本実施形態に係る情報処理システム1は、ネットワークを介して接続された複数の情報処理装置100を含む。当該情報処理システム1では、複数の情報処理装置100それぞれにより、当該情報処理装置100の作業空間に相当する領域R10の画像が撮像され、当該画像の解析結果に基づき、当該領域R10に存在する実オブジェクトが検出される。そして、各領域R10のうち、一の領域R10には、複数の情報処理装置100間で共有する表示画面に対して、他の領域R10から検出された実オブジェクトを示す表示情報が重畳された画像が表示される。
以上のような構成により、本実施形態に係る情報処理システム1に依れば、複数の情報処理装置100間において、共有する表示画面と、各作業空間に存在する実オブジェクトを示す情報とを、好適な態様で共有することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
複数の装置間で共有された画面が表示された第1の領域に存在する実オブジェクトを示す表示情報を表示させるための第1の制御情報を取得する取得部と、
取得された前記第1の制御情報に基づき、前記実オブジェクトを示す表示情報を前記画面に重畳させた表示画像を、前記第1の領域とは異なる第2の領域に表示させるための第2の制御情報を生成する生成部と、
を備えた情報処理装置。
(2)
前記生成部は、前記第1の制御情報に基づき、前記実オブジェクトの画像が前記画面に重畳させた前記表示画像を、前記第2の領域に表示させるための前記第2の制御情報を生成する、前記(1)に記載の情報処理装置。
(3)
前記生成部は、前記第1の制御情報に基づき、前記実オブジェクトが占める領域を示す表示情報が前記画面に重畳させた前記表示画像を、前記第2の領域に表示させるための前記第2の制御情報を生成する、前記(1)に記載の情報処理装置。
(4)
前記生成部は、前記第1の領域に存在する前記実オブジェクトのうち、所定の条件を満たす前記実オブジェクトを示す表示情報を前記画面に重畳された前記表示画像を、前記第2の領域に表示させるための前記第2の制御情報を生成する、前記(1)~(3)のいずれか一項に記載の情報処理装置。
(5)
前記生成部は、前記第1の領域に存在する前記実オブジェクトのうち、動作する前記実オブジェクトを示す表示情報を前記画面に重畳された前記表示画像を、前記第2の領域に表示させるための前記第2の制御情報を生成する、前記(4)に記載の情報処理装置。
(6)
前記生成部は、前記第1の領域に存在する前記実オブジェクトのうち少なくとも一部について、前記実オブジェクトを示す表示情報の表示が制限された前記表示画像を、前記第2の領域に表示させるための前記第2の制御情報を生成する、前記(1)~(5)のいずれか一項に記載の情報処理装置。
(7)
前記生成部は、前記画面中に提示された表示オブジェクトと、前記実オブジェクトを示す表示情報とが、異なる態様で提示された前記表示画像を、記第2の領域に表示させるための前記第2の制御情報を生成する、前記(1)~(6)のいずれか一項に記載の情報処理装置。
(8)
前記取得部は、前記第1の領域中の前記実オブジェクトに対する操作内容を示す操作情報を取得し、
前記生成部は、取得された当該操作情報に基づき、前記操作内容に応じた表示情報が提示された前記表示画像を、前記第2の領域に表示させるための前記第2の制御情報を生成する、前記(1)~(7)のいずれか一項に記載の情報処理装置。
(9)
前記取得部は、前記第2の領域中に表示された、前記実オブジェクトを示す表示情報に対する操作内容を示す操作情報を取得し、
前記生成部は、取得された当該操作情報に基づき、前記表示画像への当該実オブジェクトを示す表示情報の表示を制御する、前記(1)~(8)のいずれか一項に記載の情報処理装置。
(10)
前記第2の制御情報に基づき、前記表示画像を前記第2の領域に表示させる表示制御部を備える、前記(1)~(9)のいずれか一項に記載の情報処理装置。
(11)
前記表示制御部は、前記第2の領域に表示情報を投影する投影部に、前記第2の制御情報に基づき、当該第2の領域に前記表示画像を投影させる、前記(10)に記載の情報処理装置。
(12)
前記第2の制御情報を、前記第2の領域への情報の表示を制御する外部装置に送信する送信部を備える、前記(1)~(9)のいずれか一項に記載の情報処理装置。
(13)
前記第1の領域と前記第2の領域とは、隔離された互いに異なる領域である、前記(1)~(12)のいずれか一項に記載の情報処理装置。
(14)
撮像部により撮像された、複数の装置間で共有された画面が表示された第1の領域の画像を取得する取得部と、
取得された前記第1の領域の画像に基づき、前記第1の領域に存在する実オブジェクトを示す表示情報を、前記画面が表示された当該第1の領域とは異なる第2の領域に表示させるための制御情報を生成する生成部と、
を備えた情報処理装置。
(15)
前記制御情報は、前記第1の領域の画像から抽出された前記実オブジェクトの部分画像である、前記(14)に記載の情報処理装置。
(16)
前記制御情報は、前記第1の領域中における前記実オブジェクトの、位置、向き、及び範囲を示す情報のうち少なくともいずれかを含む、前記(14)または(15)に記載の情報処理装置。
(17)
前記第2の領域への情報の表示を制御する外部装置に、前記制御情報を送信する送信部を備える、前記(14)~(16)のいずれか一項に記載の情報処理装置。
(18)
前記制御情報に基づき、前記第2の領域への情報の表示を制御する外部装置に、前記画面に前記実オブジェクトを示す表示情報が重畳された画像を送信する送信部を備える、前記(14)~(16)のいずれか一項に記載の情報処理装置。
(19)
前記撮像部を備える、前記(14)~(18)のいずれか一項に記載の情報処理装置。
(20)
前記取得部は、撮像された前記第1の領域の画像を外部装置から取得する、前記(14)~(18)のいずれか一項に記載の情報処理装置。
(21)
前記第1の領域への情報の表示を制御する表示制御部を備え、
前記取得部は、前記第2の領域に表示された前記実オブジェクトを示す表示情報に対する操作内容を示した操作情報を取得し、
前記表示制御部は、前記操作情報に基づき、前記第1の領域中に存在する当該実オブジェクト上に当該操作内容に応じた表示情報を表示させる、前記(14)~(20)のいずれか一項に記載の情報処理装置。
(22)
複数の装置間で共有された画面が表示された第1の領域に存在する実オブジェクトを示す表示情報を、当該第1の領域とは異なる第2の領域に表示させるための第1の制御情報を取得することと、
プロセッサが、取得された前記第1の制御情報に基づき、前記実オブジェクトを示す表示情報を前記画面に重畳させた表示画像を、前記第2の領域に表示させるための第2の制御情報を生成することと、
を含む情報処理方法。
(23)
撮像部により撮像された、複数の装置間で共有された画面が表示された第1の領域の画像を取得することと、
プロセッサが、取得された前記第1の領域の画像に基づき、前記第1の領域に存在する実オブジェクトを示す表示情報を、前記画面が表示された当該第1の領域とは異なる第2の領域に表示させるための制御情報を生成することと、
を含む情報処理方法。
(24)
コンピュータに、
複数の装置間で共有された画面が表示された第1の領域に存在する実オブジェクトを示す表示情報を、当該第1の領域とは異なる第2の領域に表示させるための第1の制御情報を取得することと、
取得された前記第1の制御情報に基づき、前記実オブジェクトを示す表示情報を前記画面に重畳させた表示画像を、前記第2の領域に表示させるための第2の制御情報を生成することと、
を実行させるプログラム。
(25)
コンピュータに、
撮像部により撮像された、複数の装置間で共有された画面が表示された第1の領域の画像を取得することと、
取得された前記第1の領域の画像に基づき、前記第1の領域に存在する実オブジェクトを示す表示情報を、前記画面が表示された当該第1の領域とは異なる第2の領域に表示させるための制御情報を生成することと、
を実行させるプログラム。
(1)
複数の装置間で共有された画面が表示された第1の領域に存在する実オブジェクトを示す表示情報を表示させるための第1の制御情報を取得する取得部と、
取得された前記第1の制御情報に基づき、前記実オブジェクトを示す表示情報を前記画面に重畳させた表示画像を、前記第1の領域とは異なる第2の領域に表示させるための第2の制御情報を生成する生成部と、
を備えた情報処理装置。
(2)
前記生成部は、前記第1の制御情報に基づき、前記実オブジェクトの画像が前記画面に重畳させた前記表示画像を、前記第2の領域に表示させるための前記第2の制御情報を生成する、前記(1)に記載の情報処理装置。
(3)
前記生成部は、前記第1の制御情報に基づき、前記実オブジェクトが占める領域を示す表示情報が前記画面に重畳させた前記表示画像を、前記第2の領域に表示させるための前記第2の制御情報を生成する、前記(1)に記載の情報処理装置。
(4)
前記生成部は、前記第1の領域に存在する前記実オブジェクトのうち、所定の条件を満たす前記実オブジェクトを示す表示情報を前記画面に重畳された前記表示画像を、前記第2の領域に表示させるための前記第2の制御情報を生成する、前記(1)~(3)のいずれか一項に記載の情報処理装置。
(5)
前記生成部は、前記第1の領域に存在する前記実オブジェクトのうち、動作する前記実オブジェクトを示す表示情報を前記画面に重畳された前記表示画像を、前記第2の領域に表示させるための前記第2の制御情報を生成する、前記(4)に記載の情報処理装置。
(6)
前記生成部は、前記第1の領域に存在する前記実オブジェクトのうち少なくとも一部について、前記実オブジェクトを示す表示情報の表示が制限された前記表示画像を、前記第2の領域に表示させるための前記第2の制御情報を生成する、前記(1)~(5)のいずれか一項に記載の情報処理装置。
(7)
前記生成部は、前記画面中に提示された表示オブジェクトと、前記実オブジェクトを示す表示情報とが、異なる態様で提示された前記表示画像を、記第2の領域に表示させるための前記第2の制御情報を生成する、前記(1)~(6)のいずれか一項に記載の情報処理装置。
(8)
前記取得部は、前記第1の領域中の前記実オブジェクトに対する操作内容を示す操作情報を取得し、
前記生成部は、取得された当該操作情報に基づき、前記操作内容に応じた表示情報が提示された前記表示画像を、前記第2の領域に表示させるための前記第2の制御情報を生成する、前記(1)~(7)のいずれか一項に記載の情報処理装置。
(9)
前記取得部は、前記第2の領域中に表示された、前記実オブジェクトを示す表示情報に対する操作内容を示す操作情報を取得し、
前記生成部は、取得された当該操作情報に基づき、前記表示画像への当該実オブジェクトを示す表示情報の表示を制御する、前記(1)~(8)のいずれか一項に記載の情報処理装置。
(10)
前記第2の制御情報に基づき、前記表示画像を前記第2の領域に表示させる表示制御部を備える、前記(1)~(9)のいずれか一項に記載の情報処理装置。
(11)
前記表示制御部は、前記第2の領域に表示情報を投影する投影部に、前記第2の制御情報に基づき、当該第2の領域に前記表示画像を投影させる、前記(10)に記載の情報処理装置。
(12)
前記第2の制御情報を、前記第2の領域への情報の表示を制御する外部装置に送信する送信部を備える、前記(1)~(9)のいずれか一項に記載の情報処理装置。
(13)
前記第1の領域と前記第2の領域とは、隔離された互いに異なる領域である、前記(1)~(12)のいずれか一項に記載の情報処理装置。
(14)
撮像部により撮像された、複数の装置間で共有された画面が表示された第1の領域の画像を取得する取得部と、
取得された前記第1の領域の画像に基づき、前記第1の領域に存在する実オブジェクトを示す表示情報を、前記画面が表示された当該第1の領域とは異なる第2の領域に表示させるための制御情報を生成する生成部と、
を備えた情報処理装置。
(15)
前記制御情報は、前記第1の領域の画像から抽出された前記実オブジェクトの部分画像である、前記(14)に記載の情報処理装置。
(16)
前記制御情報は、前記第1の領域中における前記実オブジェクトの、位置、向き、及び範囲を示す情報のうち少なくともいずれかを含む、前記(14)または(15)に記載の情報処理装置。
(17)
前記第2の領域への情報の表示を制御する外部装置に、前記制御情報を送信する送信部を備える、前記(14)~(16)のいずれか一項に記載の情報処理装置。
(18)
前記制御情報に基づき、前記第2の領域への情報の表示を制御する外部装置に、前記画面に前記実オブジェクトを示す表示情報が重畳された画像を送信する送信部を備える、前記(14)~(16)のいずれか一項に記載の情報処理装置。
(19)
前記撮像部を備える、前記(14)~(18)のいずれか一項に記載の情報処理装置。
(20)
前記取得部は、撮像された前記第1の領域の画像を外部装置から取得する、前記(14)~(18)のいずれか一項に記載の情報処理装置。
(21)
前記第1の領域への情報の表示を制御する表示制御部を備え、
前記取得部は、前記第2の領域に表示された前記実オブジェクトを示す表示情報に対する操作内容を示した操作情報を取得し、
前記表示制御部は、前記操作情報に基づき、前記第1の領域中に存在する当該実オブジェクト上に当該操作内容に応じた表示情報を表示させる、前記(14)~(20)のいずれか一項に記載の情報処理装置。
(22)
複数の装置間で共有された画面が表示された第1の領域に存在する実オブジェクトを示す表示情報を、当該第1の領域とは異なる第2の領域に表示させるための第1の制御情報を取得することと、
プロセッサが、取得された前記第1の制御情報に基づき、前記実オブジェクトを示す表示情報を前記画面に重畳させた表示画像を、前記第2の領域に表示させるための第2の制御情報を生成することと、
を含む情報処理方法。
(23)
撮像部により撮像された、複数の装置間で共有された画面が表示された第1の領域の画像を取得することと、
プロセッサが、取得された前記第1の領域の画像に基づき、前記第1の領域に存在する実オブジェクトを示す表示情報を、前記画面が表示された当該第1の領域とは異なる第2の領域に表示させるための制御情報を生成することと、
を含む情報処理方法。
(24)
コンピュータに、
複数の装置間で共有された画面が表示された第1の領域に存在する実オブジェクトを示す表示情報を、当該第1の領域とは異なる第2の領域に表示させるための第1の制御情報を取得することと、
取得された前記第1の制御情報に基づき、前記実オブジェクトを示す表示情報を前記画面に重畳させた表示画像を、前記第2の領域に表示させるための第2の制御情報を生成することと、
を実行させるプログラム。
(25)
コンピュータに、
撮像部により撮像された、複数の装置間で共有された画面が表示された第1の領域の画像を取得することと、
取得された前記第1の領域の画像に基づき、前記第1の領域に存在する実オブジェクトを示す表示情報を、前記画面が表示された当該第1の領域とは異なる第2の領域に表示させるための制御情報を生成することと、
を実行させるプログラム。
1 情報処理システム
100、100a、100b 情報処理装置
110 入力部
111 撮像部
120、120a、120b 制御部
121 通信部
123 画像解析部
125 入力解析部
127 画面更新部
129、129a、129b 表示制御部
130 出力部
131 映像出力部
300 サーバ
301 通信部
311 画面更新部
100、100a、100b 情報処理装置
110 入力部
111 撮像部
120、120a、120b 制御部
121 通信部
123 画像解析部
125 入力解析部
127 画面更新部
129、129a、129b 表示制御部
130 出力部
131 映像出力部
300 サーバ
301 通信部
311 画面更新部
Claims (25)
- 複数の装置間で共有された画面が表示された第1の領域に存在する実オブジェクトを示す表示情報を表示させるための第1の制御情報を取得する取得部と、
取得された前記第1の制御情報に基づき、前記実オブジェクトを示す表示情報を前記画面に重畳させた表示画像を、前記第1の領域とは異なる第2の領域に表示させるための第2の制御情報を生成する生成部と、
を備えた情報処理装置。 - 前記生成部は、前記第1の制御情報に基づき、前記実オブジェクトの画像が前記画面に重畳させた前記表示画像を、前記第2の領域に表示させるための前記第2の制御情報を生成する、請求項1に記載の情報処理装置。
- 前記生成部は、前記第1の制御情報に基づき、前記実オブジェクトが占める領域を示す表示情報が前記画面に重畳させた前記表示画像を、前記第2の領域に表示させるための前記第2の制御情報を生成する、請求項1に記載の情報処理装置。
- 前記生成部は、前記第1の領域に存在する前記実オブジェクトのうち、所定の条件を満たす前記実オブジェクトを示す表示情報を前記画面に重畳された前記表示画像を、前記第2の領域に表示させるための前記第2の制御情報を生成する、請求項1に記載の情報処理装置。
- 前記生成部は、前記第1の領域に存在する前記実オブジェクトのうち、動作する前記実オブジェクトを示す表示情報を前記画面に重畳された前記表示画像を、前記第2の領域に表示させるための前記第2の制御情報を生成する、請求項4に記載の情報処理装置。
- 前記生成部は、前記第1の領域に存在する前記実オブジェクトのうち少なくとも一部について、前記実オブジェクトを示す表示情報の表示が制限された前記表示画像を、前記第2の領域に表示させるための前記第2の制御情報を生成する、請求項1に記載の情報処理装置。
- 前記生成部は、前記画面中に提示された表示オブジェクトと、前記実オブジェクトを示す表示情報とが、異なる態様で提示された前記表示画像を、記第2の領域に表示させるための前記第2の制御情報を生成する、請求項1に記載の情報処理装置。
- 前記取得部は、前記第1の領域中の前記実オブジェクトに対する操作内容を示す操作情報を取得し、
前記生成部は、取得された当該操作情報に基づき、前記操作内容に応じた表示情報が提示された前記表示画像を、前記第2の領域に表示させるための前記第2の制御情報を生成する、請求項1に記載の情報処理装置。 - 前記取得部は、前記第2の領域中に表示された、前記実オブジェクトを示す表示情報に対する操作内容を示す操作情報を取得し、
前記生成部は、取得された当該操作情報に基づき、前記表示画像への当該実オブジェクトを示す表示情報の表示を制御する、請求項1に記載の情報処理装置。 - 前記第2の制御情報に基づき、前記表示画像を前記第2の領域に表示させる表示制御部を備える、請求項1に記載の情報処理装置。
- 前記表示制御部は、前記第2の領域に表示情報を投影する投影部に、前記第2の制御情報に基づき、当該第2の領域に前記表示画像を投影させる、請求項10に記載の情報処理装置。
- 前記第2の制御情報を、前記第2の領域への情報の表示を制御する外部装置に送信する送信部を備える、請求項1に記載の情報処理装置。
- 前記第1の領域と前記第2の領域とは、隔離された互いに異なる領域である、請求項1に記載の情報処理装置。
- 撮像部により撮像された、複数の装置間で共有された画面が表示された第1の領域の画像を取得する取得部と、
取得された前記第1の領域の画像に基づき、前記第1の領域に存在する実オブジェクトを示す表示情報を、前記画面が表示された当該第1の領域とは異なる第2の領域に表示させるための制御情報を生成する生成部と、
を備えた情報処理装置。 - 前記制御情報は、前記第1の領域の画像から抽出された前記実オブジェクトの部分画像である、請求項14に記載の情報処理装置。
- 前記制御情報は、前記第1の領域中における前記実オブジェクトの、位置、向き、及び範囲を示す情報のうち少なくともいずれかを含む、請求項14に記載の情報処理装置。
- 前記第2の領域への情報の表示を制御する外部装置に、前記制御情報を送信する送信部を備える、請求項14に記載の情報処理装置。
- 前記制御情報に基づき、前記第2の領域への情報の表示を制御する外部装置に、前記画面に前記実オブジェクトを示す表示情報が重畳された画像を送信する送信部を備える、請求項14に記載の情報処理装置。
- 前記撮像部を備える、請求項14に記載の情報処理装置。
- 前記取得部は、撮像された前記第1の領域の画像を外部装置から取得する、請求項14に記載の情報処理装置。
- 前記第1の領域への情報の表示を制御する表示制御部を備え、
前記取得部は、前記第2の領域に表示された前記実オブジェクトを示す表示情報に対する操作内容を示した操作情報を取得し、
前記表示制御部は、前記操作情報に基づき、前記第1の領域中に存在する当該実オブジェクト上に当該操作内容に応じた表示情報を表示させる、請求項14に記載の情報処理装置。 - 複数の装置間で共有された画面が表示された第1の領域に存在する実オブジェクトを示す表示情報を、当該第1の領域とは異なる第2の領域に表示させるための第1の制御情報を取得することと、
プロセッサが、取得された前記第1の制御情報に基づき、前記実オブジェクトを示す表示情報を前記画面に重畳させた表示画像を、前記第2の領域に表示させるための第2の制御情報を生成することと、
を含む情報処理方法。 - 撮像部により撮像された、複数の装置間で共有された画面が表示された第1の領域の画像を取得することと、
プロセッサが、取得された前記第1の領域の画像に基づき、前記第1の領域に存在する実オブジェクトを示す表示情報を、前記画面が表示された当該第1の領域とは異なる第2の領域に表示させるための制御情報を生成することと、
を含む情報処理方法。 - コンピュータに、
複数の装置間で共有された画面が表示された第1の領域に存在する実オブジェクトを示す表示情報を、当該第1の領域とは異なる第2の領域に表示させるための第1の制御情報を取得することと、
取得された前記第1の制御情報に基づき、前記実オブジェクトを示す表示情報を前記画面に重畳させた表示画像を、前記第2の領域に表示させるための第2の制御情報を生成することと、
を実行させるプログラム。 - コンピュータに、
撮像部により撮像された、複数の装置間で共有された画面が表示された第1の領域の画像を取得することと、
取得された前記第1の領域の画像に基づき、前記第1の領域に存在する実オブジェクトを示す表示情報を、前記画面が表示された当該第1の領域とは異なる第2の領域に表示させるための制御情報を生成することと、
を実行させるプログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP16838891.6A EP3343338A4 (en) | 2015-08-24 | 2016-06-17 | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM |
| US15/742,589 US10545716B2 (en) | 2015-08-24 | 2016-06-17 | Information processing device, information processing method, and program |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015-164354 | 2015-08-24 | ||
| JP2015164354 | 2015-08-24 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2017033544A1 true WO2017033544A1 (ja) | 2017-03-02 |
Family
ID=58099885
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2016/068089 Ceased WO2017033544A1 (ja) | 2015-08-24 | 2016-06-17 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US10545716B2 (ja) |
| EP (1) | EP3343338A4 (ja) |
| WO (1) | WO2017033544A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018230160A1 (ja) | 2017-06-12 | 2018-12-20 | ソニー株式会社 | 情報処理システム、情報処理方法、およびプログラム |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018158481A (ja) * | 2017-03-22 | 2018-10-11 | コニカミノルタ株式会社 | 画像形成システム、画像形成装置及び補助動作実行プログラム |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH09258945A (ja) * | 1996-03-25 | 1997-10-03 | Hitachi Ltd | 個人情報機器 |
| JPH10336422A (ja) * | 1997-05-30 | 1998-12-18 | Minolta Co Ltd | 読取り画像の修正方法及び画像読取り装置 |
| JP2000259338A (ja) * | 1999-03-11 | 2000-09-22 | Seiko Epson Corp | 入力システム、表示システム、プレゼンテーションシステム及び情報記憶媒体 |
| US20090119593A1 (en) * | 2007-11-01 | 2009-05-07 | Cisco Technology, Inc. | Virtual table |
| JP2012119927A (ja) * | 2010-11-30 | 2012-06-21 | Brother Ind Ltd | 端末装置、情報提示方法、及び情報提示プログラム |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9280776B2 (en) * | 2007-01-05 | 2016-03-08 | Microsoft Technology Licensing, Llc | Delivering content based on physical object characteristics |
| US9753534B2 (en) * | 2012-11-09 | 2017-09-05 | Sony Corporation | Information processing apparatus, information processing method, and computer-readable recording medium |
| JP2014130422A (ja) | 2012-12-28 | 2014-07-10 | Canon Marketing Japan Inc | 遠隔会議システム、遠隔会議システムの制御方法、ホストコンピュータ、ホストコンピュータの制御方法、プログラム、および記録媒体 |
-
2016
- 2016-06-17 WO PCT/JP2016/068089 patent/WO2017033544A1/ja not_active Ceased
- 2016-06-17 EP EP16838891.6A patent/EP3343338A4/en not_active Withdrawn
- 2016-06-17 US US15/742,589 patent/US10545716B2/en not_active Expired - Fee Related
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH09258945A (ja) * | 1996-03-25 | 1997-10-03 | Hitachi Ltd | 個人情報機器 |
| JPH10336422A (ja) * | 1997-05-30 | 1998-12-18 | Minolta Co Ltd | 読取り画像の修正方法及び画像読取り装置 |
| JP2000259338A (ja) * | 1999-03-11 | 2000-09-22 | Seiko Epson Corp | 入力システム、表示システム、プレゼンテーションシステム及び情報記憶媒体 |
| US20090119593A1 (en) * | 2007-11-01 | 2009-05-07 | Cisco Technology, Inc. | Virtual table |
| JP2012119927A (ja) * | 2010-11-30 | 2012-06-21 | Brother Ind Ltd | 端末装置、情報提示方法、及び情報提示プログラム |
Non-Patent Citations (1)
| Title |
|---|
| See also references of EP3343338A4 * |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018230160A1 (ja) | 2017-06-12 | 2018-12-20 | ソニー株式会社 | 情報処理システム、情報処理方法、およびプログラム |
| US11048326B2 (en) | 2017-06-12 | 2021-06-29 | Sony Corporation | Information processing system, information processing method, and program |
| JP2022188081A (ja) * | 2017-06-12 | 2022-12-20 | ソニーグループ株式会社 | 情報処理装置、情報処理システム、および情報処理方法 |
| US11703941B2 (en) | 2017-06-12 | 2023-07-18 | Sony Corporation | Information processing system, information processing method, and program |
| JP7468588B2 (ja) | 2017-06-12 | 2024-04-16 | ソニーグループ株式会社 | 情報処理装置、情報処理システム、および情報処理方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| EP3343338A1 (en) | 2018-07-04 |
| EP3343338A4 (en) | 2019-05-01 |
| US20180203661A1 (en) | 2018-07-19 |
| US10545716B2 (en) | 2020-01-28 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10572073B2 (en) | Information processing device, information processing method, and program | |
| US11886643B2 (en) | Information processing apparatus and information processing method | |
| US20180253152A1 (en) | Gesture-controlled augmented reality experience using a mobile communications device | |
| US11373650B2 (en) | Information processing device and information processing method | |
| US11107287B2 (en) | Information processing apparatus and information processing method | |
| JP6569726B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
| US9794495B1 (en) | Multiple streaming camera navigation interface system | |
| US20200342671A1 (en) | Information processing apparatus, information processing method, and program | |
| EP2832107A1 (en) | Information processing apparatus, information processing method, and program | |
| JP6627775B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
| US11216179B2 (en) | Information processing apparatus and information processing method | |
| US20200342229A1 (en) | Information processing device, information processing method, and program | |
| CN106462251B (zh) | 显示控制设备、显示控制方法以及程序 | |
| WO2017033544A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
| US20210294482A1 (en) | Information processing device, information processing method, and program | |
| US11221684B2 (en) | Information processing device, information processing method, and recording medium | |
| JP2015111371A (ja) | 情報処理装置、情報処理方法およびプログラム | |
| CN109144362A (zh) | 内容共享方法和终端设备 | |
| JP2019023902A (ja) | プログラムおよび情報処理装置 | |
| JP2015200951A (ja) | 表示システム及びプログラム | |
| WO2017134868A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
| CN115702320A (zh) | 信息处理装置、信息处理方法和程序 | |
| WO2019082520A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| JPWO2019058788A1 (ja) | 情報処理装置、情報処理方法、およびプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16838891 Country of ref document: EP Kind code of ref document: A1 |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 15742589 Country of ref document: US |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 2016838891 Country of ref document: EP |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |