WO2025154220A1 - Information processing system and game image sharing method - Google Patents
Information processing system and game image sharing methodInfo
- Publication number
- WO2025154220A1 WO2025154220A1 PCT/JP2024/001222 JP2024001222W WO2025154220A1 WO 2025154220 A1 WO2025154220 A1 WO 2025154220A1 JP 2024001222 W JP2024001222 W JP 2024001222W WO 2025154220 A1 WO2025154220 A1 WO 2025154220A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- content
- game
- user
- shared
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/45—Controlling the progress of the video game
- A63F13/49—Saving the game status; Pausing or ending the game
- A63F13/497—Partially or entirely replaying previous game actions
Definitions
- the present disclosure relates to a technology for saving images of a game that a user is currently playing or has played in the past as content and/or a technology for sharing the content with other users.
- Patent Document 1 discloses an information processing device that executes a game program based on user operations, displays game images on an output device, and records the game images in a ring buffer in the background. On an editing screen, the user specifies the start and end points for cutting out the game video recorded in the ring buffer, and uploads the cut-out game video to a content sharing server.
- User Generated Content content generated by users is called User Generated Content
- users share User Generated Content with other users by uploading it to a shared server or providing it to specific friends.
- the purpose of this disclosure is to provide a mechanism for efficiently realizing the process of generating content and sharing content with other users.
- An information processing system includes a game image acquisition unit that acquires images of a game that the user has played in the past or images of a game that the user is currently playing, a content identification unit that performs image analysis on the acquired game images to determine whether the game images are related to content that has been shared with other users in the past, and a sharing processing unit that allows game images determined to be related to previously shared content to be shared with other users.
- a game image sharing method includes the steps of acquiring an image of a game that the user has played in the past or an image of a game that the user is currently playing, analyzing the acquired game image to determine whether the game image is related to content that has been shared with another user in the past, and allowing the game image determined to be related to the previously shared content to be shared with another user.
- FIG. 1 is a diagram illustrating an information processing system according to an embodiment.
- FIG. 2 is a diagram illustrating a hardware configuration of an information processing device.
- FIG. 2 is a diagram illustrating an example of functional blocks of an information processing device.
- FIG. 11 is a diagram showing an example of a displayed game image. 1 is a flowchart for automatically generating content.
- FIG. 11 is a diagram showing an example of a displayed game image.
- FIG. 13 is a diagram for explaining a method for extracting game video images.
- FIG. 13 is a diagram showing an example of a screen on which content is presented.
- FIG. 11 is a diagram showing another example of a screen presenting content.
- the information processing device executes a game program based on the user's operation, outputs game images and game sounds to an output device, and may have a function of automatically generating user-original content including game images and/or game sounds without user instructions.
- the automatically generated content may be still images (screenshots) of the game or video images of the game.
- the information processing device may also have a function of automatically performing a process of sharing content with another user without user instructions.
- the process of sharing content includes providing the content to other users (e.g., friends) and uploading the content to a distribution server so that the content can be viewed by other users.
- the information processing device may automatically perform a sharing process of determining a sharing destination and providing the content to the sharing destination, but may also present the content and the sharing destination to the user before performing the sharing process and perform the sharing process after obtaining the user's consent.
- the information processing device 10 is connected wirelessly or by wire to an input device 6 having multiple operating members, and the input device 6 outputs information of the user operating the operating members to the information processing device 10.
- the information processing device 10 receives operation information from the input device 6, it reflects the information in the processing of the system software and game software, and causes the output device 4 to output the processing results.
- the information processing device 10 is a game device (game console) that executes a game
- the input device 6 is an operating device such as a game controller, which supplies information of the user operating the operating members to the information processing device 10.
- the input device 6 may also be an input interface such as a keyboard or mouse.
- the information processing system 1 may include a cloud game server (not shown) that executes a game program based on user operations.
- the information processing device 10 transmits information (game operation information) of the user operating the input device 6 to the game server.
- the game server generates game images and game sounds based on the game operation information, and streams the game images and game sounds to the information processing device 10.
- the information processing device 10 does not need to have a function for executing a game program, and may be a terminal device that outputs game images and game sounds from the output device 4.
- the auxiliary storage device 2 is a large-capacity recording device such as an HDD (hard disk drive) or SSD (solid state drive), and may be an internal recording device, or may be an external recording device connected to the information processing device 10 via a USB (Universal Serial Bus) or the like.
- the output device 4 may be a television having a display for outputting images and a speaker for outputting sound.
- the output device 4 may be connected to the information processing device 10 via a wired cable, or may be connected wirelessly.
- the content generation model may be composed of a CNN (Convolutional Neural Network), which is equivalent to a multi-layer neural network including an input layer, one or more convolutional layers, and an output layer.
- the information processing device 10 may train each coupling coefficient (weight) in the CNN using a learning method such as deep learning. Note that the information processing device 10 may train the content generation model using other AI training methods.
- the shared content identification model may be configured as a CNN (Convolutional Neural Network), which is equivalent to a multi-layer neural network including an input layer, one or more convolutional layers, and an output layer.
- the information processing device 10 may train each coupling coefficient (weight) in the CNN using a learning method such as deep learning. Note that the information processing device 10 may train the shared content identification model using other AI training methods.
- FIG. 2 shows the hardware configuration of the information processing device 10.
- the information processing device 10 is configured to include a main power button 20, a power ON LED 21, a standby LED 22, a system controller 24, a clock 26, a device controller 30, a media drive 32, a USB module 34, a flash memory 36, a wireless communication module 38, a wired communication module 40, a subsystem 50, and a main system 60.
- the main system 60 comprises a main CPU (Central Processing Unit), a memory and memory controller serving as the main storage device, a GPU (Graphics Processing Unit), etc.
- the GPU is primarily used for the calculation and processing of game programs.
- the main CPU has the function of starting up the system software and executing the game program installed in the auxiliary storage device 2 in the environment provided by the system software.
- the subsystem 50 comprises a sub-CPU, a memory and memory controller serving as the main storage device, etc., but does not comprise a GPU.
- the sub-CPU While the main CPU has the function of executing game programs installed in the auxiliary storage device 2, the sub-CPU does not have such a function. However, the sub-CPU has the function of accessing the auxiliary storage device 2 and the function of sending and receiving data with the management server 5.
- the sub-CPU is configured with only these limited processing functions, and therefore can operate with less power consumption compared to the main CPU. These functions of the sub-CPU are executed when the main CPU is in standby mode.
- the main power button 20 is an input unit through which the user inputs operations, is provided on the front of the housing of the information processing device 10, and is operated to turn on or off the power supply to the main system 60 of the information processing device 10.
- the power ON LED 21 lights up when the main power button 20 is turned on, and the standby LED 22 lights up when the main power button 20 is turned off.
- the system controller 24 detects when the main power button 20 is pressed by the user.
- the device controller 30 is configured as an LSI (Large-Scale Integrated Circuit) that transfers information between devices like a south bridge. As shown in the figure, devices such as the system controller 24, media drive 32, USB module 34, flash memory 36, wireless communication module 38, wired communication module 40, subsystem 50, and main system 60 are connected to the device controller 30.
- the device controller 30 absorbs differences in the electrical characteristics and data transfer speeds of each device and controls the timing of data transfer.
- the game execution unit 110 executes game software based on game operation information.
- the game software includes at least a game program, image data, and sound data. While the user is playing the game, the game execution unit 110 performs calculation processing to move a player character in a virtual space based on the user's operation information.
- the game image and sound generation unit 112 includes a GPU (Graphics Processing Unit), and receives the results of the calculation processing in the virtual space, and generates a game image from a viewpoint position (virtual camera) in the virtual space.
- the game image and sound generation unit 112 also generates game sound from a viewpoint position in the virtual space.
- the output processing unit 114 outputs the game images and game sounds generated by the game image and sound generation unit 112 from the output device 4.
- the game image acquisition unit 120 acquires game images and game sounds generated by the game image and sound generation unit 112 and supplies them to the game image identification unit 122.
- the game image identification unit 122 performs image analysis of the game images acquired by the game image acquisition unit 120 to identify game images related to past user-generated content.
- the game image identification unit 122 performs AI image analysis of the game images using a trained content generation model.
- the trained content generation model outputs the degree to which the game image reflects the characteristics of the user-generated content (similarity) as a score value.
- the content generation model may output the score value together with information that identifies the game image.
- the information that identifies the game image may be the game image itself, or may be metadata such as information indicating the date and time of generation of the game image.
- the game image identification unit 122 determines that the game image is not related to past user-generated content, i.e., that the game image does not have characteristics in common with the user-generated content and is inappropriate as content. On the other hand, if the score value of the game image is equal to or greater than a predetermined score threshold (Y in S14), the game image identification unit 122 determines that the game image is related to past user-generated content, i.e., that the game image has characteristics in common with the user-generated content and is appropriate as content.
- the game image identification unit 122 may identify multiple game images that are similar to each other as game images related to past screenshots. For example, the game images displayed before and after the game image shown in FIG. 6 are similar to each other and often have common features with past screenshots.
- the content storage unit 124 it is preferable for the content storage unit 124 to store only a portion of the multiple game images in the content storage unit 154.
- the content storage unit 124 may store only one of the multiple game images in the content storage unit 154. This makes it possible to avoid storing a large number of similar game images as content, and allows the capacity of the content storage unit 154 to be used efficiently.
- the content storage unit 124 may have a function for evaluating the similarity of game images successively identified by the game image identification unit 122. It is known that the similarity of two images is evaluated by calculating the distance between the two images, and the content storage unit 124 may use a known evaluation method to identify similar game images. If the content storage unit 124 stores a game image in the content memory unit 154 as new content each time the game image identification unit 122 identifies the game image, the content storage unit 124 may, after storing the game images in the content memory unit 154, identify multiple similar game images, keep only some of the game images, and delete the remaining game images from the content memory unit 154.
- the game image identification unit 122 inputs all generated game images (frame images) into a content generation model for still images and performs AI image analysis.
- the game image identification unit 122 may input game images into a content generation model for still images at a predetermined cycle and perform AI image analysis.
- the game image identification unit 122 may input game images into a content generation model for still images at a frequency of, for example, one image every few seconds and perform AI image analysis.
- the game image identification unit 122 may reduce the amount of calculations by lowering the resolution of the game image.
- the game image identification unit 122 determines whether or not it is necessary to reduce the amount of calculations based on the available computational resources, and if it is necessary, may take measures such as lowering the resolution of the game image or canceling the automatic content generation process.
- canceling the automatic content generation process it is preferable for the game image identification unit 122 to notify the user of the reason.
- the game image specification unit 122 specifies an appropriate moving image as content.
- the automatic content generation process is carried out while the user is playing the game (Y in S10).
- the game image acquisition unit 120 acquires the game images generated by the game image and sound generation unit 112 and stores them in a buffer memory (S12).
- the buffer memory may be configured as a ring buffer that stores a predetermined upper limit of game video images (for example, one hour).
- the game image specification unit 122 reads out only the predetermined amount of game video images temporarily stored in the buffer memory, inputs the game video images to a content generation model for video images, performs AI image analysis, and acquires a score value of the game video images.
- the game image identification unit 122 determines that the game video is not related to past user-generated content, i.e., the game video does not have characteristics in common with the user-generated content and is inappropriate as content. On the other hand, if the score value of the game video is equal to or greater than a predetermined score threshold (Y in S14), the game image identification unit 122 determines that the game video is related to past user-generated content, i.e., the game video has characteristics in common with the user-generated content and is appropriate as content.
- the game image identification unit 122 reads out a predetermined amount of game video temporarily stored in the buffer memory and inputs it into the content generation model for video.
- the game image identification unit 122 may refer to metadata included in the game video temporarily stored in the buffer memory to determine the start and end points of the game video to be cut out, and read out the game video between the start and end points. For example, if metadata indicating the start and end of an event (e.g., a boss battle) set in the game video is set, the game image identification unit 122 can determine the start and end points of the game video to be cut out by referring to the metadata. Also, if it is known from the metadata that the player character is using a rare weapon, the game image identification unit 122 may read out the game video when the rare weapon is being used.
- the game image specification unit 122 automatically generates game image content that reflects the user's preferences using a trained content generation model that has learned from user-generated content.
- the game image specification unit 122 may automatically generate game image content using a trained content generation model that has learned from content previously generated by a user different from the user in question.
- the learning unit 130 collects content previously generated by another user (player) via the network 3 and trains the content generation model.
- the learning unit 130 may train the content generation model using content manually captured by a friend.
- the learning unit 130 may train the content generation model using content manually captured by players who frequently play a game together.
- the learning unit 130 may train the content generation model using content manually captured by players who frequently share content.
- the learning unit 130 may train the content generation model using content manually captured by players who play the same game title.
- the learning unit 130 may train the content generation model using content manually captured by players who play the same game genre.
- the learning unit 130 trains the content generation model using content generated by another user, which enables the content generation model to generate content that the other user prefers. Therefore, the game image identification unit 122 will identify game images related to content previously generated by a user other than the user from among images of a game being played by the user. The user may be able to set what type of content the learning unit 130 will learn.
- the hardware is a processor that is considered to be a type of circuitry
- the circuitry, means, or unit may be a combination of hardware and software used to configure the hardware and/or processor.
- the user wishes to share the content with other users, the user selects "Yes", and if not, the user selects "No".
- the user operates the input device 6 to select the "Yes” or “No” display area, but the user may be able to choose whether to share the content with other users or not by saying "Yes” or "No".
- the user can specify the sharing destination.
- “content sharing server” is selected. When sending content directly to a friend, checking “Select friends” displays a friend list and the user can select one or more friends with whom to share the content. Note that multiple options for "content sharing server” may be provided, and the user may be able to select one or more content sharing servers. The user may also be able to select one or more friends and one or more content sharing servers as sharing destinations.
- the sharing processing unit 214 determines that the user has not consented to the content sharing process (N in S28) and does not share the content with other users.
- the content sharing process ends when it has been performed on all unshared content (N in S20).
- the sharing processing unit 214 presents candidate content to be shared to the user to obtain the user's approval.
- the sharing processing unit 214 may share content without presenting candidate content to the user.
- the sharing processing unit 214 autonomously determines a sharing destination and transmits the content to the sharing destination.
- the sharing processing unit 214 may determine the sharing destination that has been selected most frequently in the past as the sharing destination of the content. For example, if past statistics show a tendency that screenshots are shared with specific users and videos are uploaded to a content sharing server, the sharing processing unit 214 may determine the sharing destination of the content based on the past statistical data.
- the learning unit 220 may periodically train the shared content identification model using shared content that has not yet been learned from among the content (game images) stored in the storage device 150. For example, the learning unit 220 may train the shared content identification model once on the last day of a month using the content shared in that month. The learning unit 220 may train the shared content identification model each time new content is shared, or may train the shared content identification model each time a predetermined number of new contents are shared.
- the content identification unit 212 automatically identifies the content to be shared using a trained shared content identification model that has learned about content shared by a user.
- the content identification unit 212 may automatically identify the content to be shared using a trained shared content identification model that has learned about content shared by a user different from the user in question.
- the learning unit 220 collects content shared by other users (players) via the network 3 and trains the shared content identification model.
- the learning unit 220 may train the shared content identification model using content shared by friends.
- the learning unit 220 may train the shared content identification model using content shared by players who frequently play a game together.
- the learning unit 220 may train the shared content identification model using content shared by players who frequently share content.
- the learning unit 220 may train the shared content identification model using content shared by players who play the same game title.
- the learning unit 220 may train the shared content identification model using content shared by players who play the same game genre.
- the learning unit 220 may also train the shared content identification model using content shared by the same sharing destination. In particular, when there are multiple content sharing servers as sharing destinations and each content sharing server has its own characteristics in the type of distributed content, the learning unit 220 may train the shared content identification model for each content sharing server.
- the learning unit 220 trains the shared content identification model using content shared by another user, which enables the shared content identification model to identify content that the other user prefers to share. Therefore, the content identification unit 212 becomes able to identify, from among the user's content, content related to content shared by a user other than the user. The user may be able to set what type of content the learning unit 220 is to learn.
- the metadata may include, for example, data indicating enemy characters, data indicating the weapon used by the player character, the current position on the map, etc.
- the learning unit 220 may generate a machine learning model for each matching combination of metadata (for example, enemy character, weapon used, current position), and when the content identification unit 212 analyzes the content, it may perform AI image analysis using a machine learning model with a matching or similar combination of metadata.
- the content identification unit 212 performs image analysis of the content to determine whether or not the content is related to the shared content, but the content identification unit 212 may also analyze user voice or game sounds to determine whether or not the content is related to the shared content.
- the user voice acquisition unit 140 acquires voice spoken by the user and supplies it to the content identification unit 212.
- the content identification unit 212 analyzes the user voice or game sounds and detects excitement, it may determine that content as a candidate for sharing.
- the information processing device 10 includes a processing unit 100 that realizes a content generation function and a content sharing function, but the content generation function and the content sharing function may be realized by the information processing device 10 and the management server 5 working together.
- the content generation function and the content sharing function may be realized by the cloud game server alone, may be realized by the cloud game server and the management server 5 working together, may be realized by the cloud game server and the information processing device 10 working together, or may be realized by the cloud game server, the information processing device 10, and the management server 5 working together.
- the learning unit 220 trains the shared content identification model using the shared content shared by one user as training data.
- the management server 5 pre-trains the shared content identification model using the shared content shared by many users participating in the information processing system 1 as training data, and generates a trained shared content identification model (hereinafter also referred to as a "common content identification model") common to all users.
- the management server 5 provides the common content identification model to the information processing device 10, and the learning unit 220 may fine-tune the common content identification model using the shared content shared by the user operating the information processing device 10.
- the learning unit 220 may fine-tune the common content identification model for each game title or game genre, or may fine-tune using the shared content generated by another user.
- a highly reliable shared content identification model can be generated even when there is little user training data.
- the present disclosure may include the following aspects.
- An information processing system comprising: The circuitry includes: Acquire images of games that the user has played in the past or images of games that the user is currently playing; performing image analysis on the acquired game image to determine whether the game image is related to content previously shared with other users; sharing with another user a game image determined to be related to the previously shared content; Information processing system.
- the circuitry determines whether the acquired game image has common characteristics with content previously shared with other users.
- Item 2. An information processing system according to item 1.
- the circuit determines a destination to which the game image is to be shared.
- the circuitry presents to the user game images determined to be associated with the previously shared content.
- Item 2 An information processing system according to item 1.
- the circuitry presents the user with options for sharing the game image together with the game image; 5.
- the circuitry presents game images to the user when the user is not playing a game. 5.
- the circuit acquires a screenshot or a game video image as the game image.
- a method for sharing game images comprising: Acquire images of games that the user has played in the past or images of games that the user is currently playing; performing image analysis on the acquired game image to determine whether the game image is related to content previously shared with other users; The game image determined to be related to the previously shared content is shared with another user.
- 1 Information processing system
- 10 Information processing device
- 100 Processing unit
- 102 Communication unit
- 110 Game execution unit
- 112 Game image and sound generation unit
- 114 Output processing unit
- 120 Game image acquisition unit
- 122 Game image identification unit
- 124 Content storage unit
- 126 Content presentation unit
- 130 Learning unit
- 140 User voice acquisition unit
- 150 Storage device
- 152 User-generated content storage unit
- 154 Content storage unit
- 210 Game image acquisition unit
- 212 Content identification unit
- Sharing processing unit 220: Learning unit.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Information Transfer Between Computers (AREA)
Abstract
Description
本開示は、ユーザが現在プレイしているゲームの画像又は過去にプレイしたゲームの画像をコンテンツとして保存する技術および/またはコンテンツを他のユーザと共有する技術に関する。 The present disclosure relates to a technology for saving images of a game that a user is currently playing or has played in the past as content and/or a technology for sharing the content with other users.
特許文献1は、ユーザの操作にもとづいてゲームプログラムを実行して、ゲーム画像を出力装置に表示するとともに、当該ゲーム画像をバックグランドでリングバッファに記録する情報処理装置を開示する。ユーザは編集画面において、リングバッファに記録したゲーム動画を切り出す開始点と終了点を指定し、切り出したゲーム動画をコンテンツ共有サーバにアップロードする。 Patent Document 1 discloses an information processing device that executes a game program based on user operations, displays game images on an output device, and records the game images in a ring buffer in the background. On an editing screen, the user specifies the start and end points for cutting out the game video recorded in the ring buffer, and uploads the cut-out game video to a content sharing server.
従来、ユーザは、現在プレイしているゲームの画像を手動でキャプチャして、ユーザオリジナルのコンテンツを生成している。一般に、ユーザが生成したコンテンツは、ユーザ生成コンテンツ(User Generated Content)と呼ばれ、ユーザはユーザ生成コンテンツを共有サーバにアップロードしたり、特定のフレンドに提供して、ユーザ生成コンテンツを他のユーザと共有している。 Traditionally, users generate their own original content by manually capturing images of the game they are currently playing. Generally, content generated by users is called User Generated Content, and users share User Generated Content with other users by uploading it to a shared server or providing it to specific friends.
本開示は、コンテンツを生成する処理や、他のユーザとコンテンツを共有する処理を効率的に実現する仕組みを提供することを目的とする。 The purpose of this disclosure is to provide a mechanism for efficiently realizing the process of generating content and sharing content with other users.
本開示のある態様の情報処理システムは、ユーザが過去にプレイしたゲームの画像又はユーザがプレイしているゲームの画像を取得するゲーム画像取得部と、取得したゲーム画像を画像解析して、過去に他のユーザと共有したコンテンツに関連するゲーム画像であるか否かを判定するコンテンツ特定部と、過去の共有コンテンツに関連することが判定されたゲーム画像を他のユーザと共有されるようにする共有処理部とを備える。 An information processing system according to one aspect of the present disclosure includes a game image acquisition unit that acquires images of a game that the user has played in the past or images of a game that the user is currently playing, a content identification unit that performs image analysis on the acquired game images to determine whether the game images are related to content that has been shared with other users in the past, and a sharing processing unit that allows game images determined to be related to previously shared content to be shared with other users.
本開示の別の態様のゲーム画像共有方法は、ユーザが過去にプレイしたゲームの画像又はユーザがプレイしているゲームの画像を取得するステップと、取得したゲーム画像を画像解析して、過去に他のユーザと共有したコンテンツに関連するゲーム画像であるか否かを判定するステップと、過去の共有コンテンツに関連することが判定されたゲーム画像を別のユーザと共有されるようにするステップとを有する。 A game image sharing method according to another aspect of the present disclosure includes the steps of acquiring an image of a game that the user has played in the past or an image of a game that the user is currently playing, analyzing the acquired game image to determine whether the game image is related to content that has been shared with another user in the past, and allowing the game image determined to be related to the previously shared content to be shared with another user.
なお、以上の構成要素の任意の組合せ、本開示の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本開示の態様として有効である。 In addition, any combination of the above components, and conversions of the expressions of this disclosure between methods, devices, systems, recording media, computer programs, etc., are also valid aspects of this disclosure.
実施形態の情報処理システムでは、情報処理装置がユーザの操作にもとづいてゲームプログラムを実行し、ゲーム画像およびゲーム音を出力装置に出力するとともに、ゲーム画像および/またはゲーム音を含むユーザオリジナルのコンテンツをユーザの指示なく自動で生成する機能を備えてよい。自動で生成するコンテンツは、ゲームの静止画(スクリーンショット)や、ゲームの動画像であってよい。また情報処理装置は、ユーザの指示なく自動でコンテンツを別のユーザと共有する処理を実施する機能を備えてよい。コンテンツを共有する処理は、コンテンツを他のユーザ(たとえばフレンド)に提供したり、コンテンツを配信サーバにアップロードして、他のユーザが見ることのできる状態にすることを含む。情報処理装置は、共有先を決定して共有先にコンテンツを提供する共有処理を自動実施してよいが、共有処理を実施する前に、コンテンツおよび共有先をユーザに提示して、ユーザの了承を得てから共有処理を実施してよい。 In the information processing system of the embodiment, the information processing device executes a game program based on the user's operation, outputs game images and game sounds to an output device, and may have a function of automatically generating user-original content including game images and/or game sounds without user instructions. The automatically generated content may be still images (screenshots) of the game or video images of the game. The information processing device may also have a function of automatically performing a process of sharing content with another user without user instructions. The process of sharing content includes providing the content to other users (e.g., friends) and uploading the content to a distribution server so that the content can be viewed by other users. The information processing device may automatically perform a sharing process of determining a sharing destination and providing the content to the sharing destination, but may also present the content and the sharing destination to the user before performing the sharing process and perform the sharing process after obtaining the user's consent.
図1は、本開示の実施形態にかかる情報処理システム1を示す。実施形態の情報処理システム1は、ユーザが操作する情報処理装置10を備える。情報処理システム1は、ユーザに対してネットワークサービスを提供する管理サーバ5と、コンテンツを配信するコンテンツ共有サーバ9を備えてよい。さらに情報処理システム1は、クラウドゲームサーバなどの別のサーバを備えてもよい。 FIG. 1 shows an information processing system 1 according to an embodiment of the present disclosure. The information processing system 1 of the embodiment includes an information processing device 10 operated by a user. The information processing system 1 may include a management server 5 that provides network services to users, and a content sharing server 9 that distributes content. The information processing system 1 may further include another server, such as a cloud game server.
アクセスポイント(以下、「AP」とよぶ)8は、無線アクセスポイントおよびルータの機能を有し、情報処理装置10は、無線または有線経由でAP8に接続して、インターネットなどのネットワーク3上の管理サーバ5およびコンテンツ共有サーバ9と通信可能に接続する。 The access point (hereinafter referred to as "AP") 8 has the functions of a wireless access point and a router, and the information processing device 10 connects to the AP 8 wirelessly or via a wired connection to be able to communicate with the management server 5 and the content sharing server 9 on the network 3 such as the Internet.
情報処理装置10は、複数の操作部材を有する入力装置6と無線または有線で接続し、入力装置6はユーザが操作部材を操作した情報を情報処理装置10に出力する。情報処理装置10は入力装置6から操作情報を受け付けるとシステムソフトウェアやゲームソフトウェアの処理に反映し、出力装置4から処理結果を出力させる。情報処理システム1において情報処理装置10はゲームを実行するゲーム装置(ゲームコンソール)であり、入力装置6はゲームコントローラなどの操作装置であって、情報処理装置10に対してユーザが操作部材を操作した情報を供給する。なお入力装置6は、キーボードやマウスなどの入力インタフェースであってもよい。 The information processing device 10 is connected wirelessly or by wire to an input device 6 having multiple operating members, and the input device 6 outputs information of the user operating the operating members to the information processing device 10. When the information processing device 10 receives operation information from the input device 6, it reflects the information in the processing of the system software and game software, and causes the output device 4 to output the processing results. In the information processing system 1, the information processing device 10 is a game device (game console) that executes a game, and the input device 6 is an operating device such as a game controller, which supplies information of the user operating the operating members to the information processing device 10. The input device 6 may also be an input interface such as a keyboard or mouse.
変形例で情報処理システム1は、ユーザの操作にもとづいてゲームプログラムを実行するクラウドゲームサーバ(図示せず)を備えてよい。この変形例において情報処理装置10は、ゲームサーバに対してユーザが入力装置6を操作した情報(ゲーム操作情報)を送信する。ゲームサーバは、ゲーム操作情報にもとづいてゲーム画像およびゲーム音を生成し、ゲーム画像およびゲーム音を情報処理装置10にストリーミングする。この変形例で情報処理装置10はゲームプログラムの実行機能を有しなくてよく、ゲーム画像およびゲーム音を出力装置4から出力する端末装置であってよい。 In a modified example, the information processing system 1 may include a cloud game server (not shown) that executes a game program based on user operations. In this modified example, the information processing device 10 transmits information (game operation information) of the user operating the input device 6 to the game server. The game server generates game images and game sounds based on the game operation information, and streams the game images and game sounds to the information processing device 10. In this modified example, the information processing device 10 does not need to have a function for executing a game program, and may be a terminal device that outputs game images and game sounds from the output device 4.
補助記憶装置2は、HDD(ハードディスクドライブ)やSSD(ソリッドステートドライブ)などの大容量記録装置であり、内蔵型記録装置であってよく、またUSB(Universal Serial Bus)などによって情報処理装置10と接続する外部記録装置であってもよい。出力装置4は画像を出力するディスプレイおよび音を出力するスピーカを有するテレビであってよい。出力装置4は、情報処理装置10に有線ケーブルで接続されてよく、また無線接続されてもよい。 The auxiliary storage device 2 is a large-capacity recording device such as an HDD (hard disk drive) or SSD (solid state drive), and may be an internal recording device, or may be an external recording device connected to the information processing device 10 via a USB (Universal Serial Bus) or the like. The output device 4 may be a television having a display for outputting images and a speaker for outputting sound. The output device 4 may be connected to the information processing device 10 via a wired cable, or may be connected wirelessly.
撮像装置であるカメラ7は出力装置4の近傍に設けられ、出力装置4周辺の空間を撮像する。図1ではカメラ7が出力装置4の上部に取り付けられている例を示しているが、出力装置4の側部または下部に配置されてもよく、いずれにしても出力装置4の前方に位置するユーザを撮像できる位置に配置される。カメラ7はステレオカメラであってもよい。 Camera 7, which is an imaging device, is provided near output device 4 and captures an image of the space around output device 4. While FIG. 1 shows an example in which camera 7 is attached to the top of output device 4, it may be disposed on the side or bottom of output device 4, and in either case, it is disposed in a position where it can capture an image of a user positioned in front of output device 4. Camera 7 may be a stereo camera.
管理サーバ5は、情報処理システム1のユーザに対してネットワークサービスを提供する。管理サーバ5は、各ユーザを識別するユーザアカウントを管理しており、各ユーザはユーザアカウントを用いて、管理サーバ5が提供するネットワークサービスにサインインする。ユーザは情報処理装置10からネットワークサービスにサインインすることで、管理サーバ5に、ゲームのセーブデータや、ゲームプレイ中に獲得した仮想的な褒賞であるトロフィを登録できる。管理サーバ5にセーブデータやトロフィが登録されることで、ユーザが情報処理装置10とは別の情報処理装置を使用しても、セーブデータやトロフィを同期できるようになる。ユーザアカウントには、所定のネットワークサービスの有料会員である等のアカウント情報が対応付けられる。 The management server 5 provides network services to users of the information processing system 1. The management server 5 manages user accounts that identify each user, and each user signs in to the network services provided by the management server 5 using their user account. By signing in to the network services from the information processing device 10, users can register game save data and trophies, which are virtual rewards acquired during game play, in the management server 5. By registering the save data and trophies in the management server 5, the save data and trophies can be synchronized even if the user uses an information processing device other than the information processing device 10. Account information such as being a paid member of a specified network service is associated with the user account.
コンテンツ共有サーバ9は、情報処理装置10で生成されたコンテンツを、特定または不特定のユーザが見ることのできる状態にする。情報処理システム1に参加するユーザは、コンテンツ共有サーバ9にアクセスして所望のコンテンツを選択することで、当該コンテンツを見ることができる。実施形態において情報処理装置10は、保存している複数のコンテンツの中から、他のユーザと共有するのに相応しいコンテンツを自動で特定して、コンテンツ共有サーバ9にアップロードする。このとき情報処理装置10は、コンテンツをコンテンツ共有サーバ9に自動アップロードしてよいが、ユーザの了承を得たことを条件としてコンテンツ共有サーバ9にアップロードしてもよい。なおコンテンツ共有サーバ9にコンテンツをアップロードする処理は、他のユーザとコンテンツを共有する形態の一つであり、情報処理装置10は、特定のユーザ(たとえばフレンド)にコンテンツを送信して、当該特定のユーザとコンテンツを共有してもよい。 The content sharing server 9 makes the content generated by the information processing device 10 available for viewing by specific or unspecified users. Users participating in the information processing system 1 can view the desired content by accessing the content sharing server 9 and selecting the content. In the embodiment, the information processing device 10 automatically identifies content suitable for sharing with other users from among multiple stored contents, and uploads the content to the content sharing server 9. At this time, the information processing device 10 may automatically upload the content to the content sharing server 9, or may upload the content to the content sharing server 9 on the condition that the user's consent is obtained. Note that the process of uploading content to the content sharing server 9 is one form of sharing content with other users, and the information processing device 10 may send the content to a specific user (e.g., a friend) and share the content with the specific user.
情報処理装置10は、過去にユーザが手動で生成したコンテンツ(以下、「ユーザ生成コンテンツ」とも呼ぶ)を学習したコンテンツ生成モデルを備える。コンテンツ生成モデルは、複数のユーザ生成コンテンツを機械学習して、ユーザ生成コンテンツの規則性(特徴)を抽出する。ユーザ生成コンテンツは、ユーザの好みにしたがって生成されるものであり、ユーザごとに異なる特徴を有している。機械学習に用いるユーザ生成コンテンツの数が多いほど、ユーザ生成コンテンツの規則性を的確にとらえた特徴を高精度に抽出でき、コンテンツ生成モデルの信頼性を高めることができる。 The information processing device 10 has a content generation model that has learned from content that users have manually generated in the past (hereinafter also referred to as "user-generated content"). The content generation model performs machine learning on multiple user-generated contents to extract regularities (features) of the user-generated content. User-generated content is generated according to the preferences of the user, and has different characteristics for each user. The more user-generated content is used for machine learning, the more accurately features that accurately capture the regularities of the user-generated content can be extracted, and the more reliable the content generation model can be.
コンテンツ生成モデルは、ユーザが現在プレイしているゲームの画像を入力すると、当該ゲーム画像がユーザ生成コンテンツの特徴を反映した程度(類似度)をスコア値として出力するように訓練されてよい。類似度は、当該ゲーム画像がユーザ生成コンテンツに適合する程度を示し、スコア値は100点満点で表現されてよい。 The content generation model may be trained to input an image of the game that a user is currently playing, and output the degree to which the game image reflects the characteristics of the user-generated content (similarity) as a score value. The similarity indicates the degree to which the game image matches the user-generated content, and the score value may be expressed on a scale of 100 points.
コンテンツ生成モデル(機械学習モデル)は、入力層と、1つ以上の畳み込み層と、出力層とを含む多層のニューラルネットワークに相当するCNN(Convolutional Neural Network)で構成されてよい。情報処理装置10は、CNNにおける各結合係数(重み)をディープラーニング等の学習手法で学習させてよい。なお情報処理装置10は、コンテンツ生成モデルを、他のAI訓練手法により学習させてもよい。 The content generation model (machine learning model) may be composed of a CNN (Convolutional Neural Network), which is equivalent to a multi-layer neural network including an input layer, one or more convolutional layers, and an output layer. The information processing device 10 may train each coupling coefficient (weight) in the CNN using a learning method such as deep learning. Note that the information processing device 10 may train the content generation model using other AI training methods.
また情報処理装置10は、過去にユーザが他のユーザと共有(シェア)したコンテンツ(以下、「共有コンテンツ」とも呼ぶ)を学習した共有コンテンツ特定モデルを備える。共有コンテンツ特定モデルは、複数の共有コンテンツを機械学習して、共有コンテンツの規則性(特徴)を抽出する。共有コンテンツは、ユーザが他のユーザと共有することを希望して、ユーザ生成コンテンツの中から選択したコンテンツであり、ユーザごとに異なる特徴を有する。機械学習に用いる共有コンテンツの数が多いほど、共有コンテンツの規則性を的確にとらえた特徴を高精度に抽出でき、共有コンテンツ特定モデルの信頼性を高めることができる。 The information processing device 10 also has a shared content identification model that learns content that a user has shared with other users in the past (hereinafter also referred to as "shared content"). The shared content identification model performs machine learning on multiple shared contents to extract regularities (features) of the shared content. Shared content is content that a user selects from among user-generated content in order to share it with other users, and has different characteristics for each user. The more shared contents are used for machine learning, the more accurately features that accurately capture the regularities of the shared content can be extracted, and the more reliable the shared content identification model can be.
共有コンテンツ特定モデルは、ユーザが過去にプレイしたゲーム画像であるコンテンツを入力すると、当該コンテンツが共有コンテンツの特徴を反映した程度(類似度)をスコア値として出力するように訓練されてよい。類似度は、当該コンテンツが共有コンテンツに適合する程度を示し、スコア値は100点満点で表現されてよい。 The shared content identification model may be trained so that when content, which is an image of a game that the user has played in the past, is input, the model outputs the degree to which the content reflects the characteristics of the shared content (similarity) as a score value. The similarity indicates the degree to which the content matches the shared content, and the score value may be expressed on a scale of 100 points.
共有コンテンツ特定モデル(機械学習モデル)は、入力層と、1つ以上の畳み込み層と、出力層とを含む多層のニューラルネットワークに相当するCNN(Convolutional Neural Network)で構成されてよい。情報処理装置10は、CNNにおける各結合係数(重み)をディープラーニング等の学習手法で学習させてよい。なお情報処理装置10は、共有コンテンツ特定モデルを、他のAI訓練手法により学習させてもよい。 The shared content identification model (machine learning model) may be configured as a CNN (Convolutional Neural Network), which is equivalent to a multi-layer neural network including an input layer, one or more convolutional layers, and an output layer. The information processing device 10 may train each coupling coefficient (weight) in the CNN using a learning method such as deep learning. Note that the information processing device 10 may train the shared content identification model using other AI training methods.
図2は、情報処理装置10のハードウェア構成を示す。情報処理装置10は、メイン電源ボタン20、電源ON用LED21、スタンバイ用LED22、システムコントローラ24、クロック26、デバイスコントローラ30、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50およびメインシステム60を有して構成される。 FIG. 2 shows the hardware configuration of the information processing device 10. The information processing device 10 is configured to include a main power button 20, a power ON LED 21, a standby LED 22, a system controller 24, a clock 26, a device controller 30, a media drive 32, a USB module 34, a flash memory 36, a wireless communication module 38, a wired communication module 40, a subsystem 50, and a main system 60.
メインシステム60は、メインCPU(Central Processing Unit)、主記憶装置であるメモリおよびメモリコントローラ、GPU(Graphics Processing Unit)などを備える。GPUはゲームプログラムの演算処理に主として利用される。メインCPUはシステムソフトウェアを起動し、システムソフトウェアが提供する環境下において、補助記憶装置2にインストールされたゲームプログラムを実行する機能をもつ。サブシステム50は、サブCPU、主記憶装置であるメモリおよびメモリコントローラなどを備え、GPUを備えない。 The main system 60 comprises a main CPU (Central Processing Unit), a memory and memory controller serving as the main storage device, a GPU (Graphics Processing Unit), etc. The GPU is primarily used for the calculation and processing of game programs. The main CPU has the function of starting up the system software and executing the game program installed in the auxiliary storage device 2 in the environment provided by the system software. The subsystem 50 comprises a sub-CPU, a memory and memory controller serving as the main storage device, etc., but does not comprise a GPU.
メインCPUは補助記憶装置2にインストールされているゲームプログラムを実行する機能をもつ一方で、サブCPUはそのような機能をもたない。しかしながらサブCPUは補助記憶装置2にアクセスする機能や、管理サーバ5との間でデータを送受信する機能を有している。サブCPUは、このような制限された処理機能のみを有して構成されており、したがってメインCPUと比較して小さい消費電力で動作できる。これらのサブCPUの機能は、メインCPUがスタンバイ状態にある際に実行される。 While the main CPU has the function of executing game programs installed in the auxiliary storage device 2, the sub-CPU does not have such a function. However, the sub-CPU has the function of accessing the auxiliary storage device 2 and the function of sending and receiving data with the management server 5. The sub-CPU is configured with only these limited processing functions, and therefore can operate with less power consumption compared to the main CPU. These functions of the sub-CPU are executed when the main CPU is in standby mode.
メイン電源ボタン20は、ユーザからの操作入力が行われる入力部であって、情報処理装置10の筐体の前面に設けられ、情報処理装置10のメインシステム60への電源供給をオンまたはオフするために操作される。電源ON用LED21は、メイン電源ボタン20がオンされたときに点灯し、スタンバイ用LED22は、メイン電源ボタン20がオフされたときに点灯する。システムコントローラ24は、ユーザによるメイン電源ボタン20の押下を検出する。 The main power button 20 is an input unit through which the user inputs operations, is provided on the front of the housing of the information processing device 10, and is operated to turn on or off the power supply to the main system 60 of the information processing device 10. The power ON LED 21 lights up when the main power button 20 is turned on, and the standby LED 22 lights up when the main power button 20 is turned off. The system controller 24 detects when the main power button 20 is pressed by the user.
クロック26はリアルタイムクロックであって、現在の日時情報を生成し、システムコントローラ24やサブシステム50およびメインシステム60に供給する。 The clock 26 is a real-time clock that generates current date and time information and supplies it to the system controller 24, the subsystem 50, and the main system 60.
デバイスコントローラ30は、サウスブリッジのようにデバイス間の情報の受け渡しを実行するLSI(Large-Scale Integrated Circuit)として構成される。図示のように、デバイスコントローラ30には、システムコントローラ24、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50およびメインシステム60などのデバイスが接続される。デバイスコントローラ30は、それぞれのデバイスの電気特性の違いやデータ転送速度の差を吸収し、データ転送のタイミングを制御する。 The device controller 30 is configured as an LSI (Large-Scale Integrated Circuit) that transfers information between devices like a south bridge. As shown in the figure, devices such as the system controller 24, media drive 32, USB module 34, flash memory 36, wireless communication module 38, wired communication module 40, subsystem 50, and main system 60 are connected to the device controller 30. The device controller 30 absorbs differences in the electrical characteristics and data transfer speeds of each device and controls the timing of data transfer.
メディアドライブ32は、ゲームなどのアプリケーションソフトウェア、およびライセンス情報を記録したROM媒体44を装着して駆動し、ROM媒体44からプログラムやデータなどを読み出すドライブ装置である。ROM媒体44は、光ディスクや光磁気ディスク、ブルーレイディスクなどの読出専用の記録メディアである。 The media drive 32 is a drive device that operates by mounting a ROM medium 44 on which application software such as games and license information are recorded, and reads programs, data, and the like from the ROM medium 44. The ROM medium 44 is a read-only recording medium such as an optical disk, magneto-optical disk, or Blu-ray disk.
USBモジュール34は、外部機器とUSBケーブルで接続するモジュールである。USBモジュール34は補助記憶装置2およびカメラ7とUSBケーブルで接続してもよい。フラッシュメモリ36は、内部ストレージを構成する補助記憶装置である。無線通信モジュール38は、Bluetooth(登録商標)プロトコルやIEEE802.11プロトコルなどの通信プロトコルで、入力装置6と無線通信する。有線通信モジュール40は、外部機器と有線通信し、AP8を介してネットワーク3に接続する。 The USB module 34 is a module that connects to an external device via a USB cable. The USB module 34 may also be connected to the auxiliary storage device 2 and the camera 7 via a USB cable. The flash memory 36 is an auxiliary storage device that constitutes the internal storage. The wireless communication module 38 wirelessly communicates with the input device 6 using a communication protocol such as the Bluetooth (registered trademark) protocol or the IEEE802.11 protocol. The wired communication module 40 communicates with an external device via a wired connection and connects to the network 3 via the AP 8.
実施形態の情報処理装置10は、ユーザの操作にもとづいてゲームプログラムを実行し、ゲーム画像およびゲーム音を出力装置4に出力するとともに、ゲーム画像および/またはゲーム音を含むユーザオリジナルのコンテンツを自動で生成する機能を備える。また情報処理装置10は、コンテンツを別のユーザと共有する処理を自動実施する機能も備える。以下、情報処理装置10のコンテンツを自動生成する機能と、コンテンツの共有処理を自動実施する機能について説明する。 The information processing device 10 of the embodiment executes a game program based on user operations, outputs game images and game sounds to the output device 4, and has a function of automatically generating user original content including game images and/or game sounds. The information processing device 10 also has a function of automatically performing a process of sharing content with another user. Below, the function of automatically generating content of the information processing device 10 and the function of automatically performing a process of sharing content are described.
<コンテンツを自動生成する機能>
図3は、情報処理装置10の機能ブロックの一例を示す。実施形態の情報処理装置10は、処理部100および通信部102を備え、処理部100は、ゲーム画像および/またはゲーム音を含むユーザオリジナルのコンテンツを自動生成する機能を備える。処理部100は、ゲーム実行部110、ゲーム画音生成部112、出力処理部114、ゲーム画像取得部120、ゲーム画像特定部122、コンテンツ保存部124、コンテンツ提示部126、学習部130およびユーザ音声取得部140を備える。記憶装置150は、ユーザが過去に手動で生成したコンテンツ(ユーザ生成コンテンツ)を記憶するユーザ生成コンテンツ記憶部152と、処理部100が自動生成するコンテンツを記憶するコンテンツ記憶部154とを有する。記憶装置150は、補助記憶装置2であってよい。
<Automatic content generation function>
3 shows an example of functional blocks of the information processing device 10. The information processing device 10 of the embodiment includes a processing unit 100 and a communication unit 102, and the processing unit 100 has a function of automatically generating user-original content including game images and/or game sounds. The processing unit 100 includes a game execution unit 110, a game image and sound generation unit 112, an output processing unit 114, a game image acquisition unit 120, a game image specification unit 122, a content storage unit 124, a content presentation unit 126, a learning unit 130, and a user voice acquisition unit 140. The storage device 150 has a user-generated content storage unit 152 that stores content (user-generated content) that the user manually generated in the past, and a content storage unit 154 that stores content that the processing unit 100 automatically generates. The storage device 150 may be an auxiliary storage device 2.
情報処理装置10における構成要素の機能は、本明細書にて記載された機能を実現するように構成された又はプログラムされた、汎用プロセッサ、特定用途プロセッサ、集積回路、ASICs (Application Specific Integrated Circuits)、CPU (a Central Processing Unit)、従来型の回路、および/又はそれらの組合せを含む、回路(circuitry)又は処理回路(processing circuitry)において実現されてよい。プロセッサは、トランジスタやその他の回路を含む回路(circuitry)又は処理回路(processing circuitry)とみなされる。プロセッサは、メモリに格納されたプログラムを実行する、プログラムされたプロセッサ(programmed processor)であってもよい。 The functions of the components in the information processing device 10 may be implemented in circuitry or processing circuitry, including general purpose processors, application specific processors, integrated circuits, ASICs (Application Specific Integrated Circuits), a CPU (a Central Processing Unit), conventional circuits, and/or combinations thereof, configured or programmed to implement the functions described herein. A processor is considered to be a circuitry or processing circuitry that includes transistors and other circuits. A processor may be a programmed processor that executes a program stored in a memory.
本明細書において、回路(circuitry)、ユニット、手段は、記載された機能を実現するようにプログラムされたハードウェア、又は実行するハードウェアである。当該ハードウェアは、本明細書に開示されているあらゆるハードウェア、又は、当該記載された機能を実現するようにプログラムされた、又は、実行するものとして知られているあらゆるハードウェアであってもよい。 In this specification, a circuit, unit, or means is hardware that is programmed to realize or executes the described functions. The hardware may be any hardware disclosed in this specification or any hardware that is programmed to realize or known to execute the described functions.
当該ハードウェアが回路(circuitry)のタイプであるとみなされるプロセッサである場合、当該回路(circuitry)、手段、又はユニットは、ハードウェアと、当該ハードウェア及び又はプロセッサを構成する為に用いられるソフトウェアとの組合せであってよい。 If the hardware is a processor that is considered to be a type of circuitry, the circuitry, means, or unit may be a combination of hardware and software used to configure the hardware and/or processor.
通信部102は、無線通信モジュール38および有線通信モジュール40の機能を併せ持つ。ユーザのゲームプレイ中、通信部102は、ユーザが入力装置6の操作部材を操作した情報(ゲーム操作情報)を受信して、ゲーム実行部110に提供する。 The communication unit 102 has the functions of both the wireless communication module 38 and the wired communication module 40. While the user is playing a game, the communication unit 102 receives information (game operation information) about the user's operation of the operation members of the input device 6, and provides this information to the game execution unit 110.
ゲーム実行部110は、ゲーム操作情報にもとづいてゲームソフトウェアを実行する。ゲームソフトウェアは、少なくともゲームプログラム、画像データおよび音データを含む。ユーザによるゲームプレイ中、ゲーム実行部110は、ユーザの操作情報をもとに、仮想空間内でプレイヤキャラクタを動かす演算処理を行う。ゲーム画音生成部112はGPU(Graphics Processing Unit)を含み、仮想空間における演算処理結果を受けて、仮想空間内の視点位置(仮想カメラ)からのゲーム画像を生成する。またゲーム画音生成部112は、仮想空間内の視点位置からのゲーム音を生成する。出力処理部114は、ゲーム画音生成部112が生成したゲーム画像およびゲーム音を、出力装置4から出力する。 The game execution unit 110 executes game software based on game operation information. The game software includes at least a game program, image data, and sound data. While the user is playing the game, the game execution unit 110 performs calculation processing to move a player character in a virtual space based on the user's operation information. The game image and sound generation unit 112 includes a GPU (Graphics Processing Unit), and receives the results of the calculation processing in the virtual space, and generates a game image from a viewpoint position (virtual camera) in the virtual space. The game image and sound generation unit 112 also generates game sound from a viewpoint position in the virtual space. The output processing unit 114 outputs the game images and game sounds generated by the game image and sound generation unit 112 from the output device 4.
図4は、出力装置4に表示されるゲーム画像の例を示す。ユーザは、出力装置4から出力されるゲーム画像およびゲーム音を視聴しながら入力装置6を操作して、ゲームを進行させる。 FIG. 4 shows an example of a game image displayed on the output device 4. The user operates the input device 6 while viewing the game images and game sounds output from the output device 4 to progress through the game.
ユーザ生成コンテンツ記憶部152は、ユーザが過去に手動で生成したコンテンツ(ユーザ生成コンテンツ)を記憶する。実施形態においてユーザ生成コンテンツは、機械学習モデル(または人工知能モデル)であるコンテンツ生成モデルを学習させるための学習用データとして利用される。ユーザ生成コンテンツは、教師あり学習における教師データとして利用されてよい。学習部130は、1人のユーザが生成したユーザ生成コンテンツを教師データとして用いて、コンテンツ生成モデルを学習させてよい。 The user-generated content storage unit 152 stores content that users have manually generated in the past (user-generated content). In an embodiment, the user-generated content is used as learning data for training a content generation model, which is a machine learning model (or an artificial intelligence model). The user-generated content may be used as training data in supervised learning. The learning unit 130 may train the content generation model using user-generated content generated by one user as training data.
コンテンツ生成モデルは、ユーザが現在プレイしているゲームの画像を入力すると、当該ゲーム画像がユーザ生成コンテンツの特徴を反映した程度(類似度)をスコア値として出力するように訓練される。類似度は、当該ゲーム画像がユーザ生成コンテンツに適合する程度を示し、スコア値は100点満点で表現されてよい。スコア値が100点に近いほど、当該ゲーム画像は、ユーザ生成コンテンツに適合する確率が高く、0点に近いほど、当該ゲーム画像は、ユーザ生成コンテンツに適合する確率が低い。 The content generation model is trained to input an image of the game currently being played by a user and output the degree to which the game image reflects the characteristics of the user-generated content (similarity) as a score value. The similarity indicates the degree to which the game image matches the user-generated content, and the score value may be expressed on a scale of 100 points. The closer the score value is to 100 points, the higher the probability that the game image matches the user-generated content, and the closer the score value is to 0 points, the lower the probability that the game image matches the user-generated content.
ユーザ生成コンテンツに静止画(スクリーンショット)と動画像が存在する場合、学習部130は、静止画用のコンテンツ生成モデルと、動画像用のコンテンツ生成モデルとを別個に訓練してよい。つまり静止画用のコンテンツ生成モデルは、ユーザ生成コンテンツである静止画を学習して、ユーザ生成コンテンツの特徴を抽出し、動画像用のコンテンツ生成モデルは、ユーザ生成コンテンツである動画像を学習して、ユーザ生成コンテンツの特徴を抽出する。なお変形例において学習部130は、ユーザ生成コンテンツである静止画と動画像とを区別することなくコンテンツ生成モデルに入力して、コンテンツ生成モデルを訓練してもよい。 If the user-generated content includes still images (screenshots) and moving images, the learning unit 130 may train a content generation model for still images and a content generation model for moving images separately. In other words, the content generation model for still images learns the still images, which are user-generated content, to extract the characteristics of the user-generated content, and the content generation model for moving images learns the moving images, which are user-generated content, to extract the characteristics of the user-generated content. In a modified example, the learning unit 130 may input the still images and moving images, which are user-generated content, to the content generation model without distinguishing between them, and train the content generation model.
学習部130は、ゲームタイトルまたはゲームジャンルごとに、コンテンツ生成モデルを訓練してよい。ゲーム画像のタイプは、ゲームタイトルまたはゲームジャンルごとに異なるため、学習部130は、ゲームタイトルまたはゲームジャンルごとにコンテンツ生成モデルを学習させることが好ましい。 The learning unit 130 may train a content generation model for each game title or game genre. Since the type of game image differs for each game title or game genre, it is preferable that the learning unit 130 trains a content generation model for each game title or game genre.
ゲームプレイ中、ゲーム画像取得部120は、ゲーム画音生成部112で生成されたゲーム画像およびゲーム音を取得し、ゲーム画像特定部122に供給する。ゲーム画像特定部122は、ゲーム画像取得部120が取得したゲーム画像を画像解析して、過去のユーザ生成コンテンツに関連するゲーム画像を特定する。実施形態のゲーム画像特定部122は、学習済みのコンテンツ生成モデルを利用して、ゲーム画像をAI画像解析する。学習済みのコンテンツ生成モデルは、ユーザがプレイしているゲームの画像を入力すると、当該ゲーム画像がユーザ生成コンテンツの特徴を反映した程度(類似度)をスコア値として出力する。このときコンテンツ生成モデルは、当該ゲーム画像を識別する情報とともにスコア値を出力してよい。当該ゲーム画像を識別する情報とは、当該ゲーム画像そのものであってよく、また当該ゲーム画像の生成日時を示す情報などのメタデータであってよい。 During game play, the game image acquisition unit 120 acquires game images and game sounds generated by the game image and sound generation unit 112 and supplies them to the game image identification unit 122. The game image identification unit 122 performs image analysis of the game images acquired by the game image acquisition unit 120 to identify game images related to past user-generated content. In the embodiment, the game image identification unit 122 performs AI image analysis of the game images using a trained content generation model. When an image of the game being played by the user is input, the trained content generation model outputs the degree to which the game image reflects the characteristics of the user-generated content (similarity) as a score value. At this time, the content generation model may output the score value together with information that identifies the game image. The information that identifies the game image may be the game image itself, or may be metadata such as information indicating the date and time of generation of the game image.
ゲーム画像特定部122は、コンテンツ生成モデルが出力したスコア値にもとづいて、ゲーム画像がコンテンツとして適当であるか否かを判定する。たとえばゲーム画像特定部122は、所定のスコア閾値(たとえば80点)以上のスコア値が出力されたゲーム画像を、ユーザ生成コンテンツとして適当なコンテンツであると決定してよく、スコア閾値未満のスコア値が出力されたゲーム画像を、ユーザ生成コンテンツとして不適当なコンテンツであると決定してよい。なおコンテンツ生成モデルは、当該ゲーム画像がコンテンツとして適当であるか又は不適当であるかを示す情報と、当該ゲーム画像を識別する情報とを出力するように構成されてもよい。 The game image identification unit 122 determines whether or not a game image is suitable as content based on the score value output by the content generation model. For example, the game image identification unit 122 may determine that a game image for which a score value equal to or greater than a predetermined score threshold (e.g., 80 points) is output is suitable as user-generated content, and may determine that a game image for which a score value less than the score threshold is output is inappropriate as user-generated content. The content generation model may be configured to output information indicating whether the game image is suitable or inappropriate as content, and information identifying the game image.
以下、ゲーム画像特定部122が、コンテンツとして適当な静止画(スクリーンショット)を特定する場合について説明する。
図5は、コンテンツを自動生成するフローチャートの例を示す。コンテンツの自動生成処理は、ユーザがゲームをプレイしているときに実施される(S10のY)。
図6は、出力装置4に表示されるゲーム画像の例を示す。ゲーム画像取得部120は、ゲーム画音生成部112で生成されたゲーム画像を取得し、ゲーム画像特定部122に供給する(S12)。ゲーム画像取得部120は、取得したゲーム画像を一時的に記憶するバッファメモリを備えてよい。ゲーム画像特定部122は、供給されたゲーム画像を静止画用のコンテンツ生成モデルに入力してAI画像解析し、当該ゲーム画像のスコア値を取得する。
A case will now be described in which the game image specification unit 122 specifies a still image (screenshot) appropriate as content.
5 shows an example of a flowchart for automatically generating content. The automatic content generation process is carried out while the user is playing the game (Y in S10).
6 shows an example of a game image displayed on the output device 4. The game image acquisition unit 120 acquires the game image generated by the game image and sound generation unit 112, and supplies it to the game image specification unit 122 (S12). The game image acquisition unit 120 may include a buffer memory for temporarily storing the acquired game image. The game image specification unit 122 inputs the supplied game image into a content generation model for still images, performs AI image analysis, and acquires a score value of the game image.
ゲーム画像のスコア値が所定のスコア閾値未満である場合(S14のN)、ゲーム画像特定部122は、当該ゲーム画像が過去のユーザ生成コンテンツに関連しないこと、つまり当該ゲーム画像がユーザ生成コンテンツと共通の特徴を有さず、コンテンツとして不適当であることを判定する。一方、ゲーム画像のスコア値が所定のスコア閾値以上である場合(S14のY)、ゲーム画像特定部122は、当該ゲーム画像が過去のユーザ生成コンテンツに関連すること、つまり当該ゲーム画像がユーザ生成コンテンツと共通の特徴を有し、コンテンツとして適当であることを判定する。 If the score value of the game image is less than a predetermined score threshold (N in S14), the game image identification unit 122 determines that the game image is not related to past user-generated content, i.e., that the game image does not have characteristics in common with the user-generated content and is inappropriate as content. On the other hand, if the score value of the game image is equal to or greater than a predetermined score threshold (Y in S14), the game image identification unit 122 determines that the game image is related to past user-generated content, i.e., that the game image has characteristics in common with the user-generated content and is appropriate as content.
ゲーム画像特定部122が、ユーザが現在プレイしているゲームの画像が、過去のユーザ生成コンテンツに関連することを判定すると、コンテンツ保存部124が、特定したゲーム画像を新しいコンテンツとしてコンテンツ記憶部154に保存する(S16)。たとえば図6に示すゲーム画像のスコア値が所定のスコア閾値以上である場合、コンテンツ保存部124は、図6に示すゲーム画像を、新しいコンテンツとしてコンテンツ記憶部154に自動保存する。このようにゲーム画像特定部122が、過去のスクリーンショットと共通の特徴を有するゲーム画像を特定することで、コンテンツ記憶部154には、ユーザの好みを反映したスクリーショットが自動的に保存されるようになる。ユーザがスクリーンショットの撮影指示を行うことなく、スクリーンショットが生成されるため、ユーザはゲームプレイに集中することができる。コンテンツの自動生成処理は、ユーザがゲームプレイを終了するまで(S10のN)実施されてよい。 When the game image identification unit 122 determines that the image of the game the user is currently playing is related to past user-generated content, the content saving unit 124 saves the identified game image in the content storage unit 154 as new content (S16). For example, if the score value of the game image shown in FIG. 6 is equal to or greater than a predetermined score threshold, the content saving unit 124 automatically saves the game image shown in FIG. 6 as new content in the content storage unit 154. In this way, the game image identification unit 122 identifies a game image that has common characteristics with past screenshots, so that screenshots that reflect the user's preferences are automatically saved in the content storage unit 154. Since the screenshots are generated without the user having to give an instruction to take a screenshot, the user can concentrate on playing the game. The automatic content generation process may be performed until the user finishes playing the game (N in S10).
なおゲーム画像特定部122は、互いに近似する複数のゲーム画像を、過去のスクリーンショットに関連するゲーム画像として特定することがある。たとえば図6に示すゲーム画像の前後に表示されるゲーム画像は、互いに近似しつつ、過去のスクリーンショットと共通の特徴を有することが多い。互いに近似する複数のゲーム画像が特定された場合、コンテンツ保存部124は、複数のゲーム画像のうちの一部のみをコンテンツ記憶部154に保存することが好ましい。たとえばコンテンツ保存部124は、複数のゲーム画像のうちの1枚のみをコンテンツ記憶部154に保存してよい。こうすることで、多量の近似したゲーム画像がコンテンツとして保存されることを回避でき、コンテンツ記憶部154の容量を効率的に利用できるようになる。 The game image identification unit 122 may identify multiple game images that are similar to each other as game images related to past screenshots. For example, the game images displayed before and after the game image shown in FIG. 6 are similar to each other and often have common features with past screenshots. When multiple game images that are similar to each other are identified, it is preferable for the content storage unit 124 to store only a portion of the multiple game images in the content storage unit 154. For example, the content storage unit 124 may store only one of the multiple game images in the content storage unit 154. This makes it possible to avoid storing a large number of similar game images as content, and allows the capacity of the content storage unit 154 to be used efficiently.
このためにコンテンツ保存部124は、ゲーム画像特定部122により連続して特定されるゲーム画像の近似度を評価する機能を備えてよい。2枚の画像の近似度は、2枚の画像の距離を計算することで評価されることが知られており、コンテンツ保存部124は、既知の評価手法を用いて、近似するゲーム画像を特定してよい。ゲーム画像特定部122がゲーム画像を特定するたびに、コンテンツ保存部124が新しいコンテンツとしてコンテンツ記憶部154に保存する場合、コンテンツ保存部124は、コンテンツ記憶部154にゲーム画像を保存した後、複数の近似するゲーム画像を特定して、一部のゲーム画像のみを残し、残りのゲーム画像をコンテンツ記憶部154から削除してよい。 For this purpose, the content storage unit 124 may have a function for evaluating the similarity of game images successively identified by the game image identification unit 122. It is known that the similarity of two images is evaluated by calculating the distance between the two images, and the content storage unit 124 may use a known evaluation method to identify similar game images. If the content storage unit 124 stores a game image in the content memory unit 154 as new content each time the game image identification unit 122 identifies the game image, the content storage unit 124 may, after storing the game images in the content memory unit 154, identify multiple similar game images, keep only some of the game images, and delete the remaining game images from the content memory unit 154.
なお上記の例では、ゲーム画像特定部122は、生成されるゲーム画像(フレーム画像)の全てを静止画用のコンテンツ生成モデルに入力してAI画像解析している。変形例でゲーム画像特定部122は、所定の周期でゲーム画像を静止画用のコンテンツ生成モデルに入力してAI画像解析してもよい。つまりゲーム画像特定部122は、たとえば数秒に1枚の頻度でゲーム画像を静止画用のコンテンツ生成モデルに入力してAI画像解析してもよい。 In the above example, the game image identification unit 122 inputs all generated game images (frame images) into a content generation model for still images and performs AI image analysis. In a modified example, the game image identification unit 122 may input game images into a content generation model for still images at a predetermined cycle and perform AI image analysis. In other words, the game image identification unit 122 may input game images into a content generation model for still images at a frequency of, for example, one image every few seconds and perform AI image analysis.
なおAI画像解析に際して、ゲーム画像特定部122は、ゲーム画像の解像度を下げて、演算量を低減してもよい。ゲーム画像特定部122は、使用可能な計算リソースにもとづいて演算量を低減する必要があるか否かを判定し、低減する必要がある場合にゲーム画像の解像度を下げる、またはコンテンツの自動生成処理を中止するなどの対応をとってよい。なおコンテンツの自動生成処理を中止する場合、ゲーム画像特定部122は、理由をユーザに通知することが好ましい。 When performing AI image analysis, the game image identification unit 122 may reduce the amount of calculations by lowering the resolution of the game image. The game image identification unit 122 determines whether or not it is necessary to reduce the amount of calculations based on the available computational resources, and if it is necessary, may take measures such as lowering the resolution of the game image or canceling the automatic content generation process. When canceling the automatic content generation process, it is preferable for the game image identification unit 122 to notify the user of the reason.
次にゲーム画像特定部122が、コンテンツとして適当な動画像を特定する場合について説明する。コンテンツの自動生成処理は、ユーザがゲームをプレイしているときに実施される(S10のY)。
ゲーム画像取得部120は、ゲーム画音生成部112で生成されたゲーム画像を取得し、バッファメモリに記憶する(S12)。バッファメモリは、所定の上限時間分(たとえば1時間)のゲーム動画像を記憶するリングバッファとして構成されてよい。ゲーム画像特定部122は、バッファメモリに一時記憶されたゲーム動画像を所定時間分だけ読み出して、動画像用のコンテンツ生成モデルに入力してAI画像解析し、当該ゲーム動画像のスコア値を取得する。
Next, a case will be described in which the game image specification unit 122 specifies an appropriate moving image as content. The automatic content generation process is carried out while the user is playing the game (Y in S10).
The game image acquisition unit 120 acquires the game images generated by the game image and sound generation unit 112 and stores them in a buffer memory (S12). The buffer memory may be configured as a ring buffer that stores a predetermined upper limit of game video images (for example, one hour). The game image specification unit 122 reads out only the predetermined amount of game video images temporarily stored in the buffer memory, inputs the game video images to a content generation model for video images, performs AI image analysis, and acquires a score value of the game video images.
ゲーム動画像のスコア値が所定のスコア閾値未満である場合(S14のN)、ゲーム画像特定部122は、当該ゲーム動画像が過去のユーザ生成コンテンツに関連しないこと、つまり当該ゲーム動画像がユーザ生成コンテンツと共通の特徴を有さず、コンテンツとして不適当であることを判定する。一方、ゲーム動画像のスコア値が所定のスコア閾値以上である場合(S14のY)、ゲーム画像特定部122は、当該ゲーム動画像が過去のユーザ生成コンテンツに関連すること、つまり当該ゲーム動画像がユーザ生成コンテンツと共通の特徴を有し、コンテンツとして適当であることを判定する。 If the score value of the game video is less than a predetermined score threshold (N in S14), the game image identification unit 122 determines that the game video is not related to past user-generated content, i.e., the game video does not have characteristics in common with the user-generated content and is inappropriate as content. On the other hand, if the score value of the game video is equal to or greater than a predetermined score threshold (Y in S14), the game image identification unit 122 determines that the game video is related to past user-generated content, i.e., the game video has characteristics in common with the user-generated content and is appropriate as content.
ゲーム画像特定部122が、バッファメモリに一時記憶されたゲーム動画像が、過去のユーザ生成コンテンツに関連することを判定すると、コンテンツ保存部124が、特定したゲーム動画像を新しいコンテンツとしてコンテンツ記憶部154に保存する(S16)。このようにゲーム画像特定部122が、過去の動画像コンテンツと共通の特徴を有するゲーム動画像を特定することで、コンテンツ記憶部154には、ユーザの好みを反映したゲーム動画像が自動的に保存されるようになる。ユーザがゲーム動画像のキャプチャ指示を行うことなく、ゲーム動画像が生成されるため、ユーザはゲームプレイに集中することができる。コンテンツの自動生成処理は、ユーザがゲームプレイを終了するまで(S10のN)実施されてよい。 When the game image identification unit 122 determines that the game video temporarily stored in the buffer memory is related to past user-generated content, the content saving unit 124 saves the identified game video in the content storage unit 154 as new content (S16). In this way, the game image identification unit 122 identifies game videos that have common characteristics with past video content, so that game videos that reflect the user's preferences are automatically saved in the content storage unit 154. Since the game video is generated without the user issuing an instruction to capture the game video, the user can concentrate on playing the game. The automatic content generation process may be performed until the user finishes playing the game (N in S10).
上記した例では、ゲーム画像特定部122が、バッファメモリに一時記憶されたゲーム動画像を所定時間分だけ読み出して、動画像用のコンテンツ生成モデルに入力している。別の例では、ゲーム画像特定部122が、バッファメモリに一時記憶されたゲーム動画像に含まれるメタデータを参照して、切り出すゲーム動画像の開始点および終了点を決定し、開始点から終了点の間のゲーム動画像を読み出してもよい。たとえばゲーム動画像に、ゲーム内で設定されたイベント(たとえばボス戦)の開始を示すメタデータと終了を示すメタデータが設定されている場合、ゲーム画像特定部122は、メタデータを参照することで、切り出すゲーム動画像の開始点および終了点を決定できる。またプレイヤキャラクタがレアな武器を使用していることがメタデータから分かる場合に、ゲーム画像特定部122は、レアな武器を使用しているときのゲーム動画像を読み出してもよい。 In the above example, the game image identification unit 122 reads out a predetermined amount of game video temporarily stored in the buffer memory and inputs it into the content generation model for video. In another example, the game image identification unit 122 may refer to metadata included in the game video temporarily stored in the buffer memory to determine the start and end points of the game video to be cut out, and read out the game video between the start and end points. For example, if metadata indicating the start and end of an event (e.g., a boss battle) set in the game video is set, the game image identification unit 122 can determine the start and end points of the game video to be cut out by referring to the metadata. Also, if it is known from the metadata that the player character is using a rare weapon, the game image identification unit 122 may read out the game video when the rare weapon is being used.
ゲーム画像特定部122は、バッファメモリに一時記憶されたゲーム動画像に含まれる表示内容および/または表示態様を検出して、切り出すゲーム動画像の開始点および終了点を決定し、開始点から終了点の間のゲーム動画像を読み出してもよい。たとえばゲーム動画像に"Mission Completed"と表示されている場合、ゲーム画像特定部122は、当該内容が表示されている時点を終了点とし、当該終了点から所定時間さかのぼった時点を開始点として、開始点から終了点の間のゲーム動画像を読み出してもよい。またゲーム画像特定部122は、ゲーム動画像にレターボックス(画面上下に表示される黒帯)が含まれる場合に、レターボックスが含まれているゲーム動画像を読み出してもよい。なおゲーム画像特定部122は、既知のパターン認識技術やシーン検出技術を利用して、切り出すゲーム動画像の開始点および終了点を決定してよい。 The game image identification unit 122 may detect the display content and/or display mode included in the game video temporarily stored in the buffer memory, determine the start point and end point of the game video to be cut out, and read out the game video between the start point and the end point. For example, if the game video displays "Mission Completed", the game image identification unit 122 may set the time when the content is displayed as the end point, set a time a predetermined time before the end point as the start point, and read out the game video between the start point and the end point. In addition, if the game video includes a letterbox (black bars displayed at the top and bottom of the screen), the game image identification unit 122 may read out the game video including the letterbox. The game image identification unit 122 may use known pattern recognition technology or scene detection technology to determine the start point and end point of the game video to be cut out.
なおゲーム画像特定部122は、所定時間分のゲーム動画像をバッファメモリから読み出した後、所定時間分のゲーム動画像の様々な区間を動画像用のコンテンツ生成モデルに入力してAI画像解析し、各区間のゲーム動画像のスコア値を取得してもよい。 In addition, after reading out a predetermined amount of game video from the buffer memory, the game image identification unit 122 may input various sections of the game video for the predetermined amount of time into a content generation model for video to perform AI image analysis and obtain a score value for the game video for each section.
図7(a)は、所定時間Tのゲーム動画像を模式的に示す。ゲーム画像特定部122は、このゲーム動画像を様々な開始点および終了点で切り出して、切り出したゲーム動画像をコンテンツ生成モデルに入力し、スコア値を取得する。ゲーム画像特定部122は、様々な区間で切り出したゲーム動画像のスコア値を比較して、最高のスコア値をもつゲーム動画像を特定する。 FIG. 7(a) shows a schematic diagram of a game video for a predetermined time T. The game image identification unit 122 cuts out this game video at various start and end points, inputs the cut-out game video into a content generation model, and obtains a score value. The game image identification unit 122 compares the score values of the game video cut out at various intervals, and identifies the game video with the highest score value.
図7(b)は、最高のスコア値を示すゲーム動画像の区間の例を示す。この例では、時間t1と時間t2の間のゲーム動画像が、最も高いスコア値を示している。ゲーム画像特定部122は、この結果から、時間t1を開始点、時間t2を終了点に決定し、コンテンツ保存部124は、時間t1と時間t2の間のゲーム動画像を、新しいコンテンツとしてコンテンツ記憶部154に保存してよい。 7B shows an example of a section of a game video showing the highest score value. In this example, the game video between time t1 and time t2 shows the highest score value. From this result, the game image specification unit 122 may determine time t1 as the start point and time t2 as the end point, and the content saving unit 124 may save the game video between time t1 and time t2 in the content storage unit 154 as new content.
実施形態において、学習部130は、まだ学習していないユーザ生成コンテンツを用いてコンテンツ生成モデルを定期的に訓練してよい。たとえば学習部130は、月の最終日に1度、当該月に生成されたユーザ生成コンテンツを用いてコンテンツ生成モデルを訓練してよい。なお学習部130は、新たなユーザ生成コンテンツが生成される度にコンテンツ生成モデルを訓練してもよく、また新たなユーザ生成コンテンツが所定数生成される度にコンテンツ生成モデルを訓練してもよい。なお学習部130は、ゲーム画像特定部122が自動生成したコンテンツ、つまりコンテンツ記憶部154に保存したコンテンツを用いてコンテンツ生成モデルを訓練してもよい。このとき学習部130は、自動生成したコンテンツのうち、ユーザが高く評価したコンテンツおよび/またはフレンドにシェアしたコンテンツを用いてコンテンツ生成モデルを訓練してもよい。コンテンツには、ユーザ生成コンテンツであるか、または自動生成したコンテンツであるかを示す情報がメタデータとして付加されており、学習部130は、ユーザ生成コンテンツの学習結果が自動生成コンテンツの学習結果よりも高い重みで反映されるように、コンテンツ生成モデルを訓練してもよい。 In an embodiment, the learning unit 130 may periodically train the content generation model using user-generated content that has not yet been learned. For example, the learning unit 130 may train the content generation model once on the last day of a month using user-generated content generated in that month. The learning unit 130 may train the content generation model every time new user-generated content is generated, or every time a predetermined number of new user-generated content is generated. The learning unit 130 may train the content generation model using content automatically generated by the game image identification unit 122, that is, content stored in the content storage unit 154. In this case, the learning unit 130 may train the content generation model using content that is highly rated by the user and/or content that is shared with friends among the automatically generated content. Information indicating whether the content is user-generated content or automatically generated content is added to the content as metadata, and the learning unit 130 may train the content generation model so that the learning results of the user-generated content are reflected with a higher weight than the learning results of the automatically generated content.
実施形態では、ゲーム画像特定部122が、ユーザ生成コンテンツを学習した学習済みのコンテンツ生成モデルを用いて、ユーザの好みを反映したゲーム画像コンテンツを自動生成する。変形例ではゲーム画像特定部122が、当該ユーザとは異なる別のユーザが過去に生成したコンテンツを学習した学習済みのコンテンツ生成モデルを用いて、ゲーム画像コンテンツを自動生成してもよい。学習部130は、別のユーザ(プレイヤ)が過去に生成したコンテンツを、ネットワーク3経由で収集して、コンテンツ生成モデルを訓練する。 In an embodiment, the game image specification unit 122 automatically generates game image content that reflects the user's preferences using a trained content generation model that has learned from user-generated content. In a modified example, the game image specification unit 122 may automatically generate game image content using a trained content generation model that has learned from content previously generated by a user different from the user in question. The learning unit 130 collects content previously generated by another user (player) via the network 3 and trains the content generation model.
学習部130は、フレンドが手動でキャプチャしたコンテンツを用いてコンテンツ生成モデルを訓練してよい。学習部130は、ゲームを高頻度に一緒にプレイしているプレイヤが手動でキャプチャしたコンテンツを用いてコンテンツ生成モデルを訓練してよい。学習部130は、コンテンツを高頻度に共有するプレイヤが手動でキャプチャしたコンテンツを用いてコンテンツ生成モデルを訓練してよい。学習部130は、同じゲームタイトルをプレイするプレイヤが手動でキャプチャしたコンテンツを用いてコンテンツ生成モデルを訓練してよい。学習部130は、同じゲームジャンルをプレイするプレイヤが手動でキャプチャしたコンテンツを用いてコンテンツ生成モデルを訓練してよい。 The learning unit 130 may train the content generation model using content manually captured by a friend. The learning unit 130 may train the content generation model using content manually captured by players who frequently play a game together. The learning unit 130 may train the content generation model using content manually captured by players who frequently share content. The learning unit 130 may train the content generation model using content manually captured by players who play the same game title. The learning unit 130 may train the content generation model using content manually captured by players who play the same game genre.
学習部130が、別のユーザが生成したコンテンツを用いてコンテンツ生成モデルを学習させることで、当該コンテンツ生成モデルは、当該別のユーザが好むコンテンツを生成することが可能となる。したがってゲーム画像特定部122は、ユーザがプレイしているゲームの画像の中から、ユーザとは異なるユーザが過去に生成したコンテンツに関連するゲーム画像を特定するようになる。ユーザは、学習部130に対して、どのタイプのコンテンツを学習させるか設定できてよい。 The learning unit 130 trains the content generation model using content generated by another user, which enables the content generation model to generate content that the other user prefers. Therefore, the game image identification unit 122 will identify game images related to content previously generated by a user other than the user from among images of a game being played by the user. The user may be able to set what type of content the learning unit 130 will learn.
ゲームがゲーム動画像にメタデータを付与する場合、メタデータには、たとえば敵キャラクタを示すデータ、プレイヤキャラクタが使用している武器を示すデータ、マップにおける現在位置などが含まれてよい。学習部130は、一致するメタデータの組合せ(たとえば敵キャラクタ、使用武器、現在位置)ごとに機械学習モデルを生成しておき、ゲーム画像特定部122がユーザがプレイしているゲーム画像を解析する際には、メタデータの組合せが一致または類似する機械学習モデルを用いてAI画像解析を実施してよい。 When a game assigns metadata to game video images, the metadata may include, for example, data indicating enemy characters, data indicating the weapon used by the player character, the current position on the map, etc. The learning unit 130 may generate a machine learning model for each matching combination of metadata (e.g., enemy character, weapon used, current position), and when the game image identification unit 122 analyzes game images being played by the user, it may perform AI image analysis using a machine learning model with a matching or similar combination of metadata.
実施形態でゲーム画像特定部122は、ユーザが現在プレイしているゲームの画像を画像解析して、過去のユーザ生成コンテンツに関連するゲーム画像を特定したが、ユーザが過去にプレイしたゲームの画像を画像解析して、過去のユーザ生成コンテンツに関連するゲーム画像を特定してもよい。たとえば記憶装置150が、ユーザが過去にプレイしたゲームの画像(なお当該画像はユーザ生成コンテンツではない)を記憶している場合に、ゲーム画像取得部120は、当該ゲームの画像を記憶装置150から取得してゲーム画像特定部122に供給し、ゲーム画像特定部122は、当該ゲーム画像を画像解析して、過去のユーザ生成コンテンツに関連するゲーム画像を特定してよい。 In the embodiment, the game image identification unit 122 performs image analysis on the image of the game that the user is currently playing to identify game images related to past user-generated content, but it may also perform image analysis on images of games that the user has played in the past to identify game images related to past user-generated content. For example, if the storage device 150 stores images of games that the user has played in the past (note that the images are not user-generated content), the game image acquisition unit 120 may acquire images of the game from the storage device 150 and supply them to the game image identification unit 122, and the game image identification unit 122 may perform image analysis on the game images to identify game images related to past user-generated content.
ゲーム画像特定部122は、情報処理システム1におけるユーザのアカウント情報に応じて、コンテンツの自動生成機能の利用権限を設定してよい。たとえばユーザがネットワークサービスの有料会員である場合、ゲーム画像特定部122は、当該ユーザに対してコンテンツの自動生成機能の利用を許可し、一方でユーザが有料会員でない場合、ゲーム画像特定部122は、当該ユーザに対してコンテンツの自動生成機能の利用を許可しない。なお有料会員にグレードが設定される場合、グレードが低い場合には、コンテンツの自動生成機能の利用の一部が制限されてもよい。 The game image identification unit 122 may set the usage authority of the automatic content generation function according to the user's account information in the information processing system 1. For example, if the user is a paid member of a network service, the game image identification unit 122 allows the user to use the automatic content generation function, and on the other hand, if the user is not a paid member, the game image identification unit 122 does not allow the user to use the automatic content generation function. Note that if a grade is set for paid members, some of the usage of the automatic content generation function may be restricted if the grade is low.
実施形態でゲーム画像特定部122は、ゲーム画像を画像解析して新たなコンテンツを特定したが、ゲーム画像特定部122は、ユーザ音声またはゲーム音を解析して、過去のコンテンツに関連するゲーム画像を特定してもよい。情報処理装置10において、ユーザ音声取得部140は、ユーザが発話した音声を取得し、ゲーム画像特定部122に供給する。ゲーム画像特定部122は、ユーザ音声またはゲーム音を解析して盛り上がりを検出すると、その盛り上がりが検出された区間の前のタイミングを開始点、当該区間の後のタイミングを終了点としてゲーム動画像を切り出してよい。たとえばユーザが大きな声を出しているときは、ユーザが興奮している可能性が高いため、ゲーム画像特定部122は、ユーザ音声も加味して、ゲーム動画像を切り出してよい。 In the embodiment, the game image identification unit 122 performs image analysis on the game image to identify new content, but the game image identification unit 122 may also analyze user voice or game sounds to identify game images related to past content. In the information processing device 10, the user voice acquisition unit 140 acquires voice spoken by the user and supplies it to the game image identification unit 122. When the game image identification unit 122 analyzes the user voice or game sounds to detect excitement, it may cut out a game video image with the timing before the section in which the excitement was detected as the start point and the timing after the section as the end point. For example, when the user is yelling loudly, it is highly likely that the user is excited, so the game image identification unit 122 may cut out a game video image taking the user voice into account.
コンテンツ提示部126は、ゲーム画像特定部122が特定したゲーム画像をユーザに提示してよい。たとえばコンテンツ提示部126は、ゲーム画像とともに、「このゲーム画像を保存しますか?」とする質問メッセージを出力処理部114に提供し、出力処理部114は、現在表示されているゲーム画像に重畳して、ゲーム画像特定部122が特定したゲーム画像および質問メッセージを表示する。ユーザは質問メッセージに対して「はい」または「いいえ」を画面上で選択できるようになっており、ユーザが「はい」を選択すると、当該ゲーム画像が新しいコンテンツとしてコンテンツ記憶部154に保存され、「いいえ」を選択すると、当該ゲーム画像がコンテンツ記憶部154に保存されることなく、破棄されてよい。このときユーザは「はい」または「いいえ」を発声することで、当該ゲーム画像を新しいコンテンツとしてコンテンツ記憶部154に保存するか、または当該ゲーム画像を破棄するかを選択できてもよい。なお「はい」が選択されたゲーム画像は、ユーザがコンテンツとして適当であると判断したものであるため、学習部130は、当該ゲーム画像を、ユーザ生成コンテンツとして適当なゲーム画像としてコンテンツ生成モデルに学習させてよい。一方、「いいえ」が選択されたゲーム画像は、ユーザがコンテンツとして適当でないと判断したものであるため、学習部130は、当該ゲーム画像を、ユーザ生成コンテンツとしては適当でないゲーム画像としてコンテンツ生成モデルに学習させてよい。 The content presenting unit 126 may present the game image identified by the game image identifying unit 122 to the user. For example, the content presenting unit 126 provides the output processing unit 114 with a question message such as "Do you want to save this game image?" along with the game image, and the output processing unit 114 displays the game image identified by the game image identifying unit 122 and the question message superimposed on the currently displayed game image. The user can select "Yes" or "No" on the screen in response to the question message. If the user selects "Yes", the game image is saved as new content in the content storage unit 154, and if the user selects "No", the game image may be discarded without being saved in the content storage unit 154. At this time, the user may select whether to save the game image as new content in the content storage unit 154 or discard the game image by uttering "Yes" or "No". Note that the game image for which "Yes" was selected is one that the user has determined to be appropriate as content, and the learning unit 130 may cause the content generation model to learn the game image as an appropriate game image for user-generated content. On the other hand, a game image for which "No" was selected is one that the user judged to be inappropriate as content, and the learning unit 130 may cause the content generation model to learn that game image as a game image that is inappropriate as user-generated content.
情報処理システム1において、初期学習モデルは、たとえば管理サーバ5から提供されてよく、学習部130が、ユーザ生成コンテンツを学習させることで、コンテンツ生成モデルがカスタマイズされてよい。 In the information processing system 1, the initial learning model may be provided, for example, by the management server 5, and the learning unit 130 may customize the content generation model by learning user-generated content.
<コンテンツの共有処理を自動実施する機能>
図8は、情報処理装置10の機能ブロックの別の例を示す。実施形態の情報処理装置10は、処理部100および通信部102を備え、処理部100は、ゲーム画像および/またはゲーム音を含むコンテンツの共有処理を自動実施する機能を備える。処理部100は、ゲーム画像取得部210、コンテンツ特定部212、共有処理部214、学習部220および出力処理部114を備える。なお実施形態の処理部100は、コンテンツを自動生成する機能を実現する機能ブロック(図3参照)をさらに備える。記憶装置150は、ユーザが過去に手動で生成したコンテンツ(ユーザ生成コンテンツ)を記憶するユーザ生成コンテンツ記憶部152と、図3に示す処理部100が自動生成したコンテンツを記憶するコンテンツ記憶部154とを有する。記憶装置150は、補助記憶装置2であってよい。通信部102は、無線通信モジュール38および有線通信モジュール40の機能を併せ持つ。
<Automatic content sharing function>
FIG. 8 shows another example of the functional blocks of the information processing device 10. The information processing device 10 of the embodiment includes a processing unit 100 and a communication unit 102, and the processing unit 100 has a function of automatically performing a sharing process of content including game images and/or game sounds. The processing unit 100 includes a game image acquisition unit 210, a content identification unit 212, a sharing processing unit 214, a learning unit 220, and an output processing unit 114. The processing unit 100 of the embodiment further includes a functional block (see FIG. 3) that realizes a function of automatically generating content. The storage device 150 has a user-generated content storage unit 152 that stores content (user-generated content) that the user manually generated in the past, and a content storage unit 154 that stores content automatically generated by the processing unit 100 shown in FIG. 3. The storage device 150 may be the auxiliary storage device 2. The communication unit 102 has the functions of both the wireless communication module 38 and the wired communication module 40.
情報処理装置10における構成要素の機能は、本明細書にて記載された機能を実現するように構成された又はプログラムされた、汎用プロセッサ、特定用途プロセッサ、集積回路、ASICs (Application Specific Integrated Circuits)、CPU (a Central Processing Unit)、従来型の回路、および/又はそれらの組合せを含む、回路(circuitry)又は処理回路(processing circuitry)において実現されてよい。プロセッサは、トランジスタやその他の回路を含む回路(circuitry)又は処理回路(processing circuitry)とみなされる。プロセッサは、メモリに格納されたプログラムを実行する、プログラムされたプロセッサ(programmed processor)であってもよい。 The functions of the components in the information processing device 10 may be implemented in circuitry or processing circuitry, including general purpose processors, application specific processors, integrated circuits, ASICs (Application Specific Integrated Circuits), a CPU (a Central Processing Unit), conventional circuits, and/or combinations thereof, configured or programmed to implement the functions described herein. A processor is considered to be a circuitry or processing circuitry that includes transistors and other circuits. A processor may be a programmed processor that executes a program stored in a memory.
本明細書において、回路(circuitry)、ユニット、手段は、記載された機能を実現するようにプログラムされたハードウェア、又は実行するハードウェアである。当該ハードウェアは、本明細書に開示されているあらゆるハードウェア、又は、当該記載された機能を実現するようにプログラムされた、又は、実行するものとして知られているあらゆるハードウェアであってもよい。 In this specification, a circuit, unit, or means is hardware that is programmed to realize or executes the described functions. The hardware may be any hardware disclosed in this specification or any hardware that is programmed to realize or known to execute the described functions.
当該ハードウェアが回路(circuitry)のタイプであるとみなされるプロセッサである場合、当該回路(circuitry)、手段、又はユニットは、ハードウェアと、当該ハードウェア及び又はプロセッサを構成する為に用いられるソフトウェアとの組合せであってよい。 If the hardware is a processor that is considered to be a type of circuitry, the circuitry, means, or unit may be a combination of hardware and software used to configure the hardware and/or processor.
ユーザは、記憶装置150から他のユーザと共有したいコンテンツを選択して、コンテンツ共有サーバ9にアップロードしたり、特定のフレンドに提供することで、コンテンツを他のユーザと共有する。共有されたコンテンツ(以下、「共有コンテンツ」と呼ぶこともある)には、共有されたことを示すメタデータが付加される。なお記憶装置150は、共有コンテンツを特定する情報(識別情報)を、記憶装置150の記憶部(図示せず)に別途記憶して、共有コンテンツの識別情報および共有された日時を管理してもよい。 A user selects content that he or she wishes to share with other users from the storage device 150 and shares the content with other users by uploading it to the content sharing server 9 or providing it to a specific friend. Metadata indicating that the content has been shared is added to the shared content (hereinafter sometimes referred to as "shared content"). Note that the storage device 150 may separately store information that identifies the shared content (identification information) in a storage unit (not shown) of the storage device 150 and manage the identification information of the shared content and the date and time of sharing.
実施形態において共有コンテンツは、機械学習モデル(または人工知能モデル)である共有コンテンツ特定モデルを学習させるための学習用データとして利用される。共有コンテンツは、教師あり学習における教師データとして利用されてよい。学習部220は、1人のユーザが共有した共有コンテンツを教師データとして用いて、共有コンテンツ特定モデルを学習させてよい。 In an embodiment, the shared content is used as learning data for training a shared content identification model, which is a machine learning model (or an artificial intelligence model). The shared content may be used as training data in supervised learning. The learning unit 220 may train the shared content identification model using the shared content shared by one user as training data.
共有コンテンツ特定モデルは、ユーザが過去にプレイしたゲームの画像であるコンテンツを入力すると、当該コンテンツが共有コンテンツの特徴を反映した程度(類似度)をスコア値として出力するように訓練される。類似度は、当該コンテンツが共有コンテンツに適合する程度を示し、スコア値は100点満点で表現されてよい。スコア値が100点に近いほど、当該コンテンツは、共有コンテンツに適合する確率が高く、0点に近いほど、当該コンテンツは、共有コンテンツに適合する確率が低い。 The shared content identification model is trained to input content that is an image of a game that the user has played in the past, and output the degree to which the content reflects the characteristics of the shared content (similarity) as a score value. The similarity indicates the degree to which the content matches the shared content, and the score value may be expressed on a scale of 100 points. The closer the score value is to 100 points, the higher the probability that the content matches the shared content, and the closer the score value is to 0 points, the lower the probability that the content matches the shared content.
共有コンテンツに静止画(スクリーンショット)と動画像が存在する場合、学習部220は、静止画用の共有コンテンツ特定モデルと、動画像用の共有コンテンツ特定モデルとを別個に訓練してよい。つまり静止画用の共有コンテンツ特定モデルは、共有コンテンツである静止画を学習して、共有コンテンツの特徴を抽出し、動画像用の共有コンテンツ特定モデルは、共有コンテンツである動画像を学習して、共有コンテンツの特徴を抽出する。なお変形例において学習部220は、共有コンテンツである静止画と動画像とを区別することなく共有コンテンツ特定モデルに入力して、共有コンテンツ特定モデルを訓練してもよい。 If the shared content includes still images (screenshots) and moving images, the learning unit 220 may separately train a shared content identification model for still images and a shared content identification model for moving images. In other words, the shared content identification model for still images learns the still images that are the shared content and extracts the features of the shared content, and the shared content identification model for moving images learns the moving images that are the shared content and extracts the features of the shared content. In a modified example, the learning unit 220 may input the still images and moving images that are the shared content into the shared content identification model without distinguishing between them, and train the shared content identification model.
学習部220は、ゲームタイトルまたはゲームジャンルごとに、共有コンテンツ特定モデルを訓練してよい。ゲーム画像のタイプは、ゲームタイトルまたはゲームジャンルごとに異なるため、学習部220は、ゲームタイトルまたはゲームジャンルごとに共有コンテンツ特定モデルを生成することが好ましい。 The learning unit 220 may train a shared content identification model for each game title or game genre. Since the type of game image varies depending on the game title or game genre, it is preferable that the learning unit 220 generates a shared content identification model for each game title or game genre.
ゲーム画像取得部210は、記憶装置150に記憶されたコンテンツ(ゲーム画像)のうち、共有されたことがないコンテンツを取得し、コンテンツ特定部212に供給する。共有コンテンツに、共有されたことを示すメタデータが付加されている場合、ゲーム画像取得部210は、当該メタデータが付加されていないコンテンツを取得する。ゲーム画像取得部210は、共有されたことがないスクリーンショットまたはゲーム動画像を取得してよい。 The game image acquisition unit 210 acquires content (game images) stored in the storage device 150 that has never been shared, and supplies the content to the content identification unit 212. If metadata indicating that the shared content has been shared is attached, the game image acquisition unit 210 acquires content to which the metadata is not attached. The game image acquisition unit 210 may acquire screenshots or game video images that have never been shared.
コンテンツ特定部212は、ゲーム画像取得部210が取得したコンテンツを画像解析して、過去に他のユーザと共有したコンテンツに関連するコンテンツであるか否かを判定する。実施形態のコンテンツ特定部212は、学習済みの共有コンテンツ特定モデルを利用して、コンテンツをAI画像解析する。学習済みの共有コンテンツ特定モデルは、コンテンツを入力すると、当該コンテンツが共有コンテンツの特徴を反映した程度(類似度)をスコア値として出力する。このとき共有コンテンツ特定モデルは、当該コンテンツを識別する情報とともにスコア値を出力してよい。当該コンテンツを識別する情報とは、当該コンテンツそのものであってよく、また当該コンテンツのファイル名および/または記憶装置150におけるアドレスを示す情報などであってよい。 The content identification unit 212 performs image analysis of the content acquired by the game image acquisition unit 210 to determine whether the content is related to content previously shared with other users. In the embodiment, the content identification unit 212 performs AI image analysis of the content using a trained shared content identification model. When content is input, the trained shared content identification model outputs the degree to which the content reflects the characteristics of the shared content (similarity) as a score value. At this time, the shared content identification model may output the score value together with information that identifies the content. The information that identifies the content may be the content itself, or may be information indicating the file name of the content and/or an address in the storage device 150.
コンテンツ特定部212は、共有コンテンツ特定モデルが出力したスコア値にもとづいて、コンテンツが共有コンテンツとして適当であるか否かを判定する。たとえばコンテンツ特定部212は、所定のスコア閾値(たとえば80点)以上のスコア値が出力されたコンテンツを、共有コンテンツとして適当なコンテンツであると決定してよく、スコア閾値未満のスコア値が出力されたコンテンツを、共有コンテンツとして不適当なコンテンツであると決定してよい。なお共有コンテンツ特定モデルは、当該コンテンツが共有コンテンツとして適当であるか又は不適当であるかを示す情報と、当該コンテンツを識別する情報とを出力するように構成されてもよい。 The content identification unit 212 determines whether or not the content is suitable as shared content based on the score value output by the shared content identification model. For example, the content identification unit 212 may determine that content for which a score value equal to or greater than a predetermined score threshold (e.g., 80 points) is output is suitable as shared content, and may determine that content for which a score value less than the score threshold is output is inappropriate as shared content. The shared content identification model may be configured to output information indicating whether the content is suitable or inappropriate as shared content, and information identifying the content.
図9は、コンテンツを共有処理するフローチャートの例を示す。記憶装置150に共有されていない未共有コンテンツが存在する場合に(S20のY)、図9に示すコンテンツの共有処理は実施される。なお、未共有コンテンツが、本フローによって評価されたことがないことを条件として、当該コンテンツの共有処理が実施されてもよい。処理部100は、新たなコンテンツが記憶装置150に記憶される度にコンテンツの共有処理を実施してよく、新たなコンテンツが記憶装置150に所定数記憶される度にコンテンツの共有処理を実施してもよい。 FIG. 9 shows an example of a flowchart for processing content sharing. If there is unshared content in the storage device 150 (Y in S20), the content sharing process shown in FIG. 9 is performed. Note that the content sharing process may be performed on the condition that the unshared content has never been evaluated by this flow. The processing unit 100 may perform the content sharing process each time new content is stored in the storage device 150, or may perform the content sharing process each time a predetermined number of new contents are stored in the storage device 150.
ゲーム画像取得部210は、記憶装置150から未共有のコンテンツを取得し、コンテンツ特定部212に供給する(S22)。このコンテンツは、ユーザが過去にプレイしたゲームの画像である。コンテンツ特定部212は、供給されたコンテンツを共有コンテンツ特定モデルに入力してAI画像解析し、当該コンテンツのスコア値を取得する。静止画用の共有コンテンツ特定モデルと動画像用の共有コンテンツ特定モデルとが存在する場合、供給されたコンテンツが静止画であれば、コンテンツ特定部212は、静止画用の共有コンテンツ特定モデルにコンテンツを入力して当該コンテンツのスコア値を取得し、供給されたコンテンツが動画像であれば、コンテンツ特定部212は、動画像用の共有コンテンツ特定モデルにコンテンツを入力して当該コンテンツのスコア値を取得する。 The game image acquisition unit 210 acquires unshared content from the storage device 150 and supplies it to the content identification unit 212 (S22). This content is an image of a game that the user has played in the past. The content identification unit 212 inputs the supplied content into a shared content identification model, performs AI image analysis, and acquires a score value for the content. If there are a shared content identification model for still images and a shared content identification model for moving images, if the supplied content is a still image, the content identification unit 212 inputs the content into the shared content identification model for still images to acquire a score value for the content, and if the supplied content is a moving image, the content identification unit 212 inputs the content into the shared content identification model for moving images to acquire a score value for the content.
コンテンツのスコア値が所定のスコア閾値未満である場合(S24のN)、コンテンツ特定部212は、当該コンテンツが過去の共有コンテンツに関連しないこと、つまり当該コンテンツが過去の共有コンテンツと共通の特徴を有さず、共有コンテンツとして不適当であることを判定する。一方、コンテンツのスコア値が所定のスコア閾値以上である場合(S24のY)、コンテンツ特定部212は、当該コンテンツが過去の共有コンテンツに関連すること、つまり当該コンテンツが過去の共有コンテンツと共通の特徴を有し、共有コンテンツとして適当であることを判定する。 If the score value of the content is less than a predetermined score threshold (N in S24), the content identification unit 212 determines that the content is not related to past shared content, i.e., the content does not have characteristics in common with past shared content, and is unsuitable as shared content. On the other hand, if the score value of the content is equal to or greater than a predetermined score threshold (Y in S24), the content identification unit 212 determines that the content is related to past shared content, i.e., the content has characteristics in common with past shared content, and is suitable as shared content.
コンテンツ特定部212が、記憶装置150から読み出したコンテンツが、過去の共有コンテンツに関連することを判定すると、共有処理部214は、当該コンテンツを他のユーザと共有されるようにする処理を開始する。具体的に共有処理部214は、当該コンテンツを他のユーザに直接提供したり、当該コンテンツをコンテンツ共有サーバ9にアップロードして、他のユーザが当該コンテンツを見ることのできるようにするための処理を開始する。共有処理部214は、過去の共有コンテンツに関連することが判定されたコンテンツを、出力処理部114からユーザに提示してよい(S26)。 When the content identification unit 212 determines that the content read from the storage device 150 is related to past shared content, the sharing processing unit 214 starts processing to allow the content to be shared with other users. Specifically, the sharing processing unit 214 starts processing to provide the content directly to other users or upload the content to the content sharing server 9 so that other users can view the content. The sharing processing unit 214 may present the content determined to be related to past shared content to the user from the output processing unit 114 (S26).
図10は、共有候補となるコンテンツを提示する画面の例を示す。共有処理部214は、共有候補となるコンテンツおよび共有先の選択肢をユーザに提示して、当該コンテンツを共有してよいか否かをユーザに問い合わせてよい。なお共有処理部214は、ユーザがゲームをプレイしていないときに、共有候補となるコンテンツをユーザに提示することが好ましい。したがってユーザのゲームプレイ中、共有処理部214は、ゲームプレイを邪魔しないように共有候補となるコンテンツをユーザに提示せず、ゲームプレイの終了した後に、共有候補となるコンテンツをユーザに提示する。共有候補となるコンテンツは、スクリーンショットであってよく、またはゲーム動画像であってよい。 FIG. 10 shows an example of a screen presenting candidate contents for sharing. The sharing processing unit 214 may present the user with options for candidate contents for sharing and sharing destinations, and inquire of the user whether or not the content can be shared. Note that it is preferable for the sharing processing unit 214 to present candidate contents for sharing to the user when the user is not playing a game. Therefore, while the user is playing a game, the sharing processing unit 214 does not present candidate contents for sharing to the user so as not to disturb the gameplay, and presents candidate contents for sharing to the user after the gameplay has ended. Candidate contents for sharing may be screenshots or game video images.
ユーザは当該コンテンツを他のユーザと共有したいと考えれば「はい」を選択し、共有を希望しなければ「いいえ」を選択する。なお、この例ではユーザが、入力装置6を操作して「はい」または「いいえ」の表示領域を選択するが、「はい」または「いいえ」を発声することで、当該コンテンツを他のユーザと共有するか、共有しないかを選択できてもよい。共有する場合、ユーザは、共有先を指定できることが好ましい。この例では「コンテンツ共有サーバ」が選択されている。フレンドに直接コンテンツを送信する場合は、「フレンドを選択」をチェックすると、フレンドリストが表示されて、ユーザは、コンテンツを共有する1人以上のフレンドを選択できるようになる。なお「コンテンツ共有サーバ」の選択肢が複数用意され、ユーザは、1つ以上のコンテンツ共有サーバを選択できてもよい。またユーザは、1人以上のフレンドおよび1つ以上のコンテンツ共有サーバを共有先として選択できてもよい。 If the user wishes to share the content with other users, the user selects "Yes", and if not, the user selects "No". In this example, the user operates the input device 6 to select the "Yes" or "No" display area, but the user may be able to choose whether to share the content with other users or not by saying "Yes" or "No". When sharing, it is preferable that the user can specify the sharing destination. In this example, "content sharing server" is selected. When sending content directly to a friend, checking "Select friends" displays a friend list and the user can select one or more friends with whom to share the content. Note that multiple options for "content sharing server" may be provided, and the user may be able to select one or more content sharing servers. The user may also be able to select one or more friends and one or more content sharing servers as sharing destinations.
ユーザが「はい」を選択すると、共有処理部214は、ユーザがコンテンツの共有を了承したことを判定し(S28のY)、指定された共有先にコンテンツを送信する(S30)。これによりユーザは、コンテンツを手動で選択することなく、他のユーザとコンテンツを共有することができる。また当該コンテンツは、ユーザが共有し損ねていたコンテンツであり、実施形態の共有処理によりコンテンツ共有の機会をユーザに与えることができる。 When the user selects "Yes", the sharing processing unit 214 determines that the user has agreed to the sharing of the content (Y in S28) and transmits the content to the specified sharing destination (S30). This allows the user to share the content with other users without having to manually select the content. Furthermore, the content in question is content that the user has missed out on sharing, and the sharing processing of the embodiment can provide the user with an opportunity to share the content.
一方、ユーザが「いいえ」を選択すると、共有処理部214は、ユーザがコンテンツの共有処理を了承しなかったことを判定し(S28のN)、当該コンテンツを他のユーザと共有しない。コンテンツの共有処理は、全ての未共有コンテンツに対して実施されると(S20のN)、終了する。 On the other hand, if the user selects "No", the sharing processing unit 214 determines that the user has not consented to the content sharing process (N in S28) and does not share the content with other users. The content sharing process ends when it has been performed on all unshared content (N in S20).
図9に示すフローチャートでは、共有処理部214が、ユーザの了承を得るために共有候補コンテンツをユーザに提示している。変形例で共有処理部214は、共有候補コンテンツをユーザに提示することなく、コンテンツの共有を行ってよい。このとき共有処理部214は、共有先を自律的に決定して、当該共有先にコンテンツを送信する。共有処理部214は、過去に最も選択された回数が多い共有先を、当該コンテンツの共有先に決定してよい。たとえば過去の統計から、スクリーンショットは特定のユーザと共有され、動画像はコンテンツ共有サーバにアップロードされる傾向があれば、共有処理部214は、過去の統計データにもとづいてコンテンツの共有先を決定してよい。 In the flowchart shown in FIG. 9, the sharing processing unit 214 presents candidate content to be shared to the user to obtain the user's approval. In a modified example, the sharing processing unit 214 may share content without presenting candidate content to the user. In this case, the sharing processing unit 214 autonomously determines a sharing destination and transmits the content to the sharing destination. The sharing processing unit 214 may determine the sharing destination that has been selected most frequently in the past as the sharing destination of the content. For example, if past statistics show a tendency that screenshots are shared with specific users and videos are uploaded to a content sharing server, the sharing processing unit 214 may determine the sharing destination of the content based on the past statistical data.
なお図10に示す画面例で、共有処理部214は、共有候補となる1つのコンテンツをユーザに提示しているが、共有候補となる複数のコンテンツをユーザに提示してもよい。
図11は、共有候補となるコンテンツを提示する画面の別の例を示す。共有処理部214は、共有候補となる複数のコンテンツをユーザに提示して、共有してよいか否かをユーザに問い合わせてよい。なお図11においては、5つの画像枠を示しているが、実際の各画像枠内には、コンテンツが表示される。共有候補となるコンテンツは、スクリーンショットであってよく、またはゲーム動画像であってよい。ユーザは、共有を希望するコンテンツのチェックボックスにチェックを入れて、共有するコンテンツを選択する。ユーザは、コンテンツを選択した後、「はい」を選択することで、コンテンツを他のユーザと共有できる。なお、この例ではユーザが、入力装置6を操作して「はい」または「いいえ」の表示領域を選択するが、「はい」または「いいえ」を発声することで、当該コンテンツを他のユーザと共有するか、共有しないかを選択できてもよい。
In the example screen shown in FIG. 10, the sharing processing unit 214 presents one piece of content that is a candidate for sharing to the user, but a plurality of pieces of content that are candidates for sharing may be presented to the user.
FIG. 11 shows another example of a screen presenting contents that are candidates for sharing. The sharing processing unit 214 may present a plurality of contents that are candidates for sharing to the user and inquire of the user whether or not the contents are to be shared. Although five image frames are shown in FIG. 11, contents are actually displayed in each image frame. The contents that are candidates for sharing may be screenshots or game moving images. The user checks the checkbox of the content that the user wishes to share to select the content to be shared. After selecting the content, the user can share the content with other users by selecting "Yes". In this example, the user operates the input device 6 to select a display area of "Yes" or "No", but the user may be able to select whether or not to share the content with other users by uttering "Yes" or "No".
実施形態において、学習部220は、記憶装置150に記憶されたコンテンツ(ゲーム画像)のうち、まだ学習していない共有コンテンツを用いて共有コンテンツ特定モデルを定期的に訓練してよい。たとえば学習部220は、月の最終日に1度、当該月に共有されたコンテンツを用いて共有コンテンツ特定モデルを訓練してよい。なお学習部220は、新たにコンテンツが共有される度に共有コンテンツ特定モデルを訓練してもよく、また新たに所定数のコンテンツが共有される度に共有コンテンツ特定モデルを訓練してもよい。 In an embodiment, the learning unit 220 may periodically train the shared content identification model using shared content that has not yet been learned from among the content (game images) stored in the storage device 150. For example, the learning unit 220 may train the shared content identification model once on the last day of a month using the content shared in that month. The learning unit 220 may train the shared content identification model each time new content is shared, or may train the shared content identification model each time a predetermined number of new contents are shared.
実施形態では、コンテンツ特定部212が、ユーザが共有したコンテンツを学習した学習済みの共有コンテンツ特定モデルを用いて、共有するコンテンツを自動で特定する。変形例ではコンテンツ特定部212が、当該ユーザとは異なる別のユーザが共有したコンテンツを学習した学習済みの共有コンテンツ特定モデルを用いて、共有するコンテンツを自動で特定してもよい。学習部220は、別のユーザ(プレイヤ)が共有したコンテンツを、ネットワーク3経由で収集して、共有コンテンツ特定モデルを訓練する。 In the embodiment, the content identification unit 212 automatically identifies the content to be shared using a trained shared content identification model that has learned about content shared by a user. In a modified example, the content identification unit 212 may automatically identify the content to be shared using a trained shared content identification model that has learned about content shared by a user different from the user in question. The learning unit 220 collects content shared by other users (players) via the network 3 and trains the shared content identification model.
学習部220は、フレンドが共有したコンテンツを用いて共有コンテンツ特定モデルを訓練してよい。学習部220は、ゲームを高頻度に一緒にプレイしているプレイヤが共有したコンテンツを用いて共有コンテンツ特定モデルを訓練してよい。学習部220は、コンテンツを高頻度に共有するプレイヤが共有したコンテンツを用いて共有コンテンツ特定モデルを訓練してよい。学習部220は、同じゲームタイトルをプレイするプレイヤが共有したコンテンツを用いて共有コンテンツ特定モデルを訓練してよい。学習部220は、同じゲームジャンルをプレイするプレイヤが共有したコンテンツを用いて共有コンテンツ特定モデルを訓練してよい。また学習部220は、同じ共有先に共有されたコンテンツを用いて共有コンテンツ特定モデルを訓練してよい。特に共有先として複数のコンテンツ共有サーバが存在し、コンテンツ共有サーバごとに配信コンテンツの種類に特徴がある場合は、学習部220は、コンテンツ共有サーバごとに共有コンテンツ特定モデルを訓練してもよい。 The learning unit 220 may train the shared content identification model using content shared by friends. The learning unit 220 may train the shared content identification model using content shared by players who frequently play a game together. The learning unit 220 may train the shared content identification model using content shared by players who frequently share content. The learning unit 220 may train the shared content identification model using content shared by players who play the same game title. The learning unit 220 may train the shared content identification model using content shared by players who play the same game genre. The learning unit 220 may also train the shared content identification model using content shared by the same sharing destination. In particular, when there are multiple content sharing servers as sharing destinations and each content sharing server has its own characteristics in the type of distributed content, the learning unit 220 may train the shared content identification model for each content sharing server.
学習部220が、別のユーザが共有したコンテンツを用いて共有コンテンツ特定モデルを学習させることで、当該共有コンテンツ特定モデルは、当該別のユーザが共有することを好むコンテンツを特定することが可能となる。したがってコンテンツ特定部212は、ユーザのコンテンツの中から、ユーザとは異なるユーザが共有したコンテンツに関連するコンテンツを特定できるようになる。ユーザは、学習部220に対して、どのタイプのコンテンツを学習させるか設定できてよい。 The learning unit 220 trains the shared content identification model using content shared by another user, which enables the shared content identification model to identify content that the other user prefers to share. Therefore, the content identification unit 212 becomes able to identify, from among the user's content, content related to content shared by a user other than the user. The user may be able to set what type of content the learning unit 220 is to learn.
ゲームがゲーム動画像にメタデータを付与する場合、メタデータには、たとえば敵キャラクタを示すデータ、プレイヤキャラクタが使用している武器を示すデータ、マップにおける現在位置などが含まれてよい。学習部220は、一致するメタデータの組合せ(たとえば敵キャラクタ、使用武器、現在位置)ごとに機械学習モデルを生成しておき、コンテンツ特定部212がコンテンツを解析する際には、メタデータの組合せが一致または類似する機械学習モデルを用いてAI画像解析を実施してよい。 When a game assigns metadata to game video images, the metadata may include, for example, data indicating enemy characters, data indicating the weapon used by the player character, the current position on the map, etc. The learning unit 220 may generate a machine learning model for each matching combination of metadata (for example, enemy character, weapon used, current position), and when the content identification unit 212 analyzes the content, it may perform AI image analysis using a machine learning model with a matching or similar combination of metadata.
実施形態でコンテンツ特定部212は、ユーザが過去にプレイしたゲームの画像を画像解析して、過去に他のユーザと共有したコンテンツに関連するゲーム画像であるか否かを判定したが、ユーザが現在プレイしているゲームの画像を画像解析して、過去に他のユーザと共有したコンテンツに関連するゲーム画像であるか否かを判定してもよい。たとえばコンテンツ特定部212は、図3に示したゲーム画像取得部120が取得したゲーム画像を画像解析して、過去に他のユーザと共有したコンテンツに関連するゲーム画像であるか否かを判定してもよい。 In the embodiment, the content identification unit 212 performs image analysis on an image of a game that the user has played in the past to determine whether the game image is related to content that was shared with other users in the past. However, the content identification unit 212 may also perform image analysis on an image of a game that the user is currently playing to determine whether the game image is related to content that was shared with other users in the past. For example, the content identification unit 212 may perform image analysis on a game image acquired by the game image acquisition unit 120 shown in FIG. 3 to determine whether the game image is related to content that was shared with other users in the past.
実施形態でコンテンツ特定部212は、コンテンツを画像解析して共有コンテンツに関連するコンテンツであるか否かを判定したが、コンテンツ特定部212は、ユーザ音声またはゲーム音を解析して、共有コンテンツに関連するコンテンツであるか否かを判定してもよい。情報処理装置10において、ユーザ音声取得部140は、ユーザが発話した音声を取得し、コンテンツ特定部212に供給する。コンテンツ特定部212は、ユーザ音声またはゲーム音を解析して盛り上がりを検出すると、そのコンテンツを共有候補として決定してよい。 In the embodiment, the content identification unit 212 performs image analysis of the content to determine whether or not the content is related to the shared content, but the content identification unit 212 may also analyze user voice or game sounds to determine whether or not the content is related to the shared content. In the information processing device 10, the user voice acquisition unit 140 acquires voice spoken by the user and supplies it to the content identification unit 212. When the content identification unit 212 analyzes the user voice or game sounds and detects excitement, it may determine that content as a candidate for sharing.
以上、本開示を実施形態をもとに説明した。この実施形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。 The present disclosure has been described above based on an embodiment. This embodiment is merely an example, and it will be understood by those skilled in the art that various modifications are possible in the combination of each of the components and each of the processing processes, and that such modifications are also within the scope of the present disclosure.
実施形態では、情報処理装置10がコンテンツの生成機能およびコンテンツの共有機能を実現する処理部100を備えたが、コンテンツの生成機能およびコンテンツの共有機能は、情報処理装置10と管理サーバ5とが協働して実現してもよい。たとえば情報処理システム1がクラウドゲームサーバを備える場合、コンテンツの生成機能およびコンテンツの共有機能は、クラウドゲームサーバが単体で実現してもよく、クラウドゲームサーバと管理サーバ5とが協働して実現してもよく、クラウドゲームサーバと情報処理装置10とが協働して実現してもよく、クラウドゲームサーバと情報処理装置10と管理サーバ5とが協働して実現してもよい。 In the embodiment, the information processing device 10 includes a processing unit 100 that realizes a content generation function and a content sharing function, but the content generation function and the content sharing function may be realized by the information processing device 10 and the management server 5 working together. For example, if the information processing system 1 includes a cloud game server, the content generation function and the content sharing function may be realized by the cloud game server alone, may be realized by the cloud game server and the management server 5 working together, may be realized by the cloud game server and the information processing device 10 working together, or may be realized by the cloud game server, the information processing device 10, and the management server 5 working together.
実施形態において図9に示したフローでは、記憶装置150に記憶された未共有のコンテンツを共有処理の対象としているが、共有済みのコンテンツを共有処理の対象としてもよい。たとえば、新しいフレンドが追加されたり、新たなコンテンツ共有サーバが情報処理システム1で利用可能となるなどして、共有先が増えたような場合に、共有済みのコンテンツが図9に示すフローにより再評価されてもよい。 In the embodiment, in the flow shown in FIG. 9, unshared content stored in the storage device 150 is the subject of the sharing process, but shared content may also be the subject of the sharing process. For example, when the number of sharing destinations increases due to the addition of a new friend or the availability of a new content sharing server in the information processing system 1, the shared content may be reevaluated according to the flow shown in FIG. 9.
実施形態で学習部130は、1人のユーザが生成したユーザ生成コンテンツを教師データとして用いてコンテンツ生成モデルを学習させている。変形例では管理サーバ5が、情報処理システム1に参加する多数のユーザが生成したユーザ生成コンテンツを教師データとして用いてコンテンツ生成モデルを事前学習させて、全てのユーザに共通の訓練済みコンテンツ生成モデル(以下、「共通コンテンツ生成モデル」とも呼ぶ)を生成する。管理サーバ5は、共通コンテンツ生成モデルを情報処理装置10に提供し、学習部130は、共通コンテンツ生成モデルを、当該情報処理装置10を操作するユーザが生成したユーザ生成コンテンツを用いてファインチューニングしてよい。学習部130は、共通コンテンツ生成モデルを、ゲームタイトルまたはゲームジャンルごとにファインチューニングしてよく、また別のユーザが生成したユーザ生成コンテンツを用いてファインチューニングしてよい。変形例では、共通コンテンツ生成モデルを事前学習により生成することで、ユーザの学習データが少ない場合にも、信頼性の高いコンテンツ生成モデルを生成できる。 In the embodiment, the learning unit 130 trains the content generation model using user-generated content generated by one user as training data. In a modified example, the management server 5 pre-trains the content generation model using user-generated content generated by many users participating in the information processing system 1 as training data, and generates a trained content generation model common to all users (hereinafter also referred to as a "common content generation model"). The management server 5 provides the common content generation model to the information processing device 10, and the learning unit 130 may fine-tune the common content generation model using user-generated content generated by the user operating the information processing device 10. The learning unit 130 may fine-tune the common content generation model for each game title or game genre, or may fine-tune using user-generated content generated by another user. In a modified example, by generating the common content generation model by pre-learning, a highly reliable content generation model can be generated even when there is little user training data.
実施形態で学習部220は、1人のユーザが共有した共有コンテンツを教師データとして用いて共有コンテンツ特定モデルを学習させている。変形例では管理サーバ5が、情報処理システム1に参加する多数のユーザが共有した共有コンテンツを教師データとして用いて共有コンテンツ特定モデルを事前学習させて、全てのユーザに共通の訓練済み共有コンテンツ特定モデル(以下、「共通コンテンツ特定モデル」とも呼ぶ)を生成する。管理サーバ5は、共通コンテンツ特定モデルを情報処理装置10に提供し、学習部220は、共通コンテンツ特定モデルを、当該情報処理装置10を操作するユーザが共有した共有コンテンツを用いてファインチューニングしてよい。学習部220は、共通コンテンツ特定モデルを、ゲームタイトルまたはゲームジャンルごとにファインチューニングしてよく、また別のユーザが生成した共有コンテンツを用いてファインチューニングしてよい。変形例では、共通コンテンツ特定モデルを事前学習により生成することで、ユーザの学習データが少ない場合にも、信頼性の高い共有コンテンツ特定モデルを生成できる。 In the embodiment, the learning unit 220 trains the shared content identification model using the shared content shared by one user as training data. In a modified example, the management server 5 pre-trains the shared content identification model using the shared content shared by many users participating in the information processing system 1 as training data, and generates a trained shared content identification model (hereinafter also referred to as a "common content identification model") common to all users. The management server 5 provides the common content identification model to the information processing device 10, and the learning unit 220 may fine-tune the common content identification model using the shared content shared by the user operating the information processing device 10. The learning unit 220 may fine-tune the common content identification model for each game title or game genre, or may fine-tune using the shared content generated by another user. In a modified example, by generating the common content identification model by pre-training, a highly reliable shared content identification model can be generated even when there is little user training data.
本開示は、以下の態様を含んでよい。
[項目1]
情報処理システムであって、以下のように構成された回路(circuitry configured to)を備え、
前記回路(circuitry)は、
ユーザが過去にプレイしたゲームの画像又はユーザがプレイしているゲームの画像を取得し、
取得したゲーム画像を画像解析して、過去に他のユーザと共有したコンテンツに関連するゲーム画像であるか否かを判定し、
過去の共有コンテンツに関連することが判定されたゲーム画像を別のユーザと共有させる、
情報処理システム。
[項目2]
前記回路は、取得したゲーム画像が過去に他のユーザと共有したコンテンツと共通の特徴を有するか否かを判定する、
項目1に記載の情報処理システム。
[項目3]
前記回路は、ゲーム画像の共有先を決定する、
項目1に記載の情報処理システム。
[項目4]
前記回路は、過去の共有コンテンツに関連することが判定されたゲーム画像をユーザに提示する、
項目1に記載の情報処理システム。
[項目5]
前記回路は、ゲーム画像とともに、共有先の選択肢をユーザに提示する、
項目4に記載の情報処理システム。
[項目6]
前記回路は、ユーザがゲームをプレイしていないときに、ゲーム画像をユーザに提示する、
項目4に記載の情報処理システム。
[項目7]
前記回路は、ゲーム画像として、スクリーンショットまたはゲーム動画像を取得する、
項目1に記載の情報処理システム。
[項目8]
ゲーム画像を共有する方法であって、
ユーザが過去にプレイしたゲームの画像又はユーザがプレイしているゲームの画像を取得し、
取得したゲーム画像を画像解析して、過去に他のユーザと共有したコンテンツに関連するゲーム画像であるか否かを判定し、
過去の共有コンテンツに関連することが判定されたゲーム画像を別のユーザと共有させる。
[項目9]
情報処理装置のコンピュータにおいて実行されるプログラムを記録した記録媒体であって、前記プログラムは前記コンピュータに、
ユーザが過去にプレイしたゲームの画像又はユーザがプレイしているゲームの画像を取得する機能と、
取得したゲーム画像を画像解析して、過去に他のユーザと共有したコンテンツに関連するゲーム画像であるか否かを判定する機能と、
過去の共有コンテンツに関連することが判定されたゲーム画像を別のユーザと共有されるようにする機能と、
を実現させる。
The present disclosure may include the following aspects.
[Item 1]
An information processing system, comprising:
The circuitry includes:
Acquire images of games that the user has played in the past or images of games that the user is currently playing;
performing image analysis on the acquired game image to determine whether the game image is related to content previously shared with other users;
sharing with another user a game image determined to be related to the previously shared content;
Information processing system.
[Item 2]
The circuitry determines whether the acquired game image has common characteristics with content previously shared with other users.
Item 2. An information processing system according to item 1.
[Item 3]
The circuit determines a destination to which the game image is to be shared.
Item 2. An information processing system according to item 1.
[Item 4]
the circuitry presents to the user game images determined to be associated with the previously shared content.
Item 2. An information processing system according to item 1.
[Item 5]
the circuitry presents the user with options for sharing the game image together with the game image;
5. An information processing system according to item 4.
[Item 6]
the circuitry presents game images to the user when the user is not playing a game.
5. An information processing system according to item 4.
[Item 7]
The circuit acquires a screenshot or a game video image as the game image.
Item 2. An information processing system according to item 1.
[Item 8]
1. A method for sharing game images, comprising:
Acquire images of games that the user has played in the past or images of games that the user is currently playing;
performing image analysis on the acquired game image to determine whether the game image is related to content previously shared with other users;
The game image determined to be related to the previously shared content is shared with another user.
[Item 9]
A recording medium on which a program executed in a computer of an information processing device is recorded, the program being recorded on the computer,
A function for acquiring images of games that the user has played in the past or images of games that the user is currently playing;
A function of analyzing the acquired game image and determining whether the game image is related to content previously shared with other users;
A function for allowing game images determined to be related to previously shared content to be shared with another user;
Make this a reality.
本開示は、ユーザが現在プレイしているゲームの画像又は過去にプレイしたゲームの画像をコンテンツとして保存する技術分野および/またはコンテンツを他のユーザと共有する技術分野に利用できる。 The present disclosure can be used in the technical field of storing images of a game that a user is currently playing or has played in the past as content, and/or in the technical field of sharing content with other users.
1・・・情報処理システム、10・・・情報処理装置、100・・・処理部、102・・・通信部、110・・・ゲーム実行部、112・・・ゲーム画音生成部、114・・・出力処理部、120・・・ゲーム画像取得部、122・・・ゲーム画像特定部、124・・・コンテンツ保存部、126・・・コンテンツ提示部、130・・・学習部、140・・・ユーザ音声取得部、150・・・記憶装置、152・・・ユーザ生成コンテンツ記憶部、154・・・コンテンツ記憶部、210・・・ゲーム画像取得部、212・・・コンテンツ特定部、214・・・共有処理部、220・・・学習部。 1: Information processing system, 10: Information processing device, 100: Processing unit, 102: Communication unit, 110: Game execution unit, 112: Game image and sound generation unit, 114: Output processing unit, 120: Game image acquisition unit, 122: Game image identification unit, 124: Content storage unit, 126: Content presentation unit, 130: Learning unit, 140: User voice acquisition unit, 150: Storage device, 152: User-generated content storage unit, 154: Content storage unit, 210: Game image acquisition unit, 212: Content identification unit, 214: Sharing processing unit, 220: Learning unit.
Claims (9)
ユーザが過去にプレイしたゲームの画像又はユーザがプレイしているゲームの画像を取得するゲーム画像取得部と、
取得したゲーム画像を画像解析して、過去に他のユーザと共有したコンテンツに関連するゲーム画像であるか否かを判定するコンテンツ特定部と、
過去の共有コンテンツに関連することが判定されたゲーム画像を別のユーザと共有されるようにする共有処理部と、
を備えることを特徴とする情報処理システム。 An information processing system,
a game image acquisition unit that acquires images of a game that the user has played in the past or an image of a game that the user is currently playing;
a content identification unit that performs image analysis on the acquired game image and determines whether the game image is related to content previously shared with other users;
a sharing processing unit that causes a game image determined to be related to the past shared content to be shared with another user;
An information processing system comprising:
ことを特徴とする請求項1に記載の情報処理システム。 the content identification unit determines whether the acquired game image has a common feature with content previously shared with another user;
2. The information processing system according to claim 1 .
ことを特徴とする請求項1に記載の情報処理システム。 The sharing processing unit determines a sharing destination of the game image.
2. The information processing system according to claim 1 .
ことを特徴とする請求項1に記載の情報処理システム。 the sharing processing unit presents to a user a game image determined to be related to the past shared content;
2. The information processing system according to claim 1 .
ことを特徴とする請求項4に記載の情報処理システム。 the sharing processing unit presents to the user options for sharing destinations together with the game image;
5. The information processing system according to claim 4.
ことを特徴とする請求項4に記載の情報処理システム。 the sharing processing unit presents a game image to the user when the user is not playing the game;
5. The information processing system according to claim 4.
ことを特徴とする請求項1に記載の情報処理システム。 the game image acquisition unit acquires a screenshot or a game video image as the game image;
2. The information processing system according to claim 1 .
ユーザが過去にプレイしたゲームの画像又はユーザがプレイしているゲームの画像を取得するステップと、
取得したゲーム画像を画像解析して、過去に他のユーザと共有したコンテンツに関連するゲーム画像であるか否かを判定するステップと、
過去の共有コンテンツに関連することが判定されたゲーム画像を別のユーザと共有されるようにするステップと、
を有することを特徴とするゲーム画像共有方法。 A method for sharing a game image in an information processing system, comprising:
acquiring an image of a game that the user has played in the past or an image of a game that the user is currently playing;
performing image analysis on the acquired game image to determine whether the game image is related to content previously shared with other users;
causing the game images determined to be related to the previously shared content to be shared with another user;
A game image sharing method comprising:
ユーザが過去にプレイしたゲームの画像又はユーザがプレイしているゲームの画像を取得する機能と、
取得したゲーム画像を画像解析して、過去に他のユーザと共有したコンテンツに関連するゲーム画像であるか否かを判定する機能と、
過去の共有コンテンツに関連することが判定されたゲーム画像を別のユーザと共有されるようにする機能と、
を実現させるためのプログラム。 On the computer,
A function for acquiring images of games that the user has played in the past or images of games that the user is currently playing;
A function of analyzing the acquired game image and determining whether the game image is related to content previously shared with other users;
A function for allowing game images determined to be related to previously shared content to be shared with another user;
A program to achieve this.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2024/001222 WO2025154220A1 (en) | 2024-01-18 | 2024-01-18 | Information processing system and game image sharing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2024/001222 WO2025154220A1 (en) | 2024-01-18 | 2024-01-18 | Information processing system and game image sharing method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025154220A1 true WO2025154220A1 (en) | 2025-07-24 |
Family
ID=96471256
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2024/001222 Pending WO2025154220A1 (en) | 2024-01-18 | 2024-01-18 | Information processing system and game image sharing method |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025154220A1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012033162A (en) * | 2010-07-08 | 2012-02-16 | Panasonic Corp | Electronic apparatus and computer program |
| WO2012073470A1 (en) * | 2010-11-30 | 2012-06-07 | パナソニック株式会社 | Content management device, content management method, content management program, and integrated circuit |
| JP2013171373A (en) * | 2012-02-20 | 2013-09-02 | Sony Corp | Information processor, system and information processing method |
| JP2017192073A (en) * | 2016-04-14 | 2017-10-19 | Line株式会社 | Display control method, terminal, and program |
| JP2023180357A (en) * | 2022-06-09 | 2023-12-21 | 日本電気株式会社 | Specific control device, distribution system, specific control method and specific control program |
-
2024
- 2024-01-18 WO PCT/JP2024/001222 patent/WO2025154220A1/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012033162A (en) * | 2010-07-08 | 2012-02-16 | Panasonic Corp | Electronic apparatus and computer program |
| WO2012073470A1 (en) * | 2010-11-30 | 2012-06-07 | パナソニック株式会社 | Content management device, content management method, content management program, and integrated circuit |
| JP2013171373A (en) * | 2012-02-20 | 2013-09-02 | Sony Corp | Information processor, system and information processing method |
| JP2017192073A (en) * | 2016-04-14 | 2017-10-19 | Line株式会社 | Display control method, terminal, and program |
| JP2023180357A (en) * | 2022-06-09 | 2023-12-21 | 日本電気株式会社 | Specific control device, distribution system, specific control method and specific control program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20240363146A1 (en) | Determining high-interest durations of gameplay sessions from user inputs | |
| AU2011253221B2 (en) | Method and apparatus for online rendering of game files | |
| US10860345B2 (en) | System for user sentiment tracking | |
| JP6448603B2 (en) | Multi-image interactive gaming device | |
| JP7253570B2 (en) | Contextual in-game element recognition, annotation and interaction based on remote user input | |
| US10335679B2 (en) | Video processing device, video processing method, and program | |
| US10071315B2 (en) | Content providing method, content providing server, and content providing system | |
| CN115988228B (en) | Hot zone display method, device, equipment and storage medium for live broadcast screen | |
| US20230041552A1 (en) | Relevancy-based video help in a video game | |
| CN113761366A (en) | Scene interaction method and device, storage medium and electronic equipment | |
| WO2025154220A1 (en) | Information processing system and game image sharing method | |
| WO2025154219A1 (en) | Information processing system and content storage method | |
| JP5318016B2 (en) | GAME SYSTEM, GAME SYSTEM CONTROL METHOD, AND PROGRAM | |
| CN110574066B (en) | Server device and recording medium | |
| JP7430014B1 (en) | Control device, control method and computer program | |
| WO2023286133A1 (en) | Video providing device, video providing system, video providing method, and non-temporary computer-readable medium | |
| WO2022102550A1 (en) | Information processing device and information processing method | |
| CN117858744A (en) | System and method for generating daily updated ratings of individual player performances in sports | |
| KR102120711B1 (en) | A system for management and assistance of billiard game | |
| US12447405B2 (en) | Server device, information processing device, and information providing method | |
| JP7634085B2 (en) | Information processing device and game image display method | |
| CN115767132B (en) | Video access method, system, equipment and storage medium based on scene | |
| WO2025257918A1 (en) | Information processing device, game video display method, and program | |
| JP7703294B1 (en) | Information processing device, user terminal, and information processing method | |
| US12005362B2 (en) | System, method and multi-featured computer program product for video creation |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24918688 Country of ref document: EP Kind code of ref document: A1 |