[go: up one dir, main page]

JP7755163B2 - Information processing device, program, and information processing method - Google Patents

Information processing device, program, and information processing method

Info

Publication number
JP7755163B2
JP7755163B2 JP2022099489A JP2022099489A JP7755163B2 JP 7755163 B2 JP7755163 B2 JP 7755163B2 JP 2022099489 A JP2022099489 A JP 2022099489A JP 2022099489 A JP2022099489 A JP 2022099489A JP 7755163 B2 JP7755163 B2 JP 7755163B2
Authority
JP
Japan
Prior art keywords
user
information processing
processing device
display
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022099489A
Other languages
Japanese (ja)
Other versions
JP2024000662A (en
Inventor
敦史 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2022099489A priority Critical patent/JP7755163B2/en
Publication of JP2024000662A publication Critical patent/JP2024000662A/en
Application granted granted Critical
Publication of JP7755163B2 publication Critical patent/JP7755163B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本開示は、情報処理装置、プログラムおよび情報処理方法に関する。 This disclosure relates to an information processing device, a program, and an information processing method.

仮想空間に配置されたオブジェクト同士を戦わせるゲームが知られている。例えば、特許文献1では、仮想空間をキャラクタが移動しながら戦闘するゲームにおいて、スムーズなプレイを実現する技術が開示されている。 Games in which objects placed in a virtual space fight each other are known. For example, Patent Document 1 discloses technology that enables smooth gameplay in a game in which characters move and fight in a virtual space.

特開2008-067844号公報JP 2008-067844 A

ところで、瞬時の判断や操作が求められるシューティングゲームでは、一瞬の判断が勝敗を分けることとなる。一方、ユーザのプレイ環境によっては、ゲーム装置での処理結果がディスプレイに表示されるまでにはタイムラグが大きく、このタイムラグによる標的の位置の見誤りが致命的な結果を招くことがある。このような場合、ゲームの勝敗がユーザのプレイ環境に依存してしまうという問題があった。 In shooting games, where split-second decisions and operations are required, split-second decisions can mean the difference between victory and defeat. However, depending on the user's playing environment, there can be a large time lag between the processing results on the game device and their display, and this time lag can cause a player to misjudge the position of the target, with potentially fatal consequences. In such cases, the outcome of the game becomes dependent on the user's playing environment, which is a problem.

本開示では上記事情に鑑み、プレイ環境に配慮したゲームの提供を支援する技術を提供することとした。 In light of the above circumstances, this disclosure aims to provide technology that supports the provision of games that take the playing environment into consideration.

本開示の一態様によれば、情報処理装置が提供される。この情報処理装置は、制御部を備える。制御部は、表示ステップと、制御ステップと、決定ステップとを実行するように構成される。表示ステップでは、仮想空間をユーザのディスプレイに表示させる。仮想空間のいずれかの位置に、第1オブジェクトおよび第2オブジェクトが配置される。第1オブジェクトは、ユーザ端末を介するユーザの操作入力に基づいて動作するオブジェクトである。制御ステップでは、第2オブジェクトに特定動作を実行させる。特定動作は、第1オブジェクトに対する動作である。決定ステップでは、特定動作が実行された時点における、特定動作の演算処理に用いられる第2オブジェクトの位置である演算位置と、ユーザのディスプレイに表示された第2オブジェクトの位置である表示位置と、の差に基づいて特定動作の結果を決定する。 According to one aspect of the present disclosure, an information processing device is provided. The information processing device includes a control unit. The control unit is configured to execute a display step, a control step, and a determination step. In the display step, a virtual space is displayed on a user's display. A first object and a second object are placed at a position in the virtual space. The first object is an object that moves based on a user's operation input via a user terminal. In the control step, the second object is caused to perform a specific action. The specific action is an action taken against the first object. In the determination step, the result of the specific action is determined based on the difference between a calculation position, which is the position of the second object used in the calculation processing of the specific action at the time the specific action is executed, and a display position, which is the position of the second object displayed on the user's display.

本開示によれば、プレイ環境に配慮したゲームの提供を支援する技術を提供することができる。 This disclosure provides technology that supports the provision of games that take into consideration the playing environment.

本実施形態に係る情報処理システム1のハードウェア構成を示すブロック図である。1 is a block diagram showing a hardware configuration of an information processing system 1 according to an embodiment of the present invention. 本実施形態に係る情報処理装置2のうち、制御部23の機能構成を示すブロック図である。FIG. 2 is a block diagram showing the functional configuration of a control unit 23 in the information processing device 2 according to the present embodiment. 情報処理システム1により実行される処理の流れの一例を示すアクティビティ図である。FIG. 2 is an activity diagram showing an example of the flow of processing executed by the information processing system 1. 判定領域7の一例を示すイメージ図である。FIG. 10 is a conceptual diagram showing an example of a determination region 7. 第1判定領域71と第2判定領域72とが接触した様子を示すイメージ図である。FIG. 10 is a conceptual diagram showing a state in which the first determination area 71 and the second determination area 72 come into contact with each other. フレーム毎の処理の流れを示すイメージ図である。FIG. 10 is a conceptual diagram showing the flow of processing for each frame. フレームレートが12fpsである処理の流れを示すイメージ図である。FIG. 10 is a conceptual diagram showing the flow of processing when the frame rate is 12 fps. 画面601、画面612、画面701および画面712を拡大表示させたイメージ図である。6A and 6B are conceptual diagrams showing enlarged displays of screens 601, 612, 701, and 712. 第2オブジェクト5bに対応付けられた第2判定領域72の演算位置61bおよび表示位置62bの距離64を示すイメージ図である。10 is a conceptual diagram showing a distance 64 between a calculation position 61b and a display position 62b of a second determination region 72 associated with a second object 5b. 調整部234による調整前後の第2オブジェクト5bの第2判定領域72を示すイメージ図である。10A and 10B are conceptual diagrams showing the second determination region 72 of the second object 5b before and after adjustment by the adjustment unit 234. ディスプレイ4aに表示される画面の一例を示すイメージ図である。FIG. 10 is an image diagram showing an example of a screen displayed on the display 4a. ディスプレイ4aに表示される画面の一例を示すイメージ図である。FIG. 10 is an image diagram showing an example of a screen displayed on the display 4a. メンバー募集画面1301の一例を示すイメージ図である。FIG. 13 is an image diagram showing an example of a member recruitment screen 1301. 試合開始前に表示される警告1401の一例を示すイメージ図である。FIG. 14 is an image diagram showing an example of a warning 1401 displayed before the start of a match. 第1ユーザおよび第2ユーザによる試合における処理の流れを示すイメージ図である。FIG. 10 is an image diagram showing the flow of processing in a match between a first user and a second user.

[実施形態]
以下、図面を用いて本開示の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。
[Embodiment]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. Various features shown in the following embodiments can be combined with each other.

ところで、本実施形態に登場するソフトウェアを実現するためのプログラムは、コンピュータが読み取り可能な非一時的な記録媒体(Non-Transitory Computer-Readable Medium)として提供されてもよいし、外部のサーバからダウンロード可能に提供されてもよいし、外部のコンピュータで当該プログラムを起動させてクライアント端末でその機能を実現(いわゆるクラウドコンピューティング)するように提供されてもよい。 The program for realizing the software featured in this embodiment may be provided as a non-transitory computer-readable recording medium, may be provided as a downloadable medium from an external server, or may be provided so that the program is launched on an external computer and its functions are realized on a client terminal (so-called cloud computing).

また、本実施形態において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、例えば電圧・電流を表す信号値の物理的な値、0または1で構成される2進数のビット集合体としての信号値の高低、または量子的な重ね合わせ(いわゆる量子ビット)によって表され、広義の回路上で通信・演算が実行されうる。 In this embodiment, the term "unit" can also include, for example, hardware resources implemented by circuits in the broad sense, and software information processing that can be specifically realized by these hardware resources. This embodiment handles a variety of information, which can be represented, for example, by physical signal values representing voltage and current, high and low signal values as a collection of binary bits consisting of 0 or 1, or quantum superposition (so-called quantum bits), and communication and calculations can be performed on circuits in the broad sense.

また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、およびメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、およびフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。 In a broad sense, a circuit is a circuit realized by at least an appropriate combination of a circuit, circuitry, processor, memory, etc. In other words, it includes application-specific integrated circuits (ASICs), programmable logic devices (e.g., simple programmable logic devices (SPLDs), complex programmable logic devices (CPLDs), and field programmable gate arrays (FPGAs)), etc.

1.ゲームの説明
図1は、本実施形態に係る情報処理システム1のハードウェア構成を示すブロック図である。図1に示す情報処理システム1では、情報処理装置2および複数のユーザ端末3が通信ネットワーク11を介して互いに通信可能に接続され、ユーザ端末3においてゲームが実行される。
1. Description of the Game Fig. 1 is a block diagram showing the hardware configuration of an information processing system 1 according to this embodiment. In the information processing system 1 shown in Fig. 1, an information processing device 2 and a plurality of user terminals 3 are communicably connected to each other via a communication network 11, and a game is executed on the user terminals 3.

本実施形態に係るゲームは、情報処理システム1にて実行されるオンラインのゲームである。このゲームでは、ユーザ端末3のユーザは、1または複数のプレイヤキャラクタPCを仮想ゲーム空間で活動させたり、プレイヤキャラクタPCを、ノンプレイヤキャラクタNPCである敵キャラクタECと対戦させたりする。また、キャラクタは、オブジェクト5の一例である。 The game according to this embodiment is an online game executed by the information processing system 1. In this game, a user of a user terminal 3 causes one or more player characters PC to act in a virtual game space, and pits the player characters PC against enemy characters EC, which are non-player characters NPC. Furthermore, a character is an example of an object 5.

上記のようなゲームは、プレイステーション(登録商標)などの家庭用ゲーム機、ニンテンドースイッチ(登録商標)などの携帯用ゲーム機、仮想現実(以下、VR(Virtual Reality)という)用ヘッドセットを備えるOculus VR(登録商標)などのVRゲーム機、もしくは、パーソナルコンピュータ、スマートフォン、タブレット端末などの電子機器であるユーザ端末3を用いて実行される。 The above-mentioned games are played using a home game console such as PlayStation (registered trademark), a portable game console such as Nintendo Switch (registered trademark), a virtual reality (VR) game console such as Oculus VR (registered trademark) equipped with a VR headset, or a user terminal 3, which is an electronic device such as a personal computer, smartphone, or tablet terminal.

2.情報処理システム1の概要
図1に示されるように、情報処理システム1は、情報処理装置2および複数のユーザ端末3にて構成される。情報処理装置2は、ゲームプログラムおよびゲームデータを記憶しており、ユーザ端末3の(下記のアカウント情報ごとの)ゲームデータの管理を行う。情報処理装置2は、例えばサーバにより構成される。複数のユーザ端末3それぞれは、互いに同じ構成を有する。なお、本実施形態において、システムとは、1つまたはそれ以上の装置または構成要素からなるものである。したがって、例えば後述の情報処理装置2やユーザ端末3単体であっても情報処理システム1の一例となりうる。
2. Overview of Information Processing System 1 As shown in FIG. 1 , the information processing system 1 is composed of an information processing device 2 and multiple user terminals 3. The information processing device 2 stores game programs and game data, and manages the game data of the user terminals 3 (for each account information described below). The information processing device 2 is composed of, for example, a server. Each of the multiple user terminals 3 has the same configuration. Note that in this embodiment, a system is composed of one or more devices or components. Therefore, for example, the information processing device 2 or the user terminal 3 described below alone can also be an example of the information processing system 1.

ユーザ端末3は、ユーザの操作に基づいて所定のゲームを実行する。そのために、ユーザ端末3は、通信ネットワーク11を介して、情報処理装置2からゲームプログラムおよびゲームデータを受信(具体的にはダウンロードおよびインストール)する。各ユーザには、ユーザ端末3に対応づけて、識別情報およびパスワードを含むアカウント情報が、ユーザごとに割り当てられている。このアカウント情報は、ログイン時、ユーザ端末3から情報処理装置2に送信され、情報処理装置2におけるユーザ認証に利用される。 The user terminal 3 runs a predetermined game based on user operations. To do so, the user terminal 3 receives (specifically, downloads and installs) a game program and game data from the information processing device 2 via the communications network 11. Each user is assigned account information, including identification information and a password, that is associated with the user terminal 3. This account information is sent from the user terminal 3 to the information processing device 2 at login and is used for user authentication on the information processing device 2.

ユーザ認証を経て、情報処理装置2とユーザ端末3との相互通信が可能となる。ログイン後、ユーザ端末3は、ゲーム進行に必要なデータ(ゲーム進行状況に関するデータ)を情報処理装置2から受信すると、ユーザの操作に基づいてゲーム画像や音声をディスプレイ4aおよびスピーカ4bに出力しながら、ゲームを進行させる。 After user authentication, the information processing device 2 and user terminal 3 become able to communicate with each other. After logging in, the user terminal 3 receives data necessary for game progress (data related to the game progress status) from the information processing device 2, and then progresses the game while outputting game images and sounds to the display 4a and speaker 4b based on the user's operations.

2.1 ハードウェア構成
以下、図1を参照して、情報処理システム1の各ハードウェア構成について説明する。
2.1 Hardware Configuration Hereinafter, each hardware configuration of the information processing system 1 will be described with reference to FIG.

<情報処理装置2>
図1に示されるように、情報処理装置2は、通信部21、記憶部22および制御部23を有する。通信部21および記憶部22は、通信バス20を介して制御部23と電気的に接続されている。
<Information processing device 2>
1, the information processing device 2 includes a communication unit 21, a storage unit 22, and a control unit 23. The communication unit 21 and the storage unit 22 are electrically connected to the control unit 23 via a communication bus 20.

通信部21は、インターネットおよびLANなどの通信ネットワーク11を介して各ユーザ端末3と通信可能に接続される、いわゆるネットワークインターフェースである。情報処理装置2が通信部21を介して受信する主な情報としては、ゲームプログラムのダウンロード要求情報、ユーザの操作に応じたガチャの抽選要求、クエスト実行要求、オートプレイの実行/終了の要求、アカウント情報、ゲームデータなどが挙げられる。情報処理装置2が通信部21を介して送信する主な情報としては、ゲームプログラムをユーザ端末3が受信したことを確認するための情報、ガチャにて得られたゲーム媒体に関する情報などが挙げられる。 The communication unit 21 is a so-called network interface that is communicatively connected to each user terminal 3 via a communication network 11 such as the Internet or a LAN. Main information received by the information processing device 2 via the communication unit 21 includes game program download request information, gacha lottery requests in response to user operations, quest execution requests, autoplay execution/end requests, account information, game data, etc. Main information transmitted by the information processing device 2 via the communication unit 21 includes information confirming that the user terminal 3 has received the game program, information regarding game media obtained through gacha, etc.

記憶部22は、HDD(Hard Disk Drive)、RAM(Random Access Memory)、ROM(Read Only Memory)およびSSD(Solid State Drive)などで構成される。記憶部22には、本実施形態にかかるゲームプログラムの一部を含む各種プログラムやゲームに関する各種データなどが記憶されている。 The storage unit 22 is composed of a hard disk drive (HDD), random access memory (RAM), read-only memory (ROM), and a solid state drive (SSD). The storage unit 22 stores various programs, including part of the game program according to this embodiment, as well as various game-related data.

具体的には例えば、記憶部22は、ユーザDBや抽選リストなどを記憶している。ユーザDBには、ゲームをプレイするユーザの識別番号ごとに、ユーザ名、ユーザランク、ユーザが操作するプレイヤキャラクタPCに関するステータス等の情報、仮想ゲーム空間内にて使用可能な消費媒体の額、パラメータに関する情報などが、対応付けられて記憶されている。抽選リストは、一般にガチャと呼ばれる抽選処理に用いるものであって、選択対象となるゲーム媒体に関する情報を複数含む。抽選リストには、ゲーム媒体に関する情報(名称、能力パラメータ、レアリティ、レベルなど)と、抽選による選択割合とが、対応づけられている。また能力パラメータとは、例えば、ゲーム媒体がプレイヤキャラクタPCの場合、戦力、HP、攻撃力、防御力、賢さ、または速さなどを含む。 Specifically, for example, the storage unit 22 stores a user DB and a lottery list. The user DB stores, for each identification number of a user playing the game, information such as the user name, user rank, status of the player character PC operated by the user, the amount of consumable media usable in the virtual game space, and information on parameters, all associated with the user. The lottery list is used for a lottery process commonly known as gacha, and includes multiple pieces of information about game media to be selected. The lottery list associates information about the game media (such as name, ability parameters, rarity, and level) with the selection rate in the lottery. Furthermore, the ability parameters include, for example, combat power, HP, attack power, defense power, intelligence, and speed when the game media is a player character PC.

制御部23は、CPUおよび半導体メモリを含むマイクロコンピュータで構成され、自装置である情報処理装置2の動作を制御する。特に、制御部23は、記憶部22に記憶された所定のプログラムを読み出すことによって、自装置である情報処理装置2に係る種々の機能を実現する。すなわち、記憶部22に記憶されているソフトウェアによる情報処理が、ハードウェアの一例である制御部23によって具体的に実現されることで、後述の各機能部が実行されうる。なお、制御部23は単一であることに限定されず、機能ごとに複数の制御部23を有するように実施してもよい。またそれらの組合せであってもよい。 The control unit 23 is composed of a microcomputer including a CPU and semiconductor memory, and controls the operation of its own device, the information processing device 2. In particular, the control unit 23 realizes various functions related to its own device, the information processing device 2, by reading out predetermined programs stored in the storage unit 22. In other words, information processing by software stored in the storage unit 22 is specifically realized by the control unit 23, which is an example of hardware, and each of the functional units described below can be executed. Note that the control unit 23 is not limited to being single, and implementation may include multiple control units 23 for each function. A combination of these may also be used.

制御部23によって実行される情報処理として、例えば、課金の決済処理、ユーザアカウントの認証処理、ガチャの抽選選択処理などが挙げられる。課金の決済処理は、例えばゲーム中のパラメータを所定量回復するために必要な課金の要求に基づいて実行される。ユーザアカウントの認証処理は、例えばユーザ端末3から受信したユーザの識別情報を用いて実行される。ガチャの抽選選択処理は、ガチャの抽選要求に伴って、抽選リストの中から、ゲーム媒体ごとの選択確率に基づいて1以上のゲーム媒体を抽選により選択する処理である。ガチャの抽選選択処理によれば、選択したゲーム媒体に関する情報と、抽選要求の送信元となる操作を行ったユーザの識別情報とが、ユーザDBにて関連付けられ、これにより、当該ユーザには、自身でガチャを引いた結果当選したゲーム媒体が付与される。 Examples of information processing executed by the control unit 23 include payment settlement processing, user account authentication processing, and gacha lottery selection processing. Payment settlement processing is executed, for example, based on a request for payment necessary to restore a predetermined amount of in-game parameters. User account authentication processing is executed, for example, using user identification information received from the user terminal 3. Gacha lottery selection processing is processing in which, in response to a gacha lottery request, one or more game media are selected by lottery from a lottery list based on the selection probability for each game medium. According to the gacha lottery selection processing, information about the selected game media and the identification information of the user who performed the operation that sent the lottery request are associated in the user DB, and the user is thereby awarded the game media that they won as a result of their own gacha draw.

ここで、上記をさらに補足すると、「ゲーム媒体」とは、ゲームに関する要素を表した電子データであって、プレイヤキャラクタPCとして使用するキャラクタの名称、プレイヤキャラクタPCが仮想ゲーム空間内にて使用するアイテム(武器、防具、道具)などが含まれる。ユーザは、ゲーム媒体を、課金による直接購入やクエストクリアの他、ガチャと呼ばれる抽選方法によって入手することができる。入手したゲーム媒体は、そのゲーム媒体を所有することとなったユーザの識別情報と対応づけて、ユーザDBに記憶され管理される。さらに、「ガチャ」とは、情報処理装置2にて、抽選リストの中から、所定の選択割合に基づき任意のゲーム媒体を抽選により選択する方法である。選択された任意のゲーム媒体は、ユーザのユーザ端末3に付与される。「ガチャで選択したゲーム媒体を、ユーザに付与する/ユーザが所有する」とは、「抽選処理で選択されたゲーム媒体を、ユーザを示す識別情報と関連づける/関連づけられている」ことと同義である。 To further expand on the above, "game media" refers to electronic data representing elements related to a game, such as the name of the character used as the player character PC and items (weapons, armor, tools) used by the player character PC within the virtual game space. Users can obtain game media through direct purchase, completing quests, or through a lottery system known as gacha. Obtained game media is stored and managed in a user database in association with the identification information of the user who has acquired the game media. Furthermore, "gacha" refers to a method in which the information processing device 2 randomly selects game media from a lottery list based on a predetermined selection ratio. The selected game media is then assigned to the user's user terminal 3. "Assigning game media selected through gacha to a user/owning the user" is synonymous with "associating/being associated with the game media selected through the lottery process with identification information identifying the user."

<ユーザ端末3>
ユーザ端末3には、ディスプレイ4a、スピーカ4bおよび入力デバイス4cが外部接続または内蔵される。また、ユーザ端末3は、通信部31、記憶部32、制御部33、グラフィック処理部34a、オーディオ処理部34bおよび操作部34cを有する。通信部31、記憶部32、グラフィック処理部34a、オーディオ処理部34bおよび操作部34cは、通信バス30を介して制御部33と電気的に接続されている。
<User terminal 3>
A display 4a, a speaker 4b, and an input device 4c are externally connected or built into the user terminal 3. The user terminal 3 also has a communication unit 31, a storage unit 32, a control unit 33, a graphics processing unit 34a, an audio processing unit 34b, and an operation unit 34c. The communication unit 31, the storage unit 32, the graphics processing unit 34a, the audio processing unit 34b, and the operation unit 34c are electrically connected to the control unit 33 via a communication bus 30.

通信部31は、ユーザ端末3と情報処理装置2との間で各種データを送受信するために、通信ネットワーク11に通信可能に接続される、いわゆるネットワークインターフェースである。ユーザ端末3が通信部31を介して受信する主な情報としては、アカウント情報、新たなゲームデータのダウンロード要求情報、ガチャ実行要求、クエスト実行要求などが挙げられる。ユーザ端末3が通信部31を介して送信する主な情報としては、ダウンロード要求情報に応じて情報処理装置2から送られてきた新たなゲームデータ、抽選処理により選択されたゲーム媒体に関する情報などが挙げられる。 The communication unit 31 is a so-called network interface that is communicatively connected to the communication network 11 to transmit and receive various data between the user terminal 3 and the information processing device 2. Main information received by the user terminal 3 via the communication unit 31 includes account information, download request information for new game data, gacha execution requests, and quest execution requests. Main information transmitted by the user terminal 3 via the communication unit 31 includes new game data sent from the information processing device 2 in response to download request information, and information regarding game media selected by lottery processing.

記憶部32は、HDD、SSD、RAMおよびROMなどで構成される。記憶部32には、情報処理装置2からダウンロードしたゲームデータ、ゲームプログラムの一部を含む各種プログラム、自装置であるユーザ端末3のアカウント情報、ユーザ情報などが格納されている。なお、ユーザ情報は、情報処理装置2の記憶部22で記憶するユーザDBの少なくとも一部の情報である。ユーザDBでユーザ情報のマスタを管理し、ユーザ端末3の記憶部32は、このマスタの少なくとも一部の情報が情報処理装置2から配信され、これを記憶する。 The storage unit 32 is composed of an HDD, SSD, RAM, ROM, etc. The storage unit 32 stores game data downloaded from the information processing device 2, various programs including part of the game program, account information for the user terminal 3 (the device itself), user information, etc. The user information is at least a portion of the information in the user DB stored in the storage unit 22 of the information processing device 2. The user DB manages the master data of the user information, and the storage unit 32 of the user terminal 3 stores at least a portion of this master data distributed from the information processing device 2.

制御部33は、CPUおよび半導体メモリを含むマイクロコンピュータで構成され、自装置であるユーザ端末3の動作を制御する。特に、制御部33は、記憶部32に記憶された所定のプログラムを読み出すことによって、自装置であるユーザ端末3に係る種々の機能を実現する。すなわち、記憶部32に記憶されているソフトウェアによる情報処理が、ハードウェアの一例である制御部33によって具体的に実現されることで、後述の各機能部が実行されうる。なお、制御部33は単一であることに限定されず、機能ごとに複数の制御部33を有するように実施してもよい。またそれらの組合せであってもよい。 The control unit 33 is composed of a microcomputer including a CPU and semiconductor memory, and controls the operation of the user terminal 3, which is its own device. In particular, the control unit 33 realizes various functions related to the user terminal 3, which is its own device, by reading out predetermined programs stored in the storage unit 32. In other words, information processing by software stored in the storage unit 32 is specifically realized by the control unit 33, which is an example of hardware, and each of the functional units described below can be executed. Note that the control unit 33 is not limited to being single, and implementation may include multiple control units 33 for each function. A combination of these may also be used.

特に、制御部33は、自装置であるユーザ端末3のユーザによる入力デバイス4cの操作に従って、ゲームを実行するように構成される。具体的には、制御部33は、ゲームデータに含まれる仮想ゲーム空間のオブジェクト5およびテクスチャなどのデータを記憶部32から読み出すか、または情報処理装置2から受信したデータを用いて、2次元または3次元のゲーム画像情報を生成する。ゲーム画像情報がグラフィック処理部34aによって処理されることにより、ディスプレイ4aには処理後のゲーム画像が逐次表示される。換言すると、制御部33は、ゲームの実行にあたり、自装置であるユーザ端末3のユーザの操作などに応じてディスプレイ4aの表示制御およびスピーカ4bの音声出力制御を行うように構成される。 In particular, the control unit 33 is configured to execute the game in accordance with operation of the input device 4c by the user of the user terminal 3, which is the user's own device. Specifically, the control unit 33 reads data such as objects 5 and textures of the virtual game space included in the game data from the storage unit 32, or generates two-dimensional or three-dimensional game image information using data received from the information processing device 2. The game image information is processed by the graphics processing unit 34a, and the processed game images are sequentially displayed on the display 4a. In other words, the control unit 33 is configured to control the display of the display 4a and the audio output of the speaker 4b in accordance with operation of the user of the user terminal 3, which is the user's own device, when executing the game.

グラフィック処理部34aは、制御部33から出力されるゲーム画像情報に従って、キャラクタおよび仮想ゲーム空間に関する各種オブジェクトを含むゲーム画像を、動画形式で描画する。グラフィック処理部34aは、例えば液晶型であるディスプレイ4aと接続されており、動画形式に描画されたゲーム画像は、ゲーム画面としてディスプレイ4a上に表示される。オーディオ処理部34bは、スピーカ4bと接続され、制御部33の指示に従ってゲーム音声を再生および合成すると、これをスピーカ4bから出力させる。操作部34cは、入力デバイス4cと接続され、操作入力に関するデータを入力デバイス4cとの間で送受信する。ユーザは、入力デバイス4cを操作することで、ユーザ端末3に操作信号を入力する。なお、入力デバイス4cは、ディスプレイ4aと一体化されたタッチパネル、外付けのゲームパッド、マウスやキーボード等の総称である。 The graphics processing unit 34a renders game images, including characters and various objects related to the virtual game space, in animated format in accordance with game image information output from the control unit 33. The graphics processing unit 34a is connected to the display 4a, which may be, for example, an LCD, and the game images rendered in animated format are displayed on the display 4a as a game screen. The audio processing unit 34b is connected to the speaker 4b and plays and synthesizes game audio in accordance with instructions from the control unit 33, outputting this from the speaker 4b. The operation unit 34c is connected to the input device 4c and transmits and receives data related to operation inputs to and from the input device 4c. The user inputs operation signals to the user terminal 3 by operating the input device 4c. The input device 4c is a general term for a touch panel integrated with the display 4a, an external game pad, a mouse, a keyboard, etc.

2.2 機能構成
次に、情報処理装置2の制御部23の各機能構成について説明する。ここで、本実施形態に係るシステムは、情報処理システム1により実現され、特に制御部23により実現される。
2.2 Functional Configuration Next, a description will be given of the functional configuration of the control unit 23 of the information processing device 2. Here, the system according to this embodiment is realized by the information processing system 1, and in particular by the control unit 23.

図2は、本実施形態に係る情報処理装置2のうち、制御部23の機能構成を示すブロック図である。制御部23は、記憶部22に記憶された各種プログラムを実行することにより、受付部231と、ゲーム制御部232と、表示制御部233と、調整部234と、決定部235と、マッチング部236として機能する。すなわち、記憶部22に記憶されているソフトウェアによる情報処理がハードウェアの一例である制御部23によって具体的に実現されることで、制御部23に含まれる各機能部として実行されうる。 Figure 2 is a block diagram showing the functional configuration of the control unit 23 of the information processing device 2 according to this embodiment. The control unit 23 executes various programs stored in the memory unit 22, thereby functioning as a reception unit 231, a game control unit 232, a display control unit 233, an adjustment unit 234, a determination unit 235, and a matching unit 236. In other words, information processing by software stored in the memory unit 22 is specifically realized by the control unit 23, which is an example of hardware, and can be executed as each functional unit included in the control unit 23.

受付部231は、受付ステップを実行可能に構成される。受付ステップにおいて、受付部231は、通信部21または記憶部22を介して情報を受け付け、これを作業メモリに読出可能に構成される。特に、受付部231は、通信ネットワーク11および通信部21を介して種々の情報を受け付けるように構成される。本実施形態では、受付部231が受け付けた種々の情報は、記憶部22に記憶されるものとして説明する。 The reception unit 231 is configured to be able to execute a reception step. In the reception step, the reception unit 231 is configured to be able to receive information via the communication unit 21 or the memory unit 22 and read this information into working memory. In particular, the reception unit 231 is configured to receive various pieces of information via the communication network 11 and the communication unit 21. In this embodiment, the various pieces of information received by the reception unit 231 are described as being stored in the memory unit 22.

特に、受付部231は、入力デバイス4cを介して行われたユーザによる操作入力を受け付け可能に構成される。操作入力は、所定のコマンド操作による動作指示、ディスプレイ4aに表示されたボタンの押下による操作指示等を含む。例えば、受付部231は、プレイヤキャラクタPCの移動、攻撃、防御、アイテムの使用、魔法の使用、体力回復その他の行動を指示する操作入力を受け付ける。 In particular, the reception unit 231 is configured to be able to receive operational input from the user via the input device 4c. Operational input includes operational instructions given through specified command operations, operational instructions given by pressing buttons displayed on the display 4a, and the like. For example, the reception unit 231 receives operational inputs that instruct the player character PC to move, attack, defend, use items, use magic, recover stamina, and other actions.

ゲーム制御部232は、制御ステップを実行可能に構成される。制御ステップにおいて、本実施形態において、ゲーム制御部232は、仮想空間に配置されたオブジェクト5同士が戦闘を行うシューティングゲームの演算処理を実行してゲームを進行させる。詳細は後述する。なお、制御ステップとして、後述する特定の試合形式に基づいて対戦が進行されるゲームが例示されるが、ゲーム制御部232が実行する制御ステップはゲームに限定されず、仮想空間におけるオブジェクト5の各種制御を実行するものであればよい。例えば、各ユーザが仮想空間における特定のシナリオに沿って行動していくゲーム以外にも、仮想空間における特定のシナリオが存在せず、各ユーザが自由に活動することが可能な、所謂メタバースであってもよい。 The game control unit 232 is configured to be able to execute control steps. In the control steps, in this embodiment, the game control unit 232 executes calculations for a shooting game in which objects 5 placed in a virtual space fight each other, causing the game to progress. Details will be described later. Note that, while an example of the control steps is a game in which matches progress based on a specific match format, which will be described later, the control steps executed by the game control unit 232 are not limited to games, and may be any steps that execute various controls of objects 5 in the virtual space. For example, in addition to a game in which each user acts according to a specific scenario in the virtual space, the control steps may also be a so-called metaverse in which there is no specific scenario in the virtual space and each user is free to act freely.

表示制御部233は、表示ステップを実行可能に構成される。表示ステップにおいて、表示制御部233は、記憶部32に記憶された種々の情報またはこれらを含む画面等を、ユーザ端末3で視認可能な態様で表示させる。具体的には、表示制御部233は、画面、画像、アイコン、メッセージ等の視覚情報を、ユーザ端末3のディスプレイ4aに表示させるように制御する。表示制御部233は、視覚情報をユーザ端末3に表示させるためのレンダリング情報だけを生成するものであってもよい。 The display control unit 233 is configured to be able to execute a display step. In the display step, the display control unit 233 displays various information stored in the memory unit 32 or screens containing such information in a manner that is viewable on the user terminal 3. Specifically, the display control unit 233 controls the display of visual information such as screens, images, icons, and messages on the display 4a of the user terminal 3. The display control unit 233 may generate only rendering information for displaying the visual information on the user terminal 3.

調整部234は、調整ステップを実行可能に構成される。調整ステップにおいて、調整部234は、条件を満たした場合、オブジェクト5に対応付けられた判定領域7の調整処理を実行する。詳細は後述する。 The adjustment unit 234 is configured to be able to execute an adjustment step. In the adjustment step, if a condition is met, the adjustment unit 234 executes an adjustment process for the determination area 7 associated with the object 5. Details will be described later.

決定部235は、決定ステップを実行可能に構成される。決定ステップにおいて、決定部235は、例えば、オブジェクト5による、他のオブジェクト5に対する攻撃動作の実行に際して、攻撃を実行したオブジェクト5の位置6と、攻撃対象とされたオブジェクト5の位置6とに基づいて当たり判定を実行する。詳細は後述する。 The determination unit 235 is configured to be able to execute a determination step. In the determination step, for example, when an object 5 executes an attack action against another object 5, the determination unit 235 executes a hit determination based on the position 6 of the object 5 that executed the attack and the position 6 of the object 5 that is the target of the attack. Details will be described later.

マッチング部236は、マッチングステップを実行可能に構成される。マッチングステップにおいて、マッチング部236は、複数のユーザの中から試合の対戦相手または試合のチームメンバーとなる少なくとも一人を候補者として選択する。詳細は後述する。 The matching unit 236 is configured to be able to execute a matching step. In the matching step, the matching unit 236 selects at least one candidate from among multiple users to be an opponent in the match or a team member in the match. Details will be provided below.

3.種々の情報と用語の説明
本節では、情報処理システム1によって扱われる種々の情報、用語等について説明する。
3. Explanation of Various Information and Terms In this section, various information, terms, etc. handled by the information processing system 1 will be explained.

本実施形態の情報処理システム1で進行されるシューティングゲームは、例えば、FPS(First Person Shooter)である。FPSとは、ユーザにより操作されるプレイヤキャラクタPCなど一人称視点で見た画面でプレイするゲームである。試合形式は、例えば、他のプレイヤキャラクタPCまたはノンプレイヤキャラクタNPCと対戦するものであり、典型的には特定のプレイヤキャラクタPCまたはノンプレイヤキャラクタNPCが生き残るまで対戦が継続されるバトルロワイヤル形式である。表示制御部233は、ゲームの試合中、仮想空間をユーザのディスプレイ4aに表示させる。ユーザは、仮想空間のいずれかの位置6に配置されたプレイヤキャラクタPCを操作することにより、プレイヤキャラクタPCの標的である、他のプレイヤキャラクタPCまたはノンプレイヤキャラクタNPCに対して攻撃動作を実行することができる。なお、位置6とは、仮想空間におけるオブジェクト5が配置された座標を意味する。 The shooting game played in the information processing system 1 of this embodiment is, for example, an FPS (First Person Shooter). An FPS is a game played on a screen viewed from a first-person perspective by a player character PC controlled by a user. The match format, for example, involves a battle against other player characters PC or non-player characters NPC, typically a battle royale format in which the match continues until a specific player character PC or non-player character NPC survives. The display control unit 233 displays a virtual space on the user's display 4a during a game match. By operating a player character PC located at any position 6 in the virtual space, the user can perform an attack action against another player character PC or non-player character NPC, who is the target of the player character PC. Note that position 6 refers to the coordinates at which an object 5 is located in the virtual space.

仮想空間に配置された各オブジェクト5には、予め少なくとも一つの判定領域7が設定されている。決定部235は、仮想空間に配置されたオブジェクト5同士が接触したか否かを判定する接触判定を行うことにより、攻撃が標的となるオブジェクト5にヒットしたか否かを決定する。 At least one determination area 7 is set in advance for each object 5 placed in the virtual space. The determination unit 235 determines whether an attack has hit the target object 5 by performing a contact determination to determine whether objects 5 placed in the virtual space have come into contact with each other.

情報処理システム1におけるゲームの進行は、フレームを単位として行われる。ゲーム制御部232は、フレーム毎に演算処理を実行し、その処理結果を含むステータス情報9をユーザ端末3に送信する。フレームとは、ゲームの進行にあたり演算処理、処理結果の送信、ゲーム画像の生成等が行われる時間間隔を示す1秒あたりに更新される画面数の単位は、fps(frames per second)で示される。ステータス情報9とは、そのフレームにおける各オブジェクト5の状態を示す情報であり、例えば、仮想空間のいずれかの位置6に配置された第1オブジェクト5aおよび第2オブジェクト5bの位置情報、移動方向、回転角度、移動速度、加速度を含む。 The game progresses in the information processing system 1 in units of frames. The game control unit 232 executes calculation processing for each frame and transmits status information 9 including the processing results to the user terminal 3. A frame indicates the time interval during which calculation processing, transmission of processing results, generation of game images, etc. are performed as the game progresses. The unit of the number of screens updated per second is fps (frames per second). The status information 9 is information indicating the state of each object 5 in that frame, and includes, for example, position information, movement direction, rotation angle, movement speed, and acceleration of a first object 5a and a second object 5b placed at a position 6 in the virtual space.

一方、ユーザ端末3は、フレーム毎に、ユーザの操作入力に係る操作情報8を情報処理装置2に送信する。操作情報8には、第1オブジェクト5aの位置6を特定可能な情報、第1オブジェクト5aに対する操作指示を受け付けた時間を特定可能なタイムスタンプ情報等が含まれる。例えば60fpsの場合、ユーザ端末3は、1/60秒毎に操作情報8を情報処理装置2に送信する。ゲーム制御部232は、ユーザ端末3から受信した操作情報8に基づいて演算処理を実行する。なお、制御部23は、過去数十フレーム分の操作情報8を必要に応じて参照可能である。ゲーム制御部232は、その処理結果に基づいてステータス情報9を更新する。表示制御部233は、更新されたステータス情報9をユーザ端末3に送信する。また、ユーザ端末3は、情報処理装置2から受信したステータス情報9に基づいて、仮想空間内でオブジェクト5を動作させる様子を示すゲーム画像をディスプレイ4aに送信する。このように、情報処理装置2およびユーザ端末3は、フレーム毎に上述の一連の処理を実行する。上述した一連の処理の結果、ユーザ端末3のディスプレイ4aにおいて単位時間あたりに更新される画面数を本実施形態においてフレームレートと称する。なお、受付部231は、各ユーザ端末3からフレームレートを特定可能な情報を取得する。フレームレートを特定可能な情報とは、例えば、ユーザの選択により設定されたフレームレートの値、過去のクエストにおけるフレームレートの平均値等である。 Meanwhile, the user terminal 3 transmits operation information 8 related to the user's operation input to the information processing device 2 for each frame. The operation information 8 includes information capable of identifying the position 6 of the first object 5a, timestamp information capable of identifying the time when an operation instruction for the first object 5a was received, and the like. For example, in the case of 60 fps, the user terminal 3 transmits the operation information 8 to the information processing device 2 every 1/60 seconds. The game control unit 232 performs calculation processing based on the operation information 8 received from the user terminal 3. Note that the control unit 23 can refer to operation information 8 for the past several dozen frames as necessary. The game control unit 232 updates the status information 9 based on the processing results. The display control unit 233 transmits the updated status information 9 to the user terminal 3. Furthermore, the user terminal 3 transmits a game image showing the object 5 being operated in the virtual space to the display 4a based on the status information 9 received from the information processing device 2. In this way, the information processing device 2 and the user terminal 3 perform the above-described series of processes for each frame. In this embodiment, the number of screens updated per unit time on the display 4a of the user terminal 3 as a result of the above-described series of processes is referred to as the frame rate. The reception unit 231 acquires information that can identify the frame rate from each user terminal 3. Examples of information that can identify the frame rate include the frame rate value set by the user's selection, the average frame rate for past quests, etc.

4.情報処理システム1の動作
本節では、前述した情報処理システム1の動作の流れについて説明する。
4. Operation of Information Processing System 1 In this section, the flow of operation of the information processing system 1 described above will be described.

4.1 情報処理の概要
図3は、情報処理システム1により実行される処理の流れの一例を示すアクティビティ図である。以下、このアクティビティ図に沿って情報処理の流れを概説する。好ましい態様の一例として、仮想空間内でユーザ端末3を介するユーザの操作入力に基づいて動作する第1オブジェクト5aに対して、ノンプレイヤキャラクタNPCである第2オブジェクト5bが攻撃動作を実行する場面を例に挙げて説明する。なお、一例として、ディスプレイ4aに表示された仮想空間が二次元の空間であり、判定領域7の形状が円形であるものとする。
4.1 Overview of Information Processing FIG. 3 is an activity diagram showing an example of the flow of processing executed by the information processing system 1. The flow of information processing will be outlined below with reference to this activity diagram. As an example of a preferred embodiment, a scene will be described in which a second object 5b, a non-player character NPC, performs an attack action against a first object 5a that moves in virtual space based on a user's operational input via the user terminal 3. As an example, it is assumed that the virtual space displayed on the display 4a is a two-dimensional space and the shape of the determination area 7 is circular.

まず、表示制御部233は、対戦相手である第2オブジェクト5bをディスプレイ4aに表示させる(アクティビティA101)。具体的には、表示制御部233は、第2オブジェクト5bのステータス情報9をネットワークおよび通信部31を介してユーザ端末3に送信する。ユーザ端末3の制御部33は、受信したステータス情報9を用いて第2オブジェクト5bの位置6を更新したゲーム画像情報を生成する。ディスプレイ4aは、グラフィック処理部34aによって処理されたゲーム画像を表示させる。このゲーム画像を視認したユーザは、第1オブジェクト5aの操作指示を入力デバイス4cに入力する。例えば、ユーザ端末3の操作部34cは、入力デバイス4cを介して第1オブジェクト5aを移動させる操作入力を受け付ける。制御部33は、この操作入力に係る情報を含む操作情報8を、操作入力を受け付けた時点を示す第1オブジェクト5aとともに情報処理装置2に送信する。 First, the display control unit 233 displays the opponent's second object 5b on the display 4a (activity A101). Specifically, the display control unit 233 transmits status information 9 of the second object 5b to the user terminal 3 via the network and communication unit 31. The control unit 33 of the user terminal 3 uses the received status information 9 to generate game image information that updates the position 6 of the second object 5b. The display 4a displays a game image processed by the graphics processing unit 34a. A user viewing this game image inputs an operation instruction for the first object 5a to the input device 4c. For example, the operation unit 34c of the user terminal 3 accepts operation input to move the first object 5a via the input device 4c. The control unit 33 transmits operation information 8 including information related to this operation input to the information processing device 2, along with the first object 5a indicating the time when the operation input was accepted.

ゲーム制御部232は、第1オブジェクト5aを攻撃対象として第2オブジェクト5bに攻撃動作を実行させる(アクティビティA102)。以下、オブジェクト5による、対戦相手である他のオブジェクト5に対する動作を特定動作と称する。 The game control unit 232 causes the second object 5b to perform an attack action against the first object 5a (activity A102). Hereinafter, an action performed by the object 5 against another object 5 that is the opponent will be referred to as a specific action.

決定部235は、操作情報8に基づいて、第1オブジェクト5aの演算位置61を特定する(アクティビティA103)。決定部235は、その第1オブジェクト5aに対応付けられた第1判定領域71の演算位置61を特定する(アクティビティA104)。 The determination unit 235 identifies the calculation position 61 of the first object 5a based on the operation information 8 (activity A103). The determination unit 235 identifies the calculation position 61 of the first determination area 71 associated with the first object 5a (activity A104).

また、決定部235は、特定動作が実行された時点における、第2オブジェクト5bの演算位置61aを特定する(アクティビティA105)。決定部235は、その第2オブジェクト5bに対応付けられた第2判定領域72の演算位置61bを特定する(アクティビティA106)。 The determination unit 235 also identifies the calculated position 61a of the second object 5b at the time the specific action was performed (activity A105). The determination unit 235 also identifies the calculated position 61b of the second determination area 72 associated with the second object 5b (activity A106).

ここで、決定部235は、第2オブジェクト5bによる攻撃が第1オブジェクト5aにヒットしたか否かを判定する(アクティビティA107)。具体的には例えば、決定部235は、特定された第1判定領域71と第2判定領域72との位置関係に基づいて、第2オブジェクト5bによる攻撃が第1オブジェクト5aにヒットしたか否かを判定する。すなわち、決定部235は、第1判定領域71と第2判定領域72の位置関係に基づいて、特定動作による特定動作の結果を決定する。 Here, the determination unit 235 determines whether or not the attack by the second object 5b hits the first object 5a (activity A107). Specifically, for example, the determination unit 235 determines whether or not the attack by the second object 5b hits the first object 5a based on the positional relationship between the identified first determination area 71 and second determination area 72. In other words, the determination unit 235 determines the result of the specific action based on the positional relationship between the first determination area 71 and second determination area 72.

より具体的には、決定部235は、第1判定領域71と第2判定領域72とが接触したか否かに基づいて、第2オブジェクト5bによる攻撃が第1オブジェクト5aにヒットしたか否かを判定する。第1判定領域71および第2判定領域72が接触したと判定された場合、決定部235は、攻撃がヒットしたものと決定する。すなわち、決定部235は、第2オブジェクト5bの特定動作による効果が成立したと決定する。ここで、特定動作による効果とは、第2オブジェクト5bによる特定動作によって第1オブジェクト5aに対して何らかの相互作用を発生させることであり、例えば、第1オブジェクト5aにダメージを付与する作用を意味する。 More specifically, the determination unit 235 determines whether an attack by the second object 5b has hit the first object 5a based on whether the first determination area 71 and the second determination area 72 have come into contact with each other. If it is determined that the first determination area 71 and the second determination area 72 have come into contact with each other, the determination unit 235 determines that the attack has hit. In other words, the determination unit 235 determines that an effect caused by the specific action of the second object 5b has been established . Here , the effect caused by the specific action refers to the occurrence of some kind of interaction with the first object 5a due to the specific action of the second object 5b, such as an effect of inflicting damage on the first object 5a.

一方、決定部235は、演算位置61aと表示位置62aとのうち少なくとも一つに基づいて特定動作の結果を決定する。具体的には、決定部235は、演算位置61aと表示位置62aとの位置関係に基づいて特定動作の結果を決定する。演算位置61aは、特定動作が実行された時点における、特定動作の演算処理に用いられる第2オブジェクト5bの位置6である。表示位置62aは、特定動作が実行された時点における、ディスプレイ4aに表示された第2オブジェクト5bの位置6である。 Meanwhile , the determination unit 235 determines the result of the specific action based on at least one of the calculation position 61 a and the display position 62 a. Specifically, the determination unit 235 determines the result of the specific action based on the positional relationship between the calculation position 61 a and the display position 62 a. The calculation position 61 a is the position 6 of the second object 5 b used in the calculation processing of the specific action at the time when the specific action is performed. The display position 62 a is the position 6 of the second object 5 b displayed on the display 4 a at the time when the specific action is performed.

より具体的には例えば、決定部235は、特定動作が実行された時点における、演算位置61aと表示位置62aと、の差に基づいて特定動作の結果を決定する。なお、特定動作の結果の決定は、当該差に基づいて決定することに限定されるものではないが、本実施形態においては主として特定動作の結果の決定を当該差に基づいて決定することについて例示することとし、具体的な処理の流れを以下説明する。 More specifically, for example, the determination unit 235 determines the result of the specific action based on the difference between the calculation position 61a and the display position 62a at the time the specific action is executed. Note that the determination of the result of the specific action is not limited to being determined based on this difference, but this embodiment will mainly exemplify determining the result of the specific action based on this difference, and the specific processing flow will be described below.

一方、アクティビティA108に進む。アクティビティA108において、決定部235は、ユーザ端末3から取得した操作情報8を参照する。決定部235は、ユーザ端末3から受け付けた操作情報8と、ユーザ端末3のフレームレートとに基づいて、特定動作が実行されたタイミングでディスプレイ4aに表示されていた第2オブジェクト5bの表示位置62aを特定する(アクティビティA109)。また、決定部235は、その第2オブジェクト5bに対応付けられた第2判定領域72の表示位置62bを特定する(アクティビティA110)。 Meanwhile , the process proceeds to activity A108. In activity A108, the determination unit 235 refers to the operation information 8 acquired from the user terminal 3. Based on the operation information 8 received from the user terminal 3 and the frame rate of the user terminal 3, the determination unit 235 identifies the display position 62a of the second object 5b that was displayed on the display 4a at the time the specific action was performed (activity A109). The determination unit 235 also identifies the display position 62b of the second determination area 72 associated with the second object 5b (activity A110).

決定部235は、演算位置61bと表示位置62bとの差を特定する。具体的には、決定部235は、第2判定領域72それぞれを構成する円63の中心座標73の2点間の距離64を算出する。そして、決定部235は、距離64が閾値以上であるか否かを判定する。 The determination unit 235 determines the difference between the calculated position 61b and the displayed position 62b. Specifically, the determination unit 235 calculates the distance 64 between the two center coordinates 73 of the circles 63 that make up each second determination area 72. The determination unit 235 then determines whether the distance 64 is greater than or equal to a threshold value.

距離64が閾値以上であると判定された場合、調整部234は、第1判定領域71の範囲と第2判定領域72の範囲とのうち少なくとも1つを調整する。具体的には例えば、調整部234は、第2判定領域72の範囲を縮小する(アクティビティA111)。具体的には、調整部234は、第2判定領域72の円63の半径を縮小する。例えば、半径を0.99,0.9,0.8,0.7,0.6,0.5,0.4,0.3,0.2,0.1倍に縮小させる。なおここで例示した数値の何れか2つの間の範囲内であってもよい。このように、調整部234は、調整処理が実行される前の第1判定領域71および第2判定領域72の位置関係に基づいて、演算位置61bと、表示位置62bとの差が閾値以上であることを条件として、調整処理を実行する。 If the distance 64 is determined to be equal to or greater than the threshold, the adjustment unit 234 adjusts at least one of the range of the first judgment region 71 and the range of the second judgment region 72. Specifically, the adjustment unit 234 reduces the range of the second judgment region 72 (activity A111). Specifically, the adjustment unit 234 reduces the radius of the circle 63 of the second judgment region 72. For example, the adjustment unit 234 reduces the radius by 0.99, 0.9, 0.8, 0.7, 0.6, 0.5, 0.4, 0.3, 0.2, or 0.1 times. The radius may be reduced within a range between any two of the values exemplified here. In this way, the adjustment unit 234 performs the adjustment process based on the positional relationship between the first judgment region 71 and the second judgment region 72 before the adjustment process is performed, provided that the difference between the calculated position 61b and the displayed position 62b is equal to or greater than the threshold.

続いて、調整部234は、第1判定領域71と調整処理が行われた第2判定領域72とが接触したか否かに基づいて、第1判定領域71と第2判定領域72とが接触したか否かを再度判定する(アクティビティA112)。つまり、決定部235は、調整処理が実行される前の第1判定領域71と第2判定領域72の位置関係に基づいて、調整処理の実行後、特定動作の結果を決定する。 Next, the adjustment unit 234 determines again whether the first determination area 71 and the second determination area 72 have come into contact with each other, based on whether the first determination area 71 and the second determination area 72 that has been subjected to the adjustment process have come into contact with each other (activity A112). In other words, the determination unit 235 determines the result of the specific action after the adjustment process is performed , based on the positional relationship between the first determination area 71 and the second determination area 72 before the adjustment process is performed.

そして、ゲーム制御部232は、決定された結果に基づいて、各オブジェクト5のステータス情報9を更新する(アクティビティA113)。表示制御部233は、更新されたステータス情報9をユーザ端末3に送信する(アクティビティA114)。そして、ユーザ端末3の制御部33は、受信したステータス情報9を用いてゲーム画像情報を生成する。グラフィック処理部34aは、ゲーム画像情報に基づいて描画し、映像信号に変換してディスプレイ4aに送信する。ディスプレイ4aは、映像信号に基づいてゲーム画像を表示させる(アクティビティA115)。 The game control unit 232 then updates the status information 9 of each object 5 based on the determined result (activity A113). The display control unit 233 then sends the updated status information 9 to the user terminal 3 (activity A114). The control unit 33 of the user terminal 3 then generates game image information using the received status information 9. The graphics processing unit 34a then draws the image based on the game image information, converts it into a video signal, and sends it to the display 4a. The display 4a then displays the game image based on the video signal (activity A115).

<まとめ>
以上をまとめると、本実施形態に係る情報処理装置2が実行する情報処理方法は、次の各ステップを備える。表示ステップでは、仮想空間をユーザのディスプレイ4aに表示させる。仮想空間のいずれかの位置6に、第1オブジェクト5aおよび第2オブジェクト5bが配置される。第1オブジェクト5aは、ユーザ端末3を介するユーザの操作入力に基づいて動作するオブジェクト5である。制御ステップでは、第2オブジェクト5bに特定動作を実行させる。特定動作は、第1オブジェクト5aに対する動作である。決定ステップでは、特定動作が実行された時点における、特定動作の演算処理に用いられる第2オブジェクト5bの位置である演算位置61と、ユーザのディスプレイ4aに表示された第2オブジェクト5bの位置である表示位置62と、の差に基づいて特定動作の結果を決定する。
<Summary>
In summary, the information processing method executed by the information processing device 2 according to this embodiment includes the following steps: In the display step, a virtual space is displayed on the user's display 4a. A first object 5a and a second object 5b are placed at any position 6 in the virtual space. The first object 5a is an object 5 that moves based on a user's operation input via the user terminal 3. In the control step, the second object 5b is made to perform a specific action. The specific action is an action taken against the first object 5a. In the determination step, the result of the specific action is determined based on the difference between a calculation position 61, which is the position of the second object 5b used in the calculation processing of the specific action at the time the specific action is executed, and a display position 62, which is the position of the second object 5b displayed on the user's display 4a.

また、別の態様によれば、本実施形態に係るプログラムは、コンピュータに、次の各ステップを実行させる。表示ステップでは、仮想空間をユーザのディスプレイ4aに表示させる。仮想空間のいずれかの位置6に、第1オブジェクト5aおよび第2オブジェクト5bが配置される。第1オブジェクト5aは、ユーザ端末3を介するユーザの操作入力に基づいて動作するオブジェクト5である。制御ステップでは、第2オブジェクト5bに特定動作を実行させる。特定動作は、第1オブジェクト5aに対する動作である。決定ステップでは、特定動作が実行された時点における、特定動作の演算処理に用いられる第2オブジェクト5bの位置である演算位置61と、ユーザのディスプレイ4aに表示された第2オブジェクト5bの位置である表示位置62と、の差に基づいて特定動作の結果を決定する。 In another aspect, the program according to this embodiment causes a computer to execute the following steps: In the display step, a virtual space is displayed on the user's display 4a. A first object 5a and a second object 5b are placed at any position 6 in the virtual space. The first object 5a is an object 5 that moves based on a user's operation input via the user terminal 3. In the control step, the second object 5b is caused to execute a specific action. The specific action is an action taken against the first object 5a. In the determination step, the result of the specific action is determined based on the difference between a calculation position 61, which is the position of the second object 5b used in the calculation processing of the specific action at the time the specific action is executed, and a display position 62, which is the position of the second object 5b displayed on the user's display 4a.

このような態様によれば、情報処理システム1は、プレイ環境に配慮したゲームの提供を支援する技術を提供することができる。特に、通常では、ユーザはディスプレイ4aに表示された第2オブジェクト5bを見ながら、第2オブジェクト5bからの攻撃を回避する操作を行った場合に、実際のヒットの判定ではユーザが見ていた第2オブジェクト5bの表示位置62とは異なる演算位置61を用いて判定が行われる。そのため、ユーザが想定していた結果とは異なる結果となり得る。これに対して、本実施形態によれば、第2オブジェクト5bの表示位置62と演算位置61との差に基づいて判定が実行されるため、ユーザが使用するユーザ端末3の表示遅延が大きい場合にも、これによって不利にならずに試合を進めることができる。 In this manner, the information processing system 1 can provide technology that supports the provision of games that take into consideration the playing environment. In particular, normally, when a user performs an operation to avoid an attack from the second object 5b while looking at the second object 5b displayed on the display 4a, the actual hit determination is made using a calculated position 61 that differs from the display position 62 of the second object 5b that the user was looking at. This can result in a result that differs from what the user expected. In contrast, according to this embodiment, the determination is made based on the difference between the display position 62 and the calculated position 61 of the second object 5b, so that even if there is a large display delay on the user terminal 3 used by the user, the match can proceed without being disadvantaged.

4.2 情報処理の詳細
続いて、イメージ図を参照しながら、前節で説明した情報処理の詳細をさらに説明する。
4.2 Details of Information Processing Next, the details of the information processing explained in the previous section will be further explained with reference to the image diagram.

図4は、判定領域7の一例を示すイメージ図である。判定領域7の形状は、特に限定されないが、例えば、円形、球形、円柱形、四角形、楕円である。図4で示すように、例えば、矢で示される第2オブジェクト5bには、矢先を中心座標73とする第2判定領域72が設定される。例えば、第1オブジェクト5aには、胴体を中心座標73とする円形の第1判定領域71が設定される。また、判定領域7が設定されるオブジェクト5には、プレイヤキャラクタPCまたはノンプレイヤキャラクタNPCから出射される弾、矢、レーザ等のオブジェクト5、キャラクタCの攻撃動作に伴って仮想空間に出現する各種エフェクトが含まれる。判定領域7の大きさ、数等は、オブジェクト5の形状、大きさ、種類等に応じて設定される。また、オブジェクト5に対して、例えば身体の部位ごとに複数の判定領域7が設定され得る。 Figure 4 is an illustration showing an example of a determination region 7. The shape of the determination region 7 is not particularly limited, but may be, for example, a circle, sphere, cylinder, rectangle, or ellipse. As shown in Figure 4, for example, a second determination region 72 is set for a second object 5b represented by an arrow, with the arrow tip as its center coordinate 73. For example, a circular first determination region 71 is set for a first object 5a, with the torso as its center coordinate 73. Furthermore, objects 5 for which determination regions 7 are set include objects 5 such as bullets, arrows, and lasers fired by the player character PC or non-player character NPC, as well as various effects that appear in virtual space in response to the attacking movements of character C. The size, number, etc. of the determination regions 7 are set according to the shape, size, type, etc. of the object 5. Furthermore, multiple determination regions 7 may be set for an object 5, for example, for each body part.

図5は、第1判定領域71と第2判定領域72とが接触した様子を示すイメージ図である。図5で示すように、決定部235は、特定動作によって第2オブジェクト5bの位置6が第1オブジェクト5aに向かって移動したことで、第1判定領域71と第2判定領域72が接触した場合、攻撃が第1オブジェクト5aにヒットしたものと判定する。なお、決定部235は、かかるヒット判定をフレーム毎に複数回にわたって実行する。 Figure 5 is an illustration showing contact between the first determination area 71 and the second determination area 72. As shown in Figure 5, when the position 6 of the second object 5b moves toward the first object 5a as a result of a specific action, causing contact between the first determination area 71 and the second determination area 72, the determination unit 235 determines that the attack has hit the first object 5a. Note that the determination unit 235 performs this hit determination multiple times per frame.

図6は、フレーム毎の処理の流れを示すイメージ図である。点線矢印で示されるように、ゲーム制御部232は、演算処理の実行を周期的に繰り返し、その処理結果を含むステータス情報9をユーザ端末3に送信する。ユーザ端末3は、実線矢印で示されるように、ユーザの操作入力に係る操作情報8を周期的に情報処理装置2に送信する。また、ユーザ端末3は、受信したステータス情報9を用いてゲーム画像情報を生成し、映像信号に変換してディスプレイ4aに送信する。図6では、フレームレートが8fpsである場合の例が示される。すなわち、125msごとに操作情報8の送信および映像信号の送信が繰り返される場合の例が示される。なお、本図において、ディスプレイ4aは、ユーザ端末3から映像信号を受信する度に画面切替であるリフレッシュ処理を行い、そのリフレッシュの処理はユーザ端末3による映像信号の送信と同じ周期で実行される場合の例が示したが、これに限らない。 Figure 6 is an illustration of the processing flow for each frame. As indicated by the dotted arrows, the game control unit 232 periodically executes calculation processing and transmits status information 9 containing the processing results to the user terminal 3. As indicated by the solid arrows, the user terminal 3 periodically transmits operation information 8 related to the user's operation input to the information processing device 2. The user terminal 3 also generates game image information using the received status information 9, converts it into a video signal, and transmits it to the display 4a. Figure 6 shows an example where the frame rate is 8 fps. In other words, this example shows a case where the transmission of operation information 8 and the transmission of the video signal are repeated every 125 ms. Note that in this figure, the display 4a performs a refresh process (screen switching) each time it receives a video signal from the user terminal 3. Although this refresh process is performed at the same cycle as the transmission of the video signal by the user terminal 3, this example is not limited to this.

画面601~画面604は、それぞれ各フレームでディスプレイ4aに表示される画面を示す。特に、画面601は、フレームF3のタイミングでディスプレイ4aに表示された画面を示す。フレームF3におけるタイミングT1は、第2オブジェクト5bによる特定動作が実行されたタイミングを示す。すなわち、画面601は、特定動作が実行された時点における第2オブジェクト5bの表示位置62aを示す。この場合、ユーザは、第2オブジェクト5bによる特定動作が実行されたタイミングにおいて、画面601で示される位置6に第2オブジェクト5bがいるものと認識していたこととなる。なお、画面601において、第2オブジェクト5bは障害物オブジェクト55の奥に位置することにより、第2オブジェクト5bの姿は障害物オブジェクト55により隠されている。したがって、タイミングT1においてユーザは第2オブジェクト5bの姿を確認できない。なお、画面601における第2オブジェクト5bの位置6は、図8を参照されたい。 Screens 601 to 604 each represent a screen displayed on the display 4a in each frame. In particular, screen 601 represents a screen displayed on the display 4a at the timing of frame F3. Timing T1 in frame F3 represents the timing when the second object 5b performs a specific action. That is, screen 601 shows the display position 62a of the second object 5b at the time the specific action was performed. In this case, the user recognizes that the second object 5b is located at position 6 shown on screen 601 at the timing when the second object 5b performs the specific action. Note that in screen 601, the second object 5b is located behind the obstacle object 55, and therefore the figure of the second object 5b is hidden by the obstacle object 55. Therefore, the user cannot see the figure of the second object 5b at timing T1. Note that for position 6 of the second object 5b on screen 601, see Figure 8.

また、ユーザ端末3は、情報処理装置2から受け付けたステータス情報9に基づいてゲーム画像を生成し、ディスプレイ4aに送信する。ユーザ端末3は、情報処理装置2から新たなステータス情報9を受信するまで、直前に受け取ったステータス情報9に基づいて動作する第2オブジェクト5bゲーム画像を生成し、映像信号に変換してディスプレイ4aに送信する。例えば、ユーザ端末3は、フレームF2以前に、矢印54の方向に移動する旨のステータス情報9を取得する。そして、ユーザ端末3は、このステータス情報9に基づいて第2オブジェクト5bを含むゲームが画像を生成し、ディスプレイ4aに表示させる。画面602は、第2オブジェクト5bが矢印54の方向に移動する第2オブジェクト5bの様子が描画された画面を示す。 The user terminal 3 also generates a game image based on the status information 9 received from the information processing device 2 and transmits it to the display 4a. Until new status information 9 is received from the information processing device 2, the user terminal 3 generates a game image of the second object 5b operating based on the status information 9 received most recently, converts it into a video signal, and transmits it to the display 4a. For example, the user terminal 3 obtains status information 9 indicating movement in the direction of arrow 54 before frame F2. The user terminal 3 then generates a game image including the second object 5b based on this status information 9 and displays it on the display 4a. Screen 602 shows a screen depicting the second object 5b moving in the direction of arrow 54.

一方、画面612および画面613は、情報処理装置2により処理が行われる各タイミングにおける第2オブジェクト5bの演算位置61を示す。画面612は、特定動作の演算処理が実行されたタイミングT1での第2オブジェクト5bの演算位置61aを示す。このように、第2オブジェクト5bの位置6がユーザ端末3に表示されるタイミングが異なることで、タイミングT1における第2オブジェクト5bの演算位置61aと、タイミングT1でディスプレイ4aに表示された第2オブジェクト5bの表示位置62aは異なり得る。 On the other hand, screens 612 and 613 show the calculated position 61 of the second object 5b at each timing when processing is performed by the information processing device 2. Screen 612 shows the calculated position 61a of the second object 5b at timing T1 when calculation processing for a specific action is performed. In this way, because the timing at which the position 6 of the second object 5b is displayed on the user terminal 3 differs, the calculated position 61a of the second object 5b at timing T1 and the display position 62a of the second object 5b displayed on the display 4a at timing T1 may differ.

情報処理装置2は、ヒット判定の実行後、その結果に応じたステータス情報9をユーザ端末3に送信する。画面604は、特定動作の結果として、第2オブジェクト5bからの攻撃が第1オブジェクト5aに的中した場合のゲーム画像の例を示す。 After performing a hit determination, the information processing device 2 transmits status information 9 corresponding to the result to the user terminal 3. Screen 604 shows an example of a game image in which an attack from the second object 5b hits the first object 5a as a result of a specific action.

図7は、フレームレートが12fpsである処理の流れを示すイメージ図である。図7の例において、ユーザ端末3は、約83msごとにディスプレイ4aに対する映像信号の送信を実行する。画面701~画面704は、それぞれ各フレームでディスプレイ4aに表示される画面を示す。特に、画面701は、タイミングT1でディスプレイ4aに表示された画面を示す。一方、画面711~画面713は、情報処理装置2により処理が行われる各タイミングでの第2オブジェクト5bの演算位置61を示す。特に画面712では、特定動作の演算処理が実行されたタイミングT1での第2オブジェクト5bの演算位置61aを示す。 Figure 7 is an image diagram showing the processing flow when the frame rate is 12 fps. In the example of Figure 7, the user terminal 3 transmits a video signal to the display 4a approximately every 83 ms. Screens 701 to 704 show the screens displayed on the display 4a in each frame. In particular, screen 701 shows the screen displayed on the display 4a at timing T1. Meanwhile, screens 711 to 713 show the calculated position 61 of the second object 5b at each timing when processing is performed by the information processing device 2. In particular, screen 712 shows the calculated position 61a of the second object 5b at timing T1 when calculation processing for a specific action is performed.

図8は、画面601、画面612、画面701および画面712を拡大表示させたイメージ図である。なお、障害物オブジェクト55は、説明の都合上半透明で示している。図8で示すように、異なるフレームレートにおける演算位置61および表示位置62を比較した場合、フレームレートが低いほど演算位置61と表示位置62の差が大きくなる。具体的には、フレームレートが12fpsである場合より8fpsである場合の方が演算位置61と表示位置62の差が大きくなる。このように、第2オブジェクト5bの位置6の差は、ディスプレイ4aにおいてフレームレートに基づいて算出される。フレームレートがユーザにより選択されたものである場合、ユーザによって設定されたフレームレートに基づいて算出される。これにより、決定部235は、ユーザのプレイ環境に合わせて適切な判定処理を実行することができる。 Figure 8 is an image diagram showing enlarged views of screens 601, 612, 701, and 712. Note that obstacle object 55 is shown semi-transparent for ease of explanation. As shown in Figure 8, when comparing calculated position 61 and displayed position 62 at different frame rates, the lower the frame rate, the greater the difference between calculated position 61 and displayed position 62. Specifically, the difference between calculated position 61 and displayed position 62 is greater when the frame rate is 8 fps than when the frame rate is 12 fps. In this way, the difference in position 6 of second object 5b is calculated based on the frame rate on display 4a. If the frame rate is selected by the user, the difference is calculated based on the frame rate set by the user. This allows the determination unit 235 to perform appropriate determination processing in accordance with the user's play environment.

図9は、第2オブジェクト5bに対応付けられた第2判定領域72の演算位置61bおよび表示位置62bの距離64を示すイメージ図である。第2オブジェクト5bは、矢印901の方向に移動したとする。ここで、決定部235は、演算位置61bに対応する第2判定領域72を構成する円63の中心座標73aを特定するとともに、表示位置62bに対応する円63の中心座標73bを特定する。続いて、決定部235は、中心座標73aおよび中心座標73bの2点間の距離64を算出する。そして、決定部235は、距離64が閾値以上であるか否かを判定する。閾値は、判定対象となる第2判定領域72の大きさ、形状等により異なり得るが、例えば、閾値は、距離64が円63の半径以上であることである。具体的例えば、閾値は、距離64が円63の半径の1.1,1.2,1.3,1.4,1.5,1.6,1.7,1.8,1.9,2,3,4,5,6,7,8,9,10倍以上であることであり、ここで例示した数値の何れか2つの間の範囲内であってもよい。図9の例では、距離64が円63の半径の5倍である状態の例が示される。 Figure 9 is an illustration showing the distance 64 between the calculated position 61b and the display position 62b of the second determination region 72 associated with the second object 5b. Assume that the second object 5b moves in the direction of the arrow 901. Here, the determination unit 235 identifies the center coordinate 73a of the circle 63 constituting the second determination region 72 corresponding to the calculated position 61b, and identifies the center coordinate 73b of the circle 63 corresponding to the display position 62b. Next, the determination unit 235 calculates the distance 64 between the two points, the center coordinate 73a and the center coordinate 73b. The determination unit 235 then determines whether the distance 64 is greater than or equal to a threshold value. The threshold value may vary depending on the size, shape, etc. of the second determination region 72 to be determined. For example, the threshold value is that the distance 64 is greater than or equal to the radius of the circle 63. Specifically, for example, the threshold value is that the distance 64 is equal to or greater than 1.1, 1.2, 1.3, 1.4, 1.5, 1.6, 1.7, 1.8, 1.9, 2, 3, 4, 5, 6, 7, 8, 9, or 10 times the radius of the circle 63, and may be within a range between any two of the values exemplified here. The example in Figure 9 shows an example where the distance 64 is 5 times the radius of the circle 63.

図10は、調整部234による調整前後の第2オブジェクト5bの第2判定領域72を示すイメージ図である。第2判定領域72cは、調整部234による調整前の第2判定領域72を示し、第2判定領域72dは、調整部234による調整後の第2判定領域72を示す。図10で示されるように、調整部234は、第2オブジェクト5bの第2判定領域72を縮小する調整処理を実行する。例えば、調整部234は、第2オブジェクト5bの移動軌跡に対応する方向に第2判定領域72を縮小する調整処理を実行する。これにより、第2オブジェクト5bの演算位置61と表示位置62が閾値以上異なる場合、演算位置61と表示位置62の間に対して第2判定領域72が拡張され、表示遅延によるヒット判定のズレを考慮した判定が実行可能となる。そして、調整後の第2判定領域72を用いて決定部235が特定動作のヒット判定を実行する際、第2オブジェクト5bによる攻撃を回避しやすくなる。 Figure 10 is an illustration showing the second determination region 72 of the second object 5b before and after adjustment by the adjustment unit 234. The second determination region 72c shows the second determination region 72 before adjustment by the adjustment unit 234, and the second determination region 72d shows the second determination region 72 after adjustment by the adjustment unit 234. As shown in Figure 10, the adjustment unit 234 performs an adjustment process to reduce the second determination region 72 of the second object 5b. For example, the adjustment unit 234 performs an adjustment process to reduce the second determination region 72 in a direction corresponding to the movement trajectory of the second object 5b. As a result, if the difference between the calculated position 61 and the displayed position 62 of the second object 5b is equal to or greater than the threshold, the second determination region 72 is expanded between the calculated position 61 and the displayed position 62, making it possible to perform a hit determination that takes into account discrepancies in hit determination due to display delay. When the determination unit 235 performs a hit determination for a specific action using the adjusted second determination region 72, it becomes easier to avoid attacks by the second object 5b.

図11は、ディスプレイ4aに表示される画面の一例を示すイメージ図である。例えば、表示制御部233は、ゲーム起動時またはゲームの試合前後にメニュー表示エリア1101を表示させる。メニュー表示エリア1101は、例えば、複数の操作ボタン1102を含む。操作ボタン1102は、各操作ボタン1102等に対応する画面の表示指示を受け付けるウィジェットである。図11では、「設定」と表示された操作ボタン1102が選択された状態の画面が示される。「設定」と表示された操作ボタン1102が選択された場合、表示制御部233は、各種設定エリア1103を表示させる。各種設定エリア1103において、ユーザは、試合中のフレームレートを設定することができる。図11の例では、「60fps」が設定された状態の例が示される。ユーザにより任意のfpsが選択された状態で設定完了ボタン1104が押下されると、選択されたfpsで試合が進行する。なお、 Figure 11 is an image diagram showing an example of a screen displayed on the display 4a. For example, the display control unit 233 displays a menu display area 1101 when the game is launched or before or after a game match. The menu display area 1101 includes, for example, multiple operation buttons 1102. The operation buttons 1102 are widgets that accept display instructions for the screens corresponding to the operation buttons 1102, etc. Figure 11 shows a screen in which the operation button 1102 labeled "Settings" is selected. When the operation button 1102 labeled "Settings" is selected, the display control unit 233 displays a various settings area 1103. In the various settings area 1103, the user can set the frame rate during the match. The example in Figure 11 shows an example in which "60 fps" has been set. When the user selects an arbitrary fps and presses the setting completion button 1104, the match will proceed at the selected fps. Note that,

図12は、ディスプレイ4aに表示される画面の一例を示すイメージ図である。図11では、「マルチ」と表示された操作ボタン1102が選択された状態の画面が示される。「マルチ」と表示された操作ボタン1102が選択された場合、表示制御部233は、マルチプレイ設定エリア1201を表示させる。マルチプレイ設定エリア1201において、ユーザは、マルチプレイで試合を行う際のマッチング条件を指定することができる。マッチング条件は、例えば、自身とプレイヤキャラクタPCのレベルが近いこと、自分とゲームのプレイ環境が近いことである。図12の例では、「自身とプレイヤキャラクタPCのレベルが近いこと」が選択された状態の画面が示される。 Figure 12 is an image diagram showing an example of a screen displayed on the display 4a. Figure 11 shows a screen in which the operation button 1102 labeled "Multi" has been selected. When the operation button 1102 labeled "Multi" is selected, the display control unit 233 displays a multiplay setting area 1201. In the multiplay setting area 1201, the user can specify matching conditions for a multiplay match. Matching conditions include, for example, that the user and the player character PC are at similar levels, and that the user and the game play environment are similar. The example in Figure 12 shows a screen in which "the user and the player character PC are at similar levels" has been selected.

また、マルチプレイ設定エリア1201は、メンバー募集開始ボタン1202およびパーティ参加ボタン1203を含む。メンバー募集開始ボタン1202またはパーティ参加ボタン1203を選択することにより、ユーザは、チームのホストまたはメンバーとして、試合に参加することができる。メンバー募集開始ボタン1202が選択された場合、表示制御部233は、図13で示すメンバー募集画面1301に遷移させる。一方、パーティ参加ボタン1203が選択された場合、表示制御部233は、メンバーを募集しているパーティの参加画面に遷移させる。 The multiplayer setting area 1201 also includes a member recruitment start button 1202 and a party join button 1203. By selecting the member recruitment start button 1202 or the party join button 1203, the user can participate in a match as a team host or member. When the member recruitment start button 1202 is selected, the display control unit 233 transitions to the member recruitment screen 1301 shown in FIG. 13. On the other hand, when the party join button 1203 is selected, the display control unit 233 transitions to a participation screen for a party that is recruiting members.

図13は、メンバー募集画面1301の一例を示すイメージ図である。メンバー募集画面1301が選択された場合、マッチング部236は、マッチング条件に基づいて、対戦相手の候補として表示させるメンバー募集画面1301を表示させる。ここで、マッチング条件に「ユーザ自身とゲームのプレイ環境が近いこと」が含まれる場合、マッチング部236は、各ユーザ端末3から取得したフレームレートに基づいて、候補者となるユーザを選択する。例えば、マッチング部236は、互いのフレームレートが所定の範囲内にあるユーザ同士をマッチングさせる。図13では、ユーザにより設定されたフレームレートが60FPSであり、設定されたフレームレートとのフレームレートの差が15fps以下であるユーザがマッチングされた場合の例が示される。 Figure 13 is an image diagram showing an example of a member recruitment screen 1301. When the member recruitment screen 1301 is selected, the matching unit 236 displays the member recruitment screen 1301 to display candidate opponents based on the matching conditions. Here, if the matching conditions include "a game playing environment similar to that of the user," the matching unit 236 selects candidate users based on the frame rates acquired from each user terminal 3. For example, the matching unit 236 matches users whose frame rates are within a predetermined range. Figure 13 shows an example where the frame rate set by the user is 60 FPS, and users whose frame rates differ by 15 fps or less from the set frame rate are matched.

ここで、図13に示すように、表示制御部233は、各候補者が使用するユーザ端末3のフレームレートを示す表示1302を表示させる。候補者に通信環境が不安定なユーザが含まれる場合、表示制御部233は、その旨を示す通信環境表示1303を表示させる。ユーザは、表示された候補者を対戦相手として試合を開始したい場合、試合開始ボタン1304を押下することで試合を開始することができる。一方、ユーザは、マッチングをやり直したい場合、やり直しボタン1305を押下することで、候補者を別のユーザに変更することができる。この場合、マッチング部236は、例えば、選択された候補者とは異なる複数のユーザの中から新たな候補者を選択する。 Here, as shown in FIG. 13, the display control unit 233 displays a display 1302 indicating the frame rate of the user terminal 3 used by each candidate. If the candidates include a user with an unstable communication environment, the display control unit 233 displays a communication environment display 1303 indicating this. If the user wants to start a match against a displayed candidate, the user can start the match by pressing the start match button 1304. On the other hand, if the user wants to start the matching again, the user can change the candidate to a different user by pressing the start again button 1305. In this case, the matching unit 236 selects a new candidate from, for example, multiple users different from the selected candidate.

図14は、試合開始前に表示される警告1401の一例を示すイメージ図である。表示制御部233は、マッチングされた対戦者同士のフレームレートの差が閾値以上である場合、試合開始前または試合中に警告1401を表示される。警告1401は、フレームレートが低い対戦者が別の対戦者に対して攻撃を実行する際、攻撃を受けた対戦者により操作されるオブジェクト5に対応付けられた判定領域7の調整処理を実行する旨を示す表示である。このまま試合を開始したい場合、ユーザは、操作ボタン1402を押下することで、試合を開始することができる。一方、操作ボタン1403が押下された場合、図13で示す画面に戻り、マッチングをやり直すことができる。これにより、ユーザは、試合中にヒット判定の調整処理が行われ得る旨をユーザが予め確認した上で、試合を開始することができる。 Figure 14 is an image diagram showing an example of a warning 1401 displayed before the start of a match. The display control unit 233 displays warning 1401 before or during a match if the difference in frame rate between matched opponents is equal to or greater than a threshold. Warning 1401 is a display indicating that when an opponent with a lower frame rate attacks another opponent, an adjustment process will be performed on the judgment area 7 associated with the object 5 controlled by the opponent who is attacked. If the user wishes to start the match as is, the user can start the match by pressing operation button 1402. On the other hand, if operation button 1403 is pressed, the screen shown in Figure 13 will be displayed and the matching can be performed again. This allows the user to start the match after confirming in advance that adjustment process for hit judgment may be performed during the match.

[その他]
前述の実施形態に係る情報処理システム1に関して、以下のような態様を採用してもよい。
[others]
The information processing system 1 according to the above-described embodiment may be configured as follows.

上述の実施形態では、対戦相手がノンプレイヤキャラクタNPCである場合を主たる例としたが、対戦相手が他のユーザにより操作されるプレイヤキャラクタPCであってもよい。以下において、マッチング部236により複数のユーザの中からマッチングされた2名のユーザ(第1ユーザと第2ユーザ)が試合を行う場合を例に説明する。また、説明上の主たるユーザを第1ユーザと称し、対戦相手であるユーザを第2ユーザと称する。 In the above-described embodiment, the main example is that the opponent is a non-player character NPC, but the opponent may also be a player character PC operated by another user. Below, we will explain an example in which two users (a first user and a second user) matched from multiple users by the matching unit 236 play a match. For the purposes of explanation, the main user will be referred to as the first user, and the opponent user will be referred to as the second user.

図15は、第1ユーザおよび第2ユーザによる試合における処理の流れを示すイメージ図である。図15では、第2ユーザに対応する第2ユーザ端末3bのフレームレートが第1ユーザに対応するユーザ端末3のフレームレートよりも低い場合の例が示される。 Figure 15 is an illustration showing the processing flow during a match between a first user and a second user. Figure 15 shows an example in which the frame rate of the second user terminal 3b corresponding to the second user is lower than the frame rate of the user terminal 3 corresponding to the first user.

図15において、第1オブジェクト5aは、第1ユーザ端末3aを介した第1ユーザの第1操作入力に基づいて動作するオブジェクト5である。第2オブジェクト5bは、第2ユーザ端末3bを介した第2ユーザの第2操作入力に基づいて動作するオブジェクト5である。 In FIG. 15, the first object 5a is an object 5 that moves based on a first operation input from a first user via a first user terminal 3a. The second object 5b is an object 5 that moves based on a second operation input from a second user via a second user terminal 3b.

ゲーム制御部232は、第1オブジェクト5aと、第2オブジェクト5bとを仮想空間に配置して、仮想空間におけるゲームを進行させる。そして、ゲーム制御部232は、第2操作入力に基づいて第2オブジェクト5bに特定動作を実行させる。また、ゲーム制御部232は、第1オブジェクト5aに特定動作を実行させる。この場合の特定動作は、第1オブジェクト5aによる第2オブジェクト5bに対する動作を示す。 The game control unit 232 places the first object 5a and the second object 5b in a virtual space and progresses the game in the virtual space. The game control unit 232 then causes the second object 5b to perform a specific action based on the second operation input. The game control unit 232 also causes the first object 5a to perform a specific action. In this case, the specific action refers to an action performed by the first object 5a on the second object 5b.

図15に含まれる各画面は、第2オブジェクト5bおよび第1オブジェクト5aの表示位置62を示す。説明の都合上、第1オブジェクト5aは、各画面に含まれるA~Fに対応するマス目を移動するものとする。また、第2オブジェクト5bは、a~fと対応するマス目を移動するものとする。 Each screen shown in Figure 15 shows the display position 62 of the second object 5b and the first object 5a. For ease of explanation, the first object 5a moves through the squares corresponding to A through F on each screen. The second object 5b moves through the squares corresponding to a through f.

各ユーザ端末3が受け付けた操作入力は情報処理装置2に送信され、受付部231は、第1ユーザ端末3aから第1操作入力を受け付けるとともに、第2ユーザ端末3bから第2操作入力を受け付ける。第1ユーザ端末3aは、第1オブジェクト5aをAからFまで移動させる第1操作入力を受け付ける。一方、第2ユーザ端末3bは、第2オブジェクト5bをaからdまで移動する第2操作入力を受け付ける。具体的には、図15で示した以下の各タイミングでそれぞれ操作入力を受け付ける。 The operation input received by each user terminal 3 is transmitted to the information processing device 2, and the reception unit 231 receives a first operation input from the first user terminal 3a and a second operation input from the second user terminal 3b. The first user terminal 3a receives a first operation input to move the first object 5a from A to F. Meanwhile, the second user terminal 3b receives a second operation input to move the second object 5b from a to d. Specifically, operation inputs are received at the following times shown in FIG. 15:

タイミングTa~タイミングTbは、第2ユーザ端末3bが第2操作入力を受け付けたタイミングを示す。
タイミングTaは、「第2オブジェクト5bをaからbに移動する」という第2操作入力を第2ユーザ端末3bが受け付けたタイミングを示す。
タイミングTbは、「第2オブジェクト5bをbからcに移動する」という第2操作入力を第2ユーザ端末3bが受け付けたタイミングを示す。
Timing Ta to timing Tb indicate the timings at which the second user terminal 3b receives the second operation input.
Timing Ta indicates the timing at which the second user terminal 3b receives the second operation input of "move the second object 5b from a to b."
Timing Tb indicates the timing at which the second user terminal 3b receives the second operation input "move the second object 5b from b to c."

タイミングTd~タイミングThは、第1ユーザ端末3aが第1操作入力を受け付けたタイミングを示す。
タイミングTdは、「第1オブジェクト5aをAからBに移動する」という第1操作入力を第1ユーザ端末3aが受け付けたタイミングを示す。
タイミングTeは、「第1オブジェクト5aをBからCに移動する」という第1操作入力を第1ユーザ端末3aが受け付けたタイミングを示す。
タイミングTfは、「第1オブジェクト5aをCからDに移動する」という第1操作入力を第1ユーザ端末3aが受け付けたタイミングを示す。
タイミングTgは、「第1オブジェクト5aをDからEに移動する」という第1操作入力を第1ユーザ端末3aが受け付けたタイミングを示す。
タイミングThは、「第1オブジェクト5aをEからFに移動する」という第1操作入力を第1ユーザ端末3aが受け付けたタイミングを示す。
タイミングTiは、タイミングTaで第2ユーザ端末3bが受け付けた第2操作入力と、タイミングTdで第1ユーザ端末3aが受け付けた第1操作入力とに基づく演算処理が情報処理装置2で実行されるタイミングを示す。
Timings Td to Th indicate the timings at which the first user terminal 3a receives the first operation input.
Timing Td indicates the timing at which the first user terminal 3a receives the first operation input of "move the first object 5a from A to B."
Timing Te indicates the timing at which the first user terminal 3a receives the first operation input of "move the first object 5a from B to C."
Timing Tf indicates the timing at which the first user terminal 3a receives the first operation input "move the first object 5a from C to D."
Timing Tg indicates the timing at which the first user terminal 3a receives the first operation input of "move the first object 5a from D to E."
Timing Th indicates the timing at which the first user terminal 3a receives the first operation input of "move the first object 5a from E to F."
Timing Ti indicates the timing at which the information processing device 2 executes calculation processing based on the second operation input received by the second user terminal 3b at timing Ta and the first operation input received by the first user terminal 3a at timing Td.

ここで、タイミングTaで第2ユーザ端末3bが受け付けた第2操作入力は、情報処理装置2に送信され、タイミングTiで処理される。この処理結果は第1ユーザ端末3aおよび第2ユーザ端末3bに送信され、画面1504で示すように、第1ユーザ端末3aと接続するディスプレイ4aに反映される。このように、第2ユーザが行った操作入力は情報処理装置2で処理された後、第1ユーザが使用する第1ユーザ端末3aのディスプレイ4aに反映される。 Here, the second operation input received by the second user terminal 3b at timing Ta is transmitted to the information processing device 2 and processed at timing Ti. The results of this processing are transmitted to the first user terminal 3a and the second user terminal 3b, and are reflected on the display 4a connected to the first user terminal 3a, as shown in screen 1504. In this way, the operation input performed by the second user is processed by the information processing device 2, and then reflected on the display 4a of the first user terminal 3a used by the first user.

画面1501~画面1506は、第1ユーザが視認するディスプレイ4aに表示された第1オブジェクト5aの表示位置62cおよび第2オブジェクト5bの表示位置62dを示す。画面1511~画面1513は、第2ユーザが視認するディスプレイ4aに表示された第1オブジェクト5aの表示位置62cおよび第2オブジェクト5bの表示位置62dを示す。 Screens 1501 to 1506 show the display position 62c of the first object 5a and the display position 62d of the second object 5b displayed on the display 4a viewed by the first user. Screens 1511 to 1513 show the display position 62c of the first object 5a and the display position 62d of the second object 5b displayed on the display 4a viewed by the second user.

タイミングTAで第2ユーザ端末3bが受け付けた「第1オブジェクト5aに対する攻撃」という第2操作入力は、タイミングTCで処理される。タイミングTAで第1ユーザのディスプレイ4aに表示された第2オブジェクト5bの表示位置62は、「b」である(画面1505参照)。 The second operation input "attack the first object 5a" received by the second user terminal 3b at timing TA is processed at timing TC. The display position 62 of the second object 5b displayed on the first user's display 4a at timing TA is "b" (see screen 1505).

一方、かかる攻撃動作のヒット判定を行う際の演算位置61は、第2操作入力が第2ユーザ端末3bにおいて受け付けられた時点を特定する情報に基づいて特定される。タイミングTAの前のタイミングTbでは、「第2オブジェクト5bをbからcに移動する」という第2操作入力を受け付けている。したがって、かかる攻撃のヒット判定が処理される際の第2オブジェクト5bの演算位置61は「c」となる。イメージ1500は、タイミングTAにおける特定動作に係る第2オブジェクト5bの演算位置61dを示す。つまり、決定部235は、タイミングTAにおいて第1ユーザのディスプレイ4aに表示された第2オブジェクト5bの表示位置62「b」と、演算位置61「c」は1コマ分の距離64があるものと特定する(イメージ1500)。 On the other hand, the calculation position 61 when making a hit determination for this attack action is determined based on information specifying the time when the second operation input was accepted by the second user terminal 3b. At timing Tb, which precedes timing TA, the second operation input to "move the second object 5b from b to c" was accepted. Therefore, the calculation position 61 of the second object 5b when the hit determination for this attack is processed is "c." Image 1500 shows the calculation position 61d of the second object 5b related to the specific action at timing TA. In other words, the determination unit 235 determines that there is a distance 64 of one frame between the display position 62 "b" of the second object 5b displayed on the first user's display 4a at timing TA and the calculation position 61 "c" (Image 1500).

一方、タイミングTBで第1ユーザ端末3aが受け付けた「第2オブジェクト5bに対する攻撃」という第1操作入力は、タイミングTCで処理される。また、画面1512で示すように、タイミングTBで第2ユーザのディスプレイ4aに表示された第1オブジェクト5aの表示位置62は、「B」となる。一方、かかる攻撃動作のヒット判定を行う際の演算位置61は、第1操作入力が第1ユーザ端末3aにおいて受け付けられた時点を特定する情s報に基づいて特定される。第1ユーザ端末3aは、タイミングTBの前のタイミングTgで「第1オブジェクト5aをDからEに移動する」という第1操作入力を受け付けている。この場合、かかる攻撃のヒット判定が処理される際の第1オブジェクト5aの演算位置61は「E」となる。イメージ1500は、タイミングTBにおける特定動作に係る第1オブジェクト5aの演算位置61cを示す。つまり、決定部235は、タイミングTBにおいて第2ユーザのディスプレイ4aに表示された第1オブジェクト5aの第1オブジェクト5aの表示位置62「B」と、第1オブジェクト5aの演算位置61「E」は3コマ分の距離64があるものと特定する(イメージ1500参照)。 Meanwhile, the first operation input "attack the second object 5b" received by the first user terminal 3a at timing TB is processed at timing TC. Furthermore, as shown in screen 1512, the display position 62 of the first object 5a displayed on the second user's display 4a at timing TB is "B." Meanwhile, the calculation position 61 used when making a hit determination for such an attack action is determined based on information specifying the time at which the first operation input was received by the first user terminal 3a. The first user terminal 3a receives the first operation input "move the first object 5a from D to E" at timing Tg, which is before timing TB. In this case, the calculation position 61 of the first object 5a used when making a hit determination for such an attack is "E." Image 1500 shows the calculation position 61c of the first object 5a related to the specific action at timing TB. In other words, the determination unit 235 determines that the display position 62 "B" of the first object 5a displayed on the second user's display 4a at timing TB is at a distance 64 of three frames from the calculated position 61 "E" of the first object 5a (see image 1500).

ここで、決定部235は、試合中、各ユーザの視点からみてそれぞれ対戦相手となるオブジェクト5の演算位置61と表示位置62の差が最も大きいユーザが有利となるように特定動作の結果を決定する。これにより、試合に参加するユーザのプレイ環境および通信遅延を考慮したヒット判定を実行することができる。具体的には、決定部235は、複数のユーザの中で、この差が大きいユーザによる攻撃のヒット判定の際、調整部234による調整処理の実行後に特定動作の結果を決定する。 Here, the determination unit 235 determines the result of the specific action so as to give an advantage to the user who has the largest difference between the calculated position 61 and the displayed position 62 of the opponent object 5 as seen from the viewpoint of each user during the match. This makes it possible to perform hit determination that takes into account the playing environment and communication delays of the users participating in the match. Specifically, when performing a hit determination for an attack by a user with the largest difference among multiple users, the determination unit 235 determines the result of the specific action after the adjustment unit 234 has performed the adjustment process.

例えば、決定部235は、第2ユーザの差が第1ユーザの差よりも大きい場合、第2ユーザに有利となるように特定動作の結果を決定する。具体的には、決定部235は、第2オブジェクト5bによる第1オブジェクト5aに対する特定動作が実行された場合、第1オブジェクト5aに対応付けられた判定領域7aと第2オブジェクト5bに対応付けられた判定領域7bとが接触するか否かを判定する。そして、判定領域7aおよび判定領域7bが接触しないと判定された場合、決定部235は、判定領域7bと調整部234による調整処理後の判定領域7aとに基づいて判定領域7aと判定領域7bとが接触するか否かを判定する。そして、ゲーム制御部232は、決定された結果に基づいて、第1オブジェクト5aおよび第2オブジェクト5bのステータス情報9を更新する。 For example, if the difference between the second user and the first user is greater, the determination unit 235 determines the result of the specific action to be advantageous to the second user. Specifically, when a specific action is performed by the second object 5b on the first object 5a, the determination unit 235 determines whether the determination area 7a associated with the first object 5a and the determination area 7b associated with the second object 5b will come into contact with each other. If it is determined that the determination areas 7a and 7b do not come into contact with each other, the determination unit 235 determines whether the determination areas 7a and 7b will come into contact with each other based on the determination area 7b and the determination area 7a after the adjustment process by the adjustment unit 234. The game control unit 232 then updates the status information 9 of the first object 5a and the second object 5b based on the determined result.

一方、決定部235は、第1ユーザの差が第2ユーザの差よりも大きい場合、第1ユーザに有利となるように特定動作の結果を決定する。具体的には、決定部235は、第1オブジェクト5aによる第2オブジェクト5bに対する特定動作が実行された場合、第1オブジェクト5aに対応付けられた判定領域7aと第2オブジェクト5bに対応付けられた判定領域7bとが接触するか否かを判定する。そして、判定領域7aおよび判定領域7bが接触しないと判定された場合、決定部235は、判定領域7aと調整部234による調整処理後の判定領域7bとに基づいて判定領域7aと判定領域7bとが接触するか否かを判定する。これにより、表示遅延が最も大きいユーザが他のユーザから攻撃を受ける際に判定領域7の調整処理が行われ、プレイ環境の関係上、最も不利なユーザに対して判定処理の是正が行われる。 On the other hand, if the difference between the first user and the second user is greater than the difference between the first user and the second user, the determination unit 235 determines the result of the specific action to favor the first user. Specifically, when a specific action is performed by the first object 5a on the second object 5b, the determination unit 235 determines whether the determination area 7a associated with the first object 5a and the determination area 7b associated with the second object 5b will come into contact with each other. If it is determined that the determination areas 7a and 7b do not come into contact with each other, the determination unit 235 determines whether the determination areas 7a and 7b will come into contact with each other based on the determination area 7a and the determination area 7b after adjustment processing by the adjustment unit 234. As a result, adjustment processing of the determination area 7 is performed when the user with the greatest display delay is attacked by another user, and the determination processing is corrected for the user who is at the greatest disadvantage due to the playing environment.

図15の例では、対戦相手から攻撃を受けた際、第2ユーザが第1ユーザから攻撃を受けた場合の方が演算位置61と表示位置62の差が大きいため、決定部235は、第2ユーザに有利となるように特定動作の結果を決定する。例えば、調整部234は、タイミングTAにおける特定動作のヒット判定に用いる第2オブジェクト5bの第2判定領域72を縮小する調整処理を実行する。そして、決定部235は、調整後の第2判定領域72に基づいて、かかる特定動作のヒット判定を実行する。これにより、遅延の大きい第2ユーザが攻撃を受ける際、攻撃を回避しやすくなる。 In the example of FIG. 15, when the second user is attacked by the first user as opposed to the opponent, the difference between the calculated position 61 and the displayed position 62 is greater, and therefore the determination unit 235 determines the result of the specific action to be advantageous to the second user. For example, the adjustment unit 234 performs an adjustment process to reduce the second determination area 72 of the second object 5b used for hit determination of the specific action at timing TA. The determination unit 235 then performs hit determination of the specific action based on the adjusted second determination area 72. This makes it easier for the second user, who has a large delay, to avoid the attack when attacked.

上述の実施形態では、各ユーザの視点からみた対戦相手のオブジェクト5の演算位置61と表示位置62の差が最も大きいユーザが攻撃動作を実行した際に、調整処理を実行する場合を例に示したが、これに限られない。例えば、どのユーザが他のユーザのオブジェクト5に対して攻撃動作を実行しても、調整処理後の判定領域7に基づいて判定領域7の接触判定を実行してもよい。この場合、それぞれの差に応じて調整が実行され、結果として差が大きい方が有利になり得る。 In the above embodiment, an example was shown in which the adjustment process is performed when the user with the largest difference between the calculated position 61 and the displayed position 62 of the opponent's object 5 from each user's viewpoint performs an attacking action, but this is not limited to this. For example, regardless of which user performs an attacking action against another user's object 5, collision detection for the determination area 7 may be performed based on the determination area 7 after the adjustment process. In this case, adjustments are performed according to each difference, and as a result, the player with the larger difference may have an advantage.

上述の実施形態では、調整部234は、攻撃を受けるオブジェクト5に対応付けられた第1判定領域71の調整処理を実行する場合の例を示したが、これに限られない。例えば、調整部234は、対戦相手のオブジェクト5に対応付けられた第2判定領域72の調整処理を実行してもよい。 In the above embodiment, an example was shown in which the adjustment unit 234 performs adjustment processing on the first determination area 71 associated with the object 5 being attacked, but this is not limited to this. For example, the adjustment unit 234 may perform adjustment processing on the second determination area 72 associated with the opponent's object 5.

調整部234は、判定領域7の演算位置61bと表示位置62bの距離64の大きさに応じて第2判定領域72の範囲を変化せてもよい。例えば、調整部234は、距離64が大きいほど、第2判定領域72の縮小の度合いを大きくしてもよい。つまり、調整部234は、第2オブジェクト5bの演算位置61aと表示位置62aとの差が大きいほど第2判定領域72を拡大させてもよい。 The adjustment unit 234 may change the range of the second determination area 72 depending on the distance 64 between the calculation position 61b and the display position 62b of the determination area 7. For example, the adjustment unit 234 may increase the degree of reduction of the second determination area 72 as the distance 64 increases. In other words, the adjustment unit 234 may increase the size of the second determination area 72 as the difference between the calculation position 61a and the display position 62a of the second object 5b increases.

調整部234は、特定動作の攻撃モーションが継続している間、継続的に調整処理を実行してもよい。例えば、攻撃モーションが20フレームにわたり実行されるものである場合、調整部234は、この20フレームの間のヒット判定に際して、調整処理を実行してもよい。 The adjustment unit 234 may continuously perform the adjustment process while the attack motion of the specific action continues. For example, if the attack motion is performed over 20 frames, the adjustment unit 234 may perform the adjustment process during hit determinations during those 20 frames.

調整部234は、第1オブジェクト5aの特定の部位の判定領域7のみを調整してもよい。例えば、調整部234は、第1オブジェクト5aの特定の部位の第1判定領域71の中で、最も第2オブジェクト5bの第2判定領域72に近い位置6にある第1判定領域71のみを調整する。 The adjustment unit 234 may adjust only the determination region 7 of a specific part of the first object 5a. For example, the adjustment unit 234 adjusts only the first determination region 71 of the specific part of the first object 5a that is located at the position 6 closest to the second determination region 72 of the second object 5b.

上述の実施形態では、特定動作の実行時点でディスプレイ4aに表示された第2オブジェクト5bの位置である表示位置62に基づいて特定動作の結果が決定される場合を例に示したが、これに限られない。例えば、決定部235は、演算処理の実行時点における演算位置61aと、演算処理の実行時点でディスプレイ4aに表示された表示位置62aと、差に基づいて特定動作の結果を決定してもよい。 In the above-described embodiment, an example was shown in which the result of the specific action is determined based on the display position 62, which is the position of the second object 5b displayed on the display 4a at the time the specific action is performed, but this is not limited to this. For example, the determination unit 235 may determine the result of the specific action based on the difference between the calculation position 61a at the time the calculation process is performed and the display position 62a displayed on the display 4a at the time the calculation process is performed.

上述の実施形態では、アクティビティA107において、決定部235により特定動作による効果が成立しなかったと判定された場合、アクティビティA108~アクティビティA112の処理を実行する場合を例に示したが、これに限られない。例えば、アクティビティA107における判定結果にかかわらず、アクティビティA108~アクティビティA112の処理を実行する態様でもよい。 In the above embodiment, an example was shown in which, when the decision unit 235 determined that the effect of a specific action in activity A107 was not achieved, the processing of activities A108 to A112 was executed, but this is not limited to this. For example, it is also possible to execute the processing of activities A108 to A112 regardless of the determination result in activity A107.

本実施形態では、受付部231、ゲーム制御部232、表示制御部233、調整部234、決定部235およびマッチング部236を、情報処理装置2の制御部23によって実現される機能部として説明しているが、この少なくとも一部を、ユーザ端末3の制御部33によって実現される機能部として実施してもよい。 In this embodiment, the reception unit 231, game control unit 232, display control unit 233, adjustment unit 234, determination unit 235, and matching unit 236 are described as functional units realized by the control unit 23 of the information processing device 2, but at least some of these may be implemented as functional units realized by the control unit 33 of the user terminal 3.

さらに、次に記載の各態様で提供されてもよい。 Furthermore, it may be provided in the following forms:

(1)情報処理装置であって、制御部を備え、前記制御部は、表示ステップと、制御ステップと、決定ステップとを実行するように構成され、前記表示ステップでは、仮想空間をユーザのディスプレイに表示させ、前記仮想空間のいずれかの位置に、第1オブジェクトおよび第2オブジェクトが配置され、前記第1オブジェクトは、ユーザ端末を介する前記ユーザの操作入力に基づいて動作するオブジェクトで、前記制御ステップでは、前記第2オブジェクトに特定動作を実行させ、前記特定動作は、前記第1オブジェクトに対する動作で、前記決定ステップでは、前記特定動作が実行された時点における、前記特定動作の演算処理に用いられる前記第2オブジェクトの位置である演算位置と、前記ユーザの前記ディスプレイに表示された前記第2オブジェクトの位置である表示位置と、の差に基づいて前記特定動作の結果を決定する、情報処理装置。 (1) An information processing device comprising a control unit configured to execute a display step, a control step, and a determination step, wherein in the display step, a virtual space is displayed on a user's display, and a first object and a second object are placed at a position in the virtual space, the first object being an object that moves based on an operation input by the user via a user terminal, the control step causes the second object to perform a specific action, the specific action being an action on the first object, and the determination step determines the result of the specific action based on the difference between a calculation position, which is the position of the second object used in calculation processing of the specific action at the time the specific action is executed, and a display position, which is the position of the second object displayed on the user's display.

(2)上記(1)に記載の情報処理装置において、前記制御部は、調整ステップをさらに実行するように構成され、前記調整ステップでは、前記差に基づいて前記第1オブジェクトに対応付けられた第1判定領域の範囲と前記第2オブジェクトに対応付けられた第2判定領域の範囲とのうち少なくとも1つを調整する調整処理を実行し、前記決定ステップでは、前記調整処理の後、前記特定動作によって前記第1判定領域と前記第2判定領域の位置関係に基づいて、前記特定動作の結果を決定する、情報処理装置。 (2) In the information processing device described in (1) above, the control unit is configured to further execute an adjustment step, in which the adjustment step executes an adjustment process that adjusts at least one of the range of the first determination area associated with the first object and the range of the second determination area associated with the second object based on the difference, and in the determination step, after the adjustment process, determines the result of the specific action based on the positional relationship between the first determination area and the second determination area in response to the specific action.

(3)上記(2)に記載の情報処理装置において、前記決定ステップでは、前記調整処理が実行される前の前記第1判定領域と前記第2判定領域の位置関係に基づいて、前記特定動作による効果が成立しなかった場合、前記調整処理の実行後、前記特定動作の結果を決定する、情報処理装置。 (3) In the information processing device described in (2) above, in the determination step, if the effect of the specific action is not achieved based on the positional relationship between the first judgment area and the second judgment area before the adjustment process is performed, the result of the specific action is determined after the adjustment process is performed.

(4)上記(3)に記載の情報処理装置において、前記調整ステップでは、前記調整処理が実行される前の前記第1判定領域および前記第2判定領域の位置関係に基づいて、前記特定動作による効果が成立しなかった場合、前記差が閾値以上であることを条件として、前記調整処理を実行し、前記決定ステップでは、前記調整処理の実行後、前記特定動作の結果を決定する、情報処理装置。 (4) In the information processing device described in (3) above, in the adjustment step, if the effect of the specific action is not established based on the positional relationship between the first judgment area and the second judgment area before the adjustment process is executed, the adjustment process is executed on the condition that the difference is equal to or greater than a threshold, and in the determination step, the result of the specific action is determined after the adjustment process is executed.

(5)上記(1)~(4)の何れか1つに記載の情報処理装置において、前記ユーザは、第1ユーザと第2ユーザとを含み、前記決定ステップでは、前記第1ユーザの前記差が前記第2ユーザの前記差よりも大きい場合、前記第1ユーザに有利となるように前記特定動作の結果を決定する、情報処理装置。 (5) In the information processing device described in any one of (1) to (4) above, the users include a first user and a second user, and in the determining step, if the difference for the first user is greater than the difference for the second user, the result of the specific action is determined to be advantageous to the first user.

(6)上記(1)~(5)の何れか1つに記載の情報処理装置において、前記制御部は、受付ステップと、マッチングステップとをさらに実行するように構成され、前記受付ステップでは、前記ユーザによって設定されたディスプレイにおいて単位時間あたりに更新される画面数を示すフレームレートをユーザ端末から受け付け、前記マッチングステップでは、前記フレームレートに基づいて、複数のユーザの中から第1ユーザと第2ユーザを選択し、前記制御ステップでは、マッチングされた前記第1ユーザに対応する前記第1オブジェクトと、前記第2ユーザに対応する前記第2オブジェクトとを前記仮想空間に配置して、前記仮想空間におけるゲームを進行させる、情報処理装置。 (6) In the information processing device described in any one of (1) to (5) above, the control unit is configured to further execute a receiving step and a matching step, wherein in the receiving step, a frame rate indicating the number of screens updated per unit time on the display set by the user is received from the user terminal, the matching step selects a first user and a second user from among multiple users based on the frame rate, and in the control step, the first object corresponding to the matched first user and the second object corresponding to the matched second user are placed in the virtual space, and the game in the virtual space progresses.

(7)上記(1)~(6)の何れか1つに記載の情報処理装置において、前記差は、前記ユーザによって設定された前記ディスプレイにおいて単位時間あたりに更新される画面数を示すフレームレートに基づいて算出される、情報処理装置。 (7) In the information processing device described in any one of (1) to (6) above, the difference is calculated based on a frame rate that indicates the number of screens updated per unit time on the display, as set by the user.

(8)上記(1)~(7)の何れか1つに記載の情報処理装置において、前記制御部は、受付ステップをさらに実行するように構成され、前記ユーザは、第1ユーザと第2ユーザとを含み、前記受付ステップでは、第1ユーザ端末を介した前記第1ユーザの第1操作入力を受け付け、第2ユーザ端末を介した前記第2ユーザの第2操作入力を受け付け、前記制御ステップでは、前記第2操作入力に基づいて前記第2オブジェクトに前記特定動作を実行させ、前記演算位置は、前記第2操作入力が前記第2ユーザ端末において受け付けられた時点を特定する情報に基づいて特定される、情報処理装置。 (8) In the information processing device described in any one of (1) to (7) above, the control unit is configured to further execute a receiving step, the users include a first user and a second user, the receiving step receives a first operation input from the first user via a first user terminal and a second operation input from the second user via a second user terminal, the control step causes the second object to perform the specific action based on the second operation input, and the calculation position is identified based on information identifying the time when the second operation input was accepted at the second user terminal.

(9)プログラムであって、コンピュータに、上記(1)~(8)の何れか1つに記載の各ステップを実行させる、プログラム。 (9) A program that causes a computer to execute each of the steps described in any one of (1) to (8) above.

(10)情報処理装置が実行する情報処理方法であって、上記(1)~(8)の何れか1つに記載の情報処理装置における各ステップを備える、情報処理方法。
もちろん、この限りではない。
(10) An information processing method executed by an information processing device, the information processing method comprising the steps of the information processing device according to any one of (1) to (8) above.
Of course, this is not the case.

最後に、本開示に係る種々の実施形態を説明したが、これらは、例として提示したものであり、開示の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、開示の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、開示の範囲や要旨に含まれるとともに、特許請求の範囲に記載された開示とその均等の範囲に含まれるものである。 Finally, while various embodiments of the present disclosure have been described, these are presented as examples and are not intended to limit the scope of the disclosure. The novel embodiments may be embodied in a variety of other forms, and various omissions, substitutions, and modifications may be made without departing from the spirit of the disclosure. Such embodiments and their variations are intended to fall within the scope and spirit of the disclosure, as well as the disclosure and its equivalents as set forth in the claims.

1 :情報処理システム
1 :情報処理システム
2 :情報処理装置
20 :通信バス
21 :通信部
22 :記憶部
23 :制御部
231 :受付部
232 :ゲーム制御部
233 :表示制御部
234 :調整部
235 :決定部
236 :マッチング部
3 :ユーザ端末
3a :第1ユーザ端末
3b :第2ユーザ端末
30 :通信バス
31 :通信部
32 :記憶部
33 :制御部
34a :グラフィック処理部
34b :オーディオ処理部
34c :操作部
4a :ディスプレイ
4b :スピーカ
4c :入力デバイス
5 :オブジェクト
5a :第1オブジェクト
5b :第2オブジェクト
7 :判定領域
7a :判定領域
7b :判定領域
8 :操作情報
9 :ステータス情報
11 :通信ネットワーク
52 :標的オブジェクト
54 :矢印
55 :障害物オブジェクト
61 :演算位置
61a :演算位置
61b :演算位置
61c :演算位置
61d :演算位置
62 :表示位置
62a :表示位置
62b :表示位置
62c :表示位置
62d :表示位置
63 :円
64 :距離
71 :第1判定領域
72 :第2判定領域
72c :第2判定領域
72d :第2判定領域
73 :中心座標
73a :中心座標
73b :中心座標
601 :画面
602 :画面
604 :画面
612 :画面
613 :画面
701 :画面
704 :画面
711 :画面
712 :画面
713 :画面
901 :矢印
1101 :メニュー表示エリア
1102 :操作ボタン
1103 :設定エリア
1104 :設定完了ボタン
1201 :マルチプレイ設定エリア
1202 :メンバー募集開始ボタン
1203 :パーティ参加ボタン
1301 :メンバー募集画面
1302 :表示
1303 :通信環境表示
1304 :試合開始ボタン
1305 :ボタン
1401 :警告
1402 :操作ボタン
1403 :操作ボタン
1500 :イメージ
1501 :画面
1504 :画面
1505 :画面
1506 :画面
1511 :画面
1512 :画面
1536 :画面
F3 :フレーム
T1 :タイミング
T2 :タイミング
TA :タイミング
TB :タイミング
TC :タイミング
Ta :タイミング
Tb :タイミング
Tc :タイミング
Td :タイミング
Te :タイミング
Tf :タイミング
Tg :タイミング
Th :タイミング
Ti :タイミング
1: Information processing system 1: Information processing system 2: Information processing device 20: Communication bus 21: Communication unit 22: Memory unit 23: Control unit 231: Reception unit 232: Game control unit 233: Display control unit 234: Adjustment unit 235: Determination unit 236: Matching unit 3: User terminal 3a: First user terminal 3b: Second user terminal 30: Communication bus 31: Communication unit 32: Memory unit 33: Control unit 34a: Graphic processing unit 34b: Audio processing unit 34c: Operation unit 4a: Display 4b: Speaker 4c: Input device 5: Object 5a: First object 5b: Second object 7: Determination area 7a: Determination area 7b: Determination area 8: Operation information 9: Status information 11: Communication network 52: Target object 54: Arrow 55: Obstacle object 61: Calculation position 61a : Calculation position 61b : Calculation position 61c : Calculation position 61d : Calculation position 62 : Display position 62a : Display position 62b : Display position 62c : Display position 62d : Display position 63 : Circle 64 : Distance 71 : First determination area 72 : Second determination area 72c : Second determination area 72d : Second determination area 73 : Center coordinates 73a : Center coordinates 73b : Center coordinates 601 : Screen 602 : Screen 604 : Screen 612 : Screen 613 : Screen 701 : Screen 704 : Screen 711 : Screen 712 : Screen 713 : Screen 901 : Arrow 1101 : Menu display area 1102 : Operation button 1103 : Setting area 1104 : Setting completion button 1201 : Multiplay setting area 1202 : Member recruitment start button 1203 : Party participation button 1301 : Member recruitment screen 1302 : Display 1303 : Communication environment display 1304 : Match start button 1305 : Button 1401 : Warning 1402 : Operation button 1403 : Operation button 1500 : Image 1501 : Screen 1504 : Screen 1505 : Screen 1506 : Screen 1511 : Screen 1512 : Screen 1536 : Screen F3 : Frame T1 : Timing T2 : Timing TA : Timing TB : Timing TC : Timing Ta : Timing Tb : Timing Tc : Timing Td : Timing Te : Timing Tf : Timing Tg : Timing Th : Timing Ti : Timing

Claims (10)

通信ネットワークを介してユーザ端末と通信可能な情報処理装置であって、
制御部を備え、
前記制御部は、表示ステップと、制御ステップと、決定ステップとを実行するように構成され、
前記表示ステップでは、仮想空間をユーザのディスプレイに表示させ、
前記仮想空間のいずれかの位置に、第1オブジェクトおよび第2オブジェクトが配置され、
前記第1オブジェクトは、前記ユーザ端末を介する前記ユーザの操作入力に基づいて動作するオブジェクトで、
前記制御ステップでは、前記第2オブジェクトに特定動作を実行させ、
前記特定動作は、前記第1オブジェクトに対する動作で、
前記決定ステップでは、前記特定動作が実行された時点における、前記特定動作の演算処理に用いられる前記第2オブジェクトの位置である演算位置と、前記ユーザの前記ディスプレイに表示された前記第2オブジェクトの位置である表示位置と、のフレームレートによる差に基づいて前記特定動作の結果を決定する、
情報処理装置。
An information processing device capable of communicating with a user terminal via a communication network ,
A control unit is provided,
the control unit is configured to execute a display step, a control step, and a determination step;
In the display step, the virtual space is displayed on a display of the user;
a first object and a second object are placed at any position in the virtual space;
the first object is an object that operates based on an operation input by the user via the user terminal,
In the control step, the second object is caused to perform a specific action;
The specific action is an action on the first object,
In the determination step, a result of the specific action is determined based on a difference due to a frame rate between a calculation position, which is a position of the second object used in calculation processing of the specific action, and a display position, which is a position of the second object displayed on the display of the user , at the time when the specific action is executed.
Information processing device.
請求項1に記載の情報処理装置において、
前記制御部は、調整ステップをさらに実行するように構成され、
前記調整ステップでは、前記差に基づいて前記第1オブジェクトに対応付けられた第1判定領域の範囲と前記第2オブジェクトに対応付けられた第2判定領域の範囲とのうち少なくとも1つを調整する調整処理を実行し、
前記決定ステップでは、前記調整処理の後、前記特定動作によって前記第1判定領域と前記第2判定領域の位置関係に基づいて、前記特定動作の結果を決定する、
情報処理装置。
2. The information processing device according to claim 1,
the control unit is configured to further perform an adjusting step;
the adjustment step performs an adjustment process to adjust at least one of a range of a first determination area associated with the first object and a range of a second determination area associated with the second object based on the difference;
In the determination step, after the adjustment process, a result of the specific action is determined based on a positional relationship between the first determination area and the second determination area by the specific action.
Information processing device.
請求項2に記載の情報処理装置において、
前記決定ステップでは、
前記調整処理が実行される前の前記第1判定領域と前記第2判定領域の位置関係に基づいて、前記調整処理の実行後、前記特定動作の結果を決定する、
情報処理装置。
3. The information processing device according to claim 2,
In the determining step,
determining a result of the specific action after the adjustment process is performed based on a positional relationship between the first determination area and the second determination area before the adjustment process is performed;
Information processing device.
請求項3に記載の情報処理装置において、
前記調整ステップでは、
前記調整処理が実行される前の前記第1判定領域および前記第2判定領域の位置関係に基づいて、前記差が閾値以上であることを条件として、前記調整処理を実行し、
前記決定ステップでは、前記調整処理の実行後、前記特定動作の結果を決定する、
情報処理装置。
4. The information processing device according to claim 3,
In the adjusting step,
performing the adjustment process on the condition that the difference is equal to or greater than a threshold value based on a positional relationship between the first determination area and the second determination area before the adjustment process is performed;
In the determination step, a result of the specific operation is determined after the adjustment process is performed.
Information processing device.
請求項1に記載の情報処理装置において、
前記ユーザは、第1ユーザと第2ユーザとを含み、
前記決定ステップでは、前記第1ユーザの前記差が前記第2ユーザの前記差よりも大きい場合、前記第1ユーザに有利となるように前記特定動作の結果を決定する、
情報処理装置。
2. The information processing device according to claim 1,
The users include a first user and a second user;
In the determining step, if the difference of the first user is larger than the difference of the second user, a result of the specific action is determined to be advantageous to the first user.
Information processing device.
請求項1に記載の情報処理装置において、
前記制御部は、受付ステップと、マッチングステップとをさらに実行するように構成され、
前記受付ステップでは、前記ユーザによって設定されたディスプレイにおいて単位時間あたりに更新される画面数を示すフレームレートをユーザ端末から受け付け、
前記マッチングステップでは、前記フレームレートに基づいて、複数のユーザの中から第1ユーザと第2ユーザを選択し、
前記制御ステップでは、マッチングされた前記第1ユーザに対応する前記第1オブジェクトと、前記第2ユーザに対応する前記第2オブジェクトとを前記仮想空間に配置して、前記仮想空間におけるゲームを進行させる、
情報処理装置。
2. The information processing device according to claim 1,
the control unit is configured to further execute a receiving step and a matching step;
In the receiving step, a frame rate indicating the number of screens updated per unit time on the display set by the user is received from the user terminal;
In the matching step, a first user and a second user are selected from a plurality of users based on the frame rate;
In the control step, the first object corresponding to the matched first user and the second object corresponding to the matched second user are placed in the virtual space, and a game in the virtual space is progressed.
Information processing device.
請求項1に記載の情報処理装置において、
前記差は、前記ユーザによって設定された前記ディスプレイにおいて単位時間あたりに更新される画面数を示すフレームレートに基づいて算出される、
情報処理装置。
2. The information processing device according to claim 1,
The difference is calculated based on a frame rate that indicates the number of screens updated per unit time on the display, which is set by the user.
Information processing device.
請求項1に記載の情報処理装置において、
前記制御部は、受付ステップをさらに実行するように構成され、
前記ユーザは、第1ユーザと第2ユーザとを含み、
前記受付ステップでは、第1ユーザ端末を介した前記第1ユーザの第1操作入力を受け付け、第2ユーザ端末を介した前記第2ユーザの第2操作入力を受け付け、
前記制御ステップでは、前記第2操作入力に基づいて前記第2オブジェクトに前記特定動作を実行させ、
前記演算位置は、前記第2操作入力が前記第2ユーザ端末において受け付けられた時点を特定する情報に基づいて特定される、
情報処理装置。
2. The information processing device according to claim 1,
the control unit is configured to further execute a receiving step;
The users include a first user and a second user;
In the receiving step, a first operation input of the first user is received via a first user terminal, and a second operation input of the second user is received via a second user terminal;
In the control step, the second object is caused to perform the specific action based on the second operation input;
the calculation position is identified based on information identifying a time point at which the second operation input was accepted by the second user terminal;
Information processing device.
プログラムであって、
コンピュータに、請求項1~請求項8の何れか1つに記載の各ステップを実行させる、
プログラム。
A program,
A method for making a computer execute each step according to any one of claims 1 to 8.
program.
情報処理装置が実行する情報処理方法であって、
請求項1~請求項8の何れか1つに記載の情報処理装置における各ステップを備える、
情報処理方法。
An information processing method executed by an information processing device,
The information processing device according to any one of claims 1 to 8,
Information processing methods.
JP2022099489A 2022-06-21 Information processing device, program, and information processing method Active JP7755163B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022099489A JP7755163B2 (en) 2022-06-21 Information processing device, program, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022099489A JP7755163B2 (en) 2022-06-21 Information processing device, program, and information processing method

Publications (2)

Publication Number Publication Date
JP2024000662A JP2024000662A (en) 2024-01-09
JP7755163B2 true JP7755163B2 (en) 2025-10-16

Family

ID=

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009011748A (en) 2007-07-09 2009-01-22 Nintendo Co Ltd GAME PROGRAM AND GAME DEVICE
JP2010273946A (en) 2009-05-29 2010-12-09 Nintendo Co Ltd GAME PROGRAM AND GAME DEVICE
JP2015139648A (en) 2014-01-30 2015-08-03 グリー株式会社 GAME MANAGEMENT PROGRAM, GAME MANAGEMENT METHOD, AND GAME MANAGEMENT SYSTEM
JP2018196578A (en) 2017-05-24 2018-12-13 任天堂株式会社 Information processing system, information processing apparatus, information processing program, and game processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009011748A (en) 2007-07-09 2009-01-22 Nintendo Co Ltd GAME PROGRAM AND GAME DEVICE
JP2010273946A (en) 2009-05-29 2010-12-09 Nintendo Co Ltd GAME PROGRAM AND GAME DEVICE
JP2015139648A (en) 2014-01-30 2015-08-03 グリー株式会社 GAME MANAGEMENT PROGRAM, GAME MANAGEMENT METHOD, AND GAME MANAGEMENT SYSTEM
JP2018196578A (en) 2017-05-24 2018-12-13 任天堂株式会社 Information processing system, information processing apparatus, information processing program, and game processing method

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
「NVIDIA システム遅延チャレンジ」に応募して豪華景品が当たるチャンス ゲームの勝敗を左右する"システムレイテンシー"を体感して、RTX 3080 Tiをゲットしよう!,[online],2021年12月14日,[取得日2025.06.11],取得先<https://ascii.jp/elem/000/004/077/4077969/>
オンラインゲームはレイテンシを感じさせないゲームプレイをどのように実現しているのか?,[online],2020年07月19日,[取得日2025.06.12],取得先<https://gigazine.net/news/20200719-network-game-latency/>
本生 崇人,プレイヤパフォーマンス低下を抑制するオンラインゲーム向け遅延補償に関する一研究,マルチメディア,分散,協調とモバイル(DICOMO2020)シンポジウム論文集 情報処理学会シンポジウムシリーズ Vol.2020 No.1 [DVD-ROM] IPSJ Symposium Series,一般社団法人情報処理学会,2020年06月24日,P1458-P1467

Similar Documents

Publication Publication Date Title
US11534683B2 (en) Multi-user game system with character-based generation of projection view
US7843455B2 (en) Interactive animation
JP6400442B2 (en) Game system and server
US7011582B1 (en) Game apparatus and computer-readable medium
JP4319211B2 (en) Video game processing apparatus and video game processing program
US10183219B2 (en) System and method for cross-platform multiplayer videogames
JP2011206442A (en) Game system, program, and information storage medium
JP2024032978A (en) programs, information processing systems
JP7633531B2 (en) Information processing program, information processing device, and information processing method
JP7105980B1 (en) Program, system, method, and information processing device for game including collaborative target determination function
JP7623621B2 (en) Game program and game system
JP7755163B2 (en) Information processing device, program, and information processing method
JP2009000521A (en) On-line game method and on-line game system
JP7751199B2 (en) Information processing device, program, and information processing method
JP2024000662A (en) Information processing device, program, and information processing method
JP6878651B1 (en) Programs, information processing equipment and information processing methods
JP7644869B1 (en) Information processing system, information processing method, and program
JP7640895B2 (en) Game program and game system
JP6940802B1 (en) Information processing equipment, information processing methods and programs
JP7328567B2 (en) Program and information processing system
JP6385256B2 (en) Program and terminal
JP7741398B2 (en) Information processing method, game medium, information processing system, and program
JP7546718B2 (en) program
JP7734608B2 (en) Method, recording medium and information processing device
JP2024039732A (en) Program, information processing method, and information processing device