[go: up one dir, main page]

JP4676469B2 - Sound processing program, sound processing apparatus, and sound control method - Google Patents

Sound processing program, sound processing apparatus, and sound control method Download PDF

Info

Publication number
JP4676469B2
JP4676469B2 JP2007239576A JP2007239576A JP4676469B2 JP 4676469 B2 JP4676469 B2 JP 4676469B2 JP 2007239576 A JP2007239576 A JP 2007239576A JP 2007239576 A JP2007239576 A JP 2007239576A JP 4676469 B2 JP4676469 B2 JP 4676469B2
Authority
JP
Japan
Prior art keywords
sound
data
symbol
control unit
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007239576A
Other languages
Japanese (ja)
Other versions
JP2009066287A (en
Inventor
旭 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2007239576A priority Critical patent/JP4676469B2/en
Publication of JP2009066287A publication Critical patent/JP2009066287A/en
Application granted granted Critical
Publication of JP4676469B2 publication Critical patent/JP4676469B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、音処理プログラム、特に、画像表示部に表示された、ゲームに登場するキャラクタの情報に関する複数の記号を、順次、発音可能なコンピュータにより実行される音処理プログラムに関する。また、この音処理プログラムを実行可能な音処理装置、および音処理プログラムに基づいてコンピュータにより制御される音制御方法に関する。 The present invention relates to a sound processing program, and more particularly to a sound processing program that is executed by a computer that can sequentially generate a plurality of symbols related to information about characters appearing in a game displayed on an image display unit. The present invention also relates to a sound processing apparatus capable of executing this sound processing program and a sound control method controlled by a computer based on the sound processing program.

従来から様々なビデオゲームが提案されている。これらビデオゲームは、ゲーム装置において実行されるようになっている。たとえば、一般的なゲーム装置は、モニタと、モニタとは別体のゲーム機本体と、ゲーム機本体とは別体の入力装置たとえばコントローラとを有している。コントローラには、複数の入力釦が配置されている。   Conventionally, various video games have been proposed. These video games are executed in a game device. For example, a general game device has a monitor, a game machine main body separate from the monitor, and an input device such as a controller separate from the game machine main body. The controller has a plurality of input buttons.

このようなゲーム装置において実現されるゲームの1つとして、たとえば、野球ゲームが知られている(非特許文献1を参照)。この野球ゲームでは、プレイヤが選手キャラクタを育成するモード(育成モード)が用意されている。   As one of the games realized in such a game device, for example, a baseball game is known (see Non-Patent Document 1). In this baseball game, a mode in which the player trains player characters (a training mode) is prepared.

この育成モードにおいては、あるプレイヤが、様々なタイプの選手キャラクタを育成することができるようになっている。また、ここで育成された選手キャラクタの各種の情報たとえば基本情報および能力情報は、インターネット上に設けられた掲示板等を介して、他のプレイヤに譲渡することができるようになっている。   In this training mode, a player can train various types of player characters. In addition, various information such as basic information and ability information of the player character trained here can be transferred to other players via a bulletin board provided on the Internet.

たとえば、あるプレイヤが選手キャラクタを育成したときに、各種の選手情報が、複数のランダムな文字列から構成される文字情報(パスワード)に変換される。そして、この文字情報が、たとえばインターネット上に設けられた掲示板に書き込まれる。そして、この掲示板を介して、文字情報が他のプレイヤに取得される。そして、他のプレイヤが自分のゲーム装置において文字情報を入力し復元すると、あるプレイヤが育成した選手キャラクタの各種の情報を他のプレイヤが利用することができる。言い換えると、あるプレイヤが育成した能力を有する選手キャラクタを、他のプレイヤは自分のゲームにおいて利用することができる。   For example, when a player trains a player character, various player information is converted into character information (password) composed of a plurality of random character strings. The character information is written on a bulletin board provided on the Internet, for example. Then, the character information is acquired by other players via the bulletin board. Then, when another player inputs character information in his game device and restores it, other players can use various information of the player character trained by a certain player. In other words, the player character having the ability cultivated by a certain player can be used by other players in his game.

このように、従来の野球ゲームでは、あるプレイヤが育成した選手キャラクタの情報を文字情報に変換し、この文字情報を他のプレイヤに譲渡することにより、他のプレイヤは、あるプレイヤが育成した選手キャラクタを、自分の野球ゲームにおいて利用することができるようになっている。
実況パワフルプロ野球14、コナミデジタルエンタテインメント、PS2版、2007年7月19日
Thus, in the conventional baseball game, the information of the player character trained by a certain player is converted into character information, and this character information is transferred to another player, so that the other player is a player trained by a certain player. Characters can be used in their baseball games.
Jikkyou Powerful Pro Baseball 14, Konami Digital Entertainment, PS2 Edition, July 19, 2007

従来の野球ゲームでは、あるプレイヤが育成した選手キャラクタを、他のプレイヤが自分のゲーム装置において利用することができるようになっている。   In a conventional baseball game, a player character trained by a certain player can be used by another player in his game device.

ここで、あるプレイヤが他のプレイヤに育成済みの選手キャラクタを譲渡するときには、たとえば、あるプレイヤは、各種の選手情報に対応する文字情報を自分のゲーム装置のモニタを見ながら紙へとメモし、紙にメモした文字情報を掲示板等に書き込む必要がある。一方で、他のプレイヤは、掲示板等に書き込まれた文字情報を紙にメモし、紙にメモした文字情報を自分のゲーム装置のモニタを見ながら所定欄に入力する必要がある。   Here, when a certain player transfers a trained player character to another player, for example, a certain player writes down text information corresponding to various types of player information on paper while looking at the monitor of his game device. It is necessary to write character information written on paper on a bulletin board or the like. On the other hand, other players need to take note of the character information written on the bulletin board or the like on the paper, and input the character information written on the paper into a predetermined field while looking at the monitor of their game device.

このような入力情報すなわち選手キャラクタの情報に対応する文字情報は、一般的に、文字数が非常に多く、ランダムな文字列から構成されている。このため、プレイヤが文字情報をメモするときに、文字情報を誤ってメモしてしまうおそれがあった。また、プレイヤが文字情報を誤ってメモしてしまった場合に、プレイヤが誤ってメモした文字情報において、どの部分が誤った部分であるかをプレイヤが見つけ出すことが、非常に困難であった。   Such input information, that is, character information corresponding to player character information, generally has a very large number of characters and is composed of random character strings. For this reason, when the player notes the character information, the character information may be mistakenly written. In addition, when the player has mistakenly written the character information, it is very difficult for the player to find out which portion is the wrong portion in the character information mistakenly written by the player.

このような問題を解決するために、本発明では、情報を入力する人が、画像表示部に表示された情報を、容易かつ間違いなく取得することができるようにすることにある。また、本発明では、情報を入力する人が、画像表示部に表示された情報の誤った部分や取得された情報の誤った部分を、容易に見つけ出すことができるようにすることにある。   In order to solve such a problem, it is an object of the present invention to enable a person who inputs information to easily and definitely acquire information displayed on an image display unit. Further, according to the present invention, a person who inputs information can easily find an incorrect part of information displayed on the image display unit and an incorrect part of acquired information.

請求項1に係る音処理プログラムは、画像表示部に表示された、ゲームに登場するキャラクタの情報に関する複数の記号を、順次、発音可能なコンピュータに、以下の機能を実現させるためのプログラムである。
(1)画像表示部に表示される複数の記号それぞれに対応する記号データを、制御部に認識させる記号データ認識機能。
(2)記号データに対応する音データを、制御部に認識させる音データ認識機能。
(3)所定数の記号を発音したことを報知するための第1報知音に対応する第1報知音データを、制御部に認識させる第1報知音データ認識機能。
(4)記号を画像表示部に表示する位置を規定するための位置データを、制御部に認識させる位置データ認識機能。
(5)記号データおよび位置データに基づいて、複数の記号それぞれを位置において画像表示部に表示する記号表示機能。
(6)記号の発音を開始する発音開始位置を規定するための発音開始用の位置データを、制御部に認識させる発音開始位置認識機能。
(7)発音開始位置に表示された記号を起点として、複数の記号の音を、記号データに対応する音データに基づいて音出力部から出力する発音機能。
(8)所定数の記号が発音されたか否かを制御部に判断させる発音数判断機能。
(9)所定数の記号が発音されたと制御部により判断された場合に、第1報知音を第1報知音データに基づいて音出力部から出力する第1報知音出力機能。
A sound processing program according to claim 1 is a program for causing a computer that can sequentially generate a plurality of symbols related to information on characters appearing in a game displayed on an image display unit to realize the following functions. .
(1) A symbol data recognition function for causing the control unit to recognize symbol data corresponding to each of a plurality of symbols displayed on the image display unit.
(2) A sound data recognition function for causing the control unit to recognize sound data corresponding to the symbol data.
(3) A first notification sound data recognition function for causing the control unit to recognize first notification sound data corresponding to a first notification sound for notifying that a predetermined number of symbols have been generated.
(4) A position data recognition function for causing the control unit to recognize position data for defining the position at which the symbol is displayed on the image display unit.
(5) A symbol display function for displaying each of a plurality of symbols on the image display unit at a position based on the symbol data and the position data.
(6) A sounding start position recognition function for causing the control unit to recognize sounding start position data for defining a sounding start position for starting sound generation of a symbol.
(7) A sound generation function that outputs a sound of a plurality of symbols from the sound output unit based on sound data corresponding to the symbol data, starting from the symbol displayed at the sound generation start position.
(8) A pronunciation number determination function for causing the control unit to determine whether or not a predetermined number of symbols have been generated.
(9) A first notification sound output function for outputting the first notification sound from the sound output unit based on the first notification sound data when the control unit determines that a predetermined number of symbols have been generated.

この音処理プログラムでは、記号データ認識機能において、画像表示部に表示される複数の記号それぞれに対応する記号データが、制御部に認識される。音データ認識機能においては、記号データに対応する音データが、制御部に認識される。第1報知音データ認識機能においては、所定数の記号を発音したことを報知するための第1報知音に対応する第1報知音データが、制御部に認識される。位置データ認識機能においては、記号を画像表示部に表示する位置を規定するための位置データが、制御部に認識される。記号表示機能においては、記号データに対応する記号が、位置データにより規定される位置において画像表示部に表示される。発音開始位置認識機能においては、記号の発音を開始する発音開始位置を規定するための発音開始用の位置データが、制御部に認識される。発音機能においては、発音開始位置に表示された記号を起点として、複数の記号の音が、記号データに対応する音データに基づいて音出力部から出力される。発音数判断機能においては、所定数の記号が発音されたか否かが、制御部により判断される。第1報知音出力機能においては、所定数の記号が発音されたと制御部により判断された場合に、第1報知音が、第1報知音データに基づいて音出力部から出力される。 In this sound processing program, in the symbol data recognition function, symbol data corresponding to each of a plurality of symbols displayed on the image display unit is recognized by the control unit. In the sound data recognition function, sound data corresponding to the symbol data is recognized by the control unit. In the first notification sound data recognition function, first notification sound data corresponding to the first notification sound for notifying that a predetermined number of symbols have been generated is recognized by the control unit. In the position data recognition function, position data for defining the position where the symbol is displayed on the image display unit is recognized by the control unit. In the symbol display function, a symbol corresponding to the symbol data is displayed on the image display unit at a position defined by the position data. In the pronunciation start position recognition function, the control unit recognizes position data for starting the pronunciation for defining the pronunciation start position at which the pronunciation of the symbol is started. In the sound generation function, the sound of a plurality of symbols is output from the sound output unit based on the sound data corresponding to the symbol data, starting from the symbol displayed at the sound generation start position. In the sound number determination function, the control unit determines whether or not a predetermined number of symbols have been generated. In the first notification sound output function, when the control unit determines that a predetermined number of symbols has been generated, the first notification sound is output from the sound output unit based on the first notification sound data.

たとえば、本音処理プログラムが、選手キャラクタの情報に対応する文字列(選手パスワード)に適用される場合を考える。この場合、まず、画像表示部に表示される複数の文字それぞれに対応する文字データが、制御部に認識される。そして、これら複数の文字データそれぞれに対応する音データが、制御部に認識される。そして、複数の文字それぞれを画像表示部に表示する位置を規定するための位置データが、制御部に認識される。そして、文字データに対応する文字が、位置データにより規定される位置において画像表示部に表示される。そして、文字の発音を開始する発音開始位置を規定するための発音開始用の位置データが、制御部に認識される。すると、発音開始位置に表示された文字を起点として、複数の文字の音が、文字データに対応する音データに基づいて音出力部から出力される。   For example, consider a case where the real sound processing program is applied to a character string (player password) corresponding to player character information. In this case, first, character data corresponding to each of a plurality of characters displayed on the image display unit is recognized by the control unit. Then, the sound data corresponding to each of the plurality of character data is recognized by the control unit. Then, position data for defining a position where each of the plurality of characters is displayed on the image display unit is recognized by the control unit. Then, a character corresponding to the character data is displayed on the image display unit at a position defined by the position data. Then, the control unit recognizes sound generation start position data for defining a sound generation start position at which to start character generation. Then, starting from the character displayed at the pronunciation start position, the sounds of a plurality of characters are output from the sound output unit based on the sound data corresponding to the character data.

この場合、発音開始位置を規定するための発音開始用の位置データが制御部に認識されると、発音開始位置に表示された文字を起点として、複数の文字の音が、文字データに対応する音データに基づいて音出力部から出力される。   In this case, when the control unit recognizes the sound generation start position data for defining the sound generation start position, the sound of a plurality of characters corresponding to the character data starts from the character displayed at the sound generation start position. The sound is output from the sound output unit based on the sound data.

このため、プレイヤは、画像表示部を見なくても、画像表示部に表示された複数の文字を、音で確認することができる。これにより、プレイヤは、たとえば画面上の選手パスワードを手元の紙に書き写したい場合に、従来のように画面上の各文字を目で見て記憶し、さらに手元の紙に書き留めるといった、文字記録時に間違いやすい煩雑な過程をとらなくても、単に発音されるパスワードの音を聞くだけでパスワードを手元の紙に書き留めることができる。この例は画面上の選手パスワードを記録する場合であるが、本発明は、自分が入力した選手パスワードを手元の紙などの選手パスワードと比較して入力ミスがないかを確認する際にも有用である。すなわち、プレイヤは、一旦入力したパスワードを発音させながら、手元の紙の文字を発音される音に従って目で追いかけながら視認するだけで、入力した文字にミスが有るか無いかを容易に確認することができる。   Therefore, the player can confirm the plurality of characters displayed on the image display unit with sound without looking at the image display unit. Thus, for example, when the player wants to copy the player password on the screen on the paper at hand, each character on the screen is visually recorded and recorded on the paper at the time of recording, for example. You can write down your password on the paper at your fingertips by simply listening to the sound of the password that is pronounced without taking the complicated process of making mistakes. In this example, the player password is recorded on the screen, but the present invention is also useful for checking whether there is an input error by comparing the player password entered by the player password such as paper at hand. It is. In other words, the player can easily confirm whether there is a mistake in the input character by simply visually recognizing the character on the paper at hand while following the sound that is pronounced while generating the password once input. Can do.

また、プレイヤは、自分が所望する発音開始位置を制御部に認識させることにより、任意の位置から上記の文字を音で確認することができる。これにより、プレイヤは、音を聞きながら、画像表示部に表示された上記の文字を部分的に書き取ったり、上記の文字の誤った部分を部分的に照合したりすることができる。   In addition, the player can confirm the above-mentioned character with a sound from an arbitrary position by causing the control unit to recognize the sound generation start position desired by the player. Accordingly, the player can partially write down the above-mentioned characters displayed on the image display unit or can partially collate an erroneous portion of the above-mentioned characters while listening to the sound.

以上の内容を一般的に記述すると、情報を入力する人が、画像表示部に表示された情報を、容易かつ間違いなく取得することができる。また、情報を入力する人が、画像表示部に表示された情報の誤った部分や書き取られた情報の誤った部分を、容易に見つけ出すことができる。   When the above contents are generally described, a person who inputs information can easily and definitely acquire the information displayed on the image display unit. In addition, a person who inputs information can easily find an erroneous part of information displayed on the image display unit or an erroneous part of written information.

また、ここでは、たとえば、本音処理プログラムが野球ゲームに適用された場合、所定数の文字を発音したことを報知するための第1報知音に対応する第1報知音データが、制御部に認識される。そして、所定数の文字が発音されたか否かが制御部により判断される。そして、所定数の文字が発音されたと制御部により判断された場合に、第1報知音が第1報知音データに基づいて音出力部から出力される。Here, for example, when the real sound processing program is applied to a baseball game, the first notification sound data corresponding to the first notification sound for notifying that a predetermined number of characters are pronounced is recognized by the control unit. Is done. Then, the control unit determines whether or not a predetermined number of characters are pronounced. Then, when the control unit determines that a predetermined number of characters have been pronounced, the first notification sound is output from the sound output unit based on the first notification sound data.

この場合、所定数の文字が発音されたと制御部により判断された場合に、所定数の文字を発音したことを報知するための第1報知音が、第1報知音データに基づいて音出力部から出力される。このため、プレイヤは、たとえば画面上の選手パスワードを紙に書き留める場合に、選手パスワードの音と第1報知音との2種類の音のリズムに従って選手パスワードを記録することができるので、間違いをより少なくすることができる。単に選手パスワードを構成する各文字が順次読み上げられていくだけの場合、その単調さのために、聞き漏れ等による記録の欠落が生じるおそれがある。しかしながら、上記のように第1報知音を設けることで、上記の単調さを解消することができる。また、第1報知音を用いることによって、その音の直前の所定数のひとまとまりの音を素早く視認することも可能なため、間違いをより少なくすることができる。なお、上記の所定数を人が概ね一度に記憶できる範囲内の文字数にすれば、プレイヤはひとまとまりの音を記憶しやすくなるので、さらに間違いを少なくすることができる。  In this case, when the control unit determines that a predetermined number of characters have been pronounced, the first notification sound for notifying that the predetermined number of characters have been generated is generated based on the first notification sound data. Is output from. For this reason, for example, when the player password on the screen is written down on paper, the player password can be recorded according to the rhythm of two types of sounds, the player password sound and the first notification sound, so that the mistake is more Can be reduced. If the characters constituting the player password are simply read out sequentially, the monotonousness may cause a lack of records due to omissions. However, by providing the first notification sound as described above, the above monotony can be eliminated. In addition, by using the first notification sound, it is possible to quickly recognize a predetermined number of sounds immediately before the sound, so that errors can be reduced. Note that if the predetermined number is set to a number of characters within a range that a person can memorize at a time, the player can easily memorize a group of sounds, so that mistakes can be further reduced.

以上の内容を一般的に記述すると、情報を入力する人は、所定数の文字ごとに、画像表示部に表示された文字を断続的に書き取ったり、上記の文字の誤った部分を照合したりすることができる。  When the above contents are generally described, a person who inputs information intermittently writes out the characters displayed on the image display unit for every predetermined number of characters, or collates an incorrect part of the above characters. can do.

請求項2に係る音処理プログラムは、請求項1に記載の音処理プログラムにおいて、コンピュータに以下の機能をさらに実現させるためのプログラムである。
10)記号を発音するときの経路を規定するための発音経路設定命令を制御部に認識させることにより、発音経路に位置する位置データを制御部に認識させる発音経路認識機能。
A sound processing program according to claim 2 is a program for causing a computer to further realize the following functions in the sound processing program according to claim 1.
( 10 ) A sound generation path recognition function for causing the control section to recognize position data located in the sound generation path by causing the control section to recognize a sound generation path setting command for defining a path for generating a symbol.

この音処理プログラムでは、発音経路認識機能において、記号を発音するときの経路を規定するための発音経路設定命令を制御部に認識させることにより、発音経路に位置する記号の位置データが制御部に認識される。ここでは、発音機能において、発音開始位置に表示された記号を起点として、発音経路に位置する複数の記号の音が、記号データに対応する音データに基づいて音出力部から出力される。   In this sound processing program, in the sound generation path recognition function, the control section recognizes a sound generation path setting command for defining a path for generating a symbol, so that the position data of the symbol located in the sound generation path is stored in the control section. Be recognized. Here, in the sound generation function, the sound of a plurality of symbols positioned in the sound generation path is output from the sound output unit based on the sound data corresponding to the symbol data, starting from the symbol displayed at the sound generation start position.

たとえば、本音処理プログラムが野球ゲームに適用された場合、選手キャラクタの情報に対応する文字列(複数の文字)を発音するときの経路を規定するための発音経路設定命令を制御部に認識させることにより、発音経路に位置する文字の位置データが制御部に認識される。これにより、発音開始位置に表示された文字を起点として、発音経路に位置する複数の文字の音が、文字データに対応する音データに基づいて音出力部から出力される。   For example, when the real sound processing program is applied to a baseball game, the control unit recognizes a pronunciation path setting command for defining a path when a character string (a plurality of characters) corresponding to player character information is pronounced. As a result, the position data of the character located in the pronunciation path is recognized by the control unit. As a result, starting from the character displayed at the pronunciation start position, the sounds of a plurality of characters positioned in the pronunciation path are output from the sound output unit based on the sound data corresponding to the character data.

この場合、発音経路に位置する位置データを制御部に認識させることにより、発音経路に位置する複数の文字の音が、発音開始位置に表示された文字を起点として、記号データに対応する音データに基づいて音出力部から出力される。   In this case, by causing the control unit to recognize the position data located in the sound generation path, the sound of a plurality of characters located in the sound generation path starts from the character displayed at the sound generation start position, and the sound data corresponding to the symbol data Is output from the sound output unit.

このため、プレイヤは、上記の文字の誤った部分の照合を様々な経路で行うことができる。たとえば、選手パスワードがマトリクス状に画面上に並んでいるような場合、発音経路として、英文の文字を読むように、1行目の文字を左から右へと発音し、その後、2行目、3行目・・・と発音させてもよい。また、日本語の本を読むように、1列目の文字を上から下へと発音し、次に、2列目、3列目・・・と発音させてもよい。これにより、プレイヤは、上記の文字の誤った部分を、自分が確認しやすい経路で容易に照合することができる。また、プレイヤは、発音経路を変えて確認作業を行うことで(たとえば発音経路を変えてダブルチェック等を行うことで)、間違いをより確実に見つけ出すことができる。   For this reason, the player can collate the erroneous part of the above-mentioned characters through various routes. For example, when player passwords are arranged in a matrix on the screen, the first line of characters is pronounced from left to right to read English characters as the pronunciation path, then the second line, The third line ... may be pronounced. In addition, like reading a Japanese book, the characters in the first row may be pronounced from top to bottom, and then pronounced in the second, third,... Thereby, the player can easily collate the erroneous portion of the above-described character through a route that can be easily confirmed by the player. Further, the player can more reliably find an error by changing the sound generation path and performing the confirmation work (for example, by changing the sound generation path and performing a double check or the like).

以上の内容を一般的に記述すると、情報を入力する人は、情報を任意の経路で発音させることができるため、情報の誤った部分の照合を行う際の労力を低減することができるだけでなく、必要に応じて確認作業をより確実に行うことができる。   Generally describing the above contents, the person who enters the information can pronounce the information in an arbitrary route, so that not only can the effort to collate the wrong part of the information be reduced, The confirmation work can be more reliably performed as necessary.

請求項3に係る音処理プログラムは、請求項1又は2に記載の音処理プログラムにおいて、コンピュータに以下の機能をさらに実現させるためのプログラムである。
11)記号データに対応する音データを音出力部から順次出力するときの発音速度を設定する処理を制御部に実行させる出力速度制御機能。
A sound processing program according to claim 3 is a program for causing a computer to further realize the following functions in the sound processing program according to claim 1 or 2.
( 11 ) An output speed control function for causing the control section to execute a process for setting a sound generation speed when sound data corresponding to the symbol data is sequentially output from the sound output section.

この音処理プログラムでは、出力速度制御機能において、記号データに対応する音データを音出力部から順次出力するときの発音速度を設定する処理が、制御部により実行される。ここでは、発音機能において、発音開始位置に表示された記号を起点として、複数の記号の音が、記号データに対応する音データに基づいて、上記機能において設定された発音速度で音出力部から出力される。   In this sound processing program, in the output speed control function, processing for setting a sound generation speed when sound data corresponding to symbol data is sequentially output from the sound output section is executed by the control section. Here, in the sound generation function, starting from the symbol displayed at the sound generation start position, the sounds of a plurality of symbols are output from the sound output unit at the sound generation speed set in the above function based on the sound data corresponding to the symbol data. Is output.

たとえば、本音処理プログラムが野球ゲームに適用された場合、文字データに対応する音データを音出力部から順次出力するときの発音速度を設定する処理が、制御部により実行される。これにより、発音開始位置に表示された文字を起点として、複数の文字の音が、文字データに対応する音データに基づいて、上記機能において設定された発音速度で音出力部から出力される。   For example, when the real sound processing program is applied to a baseball game, the control unit executes processing for setting a sounding speed when sound data corresponding to character data is sequentially output from the sound output unit. As a result, the sound of a plurality of characters is output from the sound output unit at the sounding speed set in the above function based on the sound data corresponding to the character data, starting from the character displayed at the sounding start position.

この場合、発音開始位置に表示された文字を起点として、複数の文字の音が、文字データに対応する音データに基づいて、上記機能において設定された発音速度で音出力部から出力される。   In this case, starting from the character displayed at the pronunciation start position, the sounds of a plurality of characters are output from the sound output unit at the pronunciation rate set in the above function based on the sound data corresponding to the character data.

このため、プレイヤは、自分が聞き取りやすい発音速度で上記の文字を発音させることができる。これにより、プレイヤは、画像表示部に表示された上記の文字を容易に書き取ったり、上記の文字の誤った部分の照合を行う際の労力を低減したりすることができる。以上の内容を一般的に記述すると、情報を入力する人は、情報を任意の発音速度で発音させることができるため、画像表示部に表示された情報を容易に取得することができる。また、情報の誤った部分の照合を行う際の労力を低減することができる。   For this reason, the player can pronounce the above-mentioned characters at a pronunciation speed that is easy to hear. Thereby, the player can easily write down the above-mentioned characters displayed on the image display unit, or can reduce the labor when collating the erroneous part of the above-mentioned characters. When the above contents are generally described, a person who inputs information can pronounce the information at an arbitrary pronunciation speed, so that the information displayed on the image display unit can be easily obtained. In addition, it is possible to reduce labor when collating wrong parts of information.

請求項4に係る音処理プログラムは、請求項1から3のいずれかに記載の音処理プログラムにおいて、コンピュータに以下の機能をさらに実現させるためのプログラムである。
12)上記の音データの音質とは異なる音質の他の音データを、制御部に認識させる異音データ認識機能。
A sound processing program according to claim 4 is a program for causing a computer to further realize the following functions in the sound processing program according to any one of claims 1 to 3.
( 12 ) An abnormal sound data recognition function for causing the control unit to recognize other sound data having a sound quality different from the sound quality of the sound data.

この音処理プログラムでは、異音データ認識機能において、上記の音データの音質とは異なる音質の他の音データが、制御部に認識される。ここでは、発音機能において、発音開始位置に表示された記号を起点として、複数の記号の音が、上記の音データおよび上記の音データの音質とは異なる音質の音データのいずれか一方の音データに基づいて、音出力部から出力される。   In this sound processing program, in the abnormal sound data recognition function, other sound data different from the sound quality of the sound data is recognized by the control unit. Here, in the sound generation function, with the symbol displayed at the sound generation start position as the starting point, the sound of the plurality of symbols is either one of the above sound data and sound data having a sound quality different from the sound quality of the sound data. Based on the data, the sound is output from the sound output unit.

たとえば、本音処理プログラムが野球ゲームに適用された場合、上記の音データの音質とは異なる音質の他の音データが、制御部に認識される。ここでは、発音機能において、発音開始位置に表示された文字を起点として、複数の文字の音が、上記の音データおよび上記の音データの音質とは異なる音質の他の音データのいずれか一方の音データに基づいて、音出力部から出力される。   For example, when the real sound processing program is applied to a baseball game, other sound data different from the sound quality of the sound data is recognized by the control unit. Here, in the sound generation function, starting from the character displayed at the sound generation start position, the sound of a plurality of characters is either one of the above sound data and other sound data having a sound quality different from the sound quality of the sound data. Is output from the sound output unit based on the sound data.

この場合、発音開始位置に表示された文字を起点として、複数の文字の音が、上記の音データおよび上記の音データの音質とは異なる音質の他の音データのいずれか一方の音データに基づいて、音出力部から出力される。   In this case, starting from the character displayed at the pronunciation start position, the sound of a plurality of characters is converted into one of the above sound data and the other sound data of a sound quality different from the sound quality of the sound data. Based on this, the sound is output from the sound output unit.

このため、プレイヤは、自分が聞き取りやすい音質で上記の文字を発音させることができる。これにより、プレイヤは、画像表示部に表示された上記の文字を快適に書き取ったり、上記の文字の誤った部分の照合を快適に行ったりすることができる。以上の内容を一般的に記述すると、情報を入力する人は、情報を任意の音質で発音させることができるため、画像表示部に表示された情報を快適に取得することができ、情報の誤った部分の照合を快適に行うことができる。   For this reason, the player can pronounce the above characters with a sound quality that is easy to hear. Thereby, the player can comfortably write down the character displayed on the image display unit, or can easily collate an incorrect part of the character. If the above contents are generally described, the person who inputs the information can pronounce the information with arbitrary sound quality, so that the information displayed on the image display unit can be obtained comfortably, and the information is incorrect. This makes it possible to check the parts comfortably.

請求項に係る音処理プログラムは、請求項1からのいずれかに記載の音処理プログラムにおいて、コンピュータに以下の機能をさらに実現させるためのプログラムである。
(13)記号の発音を終了する発音終了位置を規定するための発音終了用の位置データを、制御部に認識させる発音終了位置認識機能。
(14)発音終了位置に位置する記号が発音されたことを報知するための第2報知音に対応する第2報知音データを、制御部に認識させる第2報知音データ認識機能。
(15)発音終了用の位置データにより規定される発音終了位置の記号が発音されたか否かを、制御部に判断させる発音終了判断機能。
(16)発音終了位置の記号が発音されたと制御部により判断された場合に、第2報知音を第2報知音データに基づいて音出力部から出力する第2報知音出力機能。
A sound processing program according to claim 5 is a program for causing a computer to further realize the following functions in the sound processing program according to any one of claims 1 to 4 .
(13) A pronunciation end position recognition function for causing the control unit to recognize position data for end of pronunciation for defining the end position of pronunciation at which the pronunciation of a symbol is terminated.
(14) A second notification sound data recognition function for causing the control unit to recognize second notification sound data corresponding to the second notification sound for notifying that the symbol located at the pronunciation end position has been generated.
(15) A sounding end determination function that causes the control unit to determine whether or not a sounding end position symbol defined by the sounding end position data has been generated.
(16) A second notification sound output function for outputting the second notification sound from the sound output unit based on the second notification sound data when the control unit determines that the symbol of the sound generation end position has been generated.

この音処理プログラムでは、発音終了位置認識機能において、記号の発音を終了する発音終了位置を規定するための発音終了用の位置データが、制御部に認識される。第2報知音データ認識機能においては、発音終了位置に位置する記号が発音されたことを報知するための第2報知音に対応する第2報知音データが、制御部に認識される。発音終了判断機能においては、発音終了用の位置データにより規定される発音終了位置の記号が発音されたか否かが、制御部により判断される。第2報知音出力機能においては、発音終了位置の記号が発音されたと制御部により判断された場合に、第2報知音が第2報知音データに基づいて音出力部から出力される。   In this sound processing program, in the pronunciation end position recognition function, the control unit recognizes the position data for end of pronunciation for defining the end position of pronunciation at which the pronunciation of the symbol is terminated. In the second notification sound data recognition function, the control unit recognizes second notification sound data corresponding to the second notification sound for notifying that the symbol located at the sound generation end position has been generated. In the sound generation end determination function, the control unit determines whether or not the sound end position symbol defined by the sound end position data has been generated. In the second notification sound output function, the second notification sound is output from the sound output unit based on the second notification sound data when the control unit determines that the symbol at the pronunciation end position has been generated.

たとえば、本音処理プログラムが野球ゲームに適用された場合、文字の発音を終了する発音終了位置を規定するための発音終了用の位置データが、制御部に認識される。そして、発音終了位置に位置する文字が発音されたことを報知するための第2報知音に対応する第2報知音データが、制御部に認識される。そして、発音終了用の位置データにより規定される発音終了位置の文字が発音されたか否かが、制御部により判断される。そして、発音終了位置の文字が発音されたと制御部により判断された場合に、第2報知音が第2報知音データに基づいて音出力部から出力される。   For example, when the real sound processing program is applied to a baseball game, the control unit recognizes pronunciation end position data for defining the pronunciation end position at which the character pronunciation ends. And the 2nd alerting | reporting sound data corresponding to the 2nd alerting | reporting sound for alert | reporting that the character located in the pronunciation end position was pronounced is recognized by the control part. Then, the control unit determines whether or not the character at the pronunciation end position defined by the position data for end of pronunciation has been pronounced. Then, when the control unit determines that the character at the pronunciation end position is pronounced, the second notification sound is output from the sound output unit based on the second notification sound data.

この場合、発音終了位置の文字が発音されたと制御部により判断された場合に、発音終了位置に位置する文字が発音されたことを報知するための第2報知音が、第2報知音データに基づいて音出力部から出力される。   In this case, when the control unit determines that the character at the pronunciation end position has been generated, the second notification sound for notifying that the character positioned at the pronunciation end position has been generated is included in the second notification sound data. Based on the sound output unit.

このため、プレイヤは、この第2報知音により、文字の発音が終了したことを知ることができる。これにより、プレイヤは、スムーズに次の作業に移ることができる。すなわち、プレイヤは、次の作業、たとえば画像表示部に表示された上記の文字を音で再確認する作業や、上記の文字の誤った部分を音を聞きながら容易に再照合する作業に、スムーズに移行することができる。以上の内容を一般的に記述すると、第2報知音を発生させることにより、情報を入力する人は、画像表示部に表示された上記の記号を音で再確認する作業や、上記の記号の誤った部分を音を聞きながら容易に再照合する作業等に、スムーズに移行することができる。   For this reason, the player can know from the second notification sound that the pronunciation of the character has ended. Thereby, the player can move to the next work smoothly. That is, the player can smoothly perform the following work, for example, the work of reconfirming the above-mentioned character displayed on the image display unit with a sound, or the operation of easily re-verifying the wrong part of the above character while listening to the sound. Can be migrated to. When the above contents are generally described, by generating the second notification sound, a person who inputs information reconfirms the symbol displayed on the image display unit with sound, It is possible to smoothly shift to an operation of easily re-verifying the wrong part while listening to the sound.

請求項に係る音処理プログラムは、請求項1からのいずれかに記載の音処理プログラムにおいて、コンピュータに以下の機能をさらに実現させるためのプログラムである。
(17)画像表示部に表示された所定の記号に対応する記号データを、特殊記号用の記号データとして制御部に認識させる特殊記号認識機能。
(18)特殊記号用の記号データに対応する音データを、特殊音データとして制御部に認識させる特殊音データ認識機能。
(19)画像表示部に表示された所定の記号の位置を規定する位置データを、特殊記号用の位置データとして制御部に認識させる特殊記号位置認識機能。
A sound processing program according to claim 6 is a program for causing a computer to further realize the following functions in the sound processing program according to any one of claims 1 to 5 .
(17) A special symbol recognition function for causing the control unit to recognize symbol data corresponding to a predetermined symbol displayed on the image display unit as symbol data for a special symbol.
(18) A special sound data recognition function for causing the control unit to recognize sound data corresponding to symbol data for special symbols as special sound data.
(19) A special symbol position recognition function for causing the control unit to recognize position data defining the position of a predetermined symbol displayed on the image display unit as position data for special symbols.

この音処理プログラムでは、特殊記号認識機能において、画像表示部に表示された所定の記号に対応する記号データが、特殊記号用の記号データとして制御部に認識される。特殊音データ認識機能においては、特殊記号用の記号データに対応する音データが、特殊音データとして制御部に認識される。特殊記号位置認識機能においては、画像表示部に表示された所定の記号の位置を規定する位置データが、特殊記号用の位置データとして制御部に認識される。   In this sound processing program, in the special symbol recognition function, symbol data corresponding to a predetermined symbol displayed on the image display unit is recognized by the control unit as symbol data for the special symbol. In the special sound data recognition function, sound data corresponding to the symbol data for the special symbol is recognized by the control unit as special sound data. In the special symbol position recognition function, position data defining the position of a predetermined symbol displayed on the image display unit is recognized by the control unit as position data for the special symbol.

ここでは、発音機能において、発音開始位置に表示された記号を起点として、所定の記号を含む複数の記号の音が、記号データに対応する音データおよび所定の記号データに対応する特殊音データの少なくともいずれか一方のデータに基づいて音出力部から出力される。   Here, in the sound generation function, the sound of a plurality of symbols including a predetermined symbol starting from the symbol displayed at the sound generation start position is the sound data corresponding to the symbol data and the special sound data corresponding to the predetermined symbol data. The sound is output from the sound output unit based on at least one of the data.

たとえば、本音処理プログラムが野球ゲームに適用された場合、画像表示部に表示された空白文字等の所定の文字に対応する文字データが、特殊文字用の文字データとして制御部に認識される。そして、特殊文字用の文字データに対応する音データが、特殊音データとして制御部に認識される。そして、画像表示部に表示された所定の文字の位置を規定する位置データが、特殊文字用の位置データとして制御部に認識される。そして、発音開始位置に表示された文字を起点として、空白文字等の所定の文字を含む複数の文字の音が、文字データに対応する音データおよび所定の文字データに対応する特殊音データの少なくともいずれか一方のデータに基づいて、音出力部から出力される。   For example, when the real sound processing program is applied to a baseball game, character data corresponding to a predetermined character such as a blank character displayed on the image display unit is recognized by the control unit as character data for special characters. The sound data corresponding to the character data for special characters is recognized by the control unit as special sound data. Then, position data defining the position of the predetermined character displayed on the image display unit is recognized by the control unit as position data for special characters. Then, starting from the character displayed at the pronunciation start position, the sounds of a plurality of characters including a predetermined character such as a blank character are at least the sound data corresponding to the character data and the special sound data corresponding to the predetermined character data. Based on either one of the data, the sound is output from the sound output unit.

この場合、発音開始位置に表示された文字を起点として、空白文字等の所定の文字を含む複数の文字の音が、文字データに対応する音データおよび所定の文字データに対応する特殊音データの少なくともいずれか一方のデータに基づいて、音出力部から出力される。   In this case, starting from the character displayed at the pronunciation start position, the sounds of a plurality of characters including a predetermined character such as a blank character are generated as sound data corresponding to the character data and special sound data corresponding to the predetermined character data. The sound is output from the sound output unit based on at least one of the data.

このため、プレイヤは、上記の文字の中に空白文字等の所定の文字が含まれていても、空白文字等の所定の文字を特殊音で識別することができる。これにより、プレイヤは、空白文字等の所定の文字と、空白文字等の所定の文字を除いた上記の文字とを識別しながら、画像表示部に表示された文字を書き取ったり、上記の文字の誤った部分を照合したりすることができる。以上の内容を一般的に記述すると、情報を入力する人は、所定の情報と所定の情報を除いた情報とを識別しながら、画像表示部に表示された情報を書き取ったり、情報の誤った部分を照合したりすることができる。   For this reason, even if a predetermined character such as a blank character is included in the above characters, the player can identify the predetermined character such as a blank character with a special sound. This allows the player to write down the character displayed on the image display unit while identifying a predetermined character such as a blank character and the above character excluding the predetermined character such as a blank character, The wrong part can be collated. When the above contents are generally described, the person who inputs the information writes down the information displayed on the image display unit while identifying the predetermined information and the information excluding the predetermined information, or the information is incorrect. Parts can be verified.

請求項に係る音処理装置は、画像表示部に表示された、ゲームに登場するキャラクタの情報に関する複数の記号を、順次、発音可能な装置である。この音処理装置では、画像表示部に表示される複数の記号それぞれに対応する記号データを、制御部に認識させる記号データ認識手段と、記号データに対応する音データを、制御部に認識させる音データ認識手段と、所定数の記号を発音したことを報知するための第1報知音に対応する第1報知音データを、制御部に認識させる第1報知音データ認識手段と、記号を画像表示部に表示する位置を規定するための位置データを、制御部に認識させる位置データ認識手段と、記号データおよび位置データに基づいて、複数の記号それぞれを位置において画像表示部に表示する記号表示手段と、記号の発音を開始する発音開始位置を規定するための発音開始用の位置データを、制御部に認識させる発音開始位置認識手段と、発音開始位置に表示された記号を起点として、複数の記号の音を、記号データに対応する音データに基づいて音出力部から出力する発音手段と、所定数の記号が発音されたか否かを制御部に判断させる発音数判断手段と、所定数の記号が発音されたと制御部により判断された場合に、第1報知音を第1報知音データに基づいて音出力部から出力する第1報知音出力手段と、を備えている。 The sound processing device according to claim 7 is a device that can sequentially generate a plurality of symbols related to information on characters appearing in the game, which are displayed on the image display unit. In this sound processing apparatus, symbol data recognition means for causing the control unit to recognize symbol data corresponding to each of a plurality of symbols displayed on the image display unit, and a sound for causing the control unit to recognize sound data corresponding to the symbol data. Data recognition means, first notification sound data recognition means for causing the control unit to recognize first notification sound data corresponding to the first notification sound for notifying that a predetermined number of symbols have been generated, and displaying the symbol as an image Position data recognition means for causing the control section to recognize position data for defining the position to be displayed on the display section, and symbol display means for displaying each of the plurality of symbols on the image display section at the position based on the symbol data and the position data Sound start position recognizing means for causing the control unit to recognize the sound start position data for defining the sound start position for starting the sound generation of the symbol, and the sound generation start position. Symbol starting, the sound of a plurality of symbols, and sound generating means for outputting the sound output section based on the sound data corresponding to the symbolic data, the number of sound to be determined in the control unit whether a predetermined number of symbols is pronunciation And a first notification sound output means for outputting a first notification sound from the sound output unit based on the first notification sound data when the control unit determines that a predetermined number of symbols have been generated. ing.

請求項に係る音制御方法は、画像表示部に表示された、ゲームに登場するキャラクタの情報に関する複数の記号を、順次、発音可能なコンピュータにより、音を制御する方法である。この音制御方法は、画像表示部に表示される複数の記号それぞれに対応する記号データを、制御部に認識させる記号データ認識ステップと、記号データに対応する音データを、制御部に認識させる音データ認識ステップと、所定数の記号を発音したことを報知するための第1報知音に対応する第1報知音データを、制御部に認識させる第1報知音データ認識ステップと、記号を画像表示部に表示する位置を規定するための位置データを、制御部に認識させる位置データ認識ステップと、記号データおよび位置データに基づいて、複数の記号それぞれを位置において画像表示部に表示する記号表示ステップと、記号の発音を開始する発音開始位置を規定するための発音開始用の位置データを、制御部に認識させる発音開始位置認識ステップと、発音開始位置に表示された記号を起点として、複数の記号の音を、記号データに対応する音データに基づいて音出力部から出力する発音ステップと、所定数の記号が発音されたか否かを制御部に判断させる発音数判断ステップと、所定数の記号が発音されたと制御部により判断された場合に、第1報知音を第1報知音データに基づいて音出力部から出力する第1報知音出力ステップと、を備えている。 A sound control method according to an eighth aspect is a method of controlling sound by a computer that can sequentially generate a plurality of symbols related to information on characters appearing in the game displayed on the image display unit. The sound control method includes a symbol data recognition step for causing the control unit to recognize symbol data corresponding to each of a plurality of symbols displayed on the image display unit, and a sound for causing the control unit to recognize sound data corresponding to the symbol data. A data recognition step; a first notification sound data recognition step for causing the control unit to recognize first notification sound data corresponding to a first notification sound for notifying that a predetermined number of symbols have been generated; A position data recognition step for causing the control unit to recognize position data for defining a position to be displayed on the unit, and a symbol display step for displaying each of a plurality of symbols on the image display unit at the position based on the symbol data and the position data And a sounding start position recognition step for causing the control unit to recognize position data for sounding start for defining a sounding start position for starting sound generation of the symbol; Starting from the symbols displayed on the sound start position, the sound of a plurality of symbols, and pronunciation step of outputting from a sound output section based on the sound corresponding to the symbol data data, whether or not a predetermined number of symbols is pronunciation A sound generation number determination step for causing the control unit to determine, and a first notification sound for outputting a first notification sound from the sound output unit based on the first notification sound data when the control unit determines that a predetermined number of symbols has been generated. A sound output step .

本発明では、発音開始位置を規定するための発音開始用の位置データが制御部に認識されると、発音開始位置に表示された記号を起点として、複数の記号の音が、記号データに対応する音データに基づいて音出力部から出力される。   In the present invention, when the control unit recognizes the sound generation start position data for defining the sound generation start position, the sound of a plurality of symbols corresponds to the symbol data starting from the symbol displayed at the sound generation start position. Based on the sound data to be output from the sound output unit.

このため、プレイヤは、画像表示部を見なくても、画像表示部に表示された記号を、音で確認することができる。これにより、プレイヤは、画像表示部に表示された上記の記号を、容易かつ間違いなく取得することができる。また、プレイヤは、手元の紙等のような記録媒体からゲーム装置に入力された記号の誤った部分や、画像表示部を見ながら手元の記録媒体に書き取られた記号の誤った部分を、音を聞きながら容易に見つけ出すことができる。また、プレイヤは、自分が所望する発音開始位置を制御部に認識させることにより、任意の位置から記号を音で確認することができる。これにより、プレイヤは、音を聞きながら、画像表示部に表示された記号を部分的に書き取ったり、記号の誤った部分を部分的に照合したりすることができる。   For this reason, the player can confirm the symbols displayed on the image display unit with sound without looking at the image display unit. Thus, the player can easily and definitely acquire the above symbols displayed on the image display unit. In addition, the player can identify an incorrect part of a symbol input to the game device from a recording medium such as paper at hand, or an incorrect part of a symbol written on the recording medium at hand while viewing the image display unit. You can find it easily while listening to the sound. In addition, the player can confirm the symbol with a sound from an arbitrary position by causing the control unit to recognize the sound generation start position desired by the player. Accordingly, the player can partially write down the symbol displayed on the image display unit or partially collate an incorrect portion of the symbol while listening to the sound.

〔ゲーム装置の構成と動作〕
図1は、本発明の一実施形態によるゲーム装置の基本構成を示している。ここでは、ビデオゲーム装置の一例として、家庭用ビデオゲーム装置を対象として説明を行うこととする。家庭用ビデオゲーム装置は、家庭用ゲーム機本体および家庭用テレビジョンを備える。家庭用ゲーム機本体には、記録媒体10が装填可能となっており、記録媒体10からゲームデータが適宜読み出されてゲームが実行される。このようにして実行されるゲーム内容が家庭用テレビジョンに表示される。
[Configuration and operation of game device]
FIG. 1 shows a basic configuration of a game device according to an embodiment of the present invention. Here, as an example of the video game apparatus, a home video game apparatus will be described. The home video game apparatus includes a home game machine body and a home television. The home game machine body can be loaded with a recording medium 10, and game data is read from the recording medium 10 as appropriate to execute the game. The contents of the game executed in this way are displayed on the home television.

家庭用ビデオゲーム装置のゲームシステムは、制御部1と、記憶部2と、画像表示部3と、音出力部4と、操作入力部5、通信部23とからなっており、それぞれがバス6を介して接続される。このバス6は、アドレスバス、データバス、およびコントロールバスなどを含んでいる。ここで、制御部1、記憶部2、音出力部4および操作入力部5は、家庭用ビデオゲーム装置の家庭用ゲーム機本体に含まれており、画像表示部3は家庭用テレビジョンに含まれている。   The game system of the home video game apparatus includes a control unit 1, a storage unit 2, an image display unit 3, a sound output unit 4, an operation input unit 5, and a communication unit 23, each of which is a bus 6 Connected through. The bus 6 includes an address bus, a data bus, a control bus, and the like. Here, the control unit 1, the storage unit 2, the sound output unit 4, and the operation input unit 5 are included in a home game machine body of a home video game apparatus, and the image display unit 3 is included in a home television. It is.

制御部1は、主に、ゲームプログラムに基づいてゲーム全体の進行を制御するために設けられている。制御部1は、たとえば、CPU(Central Processing Unit)7と、信号処理プロセッサ8と、画像処理プロセッサ9とから構成されている。CPU7と信号処理プロセッサ8と画像処理プロセッサ9とは、それぞれがバス6を介して互いに接続されている。CPU7は、ゲームプログラムからの命令を解釈し、各種のデータ処理や制御を行う。たとえば、CPU7は、信号処理プロセッサ8に対して、画像データを画像処理プロセッサに供給するように命令する。信号処理プロセッサ8は、主に、3次元空間上における計算と、3次元空間上から擬似3次元空間上への位置変換計算と、光源計算処理と、3次元空間上又は擬似3次元空間上で実行された計算結果に基づいた画像および音データの生成加工処理とを行っている。画像処理プロセッサ9は、主に、信号処理プロセッサ8の計算結果および処理結果に基づいて、描画すべき画像データをRAM12に書き込む処理を行っている。また、CPU7は、信号処理プロセッサ8に対して、各種データを処理するように命令する。信号処理プロセッサ8は、主に、3次元空間上における各種データに対応する計算と、3次元空間上から擬似3次元空間上への位置変換計算とを行っている。   The control unit 1 is provided mainly for controlling the progress of the entire game based on the game program. The control unit 1 includes, for example, a CPU (Central Processing Unit) 7, a signal processor 8, and an image processor 9. The CPU 7, the signal processor 8, and the image processor 9 are connected to each other via the bus 6. The CPU 7 interprets instructions from the game program and performs various data processing and control. For example, the CPU 7 instructs the signal processor 8 to supply image data to the image processor. The signal processor 8 mainly performs calculation in the three-dimensional space, position conversion calculation from the three-dimensional space to the pseudo three-dimensional space, light source calculation processing, and in the three-dimensional space or the pseudo three-dimensional space. Image and sound data generation processing based on the executed calculation results is performed. The image processor 9 mainly performs a process of writing image data to be drawn into the RAM 12 based on the calculation result and the processing result of the signal processor 8. Further, the CPU 7 instructs the signal processor 8 to process various data. The signal processor 8 mainly performs calculations corresponding to various data in the three-dimensional space and position conversion calculation from the three-dimensional space to the pseudo three-dimensional space.

記憶部2は、主に、プログラムデータや、プログラムデータで使用される各種データなどを格納しておくために設けられている。記憶部2は、たとえば、記録媒体10と、インターフェース回路11と、RAM(Random Access Memory)12とから構成されている。記録媒体10には、インターフェース回路11が接続されている。そして、インターフェース回路11とRAM12とはバス6を介して接続されている。記録媒体10は、オペレーションシステムのプログラムデータや、画像データ、音データ並びに各種プログラムデータからなるゲームデータなどを記録するためのものである。この記録媒体10は、たとえば、ROM(Read Only Memory)カセット、光ディスク、およびフレキシブルディスクなどであり、オペレーティングシステムのプログラムデータやゲームデータなどが記憶される。なお、記録媒体10にはカード型メモリも含まれており、このカード型メモリは、主に、ゲームを中断するときに中断時点での各種ゲームパラメータを保存するために用いられる。RAM12は、記録媒体10から読み出された各種データを一時的に格納したり、制御部1からの処理結果を一時的に記録したりするために用いられる。このRAM12には、各種データとともに、各種データの記憶位置を示すアドレスデータが格納されており、任意のアドレスを指定して読み書きすることが可能になっている。   The storage unit 2 is provided mainly for storing program data and various data used in the program data. The storage unit 2 includes, for example, a recording medium 10, an interface circuit 11, and a RAM (Random Access Memory) 12. An interface circuit 11 is connected to the recording medium 10. The interface circuit 11 and the RAM 12 are connected via the bus 6. The recording medium 10 is used for recording operation system program data, image data, sound data, game data including various program data, and the like. The recording medium 10 is, for example, a ROM (Read Only Memory) cassette, an optical disk, a flexible disk, or the like, and stores operating system program data, game data, and the like. The recording medium 10 also includes a card type memory, and this card type memory is mainly used for storing various game parameters at the time of interruption when the game is interrupted. The RAM 12 is used for temporarily storing various data read from the recording medium 10 and temporarily recording the processing results from the control unit 1. The RAM 12 stores various data and address data indicating the storage position of the various data, and can be read / written by designating an arbitrary address.

画像表示部3は、主に、画像処理プロセッサ9によってRAM12に書き込まれた画像データや、記録媒体10から読み出される画像データなどを画像として出力するために設けられている。この画像表示部3は、たとえば、テレビジョンモニタ20と、インターフェース回路21と、D/Aコンバータ(Digital-To-Analogコンバータ)22とから構成されている。テレビジョンモニタ20にはD/Aコンバータ22が接続されており、D/Aコンバータ22にはインターフェース回路21が接続されている。そして、インターフェース回路21にバス6が接続されている。ここでは、画像データが、インターフェース回路21を介してD/Aコンバータ22に供給され、ここでアナログ画像信号に変換される。そして、アナログ画像信号がテレビジョンモニタ20に画像として出力される。   The image display unit 3 is provided mainly for outputting image data written in the RAM 12 by the image processor 9 or image data read from the recording medium 10 as an image. The image display unit 3 includes, for example, a television monitor 20, an interface circuit 21, and a D / A converter (Digital-To-Analog converter) 22. A D / A converter 22 is connected to the television monitor 20, and an interface circuit 21 is connected to the D / A converter 22. The bus 6 is connected to the interface circuit 21. Here, the image data is supplied to the D / A converter 22 via the interface circuit 21, where it is converted into an analog image signal. The analog image signal is output as an image to the television monitor 20.

ここで、画像データには、たとえば、ポリゴンデータやテクスチャデータなどがある。ポリゴンデータはポリゴンを構成する頂点の座標データのことである。テクスチャデータは、ポリゴンにテクスチャを設定するためのものであり、テクスチャ指示データとテクスチャカラーデータとからなっている。テクスチャ指示データはポリゴンとテクスチャとを対応づけるためのデータであり、テクスチャカラーデータはテクスチャの色を指定するためのデータである。ここで、ポリゴンデータとテクスチャデータとには、各データの記憶位置を示すポリゴンアドレスデータとテクスチャアドレスデータとが対応づけられている。このような画像データでは、信号処理プロセッサ8により、ポリゴンアドレスデータの示す3次元空間上のポリゴンデータ(3次元ポリゴンデータ)が、画面自体(視点)の移動量データおよび回転量データに基づいて座標変換および透視投影変換されて、2次元空間上のポリゴンデータ(2次元ポリゴンデータ)に置換される。そして、複数の2次元ポリゴンデータでポリゴン外形を構成して、ポリゴンの内部領域にテクスチャアドレスデータが示すテクスチャデータを書き込む。このようにして、各ポリゴンにテクスチャが貼り付けられた物体つまり各種キャラクタを表現することができる。   Here, the image data includes, for example, polygon data and texture data. Polygon data is the coordinate data of vertices constituting a polygon. The texture data is for setting a texture on the polygon, and is composed of texture instruction data and texture color data. The texture instruction data is data for associating polygons and textures, and the texture color data is data for designating the texture color. Here, the polygon data and the texture data are associated with the polygon address data indicating the storage position of each data and the texture address data. In such image data, the signal processor 8 coordinates the polygon data in the three-dimensional space indicated by the polygon address data (three-dimensional polygon data) based on the movement amount data and the rotation amount data of the screen itself (viewpoint). Conversion and perspective projection conversion are performed, and the data is replaced with polygon data (two-dimensional polygon data) in a two-dimensional space. Then, a polygon outline is constituted by a plurality of two-dimensional polygon data, and texture data indicated by the texture address data is written in an internal area of the polygon. In this way, an object in which a texture is pasted on each polygon, that is, various characters can be expressed.

音出力部4は、主に、記録媒体10から読み出される音データを音として出力するために設けられている。音出力部4は、たとえば、スピーカ13と、増幅回路14と、D/Aコンバータ15と、インターフェース回路16とから構成されている。スピーカ13には増幅回路14が接続されており、増幅回路14にはD/Aコンバータ15が接続されており、D/Aコンバータ15にはインターフェース回路16が接続されている。そして、インターフェース回路16にバス6が接続されている。ここでは、音データが、インターフェース回路16を介してD/Aコンバータ15に供給され、ここでアナログ音信号に変換される。このアナログ音信号が増幅回路14によって増幅され、スピーカ13から音として出力される。音データには、たとえば、ADPCM(Adaptive Differential Pulse Code Modulation)データやPCM(Pulse Code Modulation)データなどがある。ADPCMデータの場合、上述と同様の処理方法で音をスピーカ13から出力することができる。PCMデータの場合、RAM12においてPCMデータをADPCMデータに変換しておくことで、上述と同様の処理方法で音をスピーカ13から出力することができる。   The sound output unit 4 is provided mainly for outputting sound data read from the recording medium 10 as sound. The sound output unit 4 includes, for example, a speaker 13, an amplifier circuit 14, a D / A converter 15, and an interface circuit 16. An amplifier circuit 14 is connected to the speaker 13, a D / A converter 15 is connected to the amplifier circuit 14, and an interface circuit 16 is connected to the D / A converter 15. The bus 6 is connected to the interface circuit 16. Here, the sound data is supplied to the D / A converter 15 via the interface circuit 16, where it is converted into an analog sound signal. The analog sound signal is amplified by the amplifier circuit 14 and output from the speaker 13 as sound. The sound data includes, for example, ADPCM (Adaptive Differential Pulse Code Modulation) data and PCM (Pulse Code Modulation) data. In the case of ADPCM data, sound can be output from the speaker 13 by the same processing method as described above. In the case of PCM data, by converting the PCM data into ADPCM data in the RAM 12, sound can be output from the speaker 13 by the same processing method as described above.

操作入力部5は、主に、コントローラ17と、操作情報インターフェース回路18と、インターフェース回路19とから構成されている。コントローラ17には、操作情報インターフェース回路18が接続されており、操作情報インターフェース回路18にはインターフェース回路19が接続されている。そして、インターフェース回路19にバス6が接続されている。   The operation input unit 5 mainly includes a controller 17, an operation information interface circuit 18, and an interface circuit 19. An operation information interface circuit 18 is connected to the controller 17, and an interface circuit 19 is connected to the operation information interface circuit 18. The bus 6 is connected to the interface circuit 19.

コントローラ17は、プレイヤが種々の操作命令を入力するために使用する操作装置であり、プレイヤの操作に応じた操作信号をCPU7に送出する。コントローラ17には、第1ボタン17a、第2ボタン17b、第3ボタン17c、第4ボタン17d、上方向キー17U、下方向キー17D、左方向キー17L、右方向キー17R、L1ボタン17L1、L2ボタン17L2、R1ボタン17R1、R2ボタン17R2、スタートボタン17e、セレクトボタン17f、左スティック17SL及び右スティック17SRが設けられている。   The controller 17 is an operation device used by the player to input various operation commands, and sends an operation signal according to the operation of the player to the CPU 7. The controller 17 includes a first button 17a, a second button 17b, a third button 17c, a fourth button 17d, an up key 17U, a down key 17D, a left key 17L, a right key 17R, and an L1 button 17L1, L2. A button 17L2, an R1 button 17R1, an R2 button 17R2, a start button 17e, a select button 17f, a left stick 17SL and a right stick 17SR are provided.

上方向キー17U、下方向キー17D、左方向キー17L及び右方向キー17Rは、例えば、キャラクタやカーソルをテレビジョンモニタ20の画面上で上下左右に移動させるコマンドをCPU7に与えるために使用される。   The up direction key 17U, the down direction key 17D, the left direction key 17L, and the right direction key 17R are used, for example, to give the CPU 7 a command for moving a character or cursor up, down, left, or right on the screen of the television monitor 20. .

スタートボタン17eは、記録媒体10からゲームプログラムをロードするようにCPU7に指示するときなどに使用される。   The start button 17e is used when instructing the CPU 7 to load a game program from the recording medium 10.

セレクトボタン17fは、記録媒体10からロードされたゲームプログラムに対して、各種選択をCPU7に指示するときなどに使用される。   The select button 17f is used when instructing the CPU 7 to make various selections for the game program loaded from the recording medium 10.

左スティック17SL及び右スティック17SRは、いわゆるジョイスティックとほぼ同一構成のスティック型コントローラである。このスティック型コントローラは、直立したスティックを有している。このスティックは、支点を中心として直立位置から前後左右を含む360°方向に亘って、傾倒可能な構成になっている。左スティック17SL及び右スティック17SRは、スティックの傾倒方向及び傾倒角度に応じて、直立位置を原点とするx座標及びy座標の値を、操作信号として操作情報インターフェース回路18とインターフェース回路19とを介してCPU7に送出する。   The left stick 17SL and the right stick 17SR are stick type controllers having substantially the same configuration as a so-called joystick. This stick type controller has an upright stick. The stick is configured to be tiltable from an upright position around the fulcrum in a 360 ° direction including front, rear, left and right. The left stick 17SL and the right stick 17SR pass through the operation information interface circuit 18 and the interface circuit 19 with the values of the x-coordinate and the y-coordinate having the upright position as the origin as operation signals according to the tilt direction and tilt angle of the stick. To the CPU 7.

第1ボタン17a、第2ボタン17b、第3ボタン17c、第4ボタン17d、L1ボタン17L1、L2ボタン17L2、R1ボタン17R1及びR2ボタン17R2には、記録媒体10からロードされるゲームプログラムに応じて種々の機能が割り振られている。   The first button 17a, the second button 17b, the third button 17c, the fourth button 17d, the L1 button 17L1, the L2 button 17L2, the R1 button 17R1, and the R2 button 17R2 correspond to the game program loaded from the recording medium 10. Various functions are allocated.

なお、左スティック17SL及び右スティック17SRを除くコントローラ17の各ボタン及び各キーは、外部からの押圧力によって中立位置から押圧されるとオンになり、押圧力が解除されると中立位置に復帰してオフになるオンオフスイッチになっている。   Each button and each key of the controller 17 except for the left stick 17SL and the right stick 17SR are turned on when pressed from the neutral position by an external pressing force, and return to the neutral position when the pressing force is released. It is an on / off switch that turns off.

通信部23は、通信制御回路24および通信インターフェース25を有している。通信制御回路24および通信インターフェース25は、ゲーム機をサーバや他のゲーム機等に接続するために用いられる。通信制御回路20および通信インターフェース21は、バス16を介してCPU11に接続されている。通信制御回路20および通信インターフェース21は、CPU11からの命令に応じて、ゲーム機をインターネットに接続するための接続信号を制御し発信する。また、通信制御回路20および通信インターフェース21は、インターネットを介してゲーム機をサーバや他のゲーム装置に接続するための接続信号を制御し発信する。   The communication unit 23 includes a communication control circuit 24 and a communication interface 25. The communication control circuit 24 and the communication interface 25 are used to connect the game machine to a server, another game machine, or the like. The communication control circuit 20 and the communication interface 21 are connected to the CPU 11 via the bus 16. The communication control circuit 20 and the communication interface 21 control and transmit a connection signal for connecting the game machine to the Internet in accordance with a command from the CPU 11. Further, the communication control circuit 20 and the communication interface 21 control and transmit a connection signal for connecting the game machine to a server or another game device via the Internet.

以上のような構成からなる家庭用ビデオゲーム装置の概略動作を、以下に説明する。電源スイッチ(図示省略)がオンにされゲームシステム1に電源が投入されると、CPU7が、記録媒体10に記憶されているオペレーティングシステムに基づいて、記録媒体10から画像データ、音データ、およびプログラムデータを読み出す。読み出された画像データ、音データ、およびプログラムデータの一部若しくは全部は、RAM12に格納される。そして、CPU7が、RAM12に格納されたプログラムデータに基づいて、RAM12に格納された画像データや音データを画像や音としてテレビジョンモニタ20やスピーカ13に出力するためのコマンドを発行する。   The schematic operation of the home video game apparatus having the above configuration will be described below. When a power switch (not shown) is turned on and the game system 1 is turned on, the CPU 7 reads image data, sound data, and a program from the recording medium 10 based on the operating system stored in the recording medium 10. Read data. Some or all of the read image data, sound data, and program data are stored in the RAM 12. Then, the CPU 7 issues a command for outputting the image data and sound data stored in the RAM 12 to the television monitor 20 and the speaker 13 as images and sounds based on the program data stored in the RAM 12.

画像データの場合、CPU7からのコマンドに基づいて、まず、信号処理プロセッサ8が、3次元空間上におけるキャラクタの位置計算および光源計算などを行う。次に、画像処理プロセッサ9が、信号処理プロセッサ8の計算結果に基づいて、描画すべき画像データのRAM12への書き込み処理などを行う。そして、RAM12に書き込まれた画像データが、インターフェース回路21を介してD/Aコンバータ22に供給される。ここで、画像データがD/Aコンバータ22でアナログ映像信号に変換される。そして、画像データはテレビジョンモニタ20に供給され画像として表示される。   In the case of image data, based on a command from the CPU 7, first, the signal processor 8 performs character position calculation and light source calculation in a three-dimensional space. Next, the image processor 9 performs a process of writing image data to be drawn into the RAM 12 based on the calculation result of the signal processor 8. Then, the image data written in the RAM 12 is supplied to the D / A converter 22 via the interface circuit 21. Here, the image data is converted into an analog video signal by the D / A converter 22. The image data is supplied to the television monitor 20 and displayed as an image.

音データの場合、まず、信号処理プロセッサ8が、CPU7からのコマンドに基づいて音データの生成および加工処理を行う。ここでは、音データに対して、たとえば、ピッチの変換、ノイズの付加、エンベロープの設定、レベルの設定及びリバーブの付加などの処理が施される。次に、音データは、信号処理プロセッサ8から出力されて、インターフェース回路16を介してD/Aコンバータ15に供給される。ここで、音データがアナログ音信号に変換される。そして、音データは増幅回路14を介してスピーカ13から音として出力される。   In the case of sound data, first, the signal processor 8 generates and processes sound data based on a command from the CPU 7. Here, for example, processing such as pitch conversion, noise addition, envelope setting, level setting, and reverb addition is performed on the sound data. Next, the sound data is output from the signal processor 8 and supplied to the D / A converter 15 via the interface circuit 16. Here, the sound data is converted into an analog sound signal. The sound data is output as sound from the speaker 13 via the amplifier circuit 14.

〔ゲーム装置における各種処理概要〕
本ゲーム装置において実行されるゲームプログラムは、たとえば野球ゲームプログラムである。この野球ゲームプログラムでは、たとえば、テレビジョンモニタ20に表示された文字が、CPU7からの命令に基づいて発音されるようになっている。図2は、本発明で主要な役割を果たす機能を説明するための機能ブロック図である。
[Outline of various processes in game devices]
The game program executed in this game device is, for example, a baseball game program. In this baseball game program, for example, characters displayed on the television monitor 20 are pronounced based on a command from the CPU 7. FIG. 2 is a functional block diagram for explaining functions that play a major role in the present invention.

文字データ認識手段50は、テレビジョンモニタ20に表示される複数の文字それぞれに対応する文字データを、CPU7に認識させる機能を備えている。文字データ認識手段50では、テレビジョンモニタ20に表示される複数の文字それぞれに対応する文字データが、CPU7に認識される。   The character data recognition unit 50 has a function of causing the CPU 7 to recognize character data corresponding to each of a plurality of characters displayed on the television monitor 20. In the character data recognition means 50, the CPU 7 recognizes character data corresponding to each of a plurality of characters displayed on the television monitor 20.

この手段では、テレビジョンモニタ20に表示される複数のランダムな文字列それぞれに対応する文字データが、CPU7に認識される。ここでは、たとえば、テレビジョンモニタ20に表示される複数のひらがなそれぞれに対応する文字データが、CPU7に認識される。具体的には、複数のひらがなそれぞれに対応する文字コードのコード番号が、文字データとしてCPU7に認識される。   In this means, the CPU 7 recognizes character data corresponding to each of a plurality of random character strings displayed on the television monitor 20. Here, for example, character data corresponding to each of a plurality of hiragana characters displayed on the television monitor 20 is recognized by the CPU 7. Specifically, the code number of the character code corresponding to each of the plurality of hiragana characters is recognized by the CPU 7 as character data.

なお、テレビジョンモニタ20に表示される複数のランダムな文字列(ひらがな)は、選手キャラクタの各種の情報たとえば基本情報および能力情報を、所定のアルゴリズムに基づいて変換することにより生成されるものである。このため、複数のランダムな文字列の容量と、選手キャラクタの各種の情報たとえば基本情報および能力情報の容量とは、同じになっている。   The plurality of random character strings (hiragana) displayed on the television monitor 20 are generated by converting various information of the player character, such as basic information and ability information, based on a predetermined algorithm. is there. For this reason, the capacity | capacitance of several random character strings and the capacity | capacitance of the various information of a player character, for example, basic information and ability information, are the same.

音データ認識手段51は、文字データに対応する音データを、CPU7に認識させる機能を備えている。音データ認識手段51では、文字データに対応する音データが、CPU7に認識される。   The sound data recognition means 51 has a function of causing the CPU 7 to recognize sound data corresponding to character data. In the sound data recognizing means 51, the sound data corresponding to the character data is recognized by the CPU 7.

この手段では、テレビジョンモニタ20に表示される複数のランダムな文字列それぞれに対応する音データが、CPU7に認識される。ここでは、たとえば、テレビジョンモニタ20に表示される複数のひらがなそれぞれに対応する音データが、CPU7に認識される。具体的には、複数のひらがなそれぞれのコード番号に対応する音データが、CPU7に認識される。   In this means, the CPU 7 recognizes sound data corresponding to each of a plurality of random character strings displayed on the television monitor 20. Here, for example, the sound data corresponding to each of the plurality of hiragana characters displayed on the television monitor 20 is recognized by the CPU 7. Specifically, the CPU 7 recognizes sound data corresponding to the code numbers of the plurality of hiragana characters.

第1報知音データ認識手段52は、所定数の文字を発音したことを報知するための第1報知音に対応する第1報知音データを、CPU7に認識させる機能を備えている。第1報知音データ認識手段52では、所定数の文字を発音したことを報知するための第1報知音に対応する第1報知音データが、CPU7に認識される。   The first notification sound data recognizing means 52 has a function of causing the CPU 7 to recognize the first notification sound data corresponding to the first notification sound for notifying that a predetermined number of characters have been generated. In the first notification sound data recognizing means 52, the CPU 7 recognizes first notification sound data corresponding to the first notification sound for notifying that a predetermined number of characters have been pronounced.

この手段では、RAM12に格納された、所定数のひらがなを発音したことを報知するための第1報知音に対応する第1報知音データが、CPU7に認識される。ここでCPU7に認識される第1報知音には、たとえば、音量が所定量である場合の報知音と、音量がゼロである場合の報知音すなわち無音の報知音とが、含まれている。また、第1報知音には、たとえば、複数のひらがなが発音されるときの時間間隔よりも長い間、発音状態が継続する報知音と、複数のひらがなが発音されるときの時間間隔よりも短い間、発音状態が継続する報知音とが、含まれている。   In this means, the CPU 7 recognizes the first notification sound data stored in the RAM 12 and corresponding to the first notification sound for notifying that the predetermined number of hiragana has been pronounced. Here, the first notification sound recognized by the CPU 7 includes, for example, a notification sound when the volume is a predetermined amount and a notification sound when the volume is zero, that is, a silent notification sound. In addition, the first notification sound is shorter than the time interval at which the sounding state continues and the time interval at which the plurality of hiragana sounds, for example, longer than the time interval at which the plurality of hiragana sounds. In the meantime, a notification sound in which the sound generation state continues is included.

なお、このような第1報知音データは、ゲームプログラムのロード時に、記録媒体10からRAM12にロードされ、RAM12に格納されている。   Note that such first notification sound data is loaded from the recording medium 10 into the RAM 12 and stored in the RAM 12 when the game program is loaded.

第2報知音データ認識手段53は、発音終了位置に位置する文字が発音されたことを報知するための第2報知音に対応する第2報知音データを、CPU7に認識させる機能を備えている。第2報知音データ認識手段53では、発音終了位置に位置する文字が発音されたことを報知するための第2報知音に対応する第2報知音データが、CPU7に認識される。   The second notification sound data recognizing means 53 has a function of causing the CPU 7 to recognize second notification sound data corresponding to the second notification sound for notifying that the character located at the pronunciation end position has been generated. . In the second notification sound data recognizing means 53, the CPU 7 recognizes second notification sound data corresponding to the second notification sound for notifying that the character located at the pronunciation end position has been generated.

この手段では、RAM12に格納された、発音終了位置に位置するひらがなが発音されたことを報知するための第2報知音に対応する第2報知音データが、CPU7に認識される。なお、第2報知音データは、ゲームプログラムのロード時に、記録媒体10からRAM12にロードされ、RAM12に格納されている。   In this means, the CPU 7 recognizes the second notification sound data corresponding to the second notification sound stored in the RAM 12 for notifying that the hiragana located at the sound generation end position has been generated. The second notification sound data is loaded from the recording medium 10 to the RAM 12 and stored in the RAM 12 when the game program is loaded.

位置データ認識手段54は、文字をテレビジョンモニタ20に表示する位置を規定するための位置データを、CPU7に認識させる機能を備えている。位置データ認識手段54では、文字をテレビジョンモニタ20に表示する位置を規定するための位置データが、CPU7に認識される。   The position data recognizing means 54 has a function of causing the CPU 7 to recognize position data for defining a position where characters are displayed on the television monitor 20. In the position data recognizing means 54, the position data for defining the position where the character is displayed on the television monitor 20 is recognized by the CPU 7.

この手段では、ひらがなをテレビジョンモニタ20に表示する位置を規定するための位置データが、CPU7に認識される。ここでは、ひらがなの表示形式に応じた位置データが、CPU7に認識される。たとえば、ひらがなの表示形式が表形式である場合、(i,j)のようなマトリックス形式の位置データが、CPU7に認識される。   In this means, the CPU 7 recognizes position data for defining the position where the hiragana is displayed on the television monitor 20. Here, the CPU 7 recognizes position data corresponding to the hiragana display format. For example, when the hiragana display format is a table format, the CPU 7 recognizes position data in a matrix format such as (i, j).

文字表示手段55は、文字データに対応する文字を、位置データにより規定された位置においてテレビジョンモニタ20に表示する機能を備えている。文字表示手段55では、文字データに対応する文字が、位置データにより規定された位置においてテレビジョンモニタ20に表示される。   The character display means 55 has a function of displaying characters corresponding to the character data on the television monitor 20 at a position defined by the position data. In the character display means 55, a character corresponding to the character data is displayed on the television monitor 20 at a position defined by the position data.

この手段では、複数のひらがなそれぞれが、位置データにより規定された位置においてテレビジョンモニタ20に表示される。たとえば、ひらがなの表示形式が表形式である場合、文字データに対応するひらがなが、ひらがなの位置データ(i,j)により規定された位置においてテレビジョンモニタ20に表示される。なお、ひらがなの表示形式が表形式であり、表においてひらがなが表示されていないセルがある場合、このセルには空白文字等の所定の文字が表示される。   With this means, each of the plurality of hiragana characters is displayed on the television monitor 20 at the position defined by the position data. For example, when the display format of hiragana is a tabular format, the hiragana corresponding to the character data is displayed on the television monitor 20 at a position defined by the hiragana position data (i, j). When the hiragana display format is a table format and there is a cell in which no hiragana is displayed in the table, a predetermined character such as a blank character is displayed in this cell.

特殊文字認識手段56は、テレビジョンモニタ20に表示された所定の文字に対応する文字データを、特殊文字用の文字データとしてCPU7に認識させる機能を備えている。特殊文字認識手段56では、テレビジョンモニタ20に表示された所定の文字に対応する文字データが、特殊文字用の文字データとしてCPU7に認識される。   The special character recognition means 56 has a function of causing the CPU 7 to recognize character data corresponding to a predetermined character displayed on the television monitor 20 as character data for special characters. In the special character recognizing means 56, the character data corresponding to the predetermined character displayed on the television monitor 20 is recognized by the CPU 7 as character data for the special character.

この手段では、テレビジョンモニタ20に表示された空白文字等の所定の文字に対応する文字データが、特殊文字用の文字データとしてCPU7に認識される。ここでは、たとえば、テレビジョンモニタ20に表示された空白文字等の所定の文字に対応する文字コードのコード番号が、特殊文字用の文字データとしてCPU7に認識される。   In this means, character data corresponding to a predetermined character such as a blank character displayed on the television monitor 20 is recognized by the CPU 7 as character data for special characters. Here, for example, the code number of the character code corresponding to a predetermined character such as a blank character displayed on the television monitor 20 is recognized by the CPU 7 as character data for special characters.

特殊音データ認識手段57は、特殊文字用の文字データに対応する音データを、特殊音データとしてCPU7に認識させる機能を備えている。特殊音データ認識手段57では、特殊文字用の文字データに対応する音データが、特殊音データとしてCPU7に認識される。   The special sound data recognizing means 57 has a function of causing the CPU 7 to recognize sound data corresponding to character data for special characters as special sound data. In the special sound data recognition means 57, the sound data corresponding to the character data for special characters is recognized by the CPU 7 as special sound data.

この手段では、特殊文字用の文字データに対応する音データが、特殊音データとしてCPU7に認識される。ここでは、たとえば、空白文字等の所定の文字に対応する文字データが、特殊文字用の文字データとなっているので、空白文字等の所定の文字に対応する音データが、特殊音データとしてCPU7に認識される。具体的には、空白文字等のコード番号に対応する音データが、CPU7に認識される。   In this means, the sound data corresponding to the character data for special characters is recognized by the CPU 7 as special sound data. Here, for example, character data corresponding to a predetermined character such as a blank character is character data for a special character, so that sound data corresponding to a predetermined character such as a blank character is the special sound data. Recognized. Specifically, the sound data corresponding to the code number such as a blank character is recognized by the CPU 7.

特殊文字位置認識手段58は、テレビジョンモニタ20に表示された所定の文字の位置を規定する位置データを、特殊文字用の位置データとしてCPU7に認識させる機能を備えている。特殊文字位置認識手段58では、テレビジョンモニタ20に表示された所定の文字の位置を規定する位置データが、特殊文字用の位置データとしてCPU7に認識される。   The special character position recognition means 58 has a function of causing the CPU 7 to recognize position data defining the position of a predetermined character displayed on the television monitor 20 as position data for special characters. In the special character position recognizing means 58, the position data defining the position of the predetermined character displayed on the television monitor 20 is recognized by the CPU 7 as the position data for the special character.

この手段では、テレビジョンモニタ20に表示された空白文字等の所定の文字の位置を規定する位置データが、特殊文字用の位置データとしてCPU7に認識される。ここでは、ひらがなの表示形式に応じた特殊文字用の位置データが、CPU7に認識される。たとえば、ひらがなの表示形式が表形式である場合、特殊文字用の位置データが、(i,j)のようなマトリックス形式でCPU7に認識される。   In this means, the CPU 7 recognizes position data defining the position of a predetermined character such as a blank character displayed on the television monitor 20 as position data for special characters. Here, the position data for special characters corresponding to the display format of hiragana is recognized by the CPU 7. For example, when the hiragana display format is a table format, the position data for special characters is recognized by the CPU 7 in a matrix format such as (i, j).

発音開始位置認識手段59は、文字の発音を開始する発音開始位置を規定するための発音開始用の位置データを、CPU7に認識させる機能を備えている。発音開始位置認識手段59では、文字の発音を開始する発音開始位置を規定するための発音開始用の位置データが、CPU7に認識される。   The pronunciation start position recognizing means 59 has a function of causing the CPU 7 to recognize the position data for starting the pronunciation for defining the pronunciation start position for starting the pronunciation of the character. In the pronunciation start position recognizing means 59, the CPU 7 recognizes the position data for starting the pronunciation for defining the pronunciation start position where the pronunciation of the character is started.

この手段では、発音を開始する発音開始位置を規定するための発音開始用の位置データが、CPU7に認識される。ここでは、たとえば、発音を開始する発音開始位置を指示するためにコントローラ17が操作されると、発音開始位置を規定するための位置データが、CPU7に認識される。また、発音を開始する発音開始位置を指示するための操作がコントローラ17により実行されなかったときには、発音開始位置を規定するための所定の位置データが、CPU7に認識される。なお、発音開始位置を規定するための所定の位置データは、ゲームプログラムにおいて予め規定されている。   In this means, the CPU 7 recognizes position data for starting sound generation for defining the sound generation start position for starting sound generation. Here, for example, when the controller 17 is operated to instruct a sound generation start position for starting sound generation, the position data for defining the sound generation start position is recognized by the CPU 7. Further, when the controller 17 does not execute an operation for instructing the sound generation start position for starting sound generation, the CPU 7 recognizes predetermined position data for defining the sound generation start position. Note that the predetermined position data for defining the sound generation start position is defined in advance in the game program.

出力速度制御手段60は、文字データに対応する音データを音出力部4たとえばスピーカ13から順次出力するときの発音速度を設定する処理をCPU7に実行させる機能を備えている。出力速度制御手段60では、文字データに対応する音データをスピーカ13から順次出力するときの発音速度を設定する処理が、CPU7により実行される。   The output speed control means 60 has a function of causing the CPU 7 to execute a process of setting a sound generation speed when sound data corresponding to character data is sequentially output from the sound output unit 4 such as the speaker 13. In the output speed control means 60, the CPU 7 executes a process for setting a sound generation speed when sound data corresponding to character data is sequentially output from the speaker 13.

この手段では、文字データに対応する音データをスピーカ13から順次出力するときの発音速度が、CPU7により設定される。ここでは、たとえば、各音データをスピーカ13から出力する時間間隔DTが、CPU7により設定される。具体的には、発音速度を指示するためにコントローラ17が操作されると、ひらがなに対応する音データをスピーカ13から出力するときの時間間隔が、CPU7により設定される。また、発音速度を指示するための操作がコントローラ17により実行されなかったときには、所定の時間間隔が、ひらがなに対応する音データをスピーカ13から出力するときの時間間隔としてCPU7に認識される。なお、ここに示した所定の時間間隔は、ゲームプログラムにおいて予め規定されている。   In this means, the CPU 7 sets the sound generation speed when the sound data corresponding to the character data is sequentially output from the speaker 13. Here, for example, the CPU 7 sets a time interval DT for outputting each sound data from the speaker 13. Specifically, when the controller 17 is operated to instruct the sound generation speed, the CPU 7 sets a time interval when the sound data corresponding to the hiragana is output from the speaker 13. Further, when the operation for instructing the sound generation speed is not executed by the controller 17, the predetermined time interval is recognized by the CPU 7 as the time interval when the sound data corresponding to the hiragana is output from the speaker 13. The predetermined time interval shown here is defined in advance in the game program.

異音データ認識手段61は、文字データに対応する、音データの音質とは異なる音質の音データを、CPU7に認識させる機能を備えている。異音データ認識手段61では、文字データに対応する、音データの音質とは異なる音質の音データが、CPU7に認識される。   The abnormal sound data recognition means 61 has a function of causing the CPU 7 to recognize sound data corresponding to character data and having a sound quality different from the sound quality of the sound data. In the abnormal sound data recognizing means 61, the CPU 7 recognizes the sound data corresponding to the character data and having a sound quality different from that of the sound data.

この手段では、RAM12に格納された、上記の音データの音質とは異なる音質の音データが、CPU7に認識される。ここでは、たとえば、音質を変更するためにコントローラ17が操作されると、上記の音データの音質とは異なる音質の音データが、発音用の音データとしてCPU7に認識される。なお、音質を変更するための操作がコントローラ17により実行されなかったときには、上記の音データが、発音用の音データとしてCPU7に認識される。   In this means, the CPU 7 recognizes sound data having a sound quality different from that of the sound data stored in the RAM 12. Here, for example, when the controller 17 is operated to change the sound quality, sound data having a sound quality different from the sound quality of the sound data is recognized by the CPU 7 as sound data for sound generation. When the operation for changing the sound quality is not executed by the controller 17, the sound data is recognized by the CPU 7 as sound data for sound generation.

発音経路認識手段62は、文字を発音するときの経路を規定するための発音経路設定命令をCPU7に認識させることにより、発音経路に位置する文字の位置データをCPU7に認識させる機能を備えている。発音経路認識手段62では、文字を発音するときの経路を規定するための発音経路設定命令をCPU7に認識させることにより、発音経路に位置する文字の位置データがCPU7に認識される。   The pronunciation path recognition means 62 has a function of causing the CPU 7 to recognize the position data of the character located in the pronunciation path by causing the CPU 7 to recognize a pronunciation path setting command for defining a path for generating a character. . In the sound generation path recognition means 62, the CPU 7 recognizes the position data of the character located in the sound generation path by causing the CPU 7 to recognize the sound generation path setting command for defining the path for generating the character.

この手段では、発音する経路を規定するための発音経路設定命令がCPU7に認識され、発音経路に位置する文字の位置データがCPU7に認識される。ここでは、たとえば、発音するときの経路を指示するためにコントローラ17が操作されると、コントローラ17により指示された発音経路に位置する文字の位置データが、CPU7に認識される。また、発音するときの経路を指示するための操作がコントローラ17により実行されなかったときには、所定の発音経路に位置する文字の位置データが、CPU7に認識される。なお、所定の発音経路は、ゲームプログラムにおいて予め規定されている。   In this means, the CPU 7 recognizes the sound generation path setting command for defining the sound generation path, and the CPU 7 recognizes the position data of the characters located in the sound generation path. Here, for example, when the controller 17 is operated to instruct a path for sound generation, the CPU 7 recognizes the position data of the character positioned in the sound generation path instructed by the controller 17. Further, when the operation for instructing the path for sound generation is not executed by the controller 17, the position data of the character positioned in the predetermined sound generation path is recognized by the CPU 7. The predetermined sound generation path is defined in advance in the game program.

発音終了位置認識手段63は、文字の発音を終了する発音終了位置を規定するための発音終了用の位置データを、CPU7に認識させる機能を備えている。発音終了位置認識手段63では、文字の発音を終了する発音終了位置を規定するための発音終了用の位置データが、CPU7に認識される。   The pronunciation end position recognizing means 63 has a function of causing the CPU 7 to recognize pronunciation end position data for defining the pronunciation end position at which the character pronunciation ends. In the pronunciation end position recognizing means 63, the CPU 7 recognizes the position data for the end of pronunciation for defining the end position of the pronunciation at which the pronunciation of the character is terminated.

この手段では、文字の発音を終了する発音終了位置を規定するための発音終了用の位置データが、CPU7に認識される。ここでは、ひらがなの表示形式に応じた位置データが、CPU7に認識される。たとえば、ひらがなの表示形式が表形式である場合、(i,j)のようなマトリックス形式の位置データが、CPU7に認識される。なお、文字の発音を終了する発音終了位置は、発音経路に応じて異なる位置に設定される。   In this means, the CPU 7 recognizes the position data for the end of pronunciation for defining the end position of the end of the pronunciation of the character. Here, the CPU 7 recognizes position data corresponding to the hiragana display format. For example, when the hiragana display format is a table format, the CPU 7 recognizes position data in a matrix format such as (i, j). It should be noted that the pronunciation end position where the character pronunciation ends is set to a different position depending on the sound generation path.

発音手段64は、発音開始位置に表示された文字を起点として、複数の文字の音を、文字データに対応する音データに基づいてスピーカ13から出力する機能を備えている。詳細には、発音手段64は、発音開始位置に表示された文字を起点として、発音経路に位置する複数の文字の音を、文字データに対応する音データに基づいてスピーカ13から出力する機能を備えている。より詳細には、発音手段64は、発音開始位置に表示された文字を起点として、所定の文字を含む複数の文字の音を、文字データに対応する音データおよび所定の文字データに対応する特殊音データの少なくともいずれか一方のデータに基づいて、スピーカ13から出力する機能を備えている。   The sound generation means 64 has a function of outputting sounds of a plurality of characters from the speaker 13 based on sound data corresponding to the character data, starting from the character displayed at the sound generation start position. Specifically, the sound generation means 64 has a function of outputting sounds of a plurality of characters located in the sound generation path from the speaker 13 based on the sound data corresponding to the character data, starting from the character displayed at the sound generation start position. I have. More specifically, the sound generation means 64 uses the character displayed at the sound generation start position as a starting point to generate sounds of a plurality of characters including a predetermined character as sound data corresponding to the character data and a special character corresponding to the predetermined character data. A function of outputting from the speaker 13 based on at least one of the sound data is provided.

また、発音手段64は、発音開始位置に表示された文字を起点として、複数の文字の音を、文字データに対応する音データに基づいて、設定された発音速度でスピーカ13から出力する機能を備えている。さらに、発音手段64は、発音開始位置に表示された文字を起点として、複数の文字の音を、文字データに対応する、上記の音データおよび上記の音データの音質とは異なる音質の音データのいずれか一方の音データに基づいて、スピーカ13から出力する機能を備えている。   The sound generation means 64 has a function of outputting sounds of a plurality of characters from the speaker 13 at a set sound generation speed based on sound data corresponding to the character data, starting from the character displayed at the sound generation start position. I have. Further, the sound generation means 64 uses the character displayed at the sound generation start position as a starting point, the sound data of a plurality of characters corresponding to the character data, and the sound data having a sound quality different from the sound quality of the sound data. Based on any one of the sound data, a function of outputting from the speaker 13 is provided.

この手段では、発音開始位置に表示された文字を起点として、発音経路に位置する複数の文字の音が、文字データに対応する音データに基づいてスピーカ13から出力される。ここでは、たとえば、発音の開始を指示するためにコントローラ17が操作されると、発音開始位置に表示された文字を起点として、発音経路に位置する、所定の文字を含む複数の文字の音が、文字データに対応する音データおよび所定の文字データに対応する特殊音データの少なくともいずれか一方のデータに基づいて、スピーカ13から出力される。なお、ここでは、上記の設定音質および設定速度で、音がスピーカ13から出力される。   With this means, the sound of a plurality of characters positioned in the sound generation path is output from the speaker 13 based on the sound data corresponding to the character data, starting from the character displayed at the sound generation start position. Here, for example, when the controller 17 is operated to instruct the start of pronunciation, the sounds of a plurality of characters including predetermined characters located in the pronunciation path are started from the character displayed at the pronunciation start position. The sound is output from the speaker 13 based on at least one of the sound data corresponding to the character data and the special sound data corresponding to the predetermined character data. Here, the sound is output from the speaker 13 at the set sound quality and the set speed.

発音数判断手段65は、所定数の文字が発音されたか否かをCPU7に判断させる機能を備えている。発音数判断手段65では、所定数の文字が発音されたか否かがCPU7により判断される。   The pronunciation number determination means 65 has a function of causing the CPU 7 to determine whether or not a predetermined number of characters have been pronounced. In the pronunciation number determination means 65, the CPU 7 determines whether or not a predetermined number of characters are pronounced.

この手段では、所定数の文字が発音されたか否かが、CPU7により判断される。ここでは、たとえば、3p個の文字が発音されたか否かが、CPU7により判断される。具体的には、3p個の音データがスピーカ13から出力されたか否かが、CPU7により判断される。ここでpは自然数である。   In this means, the CPU 7 determines whether or not a predetermined number of characters are pronounced. Here, for example, the CPU 7 determines whether or not 3p characters are pronounced. Specifically, the CPU 7 determines whether 3p sound data is output from the speaker 13. Here, p is a natural number.

第1報知音出力手段66は、所定数の文字が発音されたとCPU7により判断された場合に、第1報知音を第1報知音データに基づいてスピーカ13から出力する機能を備えている。第1報知音出力手段66では、所定数の文字が発音されたとCPU7により判断された場合に、第1報知音が、第1報知音データに基づいてスピーカ13から出力される。   The first notification sound output means 66 has a function of outputting the first notification sound from the speaker 13 based on the first notification sound data when the CPU 7 determines that a predetermined number of characters are pronounced. In the first notification sound output means 66, when the CPU 7 determines that a predetermined number of characters are pronounced, the first notification sound is output from the speaker 13 based on the first notification sound data.

この手段では、所定数の文字が発音されたとCPU7により判断された場合に、第1報知音が、第1報知音データに基づいてスピーカ13から出力される。たとえば、3p個の音データがスピーカ13から出力されたとCPU7により判断された場合に、第1報知音が、第1報知音データに基づいてスピーカ13から出力される。   In this means, when the CPU 7 determines that a predetermined number of characters are pronounced, the first notification sound is output from the speaker 13 based on the first notification sound data. For example, when the CPU 7 determines that 3p pieces of sound data are output from the speaker 13, the first notification sound is output from the speaker 13 based on the first notification sound data.

発音終了判断手段67は、発音終了用の位置データにより規定される発音終了位置の文字が発音されたか否かを、CPU7に判断させる機能を備えている。発音終了判断手段67では、発音終了用の位置データにより規定される発音終了位置の文字が発音されたか否かが、CPU7により判断される。   The pronunciation end determination means 67 has a function of causing the CPU 7 to determine whether or not the character at the pronunciation end position defined by the position data for end of pronunciation has been generated. In the pronunciation end determination means 67, the CPU 7 determines whether or not the character at the pronunciation end position defined by the position data for end of pronunciation has been generated.

この手段では、発音終了用の位置データにより規定される発音終了位置の文字が発音されたか否かが、CPU7により判断される。ここでは、たとえば、発音終了位置の文字に対応する音データがスピーカ13から出力されたか否かが、CPU7により判断される。   In this means, the CPU 7 determines whether or not the character at the pronunciation end position defined by the position data for end of pronunciation has been pronounced. Here, for example, the CPU 7 determines whether or not sound data corresponding to the character at the pronunciation end position is output from the speaker 13.

第2報知音出力手段68は、発音終了位置の文字が発音されたとCPU7により判断された場合に、第2報知音を第2報知音データに基づいてスピーカ13から出力する機能を備えている。第2報知音出力手段68では、発音終了位置の文字が発音されたとCPU7により判断された場合に、第2報知音が、第2報知音データに基づいてスピーカ13から出力される。   The second notification sound output means 68 has a function of outputting the second notification sound from the speaker 13 based on the second notification sound data when the CPU 7 determines that the character at the pronunciation end position has been generated. In the second notification sound output means 68, when the CPU 7 determines that the character at the pronunciation end position has been generated, the second notification sound is output from the speaker 13 based on the second notification sound data.

この手段では、発音終了位置の文字が発音されたとCPU7により判断された場合に、第2報知音が、第2報知音データに基づいてスピーカ13から出力される。たとえば、発音終了位置の文字に対応する音データがスピーカ13から出力されたとCPU7により判断された場合に、第2報知音が、第2報知音データに基づいてスピーカ13から出力される。   In this means, when the CPU 7 determines that the character at the pronunciation end position is pronounced, the second notification sound is output from the speaker 13 based on the second notification sound data. For example, when the CPU 7 determines that the sound data corresponding to the character at the pronunciation end position is output from the speaker 13, the second notification sound is output from the speaker 13 based on the second notification sound data.

〔野球ゲームにおけるパスワード読み上げシステムの処理フローと説明〕
次に、野球ゲームにおけるパスワード読み上げシステムについて説明する。ここに示すパスワードとは、野球ゲームにおける選手パスワードのことである。選手パスワードは、複数のランダムな文字列たとえばランダムな複数のひらがなから構成されている。
[Processing flow and explanation of password reading system in baseball game]
Next, a password reading system in a baseball game will be described. The password shown here is a player password in a baseball game. The player password is composed of a plurality of random character strings, for example, a plurality of random hiragana characters.

この選手パスワードは、選手キャラクタの基本情報および能力情報等を所定のアルゴリズムに基づいてエンコードすることにより、生成することができる。また、この選手パスワードを所定のアルゴリズムに基づいてデコードすることにより、選手キャラクタの基本情報および能力情報等を復元することができる。このように、野球ゲームでは、選手パスワードと選手キャラクタの基本情報および能力情報との間を双方向に変換可能になっている。   This player password can be generated by encoding the player character's basic information and ability information based on a predetermined algorithm. Further, by decoding the player password based on a predetermined algorithm, it is possible to restore the player character's basic information and ability information. Thus, in the baseball game, the player password and the basic information and ability information of the player character can be converted bidirectionally.

以下では、図9および図10に示すフローについても同時に説明する。なお、図9は野球ゲームの全体概要を説明するためのフローであり、図10はパスワード読み上げシステムを説明するためのフローである。   In the following, the flows shown in FIGS. 9 and 10 will also be described. FIG. 9 is a flow for explaining the overall outline of the baseball game, and FIG. 10 is a flow for explaining the password reading system.

まず、ゲーム装置の電源が投入されゲーム装置が起動されると、野球ゲームプログラムが、記録媒体10からRAM12にロードされ格納される。このときには、野球ゲームを実行する上で必要となる各種の基本ゲームデータも、同時に、記録媒体10からRAM12にロードされ格納される(S1)。   First, when the game apparatus is turned on and the game apparatus is activated, a baseball game program is loaded from the recording medium 10 into the RAM 12 and stored. At this time, various basic game data necessary for executing the baseball game are simultaneously loaded from the recording medium 10 into the RAM 12 and stored (S1).

たとえば、基本ゲームデータには、3次元ゲーム空間用の各種の画像に関するデータが含まれている。そして、この3次元ゲーム空間用の各種の画像に関するデータ、たとえば、スタジアム用の画像データ、選手キャラクタ用の画像データ、および各種のオブジェクトの画像データ等が、CPU7に認識される。また、基本ゲームデータには、3次元ゲーム空間用の各種の画像に関するデータを3次元ゲーム空間に配置するための位置座標データが含まれている。また、基本ゲームデータには、後述するパスワード読み上げシステムで用いられるデータも、含まれている。   For example, the basic game data includes data related to various images for a three-dimensional game space. The CPU 7 recognizes data related to various images for the three-dimensional game space, such as stadium image data, player character image data, and various object image data. Further, the basic game data includes position coordinate data for arranging data related to various images for the three-dimensional game space in the three-dimensional game space. The basic game data also includes data used in a password reading system described later.

続いて、RAM12に格納された野球ゲームプログラムが、基本ゲームデータに基づいて、CPU7により実行される(S2)。すると、野球ゲームの起動画面がテレビジョンモニタ20に表示される。すると、野球ゲームを実行するための各種の設定画面がテレビジョンモニタ20に表示される。ここでは、たとえば、野球ゲームのプレイモードを選択するためのモード選択画面が、テレビジョンモニタ20に表示される(図示しない)。このモード選択画面において、プレイヤがコントローラ17を操作することにより、プレイモードが決定される(S3)。プレイモードには、たとえば、12球団の中から好きなチームを選択して1試合の対戦を楽しむ対戦モード、12球団の中から好きなチームを選択してペナントレースを戦うペナントモード、およびプレイヤが監督の立場でチームの選手キャラクタを育成する育成モード等が、用意されている。   Subsequently, the baseball game program stored in the RAM 12 is executed by the CPU 7 based on the basic game data (S2). Then, the start screen of the baseball game is displayed on the television monitor 20. Then, various setting screens for executing the baseball game are displayed on the television monitor 20. Here, for example, a mode selection screen for selecting a play mode of the baseball game is displayed on the television monitor 20 (not shown). In the mode selection screen, the player operates the controller 17 to determine the play mode (S3). The play mode includes, for example, a battle mode in which a favorite team is selected from 12 teams to enjoy one game, a pennant mode in which a favorite team is selected from the 12 teams and a pennant race is played, and a player A training mode for training team player characters from the manager's standpoint is provided.

続いて、モード選択画面で選択されたプレイモードにおいて、各種のイベントが、CPU7により実行される(S4)。ここで実行される各種のイベントには、たとえば、AIプログラム(Artificial Intelligence プログラム)に基づいてCPU7により自動制御されるイベントや、コントローラ17からの入力信号に基づいてプレイヤにより手動制御されるイベントのようなイベントがある。また、選手キャラクタの制御には、AIプログラムに基づいて選手キャラクタに命令を自動的に指示する自動制御や、コントローラ17からの入力信号に基づいて選手キャラクタに命令を直接的に指示する手動制御等がある。このように、本野球ゲームでは、コントローラ17からの指示やAIプログラムからの指示に応じて、イベントが制御されたり、選手キャラクタに命令が指示されたりするようになっている。   Subsequently, various events are executed by the CPU 7 in the play mode selected on the mode selection screen (S4). The various events executed here include, for example, events automatically controlled by the CPU 7 based on an AI program (Artificial Intelligence program), and events manually controlled by the player based on an input signal from the controller 17. There is a special event. The player character is controlled by automatic control for automatically instructing the player character based on the AI program, manual control for directly instructing the player character based on an input signal from the controller 17, or the like. There is. Thus, in this baseball game, an event is controlled or an instruction is instructed to the player character in accordance with an instruction from the controller 17 or an instruction from the AI program.

続いて、選択されたプレイモードが終了したか否かが、CPU7により判断される(S5)。具体的には、プレイモードが終了したことを示す命令が発行されたか否かが、CPU7により判断される。そして、プレイモードが終了したことを示す命令が発行されたとCPU7により判断された場合(S5でYes)、ゲーム継続用のデータをRAM12に格納する処理が、CPU7により実行される。そして、ゲーム継続用のデータがRAM12に格納されると、この野球ゲームを終了するか否かを選択する選択画面が、テレビジョンモニタ20に表示される(S6)。そして、この選択画面において、プレイヤがコントローラ17を操作することにより、野球ゲームの終了を示す項目が選択されると(S6でYes)、野球ゲームを終了するための処理がCPU7により実行される(S7)。一方で、この選択画面において、プレイヤがコントローラ17を操作することにより、野球ゲームの継続を示す項目が選択されると(S6でNo)、ステップ3(S3)のモード選択画面が、テレビジョンモニタ20に再表示される。   Subsequently, the CPU 7 determines whether or not the selected play mode is finished (S5). Specifically, the CPU 7 determines whether or not a command indicating that the play mode has ended is issued. If the CPU 7 determines that an instruction indicating that the play mode has ended has been issued (Yes in S5), the CPU 7 executes a process of storing the game continuation data in the RAM 12. When the game continuation data is stored in the RAM 12, a selection screen for selecting whether or not to end the baseball game is displayed on the television monitor 20 (S6). When an item indicating the end of the baseball game is selected by operating the controller 17 on the selection screen (Yes in S6), the CPU 7 executes a process for ending the baseball game ( S7). On the other hand, when an item indicating continuation of the baseball game is selected by operating the controller 17 on the selection screen (No in S6), the mode selection screen in Step 3 (S3) is displayed on the television monitor. 20 is displayed again.

なお、プレイモードが終了するための命令が発行されたとCPU7に判断されない限り(S5でNo)、モード選択画面で選択されたプレイモードにおいて、各種のイベントがCPU7により実行される(S4)。   Unless the CPU 7 determines that an instruction for ending the play mode has been issued (No in S5), various events are executed by the CPU 7 in the play mode selected on the mode selection screen (S4).

次に、パスワード読み上げシステムの詳細を説明する。   Next, details of the password reading system will be described.

野球ゲームプログラムおよび基本ゲームデータは、上記のステップ1(S1)においてRAM12に格納されている。基本ゲームデータには、たとえば、パスワード読み上げシステムで用いられる第1報知音データが、含まれている。第1報知音データは、所定数のひらがなが発音されたことを報知するためのものである。第1報知音データとしては、たとえば、音量が所定量である場合の報知音データすなわち有音の第1報知音データと、音量がゼロである場合の報知音データすなわち無音の第1報知音データとが、用意されている。   The baseball game program and the basic game data are stored in the RAM 12 in the above step 1 (S1). The basic game data includes, for example, first notification sound data used in a password reading system. The first notification sound data is for notifying that a predetermined number of hiragana has been pronounced. As the first notification sound data, for example, notification sound data when the sound volume is a predetermined amount, that is, first sound information data with sound, and notification sound data when the sound volume is zero, that is, silent first notification sound data. And are prepared.

ここでは、無音の第1報知音データが、第1報知音データとして用いられる場合を例として説明を行う。たとえば、無音の第1報知音データは、複数のひらがなが発音されるときの時間間隔DTよりも長い間、無音状態が継続するように作成されている。なお、ここでは、無音の第1報知音データをスピーカ13より出力する処理をCPU7に実行させることにより、無音状態が実現されるようになっている。   Here, a case where silent first notification sound data is used as the first notification sound data will be described as an example. For example, the silent first notification sound data is created so that the silent state continues for a longer time interval DT when a plurality of hiragana sounds. Here, the silent state is realized by causing the CPU 7 to execute a process of outputting the silent first notification sound data from the speaker 13.

また、この基本ゲームデータには、たとえば、パスワード読み上げシステムで用いられる第2報知音データが、含まれている。第2報知音データは、発音終了位置に位置するひらがなが発音されたことを報知するためのものである。第2報知音データとしては、たとえば、音量が所定量である場合の報知音データすなわち有音の第2報知音データが、用意されている。   In addition, the basic game data includes, for example, second notification sound data used in a password reading system. The second notification sound data is for notifying that the hiragana located at the pronunciation end position has been generated. As the second notification sound data, for example, notification sound data when the volume is a predetermined amount, that is, second notification sound data with sound is prepared.

なお、第1報知音の音量および第2報知音の音量は、ゲームプログラムにおいて所定の音量に設定されている。しかしながら、この音量は、プレイヤがコントローラ17を操作することにより、プレイヤの所望する音量に変更することが可能になっている。   Note that the volume of the first notification sound and the volume of the second notification sound are set to predetermined volumes in the game program. However, this sound volume can be changed to a sound volume desired by the player by operating the controller 17.

以上のような第1報知音データおよび第2報知音データは、上記のステップ1(S1)においてRAM12に格納されている。   The first notification sound data and the second notification sound data as described above are stored in the RAM 12 in the above step 1 (S1).

続いて、上記のステップ2(S2)において、RAM12に格納された野球ゲームプログラムが、基本ゲームデータに基づいて実行されると、野球ゲームを実行するための各種の設定画面がテレビジョンモニタ20に表示される。   Subsequently, in step 2 (S2), when the baseball game program stored in the RAM 12 is executed based on the basic game data, various setting screens for executing the baseball game are displayed on the television monitor 20. Is displayed.

ここでは、たとえば、選手パスワードを入力するためのパスワード入力画面21が、図3に示すように、テレビジョンモニタ20に表示される(S201)。このパスワード入力画面21は、パスワード表示エリア21aとワード指示エリア21bとから構成されている。パスワード表示エリア21aは、テレビジョンモニタ20の上部に表示されている。このパスワード表示エリア21aには、初期状態では空白文字が表示されている。また、ワード指示エリア21bは、テレビジョンモニタ20の下部に表示されている。このワード指示エリア21bには、コントローラ17により選択可能な50音のひらがなが表示されている。なお、本実施形態では、「50音のひらがな」という文言が、「濁点が付されたひらがなおよび半濁点がふされたひらがな」を含んだ文言であると解釈して、用いられている。   Here, for example, a password input screen 21 for inputting a player password is displayed on the television monitor 20 as shown in FIG. 3 (S201). The password input screen 21 includes a password display area 21a and a word instruction area 21b. The password display area 21a is displayed on the top of the television monitor 20. In the password display area 21a, blank characters are displayed in the initial state. The word instruction area 21b is displayed at the bottom of the television monitor 20. In this word instruction area 21b, hiragana of 50 sounds that can be selected by the controller 17 is displayed. In the present embodiment, the phrase “50 hiragana” is used by interpreting it as a phrase including “a hiragana with a dakuten and a hiragana with a semi-dakuten”.

パスワード入力画面21がテレビジョンモニタ20に表示された状態において、プレイヤがコントローラ17を操作すると、コントローラ17からの入力信号に対応するワード指示エリア21bのひらがなが選択される。すると、選択されたひらがなに対応する文字データ、すなわちひらがな用の文字データM(i,j)が、CPU7に認識される(S202)。なお、ここに示した(i,j)は、後述する位置データに対応している。   When the player operates the controller 17 in a state where the password input screen 21 is displayed on the television monitor 20, the hiragana of the word instruction area 21b corresponding to the input signal from the controller 17 is selected. Then, the character data corresponding to the selected hiragana, that is, the character data M (i, j) for hiragana is recognized by the CPU 7 (S202). Note that (i, j) shown here corresponds to position data described later.

具体的には、選択されたひらがなに対応する文字コードのコード番号Nが、ひらがな用の文字データM(i,j)としてCPU7に認識される(M(i,j)=N)。すると、選択されたひらがなに対応する音データS(N)が、CPU7に認識される(S203)。具体的には、選択されたひらがなのコード番号Nに対応する音データS(N)が、CPU7に認識される。   Specifically, the code number N of the character code corresponding to the selected hiragana is recognized by the CPU 7 as character data M (i, j) for hiragana (M (i, j) = N). Then, the sound data S (N) corresponding to the selected hiragana is recognized by the CPU 7 (S203). Specifically, the CPU 7 recognizes the sound data S (N) corresponding to the selected hiragana code number N.

このように、選択されたひらがなに対応するコード番号NがCPU7に認識されると、このコード番号Nに対応する、文字および音データS(N)がCPU7に認識される。ここで、コード番号Nは、各文字に付与されている番号である。このコード番号をエンコードすることにより、コード番号を文字に変換することができる。   In this way, when the CPU 7 recognizes the code number N corresponding to the selected hiragana, the CPU 7 recognizes the character and sound data S (N) corresponding to the code number N. Here, the code number N is a number assigned to each character. By encoding the code number, the code number can be converted into a character.

なお、50音のひらがなそれぞれに対応する文字データM(i,j)、および50音のひらがなそれぞれに対応する音データS(N)は、基本ゲームデータに含まれている。また、文字データM(i,j)と音データS(N)との対応関係は、たとえば対応テーブル等により、ゲームプログラムにおいて予め規定されている。   The character data M (i, j) corresponding to each of the 50 sound hiragana and the sound data S (N) corresponding to each of the 50 sound hiragana are included in the basic game data. The correspondence between the character data M (i, j) and the sound data S (N) is defined in advance in the game program, for example, by a correspondence table or the like.

すると、選択されたひらがなをテレビジョンモニタ20の所定の位置に表示するための位置データが、CPU7に認識される(S204)。ここでは、パスワード表示エリア21aが表形式になっているので、(i,j)のようなマトリックス形式の位置データが、選択されたひらがなの表示位置を示す位置データとしてCPU7に認識される(図5を参照)。たとえば、選択されたひらがなが最初の1文字目であった場合、(1,1)のようなマトリックス形式の位置データが、1文字目に選択されたひらがなの位置データとしてCPU7に認識される。   Then, position data for displaying the selected hiragana at a predetermined position on the television monitor 20 is recognized by the CPU 7 (S204). Here, since the password display area 21a is in a table format, position data in a matrix format such as (i, j) is recognized by the CPU 7 as position data indicating the display position of the selected hiragana (FIG. 5). For example, when the selected hiragana is the first character, the position data in the matrix format such as (1, 1) is recognized by the CPU 7 as the position data of the hiragana selected as the first character.

すると、選択されたひらがなが、位置データにより規定された位置においてテレビジョンモニタ20に表示される(S205)。具体的には、選択されたひらがなすなわちコード番号Nに対応するひらがなが、ひらがなの位置データ(i,j)により規定された位置において、テレビジョンモニタ20に表示される。たとえば、選択されたひらがなが最初の1文字目であった場合、コード番号Nに対応するひらがなが、ひらがなの位置データ(1,1)により規定された位置、たとえばパスワード表示エリア21aの右上の位置に表示される。   Then, the selected hiragana is displayed on the television monitor 20 at the position defined by the position data (S205). Specifically, the selected hiragana, that is, the hiragana corresponding to the code number N is displayed on the television monitor 20 at the position defined by the hiragana position data (i, j). For example, when the selected hiragana is the first character, the hiragana corresponding to the code number N is a position defined by the hiragana position data (1, 1), for example, the upper right position of the password display area 21a. Is displayed.

この操作が繰り返されることにより、選手パスワードを構成する複数のひらがなそれぞれに対応する文字データM(i,j)が、CPU7に認識される。具体的には、複数のひらがなそれぞれに対応する文字コードのコード番号Nが、ひらがな用の文字データM(i,j)としてCPU7に認識される。そして、、選手パスワードを構成する複数のひらがなそれぞれに対応する音データS(N)が、CPU7に認識される。具体的には、複数のひらがなそれぞれのコード番号Nに対応する音データS(N)が、CPU7に認識される。   By repeating this operation, the CPU 7 recognizes character data M (i, j) corresponding to each of a plurality of hiragana characters constituting the player password. Specifically, the code number N of the character code corresponding to each of the plurality of hiragana characters is recognized by the CPU 7 as character data M (i, j) for hiragana characters. Then, the CPU 7 recognizes sound data S (N) corresponding to each of a plurality of hiragana characters constituting the player password. Specifically, the CPU 7 recognizes sound data S (N) corresponding to the respective code numbers N of the plurality of hiragana characters.

そして、選手パスワードを構成する複数のひらがなそれぞれに対応する位置データが、CPU7に認識される。たとえば、選手パスワードを構成する複数のひらがなそれぞれに対応するマトリックス形式の位置データ(i,j)が、CPU7に認識される。   Then, the position data corresponding to each of the plurality of hiragana characters constituting the player password is recognized by the CPU 7. For example, the CPU 7 recognizes matrix-type position data (i, j) corresponding to each of a plurality of hiragana characters constituting the player password.

具体的には、選手パスワードを構成する複数のひらがなの文字数がL文字である場合、1文字目のひらがなからL文字目のひらがなまでの各文字に対応する位置データ(i,j)が、CPU7に認識される。   Specifically, when the number of characters of the plurality of hiragana characters constituting the player password is L characters, the position data (i, j) corresponding to each character from the first character hiragana to the L character hiragana is the CPU 7. Recognized.

ここでは、1文字目のひらがなに対応する位置データが、(1,1)に設定されている。そして、図5に示すように、パスワード表示エリア21aの横方向のセル数がm個である場合、2文字目からm文字目までの位置データ(i,j)が、(2,1)から(m,1)までの値に設定される。そして、(m+1)文字目から(2m)文字目までの位置データ(i,j)が、(1,2)から(m,2)までの値に設定される。このように設定された、複数のひらがなそれぞれに対応する、パスワード表示エリア21aの各行のm個のセルそれぞれの位置を示す位置データ(i,j)が、CPU7に認識される。   Here, the position data corresponding to the first character hiragana is set to (1, 1). As shown in FIG. 5, when the number of cells in the horizontal direction of the password display area 21a is m, the position data (i, j) from the second character to the m-th character is from (2, 1). A value up to (m, 1) is set. Then, the position data (i, j) from the (m + 1) th character to the (2m) th character is set to a value from (1,2) to (m, 2). The CPU 7 recognizes the position data (i, j) indicating the position of each of the m cells in each row of the password display area 21a corresponding to each of the plurality of hiragana thus set.

そして、選手パスワードを構成する複数のひらがなそれぞれが、位置データ(i,j)により規定された位置において、テレビジョンモニタ20に表示される。たとえば、選手パスワードを構成する複数のひらがなそれぞれに対応するコード番号Nに基づいて、複数のひらがなそれぞれが、ひらがなの位置データ(i,j)により規定された位置において、テレビジョンモニタ20に表示される。   Each of the plurality of hiragana characters constituting the player password is displayed on the television monitor 20 at the position defined by the position data (i, j). For example, based on the code number N corresponding to each of a plurality of hiragana characters constituting the player password, each of the plurality of hiragana characters is displayed on the television monitor 20 at a position defined by the hiragana position data (i, j). The

具体的には、選手パスワードを構成する複数のひらがなそれぞれに対応するコード番号Nをエンコードする処理をCPU7に実行させることにより、コード番号Nがひらがなに変換される。そして、変換されたひらがなが、ひらがなの位置データ(i,j)により規定された位置において、テレビジョンモニタ20に表示される。   Specifically, the code number N is converted into the hiragana by causing the CPU 7 to execute a process of encoding the code number N corresponding to each of a plurality of hiragana constituting the player password. Then, the converted hiragana is displayed on the television monitor 20 at a position defined by the hiragana position data (i, j).

なお、パスワード表示エリア21aにおいてひらがなが入力されていないセルには、空白文字(所定の文字)が表示されている。この場合には、空白文字に対応する文字データM(i,j)、すなわち空白文字に対応する文字コードのコード番号TNが、特殊文字用の文字データTM(i,j)(=M(i,j)=TN)としてCPU7に認識される(S206)。また、空白文字に対応する音データS(TN)、すなわち空白文字用のコード番号TNに対応する音データS(TN)が、特殊音データTS(TN)(=S(TN))としてCPU7に認識される(S207)。さらに、空白文字の表示位置を示す位置データ、すなわち空白文字の表示位置を示すマトリックス形式の位置データ(i,j)が、CPU7に認識される(S208)。   Note that blank characters (predetermined characters) are displayed in cells in which no hiragana characters are entered in the password display area 21a. In this case, the character data M (i, j) corresponding to the blank character, that is, the code number TN of the character code corresponding to the blank character is the character data TM (i, j) (= M (i , J) = TN) is recognized by the CPU 7 (S206). Also, the sound data S (TN) corresponding to the blank character, that is, the sound data S (TN) corresponding to the code number TN for the blank character is sent to the CPU 7 as the special sound data TS (TN) (= S (TN)). Recognized (S207). Further, the position data (i, j) indicating the display position of the blank character, that is, the matrix format position data (i, j) indicating the display position of the blank character is recognized by the CPU 7 (S208).

このようにして、複数のひらがなから構成される選手パスワードが、ワード指示エリア21bから入力されると、図4に示すように、選手パスワードを構成するひらがながパスワード表示エリア21aに表示され、選手パスワードを構成するひらがな用の文字データM(i,j)、空白文字用の文字データTM(i,j)、ひらがな用の音データS(N)、空白文字用の音データTS(TN)、および位置データ(i,j)等がCPU7に認識される。   In this way, when a player password composed of a plurality of hiragana characters is input from the word instruction area 21b, the hiragana characters constituting the player password are displayed in the password display area 21a as shown in FIG. Character data M (i, j) for hiragana, character data TM (i, j) for blank characters, sound data S (N) for hiragana, sound data TS (TN) for blank characters, and The position data (i, j) and the like are recognized by the CPU 7.

続いて、発音を開始する発音開始位置を指示するための指示がコントローラ17から行われたか否かが、CPU7により判断される(S209)。たとえば、発音を開始する発音開始位置を指示するための入力信号がコントローラ17から入力されたか否かが、CPU7により判断される。そして、発音を開始する発音開始位置を指示するための入力信号がコントローラ17から入力された場合(S209でYes)、入力信号に対応する発音開始位置を示す位置データ(i_st,j_st)が、CPU7に認識される(S210)。   Subsequently, the CPU 7 determines whether or not an instruction for instructing a sounding start position for starting sounding is issued from the controller 17 (S209). For example, the CPU 7 determines whether or not an input signal for instructing a sound generation start position for starting sound generation is input from the controller 17. When an input signal for instructing a sound generation start position for starting sound generation is input from the controller 17 (Yes in S209), position data (i_st, j_st) indicating the sound generation start position corresponding to the input signal is stored in the CPU 7. (S210).

一方で、発音を開始する発音開始位置を指示するための入力信号がコントローラ17から未入力である場合(S209でNo)、発音開始位置を示す所定の位置データが、CPU7に認識される(S211)。なお、発音開始位置が未指示である場合の所定の位置データは、ゲームプログラムにおいて予め規定されている。ここでは、マトリックス形式の位置データ(1,1)が、発音開始位置が未指示である場合の所定の位置データとして設定されている。   On the other hand, when the input signal for instructing the sound generation start position for starting sound generation is not input from the controller 17 (No in S209), predetermined position data indicating the sound generation start position is recognized by the CPU 7 (S211). ). Note that the predetermined position data in the case where the pronunciation start position has not been specified is defined in advance in the game program. Here, the position data (1, 1) in matrix format is set as predetermined position data when the sound generation start position is not designated.

続いて、発音速度を設定するための指示がコントローラ17から行われたか否かが、CPU7により判断される(S212)。たとえば、発音速度を設定するための入力信号がコントローラ17から入力されたか否かが、CPU7により判断される。そして、発音速度を設定するための入力信号がコントローラ17から入力された場合(S212でYes)、図6に示すような発音速度を設定するための速度設定メータが、テレビジョンモニタ20に表示される。そして、この速度設定メータにおいてプレイヤの所望するレベルの速度が選択されると、選択されたレベルの発音速度が、CPU7に認識される(S213)。   Subsequently, the CPU 7 determines whether or not an instruction for setting the sound generation speed is issued from the controller 17 (S212). For example, the CPU 7 determines whether or not an input signal for setting the sound generation speed is input from the controller 17. When an input signal for setting the sound generation speed is input from the controller 17 (Yes in S212), a speed setting meter for setting the sound generation speed as shown in FIG. 6 is displayed on the television monitor 20. The When the speed setting level desired by the player is selected in the speed setting meter, the CPU 7 recognizes the selected sound generation speed (S213).

なお、この速度設定メータでは、レベル1からレベル5までの5段階の速度が設定できるようになっている。具体的には、レベル1からレベル5までの5段階の速度は、音データS(N)をスピーカ13から出力するときの時間間隔DTに基づいて設定されている。ここでは、音データS(N)をスピーカ13から出力するときの時間間隔DTが、たとえば、0.50秒(レベル1)、0.75秒(レベル2)、1.00秒(レベル3)、1.25秒(レベル4)、および1.50秒(レベル5)の5段階に設定できるようになっている。このため、速度設定メータにおいてプレイヤの所望するレベルの速度が選択されると、選択されたレベルの発音速度に対応する時間間隔DTが、CPU7に認識される。   In this speed setting meter, five speeds from level 1 to level 5 can be set. Specifically, the five speeds from level 1 to level 5 are set based on the time interval DT when the sound data S (N) is output from the speaker 13. Here, the time interval DT when the sound data S (N) is output from the speaker 13 is, for example, 0.50 second (level 1), 0.75 second (level 2), or 1.00 second (level 3). , 1.25 seconds (level 4), and 1.50 seconds (level 5). For this reason, when the speed setting meter selects the speed desired by the player, the time interval DT corresponding to the selected sound generation speed is recognized by the CPU 7.

一方で、発音速度を指示するための指示がコントローラ17により実行されなかった場合、所定のレベルの発音速度すなわち所定の時間間隔DTが、CPU7に認識される(S214)。ここでは、レベル3の発音速度に対応する時間間隔DTすなわち1.00秒が、所定の時間間隔DTに設定されている。   On the other hand, when the instruction for instructing the sound generation speed is not executed by the controller 17, a predetermined level of sound generation speed, that is, a predetermined time interval DT is recognized by the CPU 7 (S214). Here, the time interval DT corresponding to the level 3 sounding speed, that is, 1.00 seconds, is set as the predetermined time interval DT.

続いて、音質を変更するための指示がコントローラ17から行われたか否かが、CPU7により判断される(S215)。たとえば、音質を変更するための入力信号がコントローラ17から入力されたか否かが、CPU7により判断される。そして、音質を変更するための入力信号がコントローラ17から入力された場合(S215でYes)、図7に示すような音質リストが、テレビジョンモニタ20に表示される。そして、この音質リストにおいてプレイヤの所望する音質が選択されると、選択された音質の音データS’(N)が、CPU7に再認識される(S216)。   Subsequently, the CPU 7 determines whether or not an instruction for changing the sound quality has been issued from the controller 17 (S215). For example, the CPU 7 determines whether or not an input signal for changing the sound quality is input from the controller 17. When an input signal for changing the sound quality is input from the controller 17 (Yes in S215), a sound quality list as shown in FIG. 7 is displayed on the television monitor 20. When the sound quality desired by the player is selected in the sound quality list, the sound data S '(N) having the selected sound quality is recognized again by the CPU 7 (S216).

一方で、音質を変更するための指示がコントローラ17により実行されなかった場合、ステップ203(S203)でCPU7に認識された音データS(N)が、発音用の音データS(N)として用いられる。   On the other hand, when the instruction for changing the sound quality is not executed by the controller 17, the sound data S (N) recognized by the CPU 7 in step 203 (S203) is used as the sound data S (N) for sound generation. It is done.

ここでは、音質を変更するための指示が行われた場合(S215でYes)、パスワード表示エリア21aに表示された全てのひらがなの音データS(N)が、選択された音質の音データS’(N)に変更されるようになっている。しかしながら、たとえば、パスワード表示エリア21aに表示された一部のひらがなを選択した状態において、この処理をCPU7に実行させることにより、パスワード表示エリア21aに表示された全てのひらがなのうちの一部のひらがなだけを、異なる音質に変更することも可能である。   Here, when an instruction to change the sound quality is given (Yes in S215), all the hiragana sound data S (N) displayed in the password display area 21a is the sound data S 'of the selected sound quality. (N) is changed. However, for example, in a state where some hiragana characters displayed in the password display area 21a are selected, by causing the CPU 7 to execute this process, some hiragana characters among all the hiragana characters displayed in the password display area 21a. It is also possible to change only to a different sound quality.

続いて、発音する経路(発音経路)を設定するための指示がコントローラ17から行われたか否かが、CPU7により判断される(S217)。たとえば、発音経路を設定するための入力信号がコントローラ17から入力されたか否かが、CPU7により判断される。そして、発音経路を設定するための入力信号がコントローラ17から入力された場合(S217でYes)、図8に示すような発音経路リストが、テレビジョンモニタ20に表示される。そして、この発音経路リストにおいてプレイヤの所望する経路が選択されると、発音経路すなわち発音経路設定命令が、CPU7に認識される(S218)。すると、発音経路に位置するひらがなの位置データがCPU7に認識される(S219)。   Subsequently, the CPU 7 determines whether or not an instruction for setting a sound generation path (sound generation path) is issued from the controller 17 (S217). For example, the CPU 7 determines whether or not an input signal for setting a sound generation path is input from the controller 17. When an input signal for setting the sound generation path is input from the controller 17 (Yes in S217), a sound generation path list as shown in FIG. 8 is displayed on the television monitor 20. Then, when the route desired by the player is selected in the sounding route list, the sounding route, that is, the sounding route setting command is recognized by the CPU 7 (S218). Then, the position data of the hiragana located on the sound generation path is recognized by the CPU 7 (S219).

ここでは、発音経路リストにおいて、パターン1からパターン8までの発音経路が、用意されており選択可能になっている。   Here, sound generation paths from pattern 1 to pattern 8 are prepared and selectable in the sound generation path list.

具体的には、パターン1は、パスワード表示エリア21aにおいて、第1行目から第n行目までを左から右へと順次発音するパターンである。パターン2は、パスワード表示エリア21aにおいて、第n行目から第1行目までを左から右へと順次発音するパターンである。パターン3は、パスワード表示エリア21aにおいて、第1行目から第n行目までを右から左へと順次発音するパターンである。パターン4は、パスワード表示エリア21aにおいて、第n行目から第1行目までを右から左へと順次発音するパターンである。   Specifically, the pattern 1 is a pattern in which the first to nth lines are sequentially pronounced from left to right in the password display area 21a. Pattern 2 is a pattern in which the password display area 21a sequentially sounds from the nth line to the first line from left to right. Pattern 3 is a pattern in which the first to nth lines are sequentially pronounced from right to left in the password display area 21a. The pattern 4 is a pattern in which the password display area 21a sequentially sounds from the nth line to the first line from right to left.

また、具体的には、パターン5は、パスワード表示エリア21aにおいて、第1列目から第m列目までを上から下へと順次発音するパターンである。パターン6は、パスワード表示エリア21aにおいて、第m列目から第1列目までを上から下へと順次発音するパターンである。パターン7は、パスワード表示エリア21aにおいて、第1列目から第m列目までを下から上へと順次発音するパターンである。パターン8は、パスワード表示エリア21aにおいて、第m列目から第1列目までを下から上へと順次発音するパターンである。   Specifically, the pattern 5 is a pattern in which the first to m-th columns are sequentially generated from the top to the bottom in the password display area 21a. Pattern 6 is a pattern in which the m-th column to the first column are sequentially pronounced from top to bottom in the password display area 21a. The pattern 7 is a pattern in which the first to m-th columns are sequentially generated from the bottom to the top in the password display area 21a. The pattern 8 is a pattern in which the m-th column to the first column are sequentially generated from the bottom to the top in the password display area 21a.

一方で、発音経路を設定するための指示がコントローラ17により実行されなかった場合(S217でNo)、所定の発音経路に位置するひらがなの位置データが、CPU7に認識される(S220)。ここでは、図8に示した発音経路リストのうちの左上の発音経路、すなわちパターン1の発音経路が、所定の発音経路に設定されており、この発音経路に位置するひらがなの位置データがCPU7に認識される(S221)。   On the other hand, when the instruction for setting the sound generation path is not executed by the controller 17 (No in S217), the position data of the hiragana located in the predetermined sound generation path is recognized by the CPU 7 (S220). Here, the sounding path at the upper left of the sounding path list shown in FIG. 8, that is, the sounding path of pattern 1 is set as a predetermined sounding path, and the position data of the hiragana located in this sounding path is stored in the CPU 7. Recognized (S221).

続いて、選手パスワードを構成する複数のひらがなの発音を終了する発音終了位置を規定するための発音終了用の位置データが、CPU7に認識される(S222)。たとえば、選手パスワードを構成する複数のひらがなの発音を終了する発音終了位置を規定するための、発音終了用のマトリックス形式の位置データ(i,j)が、CPU7に認識される。   Subsequently, the CPU 7 recognizes the pronunciation end position data for defining the pronunciation end position at which the pronunciation of the plurality of hiragana characters constituting the player password is ended (S222). For example, the CPU 7 recognizes the position data (i, j) in the matrix format for the end of pronunciation for defining the end position of pronunciation at which the pronunciation of a plurality of hiragana characters constituting the player password ends.

ここでは、複数のひらがなの発音を終了する発音終了位置は、選択された発音経路に応じて異なる位置に設定される。たとえば、以下に示すように、選択された発音経路に対応する発音終了用の位置データ(i,j)が、CPU7に認識される。   Here, the pronunciation end position where the pronunciation of the plurality of hiragana characters ends is set to a different position according to the selected sound generation path. For example, as shown below, the CPU 7 recognizes the position data (i, j) for the end of sound generation corresponding to the selected sound generation path.

具体的には、選手パスワードを構成する複数のひらがなのうちの最後のひらがなの位置を示す位置データが(i_fn,j_fn)である場合、パターン1の発音経路では、発音終了位置を示す発音終了用の位置データは、(i_fn,j_fn)となる。たとえば、図4では(18,8)となる(図4の「ず」)。また、パターン2の発音経路では、発音終了位置を示す発音終了用の位置データは、(m,1)となる。たとえば、図4では(18,1)となる(図4の「ほ」)。また、パターン3の発音経路では、発音終了位置を示す発音終了用の位置データは、(1,j_fn)となる。たとえば、図4では(1,8)となる(図4の「た」)。また、パターン4の発音経路では、発音終了位置を示す発音終了用の位置データは、(1,1)となる。たとえば、図4では(1,1)となる(図4の「さ」)。   Specifically, when the position data indicating the position of the last hiragana among the plurality of hiraganas constituting the player password is (i_fn, j_fn), in the pronunciation path of pattern 1, the pronunciation end indicating the pronunciation end position The position data is (i_fn, j_fn). For example, in FIG. 4, (18, 8) is obtained (“Z” in FIG. 4). In the sound generation path of pattern 2, the position data for the end of sound generation indicating the sound end position is (m, 1). For example, in FIG. 4, (18, 1) is obtained (“H” in FIG. 4). In the sound generation path of pattern 3, the position data for the end of sound generation indicating the sound end position is (1, j_fn). For example, in FIG. 4, (1, 8) is obtained (“TA” in FIG. 4). In the sound generation path of pattern 4, the position data for the end of sound generation indicating the sound end position is (1, 1). For example, in FIG. 4, (1, 1) is obtained (“sa” in FIG. 4).

同様に、パターン5の発音経路では、発音終了位置を示す発音終了用の位置データは、(m,j_fn)又は(m,j_fn−1)となる。たとえば、図4では(18,8)となる(図4の「ず」)。また、パターン6の発音経路では、発音終了位置を示す発音終了用の位置データは、(1,j_fn)となる。たとえば、図4では(1,8)となる(図4の「た」)。また、パターン7の発音経路では、発音終了位置を示す発音終了用の位置データは、(m,1)となる。たとえば、図4では(18,1)となる(図4の「ほ」)。また、パターン8の発音経路では、発音終了位置を示す発音終了用の位置データは、(1,1)となる。たとえば、図4では(1,1)となる(図4の「さ」)。   Similarly, in the sound generation path of pattern 5, the position data for the end of sound generation indicating the sound end position is (m, j_fn) or (m, j_fn-1). For example, in FIG. 4, (18, 8) is obtained (“Z” in FIG. 4). In the sound generation path of pattern 6, the position data for the end of sound generation indicating the sound end position is (1, j_fn). For example, in FIG. 4, (1, 8) is obtained (“TA” in FIG. 4). In the sound generation path of the pattern 7, the sound end position data indicating the sound end position is (m, 1). For example, in FIG. 4, (18, 1) is obtained (“H” in FIG. 4). In the sound generation path of the pattern 8, the position data for the end of sound generation indicating the sound end position is (1, 1). For example, in FIG. 4, (1, 1) is obtained (“sa” in FIG. 4).

続いて、発音を開始するための指示がコントローラ17から行われたか否かが、CPU7により判断される(S223)。たとえば、発音開始を指示するための入力信号がコントローラ17から入力されたか否かが、CPU7により判断される。そして、発音開始を指示するための入力信号がコントローラ17から入力された場合(S223でYes)、発音開始位置に表示された文字(ひらがな又は空白文字)を起点として、空白文字を含む複数のひらがなの音が、ひらがな用の文字データM(i,j)に対応する音データS(N)、および特殊文字用の文字データTM(i,j)に対応する特殊音データS(TN)の少なくともいずれか一方のデータに基づいて、スピーカ13から出力される(S224)。   Subsequently, the CPU 7 determines whether or not an instruction for starting sound generation is given from the controller 17 (S223). For example, the CPU 7 determines whether or not an input signal for instructing the start of sound generation is input from the controller 17. When an input signal for instructing the start of sound generation is input from the controller 17 (Yes in S223), a plurality of hiragana characters including blank characters are started from the character (Hiragana or blank character) displayed at the sound generation start position. At least of the sound data S (N) corresponding to the character data M (i, j) for hiragana and the special sound data S (TN) corresponding to the character data TM (i, j) for special characters. Based on either one of the data, the data is output from the speaker 13 (S224).

たとえば、発音の開始を指示するための入力信号がコントローラ17から入力された場合、パスワード表示エリア21aの発音開始位置に表示された文字(ひらがな又は空白文字)を起点として、発音経路に位置する、空白文字を含む複数のひらがなの音が、ひらがな用の文字データM(i,j)に対応する音データS(N)、および特殊文字用の文字データTM(i,j)に対応する特殊音データS(TN)の少なくともいずれか一方のデータに基づいて、スピーカ13から出力される。なお、このときには、上述した設定済みの音質および発音速度で、音がスピーカ13から出力される。   For example, when an input signal for instructing the start of pronunciation is input from the controller 17, the character (hiragana or blank character) displayed at the pronunciation start position in the password display area 21 a is positioned as a starting point and is located in the pronunciation path. A plurality of hiragana sounds including blank characters are sound data S (N) corresponding to character data M (i, j) for hiragana and special sounds corresponding to character data TM (i, j) for special characters. Based on at least one of the data S (TN), the data is output from the speaker 13. At this time, the sound is output from the speaker 13 with the previously set sound quality and sound generation speed.

具体的には、発音の開始を指示するための入力信号がコントローラ17から入力された場合、CPU7に認識された発音経路に位置する文字(ひらがな又は空白文字)の位置データに基づいて、発音開始位置の文字(ひらがな又は空白文字)を含む、発音経路に位置する空白文字および複数のひらがなのいずれか一方の音が、ひらがな用の音データS(N)、および特殊文字用の特殊音データS(TN)の少なくともいずれか一方のデータに基づいて、スピーカ13から出力される。   Specifically, when an input signal for instructing the start of sound generation is input from the controller 17, sound generation starts based on the position data of characters (Hiragana or blank characters) located in the sound generation path recognized by the CPU 7. Any one of a blank character and a plurality of hiragana sounds located in the pronunciation path, including a character at a position (hiragana or blank character), is sound data S (N) for hiragana and special sound data S for special characters. Based on at least one of (TN) data, the data is output from the speaker 13.

より具体的には、発音開始位置を示す位置データ(i_st,j_st)が(1,1)であり発音経路がパターン1である場合、図4を参照すると、第1行目から第n行目までの各行の文字(ひらがな)の音が、左から右へと順にスピーカ13から連続的に発音される。なお、この場合は、発音終了用の位置データ(m,1)は、(18,8)となる(図4では「ず」に対応)。また、この場合は、発音経路に空白文字が含まれていないので、空白文字は発音されない。   More specifically, when the position data (i_st, j_st) indicating the sound generation start position is (1, 1) and the sound generation path is the pattern 1, referring to FIG. The sound of the characters (Hiragana) in each line up to is continuously generated from the speaker 13 in order from left to right. In this case, the position data (m, 1) for ending sound generation is (18, 8) (corresponding to “z” in FIG. 4). In this case, no blank character is pronounced because no blank character is included in the pronunciation path.

また、発音開始位置を示す位置データ(i_st,j_st)が(1,9)であり発音経路がパターン7である場合、図4を参照すると、まず、空白文字に対応する音が、空白文字用の文字データM(1,9)(=TM(1,9)=TN)に対応する音データS(TN)(=TS(TN))に基づいて、スピーカ13から出力される。そして、(1,8)から(1,1)までのひらがなに対応する音が、ひらがな用の文字データM(1,8)〜M(1,1)に対応する音データS(N)に基づいて、スピーカ13から連続的に出力される。同様に、第2列目から第18列目までの各列の文字(ひらがな又は空白文字)の音が、下から上へと順にスピーカ13から連続的に発音される。なお、この場合は、発音終了用の位置データ(m,1)は、(18,1)となる(図4では「ほ」に対応)。   If the position data (i_st, j_st) indicating the sound generation start position is (1, 9) and the sound generation path is the pattern 7, referring to FIG. 4, first, the sound corresponding to the blank character is for the blank character. Is output from the speaker 13 based on the sound data S (TN) (= TS (TN)) corresponding to the character data M (1,9) (= TM (1,9) = TN). And the sound corresponding to the hiragana characters from (1,8) to (1,1) becomes the sound data S (N) corresponding to the character data M (1,8) to M (1,1) for hiragana. Based on this, it is continuously output from the speaker 13. Similarly, the sounds of characters (Hiragana or blank characters) in each column from the second column to the eighteenth column are continuously generated from the speaker 13 in order from the bottom to the top. In this case, the position data (m, 1) for the end of sound generation is (18, 1) (corresponding to “ho” in FIG. 4).

このように、ひらがなに対応する音だけでなく空白文字に対応する音をも発音できるようにしたことで、様々な発音経路で選手パスワードが発音されても、プレイヤは、選手パスワードと空白文字とを識別しながら、テレビジョンモニタ20に表示された選手パスワードを確実に把握することができる。   In this way, not only the sound corresponding to hiragana but also the sound corresponding to the blank character can be pronounced, so that even if the player password is pronounced through various pronunciation paths, the player can The player password displayed on the television monitor 20 can be ascertained reliably.

続いて、パスワード表示エリア21aに表示されたひらがな(空白文字を含む)が発音されると(S224)、発音された文字の背景画像を変更する処理が、CPU7により実行される(S225)。たとえば、ひらがなの背景画像が白色である場合を一例として説明を行うと、あるひらがなが発音されたときに、発音されたひらがなの背景画像を白色から赤色へと変更する処理が、CPU7により実行される。これにより、プレイヤは、パスワード表示エリア21aを見たときに、発音済みのひらがなを、パスワード表示エリア21aにおいて確認することができる。   Subsequently, when the hiragana (including blank characters) displayed in the password display area 21a is pronounced (S224), the CPU 7 executes a process for changing the background image of the pronounced characters (S225). For example, a case where the background image of the hiragana is white will be described as an example. When a certain hiragana is pronounced, the CPU 7 executes a process of changing the sounded hiragana background image from white to red. The Thus, when the player looks at the password display area 21a, the player can check the hiragana that has been pronounced in the password display area 21a.

また、パスワード表示エリア21aに表示された複数のひらがな(空白文字を含む)の音が発音されているときには、所定数のひらがなが発音されたか否かが、CPU7により判断されている(S226)。ここでは、3p個の文字が発音されたか否か、たとえば3p個の音データS(N)がスピーカ13から出力されたか否かが、CPU7により判断される。ここでpは自然数である。   When a plurality of hiragana sounds (including blank characters) displayed in the password display area 21a are being pronounced, the CPU 7 determines whether or not a predetermined number of hiragana has been pronounced (S226). Here, the CPU 7 determines whether or not 3p characters are pronounced, for example, whether or not 3p sound data S (N) is output from the speaker 13. Here, p is a natural number.

具体的には、発音開始位置に表示されたひらがなが発音されると、発音数を示すパラメータkに「1」を加算する処理が行われる。ここで、発音開始位置に表示されたひらがなが発音される前のパラメータkには、初期値として「0」が割り当てられている。そして、発音開始位置に表示されたひらがなを含む発音経路に位置するひらがなが、1つ発音されるごとに、パラメータkを1づつインクリメントする処理が、CPU7により実行される。このパラメータkの値は1文字が発音されるごとにCPU7に参照され、このパラメータkの値が「3p」に等しいか否かが、CPU7により判断される。   Specifically, when the hiragana displayed at the pronunciation start position is pronounced, a process of adding “1” to the parameter k indicating the number of pronunciations is performed. Here, “0” is assigned as an initial value to the parameter k before the hiragana displayed at the pronunciation start position is pronounced. The CPU 7 executes a process of incrementing the parameter k by 1 each time one hiragana positioned in the sound generation path including the hiragana displayed at the sound generation start position is sounded. The value of the parameter k is referred to the CPU 7 every time a character is pronounced, and the CPU 7 determines whether or not the value of the parameter k is equal to “3p”.

そして、所定数の文字が発音されたとCPU7により判断された場合(S226でYes)、第1報知音が、RAM12に格納された第1報知音データに基づいてスピーカ13から出力される(S227)。たとえば、3p個(3個、6個、9個、・・・)の音データS(N),S(TN)がスピーカ13から出力されたとCPU7により判断された場合に、第1報知音が、RAM12に格納された第1報知音データに基づいてスピーカ13から出力される。具体的には、発音数を示すパラメータkの値が「3p」に等しくなった場合ごとに、第1報知音が、RAM12に格納された第1報知音データに基づいてスピーカ13から出力される。   When the CPU 7 determines that a predetermined number of characters have been pronounced (Yes in S226), the first notification sound is output from the speaker 13 based on the first notification sound data stored in the RAM 12 (S227). . For example, when the CPU 7 determines that 3p (3, 6, 9,...) Sound data S (N), S (TN) is output from the speaker 13, the first notification sound is output. The sound is output from the speaker 13 based on the first notification sound data stored in the RAM 12. Specifically, the first notification sound is output from the speaker 13 based on the first notification sound data stored in the RAM 12 every time the value of the parameter k indicating the number of pronunciations is equal to “3p”. .

続いて、上述した発音終了用の位置データにより規定される発音終了位置の文字が発音されたか否かが、CPU7により判断される(S228)。ここでは、たとえば、発音終了位置の文字データに対応する音データS(N)がスピーカ13から出力されたか否かが、CPU7により判断される。   Subsequently, the CPU 7 determines whether or not the character at the pronunciation end position defined by the above-mentioned position data for end of pronunciation has been generated (S228). Here, for example, the CPU 7 determines whether or not the sound data S (N) corresponding to the character data at the pronunciation end position is output from the speaker 13.

そして、発音終了位置の文字が発音されたとCPU7により判断された場合(S228でYes)、第2報知音が、RAM12に格納された第2報知音データに基づいてスピーカ13から出力される(S229)。たとえば、発音終了位置の文字に対応する音データS(N)がスピーカ13から出力されたとCPU7により判断された場合に、第2報知音が、RAM12に格納された第2報知音データに基づいてスピーカ13から出力される。   If the CPU 7 determines that the character at the pronunciation end position is pronounced (Yes in S228), the second notification sound is output from the speaker 13 based on the second notification sound data stored in the RAM 12 (S229). ). For example, when the CPU 7 determines that the sound data S (N) corresponding to the character at the pronunciation end position is output from the speaker 13, the second notification sound is based on the second notification sound data stored in the RAM 12. Output from the speaker 13.

続いて、選手パスワードの入力を終了するための指示がコントローラ17から行われたか否かが、CPU7により判断される(S230)。たとえば、選手パスワードの入力を終了するための入力信号がコントローラ17から入力されたか否かが、CPU7により判断される。そして、選手パスワードの入力を終了するための入力信号がコントローラ17から入力された場合(S230でYes)、選手パスワードがRAM12に格納される(S231)。一方で、選手パスワードの入力を終了するための入力信号がコントローラ17から未入力である場合(S230でNo)、ステップ201(S201)以降の処理を再実行できるようにCPU7が待機した状態になっている。   Subsequently, the CPU 7 determines whether or not an instruction for ending the player password input has been issued from the controller 17 (S230). For example, the CPU 7 determines whether or not an input signal for ending the player password input is input from the controller 17. When an input signal for ending the player password input is input from the controller 17 (Yes in S230), the player password is stored in the RAM 12 (S231). On the other hand, when the input signal for ending the player password input is not input from the controller 17 (No in S230), the CPU 7 is in a standby state so that the processing after Step 201 (S201) can be re-executed. ing.

上記のように、本実施形態では、プレイヤは、テレビジョンモニタ20を見なくても、テレビジョンモニタ20に表示された選手パスワード(複数のひらがな)および空白文字を、音で確認することができる。これにより、プレイヤは、テレビジョンモニタ20に表示された選手パスワードを、容易かつ間違いなく取得することができる。また、プレイヤは、選手パスワードを手元の紙等のような記録媒体からゲーム装置に誤入力したときの選手パスワードの誤った部分や、選手パスワードをテレビジョンモニタ20を見ながら手元の記録媒体に誤って書き取ってしまったときの選手パスワードの誤った部分等を、音を聞きながら容易に見つけ出すことができる。   As described above, in this embodiment, the player can confirm the player password (a plurality of hiragana characters) and blank characters displayed on the television monitor 20 with sound without looking at the television monitor 20. . Thus, the player can easily and definitely acquire the player password displayed on the television monitor 20. In addition, the player mistakenly inputs the player password to the game device from a recording medium such as paper at hand, or erroneously puts the player password on the recording medium at hand while watching the television monitor 20. You can easily find out the wrong part of the player password when you have written it down.

また、本実施形態では、プレイヤは、自分が所望する発音開始位置を制御部に認識させることにより、任意の位置から選手パスワードを音で確認することができる。これにより、プレイヤは、音を聞きながら、テレビジョンモニタ20に表示された選手パスワードを部分的に書き取ったり、選手パスワードの誤記部分を部分的に照合したりすることができる。また、プレイヤは、選手パスワードの誤記部分の照合を様々な経路で行うことができ、選手パスワードの誤記部分を容易に見つけ出すことができる。   Further, in the present embodiment, the player can confirm the player password from an arbitrary position by making the control unit recognize the sound generation start position desired by the player. Thereby, the player can partially write down the player password displayed on the television monitor 20 or can partially check the erroneously written portion of the player password while listening to the sound. In addition, the player can check the erroneously written portion of the player password through various routes, and can easily find the erroneously written portion of the player password.

また、本実施形態では、プレイヤは、自分が聞き取りやすい発音速度で選手パスワードを発音させることができる。これにより、プレイヤは、テレビジョンモニタ20に表示された選手パスワードを容易に書き取ったり、選手パスワードの誤記部分を容易に見つけ出したりすることができる。また、プレイヤは、自分が聞き取りやすい音質で選手パスワードを発音させることができる。これにより、プレイヤは、テレビジョンモニタ20に表示された選手パスワードを快適に書き取ったり、選手パスワードの誤記部分の照合を快適に行ったりすることができる。   Further, in this embodiment, the player can cause the player password to be pronounced at a pronunciation speed that is easy for him to hear. Thereby, the player can easily write down the player password displayed on the television monitor 20, or can easily find an erroneously written portion of the player password. Also, the player can pronounce the player password with a sound quality that is easy to hear. Thereby, the player can comfortably write down the player password displayed on the television monitor 20 or can easily check the erroneously written portion of the player password.

また、本実施形態では、プレイヤは、第1報知音により、所定数の文字が発音されたことを知ることができる。これにより、プレイヤは、一度に記憶できる範囲内の文字数(所定数の文字)ごとに、テレビジョンモニタ20に表示された選手パスワードを断続的に書き取ったり、選手パスワードの誤記部分を照合したりすることができる。   In the present embodiment, the player can know that a predetermined number of characters have been pronounced by the first notification sound. Thus, the player intermittently writes down the player password displayed on the television monitor 20 for each number of characters (predetermined number of characters) within a range that can be stored at one time, or checks the erroneously written portion of the player password. be able to.

また、プレイヤは、第2報知音により、文字の発音が終了したことを知ることができる。これにより、プレイヤは、スムーズに次の作業に移ることができる。すなわち、プレイヤは、次の作業、たとえばテレビジョンモニタ20に表示された選手パスワードを音で再確認する作業や、選手パスワードの誤記部分を音を聞きながら容易に再照合する作業に、スムーズに移行することができる。   In addition, the player can know that the pronunciation of the character has ended by the second notification sound. Thereby, the player can move to the next work smoothly. That is, the player smoothly shifts to the next work, for example, the work of reconfirming the player password displayed on the television monitor 20 by sound, or the process of easily re-verifying the incorrect part of the player password while listening to the sound. can do.

最後に、プレイヤは、発音経路に空白文字等の所定の文字が含まれていても、空白文字等の所定の文字を特殊音で識別することができる。これにより、プレイヤは、空白文字等の所定の文字と、空白文字等の所定の文字を除いた選手パスワードとを識別しながら、テレビジョンモニタ20に表示された選手パスワードを書き取ったり、選手パスワードの誤記部分を照合したりすることができる。   Finally, even when a predetermined character such as a blank character is included in the pronunciation path, the player can identify the predetermined character such as a blank character with a special sound. This allows the player to write down the player password displayed on the television monitor 20 while identifying a predetermined character such as a blank character and a player password excluding the predetermined character such as a blank character, It is possible to collate misprinted parts.

〔他の実施形態〕
(a)前記実施形態では、ゲームプログラムを適用しうるコンピュータの一例としての家庭用ビデオゲーム装置を用いた場合の例を示したが、ゲーム装置は、前記実施形態に限定されず、モニタが別体に構成されたゲーム装置、モニタが一体に構成されたゲーム装置、ゲームプログラムを実行することによってゲーム装置として機能するパーソナルコンピュータやワークステーションなどにも同様に適用することができる。また、ゲーム装置は、前記実施形態に限定されず、携帯型コンピュータ、携帯型ゲーム装置などにも同様に適用することができる。
[Other Embodiments]
(A) In the above-described embodiment, an example in which a home video game apparatus as an example of a computer to which a game program can be applied has been described. However, the game apparatus is not limited to the above-described embodiment, and a monitor is separately provided. The present invention can be similarly applied to a game device configured in a body, a game device in which a monitor is integrated, a personal computer functioning as a game device by executing a game program, a workstation, and the like. Further, the game device is not limited to the above-described embodiment, and can be similarly applied to a portable computer, a portable game device, and the like.

(b)本発明には、前述したようなゲームを実行するプログラムおよびこのプログラムを記録したコンピュータ読み取り可能な記録媒体も含まれる。この記録媒体としては、カートリッジ以外に、たとえば、コンピュータ読み取り可能なフレキシブルディスク、半導体メモリ、CD−ROM、DVD、MO、ROMカセット、その他のものが挙げられる。   (B) The present invention includes a program for executing the game as described above and a computer-readable recording medium on which the program is recorded. Examples of the recording medium include a computer-readable flexible disk, a semiconductor memory, a CD-ROM, a DVD, an MO, a ROM cassette, and the like in addition to the cartridge.

本発明の一実施形態によるビデオゲーム装置の基本構成図。1 is a basic configuration diagram of a video game apparatus according to an embodiment of the present invention. 前記ゲーム装置の機能ブロック図。The functional block diagram of the said game device. 初期状態のパスワード入力画面。Initial password entry screen. 選手パスワードの入力後のパスワード入力画面。Password input screen after player password input. パスワード表示エリアを説明するための図。The figure for demonstrating a password display area. 速度設定メータを示す図。The figure which shows a speed setting meter. 音質リストを示す図。The figure which shows a sound quality list. 発音経路リストを示す図。The figure which shows a pronunciation path | route list. 野球ゲームの全体概要を示すフロー。Flow showing the overall outline of the baseball game. 野球ゲームにおけるパスワード読み上げシステムを示すフロー。A flow showing a password reading system in a baseball game. 野球ゲームにおけるパスワード読み上げシステムを示すフロー。A flow showing a password reading system in a baseball game. 野球ゲームにおけるパスワード読み上げシステムを示すフロー。A flow showing a password reading system in a baseball game.

1 制御部
2 記憶部
3 画像表示部
4 音出力部
5 操作入力部
7 CPU
12 RAM
17 コントローラ
20 テレビジョンモニタ
23 通信部
50 文字データ認識手段
51 音データ認識手段
52 第1報知音データ認識手段
53 第2報知音データ認識手段
54 位置データ認識手段
55 文字表示手段
56 特殊文字認識手段
57 特殊音データ認識手段
58 特殊文字位置認識手段
59 発音開始位置認識手段
60 出力速度制御手段
61 異音データ認識手段
62 発音経路認識手段
63 発音終了位置認識手段
64 発音手段
65 発音数判断手段
66 第1報知音出力手段
67 発音終了判断手段
68 第2報知音出力手段
(i,j) 位置データ
S(N) ひらがな用の音データ
S(TN) 特殊文字用の音データ
M(i,j),N ひらがな用の文字データ
TM(i,j),TN 特殊文字用の文字データ
DT 発音速度に対応する時間間隔
DESCRIPTION OF SYMBOLS 1 Control part 2 Memory | storage part 3 Image display part 4 Sound output part 5 Operation input part 7 CPU
12 RAM
17 controller 20 television monitor 23 communication unit 50 character data recognition means 51 sound data recognition means 52 first notification sound data recognition means 53 second notification sound data recognition means 54 position data recognition means 55 character display means 56 special character recognition means 57 Special sound data recognition means 58 Special character position recognition means 59 Pronunciation start position recognition means 60 Output speed control means 61 Abnormal sound data recognition means 62 Sound path recognition means 63 Pronunciation end position recognition means 64 Sound generation means 65 Pronunciation number judgment means 66 First Notification sound output means 67 Sound generation end determination means 68 Second notification sound output means (i, j) Position data S (N) Hiragana sound data S (TN) Special character sound data M (i, j), N Character data for hiragana TM (i, j), TN Character data for special characters DT Responding time interval

Claims (8)

画像表示部に表示された、ゲームに登場するキャラクタの情報に関する複数の記号を、順次、発音可能なコンピュータに、
画像表示部に表示される複数の前記記号それぞれに対応する記号データを、制御部に認識させる記号データ認識機能と、
前記記号データに対応する音データを、制御部に認識させる音データ認識機能と、
所定数の前記記号を発音したことを報知するための第1報知音に対応する第1報知音データを、制御部に認識させる第1報知音データ認識機能と、
前記記号を画像表示部に表示する位置を規定するための位置データを、制御部に認識させる位置データ認識機能と、
前記記号データおよび前記位置データに基づいて、複数の前記記号それぞれを前記位置において画像表示部に表示する記号表示機能と、
前記記号の発音を開始する発音開始位置を規定するための発音開始用の位置データを、制御部に認識させる発音開始位置認識機能と、
前記発音開始位置に表示された前記記号を起点として、複数の前記記号の音を、前記記号データに対応する前記音データに基づいて音出力部から出力する発音機能と、
所定数の前記記号が発音されたか否かを制御部に判断させる発音数判断機能と、
所定数の前記記号が発音されたと制御部により判断された場合に、前記第1報知音を前記第1報知音データに基づいて音出力部から出力する第1報知音出力機能と、
を実現させるための音処理プログラム。
A plurality of symbols related to information on characters appearing in the game , displayed on the image display section , are sequentially generated on a computer capable of sounding,
A symbol data recognition function for causing the control unit to recognize symbol data corresponding to each of the plurality of symbols displayed on the image display unit;
A sound data recognition function for causing the control unit to recognize sound data corresponding to the symbol data;
A first notification sound data recognition function for causing the control unit to recognize first notification sound data corresponding to a first notification sound for notifying that a predetermined number of the symbols have been generated;
A position data recognition function for causing the control unit to recognize position data for defining a position at which the symbol is displayed on the image display unit;
A symbol display function for displaying each of the plurality of symbols on the image display unit at the position based on the symbol data and the position data;
A sounding start position recognition function for causing the control unit to recognize sounding start position data for defining a sounding start position for starting sounding of the symbol;
A sound generation function that outputs the sound of the plurality of symbols from the sound output unit based on the sound data corresponding to the symbol data, starting from the symbol displayed at the sound generation start position;
A pronunciation number determination function for causing the control unit to determine whether or not a predetermined number of the symbols have been pronounced;
A first notification sound output function for outputting the first notification sound from a sound output unit based on the first notification sound data when the control unit determines that a predetermined number of the symbols have been generated;
Sound processing program for realizing.
前記コンピュータに、
前記記号を発音するときの経路を規定するための発音経路設定命令を制御部に認識させることにより、前記発音経路に位置する前記位置データを制御部に認識させる発音経路認識機能、
をさらに実現させ、
前記発音機能では、前記発音開始位置に表示された前記記号を起点として、前記発音経路に位置する複数の前記記号の音が、前記記号データに対応する前記音データに基づいて音出力部から出力される、
請求項1に記載の音処理プログラム。
In the computer,
A sounding path recognition function for causing the control unit to recognize the position data located in the sounding path by causing the control part to recognize a sounding path setting command for defining a path for sounding the symbol;
Further realized,
In the sound generation function, the sound of the plurality of symbols positioned in the sound generation path is output from the sound output unit based on the sound data corresponding to the symbol data, starting from the symbol displayed at the sound generation start position. To be
The sound processing program according to claim 1.
前記コンピュータに、
前記記号データに対応する前記音データを音出力部から順次出力するときの発音速度を設定する処理を制御部に実行させる出力速度制御機能、
をさらに実現させ、
前記発音機能では、前記発音開始位置に表示された前記記号を起点として、複数の前記記号の音が、前記記号データに対応する前記音データに基づいて前記発音速度で音出力部から出力される、
請求項1又は2に記載の音処理プログラム。
In the computer,
An output speed control function for causing the control unit to execute a process of setting a sound generation speed when the sound data corresponding to the symbol data is sequentially output from the sound output unit;
Further realized,
In the sound generation function, the sound of the plurality of symbols is output from the sound output unit at the sound generation speed based on the sound data corresponding to the symbol data, starting from the symbol displayed at the sound generation start position. ,
The sound processing program according to claim 1 or 2.
前記コンピュータに、
前記記号データに対応する、前記音データの音質とは異なる音質の音データを、制御部に認識させる異音データ認識機能、
をさらに実現させ、
前記発音機能では、前記発音開始位置に表示された前記記号を起点として、複数の前記記号の音が、前記記号データに対応する、前記音データおよび前記音データの音質とは異なる音質の前記音データのいずれか一方の音データに基づいて、音出力部から出力される、
請求項1から3のいずれかに記載の音処理プログラム。
In the computer,
An abnormal sound data recognition function for causing the control unit to recognize sound data having a sound quality different from the sound quality of the sound data corresponding to the symbol data;
Further realized,
In the sound generation function, with the symbol displayed at the sound generation start position as a starting point, the sound of the plurality of symbols corresponding to the symbol data has a sound quality different from the sound quality of the sound data and the sound data. Based on the sound data of one of the data, output from the sound output unit,
The sound processing program according to any one of claims 1 to 3.
前記コンピュータに、
前記記号の発音を終了する発音終了位置を規定するための発音終了用の位置データを、制御部に認識させる発音終了位置認識機能と、
前記発音終了位置に位置する前記記号が発音されたことを報知するための第2報知音に対応する第2報知音データを、制御部に認識させる第2報知音データ認識機能と、
前記発音終了用の位置データにより規定される前記発音終了位置の記号が発音されたか否かを、制御部に判断させる発音終了判断機能と、
前記発音終了位置の記号が発音されたと制御部により判断された場合に、前記第2報知音を前記第2報知音データに基づいて音出力部から出力する第2報知音出力機能と、
をさらに実現させるための請求項1からのいずれかに記載の音処理プログラム。
In the computer,
A pronunciation end position recognition function for causing the control unit to recognize the position data for end of pronunciation for defining the end position of pronunciation to end the pronunciation of the symbol;
A second notification sound data recognition function for causing the control unit to recognize second notification sound data corresponding to a second notification sound for notifying that the symbol located at the pronunciation end position has been generated;
A sounding end determination function for causing the control unit to determine whether or not the sounding end position symbol defined by the sounding end position data is sounded;
A second notification sound output function for outputting the second notification sound from the sound output unit based on the second notification sound data when the control unit determines that the symbol at the pronunciation end position is generated;
The sound processing program according to any one of claims 1 to 4 in order to further realize.
前記コンピュータに、
画像表示部に表示された所定の前記記号に対応する前記記号データを、特殊記号用の記号データとして制御部に認識させる特殊記号認識機能と、
特殊記号用の前記記号データに対応する音データを、特殊音データとして制御部に認識させる特殊音データ認識機能と、
画像表示部に表示された所定の前記記号の位置を規定する位置データを、特殊記号用の位置データとして制御部に認識させる特殊記号位置認識機能と、
をさらに実現させ、
前記発音機能では、前記発音開始位置に表示された前記記号を起点として、所定の前記記号を含む複数の前記記号の音が、前記記号データに対応する前記音データおよび所定の前記記号データに対応する前記特殊音データの少なくともいずれか一方のデータに基づいて音出力部から出力される、
請求項1からのいずれかに記載の音処理プログラム。
In the computer,
A special symbol recognition function for causing the control unit to recognize the symbol data corresponding to the predetermined symbol displayed on the image display unit as symbol data for a special symbol;
A special sound data recognition function for causing the control unit to recognize sound data corresponding to the symbol data for the special symbol as special sound data;
A special symbol position recognition function for causing the control unit to recognize position data defining the position of the predetermined symbol displayed on the image display unit as position data for the special symbol;
Further realized,
In the sound generation function, the sound of the plurality of symbols including the predetermined symbol from the symbol displayed at the sound generation start position corresponds to the sound data corresponding to the symbol data and the predetermined symbol data Output from the sound output unit based on at least one of the special sound data.
The sound processing program according to any one of claims 1 to 5 .
画像表示部に表示された、ゲームに登場するキャラクタの情報に関する複数の記号を、順次、発音可能な音処理装置であって、
画像表示部に表示される複数の前記記号それぞれに対応する記号データを、制御部に認識させる記号データ認識手段と、
前記記号データに対応する音データを、制御部に認識させる音データ認識手段と、
所定数の前記記号を発音したことを報知するための第1報知音に対応する第1報知音データを、制御部に認識させる第1報知音データ認識手段と、
前記記号を画像表示部に表示する位置を規定するための位置データを、制御部に認識させる位置データ認識手段と、
前記記号データおよび前記位置データに基づいて、複数の前記記号それぞれを前記位置において画像表示部に表示する記号表示手段と、
前記記号の発音を開始する発音開始位置を規定するための発音開始用の位置データを、制御部に認識させる発音開始位置認識手段と、
前記発音開始位置に表示された前記記号を起点として、複数の前記記号の音を、前記記号データに対応する前記音データに基づいて音出力部から出力する発音手段と、
所定数の前記記号が発音されたか否かを制御部に判断させる発音数判断手段と、
所定数の前記記号が発音されたと制御部により判断された場合に、前記第1報知音を前記第1報知音データに基づいて音出力部から出力する第1報知音出力手段と、
を備える音処理装置。
A sound processing device capable of sequentially generating a plurality of symbols related to information of characters appearing in a game displayed on an image display unit,
Symbol data recognition means for causing the control unit to recognize symbol data corresponding to each of the plurality of symbols displayed on the image display unit;
Sound data recognition means for causing the control unit to recognize sound data corresponding to the symbol data;
First notification sound data recognizing means for causing the control unit to recognize first notification sound data corresponding to a first notification sound for notifying that a predetermined number of the symbols are pronounced;
Position data recognizing means for causing the control unit to recognize position data for defining a position at which the symbol is displayed on the image display unit;
Symbol display means for displaying each of the plurality of symbols on the image display unit at the position based on the symbol data and the position data;
Sounding start position recognition means for causing the control unit to recognize position data for sounding start for defining a sounding start position for starting sounding of the symbol;
Sound generation means for outputting the sound of the plurality of symbols from the sound output unit based on the sound data corresponding to the symbol data, starting from the symbol displayed at the sound generation start position;
Pronunciation number determination means for causing the control unit to determine whether or not a predetermined number of the symbols have been pronounced;
First notification sound output means for outputting the first notification sound from the sound output unit based on the first notification sound data when the control unit determines that a predetermined number of the symbols are pronounced;
A sound processing apparatus comprising:
画像表示部に表示された、ゲームに登場するキャラクタの情報に関する複数の記号を、順次、発音可能なコンピュータにより、音を制御する音制御方法であって、
画像表示部に表示される複数の前記記号それぞれに対応する記号データを、制御部に認識させる記号データ認識ステップと、
前記記号データに対応する音データを、制御部に認識させる音データ認識ステップと、
所定数の前記記号を発音したことを報知するための第1報知音に対応する第1報知音データを、制御部に認識させる第1報知音データ認識ステップと、
前記記号を画像表示部に表示する位置を規定するための位置データを、制御部に認識させる位置データ認識ステップと、
前記記号データおよび前記位置データに基づいて、複数の前記記号それぞれを前記位置において画像表示部に表示する記号表示ステップと、
前記記号の発音を開始する発音開始位置を規定するための発音開始用の位置データを、制御部に認識させる発音開始位置認識ステップと、
前記発音開始位置に表示された前記記号を起点として、複数の前記記号の音を、前記記号データに対応する前記音データに基づいて音出力部から出力する発音ステップと、
所定数の前記記号が発音されたか否かを制御部に判断させる発音数判断ステップと、
所定数の前記記号が発音されたと制御部により判断された場合に、前記第1報知音を前記第1報知音データに基づいて音出力部から出力する第1報知音出力ステップと、
を備える音制御方法。
A sound control method for controlling sound by a computer capable of sequentially generating a plurality of symbols related to information on characters appearing in a game displayed on an image display unit,
A symbol data recognition step for causing the control unit to recognize symbol data corresponding to each of the plurality of symbols displayed on the image display unit;
A sound data recognition step for causing the control unit to recognize sound data corresponding to the symbol data;
A first notification sound data recognition step for causing the control unit to recognize first notification sound data corresponding to a first notification sound for notifying that a predetermined number of the symbols have been generated;
A position data recognition step for causing the control unit to recognize position data for defining a position at which the symbol is displayed on the image display unit;
Based on the symbol data and the position data, a symbol display step of displaying each of the plurality of symbols on the image display unit at the position;
A sounding start position recognition step for causing the control unit to recognize sounding start position data for defining a sounding start position for starting sounding of the symbol;
A sound generation step of outputting the sound of the plurality of symbols from the sound output unit based on the sound data corresponding to the symbol data, starting from the symbol displayed at the sound generation start position;
A pronunciation number determination step for causing the control unit to determine whether or not a predetermined number of the symbols have been pronounced;
A first notification sound output step of outputting the first notification sound from the sound output unit based on the first notification sound data when the control unit determines that a predetermined number of the symbols have been generated;
A sound control method comprising:
JP2007239576A 2007-09-14 2007-09-14 Sound processing program, sound processing apparatus, and sound control method Active JP4676469B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007239576A JP4676469B2 (en) 2007-09-14 2007-09-14 Sound processing program, sound processing apparatus, and sound control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007239576A JP4676469B2 (en) 2007-09-14 2007-09-14 Sound processing program, sound processing apparatus, and sound control method

Publications (2)

Publication Number Publication Date
JP2009066287A JP2009066287A (en) 2009-04-02
JP4676469B2 true JP4676469B2 (en) 2011-04-27

Family

ID=40603169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007239576A Active JP4676469B2 (en) 2007-09-14 2007-09-14 Sound processing program, sound processing apparatus, and sound control method

Country Status (1)

Country Link
JP (1) JP4676469B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07210185A (en) * 1993-11-30 1995-08-11 Sony Corp Reading information preparing device and reading device
JP3035507B2 (en) * 1997-05-08 2000-04-24 株式会社ジャストシステム Table document reading apparatus, table document reading method, and computer-readable recording medium storing a program for causing a computer to execute the method
JP3467771B2 (en) * 1999-10-21 2003-11-17 日本電気株式会社 Document reading device, document reading method, and recording medium for recording document reading program
JP2003085099A (en) * 2001-09-12 2003-03-20 Sony Corp Information processing device and method, recording medium, and program
JP2006349787A (en) * 2005-06-14 2006-12-28 Hitachi Information & Control Solutions Ltd Speech synthesis method and apparatus

Also Published As

Publication number Publication date
JP2009066287A (en) 2009-04-02

Similar Documents

Publication Publication Date Title
US10580319B2 (en) Interactive multimedia story creation application
EP1064975B1 (en) Control method of video game, video game apparatus, and computer readable medium with video game program recorded
US11915612B2 (en) Multi-sensory learning with feedback
JP2006099125A (en) Menu type voice control system and method for character in game environment
US20100092933A1 (en) System and method for an interactive phoneme video game
TW201432638A (en) Interactive learning system
JP4919395B2 (en) GAME PROGRAM AND GAME DEVICE
KR102139297B1 (en) Mobile device game interface
JP4327215B2 (en) Training system, training device, program recording medium, and training program
JP4816435B2 (en) Character input processing method
JP2005198974A (en) Music game device and program
JP5574276B2 (en) GAME DEVICE, METHOD FOR CONTROLLING THE SAME, AND GAME PROGRAM CONTAINING THE GAME DEVICE
JP2000245960A (en) Game machine using handwriting recognition
JP4676469B2 (en) Sound processing program, sound processing apparatus, and sound control method
JPH06315572A (en) Voice game machine
JP2016085680A (en) Electronic equipment and programs
JP2014205058A (en) Game apparatus and control method thereof, and game program adapted to game apparatus
JP2845202B2 (en) Audio output control device and method
JP3554866B2 (en) Game program
JP5750234B2 (en) Sound output device, sound output program
JP2009195759A (en) Exercise teaching system
CN106582014A (en) Method for realizing incentive mechanism of letter spelling game and electronic equipment
KR101011559B1 (en) How to provide English learning contents using multimedia player
JP2008040419A (en) Program, computer and control method
JP4227639B2 (en) Magic auxiliary toy

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110127

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140204

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4676469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250