JP4071511B2 - Grip shape design system - Google Patents
Grip shape design system Download PDFInfo
- Publication number
- JP4071511B2 JP4071511B2 JP2002057916A JP2002057916A JP4071511B2 JP 4071511 B2 JP4071511 B2 JP 4071511B2 JP 2002057916 A JP2002057916 A JP 2002057916A JP 2002057916 A JP2002057916 A JP 2002057916A JP 4071511 B2 JP4071511 B2 JP 4071511B2
- Authority
- JP
- Japan
- Prior art keywords
- grip
- design system
- data
- finger
- palm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は、グリップ形状の設計システムに関する。特に、老人や身障者それぞれの使用状況に応じたグリップ形状を設計するのに適したシステムに関する。
【0002】
【技術的背景】
人間が手で握るグリップ(握り)は、ステッキや傘などの量産品では、あてがいぶちであり、個人ごとの合わせて作成することはできない。個人ごとに合わせて職人が手作業で作成すると、高価になるために、カスタム・メイドのグリップは用いられていない。
老人や手などに傷害がある人では、その人の運動能力に合わせた握りが必要であるが、高価であることや、手作業で作成する人が少ない等のために、必要なグリップ形状を得ることができないのが現状である。
【0003】
【発明が解決しようとする課題】
本発明の目的は、個人の使用状況に合わせたグリップ形状を簡単に得ることができるグリップ形状の設計システムの提供である。
【0004】
【課題を解決するための手段】
上記目的を達成するために、本発明は、グリップ形状の設計システムであって、ユーザの握る動作の時系列データである、指及び掌の関節の座標値と曲がり角度を入力する動作入力手段と、前記動作入力手段からのデータにより、得られる手の折れ線の集合データに、予め測定した指の太さ及び手のひらの厚みのデータを付加して、手の3次元モデルのデータを作成する3次元モデル作成手段と、前記3次元モデルから、握った状態の手のひら内部の空間のポリゴン面を得る空間ポリゴン面作成手段と、前記空間ポリゴン面を曲面により近似する曲面近似手段とを備えることを特徴とする。
さらに、得られたグリップ形状を雌面とする、金型の雄面を得る金型作成手段を備えることもできる。
これらのグリップ形状の設計システムの各機能をコンピュータ・システムに構築させるプログラムやそのプログラムを格納した記録媒体も本発明である。
【0005】
【発明の実施の形態】
本発明の実施形態を、図面を用いて説明する。
図1は、本発明の実施形態であるグリップ形状設計システム100の構成例を示す図である。図1に示すように、このシステムは、手の位置や指などの関節の角度を検出できるグローブ140と、グローブの位置を検出するための磁界発生器130と、磁界発生器130とグローブ140を制御して、グローブ140から位置情報を受け取るコントローラ120と、グローブ140からの角度情報を受け取るためのインターフェース150とで構成されている。
本システムにおいて、手の動きを検出するためのグローブ140として用いている(株)ソリッドレイ研究所から販売されているサイバーグローブ(T)の仕様を図2の表に示す。サイバーグローブと同等に手の動きを検出できるものであれば、何を用いてもよい。
【0006】
図2に示されているように、サイバーグローブでは位置の測定として、3次元の位置が測定でき、X,Y,Zのそれぞれに0.08cmの精度で、磁界発生器130から半径76cmの範囲の位置を検出できる。磁気による位置センサは、4個までグローブに付けることができる。
サイバーグローブでは、角度は、光ファイバにより歪み率を電圧に変換することで検出しており、18カ所以上の角度をリニアでリアルタイムで検出することができる。その18カ所の検出角度例として、
1.親指の付け根の曲げ角度
2.親指の手のひらへの曲げ角度
3.親指の関節の曲げ角度
4.親指と人差し指の開閉
5.人差し指の手のひらへの曲げ角度
6.人差し指の関節の曲げ角度
7.中指の手のひらへの曲げ角度
8.中指の関節の曲げ角度
9.人差し指と中指の開閉
10.薬指の手のひらへの曲げ角度
11.薬指の関節の曲げ角度
12.中指と薬指の開閉
13.小指の手のひらへの曲げ角度
14.小指の関節の曲げ角度
15.薬指と小指の開閉
16.向かい合った小指と親指の開閉
17.手首の上下の動き
18.手首の左右回転の動き
を検出することができる。検出した角度のデータは、インターフェース150を介してコンピュータ・システム110に例えば直列で送ることができる。
【0007】
図1,図2に示すようなシステム構成において、どの様にして、グリップ形状を得ることができるのかを図3のフローチャートを用いて説明する。
このシステムでグリップ形状を得るために、まず、例えば、柔らかなゼリー状の物質が入ったゴム袋を用意する。このゴム袋は、ユーザ(被験者)の掴む動作に応じて形を変えるようなものであれば、他のものでも使用可能である。また、ユーザ(被験者)の手の指や手のひらの長さや厚み等の計測を行い、予めコンピュータ・システムに入力をしておく。
このゴム袋を机の上に載せて、ユーザ(被験者)に手を伸ばして掴んでもらう。ユーザは、その後に、その掴んだゴム袋を力を入れて握ってから、机の上に戻すという一連の動作を行う。
この一連の動作は、データグローブをユーザが手にはめているので、指や掌を動かすと、瞬間瞬間の指掌の関節の座標値と関節の曲がり角度についての情報が、シリアルなデータとして、コンピュータ・システム内のファイルに順次書き込まれている(S202)。
【0008】
このデータは、例えば、ある瞬間tにおける人差し指の第1関節の座標値x,y,zデータおよび曲がり空間角度a,b,cが、位置センサが設置されている手首中央の座標(0,0,0)、角度(0,0,0)からの相対的な変位として与えられる。他の17関節についても、同様である。
このため、時刻tにおいては、
関節1について:標(x1,y1,z1),(a1,b1,c1)
......
関節nについて:座標(xn,yn,zn),角度(an,bn,cn)
......
関節18について:標(x18,y18,z18),角度(a18,b18,c18)
である。異なる時刻tにおいても、同じように記録される。
このような18関節の各時刻における相対的な位置と角度の変位は、アスキー・データでファイルに書き込まれる。ユーザは目でファイルの内容を読める。
この得られる時系列データは、手の指を折れ線の集合と仮定して、折れ線の接点部分の座標や角度の時系列変化を記録していることになる(S202参照)。
【0009】
次に、個別ユーザの、コンピュータに入力済みのデータである指の太さ,手のひらの厚みデータを手を表している折れ線の集合に付加する(S204)。これにより、ユーザの指や手のひらの状態を正確に再現することができる。この段階の指のみを3次元画像として示したのが図4である。図4(a)は正面図,図4(b)は側面図,図4(c)は平面図である。このように、手の動きを3次元モデルとして再現できる。
【0010】
得られた手の3次元モデルから、完全に握りこんでしまった状態の手のひらの内部の空間を、折れ線を端点とするポリゴン面の集合として定義することができる(S206)。この段階を3次元画像として示したものが図5である。図5には指の内部にポリゴン面の集合が生成されていることを示している。図5(a)は正面図,図5(b)は側面図,図5(c)は平面図である。また、図6は、定義されたポリゴン面のみを示している。図6(a)は正面図,図6(b)は側面図,図6(c)は平面図である。
このようにして定義されたポリゴン面の集合を曲面群として近似する(S208)。握り面としては、図6に示すような角があるものは不適当であり、グリップ(握り)の面として適切である滑らかな曲面を得るためである。
【0011】
このようにして、完全に握りこんでしまった状態におけるユーザの手のひらの内側が形成する曲面に適合する「握り」の形状を得ることができる。この「握り」の形状を、既存のCAD/CAM技術を用いて、例えばNC加工で、木やプラスチック等の材料により形成できる。図7に、この様にして作成された2つのグリップ(握り)の例を示す。
これで、ユーザに最適な形状を有するグリップを得ることができる。
【0012】
握りの制作上、金型が必要な場合は、この握りの曲面を雌面とする凸の雄面を作成し、グリップの金型を得ることができる(S210)。この金型を利用して、プラスチック等で握りを作成することができる。
この様にして作成されたグリップを杖等に取り付けることで、ユーザが握りやすい杖等を作成する。
【0013】
<得られる時系列データの有用性>
例えば、脳溢血などで右手の人差し指が不自由になったユーザに、データグローブを装着してもらい、杖の握りや、カップの握りを右手で握る動作をしてもらう場合で説明する。このユーザでは、人差し指が不自由なので、自由に動く他の指(例えば中指)を動かして、「握り」(即ち、ゴム袋)に触れる。そして、他の指が順次「握り」に触れてゆき、不自由な人差し指は、最後に「握り」に触れるかまたは触れないままである。
本システムでは、時系列データを記録しているために、この様なユーザにおいては、
項目1:指掌が「握り」から完全に離れている状態
項目2:自由な指が「握り」に順次触れていく状態の推移
項目3:「握り」を完全に握りこんでしまった状態
というような時系列の指掌の動作データが得られる。
この動作データを用いることにより、どの指が不自由であるか、またその不自由のレベルが分かるので、上記項目2の中で、最初に「握り」に触れる指先が確実に「握り」を確保するように、例えば滑り止めの小さなゴム板などを「握り」のその個所に張り付けるようにすることにより、確実に「握り」を確保することを援助できる。既存の手法では、上記項目3に関するデータしか得られなかった。
【0014】
【発明の効果】
上述したような本発明の構成を用いることにより、ユーザ個々の運動能力に応じた、最適な握りの形状を得て、その形状を有する握りをCAD/CAMを利用して得ることが可能となる。
【図面の簡単な説明】
【図1】本発明の実施形態のシステム構成を示す図である。
【図2】実施形態で用いたサイバーグローブの仕様を示す表である。
【図3】握りの形状を得るための処理フローを示すフローチャートである。
【図4】検出された手の動きの3次元画像を示す図である。
【図5】手の動きから、手のひら内部をポリゴン面の集合として定義している様子を示す図である。
【図6】定義されたポリゴン面の集合を示す図である。
【図7】得られた握りの形状によりCAD/CAMにより作成された握りを示す図である。
【符号の説明】
100 グリップ形状設計システム
110 コンピュータ・システム
120 コントローラ
130 磁界発生器
140 グローブ
150 インターフェース[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a grip-shaped design system. In particular, the present invention relates to a system suitable for designing a grip shape according to the usage situation of the elderly and the disabled.
[0002]
[Technical background]
The grips (grips) that humans hold with their hands are assigned to mass-produced products such as walking sticks and umbrellas, and cannot be created for each individual. Custom-made grips are not used because the craftsmen manually create them for each individual because they are expensive.
An elderly person or a person with an injury to the hand needs a grip that matches the person's athletic ability, but because it is expensive and few people create it manually, the necessary grip shape is required. The current situation is that it cannot be obtained.
[0003]
[Problems to be solved by the invention]
An object of the present invention is to provide a grip shape design system that can easily obtain a grip shape that matches the use situation of an individual.
[0004]
[Means for Solving the Problems]
In order to achieve the above object, the present invention is a grip-shaped design system, which is an operation input means for inputting coordinate values and bending angles of finger and palm joints, which are time-series data of an operation grasped by a user. A three-dimensional model for creating a three-dimensional model of the hand by adding data of finger thickness and palm thickness measured in advance to the set data of the broken line of the hand obtained from the data from the motion input means Characterized in that it comprises model creating means, spatial polygon surface creating means for obtaining a polygonal surface of the space inside the palm of the grasped hand from the three-dimensional model, and curved surface approximating means for approximating the spatial polygon surface by a curved surface. To do.
Furthermore, it is also possible to provide a mold creating means for obtaining a male surface of the mold with the obtained grip shape as a female surface.
A program for causing a computer system to construct each function of the grip-shaped design system and a recording medium storing the program are also the present invention.
[0005]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration example of a grip
The table of FIG. 2 shows the specifications of Cyber Glove (T) sold by Solid Ray Laboratory Co., Ltd., which is used as a
[0006]
As shown in FIG. 2, the cyber glove can measure a three-dimensional position as a position measurement, with a radius of 76 cm from the
In Cyber Glove, the angle is detected by converting the distortion rate into voltage using an optical fiber, and 18 or more angles can be detected linearly in real time. As an example of the 18 detection angles,
1. 1. Bending angle at the base of thumb 2. Bending angle to the palm of thumb 3. Bending angle of thumb joint 4. Open and close thumb and
[0007]
How the grip shape can be obtained in the system configuration shown in FIGS. 1 and 2 will be described with reference to the flowchart of FIG.
In order to obtain a grip shape with this system, first, for example, a rubber bag containing a soft jelly-like substance is prepared. Any other rubber bag can be used as long as it changes shape according to the gripping action of the user (subject). Also, the length and thickness of the user's (subject's) hand and palm are measured and input to the computer system in advance.
This rubber bag is placed on a desk and the user (subject) reaches out and holds it. Thereafter, the user performs a series of operations of holding the gripped rubber bag with force and returning it to the desk.
In this series of operations, the user wears the data glove, so when the finger or palm is moved, the information about the coordinate value of the joint of the finger palm and the bending angle of the joint at the moment is converted into serial data. Sequentially written to a file in the computer system (S202).
[0008]
This data includes, for example, the coordinate values x, y, z of the first joint of the index finger at a certain instant t and the bending space angles a, b, c are the coordinates (0, 0) of the wrist center where the position sensor is installed. , 0) and relative displacement from the angle (0, 0, 0). The same applies to the other 17 joints.
For this reason, at time t,
About joint 1: Marks (x 1 , y 1 , z 1 ), (a 1 , b 1 , c 1 )
. . . . . .
For joint n: coordinates (x n , y n , z n ), angle (a n , b n , c n )
. . . . . .
Regarding the joint 18: mark (x 18 , y 18 , z 18 ), angle (a 18 , b 18 , c 18 )
It is. It is recorded in the same way at different times t.
The relative position and angular displacement of each of the 18 joints at each time is written in a file as ASCII data. The user can read the contents of the file visually.
The obtained time-series data records time-series changes in the coordinates and angles of the contact portions of the broken line, assuming that the finger of the hand is a set of broken lines (see S202).
[0009]
Next, finger thickness and palm thickness data, which has been input to the computer of the individual user, is added to a set of broken lines representing the hand (S204). Thereby, the state of the user's finger or palm can be accurately reproduced. FIG. 4 shows only the finger at this stage as a three-dimensional image. 4A is a front view, FIG. 4B is a side view, and FIG. 4C is a plan view. In this way, hand movement can be reproduced as a three-dimensional model.
[0010]
From the obtained three-dimensional model of the hand, the space inside the palm that has been completely grasped can be defined as a set of polygonal surfaces having a polygonal line as an end point (S206). FIG. 5 shows this stage as a three-dimensional image. FIG. 5 shows that a set of polygon faces is generated inside the finger. 5A is a front view, FIG. 5B is a side view, and FIG. 5C is a plan view. FIG. 6 shows only the defined polygon surface. 6A is a front view, FIG. 6B is a side view, and FIG. 6C is a plan view.
The set of polygon surfaces defined in this way is approximated as a curved surface group (S208). As the grip surface, those having corners as shown in FIG. 6 are inappropriate, and a smooth curved surface suitable as a grip (grip) surface is obtained.
[0011]
In this way, it is possible to obtain a “grip” shape that conforms to the curved surface formed by the inside of the palm of the user in a state in which it is completely grasped. The shape of the “grip” can be formed from a material such as wood or plastic by NC processing, for example, using existing CAD / CAM technology. FIG. 7 shows an example of two grips (grips) created in this way.
Thus, a grip having a shape optimal for the user can be obtained.
[0012]
If a mold is necessary for producing the grip, a convex male surface having the grip curved surface as a female surface can be created to obtain a grip mold (S210). Using this mold, a grip can be made of plastic or the like.
By attaching the grip created in this way to a cane or the like, a cane or the like that is easy for the user to grip is created.
[0013]
<Usefulness of obtained time-series data>
For example, a case where a user whose right index finger is incapacitated due to cerebral blood flow, etc., is asked to wear a data glove and perform an operation of gripping a cane or gripping a cup with the right hand. In this user, since the index finger is inconvenient, another finger (for example, the middle finger) that moves freely is moved to touch the “grip” (that is, the rubber bag). Then, the other finger sequentially touches the “grip”, and the handicapped index finger finally touches the “grip” or remains untouched.
In this system, time series data is recorded, so in such users,
Item 1: State where finger palm is completely separated from “gripping” Item 2: Transition of state where free finger sequentially touches “gripping” Item 3: State where “gripping” is completely grasped Such time-series finger / palm motion data is obtained.
By using this motion data, it is possible to know which finger is incapacitated and the level of inconvenience. Therefore, in the above item 2, the fingertip that first touches the “gripper” surely secures the “gripper”. As described above, for example, by attaching a small non-slip rubber plate or the like to the portion of the “grip”, it is possible to help ensure the “grip”. With the existing method, only data relating to item 3 was obtained.
[0014]
【The invention's effect】
By using the configuration of the present invention as described above, it is possible to obtain an optimum grip shape corresponding to the user's individual exercise ability and obtain a grip having the shape by using CAD / CAM. .
[Brief description of the drawings]
FIG. 1 is a diagram showing a system configuration of an embodiment of the present invention.
FIG. 2 is a table showing the specifications of the cyber glove used in the embodiment.
FIG. 3 is a flowchart showing a processing flow for obtaining a grip shape;
FIG. 4 is a diagram illustrating a three-dimensional image of detected hand movements.
FIG. 5 is a diagram illustrating a state in which the inside of a palm is defined as a set of polygonal surfaces based on hand movements.
FIG. 6 is a diagram showing a set of defined polygon surfaces.
FIG. 7 is a diagram showing a grip created by CAD / CAM based on the shape of the obtained grip.
[Explanation of symbols]
100 grip
Claims (4)
ユーザの握る動作の時系列データである、指及び掌の関節の座標値と曲がり角度を入力する動作入力手段と、
前記動作入力手段からのデータにより、得られる手の折れ線の集合データに、予め測定した指の太さ及び手のひらの厚みのデータを付加して、手の3次元モデルのデータを作成する3次元モデル作成手段と、
前記3次元モデルから、握った状態の手のひら内部の空間のポリゴン面を得る空間ポリゴン面作成手段と、
前記空間ポリゴン面を曲面により近似する曲面近似手段と
を備えることを特徴とするグリップ形状の設計システム。A grip-shaped design system,
Action input means for inputting coordinate values and bending angles of finger and palm joints, which are time-series data of actions gripped by the user;
A three-dimensional model that creates data of a three-dimensional model of a hand by adding pre-measured finger thickness and palm thickness data to the set data of the broken line of the hand obtained from the data from the motion input means Creating means;
A spatial polygon surface creation means for obtaining a polygonal surface of the space inside the palm in the gripped state from the three-dimensional model;
A grip shape design system comprising: curved surface approximation means for approximating the spatial polygon surface by a curved surface.
さらに、得られたグリップ形状を雌面とする、金型の雄面を得る金型作成手段を備えることを特徴とするグリップ形状の設計システム。In the grip shape design system according to claim 1,
Furthermore, the grip shape design system characterized by comprising a mold creating means for obtaining a male surface of a mold, wherein the obtained grip shape is a female surface.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002057916A JP4071511B2 (en) | 2002-03-04 | 2002-03-04 | Grip shape design system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002057916A JP4071511B2 (en) | 2002-03-04 | 2002-03-04 | Grip shape design system |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2003256499A JP2003256499A (en) | 2003-09-12 |
| JP4071511B2 true JP4071511B2 (en) | 2008-04-02 |
Family
ID=28668060
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2002057916A Expired - Lifetime JP4071511B2 (en) | 2002-03-04 | 2002-03-04 | Grip shape design system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4071511B2 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10692291B2 (en) | 2017-05-22 | 2020-06-23 | Canon Kabushiki Kaisha | Apparatus, method, and medium for generating a 3D model of a finger using captured image |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009050514A (en) * | 2007-08-28 | 2009-03-12 | Imaoka Seisakusho:Kk | Method of manufacturing cane grip |
| JP7029253B2 (en) * | 2017-08-31 | 2022-03-03 | キヤノン株式会社 | Information processing equipment and its method |
| WO2025220240A1 (en) * | 2024-04-19 | 2025-10-23 | シュポーン株式会社 | Cane selection device, cane selection system, and program |
-
2002
- 2002-03-04 JP JP2002057916A patent/JP4071511B2/en not_active Expired - Lifetime
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10692291B2 (en) | 2017-05-22 | 2020-06-23 | Canon Kabushiki Kaisha | Apparatus, method, and medium for generating a 3D model of a finger using captured image |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2003256499A (en) | 2003-09-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Llop-Harillo et al. | The anthropomorphic hand assessment protocol (AHAP) | |
| Burdea et al. | Dextrous telerobotics with force feedback–an overview. Part 1: Human factors | |
| Ju et al. | Human hand motion analysis with multisensory information | |
| Matheus et al. | Benchmarking grasping and manipulation: Properties of the objects of daily living | |
| Battaglia et al. | Thimblesense: a fingertip-wearable tactile sensor for grasp analysis | |
| CN110780731B (en) | Finger gesture detection device and control assembly | |
| US20200323658A1 (en) | Systems And Methods For Postural Control Of A Multi-Function Prosthesis | |
| Yudhana et al. | Flex sensors and MPU6050 sensors responses on smart glove for sign language translation | |
| Su et al. | Robust grasping for an under-actuated anthropomorphic hand under object position uncertainty | |
| CN108687744A (en) | An exoskeleton based on tactile feedback | |
| CN104856707A (en) | Pressure sensing data glove based on machine vision and gripping process judgment method thereof | |
| CN207087856U (en) | A kind of ectoskeleton based on touch feedback | |
| Kyberd | Assessment of functionality of multifunction prosthetic hands | |
| JP4071511B2 (en) | Grip shape design system | |
| Battaglia et al. | ThimbleSense: an individual-digit wearable tactile sensor for experimental grasp studies | |
| CN105260029B (en) | Apery hand structure implementation method based on the reproduction of human hand movement function | |
| JP2001265522A (en) | Sensor attached to nail | |
| Gao 高帅康 et al. | Object recognition based on hardness and texture via modified force-sensitive fingertips of a humanoid hand | |
| Beninati et al. | A dynamic model of hand movements for proportional myoelectric control of a hand prosthesis | |
| Hendrich et al. | Multi-sensor based segmentation of human manipulation tasks | |
| Kamakura | Postures and movement patterns of the human hand: A framework for understanding hand activity for clinicians and engineers | |
| Paulson et al. | Office activity recognition using hand posture cues | |
| Espinoza et al. | Design and evaluation of a human-controlled haptic-based robotic hand for object grasping and lifting | |
| Xu et al. | Development of a Novel Compact Robotic Exoskeleton Glove With Reinforcement Learning Control | |
| Kern | The user’s role in haptic system design |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20031031 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040129 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050121 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070828 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071025 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080115 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080117 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4071511 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110125 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120125 Year of fee payment: 4 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130125 Year of fee payment: 5 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140125 Year of fee payment: 6 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| EXPY | Cancellation because of completion of term |