KR19990057839A - How to deal with cache misses - Google Patents
How to deal with cache misses Download PDFInfo
- Publication number
- KR19990057839A KR19990057839A KR1019970077918A KR19970077918A KR19990057839A KR 19990057839 A KR19990057839 A KR 19990057839A KR 1019970077918 A KR1019970077918 A KR 1019970077918A KR 19970077918 A KR19970077918 A KR 19970077918A KR 19990057839 A KR19990057839 A KR 19990057839A
- Authority
- KR
- South Korea
- Prior art keywords
- instruction
- cache
- stage
- cache miss
- miss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000003672 processing method Methods 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 33
- 238000010586 diagram Methods 0.000 description 7
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Landscapes
- Advance Control (AREA)
- Memory System Of A Hierarchy Structure (AREA)
Abstract
본 발명은 파이프라인 방식의 MPU/MCU에서 캐쉬 미스 시의 명령어 처리 사이클 수를 줄일 수 있는 캐쉬 미스 시 처리 방법을 제공하기 위한 것으로, 이를 위해 본 발명은 다수의 스테이지를 가진 파이프라인된 마이크로프로세서 및 마이크로컨트롤러의 명령어 캐쉬 미스 처리 방법에 있어서, 제1 명령어를 페치하는 어느 한 스테이지에서 명령어 캐쉬 히트 및 미스 여부에 관계없이 무조건 명령어 캐쉬 미스 시 필요한 외부 어드레스를 생성하는 제1 캐쉬 미스 사이클을 함께 수행하며, 다수의 스테이지를 가진 파이프라인된 마이크로프로세서 및 마이크로컨트롤러의 데이터 캐쉬 미스 처리 방법에 있어서, 상기 데이터 캐쉬를 읽어오는 어느 한 스테이지에서 데이터 캐쉬 히트 및 미스 여부에 관계없이 무조건 데이터 캐쉬 미스 시 필요한 외부 어드레스를 생성하는 제1 캐쉬 미스 사이클을 함께 수행한다.The present invention provides a cache miss processing method that can reduce the number of instruction processing cycles at the time of a cache miss in a pipelined MPU / MCU, and the present invention provides a pipelined microprocessor having a plurality of stages and In the microcontroller instruction cache miss processing method, at any stage to fetch the first instruction, the microcontroller performs a first cache miss cycle that generates an external address required for the instruction cache miss regardless of whether the instruction cache hits or misses. A data cache miss processing method of a pipelined microprocessor and a microcontroller having a plurality of stages, the external address required to unconditionally miss a data cache regardless of whether the data cache hits or misses at any stage of reading the data cache. To It is performed with a first cache miss cycle to sex.
Description
본 발명은 마이크로컨트롤러 혹은 마이크로프로세서에 관한 것으로서, 특히 캐쉬 억세스 시 미스가 발생한 경우에 대한 처리 방법에 관한 것이다.The present invention relates to a microcontroller or a microprocessor, and more particularly, to a method of handling a case of a miss in cache access.
최근 프로세서(processor)의 성능 향상을 위해 마이크로컨트롤러(microcontroller, 이하 MCU) 혹은 마이크로프로세서(microprocessor, 이하 MPU) 설계 시 파이프라인(pipeline) 기법을 많이 채용하고 있다. 파이프라인 방식은 명령어 처리 과정을 다수 개의 스테이지(stage)로 나누고, 한 사이클동안 다수 개 명령어의 각기 다른 스테이지를 병렬 처리함으로써 사이클 당 정보처리량을 극대화하는 기법이다.Recently, in order to improve the performance of a processor, a pipeline technique is widely used when designing a microcontroller (microcontroller) or a microprocessor (MPU). The pipeline method divides the instruction processing process into multiple stages and maximizes the information throughput per cycle by parallelizing different stages of multiple instructions during one cycle.
도 1은 종래 기술의 일실시예로 5-스테이지 파이프라인 처리 과정을 도시한 도면으로, 먼저 IF(instruction fetch) 스테이지는 명령어를 페치(fetch)하는 단계이다. 이때 명령어 캐쉬(instruction cache)에 페치하려는 명령어가 존재하면 캐쉬 히트(cache hit)가 발생하고, 명령어가 존재하지 않으면 캐쉬 미스(cache miss)가 발생한다. RD(Read and Decode) 스테이지는 명령어를 디코딩한 후 명령어 처리를 위한 오퍼랜드(operand)를 페치하는 단계이다. EXE(execution) 스테이지는 오퍼랜드를 실제적으로 처리하는 단계이다. MEM(memory) 스테이지는 메모리 오퍼레이션이 필요한 경우 즉, 로드 명령어(Load instruction) 혹은 스토어 명령어(store instruction)가 수행되는 경우 EXE 스테이지에서 구해진 로드 혹은 스토어할 어드레스로 해당 메모리를 읽어오는 단계이다. WB(write back) 스테이지는 처리된 데이터를 레지스터 파일에 라이트(write)하는 단계이다.1 is a diagram illustrating a five-stage pipeline processing process according to an embodiment of the prior art. First, an IF (instruction fetch) stage is a step of fetching an instruction. At this time, if there is an instruction to fetch in the instruction cache, a cache hit occurs, and if the instruction does not exist, a cache miss occurs. The Read and Decode (RD) stage decodes an instruction and then fetches an operand for instruction processing. An EXE (execution) stage is a step that actually processes the operand. The MEM (memory) stage is a step of reading the memory with an address to be loaded or stored obtained from the EXE stage when a memory operation is required, that is, when a load instruction or a store instruction is performed. The write back (WB) stage is a step of writing the processed data to a register file.
도 2는 종래의 명령어 캐쉬를 포함한 프로세서의 파이프라인 처리 과정을 도시한 것이다. 먼저 제1 명령어의 처리과정을 살펴보면, 제1 명령어가 명령어 캐쉬 내에 존재하여 캐쉬 히트가 발생되는 경우로서 IF 스테이지에서 해당 명령어를 페치한 후 다음 RD 스테이지로 넘어간다. 다음으로, 제1 명령어와 파이프라인 방식으로 수행되는 제2 명령어의 처리과정을 살펴보면, 제2 명령어가 명령어 캐쉬 내에 존재하지 않아 IF 스테이지에서 캐쉬 미스가 발생되는 경우로서 파이프라인을 잠시 멈추고(stall) 제2 명령어를 외부(예를 들자면, 메인 메모리)에서 페치해서 내부로 가져오는 과정인 캐쉬 미스 처리 과정(CM1 스테이지 및 CM2 스테이지)을 추가로 수행한다. 이때, 제2 명령어와 파이프라인되어 처리되던 제1 명령어의 수행은 캐쉬 미스 처리 과정 동안 스톨(stall)된다. 캐쉬 미스 처리 과정 동안의 명령어 사이클 손실을 파이프라인 스톨이라고 하며, 도 2는 일실시예로 파이프라인 스톨이 "2"인 경우이다.2 illustrates a pipeline processing process of a processor including a conventional instruction cache. First, the processing of the first instruction, when the first instruction exists in the instruction cache and the cache hit occurs, the instruction is fetched from the IF stage, and then the process proceeds to the next RD stage. Next, referring to the processing of the second instruction executed in a pipelined manner with the first instruction, when the second instruction does not exist in the instruction cache and a cache miss occurs in the IF stage, the pipeline is stalled. The cache miss processing process (CM1 stage and CM2 stage), which is a process of fetching the second instruction from the outside (for example, main memory) and bringing it into the inside, is further performed. At this time, execution of the first instruction, which is processed in a pipeline with the second instruction, is stalled during the cache miss process. The instruction cycle loss during the cache miss process is referred to as pipeline stall, and FIG. 2 is one example where the pipeline stall is "2".
도 3은 종래의 데이터 캐쉬를 포함한 프로세서의 파이프라인 처리 과정을 도시한 것이다. 먼저 제1 명령어의 처리과정을 살펴보면, 제1 명령어가 로드 명령 혹은 스토어 명령일 경우에, MEM 스테이지에서 로드 혹은 스토어할 어드레스로 데이터 캐쉬를 읽어올 때 캐쉬 미스가 발생되는 경우로서 이때, 파이프라인을 잠시 멈추고(stall) 캐쉬 미스 처리 과정(CM1 스테이지 및 CM2 스테이지)을 추가로 수행하게 된다. 이때, 파이프라인되어 처리되고 있는 모든 명령어의 수행은 캐쉬 미스 처리 과정 동안 스톨(stall)된다. 전술한 명령어 캐쉬의 경우와 마찬가지로 파이프라인 스톨은 "2" 이다.3 illustrates a pipeline processing process of a processor including a conventional data cache. First of all, when the first instruction is a load instruction or a store instruction, a cache miss occurs when a data cache is read from the MEM stage to an address to be loaded or stored. Stall the cache miss process (CM1 stage and CM2 stage) further. At this time, execution of all instructions being pipelined and processed is stalled during the cache miss process. As in the case of the instruction cache described above, the pipeline stall is "2".
종래의 파이프라인 처리 과정은 전술하였듯이 명령어 캐쉬 혹은 데이터 캐쉬에서 캐쉬 미스가 발생하였을 경우 캐쉬 미스 처리 과정 내내(도 2의 경우는 2사이클 동안) 파이프라인을 스톨시킴으로써 많은 사이클이 손실되는 문제점이 발생한다.In the conventional pipeline processing process, as described above, when a cache miss occurs in the instruction cache or the data cache, many cycles are lost by stalling the pipeline throughout the cache miss processing process (for 2 cycles in FIG. 2). .
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 파이프라인 방식의 MPU/MCU에서 캐쉬 미스 시의 명령어 처리 사이클 수를 줄일 수 있는 캐쉬 미스 시 처리 방법을 제공하는데 그 목적이 있다.An object of the present invention is to provide a cache miss processing method that can reduce the number of instruction processing cycles during cache misses in a pipelined MPU / MCU.
도 1은 종래의 5-스테이지 파이프라인 처리 과정을 도시한 개념도.1 is a conceptual diagram showing a conventional five-stage pipeline processing process.
도 2는 종래의 명령어 캐쉬를 포함한 프로세서의 파이프라인 처리 과정을 도시한 개념도.2 is a conceptual diagram illustrating a pipeline processing process of a processor including a conventional instruction cache.
도 3은 종래의 데이터 캐쉬를 포함한 프로세서의 파이프라인 처리 과정을 도시한 개념도.3 is a conceptual diagram illustrating a pipeline processing process of a processor including a conventional data cache.
도 4는 본 발명의 일실시예로, 명령어 캐쉬를 포함한 프로세서의 파이프라인 처리 과정을 도시한 개념도.4 is a conceptual diagram illustrating a pipeline processing process of a processor including an instruction cache according to an embodiment of the present invention.
도 5는 본 발명의 또다른 일실시예로, 데이터 캐쉬를 포함한 프로세서의 파이프라인 처리 과정을 도시한 개념도.5 is a conceptual diagram illustrating a pipeline processing process of a processor including a data cache according to another embodiment of the present invention.
상기 목적을 달성하기 위한 본 발명은 다수의 스테이지를 가진 파이프라인된 마이크로프로세서 및 마이크로컨트롤러의 명령어 캐쉬 미스 처리 방법에 있어서, 제1 명령어를 페치하는 어느 한 스테이지에서 명령어 캐쉬 히트 및 미스 여부에 관계없이 무조건 명령어 캐쉬 미스 시 필요한 외부 어드레스를 생성하는 제1 캐쉬 미스 사이클을 함께 수행하는 명령어 캐쉬 미스 처리 방법을 포함하여 이루어진다.In order to achieve the above object, the present invention provides a method for processing instruction cache misses of a pipelined microprocessor and a microcontroller having a plurality of stages, regardless of whether the instruction cache hits or misses at any stage of fetching the first instruction. An instruction cache miss processing method of performing a first cache miss cycle that generates an external address required for an unconditional instruction cache miss is performed.
또한, 본 발명은 다수의 스테이지를 가진 파이프라인된 마이크로프로세서 및 마이크로컨트롤러의 데이터 캐쉬 미스 처리 방법에 있어서, 상기 데이터 캐쉬를 읽어오는 어느 한 스테이지에서 데이터 캐쉬 히트 및 미스 여부에 관계없이 무조건 데이터 캐쉬 미스 시 필요한 외부 어드레스를 생성하는 제1 캐쉬 미스 사이클을 함께 수행하는 데이터 캐쉬 미스 처리 방법을 포함하여 이루어진다.In addition, the present invention provides a method for processing data cache misses of a pipelined microprocessor and a microcontroller having a plurality of stages, wherein the data cache misses at any stage of reading the data cache, regardless of whether the data cache hits or misses. And a data cache miss processing method for performing a first cache miss cycle for generating an external address required at the same time.
이하, 첨부된 도면을 참조하여 본 발명을 상세히 살펴본다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
도 4는 본 발명의 일실시예로, 명령어 캐쉬를 포함한 프로세서의 파이프라인 처리 과정을 도시한 것이다.4 is a diagram illustrating a pipeline processing process of a processor including an instruction cache according to one embodiment of the present invention.
명령어 캐쉬의 미스 처리 과정은 해당하는 명령어의 외부 어드레스를 생성한 후, 해당하는 명령어의 페치 등의 과정으로 이루어진다. 이때, 외부 어드레스 생성 등의 과정은 MPU/MCU의 내부 상태 변화에 직접적인 영향을 미치지 못하는 점에 착안하여, 종래의 IF 스테이지로부터 명령어 캐쉬의 히트/미스 여부에 상관없이 무조건적으로 외부 어드레스를 생성하는 IF/CM1스테이지를 새롭게 정의한다. 즉, IF/CM1에서 종래의 IF 스테이지에서 수행하던 명령어 페치 수행과 함께 무조건적으로 첫번째 캐쉬 미스 사이클을 수행하게 한다. 도면에 도시한 바와 같이, 먼저 제1 명령어의 처리과정을 살펴보면, 제1 명령어가 명령어 캐쉬 내에 존재하여 캐쉬 히트가 발생되는 경우로서 IF/CM1 스테이지에서 해당 명령어를 페치한 후 첫 번째 캐쉬 미스 사이클을 수행(캐쉬 히트임에도 불구하고)하고, 캐쉬 히트이므로 첫 번째 캐쉬 미스 사이클 처리 동작은 무시하고 다음 RD 스테이지로 넘어간다. 다음으로, 제1 명령어와 파이프라인 방식으로 수행되는 제2 명령어의 처리과정을 살펴보면, 제2 명령어가 명령어 캐쉬 내에 존재하지 않아 캐쉬 미스가 발생되는 경우로서 IF/CM1 스테이지에서 외부 어드레스 생성하는 첫 번째 캐쉬 미스 사이클을 수행하고, 파이프라인을 잠시 멈추고(stall) IF/CM1 스테이지에서 생성된 외부 어드레스로 두 번째 캐쉬 미스 처리 사이클(CM2 스테이지)을 수행한다. 상기와 같은 방법으로, 전술한 종래의 캐쉬 미스 처리에 필요한 2사이클의 파이프라인 스톨을 도 3에 도시된 바와 같이 1사이클로 줄일 수 있다.The miss processing of the instruction cache is performed by generating an external address of a corresponding instruction and then fetching the corresponding instruction. At this time, the process of generating an external address does not directly affect the internal state change of the MPU / MCU, so that the IF generates an external address unconditionally regardless of whether the instruction cache hits or misses from the conventional IF stage. / CM1 Defines a new stage. That is, the IF / CM1 performs the first cache miss cycle unconditionally along with the instruction fetch performed in the conventional IF stage. As shown in the figure, first, the processing of the first instruction, when the first instruction is present in the instruction cache and the cache hit occurs, the first cache miss cycle after fetching the instruction in the IF / CM1 stage It is a cache hit, and because it is a cache hit, it ignores the first cache miss cycle processing operation and proceeds to the next RD stage. Next, referring to the processing of the second instruction executed in a pipelined manner with the first instruction, a cache miss occurs because the second instruction does not exist in the instruction cache. Perform a cache miss cycle, stall the pipeline and perform a second cache miss processing cycle (CM2 stage) with the external address generated in the IF / CM1 stage. In this manner, the pipeline stall of two cycles required for the aforementioned conventional cache miss treatment can be reduced to one cycle as shown in FIG. 3.
도 5는 본 발명의 또다른 일실시예로, 데이터 캐쉬를 포함한 프로세서의 파이프라인 처리 과정을 도시한 것이다. 전술한 캐쉬 미스 처리 방법을 데이터 캐쉬에 적용할 경우로 MEM 스테이지와 CM1 스테이지를 하나로 처리하는 M/CM1 스테이지를 정의하여 MEM 스테이지에서 무조건적으로 첫 번째 캐쉬 미스 사이클을 미리 처리함으로써 데이터 캐쉬 미스일 경우에 데이터 페치 사이클을 1사이클 줄일 수 있게 한다.FIG. 5 illustrates a pipeline processing procedure of a processor including a data cache according to another embodiment of the present invention. In the case of applying the aforementioned cache miss processing method to the data cache, the M / CM1 stage which processes the MEM stage and the CM1 stage as one is defined and the data cache miss is processed by unconditionally processing the first cache miss cycle in the MEM stage. Allows you to reduce the data fetch cycle by one cycle.
이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하다는 것이 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.The present invention described above is not limited to the above-described embodiments and the accompanying drawings, and various substitutions, modifications, and changes can be made in the art without departing from the technical spirit of the present invention. It will be apparent to those of ordinary knowledge.
상기와 같이 이루어지는 본 발명은 캐쉬 미스의 경우 필요한 명령어 페치 사이클을 줄여 전체 프로세서의 처리 효율을 높이고, 고성능 다기능의 MPU/MCU 설계에 적용되어 고 부가가치의 MPU/MCU 구현이 가능하다.The present invention made as described above can increase the processing efficiency of the entire processor by reducing the instruction fetch cycle required in the case of a cache miss, it is possible to implement a high value-added MPU / MCU by applying to a high-performance multi-function MPU / MCU design.
Claims (6)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1019970077918A KR19990057839A (en) | 1997-12-30 | 1997-12-30 | How to deal with cache misses |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1019970077918A KR19990057839A (en) | 1997-12-30 | 1997-12-30 | How to deal with cache misses |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR19990057839A true KR19990057839A (en) | 1999-07-15 |
Family
ID=66172217
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1019970077918A Ceased KR19990057839A (en) | 1997-12-30 | 1997-12-30 | How to deal with cache misses |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR19990057839A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101236562B1 (en) * | 2010-01-08 | 2013-02-22 | 한국과학기술연구원 | Enhanced Software Pipeline Scheduling Method using Cash Profile |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR900006865A (en) * | 1988-10-11 | 1990-05-09 | 원본미기재 | Processor controlled interface with serial instructions |
| KR950001483A (en) * | 1993-06-30 | 1995-01-03 | 김광호 | Instruction prefetcher |
| JPH09146769A (en) * | 1995-11-20 | 1997-06-06 | Hitachi Ltd | Pipeline processing equipment |
| KR970705086A (en) * | 1995-05-26 | 1997-09-06 | 존 엠. 클락3세 | A pipelined microprocessor that makes memory requests to the cache memory and to the external memory controller during the same clock cycle (A Pipelined Microprocessor that Makes Memory Requests to a Cache Memory and an External Memory Controller During the Same Clock Cycle) |
-
1997
- 1997-12-30 KR KR1019970077918A patent/KR19990057839A/en not_active Ceased
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR900006865A (en) * | 1988-10-11 | 1990-05-09 | 원본미기재 | Processor controlled interface with serial instructions |
| KR950001483A (en) * | 1993-06-30 | 1995-01-03 | 김광호 | Instruction prefetcher |
| KR970705086A (en) * | 1995-05-26 | 1997-09-06 | 존 엠. 클락3세 | A pipelined microprocessor that makes memory requests to the cache memory and to the external memory controller during the same clock cycle (A Pipelined Microprocessor that Makes Memory Requests to a Cache Memory and an External Memory Controller During the Same Clock Cycle) |
| JPH09146769A (en) * | 1995-11-20 | 1997-06-06 | Hitachi Ltd | Pipeline processing equipment |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101236562B1 (en) * | 2010-01-08 | 2013-02-22 | 한국과학기술연구원 | Enhanced Software Pipeline Scheduling Method using Cash Profile |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3186798B2 (en) | Partially decoded instruction cache | |
| JP3499252B2 (en) | Compiling device and data processing device | |
| KR100412920B1 (en) | High data density risc processor | |
| CN101164043A (en) | Lookahead Branch Target Address Cache | |
| JP3543181B2 (en) | Data processing device | |
| KR20090094335A (en) | Methods and apparatus for recognizing a subroutine call | |
| US6687808B2 (en) | Data processor using indirect register addressing | |
| JP4841861B2 (en) | Arithmetic processing device and execution method of data transfer processing | |
| CN112559037B (en) | Instruction execution method, unit, device and system | |
| US6898693B1 (en) | Hardware loops | |
| CN104657110A (en) | Instruction cache having fixed number of variable length instructions | |
| CN113568663A (en) | code prefetch instructions | |
| CN116339832A (en) | Data processing device, method and processor | |
| US6748523B1 (en) | Hardware loops | |
| US7620804B2 (en) | Central processing unit architecture with multiple pipelines which decodes but does not execute both branch paths | |
| US9880839B2 (en) | Instruction that performs a scatter write | |
| JP2004145454A (en) | Information processing apparatus and information processing method | |
| US9395985B2 (en) | Efficient central processing unit (CPU) return address and instruction cache | |
| US6766444B1 (en) | Hardware loops | |
| KR19990057839A (en) | How to deal with cache misses | |
| KR100300875B1 (en) | How to deal with cache misses | |
| JP2007257349A (en) | Processor and processing method thereof | |
| JP3147884B2 (en) | Storage device and information processing device | |
| JP3739556B2 (en) | Information processing device | |
| KR20000003447A (en) | Unconditional branch method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 19971230 |
|
| PG1501 | Laying open of application | ||
| A201 | Request for examination | ||
| PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20021104 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 19971230 Comment text: Patent Application |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20040820 Patent event code: PE09021S01D |
|
| N231 | Notification of change of applicant | ||
| PN2301 | Change of applicant |
Patent event date: 20041006 Comment text: Notification of Change of Applicant Patent event code: PN23011R01D |
|
| E601 | Decision to refuse application | ||
| PE0601 | Decision on rejection of patent |
Patent event date: 20041125 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20040820 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |