[go: up one dir, main page]

TWI840403B - 學習裝置、推論裝置、學習模型的生成方法及推論方法 - Google Patents

學習裝置、推論裝置、學習模型的生成方法及推論方法 Download PDF

Info

Publication number
TWI840403B
TWI840403B TW108130789A TW108130789A TWI840403B TW I840403 B TWI840403 B TW I840403B TW 108130789 A TW108130789 A TW 108130789A TW 108130789 A TW108130789 A TW 108130789A TW I840403 B TWI840403 B TW I840403B
Authority
TW
Taiwan
Prior art keywords
image data
data
processed image
simulator
learning
Prior art date
Application number
TW108130789A
Other languages
English (en)
Other versions
TW202024377A (zh
Inventor
中郷孝祐
本木大資
渡部正樹
小松智希
Original Assignee
日商首選網絡股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日商首選網絡股份有限公司 filed Critical 日商首選網絡股份有限公司
Publication of TW202024377A publication Critical patent/TW202024377A/zh
Application granted granted Critical
Publication of TWI840403B publication Critical patent/TWI840403B/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • CCHEMISTRY; METALLURGY
    • C23COATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; CHEMICAL SURFACE TREATMENT; DIFFUSION TREATMENT OF METALLIC MATERIAL; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL; INHIBITING CORROSION OF METALLIC MATERIAL OR INCRUSTATION IN GENERAL
    • C23CCOATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; SURFACE TREATMENT OF METALLIC MATERIAL BY DIFFUSION INTO THE SURFACE, BY CHEMICAL CONVERSION OR SUBSTITUTION; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL
    • C23C14/00Coating by vacuum evaporation, by sputtering or by ion implantation of the coating forming material
    • C23C14/22Coating by vacuum evaporation, by sputtering or by ion implantation of the coating forming material characterised by the process of coating
    • C23C14/54Controlling or regulating the coating process
    • CCHEMISTRY; METALLURGY
    • C23COATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; CHEMICAL SURFACE TREATMENT; DIFFUSION TREATMENT OF METALLIC MATERIAL; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL; INHIBITING CORROSION OF METALLIC MATERIAL OR INCRUSTATION IN GENERAL
    • C23CCOATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; SURFACE TREATMENT OF METALLIC MATERIAL BY DIFFUSION INTO THE SURFACE, BY CHEMICAL CONVERSION OR SUBSTITUTION; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL
    • C23C16/00Chemical coating by decomposition of gaseous compounds, without leaving reaction products of surface material in the coating, i.e. chemical vapour deposition [CVD] processes
    • C23C16/44Chemical coating by decomposition of gaseous compounds, without leaving reaction products of surface material in the coating, i.e. chemical vapour deposition [CVD] processes characterised by the method of coating
    • C23C16/52Controlling or regulating the coating process
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • H01L21/04Manufacture or treatment of semiconductor devices or of parts thereof the devices having potential barriers, e.g. a PN junction, depletion layer or carrier concentration layer
    • H01L21/18Manufacture or treatment of semiconductor devices or of parts thereof the devices having potential barriers, e.g. a PN junction, depletion layer or carrier concentration layer the devices having semiconductor bodies comprising elements of Group IV of the Periodic Table or AIIIBV compounds with or without impurities, e.g. doping materials
    • H01L21/30Treatment of semiconductor bodies using processes or apparatus not provided for in groups H01L21/20 - H01L21/26
    • H01L21/302Treatment of semiconductor bodies using processes or apparatus not provided for in groups H01L21/20 - H01L21/26 to change their surface-physical characteristics or shape, e.g. etching, polishing, cutting
    • H01L21/306Chemical or electrical treatment, e.g. electrolytic etching
    • H01L21/3065Plasma etching; Reactive-ion etching
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/67005Apparatus not specifically provided for elsewhere
    • H01L21/67011Apparatus for manufacture or treatment
    • H01L21/67017Apparatus for fluid treatment
    • H01L21/67063Apparatus for fluid treatment for etching
    • H01L21/67069Apparatus for fluid treatment for etching for drying etching
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Materials Engineering (AREA)
  • Organic Chemistry (AREA)
  • Metallurgy (AREA)
  • Mechanical Engineering (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Power Engineering (AREA)
  • Computer Hardware Design (AREA)
  • Manufacturing & Machinery (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Chemical & Material Sciences (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Plasma & Fusion (AREA)
  • Drying Of Semiconductors (AREA)
  • Image Analysis (AREA)

Abstract

提供一種可代替製造過程的模擬器的已學習模型。學習裝置具備至少一個記憶體和至少一個處理器,上述至少一個處理器被構成為執行:獲取相對於圖像資料的模擬器的參數;以及藉有將上述圖像資料和上述參數輸入學習模型,並使上述學習模型的輸出與相對於上述圖像資料的上述模擬器的結果接近的方式對上述學習模型進行學習。

Description

學習裝置、推論裝置、學習模型的生成方法及推論方法
本發明涉及學習裝置、推論裝置、學習模型的生成方法及推論方法。
以往,半導體製造廠商藉由生成各製程(例如,乾蝕刻、沉積等)的物理模型並執行模擬,以根據模擬結果進行最佳製法的探索、程序(process)參數的調整等。
這裡,在進行物理模型那樣的反複試驗的模型的情況下,為了執行模擬需要一定的時間。為此,最近,作為基於物理模型的模擬器的代替,正在探討被進行了機器學習的已學習模型的應用。
另一方面,為了代替基於物理模型的模擬器,需要已學習模型也能夠對該模擬器所執行的模擬進行再現。
本公開提供一種可代替製程的模擬器的已學習模型。
基於本公開的一個形態的學習裝置例如具有如下構成。即、具備:至少一個記憶體;及 至少一個處理器,上述至少一個處理器被構成為執行:獲取相對於圖像資料(image data)的模擬器的參數;及藉由將上述圖像資料和上述參數輸入學習模型,並使上述學習模型的輸出接近相對於上述圖像資料的上述模擬器的結果的方式,對上述學習模型進行學習。
100:模擬系統
110:學習裝置
111:資料整形部
112:學習部
113:學習用資料保存部
120:推論裝置
121:資料整形部
122:執行部
130:模擬裝置
131:執行部
132:處理前圖像資料保存部
300:學習用資料
310:乾蝕刻用模擬器
320:沉積用模擬器
420:乾蝕刻用學習模型
421:沉積用學習模型
430:比較部
440:變更部
501:形狀資料獲取部
502:通道資料生成部
511:參數資料獲取部
512:參數資料展開部
520:連接部
600:處理前圖像資料
601~605:通道資料
610:參數資料
611~613:被進行了2維排列的參數資料
620:連接資料
700:輸出結果
920:乾蝕刻用已學習模型
921:沉積用已學習模型
930:輸出部
1200:資料整形部
1201:連接部
1300:乾蝕刻用學習模型
1301:神經網路部
1310:連接資料
1400:學習部
1510、1520:資料整形部
1511:壓縮部
[第1圖]圖1是模擬系統的整體結構的一例的示意圖。
[第2圖]圖2是構成模擬系統的各裝置的硬體結構的一例的示意圖。
[第3圖]圖3是學習用資料的一例的示意圖。
[第4圖]圖4是第1實施方式的學習裝置的學習部的功能構成的一例的示意圖。
[第5圖]圖5是第1實施方式的學習裝置的資料整形部的功能構成的一例的示意圖。
[第6圖]圖6是基於第1實施方式的學習裝置的資料整形部的處理的具體實例的示意圖。
[第7圖]圖7是基於第1實施方式的學習裝置的乾蝕刻用學習模型的處理的具體實例的示意圖。
[第8圖]圖8是表示模擬系統中的學習處理的流程的流程圖。
[第9圖]圖9是推論裝置的執行部的功能構成的一例的示意圖。
[第10圖]圖10是乾蝕刻用已學習模型的模擬精度的示意圖。
[第11圖]圖11是沉積用已學習模型的模擬精度的示意圖。
[第12圖]圖12是第2實施方式的學習裝置的資料整形部的功能構成的 一例的示意圖。
[第13圖]圖13是基於第2實施方式的學習裝置的乾蝕刻用學習模型的處理的具體實例的示意圖。
[第14圖]圖14是第3實施方式的學習裝置的學習部的功能構成的一例的示意圖。
[第15圖]圖15是第4實施方式的學習裝置的資料整形部的功能構成的一例的示意圖。
以下,參照添附的圖示對各實施方式進行說明。需要說明的是,本說明書和圖示中,對具有實質相同的功能構成的構成要素賦予了相同的符號,由此對重複的說明進行了省略。
〔第1實施方式〕
<模擬系統的整體結構>
首先,對進行半導體製程的模擬的模擬系統的整體結構進行說明。圖1是模擬系統的整體結構的一例的示意圖。如圖1所示,模擬系統100具有學習裝置110、推論裝置120、及模擬裝置130。
學習裝置110中安裝有資料整形程式和學習程式,藉由執行該程式,學習裝置110作為資料整形部111和學習部112而發揮功能。
資料整形部111是加工部的一例。資料整形部111讀取從模擬裝置130發送並保存於學習用資料保存部113的學習用資料,並將所讀取的學習用資料的一部分加工成適於學習部112將其輸入學習模型的預定的形式。
學習部112使用所讀取的學習用資料(包括被資料整形部 111進行加工後的學習用資料)對學習模型進行機器學習,以生成半導體製程的已學習模型。學習部112生成的已學習模型被提供至推論裝置120。
推論裝置120中安裝有資料整形程式和執行程式,藉有執行該程式,推論裝置120作為資料整形部121和執行部122而發揮功能。
資料整形部121是加工部的一例,用於讀取從模擬裝置130發送的處理前圖像資料和參數資料(詳細內容後述)。此外,資料整形部121將所獲取的參數資料加工成適於執行部122將其輸入已學習模型的預定的形式。
執行部122將處理前圖像資料和在資料整形部121中被加工成預定的形式的參數資料輸入已學習模型,並藉由執行模擬,輸出(推論出)處理後圖像資料(模擬結果)。
模擬裝置130中安裝有執行程式,藉有執行該程式,模擬裝置130作為執行部131而發揮功能。
執行部131具有藉由對使用物理法則等對半導體製程進行識別(identification)而獲得的物理模型設定表示預定的處理條件的參數資料而進行模擬的模擬器(所謂的基於物理模型的模擬器)。執行部131從處理前圖像資料保存部132讀取處理前圖像資料,並使用基於物理模型的模擬器進行模擬,藉此輸出處理後圖像資料(模擬結果)。
執行部131所讀取的處理前圖像資料包括表示半導體製程(例如,乾蝕刻、沉積等)中的處理對象(晶圓)的處理前的形狀的圖像資料。需要說明的是,半導體製程中的處理對象由多種材質(material)構成,處理前圖像資料的各像素例如可藉由與各材質的組成比例(或含有比例)相應的像素值進行表現。然而,處理前圖像資料的表現形式並不限定 於此,也可藉由其他的表現形式來進行表現。
就執行部131藉由執行模擬而輸出的處理後圖像資料而言,在使用乾蝕刻用模擬器的情況下,為表示乾蝕刻後的形狀的圖像資料。
此外,就執行部131藉由執行模擬而輸出的處理後圖像資料而言,在使用沉積用模擬器的情況下,其為表示沉積處理後的形狀的圖像資料。
需要說明的是,藉由半導體製程處理的處理後的處理對象也由多種材質構成,處理後圖像資料的各像素例如可藉由基於各材質的組成比例(或含有比例)的像素值來進行表現。然而,處理後圖像資料的表現形式並不限定於此,與處理前圖像資料同樣地也可藉由其他表現形式進行表現。
執行部131生成包含執行模擬時所使用的處理前圖像資料、對應的參數資料、及處理後圖像資料的學習用資料,並將其發送至學習裝置110。
另外,執行部131還將推論裝置120的用戶對已學習模型進行驗證時所使用的處理前圖像資料、參數資料、及處理後圖像資料發送至推論裝置120。
推論裝置120的用戶對執行部122藉由使用已學習模型執行模擬而輸出的處理後圖像資料和從執行部131發送的處理後圖像資料進行對比,據此對已學習模型進行驗證。
具體而言,推論裝置120的用戶對
‧推論裝置120中從處理前圖像資料和參數資料被輸入資料整形部 121開始至處理後圖像資料從執行部122被輸出為止的模擬時間
‧模擬裝置130中在對基於物理模型的模擬器設定了參數資料的狀態下從處理前圖像資料被輸入執行部131開始至處理後圖像資料從執行部131被輸出為止的模擬時間
進行對比。據此,推論裝置120的用戶可對已學習模型的模擬時間與基於物理模型的模擬器的模擬時間相比是否被縮短了進行驗證。
此外,推論裝置120的用戶還對
‧推論裝置120中藉由將處理前圖像資料和參數資料輸入資料整形部121而從執行部122輸出的處理後圖像資料
‧模擬裝置130中在對基於物理模型的模擬器設定了參數資料的狀態下藉由將處理前圖像資料輸入執行部131而從執行部131輸出的處理後圖像資料
進行對比。據此,推論裝置120的用戶可對已學習模型相對於基於物理模型的模擬器的模擬精度(是否具有能夠替代基於物理模型的模擬器的模擬精度)進行驗證。
需要說明的是,驗證結束後,可將任意的處理前圖像資料和任意的參數資料輸入推論裝置120,以執行各種各樣的模擬。
<構成模擬系統的各裝置的硬體結構>
接下來,使用圖2對構成模擬系統100的各裝置(學習裝置110、推論裝置120、及模擬裝置130)的硬體結構進行說明。圖2是構成模擬系統的各裝置的硬體結構的一例的示意圖。
需要說明的是,學習裝置110和推論裝置120的硬體結構大致相同,故這裡僅對學習裝置110的硬體結構進行說明。
(1)學習裝置110的硬體結構
圖2的2a是學習裝置110的硬體結構的一例的示意圖。如圖2的2a所示,學習裝置110具有CPU(Central Processing Unit)201和ROM(Read Only Memory)202。此外,學習裝置110還具有RAM(Random Access Memory)203和GPU(Graphics Processing Unit)204。需要說明的是,CPU 201、GPU 204等的處理器(處理電路、Processing Circuit、及Processing Circuitry)和ROM 202、RAM 203等的記憶體可形成所謂的電腦(電子計算機)。
另外,學習裝置110還具有補助記憶裝置205、操作裝置206、顯示裝置207、I/F(Interface)裝置208、及驅動裝置209。需要說明的是,學習裝置110的各硬體經由匯流排210相互連接。
CPU 201是對補助記憶裝置205中安裝的各種程式(例如,資料整形程式、學習程式等)進行執行的演算裝置。
ROM 202是非揮發性記憶體,作為主記憶裝置而發揮功能。ROM 202中保存有當CPU 201執行補助記憶裝置205中安裝的各種程式時所需的各種程式、資料等。具體而言,ROM 202中保存有BIOS(Basic Input/Output System)、EFI(Extensible Firmware Interface)等的引導載入程式等。
RAM 203是DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)等的揮發性記憶體,作為主記憶裝置而發揮功能。RAM 203可提供當補助記憶裝置205中安裝的各種程式 被CPU 201執行時所展開的工作區域。
GPU 204是圖像處理用演算裝置,當CPU 201執行各種程式時,對各種圖像資料執行基於並列處理的高速演算。
補助記憶裝置205是對各種程式、當各種程式被CPU 201執行時由GPU 204進行圖像處理的各種圖像資料等進行保存的記憶部。例如,學習用資料保存部113可在補助記憶裝置205中被實現。
操作裝置206是當學習裝置110的管理者向學習裝置110輸入各種指示時所使用的輸入裝置。顯示裝置207是對學習裝置110的內部資訊(information)進行顯示的顯示裝置。
I/F裝置208是與其他裝置(例如,模擬裝置130)連接並用於進行通信的連接裝置。
驅動裝置209是用於裝載(set)記錄介質220的裝置。這裡所言的記錄介質220包括如CD-ROM、軟盤、磁光碟等那樣可對資訊以光學、電、或磁的方式進行記錄的介質。此外,記錄介質220還可包括如ROM、快閃記憶體等那樣能夠對資訊以電的方式進行記錄的半導體記憶體等。
需要說明的是,就補助記憶裝置205中安裝的各種程式而言,例如可藉由將分發的記錄介質220裝載至驅動裝置209,然後由驅動裝置209讀取該記錄介質220中記錄的各種程式的方式而被安裝。或者,就補助記憶裝置205中安裝的各種程式而言,還可採用經由未圖示的網路進行下載(download)的方式而被安裝。
(2)模擬裝置130的硬體結構
圖2的2b是模擬裝置130的硬體結構的一例的示意圖。需要說明的 是,如圖2的2b所示,模擬裝置130的硬體結構與學習裝置110的硬體結構相同,故這裡省略其說明。
<學習用資料的說明>
接下來,對從模擬裝置130發送並被保存於學習用資料保存部113的學習用資料進行說明。圖3是學習用資料的一例的示意圖。如圖3所示,學習用資料300中,作為資訊的項目,包括“工序”、“模擬ID”、“處理前圖像資料”、“參數資料”、及“處理後圖像資料”。
“工序”中保存表示半導體製程的名稱。圖3的例中示出了作為“工序”而保存了「乾蝕刻」和「沉積」這2個名稱的情形。
“模擬ID”中保存用於對執行部131使用各模擬器所執行的各模擬進行識別的識別符。需要說明的是,第1實施方式中,執行部131具有乾蝕刻用模擬器310和沉積用模擬器320,是一種藉由使用該各模擬器執行模擬的執行部。
圖3的例中示出了作為執行部131藉由使用乾蝕刻用模擬器310所執行的模擬的“模擬ID”而保存了「S001」和「S002」的情形。此外,圖3的例中還示出了作為執行部131藉由使用沉積用模擬器320所執行的模擬的“模擬ID”而保存了「S101」的情形。
“處理前圖像資料”中保存當執行部131藉由使用各模擬器執行模擬時所輸入的處理前圖像資料的文件(file)名。圖3的例中示出了在模擬ID=S001的情況下將“文件名”為「形狀資料LD001」的處理前圖像資料輸入乾蝕刻用模擬器310並執行模擬的情形。此外,圖3的例中還示出了在模擬ID=S002的情況下將“文件名”為「形狀資料LD002」的處理前圖像資料輸入乾蝕刻用模擬器310並執行模擬的情形。另外,圖3的例中還 示出了在模擬ID=S101的情況下將“文件名”為「形狀資料LD101」的處理前圖像資料輸入沉積用模擬器320並執行模擬的情形。
“參數資料”中保存表示當執行部131執行模擬時各模擬器中設定的預定的處理條件的資訊。圖3的例中示出了當藉由使用乾蝕刻用模擬器310執行模擬ID=S001的模擬時執行部131設定了「參數001_1」、「參數001_2」...等的情形。
需要說明的是,就「參數001_1」、「參數001_2」...等而言,具體是指如下所述的值。
‧每種材質的削除比率(etch ratio)
‧每種材質的削除方向(lateral ratio)
‧每種材質的削除深度(depth)
“處理後圖像資料”中保存執行部131藉由使用各模擬器執行模擬而輸出的處理後圖像資料的文件名。圖3的例中示出了在模擬ID=S001的情況下藉由使用乾蝕刻用模擬器310執行模擬而輸出“文件名”=「形狀資料LD001'」的處理後圖像資料的情形。
此外,圖3的例中還示出了在模擬ID=S002的情況下藉由使用乾蝕刻用模擬器310執行模擬而輸出“文件名”=「形狀資料LD002'」的處理後圖像資料的情形。
另外,圖3的例中還示出了在模擬ID=S101的情況下藉由使用沉積用模擬器320執行模擬而輸出“文件名”=「形狀資料LD101'」的處理後圖像資料的情形。
需要說明的是,執行部131藉由使用各模擬器執行模擬而生成學習用資料300,並將其發送至學習裝置110。據此,學習裝置110的 學習用資料保存部113可保存學習用資料300。
<學習裝置的功能構成>
接下來,對學習裝置110的各部分(資料整形部111和學習部112)的功能構成的詳細內容進行說明。
(1)學習部的功能構成的詳細內容
首先,對學習裝置110的學習部112的功能構成的詳細內容進行說明。圖4是第1實施方式的學習裝置的學習部的功能構成的一例的示意圖。如圖4所示,學習裝置110的學習部112具有乾蝕刻用學習模型420、沉積用學習模型421、比較部430、及變更部440。
學習用資料保存部113中保存的學習用資料300的處理前圖像資料和參數資料被資料整形部111讀取,並被輸入對應的學習模型。需要說明的是,本實施方式中,參數資料被資料整形部111加工成預定的形式,然後被輸入對應的學習模型,但資料整形部111也可讀取預先已被加工成預定的形式的參數資料,並將其輸入對應的學習模型。
乾蝕刻用學習模型420中輸入處理前圖像資料和被資料整形部111加工成預定的形式的參數資料(限於與“工序”=「乾蝕刻」進行了聯繫的處理前圖像資料和參數資料)。處理前圖像資料和被加工成預定的形式的參數資料被輸入後,乾蝕刻用學習模型42對輸出結果進行輸出。此外,乾蝕刻用學習模型420還將輸出結果輸入比較部430。
同樣,沉積用學習模型421中輸入處理前圖像資料和被資料整形部111加工成預定的形式的參數資料(限於與“工序”=「沉積」進行了聯繫的處理前圖像資料和參數資料)。處理前圖像資料和被加工成預定的形式的參數資料被輸入後,沉積用學習模型421對輸出結果進行輸出。 此外,沉積用學習模型421還將輸出結果輸入比較部430。
比較部430對從乾蝕刻用學習模型420輸出的輸出結果和學習用資料300的處理後圖像資料(與“工序”=「乾蝕刻」進行了聯繫的處理後圖像資料)進行比較,並將差分資訊通知給變更部440。
同樣,比較部430對從沉積用學習模型421輸出的輸出結果和學習用資料300的處理後圖像資料(與“工序”=「沉積」進行了聯繫的處理後圖像資料)進行比較,並將差分資訊通知給變更部440。
變更部440根據從比較部430通知的差分資訊對乾蝕刻用學習模型420或沉積用學習模型421的模型參數進行更新。需要說明的是,模型參數的更新中使用的差分資訊可為平方誤差也可為絕對誤差。
如此,學習部112以將處理前圖像資料和被加工成預定的形式的參數資料輸入學習模型,並使從學習模型輸出的輸出結果與處理後圖像資料接近的方式,藉由機器學習對模型參數進行更新。
(2)資料整形部的功能構成的詳細內容
接下來,對學習裝置110的資料整形部111的功能構成的詳細內容進行說明。圖5是第1實施方式的學習裝置的資料整形部的功能構成的一例的示意圖。如圖5所示,資料整形部111具有形狀資料獲取部501、通道(channel)資料生成部502、參數資料獲取部511、參數資料展開部512、及連接部520。
形狀資料獲取部501從學習用資料保存部113讀取學習用資料300的處理前圖像資料,並將其通知給通道資料生成部502。
通道資料生成部502是生成部的一例。通道資料生成部502獲取從形狀資料獲取部501通知的處理前圖像資料(這裡,其為藉由與各材 質的組成比例(或含有比例)相應的像素值而表現的處理前圖像資料)。此外,通道資料生成部502還根據所獲取的處理前圖像資料生成與材質的種類相應的多個通道的圖像資料。以下,將與材質的種類相應的通道的圖像資料稱為通道資料。例如,通道資料生成部502根據處理前圖像資料生成包含空氣的層的通道資料和分別包含4種材質的層的4個通道資料。
此外,通道資料生成部502還將所生成的多個通道資料通知給連接部520。需要說明的是,本實施方式中,通道資料生成部502儘管用於生成通道資料,但也可預先生成通道資料。此情況下,通道資料生成部502讀取預先生成的通道資料,並將其通知給連接部520。
參數資料獲取部511從學習用資料保存部113讀取學習用資料300的參數資料,並將其通知給參數資料展開部512。
參數資料展開部512將從參數資料獲取部511通知的參數資料加工成與處理前圖像資料相應的預定的形式(與處理前圖像資料的縱向尺寸和橫向尺寸相應的2維排列的形式)。
這裡,參數資料例如「參數001_1」、「參數001_2」、「參數001_3」...等各參數的數值被進行了1維排列。具體而言,參數資料的N種類的參數的數值被進行了1維排列。
為此,參數資料展開部512可按照每個種類提取參數資料中所含的N種類的參數的數值,並將所提取的數值與處理前圖像資料的縱向尺寸和橫向尺寸相應地進行2維排列。其結果為,參數資料展開部512可生成被進行了2維排列的N個的參數資料。
此外,參數資料展開部512還將被進行了2維排列的N個參數資料通知給連接部520。
連接部520將從參數資料展開部512通知的被進行了2維排列的N個的參數資料與從通道資料生成部502通知的多個通道資料進行連接作為新通道,並生成連接資料。需要說明的是,本實施方式中,儘管藉由連接部520生成連接資料,但也可預先生成連接資料。此情況下,連接部520讀取預先生成的連接資料,並將其輸入學習模型。
<基於學習裝置的各部分的處理的具體實例>
接下來,對基於學習裝置110的各部分的處理中的、基於上述資料整形部111的處理和基於學習部112內的乾蝕刻用學習模型420的處理的具體實例進行說明。
(1)基於資料整形部的處理的具體實例
圖6是基於資料整形部的處理的具體實例的示意圖。圖6中,處理前圖像資料600例如為“文件名”=「形狀資料LD001」的處理前圖像資料。
如圖6所示,處理前圖像資料600包含空氣的層、材質A的層、材質B的層、材質C的層、及材質D的層。此情況下,通道資料生成部502可生成通道資料601、602、603、604、及605。
另外,如圖6所示,參數資料610例如各參數(「參數001_1」、「參數001_2」、「參數001_3」...等)的數值被進行了1維排列。
此情況下,參數資料展開部512根據處理前圖像資料600的縱向尺寸和橫向尺寸對參數001_1進行2維排列(對相同的值沿縱向和橫向進行排列)。同樣,參數資料展開部512根據處理前圖像資料600的縱向尺寸和橫向尺寸對參數001_2進行2維排列。同樣,參數資料展開部512根據處理前圖像資料600的縱向尺寸和橫向尺寸對參數001_3進行2維排列。
被進行了2維排列的參數資料611、612、613等藉由連接部 520與通道資料601、602、603、604、605連接作為新通道,由此生成連接資料620。
(2)基於乾蝕刻用學習模型的處理的具體實例
接下來,對基於學習部112內的乾蝕刻用學習模型420的處理的具體實例進行說明。圖7是基於第1實施方式的學習裝置的乾蝕刻用學習模型的處理的具體實例的示意圖。如圖7所示,本實施方式中,作為乾蝕刻用學習模型420,使用了基於U字型卷積神經網路(CNN:Convolutional Neural Network)的學習模型(所謂的UNET)。
在UNET的情況下,一般而言,輸入圖像資料,並輸出圖像資料。為此,作為學習部112的學習模型使用該UNET,藉此可對半導體製程的處理前後的圖像資料進行輸入和輸出。
另一方面,在UNET的情況下,就還沒有變成圖像資料的形式的資料而言,需要預先將其加工成圖像資料的形式。上述資料整形部111的參數資料展開部512被構成為對參數資料進行2維排列的目的在於,使輸入UNET的資料成為圖像資料的形式。藉由使參數資料的輸入成為可能,UNET中也可實現基於物理模型的模擬器中所實現的模擬內容。
圖7的例子示出了將連接資料620輸入使用了UNET的乾蝕刻用學習模型420,並輸出包含多個通道資料的輸出結果700的情形。
需要說明的是,圖7的例子中,儘管示出了基於乾蝕刻用學習模型420的處理的具體實例,但基於沉積用學習模型421的處理的具體實例也同樣。
<模擬系統中的學習處理的流程>
接下來,對模擬系統100中的學習處理的流程進行說明。圖8是表示 模擬系統中的學習處理的流程的流程圖。
步驟S801中,模擬裝置130的執行部131根據模擬裝置130的管理者的指示將參數資料設定於乾蝕刻用模擬器310或沉積用模擬器320。
步驟S802中,模擬裝置130的執行部131從處理前圖像資料保存部132讀取處理前圖像資料。此外,執行部131使用乾蝕刻用模擬器310或沉積用模擬器320執行模擬(生成處理後圖像資料)。
步驟S803中,模擬裝置130的執行部131生成學習用資料,並將其發送至學習裝置110。執行部131所生成的學習用資料中包含執行模擬時所設定的參數資料、執行模擬時所輸入的處理前圖像資料、及執行模擬時所生成的處理後圖像資料。
步驟S804中,學習裝置110的資料整形部111根據學習用資料中包含的處理前圖像資料和參數資料生成連接資料。
步驟S805中,學習裝置110的學習部112將連接資料作為輸入,並將處理後圖像資料作為輸出,由此對學習模型進行機器學習,以生成已學習模型。
步驟S806中,學習裝置110的學習部112將所生成的已學習模型發送至推論裝置120。
<推論裝置的功能構成>
接下來,對推論裝置120的功能構成的詳細內容進行說明。需要說明的是,推論裝置120的各部分(資料整形部121和執行部122)中的資料整形部121的功能構成的詳細內容與學習裝置110的資料整形部111的功能構成的詳細內容相同。為此,這裡對資料整形部121的功能構成的詳細內容的 說明進行了省略,以下僅對執行部122的功能構成的詳細內容進行說明。
圖9是推論裝置的執行部的功能構成的一例的示意圖。如圖9所示,推論裝置120的執行部122具有乾蝕刻用已學習模型920、沉積用已學習模型921、及輸出部930。
從模擬裝置130例如將還沒有被使用的作為學習用資料300的處理前圖像資料與參數資料一起發送至推論裝置120後,資料整形部121生成連接資料,並將其輸入執行部122的各已學習模型。圖9的例子示出了將作為學習用資料300的還沒有被使用的處理前圖像資料的、“文件名”=「形狀資料SD001」、「形狀資料SD002」...等發送至推論裝置120的情形。
需要說明的是,如圖9所示,該處理前圖像資料(例如,“文件名”=「形狀資料SD001」、「形狀資料SD002」...等)也可並列輸入執行部131。之後,執行部131使用各模擬器執行模擬,並輸出處理後圖像資料(例如,“文件名”=「形狀資料SD001'」、「形狀資料SD002'」...等)。
乾蝕刻用已學習模型920在資料整形部121所生成的連接資料被輸入後執行模擬。此外,乾蝕刻用已學習模型920還將藉由執行模擬而輸出的輸出結果通知給輸出部930。
同樣,沉積用已學習模型921在資料整形部121所生成的連接資料被輸入後執行模擬。此外,沉積用已學習模型921還將藉由執行模擬而輸出的輸出結果通知給輸出部930。
輸出部930根據從乾蝕刻用已學習模型920通知的輸出結果生成處理後圖像資料(例如,“文件名”=「形狀資料SD001"」),並將其作為模擬結果進行輸出。同樣,輸出部930根據從沉積用已學習模型921通 知的輸出結果生成處理後圖像資料(例如,“文件名”=「形狀資料SD101"」),並將其作為模擬結果進行輸出。
這裡,推論裝置120的用戶藉由對至從輸出部930輸出處理後圖像資料為止的時間和至從執行部131輸出處理後圖像資料為止的時間進行對比,可對推論裝置120的模擬時間進行驗證。此外,推論裝置120的用戶藉由對從輸出部930輸出的處理後圖像資料和從執行部131輸出的處理後圖像資料進行對比,可對推論裝置120的模擬精度進行驗證。
需要說明的是,根據第1實施方式,基於執行部122的各已學習模型的模擬時間與基於執行部131的各模擬器的模擬時間相比縮短了。其原因在於,在基於各已學習模型的模擬的情況下,並不需要如基於各模擬器的模擬那樣進行反複試驗,並且,還可藉由基於GPU 204的並列處理進行高速演算。
此外,根據第1實施方式,執行部122的各已學習模型可實現能夠代替執行部131的各模擬器的模擬精度。其原因在於,各已學習模型藉由使用輸入輸出於各模擬器的處理前圖像資料和處理後圖像資料進行了機器學習。
圖10是乾蝕刻用已學習模型的模擬精度的示意圖。其中,圖10的10a示出了作為比較對象的藉由模擬裝置130的乾蝕刻用模擬器310執行模擬的情況下的處理前圖像資料和處理後圖像資料。
另一方面,圖10的10b示出了藉由推論裝置120的乾蝕刻用已學習模型920進行模擬的情況下的處理前圖像資料和處理後圖像資料。
將圖10的10a的處理後圖像資料和圖10的10b的處理後圖像資料進行對比可知,兩者並無差異。故可認為,乾蝕刻用已學習模型920 具有能夠代替乾蝕刻用模擬器310的模擬精度。
同樣,圖11是沉積用已學習模型的模擬精度的示意圖。其中,圖11的11a示出了作為比較對象的藉由模擬裝置130的沉積用模擬器320執行模擬的情況下的處理前圖像資料和處理後圖像資料。
另一方面,圖11的11b示出了藉由推論裝置120的沉積用已學習模型921執行模擬的情況下的處理前圖像資料和處理後圖像資料。
將圖11的11a的處理後圖像資料和圖11的11b的處理後圖像資料進行對比可知,兩者並無差異。故可認為,沉積用已學習模型921具有能夠代替沉積用模擬器320的模擬精度。
<總結>
根據以上的說明可知,第1實施方式的學習裝置
‧獲取輸入基於物理模型的模擬器的處理前圖像資料和基於物理模型的模擬器中設定的參數資料;‧根據所獲取的處理前圖像資料的縱向尺寸和橫向尺寸,將所獲取的參數資料進行2維排列,以將其加工成圖像資料的形式,並使加工後的參數資料與處理前圖像資料進行連接,由此生成連接資料;‧將所生成的連接資料輸入基於U字型卷積神經網路的學習模型,並採用使從學習模型輸出的輸出結果與從基於物理模型的模擬器輸出的處理後圖像資料接近的方式進行機器學習。
據此,根據第1實施方式的學習裝置,可生成能夠實現在基於物理模型的模擬器中所實現的模擬內容的已學習模型。
此外,根據第1實施方式的學習裝置,可生成與基於物理 模型的模擬器相比能夠縮短模擬時間的已學習模型。另外,根據第1實施方式的學習裝置,還可生成具有能夠代替基於物理模型的模擬器的模擬精度的已學習模型。
需要說明的是,上述說明中,儘管以基於物理模型的模擬器為對象,但即使不是基於物理模型的模擬器,根據第1實施方式的學習裝置,同樣也可生成已學習模型。
此外,第1實施方式的推論裝置
‧獲取處理前圖像資料和對應的參數資料;‧根據所獲取的處理前圖像資料的縱向尺寸和橫向尺寸,對所獲取的參數資料進行2維排列,以將其加工成圖像資料的形式,並將加工後的參數資料與處理前圖像資料進行連接,由此生成連接資料;‧將所生成的連接資料輸入學習裝置所生成的已學習模型,並執行模擬。
據此,根據第1實施方式的推論裝置,可實現基於物理模型的模擬器中所實現的模擬內容。此外,根據第1實施方式的推論裝置,與基於物理模型的模擬器相比,不僅可縮短模擬時間,還可實現能代替基於物理模型的模擬器的模擬精度。
需要說明的是,上述說明中儘管以基於物理模型的模擬器為對象,但即使不是基於物理模型的模擬器,根據第1實施方式的推論裝置,同樣也可實現模擬內容和模擬精度。
如此,根據第1實施方式,可提供能夠代替半導體製程的模擬器的已學習模型。
〔第2實施方式〕
上述第1實施方式中的說明中,根據處理前圖像資料的縱向尺寸和橫向尺寸將參數資料加工成圖像資料的形式,再與處理前圖像資料連接,然後將其輸入學習模型(或已學習模型)。
然而,就參數資料的加工方法和將加工後的參數資料輸入學習模型(或已學習模型)的輸入方法而言,並不限定於此。例如,加工後的參數資料也可被構成為輸入學習模型(或已學習模型)的各層。此外,就參數資料而言,輸入學習模型(或已學習模型)的各層時,其可被構成為,被加工成對由學習模型(或已學習模型)的各層進行了卷積處理的圖像資料進行變換時所使用的預定的形式。以下,對第2實施方式以與上述第1實施方式的不同點為中心進行說明。
<資料整形部的功能構成>
首先,對第2實施方式的學習裝置的資料整形部的功能構成的詳細內容進行說明。圖12是第2實施方式的學習裝置的資料整形部的功能構成的一例的示意圖。與圖5所示的資料整形部111的功能構成的不同點在於,在圖12所示的資料整形部1200的情況下,具有連接部1201和歸一化部1202。
連接部1201對從通道資料生成部502通知的多個通道資料進行連接,以生成連接資料。
歸一化部1202對從參數資料獲取部511通知的參數資料進行歸一化,以生成歸一化參數資料。
<基於學習模型的處理的具體實例>
接下來,對基於乾蝕刻用學習模型的處理的具體實例進行說明。圖 13是基於第2實施方式的學習裝置的乾蝕刻用學習模型的處理的具體實例的示意圖。
如圖13所示,在第2實施方式的學習裝置的情況下,乾蝕刻用學習模型1300中輸入由資料整形部1200的連接部1201生成的連接資料1310。
此外,如圖13所示,在第2實施方式的學習裝置的情況下,乾蝕刻用學習模型1300中輸入由資料整形部1200的歸一化部1202生成的歸一化參數資料。
需要說明的是,如圖13所示,乾蝕刻用學習模型1300中除了基於CNN的學習模型、即、UNET之外,還包含全連接型學習模型、即、神經網路部1301。
就神經網路部1301而言,歸一化參數資料被輸入後,輸出對由UNET的各層進行了卷積處理的各圖像資料的各像素的值進行變換時所使用的預定的形式的值(例如,1次式的係數γ、β)。即,神經網路部1301具有將歸一化參數資料加工成預定的形式(例如,1次式的係數的形式)的功能。
圖13的例中,UNET由9層構成,故神經網路部1301輸出(γ1,β1)~(γ9,β9)作為1次式的係數。需要說明的是,圖13的例中,由於紙面的原因,示出的是1組1組地將1次式的係數輸入各層的情形,但也可為按照各通道資料多組多組地將1次式的係數輸入各層的情形。
UNET的各層中,就被進行了卷積處理的每個通道資料的各圖像資料的各像素的值(這裡為“h”)而言,例如使用1次式=h×γ+β(在第1層的情況下,為h×γ11)對其進行變換。
這裡,就1次式的係數(γ1,β1)~(γ9,β9)而言,例如,可認為其是對在UNET的各層中被進行卷積處理的每個通道資料的各圖像資料中的哪個圖像資料是重要的進行表示的指標。即,神經網路部1301可進行基於歸一化參數資料計算表示學習模型的各層中被處理的各圖像資料的重要度的指標的處理。
在如上所述的構成的基礎上,乾蝕刻用學習模型1300中輸入連接資料1310和歸一化參數資料後,可輸出包含多個通道資料的輸出結果700。需要說明的是,就輸出結果700而言,藉由比較部430將其與處理後圖像資料進行比較,可計算出差分資訊。在第2實施方式的學習裝置的情況下,變更部440可根據差分資訊對乾蝕刻用學習模型1300內的UNET的模型參數和神經網路部1301的模型參數進行更新。
如此,根據第2實施方式的學習裝置,當對乾蝕刻用學習模型1300進行機器學習時,可根據歸一化參數資料對UNET的各層中的重要度較高的圖像資料進行提取。
<總結>
根據如上所述的說明可知,第2實施方式的學習裝置
‧獲取輸入基於物理模型的模擬器的處理前圖像資料和基於物理模型的模擬器中所設定的參數資料;‧對所獲取的參數資料進行歸一化,並將其加工成對由學習模型的各層進行了卷積處理的各圖像資料的各像素的值進行變換時所使用的1次式的係數的形式;‧當學習部進行機器學習時,使用1次式對由各層進行了卷積處理的圖像資料的各像素的值進行變換。
據此,根據第2實施方式的學習裝置,可生成能夠實現基於物理模型的模擬器中所實現的模擬內容的已學習模型。
此外,根據第2實施方式的學習裝置,可生成與基於物理模型的模擬器相比能夠縮短模擬時間的已學習模型。另外,根據第2實施方式的學習裝置,還可生成具有能夠代替基於物理模型的模擬器的模擬精度的已學習模型。
需要說明的是,第2實施方式中儘管對學習裝置進行了說明,但在推論裝置中,當執行部執行模擬時,也可進行同樣的處理。
如此,根據第2實施方式,可提供在半導體製程的模擬中能夠代替基於物理模型的模擬器的已學習模型。
〔第3實施方式〕
上述第1和第2實施方式中,當學習部進行機器學習時,對半導體製程固有的事象並無特別言及。另一方面,半導體製程中具有固有的事象,藉由將其反應至基於學習部的機器學習(即,藉由將領域知識(domain knowledge)反映至基於學習部的機器學習),可進一步提高模擬精度。以下,對反映了領域知識的第3實施方式以與上述第1和第2實施方式的不同點為中心進行說明。
<學習模型的功能構成的詳細內容>
圖14是第3實施方式的學習裝置的學習部的功能構成的一例的示意圖。學習模型內的內部構成與圖4所示的學習部112的功能構成不同。需要說明的是,這裡儘管使用乾蝕刻用學習模型1410對學習模型內的內部構成進行了說明,但沉積用學習模型也可具有相同的內部構成。
如圖14所示,學習部1400的乾蝕刻用學習模型1410除了 UNET 1411之外還具有Sigmoid函數部1412和乘法部1413。
Sigmoid函數部1412是處理部的一例,如圖14所示,藉由將Sigmoid函數1420乘以UNET 1411的輸出、即、第1輸出結果,可輸出第2輸出結果1421。
乘法部1413從Sigmoid函數部1412獲取第2輸出結果1421。此外,乘法部1413從資料整形部111獲取處理前圖像資料。另外,乘法部1413藉由將所獲取的第2輸出結果1421乘以所獲取的處理前圖像資料,將最終輸出結果1422通知給比較部430。
如此,藉由為與處理前圖像資料相乘再輸出最終輸出結果1422的構成,從使乾蝕刻用學習模型1410進行了機器學習的情況下的UNET 1411可輸出用於表示削除率的圖像資料作為第1輸出結果。
這裡,削除率是指,表示處理前圖像資料中包含的各材質的層在處理後圖像資料中被進行了何種程度的削除的變化率的值。藉由使乾蝕刻用學習模型1410進行機器學習,削除率變為接近處理後圖像資料除以處理前圖像資料後的值。但是,機器學習的過程中從UNET 1411輸出的第1輸出結果可為任意的值。
另一方面,在乾蝕刻的情況下,關於形狀的變化,存在“處理前後材質不會增加”這樣的制約條件(領域知識)。因此,在乾蝕刻的情況下,削除率會收於(位於)0~1的範圍內。
這裡,Sigmoid函數部1412是將任意的值變換至0~1的值的關數,藉由Sigmoid函數部1412將第1輸出結果變換為第2輸出結果,可反映出上述領域知識。
需要說明的是,儘管圖14中未圖示,但沉積用學習模型中 藉由配置Sigmoid函數部、乘法部等也可進行同樣的處理。具體而言,從使沉積用學習模型進行了機器學習的情況下的UNET可輸出用於表示附著率的圖像資料作為第1輸出結果。
這裡,附著率是指,對處理後圖像資料中的薄膜以何種程度附著於處理前圖像資料中包含的各材質的層進行表示的變化率的值。藉由使沉積用學習模型進行機器學習,附著率變為接近處理前圖像資料和處理後圖像資料的差分(差值)除以處理前圖像資料後的值。但是,機器學習的過程中從UNET輸出的第1輸出結果可為任意的值。
另一方面,在沉積的情況下,關於形狀的變化,存在“處理前後材質不會較少”這樣的制約條件(領域知識)。因此,在沉積的情況下,附著率會收於(位於)0~1的範圍內。
如上所述,Sigmoid函數部是將任意的值變換至0~1的值的關數,藉由Sigmoid函數部將第1輸出結果變換為第2輸出結果,可反映出上述領域知識。
如此,根據第3實施方式的學習裝置110的學習部1400,可使領域知識反映至機器學習,由此可進一步提高模擬精度。
〔第4實施方式〕
上述第1至第3實施方式的說明中,資料整形部生成與處理前圖像資料的縱向尺寸和橫向尺寸相應的縱向尺寸和橫向尺寸的連接資料。然而,資料整形部所生成的連接資料的縱向尺寸和橫向尺寸可為任意尺寸,可構成為對處理前圖像資料進行壓縮後再生成連接資料。以下,對第4實施方式以與上述第1至第3實施方式的不同點為中心進行說明。
<資料整形部的功能構成的詳細內容>
圖15是第4實施方式的學習裝置的資料整形部的功能構成的一例的示意圖。其中,圖15的15a示出了將壓縮部1511附加於第1實施方式的學習裝置的資料整形部111的資料整形部1510。
壓縮部1511對形狀資料獲取部501中獲取的處理前圖像資料進行壓縮。壓縮部1511中,例如針對相鄰的n個(n為2以上的整數。例如,在縱向2個×橫向2個的情況下為n=4)像素的像素值計算其平均值,並將所計算出的平均值作為將該n個像素視為1個像素時的像素值。據此,壓縮部1511可將處理前圖像資料壓縮至1/n倍。
如此,壓縮部1511中,鑑於處理前圖像資料是表示各材質的組成比例(或含有比例)的圖像資料,以極力維持壓縮前後材質的組成比例(或含有比例)的方式進行壓縮處理。需要說明的是,基於壓縮部1511的壓縮處理的壓縮率並不限定於整數倍,壓縮部1511可進行基於任意壓縮率的壓縮處理。
同樣,圖15的15b示出了將壓縮部1511附加至第2實施方式的學習裝置的資料整形部1200的資料整形部1520。
資料整形部1520所具有的壓縮部1511具有與資料整形部1510所具有的壓縮部1511相同的功能。為此,這裡對其詳細說明進行了省略。
如此,藉由使壓縮部1511附加至資料整形部1510或1520,可對輸入至學習部112、1400(或執行部122)的連接資料的大小(size)進行縮小。其結果為,根據第4實施方式,可縮短學習部112、1400在進行機器學習的情況下的學習時間、或者、執行部122在執行模擬的情況下的模擬時間。
〔其他實施方式〕
上述第1實施方式的說明中,學習部112中分別設置乾蝕刻用學習模型420和沉積用學習模型421,並使用不同的學習用資料分別進行了機器學習。
但是,半導體製程中也存在同時發生乾蝕刻和沉積的情況。在假定了這樣的情況下,也可構成為,在學習部112中設置1個學習模型,並使其對乾蝕刻和沉積同時發生的情形進行機器學習。
此情況下,學習部112針對該1個學習模型,使用包含乾蝕刻和沉積發生前的處理前圖像資料以及乾蝕刻和沉積發生後的處理後圖像資料的學習用資料進行機器學習。
如此,在模擬裝置130的執行部131的情況下,需要設置乾蝕刻用模擬器310和沉積用模擬器320這兩者,而在學習裝置110的學習部112中,也可對學習模型進行整合。
此外,上述第1實施方式的說明中,將處理前圖像資料和處理後圖像資料都設為2維圖像資料。然而,處理前圖像資料和處理後圖像資料並不限定為2維圖像資料,也可為3維圖像資料(所謂的體素資料(voxel data))。
需要說明的是,在處理前圖像資料為2維圖像資料的情況下,連接資料為(通道、縱向尺寸、及橫向尺寸)的排列,但在處理前圖像資料為3維圖像資料的情況下,連接資料為(通道、縱向尺寸、橫向尺寸、及深度方向尺寸)的排列。
此外,在上述第1實施方式中,儘管將2維圖像資料設為以原樣對其進行處理的方式進行了說明,但也可構成為,使2維圖像資料進 行變形或使3維圖像資料進行變形的方式進行處理。例如,可獲取3維圖像資料,並生成預定剖面的2維圖像資料,然後將其作為處理前圖像資料而進行輸入。或者,還可根據連續的預定剖面的2維圖像資料生成3維圖像資料,然後將其作為處理前圖像資料而進行輸入。
此外,上述第1實施方式中,將通道資料生成部502設為按照空氣的層、各材質的層生成通道資料的通道資料生成部而進行了說明。但是,通道資料的生成方法並不限定於此,也可為不按照特定的膜的種類,而是如Oxide、Silicon、Organics、Nitride這樣,基於更大的分類來生成通道資料。
此外,上述第1至第4實施方式中,將推論裝置120設為在輸入了處理前圖像資料和參數資料的情況下輸出處理後圖像資料後則結束處理的推論裝置而進行了說明。然而,推論裝置120的構成並不限定於此,例如,也可構成為,將藉由輸入處理前圖像資料和參數資料而輸出的處理後圖像資料與對應的參數資料一起再輸入推論裝置120。據此,推論裝置120可連續輸出形狀的變化。需要說明的是,使處理後圖像資料再輸入推論裝置120時,可任意變更其所對應的參數資料。
此外,上述第1至第4實施方式中,儘管單獨地示出了學習裝置110、推論裝置120、及模擬裝置130,但其中的任意2個裝置可被構成為一體,或者可將所有的裝置構成為一體。
另外,上述第1至第4實施方式中,儘管將學習裝置110設為由1臺電腦構成的學習裝置而進行了說明,但也可由多臺電腦構成。同樣,上述第1至第4實施方式中,儘管將推論裝置120設為由1臺電腦構成的推論裝置而進行了說明,但也可由多臺電腦構成。
此外,上述第1至第4實施方式中,儘管將學習裝置110、推論裝置120、及模擬裝置130設為是應用於半導體製程的裝置而進行了說明,但也可應用於半導體製程之外的其他程序。這裡所言的半導體製程之外的其他程序包括半導體製程之外其他製程和非製程。
此外,上述第1至第4實施方式中,儘管學習裝置110和推論裝置120是藉由使通用電腦執行各種程式而實現的,但學習裝置110和推論裝置120的實現方法並不限定於此。
例如,也可由實裝了處理器、記憶體等的IC(Integrated Circuit)等的專用電子電路(即、硬體)來實現。多個構成要素可由一個電子電路實現,一個構成要素可由多個電子電路實現,構成要素和電子電路還也可採用一對一的方式實現。
需要說明的是,本發明並不限定於上述實施方式中列舉的構成等、與其他要素的組合等這裡所示的構成等。關於該點,可在不脫離本發明的主旨的範圍內進行變更,還可根據其應用形態進行適當地確定。
本申請主張基於2018年9月3日申請的日本國專利申請第2018-164930號的優先權,並將該日本國專利申請的全部內容以參照的方式援引於本申請。
100:模擬系統
110:學習裝置
111:資料整形部
112:學習部
113:學習用資料保存部
120:推論裝置
121:資料整形部
122:執行部
130:模擬裝置
131:執行部
132:處理前圖像資料保存部

Claims (28)

  1. 一種推論方法,具備:至少一個處理器將第2處理前圖像資料和模擬器的第2參數資料輸入已學習模型,而生成第2處理後圖像資料;且上述已學習模型係以使藉由將第1處理前圖像資料和相對於上述第1處理前圖像資料的上述模擬器的第1參數資料輸入上述已學習模型而生成的第1處理後圖像資料接近藉由使用了相對於上述第1處理前圖像資料的上述第1參數資料的上述模擬器執行的模擬而生成的第1處理後圖像資料的方式而被進行了學習者;上述模擬器可執行:能以圖像表現資料之上述模擬。
  2. 根據請求項1所述的推論方法,其中輸入至上述已學習模型的上述第2處理前圖像資料至少包含上述第2處理前圖像資料或對上述第2處理前資料應用預定的處理而獲得的資料中的任一者,輸入至上述已學習模型的上述第2參數資料至少包含上述第2參數資料或對上述第2參數資料應用預定的處理而獲得的資料中的任一者,上述學習時輸入至上述已學習模型的上述第1處理前圖像資料至少包含上述第1處理前圖像資料或對上述第1處理前資料應用預定的處理而獲得的資料中的任一者,上述學習時輸入至上述已學習模型的上述第1參數資料至少包含上述第1參數資料或對上述第1參數資料應用預定的處理而獲得的資料中的任一 者。
  3. 根據請求項1或2所述的推論方法,其進而具備:上述至少一個處理器將上述第2參數資料加工成與上述第2處理前圖像資料相應的形式;且輸入至上述已學習模型的上述第2參數資料係被加工後的上述第2參數資料。
  4. 根據請求項3所述的推論方法,其中上述至少一個處理器將上述第2參數資料加工成與上述第2處理前圖像資料的縱向尺寸和橫向尺寸相應的2維排列的形式。
  5. 根據請求項1所述的推論方法,其進而具備:上述至少一個處理器將上述第2參數資料輸入其他已學習模型;且輸入至上述已學習模型的上述第2參數資料係來自上述其他已學習模型的輸出。
  6. 根據請求項5所述的推論方法,其中輸入至上述其他已學習模型的上述第2參數資料係經歸一化後的參數資料。
  7. 根據請求項1或2所述的推論方法,其進而具備:上述至少一個處理器對上述第2處理前圖像資料進行壓縮;且 輸入至上述已學習模型的上述第2處理前圖像資料係經壓縮後的上述第2處理前圖像資料。
  8. 根據請求項1或2所述的推論方法,其進而具備:上述至少一個處理器將上述第2處理後圖像資料和上述模擬器的第3參數資料輸入上述已學習模型,而生成第3處理後圖像資料。
  9. 根據請求項1或2所述的推論方法,其中上述已學習模型輸出上述第2處理後圖像資料。
  10. 根據請求項1或2所述的推論方法,其中上述至少一個處理器根據來自上述已學習模型的輸出和上述第2處理前圖像資料,生成上述第2處理後圖像資料。
  11. 根據請求項10所述的推論方法,其中上述已學習模型輸出與相對於上述第2處理前圖像資料的變化率相關的資訊。
  12. 根據請求項11所述的推論方法,其中上述模擬器係與半導體製程相關的模擬器,上述變化率係至少與蝕刻的削除比率或沈積的附著率中的任一者相關的值。
  13. 根據請求項11所述的推論方法,其中上述變化率係以0至1的範圍表示。
  14. 根據請求項1或2所述的推論方法,其中上述第2處理前圖像資料係3維圖像資料。
  15. 根據請求項1或2所述的推論方法,其中上述模擬器係基於物理模型的模擬器。
  16. 根據請求項1或2所述的推論方法,其中上述模擬器係與半導體製程相關的模擬器。
  17. 根據請求項16所述的推論方法,其中上述第2處理前圖像資料係表示晶圓的形狀的圖像資料。
  18. 根據請求項16所述的推論方法,其中上述第2處理前圖像資料至少具有與上述半導體製程中的處理對象的多種材質的組成比或含有比中的任一者相應的值。
  19. 根據請求項16所述的推論方法,其中上述第2處理前圖像資料具有與上述半導體製程中的處理對象的材質相應的多個通道。
  20. 根據請求項16所述的推論方法,其中上述第2處理前圖像資料包含上述半導體製程中的處理對象的多種材質的層和空氣層。
  21. 根據請求項16所述的推論方法,其中上述模擬器係能夠執行與蝕刻相關的模擬的模擬器,上述第2參數資料至少包含與削除比率、削除方向、或削除深度中的任一者相關的資訊。
  22. 根據請求項16所述的推論方法,其中上述模擬器係能夠執行與沈積相關的模擬的模擬器,上述第2參數資料包含與上述沈積相關的資訊。
  23. 根據請求項1或2所述的推論方法,其中上述已學習模型係神經網路。
  24. 根據請求項5所述的推論方法,其中上述其他已學習模型係神經網路。
  25. 一種學習模型的生成方法,具備:至少一個處理器以使藉由將處理前圖像資料和相對於上述處理前圖像資料的模擬器的參數資料輸入已學習模型而生成的處理後圖像資料接近藉由使用了相對於上述處理前圖像資料的上述參數資料的上述模擬器執行 的模擬而生成的處理後圖像資料的方式,對上述已學習模型進行學習;上述模擬器可執行:能以圖像表現資料之上述模擬。
  26. 一種推論裝置,具備:至少一個記憶體;及至少一個處理器;且上述至少一個記憶體記憶以使藉由將第1處理前圖像資料和相對於上述第1處理前圖像資料的模擬器的第1參數資料輸入已學習模型而生成的第1處理後圖像資料接近藉由使用了相對於上述第1處理前圖像資料的上述第1參數資料的上述模擬器執行的模擬而生成的第1處理後圖像資料的方式而被進行了學習的上述已學習模型;上述至少一個處理器將第2處理前圖像資料和上述模擬器的第2參數資料輸入上述已學習模型,而生成第2處理後圖像資料;上述模擬器可執行:能以圖像表現資料之上述模擬。
  27. 根據請求項26所述的推論裝置,其中上述至少一個處理器進而將上述第2處理後圖像資料和上述模擬器的第3參數資料輸入上述已學習模型,而生成第3處理後圖像資料。
  28. 一種學習裝置,具備: 至少一個記憶體;及至少一個處理器;且上述至少一個處理器以使藉由將處理前圖像資料和相對於上述處理前圖像資料的模擬器的參數資料輸入已學習模型而生成的處理後圖像資料接近藉由使用了相對於上述處理前圖像資料的上述參數資料的上述模擬器執行的模擬而生成的處理後圖像資料的方式,對上述已學習模型進行學習;上述模擬器可執行:能以圖像表現資料之上述模擬。
TW108130789A 2018-09-03 2019-08-28 學習裝置、推論裝置、學習模型的生成方法及推論方法 TWI840403B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018164930 2018-09-03
JP2018-164930 2018-09-03

Publications (2)

Publication Number Publication Date
TW202024377A TW202024377A (zh) 2020-07-01
TWI840403B true TWI840403B (zh) 2024-05-01

Family

ID=69722906

Family Applications (1)

Application Number Title Priority Date Filing Date
TW108130789A TWI840403B (zh) 2018-09-03 2019-08-28 學習裝置、推論裝置、學習模型的生成方法及推論方法

Country Status (6)

Country Link
US (1) US12033311B2 (zh)
JP (2) JP6724267B1 (zh)
KR (1) KR102513707B1 (zh)
CN (1) CN112640037A (zh)
TW (1) TWI840403B (zh)
WO (1) WO2020049974A1 (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021111066A (ja) * 2020-01-08 2021-08-02 株式会社科学計算総合研究所 情報処理システム、情報処理方法及びプログラム
US20220075916A1 (en) * 2020-09-07 2022-03-10 Kla Corporation System and method for accelerating physical simulation models during microelectronic device fabrication
TWI893255B (zh) * 2020-12-28 2025-08-11 日商東京威力科創股份有限公司 參數導出裝置、參數導出方法及參數導出程式
CN115280468B (zh) 2021-03-01 2025-10-14 株式会社日立高新技术 实验要点推荐装置、实验要点推荐方法及半导体装置制造系统
JP7722793B2 (ja) * 2021-05-14 2025-08-13 東京エレクトロン株式会社 評価装置、評価方法及び評価プログラム
JP2023045817A (ja) 2021-09-22 2023-04-03 株式会社Screenホールディングス 学習装置、情報処理装置、基板処理装置、基板処理システム、学習方法、レシピ決定方法及び学習プログラム
JP2023046032A (ja) * 2021-09-22 2023-04-03 キヤノン株式会社 解析方法
JP7701128B2 (ja) * 2021-10-08 2025-07-01 東京エレクトロン株式会社 エッチング処理システム、エッチング品質予測方法及びエッチング品質予測プログラム
US12468998B2 (en) * 2021-11-12 2025-11-11 Starbucks Corporation System for configuring an environment based on modifications to simulated virtual environments
EP4436234A4 (en) * 2021-11-15 2025-10-01 Guangdong Oppo Mobile Telecommunications Corp Ltd MODEL UPDATE METHOD FOR WIRELESS CHANNEL PROCESSING, APPARATUS, TERMINAL AND MEDIUM
JP7709930B2 (ja) 2022-02-18 2025-07-17 株式会社Screenホールディングス 基板処理条件の設定方法、基板処理方法、基板処理条件の設定システム、及び、基板処理システム
WO2024005047A1 (ja) * 2022-07-01 2024-01-04 東京エレクトロン株式会社 基板処理装置の制御方法及び基板処理システム
JP2024047495A (ja) * 2022-09-26 2024-04-05 株式会社Screenホールディングス 学習装置、情報処理装置、基板処理装置、基板処理システム、学習方法および処理条件決定方法
JP7704275B1 (ja) * 2024-09-25 2025-07-08 Agc株式会社 半導体装置設計システム、半導体装置の設計方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW592300U (en) * 2003-01-29 2004-06-11 Midway Elecpronics Co Ltd Electric meter calibrating device using common memory to transfer calibrating parameters
CN101685476A (zh) * 2008-09-25 2010-03-31 国际商业机器公司 在集成电路设计期间快速模拟制造影响的设备、方法和系统
CN108475351A (zh) * 2015-12-31 2018-08-31 科磊股份有限公司 用于半导体应用的基于机器学习的模型的加速训练

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06224126A (ja) * 1993-01-25 1994-08-12 Fuji Electric Co Ltd 半導体製造装置の膜質予測装置
JPH11330449A (ja) * 1998-05-20 1999-11-30 Toshiba Corp 半導体装置の製造方法、シミュレーション装置、シミュレーション方法、シミュレーションプログラムを記録した記録媒体、及びシミュレーション用データを記録した記録媒体
KR20020085688A (ko) 2001-05-09 2002-11-16 학교법인 인하학원 반도체 식각 공정 모의 실험 해석기 및 해석 방법
US6819427B1 (en) * 2001-10-10 2004-11-16 Advanced Micro Devices, Inc. Apparatus of monitoring and optimizing the development of a photoresist material
JP4333166B2 (ja) * 2002-03-14 2009-09-16 株式会社ニコン 加工形状の予測方法、加工条件の決定方法、加工量予測方法、加工形状予測システム、加工条件決定システム、加工システム、加工形状予測計算機プログラム、加工条件決定計算機プログラム、プログラム記録媒体、及び半導体デバイスの製造方法
JP2004040004A (ja) * 2002-07-08 2004-02-05 Renesas Technology Corp 配線設計データを利用した化学的機械的研磨方法、加工物の製造方法、およびデザインルール決定方法
KR20040080742A (ko) 2003-03-13 2004-09-20 원태영 식각 공정 시뮬레이션의 병렬 연산 구현 방법
US8036869B2 (en) * 2003-09-30 2011-10-11 Tokyo Electron Limited System and method for using first-principles simulation to control a semiconductor manufacturing process via a simulation result or a derived empirical model
JP2005202949A (ja) 2003-12-01 2005-07-28 Oscillated Recall Technology:Kk 大域的エッチングシミュレータ
JP4920268B2 (ja) * 2006-02-23 2012-04-18 株式会社日立ハイテクノロジーズ 半導体プロセスモニタ方法およびそのシステム
US8722547B2 (en) * 2006-04-20 2014-05-13 Applied Materials, Inc. Etching high K dielectrics with high selectivity to oxide containing layers at elevated temperatures with BC13 based etch chemistries
US8396582B2 (en) * 2008-03-08 2013-03-12 Tokyo Electron Limited Method and apparatus for self-learning and self-improving a semiconductor manufacturing tool
JP2011071296A (ja) * 2009-09-25 2011-04-07 Sharp Corp 特性予測装置、特性予測方法、特性予測プログラムおよびプログラム記録媒体
US9245714B2 (en) * 2012-10-01 2016-01-26 Kla-Tencor Corporation System and method for compressed data transmission in a maskless lithography system
JP6173889B2 (ja) 2013-11-28 2017-08-02 ソニーセミコンダクタソリューションズ株式会社 シミュレーション方法、シミュレーションプログラム、加工制御システム、シミュレータ、プロセス設計方法およびマスク設計方法
JP2016071597A (ja) * 2014-09-30 2016-05-09 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10056304B2 (en) * 2014-11-19 2018-08-21 Deca Technologies Inc Automated optical inspection of unit specific patterning
US9965901B2 (en) 2015-11-19 2018-05-08 KLA—Tencor Corp. Generating simulated images from design information
US10656531B2 (en) * 2015-12-22 2020-05-19 Asml Netherlands B.V. Apparatus and method for process-window characterization
US9916965B2 (en) * 2015-12-31 2018-03-13 Kla-Tencor Corp. Hybrid inspectors
JP2017182129A (ja) * 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置。
JP6608344B2 (ja) * 2016-09-21 2019-11-20 株式会社日立製作所 探索装置および探索方法
JP6635476B2 (ja) * 2017-08-09 2020-01-29 学校法人東京女子医科大学 線量分布予測システム、線量分布予測方法及び線量分布予測プログラム
WO2019078149A1 (ja) * 2017-10-17 2019-04-25 株式会社アルバック 被処理体の処理装置
CN107909114B (zh) * 2017-11-30 2020-07-17 深圳地平线机器人科技有限公司 训练有监督机器学习的模型的方法和装置
CN107945175A (zh) * 2017-12-12 2018-04-20 百度在线网络技术(北京)有限公司 图像的评价方法、装置、服务器及存储介质
US11199506B2 (en) * 2018-02-21 2021-12-14 Applied Materials Israel Ltd. Generating a training set usable for examination of a semiconductor specimen
US10572697B2 (en) * 2018-04-06 2020-02-25 Lam Research Corporation Method of etch model calibration using optical scatterometry
JP2019219756A (ja) * 2018-06-15 2019-12-26 国立研究開発法人理化学研究所 制御装置、制御方法、プログラム、ならびに、情報記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW592300U (en) * 2003-01-29 2004-06-11 Midway Elecpronics Co Ltd Electric meter calibrating device using common memory to transfer calibrating parameters
CN101685476A (zh) * 2008-09-25 2010-03-31 国际商业机器公司 在集成电路设计期间快速模拟制造影响的设备、方法和系统
CN108475351A (zh) * 2015-12-31 2018-08-31 科磊股份有限公司 用于半导体应用的基于机器学习的模型的加速训练

Also Published As

Publication number Publication date
JP7291670B2 (ja) 2023-06-15
KR20210036391A (ko) 2021-04-02
US20210183051A1 (en) 2021-06-17
TW202024377A (zh) 2020-07-01
JPWO2020049974A1 (ja) 2020-09-10
WO2020049974A1 (ja) 2020-03-12
JP6724267B1 (ja) 2020-07-15
US12033311B2 (en) 2024-07-09
CN112640037A (zh) 2021-04-09
JP2020191096A (ja) 2020-11-26
KR102513707B1 (ko) 2023-03-23

Similar Documents

Publication Publication Date Title
TWI840403B (zh) 學習裝置、推論裝置、學習模型的生成方法及推論方法
JP7190495B2 (ja) 推論方法、推論装置、モデルの生成方法及び学習装置
CN107977414B (zh) 基于深度学习的图像风格迁移方法及其系统
Agrawal et al. What is the range of surface reconstructions from a gradient field?
CN111492381B (zh) 神经网络的功能子网络的同时训练
JP6657137B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20200134918A1 (en) Methods of high-definition cellular level set in b-splines for modeling and topology optimization of three-dimensional cellular structures
CN115004188B (zh) 用于处理经拓扑优化的几何结构的系统和方法
JP2021034024A (ja) データを処理する方法及びその装置
US20230136021A1 (en) Method and system for three-dimensional modeling
WO2020003434A1 (ja) 機械学習方法、機械学習装置、及び機械学習プログラム
JP2020091791A (ja) 推定装置、最適化装置、推定方法、最適化方法、及びプログラム
CN117974441A (zh) 用于图像处理的方法、设备和计算机程序产品
CN112184592B (zh) 一种图像修复方法、装置、设备及计算机可读存储介质
US10706193B1 (en) Computer processing during simulation of a circuit design
TWI889929B (zh) 通過分層分析的類神經網路修剪方法與系統
CN110598174B (zh) 一种基于gpu架构的稀疏矩阵的回代求解方法
JP4629255B2 (ja) 構造解析処理方法および構造解析処理プログラム
BOUAZA Youcef Image filtering design and implementation based on Xilinx System Generator with Hardware Co-Simulation and VHDL with FPGA IP Core Generator
Chen et al. Arnoldi algorithms with structured orthogonalization
JP6633267B2 (ja) 次元削減装置、方法及びプログラム
CN114444656A (zh) 特征图的处理方法、装置、电子设备及存储介质
CN120802375A (zh) 一种三维大地电磁数据反演方法、系统、设备及介质
CN114764264A (zh) 信息处理设备、信息处理方法和存储介质
CN120257923A (zh) 生成半导体图案的方法以及计算装置