[go: up one dir, main page]

TWI845081B - 圖形處理器 - Google Patents

圖形處理器 Download PDF

Info

Publication number
TWI845081B
TWI845081B TW111149317A TW111149317A TWI845081B TW I845081 B TWI845081 B TW I845081B TW 111149317 A TW111149317 A TW 111149317A TW 111149317 A TW111149317 A TW 111149317A TW I845081 B TWI845081 B TW I845081B
Authority
TW
Taiwan
Prior art keywords
mac
data
graphics processor
units
pulse array
Prior art date
Application number
TW111149317A
Other languages
English (en)
Other versions
TW202427231A (zh
Inventor
陳中和
許峰銘
期开 蔡
Original Assignee
國立成功大學
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 國立成功大學 filed Critical 國立成功大學
Priority to TW111149317A priority Critical patent/TWI845081B/zh
Application granted granted Critical
Publication of TWI845081B publication Critical patent/TWI845081B/zh
Publication of TW202427231A publication Critical patent/TW202427231A/zh

Links

Images

Landscapes

  • Image Processing (AREA)
  • Multi Processors (AREA)

Abstract

一種圖形處理器,其包含多個串流多處理器。該等串流多處理器的每一者包含N個串流處理器及張量運算模組。N個串流處理器經組態以單一指令對應多個執行緒的架構進行運算,其中該等N個串流處理器的每一者包含乘積累加運算單元。張量處理模組連接該等N個乘積累加運算單元,且經組態以將該等N個乘積累加運算單元配置為執行矩陣乘法運算的脈動陣列。

Description

圖形處理器
本發明係關於圖形處理器的技術領域,特別是關於一種實現脈動陣列的圖形處理器。
神經網路的應用正在飛速地成長當中,加上資訊安全的注重以及即時應用的需求,人工智慧的應用從雲端普及到了終端,這也促使了許多為了加速神經網路運算所設計的硬體加速器。一般來說,矩陣乘法為大多數網路層中的基礎運算,因此,若能加速矩陣乘法的運算便能達到加速神經網路的運算。為此,各大廠商例如NVIDIA公司以及Google公司皆提出了用於加速神經網路運算的硬體加速器。
NVIDIA公司從Volta架構的圖像處理單元(Graphics Processing Unit,GPU)上加入了Tensor Core,它是一個獨立的硬體單元,可以執行兩個4x4大小的矩陣相乘的運算,並再與一個4x4矩陣執行一個累加的運算,進而完成一f個乘積累加運算(Fused Multiply-Add,FMA)。Tensor Core跟GPU裡的Cuda Core是不同的計算單元,所以它們可以同時執行以提升指令的並行能力(Instruction Level Parallelism)。
Google公司所研發的TPU(Tensor Processing Unit)是一f個插在PCIe匯流排上的一個晶片,其用來在雲端伺服器中來應對人工智慧應用所需的大量運算,而非像NVIDIA的Tensor core是設計在GPU內部的硬體。Google TPU至今已推出許多版本,但運算單元皆採用脈動陣列(Systolic Array)的硬體架構。TPU無法單獨執行,需要藉由CPU透過PCIe匯流排傳送TPU CISC-like指令來進行控制。
無論是NVIDIA Tensor Core或是Google TPU,皆需要巨大功耗來滿足運算效能的需求,且非為終端的應用設計所考量。然而,在面積和功耗有限的終端裝置上,新增一顆矩陣運算單元帶來的成本非常之高。因此,如何在不增加太多硬體成本的條件下提升矩陣運算能的效能,是目前所遇到的技術瓶頸。
本發明之一目的在於提供一種利用圖形處理器實現加速矩陣乘法運算的硬體架構。
為達上述之目的,本發明提供一種圖形處理器,其包含多個串流多處理器。該等串流多處理器的每一者包含N個串流處理器及張量運算模組。N個串流處理器經組態以單一指令對應多個執行緒(Single Instruction Multiple Threads,SIMT)的架構進行運算,其中該等N個串流處理器的每一者包含乘積累加運算單元,其中N為正整數且N
Figure 111149317-A0305-02-0004-16
4。張量處理模組連接該等N個乘積累加運算單元,且經組態以將該等N個乘積累加運算單元配置為執行矩陣乘法運算的脈動陣列。
在本發明的一實施例中,該脈動陣列的維數(D)符合下式,
Figure 111149317-A0305-02-0005-10
其中N=2n,n為正整數且n
Figure 111149317-A0305-02-0005-17
2。
在本發明的一實施例中,N=4,該等四個乘積累加運算單元為MAC0、MAC1、MAC2、MAC3分別屬於該等N個串流處理器中依序的四者,且該等四個乘積累加運算單元被配置為下列方式以形成該脈動陣列:
Figure 111149317-A0305-02-0005-11
在本發明的一實施例中,該等N個乘積累加運算單元為MAC0、MAC1、...、MAC(N-1)分別屬於依序的該等N個串流處理器,其中響應於n為偶數且n
Figure 111149317-A0305-02-0005-18
4時,該等N個乘積累加運算單元被配置為下列方式以形成該脈動陣列:
Figure 111149317-A0305-02-0005-12
在本發明的一實施例中,N=8,該等八個乘積累加運算單元為MAC0、MAC1、MAC2、...、MAC7分別屬於該等N個串流處理器中依序的八者,且該等八個乘積累加運算單元被配置為下列方式以形成該脈動陣列:
Figure 111149317-A0305-02-0005-13
在本發明的一實施例中,該等N個乘積累加運算單元為MAC0、MAC1、...、MAC(N-1)分別屬於依序的該等N個串流處理器,其中響應於n為奇數且n
Figure 111149317-A0305-02-0006-19
5時,該等N個乘積累加運算單元被配置為下列方式以形成該脈動陣列:
Figure 111149317-A0305-02-0006-14
在本發明的一實施例中,該張量處理模組包含一第一暫緩單元及一第二暫緩單元,其中該第一暫緩單元經組態以將資料傳送給該脈動陣列中對應該行的乘積累加運算單元,該第二暫緩單元經組態以將資料傳送給該脈動陣列中對應該列的乘積累加運算單元。
在本發明的一實施例中,該等串流多處理器的每一者還包含局部記憶體及讀取/儲存模組。局部記憶體連接該張量處理模組,且經組態以儲存資料。讀取/儲存模組連接該局部記憶體與該等N個串流處理器,且經組態以從該局部記憶體讀取資料或是將資料儲存在該局部記憶體。
在本發明的一實施例中,響應於執行矩陣乘法的一第一運算,該張量處理模組從該局部記憶體存取資料並將資料傳送給該脈動陣列中的乘積累加運算單元以進行該第一運算。
在本發明的一實施例中,響應於執行非矩陣乘法的一第二運算,該讀取/儲存模組從局部記憶體存取資料並將資料傳送給該等N個串流處理器以進行該第二運算。
本發明提出的圖形處理器,透過將串流處理器內的乘積累加運算單元配置為執行矩陣乘法運算的脈動陣列,除了硬體架構設計上的一些改變,還考量運算平臺的整合以及神經網路在軟體層的優化。因此,在未增加太多的硬體的成本的情況下,本發明的圖形處理器可以有效地加速矩陣乘法的運算。
100:圖形處理器
110:互連網路模組
120:串流多處理器
121:局部記憶體
123:讀取/儲存模組
125:串流處理器
127:張量處理模組
1271:第一暫緩單元
1273:第二暫緩單元
129:調配模組
130:工作排程模組
140:記憶體
PE0~PE(N-1):串流處理器
MAC0~MAC(N-1):乘積累加運算單元
L0~L(N-1):通道
Aout[0]、Aout[1]、Aout[2]、Aout[3]、Bout[0]、Bout[1]、Bout[2]、Bout[3]:資料
第1A圖係根據本發明一較佳實施例繪示的圖形處理器的方塊系統示意圖。
第1B圖係根據本發明一較佳實施例繪示的圖形處理器實現脈動陣列的示意圖。
第2圖係根據本發明一較佳實施例繪示的n=5時所實現的脈動陣列的示意圖。
第3圖係根據本發明一較佳實施例繪示的張量處理模組傳遞資料的時序示意圖。
為了讓本發明之上述及其他目的、特徵、優點能更明顯易懂,下文將特舉本發明較佳實施例,並配合所附圖式,作詳細說明如下。
請參照第1A圖,第1A圖係根據本發明一較佳實施例繪示的圖形處理器100的方塊系統示意圖。圖形處理器100是單指令對應多執行緒(Single Instruction Multiple Threads,SIMT)的架構,其包含互連網路模組110、多個串流多處理器(Streaming Multiprocessor,SM)120、工作排程模組130、以及記憶 體140。互連網路模組110電性連接於各個串流多處理器120、工作排程模組130、以及記憶體140,且經組態以在這些元件之間進行資料的傳輸。串流多處理器120經組態以進行運算與執行指令。工作排程模組130經組態以跟外部的中央處理器(圖未繪示)進行通訊,並接收來自中央處理器指派的工作以及將工作排程給串流多處理器120執行。
每個串流多處理器120包含局部記憶體121、讀取/儲存模組123、N個串流處理器(Streaming Processor,PE)125、張量(Tensor)處理模組127、調配模組129。局部記憶體121連接於記憶體140,用以儲存待運算的資料以及已經運算好的資料。讀取/儲存模組123連接局部記憶體121與調配模組129,經組態以從局部記憶體121中存取待運算的資料並將這些資料傳送到調配模組129,調配模組129再根據資料的型態分送給對應的串流處理器125以進行運算。N個串流處理器125分別包含各自的乘積累加運算單元(Multiply Accumulate Unit,MAC)MAC0~MACN,其用於進行乘積累加的運算。具體來說,串流多處理器120的N個串流處理器125是以SIMT的架構進行運算,亦即,對於同一個指令,N個串流處理器125以執行緒的單位同時進行運算,因此可達到平行處理的效果。
在本發明的圖形處理器100中,每個串流多處理器120進一步包含了張量處理模組127,張量處理模組連接N個串流處理器125裡的N個乘積累加運算單元MAC0~MACN,張量處理模組127經組態以將N個乘積累加運算單元MAC0~MACN配置為執行矩陣乘法運算的脈動陣列(Systolic Array),如第1B圖所示,第1B圖係根據本發明一較佳實施例繪示的圖形處理器100實現脈動陣列的示意圖。在第1B圖的示例中,N=16。脈動陣列的概念就是讓資料在運算單元的陣列中進行流動,減少存取的次數,並且使得結構更加完整,佈線更加統一,提 高流動的頻率。脈動陣列本身只是一個有資料流動的結構,根據不同的應用會有不同的資料進行流動以及不同的流動方向。
雖然第1B圖繪示了一個陣列(MAC0~MAC15),但實際上,張量處理模組127並非真的將N個乘積累加運算單元MAC0~MACN排列成實際脈動陣列的模樣,而是透過不同時序的資料的傳遞,讓這些乘積累加運算單元MAC0~MACN實現脈動陣列的運算,例如,L0代表著連接於串流處理器PE0裡的乘積累加運算單元MAC0的通道,L1代表著連接於串流處理器PE1裡的乘積累加運算單元MAC1的通道,以此類推,藉此量處理模組127可通過通道L0~L15將資料傳遞給乘積累加運算單元MAC0~MAC15進行運算。然而,為了方便理解,以下皆以矩陣的方式呈現。
在本發明的一實施例中,該脈動陣列的維數(Dimension,D)符合下式,
Figure 111149317-A0305-02-0009-15
其中N為串流多處理器120裡所具有的乘積累加運算單元的數量(亦即,串流處理器125的數量),N=2n,N為正整數且N
Figure 111149317-A0305-02-0009-20
4,及n為正整數且n
Figure 111149317-A0305-02-0009-21
2。
具體來說,本發明實現的脈動陣列根據每個串流多處理器120裡的乘積累加運算單元的數量不同(亦即,不同的N(n)),從而改變可以實現的脈動陣列的維數。請參照第2圖,第2圖係根據本發明一較佳實施例繪示的n=5時所實現的脈動陣列的示意圖。當n=5(亦即,乘積累加運算單元的數量N有32個)時,n為奇數,根據上式,本發明的圖形處理器所實現的脈動陣列為4x4+4x4的矩陣, 其中矩陣裡的箭頭方向代表著執行矩陣乘法運算時資料的傳遞方向。以下將介紹在不同N(n)的情況下,各個乘積累加運算單元MAC0~MACN對應脈動陣列的位置。
在本實施例中,脈動陣列的維數最小為2x2,也就是n=2(亦即,乘積累加運算單元的數量N有4個)。在n=2(N=4)的情況下,每個串流多處理器120包含的乘積累加運算單元可例如為MAC0、MAC1、MAC2、MAC3共四個,分別屬於對應連接於依序的通道L0~L3的四個串流處理器PE0~PE3,且這四個乘積累加運算單元被配置為下列方式以形成該脈動陣列:
Figure 111149317-A0305-02-0010-1
在n為偶數且n
Figure 111149317-A0305-02-0010-22
4的情況下,每個串流多處理器120包含的乘積累加運算單元可例如為MAC0、MAC1、...、MAC(N-1)共N個,分別屬於對應連接於依序的通道L0~L(N-1)的N個串流處理器PE0~PE(N-1),N個乘積累加運算單元被配置為下列方式以形成該脈動陣列:
Figure 111149317-A0305-02-0010-2
在n=3(N=8)的情況下,每個串流多處理器120包含的乘積累加運算單元可例如為MAC0、MAC1、MAC2、...、MAC7共八個,分別屬於對應連 接於依序的通道L0~L7的八個串流處理器PE0~PE7,且這八個乘積累加運算單元被配置為下列方式以形成該脈動陣列:
Figure 111149317-A0305-02-0011-3
在n為奇數且n
Figure 111149317-A0305-02-0011-23
5的情況下,每個串流多處理器120包含的乘積累加運算單元可例如為MAC0、MAC1、...、MAC(N-1)共N個,分別屬於對應連接於依序的通道L0~L(N-1)的N個串流處理器PE0~PE(N-1),N個乘積累加運算單元被配置為下列方式以形成該脈動陣列:
Figure 111149317-A0305-02-0011-4
根據上述各個實施方式,本發明提出的圖形處理器100考量在不同數量的乘積累加運算單元的情況下實現各種可執行的脈動陣列的方式,因此僅需要利用串流處理器125本身內建的乘積累加運算單元,無須設置額外的硬體(如Tensor core或是TPU),利用張量處理模組127對資料的排程便可實現加速矩陣乘法運算的脈動陣列。
請參照第3圖,第3圖係根據本發明一較佳實施例繪示的張量處理模組127傳遞資料的時序示意圖。在本例中,n=4。如第3圖所示,張量處理模組127包含第一暫緩單元1271及第二暫緩單元1273。張量處理模組127可將待進行乘法運算的矩陣(例如,第一矩陣和第二矩陣)的資料從局部記憶體121中存取出 來並根據對應的行列資料分別儲存在第一暫緩單元1271(例如,第一矩陣的資料)及第二暫緩單元1273(例如,第二矩陣的資料)裡。第一暫緩單元1271經組態以將第一矩陣的資料(例如,Aout[0]、Aout[1]、Aout[2]、Aout[3])傳送給該脈動陣列中對應該行的乘積累加運算單元。第二暫緩單元1273經組態以將第二矩陣的資料(例如,Bbout[0]、Bout[1]、Bout[2]、Bout[3])傳送給該脈動陣列中對應該列的乘積累加運算單元。
一開始,張量處理模組127將待進行乘法運算的矩陣的資料從局部記憶體121中存取至第一暫緩單元1271及第二暫緩單元1273裡。然後,第一暫緩單元1271及第二暫緩單元1273分別將對應第一行(例如,Aout[0])及第一列(例如,Bout[0])的矩陣要運算的資料透過通道L0傳遞給乘積累加運算單元MAC1以進行運算。待運算完畢後,再將Aout[0]及Bout[1]透過通道L4傳遞給乘積累加運算單元MAC4以進行運算,以及將Bout[0]及Aout[1]透過通道L1傳遞給乘積累加運算單元MAC1以進行運算。待運算完畢後,接著,將Aout[0]及Bout[2]透過通道L8傳遞給乘積累加運算單元MAC8以進行運算,將Bout[0]及Aout[2]透過通道L2傳遞給乘積累加運算單元MAC2以進行運算,將Aout[1]及Bout[1]透過通道L5傳遞給乘積累加運算單元MAC5以進行運算,以此類推,直到完成待運算的矩陣的資料皆完成傳遞和計算,便可成完矩陣的乘法運算。
在一些實施例中,張量處理模組127可包含的暫緩單元的數量可不侷限於兩個,可視待進行乘法運算的矩陣的資料的大小而有多於兩個以上數量的暫緩單元。
進一步來說,本實施例中的張量處理模組127可先向局部記憶體121存取待運算矩陣乘法的矩陣資料,並將矩陣資料分別先暫存在第一暫緩單元 1271及第二暫緩單元1273中,等到要進行矩陣乘法時,便可直接從第一暫緩單元1271及第二暫緩單元1273存取這些資料並將資料直接透過對應的通道提供給對應乘積累加運算單元,而無須透過讀取/儲存模組123從局部記憶體121存取資料再由調配模組129進行分配資料的操作。因此,可大幅減少資料從外部記憶體存取的時間,從而進一步減少執行矩陣的乘法運算的時間。換言之,在響應於執行矩陣乘法的運算時,串流多處理器120可利用張量處理模組127從局部記憶體121直接存取資料並儲存在第一暫緩單元1271及第二暫緩單元1273中,然後從第一暫緩單元1271及第二暫緩單元1273透過通道將資料傳送給該脈動陣列中的乘積累加運算單元以進行該運算;而當響應於執行非矩陣乘法的運算時,串流多處理器120則是利用讀取/儲存模組123從局部記憶體121存取資料並將資料傳送給調配模組129,再由調配模組129分配資料給N個串流處理器125以進行該運算。
本發明提出的圖形處理器,透過將串流處理器本身內建的乘積累加運算單元配置為執行矩陣乘法運算的脈動陣列,除了硬體架構設計上的一些改變,還考量運算平臺的整合以及神經網路在軟體層的優化。因此,在未增加太多的硬體的成本的情況下,本發明的圖形處理器可以有效地加速矩陣乘法的運算。
雖然本發明已以較佳實施例揭露,然其並非用以限制本發明,任何熟習此項技藝之人士,在不脫離本發明之精神和範圍內,當可作各種更動與修飾,因此本發明之保護範圍當視後附之申請專利範圍所界定者為準。
100:圖形處理器
110:互連網路模組
120:串流多處理器
121:局部記憶體
123:讀取/儲存模組
125:串流處理器
127:張量處理模組
129:調配模組
130:工作排程模組
140:記憶體
PE0~PE(N-1):串流處理器
MAC0~MAC(N-1):乘積累加運算單元
L0~L(N-1):通道

Claims (9)

  1. 一種圖形處理器,包含:多個串流多處理器,該等串流多處理器的每一者包含:N個串流處理器,經組態以單一指令對應多個執行緒的架構進行運算,其中該等N個串流處理器的每一者包含一乘積累加運算單元,其中N為正整數且N
    Figure 111149317-A0305-02-0015-24
    4;以及一張量處理模組,連接該等N個乘積累加運算單元,且經組態以將該等N個乘積累加運算單元配置為執行矩陣乘法運算的一脈動陣列,其中該脈動陣列的維數(D)符合下式,
    Figure 111149317-A0305-02-0015-5
    其中N=2n,n為正整數且n
    Figure 111149317-A0305-02-0015-25
    2。
  2. 如請求項1所述的圖形處理器,其中N=4,該等四個乘積累加運算單元為MAC0、MAC1、MAC2、MAC3分別屬於該等N個串流處理器中依序的四者,且該等四個乘積累加運算單元被配置為下列方式以形成該脈動陣列:
    Figure 111149317-A0305-02-0015-6
  3. 如請求項1所述的圖形處理器,其中該等N個乘積累加運算單元為MAC0、MAC1、...、MAC(N-1)分別屬於依序的該等N個串流處理器,其中響應於n為偶數且n
    Figure 111149317-A0305-02-0015-26
    4時,該等N個乘積累加運算單元被配置為下列方式以形成該脈動陣列:
    Figure 111149317-A0305-02-0016-7
  4. 如請求項1所述的圖形處理器,其中N=8,該等八個乘積累加運算單元為MAC0、MAC1、MAC2、...、MAC7分別屬於該等N個串流處理器中依序的八者,且該等八個乘積累加運算單元被配置為下列方式以形成該脈動陣列:
    Figure 111149317-A0305-02-0016-8
  5. 如請求項1所述的圖形處理器,其中該等N個乘積累加運算單元為MAC0、MAC1、...、MAC(N-1)分別屬於依序的該等N個串流處理器,其中響應於n為奇數且n
    Figure 111149317-A0305-02-0016-27
    5時,該等N個乘積累加運算單元被配置為下列方式以形成該脈動陣列:
    Figure 111149317-A0305-02-0016-9
  6. 如請求項1所述的圖形處理器,其中該脈動陣列的大小為AxB,其中該張量處理模組包含一第一暫緩單元及一第二暫緩單元,其中該第一暫緩單元經組態以將資料傳送給該脈動陣列的該B行中的一對應行的乘積累加運算單元,該第二暫緩單元經組態以將資料傳送給該脈動陣列的該A列中的一對應列的乘積累加運算單元。
  7. 如請求項1所述的圖形處理器,其中該等串流多處理器的每一者還包含:一局部記憶體,連接該張量處理模組,且經組態以儲存資料;以及一讀取/儲存模組,連接該局部記憶體與該等N個串流處理器,且經組態以從該局部記憶體讀取資料或是將資料儲存在該局部記憶體。
  8. 如請求項7所述的圖形處理器,其中響應於執行矩陣乘法的一第一運算,該張量處理模組從該局部記憶體存取資料並將資料傳送給該脈動陣列中的該等N個乘積累加運算單元以進行該第一運算。
  9. 如請求項7所述的圖形處理器,其中響應於執行非矩陣乘法的一第二運算,該讀取/儲存模組從該局部記憶體存取資料並將資料傳送給該等N個串流處理器以進行該第二運算。
TW111149317A 2022-12-21 2022-12-21 圖形處理器 TWI845081B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW111149317A TWI845081B (zh) 2022-12-21 2022-12-21 圖形處理器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW111149317A TWI845081B (zh) 2022-12-21 2022-12-21 圖形處理器

Publications (2)

Publication Number Publication Date
TWI845081B true TWI845081B (zh) 2024-06-11
TW202427231A TW202427231A (zh) 2024-07-01

Family

ID=92541622

Family Applications (1)

Application Number Title Priority Date Filing Date
TW111149317A TWI845081B (zh) 2022-12-21 2022-12-21 圖形處理器

Country Status (1)

Country Link
TW (1) TWI845081B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW202143031A (zh) * 2020-05-05 2021-11-16 美商英特爾股份有限公司 使用具反饋輸入之脈動陣列的可擴縮的稀疏矩陣乘法加速
TW202143032A (zh) * 2020-03-30 2021-11-16 美商高通公司 處理資料串流修改以減少在並行處理期間的功率效應
CN114787822A (zh) * 2019-10-28 2022-07-22 美光科技公司 智能图像传感器堆叠上的分布式神经网络处理
TW202238509A (zh) * 2017-04-28 2022-10-01 美商英特爾股份有限公司 用於低精度機器學習操作之計算最佳化的通用圖形處理單元及資料處理系統
US20220366527A1 (en) * 2017-04-24 2022-11-17 Intel Corporation Coordination and increased utilization of graphics processors during inference

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220366527A1 (en) * 2017-04-24 2022-11-17 Intel Corporation Coordination and increased utilization of graphics processors during inference
TW202238509A (zh) * 2017-04-28 2022-10-01 美商英特爾股份有限公司 用於低精度機器學習操作之計算最佳化的通用圖形處理單元及資料處理系統
CN114787822A (zh) * 2019-10-28 2022-07-22 美光科技公司 智能图像传感器堆叠上的分布式神经网络处理
TW202143032A (zh) * 2020-03-30 2021-11-16 美商高通公司 處理資料串流修改以減少在並行處理期間的功率效應
TW202143031A (zh) * 2020-05-05 2021-11-16 美商英特爾股份有限公司 使用具反饋輸入之脈動陣列的可擴縮的稀疏矩陣乘法加速

Also Published As

Publication number Publication date
TW202427231A (zh) 2024-07-01

Similar Documents

Publication Publication Date Title
CN110516801B (zh) 一种高吞吐率的动态可重构卷积神经网络加速器
CN107729989B (zh) 一种用于执行人工神经网络正向运算的装置及方法
CN107679621B (zh) 人工神经网络处理装置
CN107679620B (zh) 人工神经网络处理装置
CN107704922B (zh) 人工神经网络处理装置
US8281053B2 (en) Performing an all-to-all data exchange on a plurality of data buffers by performing swap operations
CN107689948B (zh) 应用于神经网络硬件加速系统的高效数据访存管理装置
EP3869352A1 (en) Network-on-chip data processing method and device
US9612750B2 (en) Autonomous memory subsystem architecture
US20090006663A1 (en) Direct Memory Access ('DMA') Engine Assisted Local Reduction
CN111630505A (zh) 深度学习加速器系统及其方法
CN115880132B (zh) 图形处理器、矩阵乘法任务处理方法、装置及存储介质
CN110059797B (zh) 一种计算装置及相关产品
US20250278318A1 (en) Data processing method and apparatus, electronic device, and computer-readable storage medium
TWI845081B (zh) 圖形處理器
CN110059809B (zh) 一种计算装置及相关产品
Chu et al. High-performance adaptive MPI derived datatype communication for modern Multi-GPU systems
CN113434813B (zh) 一种基于神经网络的矩阵乘运算方法及相关装置
US20210334264A1 (en) System, method, and program for increasing efficiency of database queries
CN114692853B (zh) 运算单元架构、运算单元丛集及卷积运算的执行方法
CN117332809A (zh) 神经网络推理芯片、方法及终端设备
Peng et al. HyperDMA: Enhancing High-Performance Computing and AI Workflows with Advanced Data Transfer Capabilities
KR20190029124A (ko) 최적 gpu 코딩 방법
RU2830044C1 (ru) Векторное вычислительное устройство
KR102775919B1 (ko) Cpu-gpu 협업 시스템 및 방법