[go: up one dir, main page]

TWM592997U - 言語表達系統 - Google Patents

言語表達系統 Download PDF

Info

Publication number
TWM592997U
TWM592997U TW108214095U TW108214095U TWM592997U TW M592997 U TWM592997 U TW M592997U TW 108214095 U TW108214095 U TW 108214095U TW 108214095 U TW108214095 U TW 108214095U TW M592997 U TWM592997 U TW M592997U
Authority
TW
Taiwan
Prior art keywords
information
display
processing device
display device
selection information
Prior art date
Application number
TW108214095U
Other languages
English (en)
Inventor
杜清敏
謝昕樺
徐安
藍加良
解佳媛
Original Assignee
國立臺北護理健康大學
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 國立臺北護理健康大學 filed Critical 國立臺北護理健康大學
Priority to TW108214095U priority Critical patent/TWM592997U/zh
Publication of TWM592997U publication Critical patent/TWM592997U/zh

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

本創作揭露一種言語表達系統,其包含:偵測裝置、處理裝置、資料儲存裝置、顯示裝置及發聲裝置。偵測裝置用以偵測使用者的眼球轉動的方向及眨眼動作以產生偵測資訊。處理裝置能依據偵測資訊比對資料儲存裝置中所儲存的多筆語音資訊,並據以控制發聲裝置播放語音資訊。處理裝置能控制顯示裝置顯示單音選擇資訊、雙音選擇資訊及三音選擇資訊,顯示裝置顯示不同的選擇資訊時,將對應呈現不同的注音符號。透過將注音符號分類為單音、雙音或三音,供使用者選擇,將可大幅降低使用者轉動眼球及眨眼的次數。

Description

言語表達系統
本創作涉及一種輔助系統,特別是一種適合輔助無法自行言語的使用者(例如漸凍人)與他人溝通的言語表達系統。
運動神經元疾病(motor neuron diseases),俗稱「漸凍症」,是指因運動神經元漸進性退化而造成全身肌肉萎縮及無力,罹患此種病症的病患一般俗稱漸凍人(以下稱病患)。病患在只有眼睛肌肉可以自主活動的情況下,相關照護人員必須使用注音溝通板,來與病患進行溝通。
如圖1所示,其顯示為現有常見的注音溝通板,使用方式大致為:照護人員依序地指向各個注音符號,並隨時地觀察病患的眼睛,以確認病患所欲選取的注音符號,當照護人員指到病患所欲選的注音符號時,病患將可以透過眨眼的方式,來向照護人員表示其所欲選取該注音符號。照護人員透過觀察病患的眨眼狀況,以拼寫出病患所欲表達的字詞。
如上所述,利用注音溝通板與病患溝通需要耗費大量的時間,且病患在沒有照護人員陪伴的情況下,將無法與他人溝通,是以,照顧此種病患,必須隨時有照護人員在旁協助,否則可能無法即時地提供病患所要的需求。
本創作公開一種言語表達系統,主要用以改善利用注音溝通板來輔助無法自行言語的使用者與他人溝通所存在的問題。
本創作實施例在於提供一種言語表達系統,其包含:一偵測裝置及一言語表達裝置。言語表達裝置包含一處理裝置、一資料儲存裝置、一顯示裝置及一發聲裝置。偵測裝置用以偵測一使用者的至少一眼睛的動作,以對應產生一偵測資訊。處理裝置電性連接偵測裝置,處理裝置能接收偵測資訊。資料儲存裝置電性連接處理裝置,資料儲存裝置儲存有多筆眼睛動向資訊、一單音選擇資訊、一雙音選擇資訊、一三音選擇資訊、一數字選擇資訊、一聲調選擇資訊及多筆語音資訊,其中一筆眼睛動向資訊對應儲存有眼球向右的影像資訊,其中一筆眼睛動向資訊對應儲存有眼球向左的影像資訊,其中一筆眼睛動向資訊對應儲存有閉眼的影像。顯示裝置電性連接處理裝置,處理裝置能依據偵測資訊,控制顯示裝置顯示單音選擇資訊、雙音選擇資訊、三音選擇資訊的其中一個,且處理裝置能依據偵測資訊控制顯示裝置顯示至少一數字選擇資訊及至少一聲調選擇資訊;其中,處理裝置能依據偵測資訊,控制顯示裝置更新一顯示畫面,以使顯示畫面中的一選擇框隨使用者的眼球轉向而改變位置。發聲裝置電性連接處理裝置,處理裝置能控制發聲裝置,播放其中一筆語音資訊。其中,顯示裝置顯示單音選擇資訊時,顯示裝置的一顯示畫面中將對應出現ㄓ、ㄔ、ㄕ、ㄖ、ㄗ、ㄘ、ㄙ、ㄚ、ㄛ、ㄜ、ㄞ、ㄟ、ㄠ、ㄡ、ㄢ、ㄣ、ㄧ、ㄨ、ㄩ、ㄤ的注音符號。其中,顯示裝置顯示雙音選擇資訊時,顯示裝置的顯示畫面中將對應出現ㄅ、ㄆ、ㄇ、ㄈ、ㄉ、ㄊ、ㄋ、ㄌ、ㄍ、ㄎ、ㄏ、ㄐ、ㄑ、ㄒ、ㄓ、ㄔ、ㄕ、ㄖ、ㄗ、ㄘ、ㄙ、ㄧ、ㄨ、ㄩ的注音符號。其中,顯示裝置顯示三音選擇資訊時,顯示裝置的顯示畫面中將對應出現ㄅ、ㄆ、ㄇ、ㄉ、ㄊ、ㄋ、ㄌ、ㄍ、ㄎ、ㄏ、ㄐ、ㄑ、ㄒ、ㄓ、ㄔ、ㄕ、ㄖ、ㄗ、ㄘ、ㄙ的注音符號。其中,顯示裝置顯示數字選擇資訊時,顯示裝置的顯示畫面中將對應出現多個阿拉伯數字。其中,顯示裝置顯示聲調選擇資訊時,顯示裝置的顯示畫面中將對應出現一聲、二聲、三聲、四聲、輕聲的符號或文字。
綜上所述,本創作的言語表達系統能幫助眼球能自由活動但無法自行言語的使用者,與他人進行溝通。
為能更進一步瞭解本創作的特徵及技術內容,請參閱以下有關本創作的詳細說明與附圖,但是此等說明與附圖僅用來說明本創作,而非對本創作的保護範圍作任何的限制。
於以下說明中,如有指出請參閱特定圖式或是如特定圖式所示,其僅是用以強調於後續說明中,所述及的相關內容大部份出現於該特定圖式中,但不限制該後續說明中僅可參考所述特定圖式。
請參閱圖2,其顯示為本創作的言語表達系統的方塊示意圖。如圖所示,本創作的言語表達系統100包含一偵測裝置10及一言語表達裝置100A。偵測裝置10與言語表達裝置100A可以是兩個獨立設置的裝置,且兩者可以是以無線或是有線的方式相連接;在偵測裝置10與言語表達裝置100A以無線方式連接的實施例中,偵測裝置10可以是對應具有一無線訊號發射器14,言語表達裝置100A則可以是對應具有一無線訊號接收器21,而偵測裝置10與言與表達裝置100A則可以通過無線訊號發射器14及無線訊號接收器21相互傳遞訊號。言語表達裝置100A包含一處理裝置20、一資料儲存裝置30、一顯示裝置40及一發聲裝置50。偵測裝置10、資料儲存裝置30、顯示裝置40及發聲裝置50電性連接處理裝置20。在實際應用中,偵測裝置10、處理裝置20、資料儲存裝置30、顯示裝置40及發聲裝置50可以整合為一電子設備;或者,處理裝置20及資料儲存裝置30可以整合為一電子設備,而顯示裝置40及發聲裝置50則是另外獨立的設備。
偵測裝置10用以偵測使用者的至少一眼睛的動作,以對應產生一偵測資訊101。在實際應用中,偵測裝置10例如可以是包含影像擷取器11、影像錄製器等,任何可以擷取使用者的眼睛的裝置皆屬於偵測裝置10具體可實施的範圍。在偵測裝置10包含影像擷取器11的實施例中,偵測裝置10所產生的偵測資訊101,例如可以包含至少一影像;且在實際應用中,使用者可以透過處理裝置20,以讀出所述偵測資訊101,而於顯示器中顯示偵測資訊101所對應的影像。
在實際應用中,偵測裝置10可以是包含有影像擷取器11及一微處理器12,微處理器12可以是控制影像擷取器11於一預定時間內,擷取預定次數的影像,而後微處理器12可以是分析該些影像,再據以產生所述偵測資訊101。具體來說,透過上述方式,可以正確地判斷使用者當前的眨眼動作或是眼球轉向動作,是否為自主性動作,若是非自主性(神經反射動作)的眨眼動作,則在預定時間內所擷取到的影像中,一大部分的影像都會是張眼的圖像;相對地,若是使用者自主的眨眼動作,則在預定時間內擷取到的影像中,將可以明顯地區隔出一部分的影像為張眼的圖像,一部分的影像為閉眼的圖像。透過上述方式,可以大幅降低言語表達系統100因為錯誤的判讀,而讓使用者再次進行不必要的眨眼(或是眼球轉動)的動作。
請參閱圖3,在其中一個實施例中,偵測裝置10包含有一穿戴組件13及前述影像擷取器11,影像擷取器11固定設置於穿戴組件13,穿戴組件13用以套設於使用者的頭上,影像擷取器11用以偵測使用者的眼睛的影像,以形成所述偵測資訊101。在圖3中是以穿戴組件13為帽子為例,但穿戴組件13不以帽子為限,舉例來說,穿戴組件13也可以是眼鏡等,任何可以穿到於使用者頭上的組件。
處理裝置20可以是任何微處理器、電腦等,於此不加以限制。處理裝置20能接收偵測裝置10所傳遞的偵測資訊101,具體來說,處理裝置20可以是以有線或是無線的方式接收偵測資訊101。
資料儲存裝置30可以是資料庫、硬碟、遠端伺服器等,於此不加以限制。資料儲存裝置30及處理裝置20可以設置於同一電子設備中,但不以此為限。資料儲存裝置30儲存有多筆眼睛動向資訊301,而處理裝置20能讀取多筆眼睛動向資訊301,且處理裝置20亦能將偵測資訊101與任一筆眼睛動向資訊301進行影像比對。
在實際應用中,其中一筆眼睛動向資訊301對應儲存有眼球向右的影像,其中一筆眼睛動向資訊301對應儲存有眼球向左的影像,其中一筆眼睛動向資訊301可以是對應儲存有眼球向上的影像,其中一筆眼睛動向資訊301可以是對應儲存有眼球向下的影像,其中一筆眼睛動向資訊301可以是對應儲存有一閉眼的影像。具體來說,相關人員可以是利用處理裝置20,將其中一筆眼睛動向資訊301於一顯示器中顯示,而顯示器中將對應呈現出眼球向左、眼球向右、眼球向下、眼球向上、閉眼的影像。
在實際應用中,資料儲存裝置30中所儲存的多筆眼睛動向資訊301可以是來自於相關人員預先對使用者的多種眼球動向及閉眼時所進行的擷取圖像,但不以此為限,亦即,資料儲存裝置30中所儲存的多筆眼睛動向資訊301,可以是對應儲存有使用者的眼球向左、向右、向上及向下的影像。
資料儲存裝置30中還儲存有一單音選擇資訊302、一雙音選擇資訊303、一三音選擇資訊304、多筆數字選擇資訊305、多筆聲調選擇資訊306及多筆語音資訊307。處理裝置20能讀取資料儲存裝置30中儲存的單音選擇資訊302、雙音選擇資訊303、三音選擇資訊304、多筆數字選擇資訊305、多筆聲調選擇資訊306及多筆語音資訊307,且處理裝置20能控制顯示裝置40顯示單音選擇資訊302、雙音選擇資訊303、三音選擇資訊304、多筆數字選擇資訊305、多筆聲調選擇資訊306及多筆語音資訊307。
在實際應用中,處理裝置20能依據偵測資訊101,比對資料儲存裝置30中的多筆眼睛動向資訊301,以對應控制顯示裝置40顯示單音選擇資訊302、雙音選擇資訊303、三音選擇資訊304的其中一個,且處理裝置20能控制顯示裝置40在顯示單音選擇資訊302、雙音選擇資訊303、三音選擇資訊304的其中一個時,同時顯示數字選擇資訊305、聲調選擇資訊306中的至少一個。
處理裝置20能依據偵測資訊101,控制發聲裝置50播放其中一筆語音資訊307。所述語音資訊307例如可以是單字的聲音檔、字詞的聲音檔或詞句的聲音檔。在具體應用中,處理裝置20可以是依據先收接收到的多筆偵測資訊101,而查找資料儲存裝置30中所儲存的多筆語音資訊307,而後,處理裝置20可以是將查找出的多筆語音資訊307整合為一句子語音資訊201,最後處理裝置20可以是控制發聲裝置50播放該句子語音資訊201,而相關人員將可聽到發聲裝置50播放整個句子的語音。當然,處理裝置20也可以是不將多筆語音資訊307整合為該句子語音資訊201,而處理裝置20可以是將多筆語音資訊307先後預存於特定的記憶空間(例如是記憶體的特定位址、硬碟的特定位址)中,而後處理裝置20再控制發聲裝置50依序逐一播放儲存於特定的記憶空間中的多筆語音資訊307,如此,相關人員將可以由發聲裝置50連續地發出單字或是單詞的語音。
在實際應用中,處理裝置20接收所述偵測資訊101時,處理裝置20可以是控制顯示裝置40於顯示畫面401中呈現出相對應的圖樣,且處理裝置20還可以是同時控制發聲裝置50發出一提示語音資訊307,藉此,可提示使用者,處理裝置20已經偵測到眼球的動作。
需特別說明的是,當顯示裝置40被處理裝置20控制而顯示單音選擇資訊302時,顯示裝置40的顯示畫面401中將對應出現ㄓ、ㄔ、ㄕ、ㄖ、ㄗ、ㄘ、ㄙ、ㄚ、ㄛ、ㄜ、ㄞ、ㄟ、ㄠ、ㄡ、ㄢ、ㄣ、ㄧ、ㄨ、ㄩ、ㄤ的注音符號。當顯示裝置40被處理裝置20控制而顯示雙音選擇資訊303時,顯示裝置40的顯示畫面401中將對應出現ㄅ、ㄆ、ㄇ、ㄈ、ㄉ、ㄊ、ㄋ、ㄌ、ㄍ、ㄎ、ㄏ、ㄐ、ㄑ、ㄒ、ㄓ、ㄔ、ㄕ、ㄖ、ㄗ、ㄘ、ㄙ、ㄧ、ㄨ、ㄩ的注音符號。當顯示裝置40被處理裝置20控制而顯示三音選擇資訊304時,顯示裝置40的顯示畫面401中將對應出現ㄅ、ㄆ、ㄇ、ㄉ、ㄊ、ㄋ、ㄌ、ㄍ、ㄎ、ㄏ、ㄐ、ㄑ、ㄒ、ㄓ、ㄔ、ㄕ、ㄖ、ㄗ、ㄘ、ㄙ的注音符號。
透過上述顯示方式,將可大幅降低使用者使用本創作的言語表達系統100的步驟,從而讓使用者可以更快速地選擇出所欲表達的字詞。
本創作的言語表達系統100,主要是用來偵測無法正常言語的使用者的眼睛作動,以透過發聲裝置50發出使用者所欲說出的話。為了讓言語表達系統100可以更貼近使用者本身的狀態,資料儲存裝置30所儲存的部分語音資訊307可以是男聲語音資訊307A,另一部分的語音資訊307則為女聲語音資訊307B。而處理裝置20可以是依據使用者透過眼球轉向及眨眼等動作,來控制發聲裝置50發出相對應的男聲語音資訊307A或女聲語音資訊307B。
在資料儲存裝置30儲存有男聲語音資訊307A及女聲語音資訊307B的實施例中,資料儲存裝置30還可以儲存有一性別選擇資訊308。處理裝置20能控制顯示裝置40顯示性別選擇資訊308。如圖4所示,當顯示裝置40顯示性別選擇資訊308時,顯示畫面401中將可以對應顯示出一男性選擇單元402及一女性選擇單元403,而後,使用者可以是透過轉動眼球及眨眼,來通過偵測裝置10,以產生特定的偵測資訊101,藉此,處理裝置20將可通過偵測資訊101,瞭解使用者欲選擇男性選擇單元402或是女性選擇單元403。
當顯示裝置40顯示如圖3所示的畫面,且使用者將眼球向左移動並停留一預定秒數(例如0.5~1秒)後,偵測裝置10擷取使用者眼球向左的影像,並據以產生對應的偵測資訊101時,處理裝置20將可以依據顯示裝置40當前所顯示的性別選擇資訊308及該偵測資訊101,來決定後續發聲裝置50必須播放男聲語音資訊307A或是播放女聲語音資訊307B。
為利於使用者得知,偵測裝置10已完成眼睛影像的擷取作業,處理裝置20可以是於接收到偵測裝置10所傳遞的偵測資訊101時,控制發聲裝置50發出相對應的提示聲音(例如:您選擇了向左的選項、您已完成向左選擇的操作等),藉此,讓使用者瞭解偵測裝置10已經完成偵測。相對地,當處理裝置20接收到偵測裝置10所傳遞的偵測資訊101後,處理裝置20還可以是控制顯示裝置40更新其當前所顯示的畫面,舉例來說,在圖3所示的畫面中,若是處理裝置20判斷使用者眼球向左,則處理裝置20可以是控制顯示畫面401中的男性選擇單元402的外側呈現出一選擇框404,或者也可以是使男性選擇單元402呈現不同顏色等。
請一併參閱圖4及圖5,言語表達系統100開機後,處理裝置20可以是先使顯示裝置40顯示出圖4的顯示畫面401,當處理裝置20透過偵測裝置10,判斷使用者在顯示裝置40顯示圖4的顯示畫面401時的眼球的動向後,處理裝置20可以是控制顯示裝置40顯示單音選擇單元405、雙音選擇單元406及三音選擇單元407。當顯示裝置40顯示圖5所示的畫面時,處理裝置20可以是透過偵測裝置10,來判斷使用者的眼球的動向,且處理裝置20可以是依據偵測裝置10所傳的偵測資訊101,以控制顯示裝置40更新顯示畫面401。
具體來說,在顯示裝置40顯示圖5的畫面時,雙音選擇單元406的外側可以是對應出現有選擇框404,此時,使用者若欲選擇雙音選擇單元406,則可以是對偵測裝置10眨眼,如此,處理裝置20接收到偵測裝置10所傳遞的相對應的偵測資訊101後,處理裝置20將會控制顯示裝置40顯示圖9的畫面。相對地,當顯示裝置40顯示圖5的畫面時,使用者若欲選擇單音選擇單元405,則使用者可以是先將眼球向左,處理裝置20接收到偵測裝置10所對應產生的偵測資訊101後,處理裝置20將會控制顯示裝置40更新顯示畫面401,據以使圖5中的單音選擇單元405的外側對應出現選擇框404,即,使原本位於雙音選擇單元406外的選擇框404向左移動至單音選擇單元405外,當選擇框404向左移動至單音選擇單元405後,使用者可以再對偵測裝置10眨眼,而後處理裝置20接收偵測裝置10所偵測使用者眨眼動作而對應產生的偵測資訊101後,處理裝置20將可以控制顯示裝置40顯示單音選擇資訊302及多個數字選擇單元410。另外,若是使用者透過轉動眼球及眨眼,以於圖5的畫面中,選擇三音選擇單元407時,處理裝置20將會控制顯示裝置40更新顯示畫面401,以使顯示畫面401由圖5轉換為圖11。
依上所述,也就是說,處理裝置20能依據偵測資訊101,控制顯示裝置40更新顯示畫面401,以使顯示畫面401中的選擇框404隨使用者的眼球轉向而改變位置。
如圖6所示,處理裝置20控制顯示裝置40顯示單音選擇資訊302及多個數字選擇單元410時,顯示畫面401中的一注音符號顯示區域401A,將對應顯示出ㄓ、ㄔ、ㄕ、ㄖ、ㄗ、ㄘ、ㄙ、ㄚ、ㄛ、ㄜ、ㄞ、ㄟ、ㄠ、ㄡ、ㄢ、ㄣ、ㄧ、ㄨ、ㄩ、ㄤ的注音符號單元408,且各注音符號單元408的下方還顯示有2個阿拉伯數字單元409,而於顯示畫面401的一數字選擇區域401B中,則對應顯示出多個數字選擇單元410、一確定選擇單元411及一倒退選擇單元412,該些數字選擇單元410所對應的數字,與各阿拉伯數字單元409所對應的數字相同。
更進一步來說,在圖6所示的注音符號顯示區域401A內所顯示的20個注音符號單元408中,每四個注音符號單元408可以是視為一個群組,各個群組中的各個注音符號單元408下方的第一個阿拉伯數字單元409所對應的阿拉伯數字相同;舉例來說,位於注音符號顯示區域401A左上角的4個注音符號單元408,分別顯示ㄓ、ㄔ、ㄕ、ㄖ四個注音符號,且注音符號ㄓ下方的第一個阿拉伯數字、注音符號ㄔ下方的第一個阿拉伯數字、注音符號ㄕ下方的第一個阿拉伯數字及注音符號ㄖ下方的第一個阿拉伯數字皆為3;同理,位於注音符號顯示區域401A左下角的四個注音符號單元408,分別顯示ㄠ、ㄡ、ㄢ、ㄣ四個注音符號,其下方的第一個阿拉伯數字則同樣為6。
依據20個注音符號單元408下方所出現的各個阿拉伯數字單元409,在數字選擇區域401B中將呈現出相對應的數字選擇單元410;換句話說,若是阿拉伯數字單元409所對應的阿拉伯數字包含有7,則數字選擇區域401B中將呈現出數字7的數字選擇單元410。
在顯示畫面401中還呈現有一被選擇的符號區域401C。當處理裝置20控制顯示裝置40,由圖5的顯示畫面401切換為圖6的顯示畫面401時,處理裝置20可以是控制位於中央的數字選擇單元410的外側呈現有選擇框404,而後,處理裝置20可以依據偵測裝置10偵測使用者的眼球轉動方向及眨眼動作,而判斷使用者欲選擇哪一個數字選擇單元410。
更具體來說,在顯示裝置40顯示圖6的畫面時,使用者欲選擇注音符號ㄓ時,使用者可以是先後將眼球向右、向上轉動,而使選擇框404先後向右、向上移動;當選擇框404移動至阿拉伯數字為3的數字選擇單元410時,使用者則可以對偵測裝置10眨眼,而後,處理裝置20接收到相對應的偵測資訊101時,處理裝置20將可以控制顯示裝置40更新顯示畫面401,以於被選擇的符號區域401C中對應顯示出一個阿拉伯數字3;接著,使用者在選擇框404仍停留在阿拉伯數字為3的數字選擇單元410的狀況下,再次向偵測裝置10眨眼,則處理裝置20將會控制顯示裝置40再次更新顯示畫面401,而使顯示裝置40所顯示的畫面中的被選擇的符號區域401C中對應顯示出第二個阿拉伯數字3。
當顯示裝置40所顯示的畫面中的被選擇的符號區域401C中顯示出第二個阿拉伯數字3,使用者可以是透過轉動眼球,以控制選擇框404移動至確定選擇單元411,接著對偵測裝置10眨眼,如此,處理裝置20將會控制顯示裝置40更新顯示畫面401,而使顯示裝置40由顯示圖6的畫面,轉換為顯示圖7的畫面。如圖6所示,當被選擇的符號區域401C中顯示出第二個阿拉伯數字3時,使用者也可以是透過轉動眼球,而使選擇框404移動至倒退選擇單元412,當選擇框404停留在倒退選擇單元412時,使用者可以對偵測裝置10眨眼,如此,處理裝置20接收到相對應的偵測資訊101時,處理裝置20將控制顯示裝置40更新顯示畫面401,以消除被選擇的符號區域401C出現的其中一個第二個阿拉伯數字3,而使被選擇的符號區域401C僅出現單一個阿拉伯數字3。
如圖7所示,在顯示裝置40顯示圖7的畫面時,顯示畫面401的被選擇的符號區域401C中將對應顯示出注音符號ㄓ,且於此同時,處理裝置20還控制顯示裝置40顯示聲調選擇資訊306,而顯示畫面401中的一聲調選擇區域401D,將對應顯示一一聲選擇單元413、一二聲選擇單元414、一三聲選擇單元415、一四聲選擇單元416及一輕聲選擇單元417。
與前述說明相似地,當顯示裝置40顯示圖7的畫面時,使用者可以透過轉動眼球,來使選擇框404於一聲選擇單元413、二聲選擇單元414、三聲選擇單元415、四聲選擇單元416及輕聲選擇單元417之間移動,當選擇框404移動至其中一的選擇單元時,使用者可以是對偵測裝置10眨眼,藉此,處理裝置20將會控制顯示裝置40更新顯示畫面401,以於被選擇的符號區域401C中顯示出相對應的文字(如圖8所示)。
具體來說,若使用者在顯示裝置40顯示圖7的畫面中,透過轉動眼球及眨眼,而選擇了四聲選擇單元416時,處理裝置20將控制顯示裝置40的顯示畫面401由圖7轉換為圖8,而於被選擇的符號區域401C中顯示出四聲的文字(或是符號)。
當處理裝置20控制顯示裝置40顯示如圖8的畫面時,處理裝置20將可以依據先後接收的偵測資訊101,來判斷當前被選擇的符號區域401C中所顯示的注音符號及聲調(一聲、二聲、三聲、四聲或輕聲)的拼音是否正確,以及注音符號的排列順序是否正確,當處理裝置20判斷注音符號及聲調的拼音不正確,或是注音符號的頻列順序不正確時,處理裝置20可以是控制發聲裝置50發出特定的聲響以提示使用者,或者處理裝置20可以是控制顯示裝置40顯示特定的文字、圖樣,以提示使用者。
相對地,若是處理裝置20判斷注音符號及聲調的拼音正確,且注音符號的排列順序正確,則處理裝置20可以是依據偵測裝置10先後傳遞的偵測資訊101,而控制顯示裝置40顯示發聲選擇資訊309。如圖8所示,當處理裝置20控制顯示裝置40顯示發聲選擇資訊309時,顯示裝置40可以是於顯示畫面401中的一發聲選擇區域401E,對應顯示出一繼續選擇單元418、一重播選擇單元419、一整句播放選擇單元420。
同樣地,使用者可以是透過轉動眼球,來移動圖8中所顯示的選擇框404,以使選擇框404移動至繼續選擇單元418、重播選擇單元419或整句播放選擇單元420。當使用者透過轉動眼球,而使選擇框404移動至繼續選擇單元418並眨眼時,處理裝置20接收到相對應的偵測資訊101後,處理裝置20將控制顯示裝置40更新顯示畫面401,以使顯示畫面401由圖8轉換為圖5。
當使用者透過轉動眼球,而使選擇框404移動至整句播放選擇單元420並眨眼時,處理裝置20將依據先後接收到的偵測資訊101,查找資料儲存裝置30中的多筆語音資訊307,並據以使發聲裝置50播放查找出的語音資訊307。
具體來說,當顯示裝置40顯示圖8的畫面,且使用者透過轉動眼球及眨眼,選擇整句播放選擇單元420時,處理裝置20將控制發聲裝置50發出「智」的語音。需說明的是,若是使用者在選擇整句播放選擇單元420之前,已經反覆地選擇出多個字詞,則當顯示裝置40顯示圖8的畫面,且使用者透過轉動眼球及眨眼,選擇整句播放選擇單元420時,處理裝置20將控制發聲裝置50逐一地發出相對應的字詞的語音。
相對地,當使用者透過轉動眼球,而使選擇框404移動至重播選擇單元419並眨眼時,處理裝置20將控制發聲裝置50重複播放先前播放的至少一語音資訊307。當然,在具體應用中,處理裝置20接收偵測資訊101,並查找到相對應的語音資訊307時,可以是先將該些語音資訊307儲存於一暫存儲存單元(例如記憶體)中,如此,使用者透過轉動眼球及眨眼,而選擇重播選擇單元419時,處理裝置20將可讀取暫存儲存單元中的至少一比語音資訊307,並據以控制發聲裝置50播放。
請參閱圖9,當處理裝置20控制顯示裝置40顯示圖9的畫面,且使用者透過轉動眼球及眨眼,而讓處理裝置20控制顯示裝置40於被選擇的符號區域401C中顯示出阿拉伯數字1、6時,使用者若接著使選擇框404移動至確定選擇單元411並對偵測裝置10眨眼,則處理裝置20將會控制顯示裝置40的顯示畫面401由圖9轉換為圖10。
如圖10所示,處理裝置20在依據偵測裝置10而控制顯示裝置40更新顯示畫面401的同時,處理裝置20可以是一併控制顯示裝置40僅顯示出部分的注音符號單元408。具體來說,在圖9的顯示畫面401中出現了24個注音符號單元408,而在圖10中,當被選擇的符號區域401C中出現了注音符號ㄊ時,則顯示畫面401中將對應僅出現15個能與注音符號ㄊ相配合的注音符號單元408。
綜上所述,本創作的言語表達系統可以輔助無法自行言語的使用者,利用眼球轉動及眨眼,來通過發聲裝置發出字詞、詞句的語音,從而讓無法自行言語的使用者能與他人溝通。
以上所述僅為本創作的較佳可行實施例,非因此侷限本創作的專利範圍,故舉凡運用本創作說明書及圖式內容所做的等效技術變化,均包含於本創作的保護範圍內。
100:言語表達系統 10:偵測裝置 101:偵測資訊 11:影像擷取器 12:微處理器 13:穿戴組件 14:無線訊號發射器 100A:言語表達裝置 20:處理裝置 201:句子語音資訊 21:無線訊號接收器 30:資料儲存裝置 301:眼睛動向資訊 302:單音選擇資訊 303:雙音選擇資訊 304:三音選擇資訊 305:數字選擇資訊 306:聲調選擇資訊 307:語音資訊 307A:男聲語音資訊 307B:女聲語音資訊 308:性別選擇資訊 309:發聲選擇資訊 40:顯示裝置 401:顯示畫面 401A:注音符號顯示區域 401B:數字選擇區域 401C:被選擇的符號區域 401D:聲調選擇區域 401E:發聲選擇區域 402:男性選擇單元 403:女性選擇單元 404:選擇框 405:單音選擇單元 406:雙音選擇單元 407:三音選擇單元 408:注音符號單元 409:阿拉伯數字單元 410:數字選擇單元 411:確定選擇單元 412:倒退選擇單元 413:一聲選擇單元 414:二聲選擇單元 415:三聲選擇單元 416:四聲選擇單元 417:輕聲選擇單元 418:繼續選擇單元 419:重播選擇單元 420:整句播放選擇單元 50:發聲裝置
圖1為習知的注音溝通板的示意圖。
圖2為本創作的言語表達系統的方塊示意圖。
圖3為本創作的言語表達系統的偵測裝置的其中一實施例的示意圖。
圖4為本創作的言語表達系統的顯示裝置顯示有性別選擇資訊的示意圖。
圖5為本創作的言語表達系統的顯示裝置顯示有單音選擇單元、雙音選擇單元及三音選擇單元的示意圖。
圖6為本創作的言語表達系統的顯示裝置顯示有單音選擇資訊及數字選擇資訊的示意圖。
圖7為本創作的言語表達系統的顯示裝置顯示有單音選擇資訊、一聲選擇單元、二聲選擇單元、三聲選擇單元、四聲選擇單元及輕聲選擇單元的示意圖。
圖8為本創作的言語表達系統的顯示裝置顯示有發聲選擇資訊的示意圖。
圖9、10為本創作的言語表達系統的顯示裝置顯示雙音選擇資訊及數字選擇資訊的示意圖。
圖11為本創作的言語表達系統的顯示裝置顯示三音選擇資訊及數字選擇資訊的示意圖。
100:言語表達系統
10:偵測裝置
101:偵測資訊
11:影像擷取器
12:微處理器
14:無線訊號發射器
100A:言語表達裝置
20:處理裝置
201:句子語音資訊
21:無線訊號接收器
30:資料儲存裝置
301:眼睛動向資訊
302:單音選擇資訊
303:雙音選擇資訊
304:三音選擇資訊
305:數字選擇資訊
306:聲調選擇資訊
307:語音資訊
307A:男聲語音資訊
307B:女聲語音資訊
308:性別選擇資訊
309:發聲選擇資訊
40:顯示裝置
50:發聲裝置

Claims (10)

  1. 一種言語表達系統,其包含: 一偵測裝置,其用以偵測一使用者的至少一眼睛的動作,以對應產生一偵測資訊;以及 一言語表達裝置,其包含: 一處理裝置,其電性連接所述偵測裝置,所述處理裝置能接收所述偵測資訊; 一資料儲存裝置,其電性連接所述處理裝置,所述資料儲存裝置儲存有多筆眼睛動向資訊、一單音選擇資訊、一雙音選擇資訊、一三音選擇資訊、一數字選擇資訊、一聲調選擇資訊及多筆語音資訊,其中一筆所述眼睛動向資訊對應儲存有眼球向右的影像資訊,其中一筆所述眼睛動向資訊對應儲存有眼球向左的影像資訊,其中一筆所述眼睛動向資訊對應儲存有閉眼的影像; 一顯示裝置,其電性連接所述處理裝置,所述處理裝置能依據所述偵測資訊,控制所述顯示裝置顯示所述單音選擇資訊、所述雙音選擇資訊、所述三音選擇資訊的其中一個,且所述處理裝置能依據所述偵測資訊控制所述顯示裝置顯示所述數字選擇資訊及所述聲調選擇資訊;其中,所述處理裝置能依據所述偵測資訊,控制所述顯示裝置更新一顯示畫面,以使所述顯示畫面中的一選擇框隨所述使用者的眼球轉向而改變位置;及 一發聲裝置,其電性連接所述處理裝置,所述處理裝置能控制所述發聲裝置,播放其中一筆所述語音資訊; 其中,所述顯示裝置顯示所述單音選擇資訊時,所述顯示裝置的一顯示畫面中將對應出現ㄓ、ㄔ、ㄕ、ㄖ、ㄗ、ㄘ、ㄙ、ㄚ、ㄛ、ㄜ、ㄞ、ㄟ、ㄠ、ㄡ、ㄢ、ㄣ、ㄧ、ㄨ、ㄩ、ㄤ的注音符號; 其中,所述顯示裝置顯示所述雙音選擇資訊時,所述顯示裝置的所述顯示畫面中將對應出現ㄅ、ㄆ、ㄇ、ㄈ、ㄉ、ㄊ、ㄋ、ㄌ、ㄍ、ㄎ、ㄏ、ㄐ、ㄑ、ㄒ、ㄓ、ㄔ、ㄕ、ㄖ、ㄗ、ㄘ、ㄙ、ㄧ、ㄨ、ㄩ的注音符號; 其中,所述顯示裝置顯示所述三音選擇資訊時,所述顯示裝置的所述顯示畫面中將對應出現ㄅ、ㄆ、ㄇ、ㄉ、ㄊ、ㄋ、ㄌ、ㄍ、ㄎ、ㄏ、ㄐ、ㄑ、ㄒ、ㄓ、ㄔ、ㄕ、ㄖ、ㄗ、ㄘ、ㄙ的注音符號; 其中,所述顯示裝置顯示所述數字選擇資訊時,所述顯示裝置的所述顯示畫面中將對應出現多個阿拉伯數字; 其中,所述顯示裝置顯示所述聲調選擇資訊時,所述顯示裝置的所述顯示畫面中將對應出現一聲、二聲、三聲、四聲、輕聲的符號或文字。
  2. 如請求項1所述的言語表達系統,其中,所述處理裝置接收所述偵測資訊時,所述處理裝置能控制所述發聲裝置發出一提示語音資訊。
  3. 如請求項1所述的言語表達系統,其中,所述偵測裝置包含一影像擷取器及一微處理器,所述影像擷取器能於一預定時間內對所述使用者的所述眼睛進行一預定次數的影像擷取,而所述微處理器能分析所述影像擷取器所擷取的所述預定次數的影像,以對應產生所述偵測資訊;所述處理裝置能比對所述偵測資訊及儲存有閉眼的影像的所述眼睛動向資訊,以控制所述顯示裝置更新所述顯示畫面。
  4. 如請求項1所述的言語表達系統,其中,所述偵測裝置包含有一穿戴組件及一影像擷取器,所述影像擷取器固設置於所述穿戴組件,所述穿戴組件用以套設於所述使用者的頭上,所述影像擷取器用以偵測所述使用者的所述眼睛的影像,以形成所述偵測資訊。
  5. 如請求項1所述的言語表達系統,其中,所述資料儲存裝置所儲存的部分所述語音資訊為男聲語音資訊,另一部分的所述語音資訊為女聲語音資訊;所述資料儲存裝置還儲存有一性別選擇資訊,所述處理裝置能控制所述顯示裝置於所述顯示畫面中顯示所述性別選擇資訊;其中,所述顯示裝置顯示所述性別選擇資訊時,所述顯示畫面中將顯示出一男性選擇單元及一女性選擇單元;所述處理裝置能依據所述偵測裝置所傳遞的所述偵測資訊,而控制所述發聲裝置播出至少一所述男聲語音資訊或至少一所述女聲語音資訊。
  6. 如請求項1所述的言語表達系統,其中,所述顯示裝置被所述處理裝置控制而同時顯示所述單音選擇資訊、所述雙音選擇資訊或所述三音選擇資訊,以及所述數字選擇資訊時,所述顯示裝置的所述顯示畫面中將出現多個注音符號單元及多個阿拉伯數字單元,各個所述注音符號單元的周圍對應具有兩個所述阿拉伯數字單元。
  7. 如請求項1所述的言語表達系統,其中,所述顯示裝置被所述處理裝置控制而顯示所述雙音選擇資訊或所述三音選擇資訊時,所述處理裝置能依據所述偵測資訊,控制所述顯示裝置更新所述顯示畫面中的一注音符號顯示區域中所顯示的注音符號。
  8. 如請求項1所述的言語表達系統,其中,所述顯示裝置被所述處理裝置控制而顯示所述雙音選擇資訊或所述三音選擇資訊時,所述處理裝置能依據所述偵測資訊,控制所述顯示裝置於所述顯示畫面中的一被選擇的符號區域中顯示相對應的一個注音符號。
  9. 如請求項1所述的言語表達系統,其中,所述顯示裝置被所述處理裝置控制而顯示所述單音選擇資訊、所述雙音選擇資訊或所述三音選擇資訊時,所述處理裝置能依據所述偵測資訊,控制所述顯示裝置同時顯示所述聲調選擇資訊;其中,所述顯示裝置被控制而顯示所述聲調選擇資訊時,所述顯示畫面中將對應出現一一聲選擇單元、一二聲選擇單元、一三聲選擇單元、一四聲選擇單元及一輕聲選擇單元中的至少一個。
  10. 如請求項1所述的言語表達系統,其中,所述處理裝置能依據所述偵測資訊,控制所述顯示裝置顯示一發聲選擇資訊,所述顯示裝置顯示所述發聲選擇資訊時,所述顯示畫面中將對應出現一繼續選擇單元、一重播選擇單元及一整句播放選擇單元;當所述顯示裝置顯示所述發聲選擇資訊時,所述處理裝置能依據接收到的所述偵測資訊,查找所述資料儲存裝置中的多筆所述語音資訊,以控制所述發聲裝置播放其中一所述語音資訊。
TW108214095U 2019-10-25 2019-10-25 言語表達系統 TWM592997U (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW108214095U TWM592997U (zh) 2019-10-25 2019-10-25 言語表達系統

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW108214095U TWM592997U (zh) 2019-10-25 2019-10-25 言語表達系統

Publications (1)

Publication Number Publication Date
TWM592997U true TWM592997U (zh) 2020-04-01

Family

ID=71133200

Family Applications (1)

Application Number Title Priority Date Filing Date
TW108214095U TWM592997U (zh) 2019-10-25 2019-10-25 言語表達系統

Country Status (1)

Country Link
TW (1) TWM592997U (zh)

Similar Documents

Publication Publication Date Title
Green et al. Lip movement exaggerations during infant-directed speech
Tapus et al. The use of socially assistive robots in the design of intelligent cognitive therapies for people with dementia
US10290222B2 (en) Interactive tutorial with integrated escalating prompts
US20220028296A1 (en) Information processing apparatus, information processing method, and computer program
CN110931111A (zh) 基于虚拟现实及多模态信息的孤独症辅助干预系统及方法
US20040197750A1 (en) Methods for computer-assisted role-playing of life skills simulations
TW201742033A (zh) 手指環中的學習裝置
JP2013097311A (ja) 学習支援装置、学習支援方法および学習支援プログラム
KR20210051278A (ko) 언어장애인의 언어기능 개선을 위한 웹 음성인식 및 몰입형 가상현실 기반 인지 언어 재활 원격 훈련 시스템
JP6158179B2 (ja) 情報処理装置および情報処理方法
Harkness The open throat: Deceptive sounds, facts of firstness, and the interactional emergence of voice
KR20130099714A (ko) 인지 능력 증진 시스템 및 그를 이용한 인지 능력 훈련 방법
Williams et al. Interlanguage dynamics and lexical networks in nonnative L2 signers of ASL: Cross-modal rhyme priming
US20220020390A1 (en) Interactive group session computing systems and related methods
JP6149230B2 (ja) 脳機能障害者生活支援装置
TWM592997U (zh) 言語表達系統
Hennig Natural user interfaces and accessibility
Bornman et al. Background, features, and principles of AAC technology
JP5843894B2 (ja) 構音訓練用録画・録音装置
KR20250036656A (ko) 모국어식 엄마표 홈스쿨링 영어 교육을 수행함에 있어, 멀티 모달 기반의 영어 학습 컨텐츠를 통해 사용자 단말의 학습 성취를 평가하는 방법 및 장치
KR20200098850A (ko) 치매환자용 거울 겸용 디스플레이 장치
KR102432132B1 (ko) 뇌세포 자극어플리케이션 제공 서버 및 방법, 뇌세포 자극 어플리케이션용 키보드
JP6155102B2 (ja) 学習支援装置
Biddle Listening, consciousness, and the charm of the universal: What it feels like for a Lacanian
JP7118389B2 (ja) 言語学習装置及び言語学習方法並びに言語学習用プログラム