構音障礙是腦或神經受損導致運動與言語障礙的疾病,這些患者時常會使用溝通輔助系統來協助日常的言語溝通。隨著人工智慧的發展傳統溝通輔助系統的模型逐漸被深度學習取代,然而構音障礙語料難以收集,導致需要大量資料訓練的深度學習模型語料不足而表現不佳。因此本論文提出使用多類別的語音轉換模型,從多位正常語者合成出多位患者語料(synthesized data),期望合成語料能模擬出類患者的語音變異性。隨後我們使用以自動語音辨識(Automatic Speech Recognition, ASR)為基礎之構音障礙輔助系統,來測試合成語料的效益。本研究透過多項實驗測試後,其結果顯示合成語料能幫助ASR系統:(1)重複語句測試情況下可達93%的辨識率;(2)半外部測試可降低57~62%的字詞錯誤率(character error rate, CER);(3)全外部測試最低可達30% CER。總結本研究,多語者合成的構音障礙語料生成方法,不僅能與患者語音變異性特徵更加相似,也能幫助基於深度學習架構的構音障礙輔助系統有更好的辨識率。