大型語言模型(LLM)對自然語言處理(NLP)的影響

AI Justka
AI 講講話
Published in
Aug 23, 2023
Photo by Freepik on Pinterest

從自然語言處理(NLP)到大型語言模型(LLM)

我們在淺談 自然語言處理(NLP, Natural Language Processing)介紹過「自然語言處理(NLP)」是什麼,它是一種橫跨計算機科學、人工智能和語言學的學科。包括多方面的方法和技術,基本有認知、理解、處理,或甚至是生成自然語言(即人類日常所使用的語言)等。

NLP 是讓電腦能夠處理和分析人類語言,將其轉換為可計算和可操作的形式,再根據目的做處理。例如:對文本和語音的分析、機器翻譯、語音識別、資訊檢索、文本摘要、情感分析和對話系統等多方面的應用。

在 NLP 中,電腦需要對語言進行斷詞(可參考:AI 斷詞大解密)、詞性標註(可參考:給聊天機器人的訓練重點提示)、句法分析和語意理解等,以便更好地處理和理解文本。

機器是不會思考的,於是科學家們就告訴機器如何識字,也就是將人類使用的語言轉化為有意義的符號和關係,機器從大量的資料和現象中找出自己的規則並且學習,這就是「機器學習」的開端。隨著「深度學習」和「神經網絡」等技術不斷地發展,讓人工智慧有了大躍進,這些擁有龐大資料和參數的語言模型,即被稱為「大型語言模型」(LLM,Large Language Model)。

大型語言模型(LLM)對自然語言處理(NLP)的影響

LLM 是基於 NLP 所發展的技術,它帶來非常重要的影響,可以應用在各種 NLP 任務中,例如:

  • 語言生成:生成更自然流暢的語言,可應用在語音識別、機器翻譯等。
  • 語言理解:理解文本的意義,例如在模糊語句對AI的影響中提及語言中「一詞多義」的現象,當我們利用 LLM 分析更多資料,文本理解的準確性也會越高。
  • 語言分類:根據文本內容進行情感分析或主題分類等。
  • 語言錯誤指正:LLM 可以自動檢測拼寫錯誤或語法錯誤等。

透過 LLM 的發展,研究者們不斷地嘗試使以上任務的準確度提高,也盡可能地減低訓練的時間或成本,帶給我們更多便利性。

相反地,LLM 仍然存在一些限制:

  • 數據不足:訓練數據資料若不足,則可能影響語言模型的準確性。
  • 過度擬合:「過度擬合(overfitting)」是指模型利用原先提供的訓練資料可進行準確的預測結果,但在加入新資料後,過度擬合的模型可能會提供不準確的預測,導致整體準確度下降。
  • 語言結構:LLM 可能被限制在已知的語言結構或語法規則中,因此碰到新的語言形式或變化時,可能無法將它處理好。
  • 偏見謬誤:LLM 可能會有性別、種族、地域等方面的偏見。

現今研究者們也不斷地對於 LLM 存在的瑕疵做優化,讓我們可以有更好的工具進行各種任務。同時我們也應該考量以上正面或負面的各種因素,選擇合適的模型和方法來解決各種任務。

如何因應人工智慧?

2022 年 ChatGPT 的問世引起全球轟動,雖然像 ChatGPT 一樣的生成式 AI(Generative AI)看似已經滲入我們的生活或工作,帶來正面或負面的影響,但我們必須思考的是:「AI 技術不是要取代我們,而是該如何應用 AI 增進我們的技術?」

例如:AI 雖然會幫我們寫文章,但從分析大量資料之後所堆砌而成的文字,不可能原封不動地應用到各個領域。我們可以參考 AI 給我們的答案,幫助我們增加工作效率,進一步提升我們人類的生產技術及品質。

同時 ,AI 所生成的文字或圖片的智慧財產權應歸屬於誰?或是更嚴重的侵權、歧視或侵害隱私所造成的問題,例如:深偽技術(Deepfake)(可參考:眼見不為憑 — — AI 做出的虛擬人像),AI 所涉及的社會、法律及倫理等各方面的問題,勢必是我們未來必須持續關注並思考的問題。

--

--