複製鏈接
請複製以下鏈接發送給好友

上下文

鎖定
上下文,即語境、語意,是語言學科(語言學社會語言學篇章分析語用學符號學等)的概念。
語意分析(semantic analysis)技術係指將一長串的文字或內容,從其中分析出該個段落的摘要以及大意,甚至更進一步,將整篇文章的文意整理出來。此項技術可以應用在解讀影片、音訊等檔案,使得搜索引擎能夠搜尋到文字以外的物件,方便使用者省去大量時間觀看影片、聆聽音訊,同時也可以幫助使用者提前瞭解影片與音訊的內容。
中文名
上下文
外文名
context
類    別
IT,Java

上下文語境

語境是語言學科(語言學社會語言學篇章分析語用學符號學等)的概念。
語境概念最早由人類學家馬林諾夫斯基所提出,分為情景語境文化語境。也可以區分成語言性語境和社會性語境。 語境(語言的文化背景、情緒景象、時空環境等)的介入,一方面使多義的語言符號趨向單義,另一方面又使語言符號節外生枝,增生出語境意義。語境意義甚至可以掩蓋語言符號自身具有的意義而成為交際的主信息。語境也控制着交際者對語言符號的選用。我們這裏所謂的語境意義,是指在語境中,語言符號實際具有的涵義,包括賦予義和解釋義。 [1] 
漢語中,“上下文”一詞的出處,最早可追溯到唐代賈公彥《周禮義疏·秋官》。
周禮·秋官》“原文:“若國札喪 ,則令賻補之 ;若國凶荒 ,則令委之 ;若國師役 ,則令槁之 ;若國有福事 ,則令慶賀之 ;若國有禍災 ,則令哀弔之。凡此五物者 ,治其事故。賈公彥 [義疏 :此一“經” ,據上下文皆據諸侯國 ;此文雖單言“國”亦據諸侯而言。]
賈疏是説 :“小行人職”一“經” ,根據上下文 ,皆是以諸侯國為據而言 ;這段文字中雖單説一個“國”字 ,也是指諸侯國 ,“令”的對象是諸侯。這樣看來 ,賈疏所用“上下文”一詞 , 已經具有語境的的含義。

上下文語意分析

語意分析(semantic analysis)技術係指將一長串的文字或內容,從其中分析出該個段落的摘要以及大意,甚至更進一步,將整篇文章的文意整理出來。此項技術可以應用在解讀影片、音訊等檔案,使得搜索引擎能夠搜尋到文字以外的物件,方便使用者省去大量時間觀看影片、聆聽音訊,同時也可以幫助使用者提前瞭解影片與音訊的內容。
語意分析技術在早期基於奇異值分解(Singular Value Decompositiob, SVD)、非負矩陣拆解法(Non-negative matrix factorization,NMF)等方式,近年來則有用各種型態的類神經網絡(Neural Network, NN)來完成語意分析的目的。

上下文實作方式

上下文奇異值分解

在線性代數的領域裏,奇異值分解SVD)將一個大的矩陣拆解成三個小的矩陣。
正常的情況下,將奇異值分解(Singular Value Decompositiob, SVD)套用在一個m×n複數矩陣'M,可以矩陣M表示為M=UΣV,其中U是m×m複數幺正矩陣(unitary matrix),而Σ則是一個m×n的對角矩陣(diagonal matrix),而在對角線上的所有直接為非負的值,V(共軛轉置矩陣(conjugate transpose matrix)V,倘若所有元素皆為實數,則可視為V的轉置矩陣')則是一個n×n複數幺正矩陣。在對角矩陣中,Σi,iofΣ便是所謂的M奇異值(singular value)。而U的m欄則被稱做是M的左奇異向量(left-singular vectors),V的n欄則被稱做是M的右奇異向量(right-singular vectors)。
奇異值分解與特徵分解(eigendecomposition)實現息息相關,具體如下:
  • M的左奇異向量(left-singular vectors)是MM的特徵向量。
  • M的右奇異向量(right-singular vectors)是MM的特徵向量。
  • M的非零奇異值 (在Σ的對角列上)之平方根則是MMandMM共同的特徵值。
透過SVD便可以將一個矩陣拆解成R(非負奇異值之數量)種不同的矩陣,每一種矩陣分別代表一種主題(topic),而相對應的奇異值越大則代表此種主題與原本的矩陣所代表的主題較為相關,越小則越非相關,由此我們可以得到簡單的語意分析。

上下文非負矩陣拆解法

由於透過奇異值分解(Singular Value Decompositiob, SVD) 存在一些缺點,因此使用非負矩陣拆解法(Non-negative matrix factorization,NMF)來得到更好的效果,首先,由於奇異值分解(Singular Value Decompositiob, SVD)所得到的左奇異向量(left-singular vectors)與右奇異向量(right-singular vectors)並無法保證皆為非負之數值,因此在衡量相關性上,負數可能並沒有直觀的物理意義。同時透過奇異值分解(Singular Value Decompositiob, SVD) 所產生的三個矩陣,在選擇過濾掉一些較小的奇異值後,在重新組合回來,會直接失去這些資訊,太過於武斷、直接的拆解方式,可能會導致部分訊息也因此而被移除了。因此使用非負矩陣拆解法(Non-negative matrix factorization,NMF)便能解決上述兩個問題。非負矩陣拆解法(Non-negative matrix factorization,NMF)將m×n的原始矩陣V拆解為m×dWd×nH,其中的d便為給定的數值。與奇異值分解(Singular Value Decompositiob, SVD)的差別在於,非負矩陣拆解法(Non-negative matrix factorization,NMF)可以自訂分類的多寡,而將整個矩陣完整的分配到d種主題之中(topic),不若前者,若要取得d種主題,便會直接選取前d大的奇異值,將矩陣還原回來。而是將其妥善分配至各個主題中,使得最後的結果較為完整。

上下文類神經網絡

類神經網絡系以一張有方向性的圖論模擬人類神經細胞之間的溝通關係。人類神經細胞從輸入到輸出,主要有三個部分,第一個部分為樹突,乃神經接受另一神經之訊號的所在之處,而神經本體則綜合輸入訊號之後產生一個輸出訊號,透過軸突將訊號往外傳出。這樣的架構,可以透過矩陣的建置來模擬出神經連結的情形。同時,透過建置矩陣模擬各個神經結之間相連的關係,透過給訂的輸入與輸出作為測資,不斷的優化各個節點之間的關係,直到輸入與輸出能夠互相吻合,達到此目標的類神經網絡模型便可作為一個語意分析器,只要輸入待測的資料,便可以得到一個系統分析之後預測的結果。相較於前述兩種方法,類神經網絡(Neural Network, NN)通常都可以得到較佳的結果。相關的理論自1980年便已經被提出,不過直至2010年後,硬件運算速度才足以在使用者可接受的時間內,產生出一個完整的結果,才使得類神經網絡(Neural Network, NN)開始蓬勃發展,同時也逐漸有些成果開花結果。

上下文自動編碼器

自動編碼器(Autoencoder)為類神經網絡(Neural Network, NN)的其中一種應用,目標在將大量的資量壓縮、分配至較小維度的向量之中。一般的類神經網絡(Neural Network, NN)需要確切的輸出與輸入才能建立出完整的類神經網絡(Neural Network, NN),因此常需要花大量的成本在建立足夠量的訓練用測資,而自動編碼器(Autoencoder)在訓練用測資的要求簡單的許多,由於其目標之特性是將大量的資量壓縮、分配至較小維度的向量,其輸入與輸出可以使用同一份資料,而在隱藏層(hidden layers)中,一層接着一層,逐漸縮小每個隱藏層(hidden layers)的層級數,直到需要的d種分類後,在逐漸擴展每個隱藏層(hidden layers)的維度,直到最後輸出與原本訓練用測資的維度。當經過足夠次數的循環後,必可以得到一個模型,使得輸入資料與輸出資料差異不大,此時,只要將前半段,輸入端至d維的隱藏層(hidden layers)切開並獨立出來,這份模型便可以作為語意分析器。

上下文應用

有鑑於社羣平台的興盛,影片、聲音等多媒體資訊逐漸成為網絡上常見的檔案形式,如何用低成本的方式解讀其中所擁有的資訊在未來會是一個日益重要的議題。傳統上,若要能夠提前理解一段聲音中所擁有的資訊,往往需要使用高成本人力事先解讀整段音訊後,在將其所見所聞轉換為文字檔,在影片、聲音等多媒體資訊日益興盛的現代,如此高成本的建置方式早已不敷使用。因此語意分析絕對有其必要性。
而在人機界面上,裝置能夠解讀人類的訊息,並做出相對應的決策,亦可以增加人機之間溝通的效率。 [2] 
參考資料
  • 1.    Leckie-Tarry, H. (1995). Language & context. A functional linguistic theory of register. London: Frances Pinter.
  • 2.    Liu Kecheng, (2000) Semiotics in information systems engineering, Cambridge University Press.