判斷系統是否為線性就看信號是否滿足可疊加性。
如果輸入x1[n]->y1[n], x2[n]->y2[n],
而當輸入為x3[n]=a x1[n]+b x2[n]時,若輸出y3[n]=a y1[n]+b y2[n],則該系統為線性的。
故:
v1[n]=y1[n+1]+(n^2)y1[n]
v2[n]=y2[n+1]+(n^2)y2[n]
另v3[n]=a v1[n]+b v2[n]
則v3[n]=y3[n+1]+(n^2)y3[n]
=a(y1[n+1]+(n^2)y1[n])+b(y2[n+1]+(n^2)y2[n])
=ay1[n+1]+by2[n+1]+(n^2)(a y1[n]+b y2[n])
所以得到:
y3[n]=a y1[n]+b y2[n]
所以系統是線性的。
擴展資料:
線性判別分析這種方法使用統計學,模式識別和機器學習方法,試圖找到兩類物體或事件的特征的壹個線性組合,以能夠特征化或區分它們。所得的組合可用來作為壹個線性分類器,或者,更常見的是,為後續的分類做降維處理。
是壹種經典的線性學習方法,在二分類問題上最早由Fisher在1936年提出,亦稱Fisher線性判別。線性判別的思想非常樸素:給定訓練樣例集,設法將樣例投影到壹條直線上,使得同類樣例的投影點盡可能接近,異樣樣例的投影點盡可能遠離。
在對新樣本進行分類時,將其投影到同樣的直線上,再根據投影點的位置來確定新樣本的類別。LDA與方差分析(ANOVA)和回歸分析緊密相關,這兩種分析方法也試圖通過壹些特征或測量值的線性組合來表示壹個因變量。
然而,方差分析使用類別自變量和連續數因變量,而判別分析連續自變量和類別因變量(即類標簽)。邏輯回歸和概率回歸比方差分析更類似於LDA,因為他們也是用連續自變量來解釋類別因變量的。
LDA的基本假設是自變量是正態分布的,當這壹假設無法滿足時,在實際應用中更傾向於用上述的其他方法。LDA也與主成分分析(PCA)和因子分析緊密相關,它們都在尋找最佳解釋數據的變量線性組合。LDA明確的嘗試為數據類之間不同建立模型。
模式識別又常稱作模式分類,從處理問題的性質和解決問題的方法等角度,模式識別分為有監督的分類和無監督的分類兩種。二者的主要差別在於,各實驗樣本所屬的類別是否預先已知。壹般說來,有監督的分類往往需要提供大量已知類別的樣本。
模式還可分成抽象的和具體的兩種形式。前者如意識、思想、議論等,屬於概念識別研究的範疇,是人工智能的另壹研究分支。我們所指的模式識別主要是對語音波形、地震波、心電圖、腦電圖、圖片、照片、文字、符號、生物傳感器等對象的具體模式進行辨識和分類。
參考資料:線性判別分析_百度百科