LQG控制(linear–quadratic–Gaussian control)的全名是線性二次高斯控制,是控制理論中的基礎最佳控制問題之一。此問題和存在加性高斯白噪聲的線性系統有關。此問題是要找到最佳的輸出回授律,可以讓二次費用函數的期望值最小化。其輸出量測假設受到高斯噪聲的影響,其初值也是高斯隨機向量。
在「使用線性控制律」的最佳控制假設下,可以用completion-of-squares論述進行推導[1]。此控制律即為LQG控制器,就是卡爾曼濾波(線性二次狀態估測器,LQE)和LQR控制器的結合。分離原理指出狀態估測器和狀態回授可以獨立設計。LQG控制可以應用在線性時不變系統及線性時變系統,產生容易計算以及實現的線性動態回授控制器。LQG控制器本身是一個類似其受控系統的動態系統,兩者有相同的維度。
根據分離原理,在一些範圍較寬可能是非線性的控制器中,LQG控制器仍然是最佳的。也就是說「使用非線性控制架構不一定可以改善費用泛函的期望值」。這個版本的分離原理是隨機控制的分離原理(separation principle of stochastic control)提到就算過程及輸出雜訊源可能是非高斯鞅,只要其系統動態是線性的,其最佳控制仍可以分離為最佳狀態估測器(不再是卡爾曼濾波器)及LQR控制器[2][3]。LQR控制器也有用來控制擾動的非線性系統[4]。
考慮連續時間的線性動態系統
其中是系統狀態變數的向量,是控制輸入向量,是輸出量測值的向量,可用在回授上。系統受到加成性的高斯系統雜訊及加成性的高斯量測雜訊所影響。給定一系統,其目標是找到一控制輸入,此控制輸入在每個時間下,和以往的量測量有線性關係,而且此控制輸入可以讓以下的費用函數有最小值:
其中為期望值。最終時間(horizon)可能是有限值或是無限值。若最終時間為無限,則費用函數的第一項可以忽略,和問題無關。而為了要讓費用函數為有限值,會定義費用函數為。
求解上述LQG問題的LQG控制器可以用以下方程表示:
矩陣稱為卡爾曼增益(Kalman gain),和第一個方程卡爾曼濾波有關。在時間,濾波器會根據過去量測及輸入來產生狀態的估測值。卡爾曼增益是根據、二個和白色高斯雜訊有關密度矩陣、及最後的來計算。這五個矩陣會透過以下的矩陣Riccati微分方程來決定卡爾曼增益:
假設其解,則卡爾曼增益等於
矩陣稱為回授增益(feedback gain)矩陣,是由及矩陣,透過以下的矩陣Riccati微分方程來決定
假設其解,回授增益等於
觀察上述二個矩陣Riccati微分方程,第一個沿時間從前往後算,而第二個是沿時間從後往前算,這稱為「對偶性」。第一個矩陣Riccati微分方程解了線性平方估測問題(LQE),第二個矩陣Riccati微分方程解了LQR控制器問題。這二個問題是對偶的,合起來就解了線性平方高斯控制問題(LQG),因此LQG問題分成了LQE問題以及LQR問題,且可以獨立求解,因此LQG問題是「可分離的」。
當和雜訊密度矩陣, 不隨時間變化,且趨於無限大時,LQG控制器會變成非時變動態系統。此時上述二個矩陣Riccati微分方程會變成代數Riccati方程。
離散時間的LQG控制問題和連續時間下的問題相近,因此以下只關注其數學式。
離散時間的線性系統方程為
其中是離散時間,是離散時間高斯白雜訊過程,其共變異數矩陣為。
要最小化的二次費用函數為
離散時間的LQG控制器為
- ,
卡爾曼增益等於
其中是由以下依時間往前進的矩陣Riccati差分方程所決定:
回授增益矩陣為
\
其中是由以下時間從後往前算的矩陣Riccati差分方程所決定:
若問題中所有的矩陣都是非時變的,且時間長度趨近無窮大,則離散時間的LQG控制器就是非時變的。此時矩陣Riccati差分方程可以用離散時間的代數Riccati方程取代。可以決定非時變的離散線性二次估測器,以及非時變的離散LQR控制器。為了讓費用是有限值,會用來代替。
在傳統LQG設置中,當系統維度很大時,實現LQG控制器會有困難。降階LQG問題(reduced-order LQG problem)也稱為固定階數LQG問題(fixed-order LQG problem)先設置了LQG控制的狀態數。因為分離原理已不適用,此問題會更不容易求解,而且其解也不唯一。即使如此,降階LQG問題已有不少的數值演算法[5][6][7][8]可以求解相關的最佳投影方程(optimal projection equations)[9][10],其中建構了局部最佳化的降階LQG問題的充份及必要條件[5]。
LQG最佳化本身不確保有良好的強健性[11],需要在設計好LQG控制後,另外確認閉迴路系統的強健穩定性。為了提昇系統的強健性,可能會將一些系統參數由確定值改假設是隨機值。相關的控制問題會更加複雜,會得到一個類似的最佳控制器,只有控制器參數不同[6]。
- ^ Karl Johan Astrom. Introduction to Stochastic Control Theory 58. Academic Press. 1970. ISBN 0-486-44531-3. .
- ^ Anders Lindquist. On Feedback Control of Linear Stochastic Systems. SIAM Journal on Control. 1973, 11: 323––343. .
- ^ Tryphon T. Georgiou and Anders Lindquist. The Separation Principle in Stochastic Control, Redux. IEEE Transactions on Automatic Control. 2013, 58 (10): 2481––2494. doi:10.1109/TAC.2013.2259207. .
- ^ Athans M. The role and use of the stochastic Linear-Quadratic-Gaussian problem in control system design. IEEE Transaction on Automatic Control. 1971, AC–16 (6): 529–552. doi:10.1109/TAC.1971.1099818.
- ^ 5.0 5.1 Van Willigenburg L.G.; De Koning W.L. Numerical algorithms and issues concerning the discrete-time optimal projection equations. European Journal of Control. 2000, 6 (1): 93–100. doi:10.1016/s0947-3580(00)70917-4. Associated software download from Matlab Central (頁面存檔備份,存於互聯網檔案館).
- ^ 6.0 6.1 Van Willigenburg L.G.; De Koning W.L. Optimal reduced-order compensators for time-varying discrete-time systems with deterministic and white parameters. Automatica. 1999, 35: 129–138. doi:10.1016/S0005-1098(98)00138-1. Associated software download from Matlab Central (頁面存檔備份,存於互聯網檔案館).
- ^ Zigic D.; Watson L.T.; Collins E.G.; Haddad W.M.; Ying S. Homotopy methods for solving the optimal projection equations for the H2 reduced order model problem. International Journal of Control. 1996, 56 (1): 173–191. doi:10.1080/00207179208934308.
- ^ Collins Jr. E.G; Haddad W.M.; Ying S. A homotopy algorithm for reduced-order dynamic compensation using the Hyland-Bernstein optimal projection equations. Journal of Guidance Control & Dynamics. 1996, 19 (2): 407–417. doi:10.2514/3.21633.
- ^ Hyland D.C; Bernstein D.S. The optimal projection equations for fixed order dynamic compensation. IEEE Transaction on Automatic Control. 1984, AC–29 (11): 1034–1037. doi:10.1109/TAC.1984.1103418.
- ^ Bernstein D.S.; Davis L.D.; Hyland D.C. The optimal projection equations for reduced-order discrete-time modeling estimation and control. Journal of Guidance Control and Dynamics. 1986, 9 (3): 288–293. doi:10.2514/3.20105.
- ^ Green, Michael; Limebeer, David J. N. Linear Robust Control. Englewood Cliffs: Prentice Hall. 1995: 27. ISBN 0-13-102278-4.