Вопросы — Современные разделы теории управления

Показывать
$\global\def\at#1#2{\left. #1 \right\rvert_{#2}}$ $\global\def\abs#1{\left\lvert #1 \right\rvert}$ $\global\def\norm#1{\left\lVert #1 \right\rVert}$ $\global\def\dp#1#2{#1 \cdot #2\,}$ $\global\def\vp#1#2{#1 \times #2\,}$ $\global\def\dv#1#2{\frac{d #1}{d #2}}$ $\global\def\pd#1#2{\frac{\partial #1}{\partial #2}}$ $\global\def\pdv2#1#2{\frac{\partial^2 #1}{\partial #2^2}}$ $\global\def\ppdv#1#2#3{\frac{\partial^2 #1}{\partial #2 \partial #3}}$ $\global\def\paren#1{\left( #1 \right)}$ $\global\def\mbox#1{\text{#1}}$ $\global\def\div{\text{div}\,}$ $\global\def\dsum{\displaystyle\sum\,}$ $\global\def\grad{\text{grad}\,}$ $\global\def\rot{\text{rot}\,}$ $\global\def\bydef#1{\overset{\mathrm{def}}{#1}}$ $\global\def\vb#1{\textbf{#1}}$ $\global\def\rddots{\cdot^{\displaystyle \cdot^{\displaystyle \cdot}}}$ $\global\def\op#1{\mathrm{#1}\,}$ $\global\def\diag{\mathrm{diag}\,}$ $\global\def\rank{\mathrm{rank}\,}$ $\global\def\Sp{\,\mathrm{Sp}\,}$ $\global\def\proj{\mathrm{proj}}$ $\global\def\grad{\,\mathrm{grad}\,}$ $\global\def\const{\text{const}\,}$ $\global\def\res{\text{res}\,}$ $\global\def\Res{\text{Res}\,}$ $\global\def\Lin{\,\text{Lin}\,}$ $\global\def\Re{\text{Re}\,}$ $\global\def\Im{\text{Im}\,}$ $\global\def\ch{\text{ch}\,}$ $\global\def\sh{\text{sh}\,}$ $\global\def\tg{\mathrm{tg}\,}$ $\global\def\argtg{\text{argtg}\,}$ $\global\def\span{\operatorname{span}}$ $\global\def\adj{\operatorname{adj}}$
  1. Построение программного управления. Лемма о допустимых управлениях
    Рассмотрим систему \[ \left\{ \begin{aligned} \dot x(t) &= A(t) x(t) + B(t) u(t) + \xi(t), \\ y(t) &= C(t) x(t) + \eta(t), \end{aligned} \right. \] где
    • $t \in [0, T]$, где $T > 0$;
    • $x(t) \in \mathbb{R}^n, \; u(t) \in \mathbb{R}^m, \; y(t) \in \mathbb{R}^r$;
    • $A(t) \in \mathbb{R}^{n \times n}, \; B(t) \in \mathbb{R}^{n \times m}, \; C(t) \in \mathbb{R}^{r \times n}$
    • $\xi(t) \in \mathbb{R}^n, \; \eta(t) \in \mathbb{R}^r$.
    Вектор $x(t)$ назыывают вектором состояния, $u(t)$ — управлением, $y(t)$ — наблюдением, а $\xi(t)$ и $\eta(t)$ — внешними воздействиями.

    Будем считать, что $A(t), B(t)$ и $C(t)$ непрерывны.

    Функцию $u(t) \in U$ называют допустимым управлением, если она
    1. задана на $[0, T]$;
    2. кусочно-непрерывна.
    Если потребуется, можно ещё сказать, что интенсивность функции $u(t)$ должна быть ограничена на $[0, T]$: \[ \chi[u] = \int\limits_0^T u^T(\tau) u(\tau) d \tau \lt \infty. \]

    Рассмотрим линейную систему ОДУ: \[ \dot x(t) = A(t) x(t) + B(t) u(t) + \xi(t). \] Пусть $Y(t)$ — фундаментальная матрица соответствующей однородной системы, нормированная в нуле: $Y(0) = E$. Тогда можно записать общее решение неоднородной системы в форме Коши: \[ x(t, 0, x^0) = Y(t) \left( x^0 + \int\limits_0^t Y^{-1}(\tau) \left[ B(\tau) u(\tau) + \xi(\tau) \right] d\tau \right). \]

    Требуется найти допустимое управление $u(t)$, переводящее систему \[ \dot x(t) = A(t) x(t) + B(t) u(t) + \xi(t), \] из состояния $x(0) = x^0$ в состояние $x(T) = x^1$.
    Допустимое управление $u(t)$ называется программным, если оно переводит систему \[ \dot x(t) = A(t) x(t) + B(t) u(t) + \xi(t) \] из состояния $x(0) = x^0$ в состояние $x(T) = x^1$.
    Рассмотрим общее решение исходной системы в форме Коши: \[ x(t, 0, x^0) = Y(t) \left( x^0 + \int\limits_0^t Y^{-1}(\tau) \left[ B(\tau) u(\tau) + \xi(\tau) \right] d\tau \right). \] Если $u(t)$ — программное, то \[ x(T, 0, x^0) = x^1, \] то есть поиск программного решения сводится к поиску решения, удовлетворяющего этому равенству.

    Найдём из него, что \[ x^1 = Y(T) \paren{ x^0 + \int\limits_0^T Y^{-1}(\tau) B(\tau) u(\tau) d\tau + \int\limits_0^T Y^{-1}(\tau) \xi(\tau) d\tau }. \] Обозначим $Q(t) := Y^{-1}(t) B(t)$ и домножим уравнение слева на $Y^{-1}(T)$: \[ \begin{gathered} Y^{-1}(T) x^1 = x^0 + \int\limits_0^T \underbrace{Y^{-1}(\tau) B(\tau)}_{= Q(\tau)} u(\tau) d\tau + \int\limits_0^T Y^{-1}(\tau) \xi(\tau) d\tau, \\ \implies \int\limits_0^T Q(\tau) u(\tau) d\tau = Y^{-1}(T) x^1 - x^0 - \int\limits_0^T Y^{-1}(\tau) \xi(\tau) d\tau. \end{gathered} \] Правая часть — некоторая константа, которую можно обозначить как $\eta$, тогда \[ \int\limits_0^T Q(\tau) u(\tau) d\tau = \eta, \] то есть если $u(t)$ удовлетворяет этому интегральному уравнению, то оно программное.

    (о допустимых управлениях)
    Если допустимое управление $u(t)$ линейной системы \[ \dot x(t) = A(t) x(t) + B(t) u(t) + \xi(t) \] на $[0, T]$ существует, то оно представимо в виде \[ u(t) = Q^T(t) C + V(t), \qquad Q(t) := Y^{-1}(t) B(t), \] где
    • $Y(t)$ — нормированная в нуле фундаментальная матрица соответствующей однородной системы;
    • $C \in \mathbb{R}^n$ — постоянный вектор, подлежащий определению;
    • $V(t)$ — $m$-мерная векторная функция, удовлетворяющая условию ортогональности: \[ \int\limits_0^T Q(\tau) V(\tau) d\tau = 0. \]
    Подставим представление \[ u(t) = Q^T(t) C + V(t) \] в уравнение ортогональности, докажем совместность системы от противного (предположив, что $\rank \Gamma(T) \lt \rank (\Gamma(T), \eta)$), воспользовавшись теоремой Фредгольма: система $A x = b$ несовместна тогда и только тогда, когда существует ненулевой вектор $\gamma$ такой, что $\gamma^T A = 0$, но $\gamma^T b \neq 0$.
    Пусть существует допустимое управление $u(t)$. Тогда утверждение леммы справедливо, если \[ V(t) = u(t) - Q^T(t) C \] и \[ \int\limits_0^T Q(\tau) \left[ u(\tau) - Q^T(\tau) C \right] d\tau = 0. \] Перепишем это равенство в виде \[ \int\limits_0^T Q(\tau) u(\tau) d\tau = \int\limits_{0}^{T} Q(\tau) Q^T(\tau) C d\tau = \left( \int\limits_{0}^{T} Q(\tau) Q^T(\tau) d\tau \right) C \] и рассмотрим его как СЛАУ относительно неизвестного вектора $C$: \[ \Gamma(T) C = \eta, \] где \[ \Gamma(T) := \int\limits_0^T Q(\tau) Q^T(\tau) d\tau, \quad \eta := \int\limits_0^T Q(\tau) u(\tau) d\tau. \]
    Матрицу \[ \Gamma(T) = \int\limits_0^T Q(\tau) Q^T(\tau) d\tau \] называют матрицей Грама (грамианом) управляемости.

    Из теоремы Кронекера-Капелли известно, что система $Ax = b$ совместна тогда и только тогда, когда $\rank A = \rank (A, b)$.

    Предположим, что система несовместна, то есть $\rank \Gamma(T) \lt \rank (\Gamma(T), \eta)$. Тогда по теореме Фредгольма найдётся вектор $\gamma \neq 0$, ортогональный всем столбцам матрицы $\Gamma(T)$, но не ортогональный вектору $\eta$, то есть \[ \gamma^T \Gamma(T) = 0, \quad \gamma^T \eta \neq 0. \] Отсюда следует, что \[ \begin{aligned} 0 &= \gamma^T \Gamma(T) \\ &= \gamma^T \Gamma(T) \gamma \\ &= \gamma^T \int\limits_0^T Q(\tau) Q^T(\tau) d\tau \cdot \gamma \\ &= \int\limits_0^T \gamma^T Q(\tau) Q^T(\tau) \gamma d\tau \\ &= \int\limits_0^T \norm{\gamma^T Q(\tau)}^2 d\tau = 0, \end{aligned} \] то есть $\gamma^T Q(t) \equiv 0$ на $[0, T]$. Но тогда \[ \gamma^T \eta = \gamma^T \int\limits_0^T Q(\tau) u(\tau) d\tau = \int\limits_0^T \underbrace{\gamma^T Q(\tau)}_{\equiv 0} u(\tau) d\tau = 0, \] что противоречит выбору $\gamma$. Значит, $\rank \Gamma(T) = \rank (\Gamma(T), \eta)$, то есть система совместна.

    Решая эту систему, находим вектор $C$, при котором разность $u(t) - Q^T(t) C$ удовлетворяет условию \[ \int\limits_0^T Q(\tau) \left[ u(\tau) - Q^T(\tau) C \right] d\tau = 0. \] Введя обозначение $V(t) := u(t) - Q^T(t) C$, получаем, что \[ u(t) = Q^T(t) C + V(t). \]

    В случае поиска программного управления $u(t)$, переводящего систему из $x(0) = x^0$ в $x(T) = x^1$, известен коэффициент \[ \eta = \int\limits_0^T Q(\tau) u(\tau) d\tau \bydef= Y^{-1}(T) x^1 - x^0 - \int\limits_0^T Y^{-1}(\tau) \xi(\tau) d\tau. \]
  2. Первый критерий полной управляемости: теорема о полноте ранга матрицы Грама управляемости
    Рассмотрим систему \[ \dot x(t) = A(t) x(t) + B(t) u(t) + \xi(t) \] на отрезке $[0, T]$.
    Пара точек $(x^0, x^1)$ называется управляемой на $[0, T]$, если существует программное управление $u(t)$, переводящее систему из $(0, x^0)$ в $(T, x^1)$.
    (об управляемости пары точек)
    Пара точек $(x^0, x^1)$ управляема на $[0, T]$ тогда и только тогда, когда \[ \rank \Gamma(T) = \rank (\Gamma(T), \eta), \] где
    • ${\displaystyle \Gamma(T) = \int\limits_0^T Q(\tau) Q^T(\tau) d\tau}$,
    • ${\displaystyle Q(t) = Y^{-1}(t) B(t)}$.
    • ${\displaystyle \eta = Y^{-1}(T) x^1 - x^0 - \int\limits_{0}^{T} Y^{-1}(\tau) \xi(\tau) d\tau}$.
    Так как пара точек управляема, существует программное управление, тогда по лемме о допустимых управлениях $\rank \Gamma(T) = \rank (\Gamma(T), \eta)$.
    Так как $\rank \Gamma(T) = \rank (\Gamma(T), \eta)$, то можно решить систему $\Gamma(T) C = \eta$ (она совместна), найти решение $\overline C$ и построить программное управление $u(t) = Q^T(t) \overline C + V(t)$, где $\overline C$ и $V(t)$ удовлетворяют условию леммы о допустимых управлениях, следовательно, пара точек управляема.
    Пусть пара $(x^0, x^1)$ — управляема, то есть существует программное управление $u(t)$. Из леммы о допустимых управлениях следует, что оно представимо в виде \[ u(t) = Q^T(t) C + V(t), \quad \text{причём} \quad \int\limits_0^T Q(\tau) V(\tau) d\tau = 0, \] и удовлетворяет уравнению \[ \int\limits_0^T Q(\tau) u(\tau) d\tau = \eta, \] следовательно, $C$ является решением СЛАУ \[ \Gamma(T) C = \eta, \] то есть эта СЛАУ совместна, поэтому по теореме Кронекера-Капелли \[ \rank \Gamma(T) = \rank (\Gamma(T), \eta). \]
    Пусть $\rank \Gamma(T) = \rank (\Gamma(T), \eta)$, тогда по теореме Кронекера-Капелли СЛАУ \[ \Gamma(T) C = \eta \] совместна, следовательно, существует $\overline{C}$ — решение этой СЛАУ. Тогда по лемме о допустимых управлений управление \[ u(t) = Q^T(t) \overline{C} + V(t), \quad \text{причём} \quad \int\limits_0^T Q(\tau) V(\tau) d\tau = 0, \] удовлетворяет уравнению \[ \int\limits_0^T Q(\tau) u(\tau) d\tau = \eta, \] то есть является программным для пары точек $(x^0, x^1)$. Отсюда по определению следует, что пара точек $(x^0, x^1)$ является управляемой.
    Система называется полностью управляемой на $[0, T]$, если любая пара точек $(x^0, x^1)$ управляема.
    (первый критерий полной управляемости)
    Система \[ \dot x(t) = A(t) x(t) + B(t) u(t) + f(t) \] полностью управляема на $[0; T]$ тогда и только тогда, когда \[ \rank \Gamma(T) = n, \quad (\text{или} \; \det \Gamma(T) \neq 0), \] где
    • ${\displaystyle \Gamma(T) = \int\limits_0^T Q(\tau) Q^T(\tau) d\tau}$;
    • ${\displaystyle Q(t) = Y^{-1}(t) B(t)}$.
    Если система полностью управляма, то система $\Gamma(T) C = \eta$ должна быть разрешима при любом $\eta = \eta(x^0, x^1)$, а это возможно тогда и только тогда, когда $\Gamma(T)$ невырождена.
    Если $\Gamma(T)$ невырождена, то для любой пары точек $(x^0, x^1)$ можно найти $\overline C$, решив СЛАУ $\Gamma(T) C = \eta = \eta(x^0, x^1)$, то есть построить программное управление вида $u = Q^T(t) C + V(t)$, а это и означает полная управляемость системы.
    Пусть система полностью управляема, тогда $\eta = \eta(x^0, x^1)$ может принимать любые значения в силу произвольности пары $(x^0, x^1)$, следовательно, система \[ \Gamma(t) C = \eta \] совместна для любого $\eta$. Отсюда следует невырожденность матрицы $\Gamma(T)$, то есть $\det \Gamma(T) \neq 0$.
    Пусть $\det \Gamma(T) \neq 0$, тогда для любого вектора $\eta = \eta(x^0, x^1)$ можно найти решение $\overline C$ СЛАУ \[ \Gamma(T) C = \eta, \] следовательно, для любой пары точек $(x^0, x^1)$ можно построить программное управление \[ u(t) = Q^T(t) \overline C + V(t), \] поэтому система является полностью управляемой на $[0, T]$.
  3. Второй критерий полной управляемости: теорема о линейной независимости на отрезке $[0, T]$ строк грамиана управления
    Рассмотрим систему \[ \dot x(t) = A(t) x(t) + B(t) u(t) + \xi(t) \] на отрезке $[0, T]$.
    (второй критерий полной управляемости)
    Система является полностью управляемой тогда и только тогда, когда строки матрицы $Q(t) = Y^{-1}(t) B(t)$ (столбцы матрицы $Q^T(t)$) являются линейно независимыми на $[0, T]$.
    Везде пользуемся определением грамиана: \[ \Gamma(T) \bydef= \int\limits_{0}^{T} Q(\tau) Q^T(\tau) d\tau. \]
    Доказываем от противного: предполагаем, что система полностью управляема, но строки матрицы $Q(t)$ линейно зависимы. Строим квадратичную форму $C^T \Gamma(T) C$, пользуемся определением грамиана и приходим к тому, что $C^T \Gamma(T) C$. Так как $C \neq 0$, получаем, что $\Gamma(T) C = 0$, то есть $\det \Gamma(T) = 0$, а это противоречит первому критерию полной управляемости.
    Доказываем от противного: предполагаем, что строки матрицы $Q(t)$ линейно независимы, но система не является полностью управляемой. Тогда из первого критерия полной управляемости следует, что $\det \Gamma(T) = 0$, то есть существует $C \neq 0$ такой, что $\Gamma(T) C = 0$. Домножаем справа на $C^T$, пользуемся определением грамиана и получаем, что $C^T Q(t) \equiv 0$, а это противоречит линейной независимости строк $Q(t)$.
    От противного. Пусть система полностью управляема, но строки матрицы $Q(t)$ линейно зависимы на $[0, T]$. Это значит, что существует вектор $C \neq 0$ такой, что \[ C^T Q(t) \equiv 0, \quad t \in [0, T]. \] Рассмотрим квадратичную форму \[ \begin{aligned} C^T \Gamma(T) C &= C^T \left[ \int\limits_{0}^{T} Q(\tau) Q^T(\tau) d\tau \right] C = \\ &= \int\limits_{0}^{T} C^T Q(\tau) Q^T(\tau) C d\tau = \\ &= \int\limits_{0}^{T} \norm{C^T Q(\tau)}^2 d\tau = 0, \end{aligned} \] то есть $C^T \Gamma(T) C = 0$. В силу того, что $C \neq 0$, имеем $\Gamma(T) C = 0$, откуда следует, что $\det \Gamma(T) = 0$, то есть грамиан является вырожденным. Из первого критерия полной управляемости известно, что система является полностью управляемой тогда и только тогда, когда грамиан невырожден, следовательно, получили противоречие.
    От противного. Пусть строки матрицы $Q(t)$ линейно независимы на $[0, T]$, но система не является полностью управляемой, то есть (по первому критерию полной управляемости) $\det \Gamma(T) = 0$. Отсюда следует, что существует ненулевой вектор $C \neq 0$ такой, что \[ \Gamma(T) C = 0. \] Тогда \[ \begin{aligned} 0 &= \Gamma(T) C = \\ &= C^T \Gamma(T) C = \\ &= C^T \left[ \int\limits_{0}^{T} Q(\tau) Q^T(\tau) d\tau \right] C = \\ &= \int\limits_{0}^{T} C^T Q(\tau) Q^T(\tau) C d\tau = \\ &= \int\limits_{0}^{T} \norm{C^T Q(\tau)}^2 = 0. \end{aligned} \] Следовательно, для некоторого ненулевого $C$ выполняется тождество \[ C^T Q(t) \equiv 0, \qquad t \in [0, T], \] что противоречит предположению о линейной независимости строк матрицы $Q(t)$ на $[0, T]$.
  4. Третий критерий полной управляемости: теорема о существовании конечного числа точек на $[0, T]$ таких, что матрица, составленная из значений грамиана в данных точках, имеет полный ранг
    Рассмотрим систему \[ \dot x(t) = A(t) x(t) + B(t) u(t) + \xi(t) \] на отрезке $[0, T]$.
    (третий критерий полной управляемости)
    Система полностью управляема тогда и только тогда, когда существует $k > 0$ и точки \[ 0 \leqslant t_1 \leqslant t_2 \leqslant \dots \leqslant t_k \leqslant T, \] такие, что \[ \rank \left[ Q(t_1), Q(t_2), \dots, Q(t_k) \right] = n. \]
    Доказываем от противного: пусть система полностью управляема, но для любых точек ранг блочной матрицы меньше $n$. Каждому набору точек соответствует ненулевой вектор $C \neq 0$ такой, что \[ C^T Q(t_i) = 0, \qquad i = \overline{1, k}. \] Чтобы показать, что найдётся вектор, обращающий $C^T Q(t)$ в тождественный ноль на $[0, T]$, делаем следующее. Рассматриваем какой-то набор из $k$ рациональных точек, ему соответствует $C_k \neq 0$. Докидываем ещё одну точку, получаем новый $C_{k+1}$. Сделаем так, чтобы все эти $C_k$ были единичными (это всегда можно сделать нормировкой), тогда они лежат на единичной гиперсфере.

    Теперь устремляем $k \to \infty$. Получаем последовательность векторов $\left\{ C_N \right\}$. Так как эта последовательность определена на компакте, то из неё можно выделить сходящуюся подпоследовательность, которая сойдётся к некоторому $C \neq 0$. Теперь ссылаемся на то, что множество рациональных чисел плотно на отрезке, и на непрерывность $Q(t)$, и получаем, что найдётся $C \neq 0$, при котором \[ C^T Q(t) \equiv 0, \quad t \in [0, T]. \] Это значит, что строки $Q(t)$ линейно зависимы на $[0, T]$, а это противоречит предположению о полной управляемости системы (конкретно второму критерию полной управляемости).

    Так как для какого-то набора точек ранг блочной матрицы равен $n$, то линейная комбинация строк обращается в ноль тогда и только тогда, когда $C = 0$. Значит, конкретно в этих точках \[ C^T Q(t_i) = 0, \qquad i = \overline{1, k} \] только для $C = 0$, а отсюда следует, что $C^T Q(t) \not\equiv 0$ на $[0, T]$. Значит, строки матрицы $Q(t)$ линейно независимы на $[0, T]$, поэтому из второго критерия полной управляемости следует полная управляемость системы.
    От противного. Пусть система полностью управляема, но для любого $k \gt 0$ и любых \[ 0 \leqslant t_1 \leqslant t_2 \leqslant \dots \leqslant t_k \leqslant T \] справедливо неравенство \[ \rank \left[ Q(t_1), Q(t_2), \dots, Q(t_k) \right] \lt n. \] Следовательно, найдётся $C \neq 0$ такой, что \[ C^T \left[ Q(t_1), Q(t_2), \dots, Q(t_k) \right] = 0. \] Выбор $C \neq 0$ зависит от конкретных точек $t_1, \dots, t_k$.

    Пусть $r_1, \dots, r_k$ — некоторые рациональные числа из отрезка $[0, T]$. Для них найдётся $C_k \neq 0$ такой, что \[ C_k^T Q(r_i) = 0, \quad i = \overline{1, k}. \] Пусть $\norm{C_k} = 1$, то есть $C_k$ лежит на единичной гиперсфере $S_1(\mathbb{R}^n)$. Этого всегда можно добиться нормировкой.

    Рассмотрим теперь набор рациональных чисел $r_1, \dots, r_k, r_{k+1}$. Для него найдётся $C_{k+1} \neq 0$ такой, что \[ C_{k+1}^T Q(r_i) = 0, \quad i = \overline{1, k+1}. \] Теперь, последовательно добавляя новые рациональные точки к существующему набору, получим последовательность ненулевых векторов $C_1, C_2, \dots, C_k, \dots$. Все эти векторы лежат на единичной гиперсфере конечномерного пространства $\mathbb{R}^n$, которая является компактом. Значит, из этой последовательности $\left\{ C_{N} \right\}$ можно выделить сходящуюся подпоследовательность $\left\{ C_{N_l} \right\} \to C$, причём $\norm{C} = 1$, то есть $C \neq 0$.

    Теперь, пользуясь плотностью рациональных чисел на отрезке и непрерывностью $Q(t)$, заключаем, что существует $C \neq 0$ такой, что \[ C^T Q(t) \equiv 0, \qquad t \in [0, T]. \] Следовательно, строки матрицы $Q(t)$ линейно зависимы на $[0, T]$, а это противоречит предположению о полной управляемости системы (конкретно второму критерию полной управляемости).

    Пусть \[ \rank \left[ Q(t_1), Q(t_2), \dots, Q(t_k) \right] = n. \] Отсюда следует, что \[ C^T \left[ Q(t_1), Q(t_2), \dots, Q(t_k) \right] = 0 \] тогда и только тогда, когда $C = 0$. Тогда \[ C^T Q(t_i) = 0, \qquad i = \overline{1, k}. \] Отсюда следует, что $C^T Q(t) \not\equiv 0$ на $[0, T]$, то есть строки матрицы $Q(t)$ являются линейно независимыми на $[0, T]$. Пользуясь вторым критерием полной управляемости, заключаем, что система является полностью управляемой.
  5. Достаточный признак полной управляемости
    Рассмотрим систему \[ \dot x(t) = A(t) x(t) + B(t) u(t) + \xi(t) \] на отрезке $[0, T]$.

    Рассмотрим последовательность матриц: \[ \begin{aligned} L_1(t) &= B(t), \\ L_2(t) &= \frac{d }{d t} L_1(t) - A(t) L_1(t), \\ &\vdots \\ L_{k+1}(t) &= \frac{d }{d t} L_k(t) - A(t) L_k(t). \end{aligned} \]

    (достаточный признак полной управляемости)
    Если существует $l \geqslant 1$ и $\tau \in [0, T]$ такие, что \[ \rank \left[ L_1(\tau), L_2(\tau), \dots, L_l(\tau) \right] = n, \] то система полностью управляема.
    Доказываем от противного: предполагаем, что ранг блочной матрицы равен $n$, но система не является полностью управляемой. Из второго критерия полной управляемости следует, что строки матрицы $Q(t)$ являются линейно зависимыми на $[0, T]$, то есть найдётся $C \neq 0$, при котором \[ C^T Q(t) \equiv 0. \] Подставляем сюда формулу $Q(t) = Y^{-1}(t) B(t)$, дифференцируем $l$ раз, для нахождения производной от $Y^{-1}(t)$ дифференцируем $Y^{-1}(t) Y(t) = E$ и пользуемся тем, что $Y(t)$ — фундаментальная матрица однородной системы, то есть $\frac{d }{d t} Y(t) = A(t) Y(t)$. После всех шагов дифференцирования имеем: \[ C^T Y^{-1}(t) L_i(t) \equiv 0, \quad i = \overline{1, l}. \] Замечаем, что $\gamma^T = C^T Y^{-1}(t)$ ненулевой, и получаем, что нашёлся ненулевой вектор, который тождественно зануляет нашу блочную матрицу — противоречие.
    От противного. Пусть выполнены условия теоремы, но система не является полностью управляемой. Из второго критерия полной управляемости следует, что строки матрицы $Q(t)$ являются линейно зависимыми на $[0, T]$, то есть найдётся $C \neq 0$ такой, что \[ C^T Q(t) \equiv 0, \qquad t \in [0, T]. \] По определению $Q(t) = Y^{-1}(t) B(t)$, тогда \[ \begin{aligned} C^T Q(t) = C^T Y^{-1}(t) B(t) &\equiv 0, \\ \implies C^T Y^{-1}(t) L_1(t) &\equiv 0, & t &\in [0, T]. \end{aligned} \] Продифференцируем по $t$: \[ \tag{1} C^T \frac{d }{d t} Y^{-1}(t) L_1(t) + C^T Y^{-1}(t) \frac{d }{d t} L_1(t) \equiv 0 \] Теперь воспользуемся тем, что $Y^{-1}(t) Y(t) = E$: \[ \begin{aligned} \frac{d }{d t} \left( Y^{-1}(t) Y(t) \right) &= \frac{d }{d t} Y^{-1}(t) Y(t) + Y^{-1}(t) \frac{d }{d t} Y(t) = \\ &= \frac{d }{d t} Y^{-1}(t) Y(t) + Y^{-1}(t) A(t) Y(t) = 0, \end{aligned} \] так как матрица $Y(t)$ является фундаментальной матрицей однородной системы $\dot x(t) = A(t) x(t)$.

    Домножим теперь обе части неравенства справа на $Y^{-1}(t)$, получаем: \[ \frac{d }{d t} Y^{-1}(t) + Y^{-1}(t) A(t) = 0, \implies \frac{d }{d t} Y^{-1}(t) = - Y^{-1}(t) A(t). \]

    Подставляем в $(1)$: \[ \begin{aligned} C^T \frac{d }{d t} Y^{-1}(t) L_1(t) + C^T Y^{-1}(t) \frac{d }{d t} L_1(t) &= - C^T Y^{-1}(t) A(t) L_1(t) + C^T Y^{-1}(t) \frac{d }{d t} L_1(t) = \\ &= C^T Y^{-1}(t) \left[ \frac{d }{d t} L_1(t) - A(t) L_1(t) \right] = \\ &= C^T Y^{-1}(t) L_2(t) \equiv 0, & t &\in [0, T]. \end{aligned} \]

    Повторяя этот процесс $l$ раз, получаем \[ C^T Y^{-1}(t) L_i(t) \equiv 0, \quad t \in [0, T], \quad i = \overline{1, l}. \] Заметим теперь, что $\gamma^T := C^T Y^{-1}(t) \neq 0$. Значит, \[ \gamma^T \left[ L_1(\tau), L_2(\tau), \dots, L_l(\tau) \right] \equiv 0, \qquad t \in [0, T], \] откуда следует, что \[ \rank \left[ L_1(\tau), L_2(\tau), \dots, L_l(\tau) \right] \lt n, \] то есть получили противоречие.

  6. Понятие наблюдаемости. Необходимое и достаточное условие полной наблюдаемости
    Рассмотрим систему \[ \left\{ \begin{aligned} \dot x(t) &= A(t) x(t) + B(t) u(t), \\ y(t) &= C(t) x(t) \end{aligned} \right. \] на отрезке $[0, T]$.
    Система называется полностью наблюдаемой на отрезке $[0, T]$, если из того, что \[ u(t) \equiv 0, \qquad t \in [0, T] \] и \[ y(t) \equiv 0, \qquad t \in [0, T], \] следует, что \[ x(t) \equiv 0, \qquad t \in [0, T]. \]
    Система называется полностью наблюдаемой на отрезке $[0, T]$, если из того, что \[ u_1(t) \equiv u_2(t) \quad \text{и} \quad y_1(t) \equiv y_2(t), \quad t \in [0, T] \] следует, что \[ x_1(t) \equiv x_2(t), \quad t \in [0, T]. \]
    Определения выше эквивалентны.
    Рассмотрим две системы с $u_1, y_1, x_1$ и $u_2, y_2, x_2$. Вычтем из первой вторую, предположим, что \[ u_1(t) - u_2(t) \equiv 0, \qquad y_1(t) - y_2(t) \equiv 0. \] Из того, что $C(t) \not\equiv 0$, получаем, что $x_1(t) - x_2(t) \equiv 0$.

    Если обозначим разности, получим первое определение. Если перенесём вторые слагаемые вправо, получим второе определение.

    Рассмотрим две системы: \[ \left\{ \begin{aligned} \dot x_1(t) &= A(t) x_1(t) + B(t) u_1(t), \\ y_1(t) &= C(t) x_1(t) \end{aligned} \right. \] и \[ \left\{ \begin{aligned} \dot x_2(t) &= A(t) x_2(t) + B(t) u_2(t), \\ y_2(t) &= C(t) x_2(t). \end{aligned} \right. \] Вычтем из первой вторую: \[ \left\{ \begin{aligned} \frac{d }{d t} \left( x_1(t) - x_2(t)\right) &= A(t) \left(x_1(t) - x_2(t) \right) + B(t) \left( u_1(t) - u_2(t) \right), \\ y_1(t) - y_2(t) &= C(t) \left( x_1(t) - x_2(t) \right). \end{aligned} \right. \] Заметим, что если $u_1(t) - u_2(t) \equiv 0$ и $y_1(t) - y_2(t) \equiv 0$, то \[ \left\{ \begin{aligned} \frac{d }{d t} \left( x_1(t) - x_2(t)\right) &= A(t) \left(x_1(t) - x_2(t) \right), \\ 0 &= C(t) \left( x_1(t) - x_2(t) \right). \end{aligned} \right. \] Так как $C(t) \not\equiv 0$, получаем, что $x_1(t) - x_2(t) \equiv 0$.
    1. Первое определение получаем, если положим \[ \begin{aligned} u(t) &= u_1(t) - u_2(t) \equiv 0, \\ y(t) &= y_1(t) - y_2(t) \equiv 0, \\ x(t) &= x_1(t) - x_2(t) \equiv 0. \end{aligned} \]
    2. Второе определение получаем, если перепишем тождества: \[ \begin{aligned} u_1(t) - u_2(t) \equiv 0 \implies & u_1(t) \equiv u_2(t), \\ y_1(t) - y_2(t) \equiv 0 \implies & y_1(t) \equiv y_2(t), \\ x_1(t) - x_2(t) \equiv 0 \implies & x_1(t) \equiv x_2(t). \end{aligned} \]
    По доступным наблюдениям $y(t)$ определить $x(t)$ на отрезке $[0, T]$.
    Пусть $x(0) = x^0$, тогда рассмотрим общее решение в форме Коши: \[ \begin{aligned} x(t) &= Y(t) \paren{ x^0 + \int\limits_0^t Y^{-1}(\tau) B(\tau) u(\tau) d\tau } = \\ &= Y(t) \paren{ x^0 + \int\limits_0^t Q(\tau) u(\tau) d\tau }. \end{aligned} \] Подставим это выражение в уравнение наблюдателя: \[ \begin{aligned} y(t) &= C(t) Y(t) \paren{ x^0 + \int\limits_0^t Q(\tau) u(\tau) d\tau } = \\ &= C(t) Y(t) x^0 + C(t) Y(t) \int\limits_0^t Q(\tau) u(\tau) d\tau. \end{aligned} \] Пусть $P(t) := C(t) Y(t)$, тогда \[ \begin{aligned} y(t) &= P(t) x^0 + P(t) \int\limits_0^t Q(\tau) u(\tau) d\tau = \\ &= P(t) x^0 + \varphi(t), \end{aligned} \] где \[ \varphi(t) = P(t) \int\limits_0^t Q(\tau) u(\tau) d\tau. \]
    Матрицу \[ O(T) = \int\limits_{0}^{T} P^T(\tau) P(\tau) d\tau \] называют грамианом наблюдаемости.
    $\dim P(t) = r \times n$, а $\dim O(T) = n \times n$.
    Система наблюдаема тогда и только тогда, когда \[ \rank O(T) = n. \]
    Доказываем от противного: предполагаем, что система полностью наблюдаема, но $\rank O(T) \lt n$. Отсюда следует, что существует $z \neq 0$ такой, что $O(T) z = 0$.

    Теперь рассматриваем $z^T O(T) z$, получаем, что $P(t) z \equiv 0$ на $[0, T]$.

    Окончательно рассматриваем два начальных условия: $x^1 = 0$ и $x^2 = z$, строим наблюдения. Первые слагаемые у них обнулятся, они будут равны друг другу, и тут фиксируем противоречие с полной наблюдаемостью, т.к. управления и наблюдения совпадают, а решения нет.

    Доказываем от противного: предполагаем, что $\rank O(T) = n$, но система не является полностью наблюдаемой. По определению это значит, что существуют начальные условия $x^1 \neq x^2$ такие, что наблюдения и управления совпадут. Строим для каждого начального условия наблюдатель, их разница тождественно равна нулю, поэтому $P(t) (x^1 - x^2) = P(t) z \equiv 0$ на $[0, T]$.

    Рассматриваем теперь квадратичную форму $z^T O(T) z$, подставляем определение грамиана наблюдаемости, получаем, что эта форма равна нулю при ненулевом $z$ — получаем противоречие с тем, что $\rank O(T) = n$.

    От противного. Пусть система полностью наблюдаема, но $\rank O(T) \lt n$. Следовательно, существует $z \neq 0$ такой, что \[ O(T) z = 0. \] Тогда \[ \begin{aligned} 0 &= O(T) z = \\ &= z^T O(T) z = \\ &= z^T \left[ \int\limits_{0}^{T} P^T(\tau) P(\tau) d\tau \right] z = \\ &= \int\limits_{0}^{T} z^T P^T(\tau) P(\tau) z d\tau = \\ &= \int\limits_{0}^{T} \norm{P(\tau) z}^2 d\tau = 0. \end{aligned} \] Следовательно, \[ P(t) z \equiv 0, \quad t \in [0, T]. \] Рассмотрим теперь два начальных условия: $x^1 = 0$ и $x^2 = z$. Им соответствуют наблюдения \[ y_1(t) = P(t) x^1 + \varphi_1(t) \quad \text{и} \quad y_2(t) = P(t) x^2 + \varphi_2(t). \] Заметим, что $P(t) x^1 \equiv 0$, так как $x^1 = 0$, и $P(t) x^2 = P(t) z \equiv 0$.

    Также заметим, что $\varphi_1(t) \equiv \varphi_2(t) \equiv \varphi(t)$, так как это слагаемое не зависит от начальных условий.

    Получаем, что $y_1(t) \equiv y_2(t)$ и $u_1(t) \equiv u_2(t)$, но $x_1(t) \not\equiv x_2(t)$, что противоречит предположению о полной наблюдаемости системы.

    От противного. Пусть $\rank O(T) = n$, но система не является полностью наблюдаемой. Значит, существуют $x^1 \neq x^2$ такие, что $y_1(t) \equiv y_2(t)$ и $u_1(t) \equiv u_2(t)$, но $x_1(t) \not\equiv x_2(t)$.

    Наблюдения, соответствующие этим начальным условиям: \[ y_1(t) = P(t) x^1 + \varphi(t), \quad y_2(t) = P(t) x^2 + \varphi(t), \] причём \[ y_1(t) - y_2(t) = P(t) (x^1 - x^2) \equiv 0, \quad t \in [0, T]. \] Обозначим $z = x^1 - x^2 \neq 0$. Тогда \[ P(t) z \equiv 0, \quad t \in [0, T]. \]

    Рассмотрим теперь квадратичную форму: \[ \begin{aligned} z^T O(T) z &= z^T \left[ \int\limits_{0}^{T} P^T(\tau) P(\tau) d\tau \right] z = \\ &= \int\limits_{0}^{T} z^T P^T(\tau) P(\tau) z d\tau = \\ &= \int\limits_{0}^{T} \norm{P(\tau) z}^2 d\tau = 0. \end{aligned} \] Это противоречит предположению о том, что $\rank O(T) = n$.

  7. Двойственность. Теорема о полной наблюдаемости и полной управляемости двойственных систем
    Рассмотрим наблюдаемую систему \[ \left\{ \begin{aligned} \dot x(t) &= A(t) x(t) + B(t) u(t), \\ y(t) &= C(t) x(t) \end{aligned} \right. \] на отрезке $[0, T]$.
    Система \[ \left\{ \begin{aligned} \dot{\widetilde x}(t) &= A_1(t) \widetilde x(t) + B_1(t) \widetilde u(t), \\ \widetilde y(t) &= C_1(t) \widetilde x(t), \end{aligned} \right. \] где \[ A_1(t) = -A^T(t), \quad B_1(t) = C^T(t), \quad C_1(t) = B^T(t), \] называется двойственной системой.

    Размерности:

    • $\widetilde x \in \mathbb{R}^n$;
    • $\widetilde u \in \mathbb{R}^r$;
    • $\widetilde y \in \mathbb{R}^m$.

    Пусть $Y(t)$ — фундаментальная матрица системы $\dot x(t) = A x(t)$. Требуется найти фундаментальную матрицу системы $\dot{\widetilde x(t)} = -A^T \widetilde x(t)$.
    Рассмотрим \[ Y^{-1}(t) Y(t) = E. \] Продифференцируем: \[ \begin{aligned} 0 &= \frac{d }{d t} Y^{-1}(t) Y(t) + Y^{-1}(t) \frac{d }{d t} Y(t) = \\ &= \frac{d }{d t} Y^{-1}(t) Y(t) + Y^{-1}(t) A(t) Y(t). \end{aligned} \] Отсюда следует, что \[ \frac{d }{d t} Y^{-1}(t) = - Y^{-1}(t) A(t). \] Транспонируем: \[ {\left( \frac{d }{d t} Y^{-1}(t) \right)}^T = - A^T(t) {\left( Y^{-1}(t) \right)}^T. \] Заметим, что \[ {\left( \frac{d }{d t} Y^{-1}(t) \right)}^T = \frac{d }{d t} {\left( Y^{-1}(t) \right)}^T. \] Следовательно, \[ \frac{d }{d t} {\left( Y^{-1}(t) \right)}^T = - A^T(t) {\left( Y^{-1}(t) \right)}^T. \] Значит, матрица ${\left( Y^{-1}(t) \right)}^T$ является фундаментальной для системы $\dot{\widetilde x(t)} = -A^T \widetilde x(t)$.

    Введём обозначение: \[ \widetilde Y(t) = {\left( Y^{-1}(t) \right)}^T. \]

    Система полностью управляема на $[0, T]$ тогда и только тогда, когда двойственная ей система полностью наблюдаема на $[0, T]$.

    Рассмотрим грамиан управляемости: \[ \begin{aligned} \Gamma(T) &\bydef= \int\limits_{0}^{T} Q(t) Q^T(t) dt = \\ &= \int\limits_{0}^{T} Y^{-1}(t) B(t) B^T(t) {\left( Y^{-1}(t) \right)}^T dt = \\ &= \int\limits_{0}^{T} {\left(\widetilde Y(t)\right)}^T C_1^T(t) C_1(t) \widetilde Y(t) dt = \\ &= \int\limits_{0}^{T} \widetilde P^T(t) \widetilde P(t) dt \bydef= \\ &\bydef= \widetilde O(T). \end{aligned} \] Следовательно, грамиан управляемости исходной системы совпадает с грамианом наблюдаемости двойственной системы, поэтому из полной управляемости исходной системы следует полная наблюдаемость двойственной (например, из первого критерия полной управляемости и необходимого и достаточного условия полной наблюдаемости).

    Проверим в обратную сторону: \[ \begin{aligned} O(T) &\bydef= \int\limits_{0}^{T} P^T(t) P(t) dt = \\ &= \int\limits_{0}^{T} Y^T(t) C^T(t) C(t) Y(t) dt = \\ &= \int\limits_{0}^{T} \widetilde Y^{-1}(t) B(t) B^T(t) {\left( \widetilde Y^{-1}(t) \right)}^T dt = \\ &= \int\limits_{0}^{T} \widetilde Q(t) \widetilde Q^T(t) dt \bydef= \\ &\bydef= \widetilde \Gamma(T). \end{aligned} \]

    Если система полностью наблюдаема на отрезке $[0, T]$, то она является полностью наблюдаемой на $[0, T_1]$ при любом $T_1 \geqslant T$.
    Система полностью наблюдаема тогда и только тогда, когда столбцы матрицы $P$ линейно независимы на $[0, T]$.
    Если система полностью наблюдаема на $[0, T]$, то двойственная ей полностью управляема на $[0, T]$. Из второго критерия полной управляемости следует, что строки матрицы $\widetilde Q(t)$ являются линейно независимыми на $[0, T]$.

    Распишем $\widetilde Q(t)$: \[ \begin{aligned} \widetilde Q(t) &= \widetilde Y^{-1}(t) B_1(t) = \\ &= Y^T(t) C^T(t) = \\ &= {\left[ C(t) Y(t) \right]}^T \bydef= \\ &\bydef= P^T(t). \end{aligned} \] Строки матрицы $Q(t)$ линейно независимы на $[0, T]$, следовательно, и строки матрицы $P^T(t)$ будут линейно независимыми на $[0, T]$, что эквивалентно тому, что столбцы матрицы $P(t)$ являются линейно независимыми на $[0, T]$.

  8. Стационарные системы. Критерий Калмана полной управляемости
    Рассмотрим наблюдаемую стационарную систему \[ \left\{ \begin{aligned} \dot x(t) &= A x(t) + B u(t), \\ y(t) &= C x(t) \end{aligned} \right. \] на отрезке $[0, T]$.

    Фундаментальная матрица однородной системы $\dot x(t) = A x(t)$ имеет вид \[ Y(t) = e^{A t} = \sum_{k = 0}^{\infty} \frac{t^k}{k!} A^k. \] Обратная ей: \[ Y^{-1}(t) = e^{-A t}. \]

    Рассмотрим блочную матрицу, которую называют матрицей Калмана: \[ K = \left[ B, AB, \dots, A^{n-1} B \right]. \]

    (критерий Калмана полной управляемости.)
    Стационарная система полностью управляема тогда и только тогда, когда $\rank K = n$.
    От противного. Пусть стационарная система полностью управляема, но $\rank K \lt n$. Значит, существует $C \neq 0$ такой, что $C^T K = 0$, то есть \[ C^T B = 0, \quad C^T AB = 0, \quad \dots, \quad C^T A^{n-1} B = 0. \] Рассмотрим матрицу $A$ и её характеристический многочлен \[ c(\lambda) = \lambda^n + \alpha_1 \lambda^{n-1} + \dots + \alpha_n = 0. \] По теореме Гамильтона-Кэли $c(A) = 0$, то есть \[ A^n + \alpha_1 A^{n-1} + \dots + \alpha_n E_{n \times n} = 0 \] или \[ A^n = -\alpha_1 A^{n-1} - \dots - \alpha_n E_{n \times n}. \] Домножим это равенство справа на $B$, а слева — на $C^T$: \[ C^T A^n B = -\alpha_1 C^T A^{n-1} B - \dots - \alpha_n C^T B = 0. \] Отсюда следует, что \[ C^T A^k B = 0, \quad k \geqslant 0. \]

    Рассмотрим теперь \[ \begin{aligned} C^T Q(t) &= C^T Y^{-1}(t) B = \\ &= C^T e^{-A t} B = \\ &= C^T \left[ \sum_{k=0}^{\infty} \frac{{(-t)}^k}{k!} A^k \right] B = \\ &= \sum_{k=0}^{\infty} \frac{{(-t)}^k}{k!} C^T A^k B \equiv 0, \quad t \in [0, T]. \end{aligned} \] Следовательно, строки матрицы $Q(t)$ являются линейно зависимыми на $[0, T]$, что противоречит предположению о полной управляемости стационарной системы (по второму критерию полной управляемости).

    От противного: пусть $\rank K = n$, но стационарная система не является полностью управляемой. Тогда существует $C \neq 0$ такой, что $C^T Q(t) \equiv 0$ на $[0, T]$. Следовательно, \[ C^T Q(t) = \sum_{k=0}^{\infty} \frac{{(-t)}^k}{k!} C^T A^k B \equiv 0, \quad t \in [0, T]. \] Отсюда следует, что \[ C^T A^k B = 0, \quad k \geqslant 0. \] Но в таком случае $C^T K = 0$, то есть строки матрицы $K$ являются линейно зависимыми, что противоречит предположению о том, что $\rank K = n$.
  9. Первое разбиение управляемой системы
    Рассмотрим пространство $\mathbb{R}^n$ и его подпространство $L \subset \mathbb{R}^n$. Известно, что $\dim L$ совпадает с максимальным количеством линейно независимых векторов в $L$.

    Рассмотрим два подпространства $L_1$ и $L_2$.

    Прямой суммой пространств $L_1$ и $L_2$ называют пространство \[ L_1 \oplus L_2 = \set{ x + y | x \in L_1, \; y \in L_2 }, \] если каждый элемент $z = x + y \in L_1 \oplus L_2$ представляется единственным образом.
    Пространство $L \subset \mathbb{R}^n$ называется $A$-инвариантным, если для любого $x \in L$ следует, что $Ax \in L$.

    Рассмотрим наблюдаемую стационарную систему \[ \left\{ \begin{aligned} \dot x(t) &= A x(t) + B u(t), \\ y(t) &= C x(t) \end{aligned} \right. \] на отрезке $[0, T]$.

    Рассмотрим матрицу Калмана $K = \left[ B, AB, A^2B, \dots, A^{n-1} B \right]$. Её размерность — $n \times nm$.

    Пусть $\rank K = l \leqslant n$. Рассмотрим $L = \span K$ — линейную оболочку столбцов матрицы $K$, её размерность $\dim L = l$, оно является линейным подпространством $L \subset \mathbb{R}^n$.

    Подпространство $L = \span K$ является $A$-инвариантным.
    Достаточно показать, что для любого $z \in L$ выполняется $Az \in L$.

    Очевидно, что \[ B \subset L, \quad AB \subset L, \quad \dots, \quad A^{n-1}B \subset L. \]

    Рассмотрим матрицу $A$ и её характеристический многочлен \[ c(\lambda) = \lambda^n + \alpha_1 \lambda^{n-1} + \dots + \alpha_n = 0. \] По теореме Гамильтона-Кэли $c(A) = 0$, то есть \[ A^n + \alpha_1 A^{n-1} + \dots + \alpha_n E_{n \times n} = 0 \] или \[ A^n = -\alpha_1 A^{n-1} - \dots - \alpha_n E_{n \times n}. \] Домножим это равенство справа на $B$: \[ A^n B = -\alpha_1 A^{n-1} B - \dots - \alpha_n B \subset L. \]
    Пусть стационарная система не является полностью управляемой, то есть $\rank K = l \lt n$.

    Обозначим через $v_1, \dots, v_l$ линейно независимые столбцы матрицы $K$. Нетрудно видеть, что \[ \span (v_1, \dots, v_l) = \span K, \] то есть они образуют базис.

    Введём теперь дополнительное пространство $L_2$ так, чтобы $\mathbb{R}^n = L \oplus L_2$. Тогда $v_{l+1}, \dots, v_n$ — базис в $L_2$, а $(v_1, \dots, v_n)$ — базис в $\mathbb{R}^n$.

    Рассмотрим матрицу $T = (v_1, \dots, v_n)$. Она обратима, то есть существует $T^{-1}$. Положим $x = T z$, тогда стационарная система примет вид \[ \left\{ \begin{aligned} T \dot z(t) &= A T z(t) + B u(t), \\ y(t) &= C T z(t). \end{aligned} \right. \] Запишем её в виде \[ \left\{ \begin{aligned} \dot z(t) &= T^{-1} A T z(t) + T^{-1} B u(t), \\ y(t) &= C T z(t) \end{aligned} \right. \] и введём обозначения: \[ \overline A = T^{-1} A T, \quad \overline B = T^{-1} B, \quad \overline C = C T. \] Используя их, окончательно имеем \[ \left\{ \begin{aligned} \dot z(t) &= \overline A z(t) + \overline B u(t), \\ y(t) &= \overline C z(t). \end{aligned} \right. \]

    Матрицы $\overline A$ и $\overline B$ имеют вид \[ \overline A = \begin{bmatrix} A_{11} & A_{12} \\ 0_{(n - l) \times l} & A_{22} \end{bmatrix}, \quad \overline B = \begin{bmatrix} B_1 \\ 0_{(n - l) \times m} \end{bmatrix}, \] причём \[ \dim A_{11} = l \times l, \quad \dim A_{12} = l \times (n - l), \quad \dim A_{22} = (n - l) \times (n - l) \] и \[ \dim B_1 = l \times m. \]
    Рассмотрим \[ \overline A = T^{-1} A T. \] Представим это уравнение в виде $T \overline A = A T$ и рассмотрим его по столбцам.
    • Первый столбец: $T \overline a_1 = A v_1$. Так как $v_1 \in \span K$, а оно является $A$-инвариантным, то столбец $\overline a_1$ представим в виде линейной комбинации векторов $(v_1, \dots, v_l)$.
    • Для столбцов $\overline a_2, \dots, \overline a_l$ аналогично.
    • $(l+1)$-ый столбец: $T \overline a_{l+1} = A v_{l+1}$. Так как $v_{l+1} \not \in \span K$, то и $A v_{l+1} \not \in \span K$, поэтому столбец $\overline a_{l+1}$ представим в виде линейной комбинации столбцов $T$.
    • Для столбцов $\overline a_{l+2}, \dots, \overline a_n$ аналогично.

    Отсюда следует, что \[ \overline A = T^{-1} \left[ A T_1, A T_2 \right] = \begin{bmatrix} A_{11} & A_{12} \\ 0_{(n - l) \times l} & A_{22} \end{bmatrix}. \]

    Выясним теперь вид матрицы $\overline B = T^{-1} B$. Запишем его в виде $T \overline B = B$ и рассмотрим по столбцам.

    Начнём с первого: $T \overline b_1 = b_1$. Так как $b_1 \in \span K$, то вектор $\overline b_1$ представим в виде линейной комбинации столбцов $(v_1, \dots, v_l)$. Для остальных столбцов аналогично, поэтому \[ \overline B = T^{-1} B = \begin{bmatrix} B_1 \\ 0_{(n - l) \times m} \end{bmatrix}. \]

    Представим решение и управление в следующем виде: \[ z = \begin{bmatrix} z_1 \\ z_2 \end{bmatrix}, \qquad u = \begin{bmatrix} u_1 \\ 0_{(n - l) \times m} \end{bmatrix}, \] где $\dim z_1 = 1 \times l$ и $\dim z_2 = 1 \times (n - l)$. Тогда систему можно представить в виде \[ \tag{*} \left\{ \begin{aligned} \dot z_1(t) &= A_{11} z_1(t) &&+ A_{12} z_2 + B_1 u_1(t), \\ \dot z_2(t) &= &&\phantom{+} A_{22} z_2, \\ y(t) &= C_1 z_1 &&+ C_2 z_2. \end{aligned} \right. \]
    $\rank \left[ B_1, A_{11} B_1, \dots, A_{11}^{l-1} B_1 \right] = l$.
    Рассмотрим матрицу $\left[ \overline B, \overline A \overline B, \dots, \overline A^{n-1} \overline B \right]$: \[ \left[ \overline B, \overline A \overline B, \dots, \overline A^{n-1} \overline B \right] = \begin{bmatrix} B_1 & A_{11} B_1 & A_{11}^2 B_1 & \dots & A_{11}^{n-1} B_1 \\ 0 & 0 & 0 & \dots & 0 \end{bmatrix}, \] поэтому \[ \begin{aligned} \rank \left[ \overline B, \overline A \overline B, \dots, \overline A^{n-1} \overline B \right] &= \rank \begin{bmatrix} B_1 & A_{11} B_1 & A_{11}^2 B_1 & \dots & A_{11}^{n-1} B_1 \\ 0 & 0 & 0 & \dots & 0 \end{bmatrix} = \\ &= \rank \begin{bmatrix} B_1 & A_{11} B_1 & A_{11}^2 B_1 & \dots & A_{11}^{n-1} B_1 \end{bmatrix} = \\ &= \rank \begin{bmatrix} B_1 & A_{11} B_1 & A_{11}^2 B_1 & \dots & A_{11}^{l-1} B_1 \end{bmatrix} = l. \end{aligned} \]
    (первое разбиение управляемой системы)
    Если стационарная система не является полностью управляемой, то существует неособое преобразование $T$, приводящее её к виду $(*)$ и разбивающее её на полностью управляемую и неуправляемую части.
  10. Второе разбиение управляемой системы
    Рассмотрим наблюдаемую стационарную систему \[ \left\{ \begin{aligned} \dot x(t) &= A x(t) + B u(t), \\ y(t) &= C x(t) \end{aligned} \right. \] на отрезке $[0, T]$.
    (критерий Калмана полной наблюдаемости)
    Система полностью наблюдаема на $[0, T]$ тогда и только тогда, когда \[ \rank K = \rank \begin{bmatrix} C \\ C A \\ C A^2 \\ \vdots \\ C A^{n-1} \end{bmatrix} = n. \]
    Рассмотрим двойственную систему: \[ \left\{ \begin{aligned} \dot{\widetilde x}(t) &= -A^T \widetilde x(t) + C^T \widetilde u(t), \\ \widetilde y(t) &= B^T \widetilde x(t), \end{aligned} \right. \] Построим для неё матрицу Калмана: \[ \widetilde K = \left[ C^T, -A^T C^T, \left(-A^T\right)^2 C^T, \dots, \left(-A^T\right)^{n-1} C^T \right]. \] Так как нас интересует только ранг матрицы, опустим знаки: \[ \widetilde K = \left[ C^T, A^T C^T, \left(A^T\right)^2 C^T, \dots, \left(A^T\right)^{n-1} C^T \right]. \] Транспонируем (ранг от этого не изменится): \[ \widetilde K^T = \begin{bmatrix} C \\ C A \\ C A^2 \\ \vdots \\ C A^{n-1} \end{bmatrix}. \] По теореме о полной наблюдаемости и полной управляемости из полной управляемости двойственной системы следует полная наблюдаемость исходной системы. Полная управляемость двойственной системы следует из критерия Калмана: $\rank \widetilde K = n$. Положив $K := \widetilde K^T$, заканчиваем доказательство.

    Построим линейную оболочку строк матрицы $K$: $L = \span K$.

    $L$ — $A$-инвариантно справа: для любого $z \in L$ справедливо $z A \in L$.
    Доказательство аналогично случаю управляемости. Очевидно, что \[ C \subset L, \quad CA \subset L, \quad \dots, \quad C A^{n-1} \subset L. \] Проверим, что $C A^{n-1} \cdot A = C A^{n} \subset L$. Из теоремы Гамильтона‐Кэли следует, что $A^n$ представляется в виде линейной комбинации $A^k$, где $k = \overline{0, n-1}$. Домножаем слева на $C$ и получаем требуемое включение.

    Пусть система не является полностью наблюдаемой, тогда $\rank K = l \lt n$. Пусть $v_1, \dots, v_l$ — линейно независимые строки в $K$ (базис в $L$). Введём дополнительное подпространство $L_2 = \span(v_{l+1}, \dots, v_n)$ так, чтобы \[ \mathbb{R}^n = L \oplus L_2. \] Составим матрицу из строк $v_1, \dots, v_n$: \[ R = \begin{bmatrix} v_1 \\ v_2 \\ \vdots \\ v_l \\ v_{l+1} \\ \vdots \\ v_n \end{bmatrix}. \] Очевидно, у неё существует обратная матрица $R^{-1}$.

    Сделаем замену переменных: $\xi = R x \implies x = R^{-1} \xi$. Тогда система примет вид \[ \left\{ \begin{aligned} R^{-1} \dot \xi(t) &= A R^{-1} \xi(t) + B u(t), \\ y(t) &= C R^{-1} \xi(t), \end{aligned} \right. \] или \[ \left\{ \begin{aligned} \dot \xi(t) &= R A R^{-1} \xi(t) + R B u(t), \\ y(t) &= C R^{-1} \xi(t). \end{aligned} \right. \] Введём обозначения: \[ \overline A = R A R^{-1}, \quad \overline B = R B, \quad \overline C = C R^{-1}. \] Пользуясь ими, система окончательно представляется в виде \[ \tag{*} \left\{ \begin{aligned} \dot \xi(t) &= \overline A \xi(t) + \overline B u(t), \\ y(t) &= \overline C \xi(t). \end{aligned} \right. \]

    Матрицы $\overline A$ и $\overline C$ имеют вид \[ \overline A = \begin{bmatrix} A_{11} & 0_{l \times (n - l)} \\ A_{21} & A_{22} \end{bmatrix}, \quad \overline C = \begin{bmatrix} C_1 & 0_{r \times (n - l)} \end{bmatrix}, \] где \[ \dim A_{11} = l \times l, \quad \dim A_{21} = (n-l) \times l, \quad \dim A_{22} = (n-l) \times (n-l) \] и \[ \dim C_1 = r \times l. \]
    Доказывается аналогично первому разбиению управляемой системы.
    (второе разбиение управляемой системы)
    Если система не является полностью наблюдаемой, то существует неособое преобразование, приводящее её к виду $(*)$ и разбивающее её на полностью наблюдаемую и ненаблюдаемую части.
  11. Каноническое разбиение управляемой системы
    Рассмотрим наблюдаемую стационарную систему \[ \left\{ \begin{aligned} \dot x(t) &= A x(t) + B u(t), \\ y(t) &= C x(t) \end{aligned} \right. \] на отрезке $[0, T]$.

    Всякая управляемая система может быть с помощью неособого преобразования разбита на полностью управляемую и неуправляемую части, а всякая наблюдаемая система — на полностью наблюдаемую и ненаблюдаемую части.

    Рассмотрим совместно эти два разбиения. Составим две матрицы: \[ K_1 = \left[ B, AB, \dots, A^{n-1} B\right], \quad K_2 = \begin{bmatrix} C \\ C A \\ \vdots \\ C A^{n-1} \end{bmatrix}. \] Пусть $\rank K_1 = l_1$ и $\rank K_2 = l_2$. Разобьём пространство $\mathbb{R}^n$ на две прямые суммы: \[ \mathbb{R}^n = L_1 \oplus L_2 \quad \text{и} \quad \mathbb{R}^n = N_1 \oplus N_2, \] где \[ \dim L_1 = l_1, \quad \dim L_2 = n - l_1, \quad \dim N_1 = l_2, \quad \dim N_2 = n - l_2. \]

    Разобъём теперь всё пространство на 4 части: \[ \mathbb{R}^n = \Omega_1 \oplus \Omega_2 \oplus \Omega_3 \oplus \Omega_4, \] где

    • $\Omega_1 = L_1 \cap N_1$ — полностью управляемая и полностью наблюдаемая часть;
    • $\Omega_2 = L_1 \cap N_2$ — полностью управляемая, но ненаблюдаемая часть;
    • $\Omega_3 = L_2 \cap N_1$ — неуправляемая, но полностью наблюдаемая часть;
    • $\Omega_4 = L_2 \cap N_2$ — неуправляемая и ненаблюдаемая часть.
    В каждом из пространств выберем базис, составим из них матрицу $T$ и сделаем замену $z = Tx$, причём вектор $z$ также разобъём на 4 части: \[ z = \begin{bmatrix} z_1 \\ z_2 \\ z_3 \\ z_4 \end{bmatrix}. \] По построению $z_1, z_2$ описывают управляемую, а $z_3, z_4$ — неуправляемую часть системы. Тогда получим новую систему: \[ \left\{ \begin{aligned} \begin{bmatrix} \dot z_1 \\ \dot z_2 \end{bmatrix} &= \hat A_{11} \begin{bmatrix} z_1 \\ z_2 \end{bmatrix} &&+ \hat A_{12} \begin{bmatrix} z_3 \\ z_4 \end{bmatrix} + \hat B_1 u_1, \\ \begin{bmatrix} \dot z_3 \\ \dot z_4 \end{bmatrix} &= &&\phantom{+} \hat A_{22} \begin{bmatrix} z_3 \\ z_4 \end{bmatrix}, \\ y &= \left[ C_1, C_2, C_3, C_4 \right] \begin{bmatrix} z_1 \\ z_2 \\ z_3 \\ z_4 \end{bmatrix}. \end{aligned} \right. \] Представим матрицы системы в следующем виде: \[ \overline A = \begin{bmatrix} A_{11} & A_{12} & A_{13} & A_{14} \\ A_{21} & A_{22} & A_{23} & A_{24} \\ 0 & 0 & A_{33} & A_{34} \\ 0 & 0 & A_{43} & A_{44} \end{bmatrix}, \quad \overline B = \begin{bmatrix} B_1 \\ B_2 \\ 0 \\ 0 \end{bmatrix} \] Величины $z_1, z_3$ описывают наблюдаемую часть системы. Сделаем замену: \[ \begin{aligned} w_1 &= z_1, \\ w_2 &= z_3, \\ w_3 &= z_2, \\ w_4 &= z_4. \end{aligned} \] Теперь $w_1, w_2$ описывают наблюдаемую, а $w_3, w_4$ — ненаблюдаемую части.

    Система примет вид: \[ \left\{ \begin{aligned} \dot w_1 &= A_{11} w_1 + A_{13} w_2 + A_{12} w_3 + A_{14} w_4 + B_1 u, \\ \dot w_2 &= \phantom{A_{11} w_1 +} A_{33} w_2 \phantom{+ A_{12} w_3} + A_{34} w_4, \\ \dot w_3 &= A_{21} w_1 + A_{23} w_2 + A_{22} w_3 + A_{24} w_4 + B_2 u, \\ \dot w_4 &= \phantom{A_{11} w_1 +} A_{13} w_2 \phantom{+ A_{12} w_3} + A_{44} w_4, \\ y &= C_1 w_1 + C_3 w_2 + C_2 w_3 + C_4 w_4. \end{aligned} \right. \] Так как $w_3, w_4$ — ненаблюдаемая часть, $C_2 = C_4 = 0$, а также $A_{12} = A_{14} = A_{34} = 0$. Итак, \[ \left\{ \begin{aligned} \dot w_1 &= A_{11} w_1 + A_{13} w_2 \phantom{+ A_{12} w_3 + A_{14} w_4} + B_1 u, \\ \dot w_2 &= \phantom{A_{11} w_1 +} A_{33} w_2, \phantom{+ A_{12} w_3} \phantom{+ A_{34} w_4} \\ \dot w_3 &= A_{21} w_1 + A_{23} w_2 + A_{22} w_3 + A_{24} w_4 + B_2 u, \\ \dot w_4 &= \phantom{A_{11} w_1 +} A_{13} w_2 \phantom{+ A_{12} w_3} + A_{44} w_4, \\ y &= C_1 w_1 + C_3 w_2. \end{aligned} \right. \]

    Возвращаясь к переменным $z$, окончательно имеем каноническое разбиение: \[ \tag{*} \left\{ \begin{aligned} \dot z_1 &= A_{11} z_1 \phantom{+ A_{12} z_2} + A_{13} z_3 \phantom{+ A_{14} z_4} + B_1 u, \\ \dot z_2 &= A_{21} z_1 + A_{22} z_2 + A_{23} z_3 + A_{24} z_4 + B_2 u, \\ \dot z_3 &= \phantom{A_{11} z_1 + A_{12} z_2 +} A_{33} z_3, \phantom{+ A_{34} z_4} \\ \dot z_4 &= \phantom{A_{11} z_1 + A_{12} z_2 +} A_{13} z_3 + A_{44} z_4, \\ y &= C_1 z_1 + C_3 z_3 \end{aligned} \right. \] с матрицами \[ \overline A = \begin{bmatrix} A_{11} & 0 & A_{13} & 0 \\ A_{21} & A_{22} & A_{23} & A_{24} \\ 0 & 0 & A_{33} & 0 \\ 0 & 0 & A_{43} & A_{44} \end{bmatrix}, \quad \overline B = \begin{bmatrix} B_1 \\ B_2 \\ 0 \\ 0 \end{bmatrix}, \quad \overline C = \left[ C_1, 0, C_3, 0 \right]. \]

    Любая управляемая и наблюдаемая система может быть неособым преобразованием приведена к виду $(*)$ и разбита на
    • полностью управляемую и полностью наблюдаемую;
    • полностью управляемую и ненаблюдаемую;
    • неуправляемую и полностью наблюдаемую;
    • неуправляемую и ненаблюдаемую части.
  12. Критерий Хаутуса полной управляемости стационарных систем
    Рассмотрим наблюдаемую управляемую стационарную систему \[ \left\{ \begin{aligned} \dot x(t) &= A x(t) + B u(t), \\ y(t) &= C x(t) \end{aligned} \right. \] на отрезке $[0, T]$.
    (критерий Хаутуса полной управляемости)
    Система полностью управляема тогда и только тогда, когда для любого $\lambda \in \mathbb{C}$ справедливо \[ \rank (\lambda E - A, B) = n \]
    От противного. Пусть система полностью управляема, но найдётся $\lambda \in \mathbb{C}$ такое, что \[ \rank (\lambda E - A, B) = l \lt n. \] Это значит, что существует $C \neq 0$ такой, что \[ C^T \left( \lambda E - A \right) = 0, \quad C^T B = 0. \] Рассмотрим первое равенство; перепишем его: \[ C^T \lambda = \lambda C^T = C^T A. \] Домножим справа на $A$: \[ \lambda \underbrace{C^T A}_{= \lambda C^T} = C^T A^2, \implies \lambda^2 C^T = C^T A^2. \] Аналогично получаем, что \[ C^T A^k = \lambda^k C^T, \quad k \in \overline{0, n-1}. \] Домножим справа на $B$: \[ C^T A^k B = \lambda^k C^T B, \quad k \in \overline{0, n-1}. \] Составим матрицу Калмана и домножим её слева на $C^T$: \[ \begin{aligned} C^T K &= \left[ C^T B, C^T AB, C^T A^2 B, \dots, C^T A^{n-1} B \right] = \\ &= \left[ C^T B, \lambda C^T B, \lambda^2 C^T B, \dots, \lambda^{n-1} C^T B \right] = 0. \end{aligned} \] То есть существует ненулевой вектор $C$ такой, что $C^T K = 0$ — это противоречит предположению о полной управляемости системы.
    От противного. Пусть для всех $\lambda \in \mathbb{C}$ \[ \rank (\lambda E - A, B) = n, \] но система не является полностью управляемой. Это значит, что $\rank K = l \lt n$.

    Проведём первое разбиение управляемой системы: $T = (v_1, \dots, v_l, v_{l+1}, \dots, v_n)$, \[ \overline A = T^{-1} A T, \quad \overline B = T^{-1} B. \] Рассмотрим матрицу $(\lambda E - \overline A, \overline B)$: \[ \begin{aligned} (\lambda E - \overline A, \overline B) &= (\lambda T^{-1} T - T^{-1} A T, T^{-1} B) = \\ &= T^{-1} (\lambda T - AT, B) = \\ &= T^{-1} (\lambda E - A, B) \times \begin{bmatrix} T & 0 \\ 0 & E_{m} \end{bmatrix}. \end{aligned} \] Матрицы слева и справа определяют неособые преобразования, поэтому \[ \rank (\lambda E - A, B) = \rank (\lambda E - \overline A, \overline B) = n. \] Так как \[ \overline A = \begin{bmatrix} A_{11} & A_{12} \\ 0 & A_{22} \end{bmatrix}, \quad \overline B = \begin{bmatrix} B_1 \\ 0 \end{bmatrix} \], то \[ (\lambda E - \overline A, \overline B) = \begin{bmatrix} \lambda E - A_{11} & - A_{12} & B_1 \\ 0 & \lambda E - A_{22} & 0 \end{bmatrix}. \] Выберем $\lambda$ так, чтобы оно было собственным числом матрицы $A_{22}$, тогда \[ (\lambda E - \overline A, \overline B) = \begin{bmatrix} \lambda E - A_{11} & - A_{12} & B_1 \\ 0 & 0 & 0 \end{bmatrix}. \] Отсюда следует, что \[ \rank (\lambda E - A, B) = \rank (\lambda E - \overline A, \overline B) = l \lt n, \] то есть получили противоречие.

  13. Критерий Калмана и критерий Хаутуса полной наблюдаемости
    Рассмотрим наблюдаемую управляемую стационарную систему \[ \left\{ \begin{aligned} \dot x(t) &= A x(t) + B u(t), \\ y(t) &= C x(t) \end{aligned} \right. \] на отрезке $[0, T]$.
    (критерий Калмана полной наблюдаемости)
    Система полностью наблюдаема на $[0, T]$ тогда и только тогда, когда \[ \rank K = \rank \begin{bmatrix} C \\ C A \\ C A^2 \\ \vdots \\ C A^{n-1} \end{bmatrix} = n. \]
    Рассмотрим двойственную систему: \[ \left\{ \begin{aligned} \dot{\widetilde x}(t) &= -A^T \widetilde x(t) + C^T \widetilde u(t), \\ \widetilde y(t) &= B^T \widetilde x(t), \end{aligned} \right. \] Построим для неё матрицу Калмана: \[ \widetilde K = \left[ C^T, -A^T C^T, \left(-A^T\right)^2 C^T, \dots, \left(-A^T\right)^{n-1} C^T \right]. \] Так как нас интересует только ранг матрицы, опустим знаки: \[ \widetilde K = \left[ C^T, A^T C^T, \left(A^T\right)^2 C^T, \dots, \left(A^T\right)^{n-1} C^T \right]. \] Транспонируем (ранг от этого не изменится): \[ \widetilde K^T = \begin{bmatrix} C \\ C A \\ C A^2 \\ \vdots \\ C A^{n-1} \end{bmatrix}. \] По теореме о полной наблюдаемости и полной управляемости из полной управляемости двойственной системы следует полная наблюдаемость исходной системы. Полная управляемость двойственной системы следует из критерия Калмана: $\rank \widetilde K = n$. Положив $K := \widetilde K^T$, заканчиваем доказательство.
    (критерий наблюдаемости Хаутуса)
    Система полностью наблюдаема тогда и только тогда, когда для любого $\lambda \in \mathbb{C}$ справедливо \[ \rank \begin{bmatrix} \lambda E - A \\ C \end{bmatrix} = n. \]
    Очевидно: переходим к двойственной системе и пользуемся критерием управляемости Хаутуса.
  14. Программное управление в разностных системах. Критерий полной управляемости
    Системой линейных разностных уравнений называется система вида \[ y[k+1] = P[k] y[k] + f[k], \] где $k$ — дискретный аналог времени, $y[k], f[k]$ — векторы размерности $n$ и $P[k]$ — матрица размерности $n \times n$.
    Пусть $y[0] = y^1$, тогда \[ \begin{aligned} y[1] &= P[0] y^1 + f[0], \\ y[2] &= P[1] \left( P[0] y^1 + f[0] \right) + f[1], \\ &\vdots \end{aligned} \]
    Последовательность векторов $y[0], y[1], \dots$ называется решением линейной разностной системы.
    Введём обозначения: \[ \Pi[k, s] = P[k-1] P[k-2] \dots P[s], \quad k \gt s \geqslant 0; \] очевидно, что $\Pi[k, k] = E$.

    Тогда можно получить аналог формулы Коши для решения линейной разностной системы: \[ y[k] = \Pi[k,0] y[0] + \Pi[k, 1] f[0] + \Pi[k, 2] f[1] + \dots + \Pi[k, k] f[k-1]. \]

    Рассмотрим теперь разностную управляемую систему: \[ x[k+1] = P[k] x[k] + Q[k] u[k] + f[k], \quad k = \overline{0, N-1}, \] где $u[k] \in \mathbb{R}^r$ — управление.

    Допустимым управлением называют последовательность векторов \[ u[0], u[1], \dots, u[N-1]. \]

    Пусть заданы два вектора $x^1$ и $x^2$.

    Пара $x^1, x^2$ называется управляемой на $[0, N]$, если существует допустимое управление, на котором система имеет решение, удовлетворяющее условию \[ x[0] = x^1, \quad x[N] = x^2. \] Само управление в этом случае называется программным.
    Система называется полностью управляемой на $[0, N]$, если любая пара $x^1, x^2$ является управляемой на $[0, N]$.

    Построим решение системы с условиями $x[0] = x^1$ и $x[N] = x^2$: \[ \begin{aligned} x[1] &= P[0] x^1 + Q[0] u[0] + f[0], \\ x[2] &= P[1] \left( P[0] x^1 + Q[0] u[0] + f[0] \right) + Q[1] u[1] + f[1], \\ &\vdots \\ x[N] &= \Pi[N, 0] x^1 + \Pi[N, 1] Q[0] u[0] + \dots + \Pi[N, N] Q[N - 1] u[N - 1] + \\ &\phantom{=} + \Pi[N, 1] f[0] + \Pi[N, 2] f[1] + \dots + \Pi[N, N] f[N - 1]. \end{aligned} \] Если $x[N] = x^2$, то управление $u[0], u[1], \dots, u[N-1]$ — программное.

    Соберём все слагаемые, содержащие управление, слева, а всё остальное — справа: \[ \begin{gathered} \Pi[N, 1] Q[0] u[0] + \dots + \Pi[N, N] Q[N - 1] u[N - 1] = \\ = x^2 - \Pi[N, 0] x^1 - \Pi[N, 1] f[0] - \Pi[N, 2] f[1] - \dots - \Pi[N, N] f[N - 1]. \end{gathered} \] Требуется найти управление.

    Введём вектор \[ \hat u = {\left[ u[N-1], u[N-2], \dots, u[1], u[0] \right]}^T \] и матрицу \[ A = \left[ \Pi[N, N] Q[N-1], \Pi[N, N-1] Q[N-2], \dots, \Pi[N, 1] Q[0] \right]. \] Правую часть обозначим через $\eta = \const$. Тогда систему можно записать в виде \[ A \hat u = \eta. \]

    (критерий управляемости пары точек)
    Пара $x^1, x^2$ управляема на $[0, N]$ тогда и только тогда, когда $\rank A = \rank \left[ A, \eta \right]$.
    Буквально теорема Кронекера-Капелли. Можно раписать необходимую и достаточную ветку отдельно, если надо.
    (критерий полной управляемости)
    Система полностью управляема на $[0, N]$ тогда и только тогда, когда $\rank A = n$.
    В отличии от непрерывных систем, в разностных системах программное управление определяется однозначно, если однозначно разрешима система $A \hat u = \eta$.
    Может получиться так, что любое управление будет программным.
    Пусть \[ P[k] = \begin{bmatrix} k + 1 - N & 0 \\ 0 & k + 1 - N \end{bmatrix}, \quad Q[k] = \begin{bmatrix} k + 1 - N \\ 0 \end{bmatrix} \] и пусть $x^2 = f[N - 1]$. Тогда $P[N-1] = 0$, $Q[N-1] = 0$ и $x[N] = f[N-1]$. Следовательно, мы попали в нужное конечное положение вне зависимости от управления и начальной точки, поэтому все управления будут программными.

    Рассмотрим стационарную систему: \[ x[k+1] = P x[k] + Q u[k] + f[k]. \] Тогда \[ \Pi[N, k] = P^{N - k}, \quad \Pi[N, N] = E. \]
    (первый критерий полной управляемости стационарной разностной системы)
    Система полностью управляема на $[0, N]$ тогда и только тогда, когда \[ \rank \left[ Q, PQ, \dots, P^{N-1} Q \right] = n. \]
    Очевидно, так как это частный случай критерия полной управляемости: матрица $A$ в стационарном случае имеет вид \[ A = \left[ Q, PQ, \dots, P^{N-1} Q \right]. \]
    В разностных системах надо смотреть, как соотносятся $N$ и $n$. Два случая:
    • $N \lt n$, тогда формулировка теоремы сохраняется;
    • $N \geqslant n$, тогда надо вычислять не \[ \rank \left[ Q, PQ, \dots, P^{N-1} Q \right], \] а \[ \rank \left[ Q, PQ, \dots, P^{n-1} Q \right], \] где матрицы $P^k$ при $k = \overline{N, n}$ вычисляются по теореме Гамильтона-Кэли.

    Пусть все собственные значения матрицы $P$ лежат в единичном круге: $\abs{\lambda_j(P)} \lt 1$ для всех $j = \overline{1,n}$. Тогда $P^k \to 0$ при $k \to \infty$, и можно построить матрицу \[ V = \sum_{k=0}^{\infty} P^k Q Q^T {\left( P^T \right)}^k. \] Эта матрица называется грамианом управляемости.

    (второй критерий полной управляемости)
    Пусть $N \geqslant n$ и $\abs{\lambda_j(P)} \lt 1$ для $j = \overline{1,n}$. Тогда для полной управляемости системы необходимо и достаточно, чтобы матрица $V$ была положительно определённой, то есть для любого ненулевого вектора $C$ выполнялось $C^T V C \gt 0$.
    Пусть система полностью управляема. Покажем, что матрица $V$ положительно определена.

    Возьмём произвольный вектор $C$ и рассмотрим \[ \begin{aligned} C^T V C &= \sum_{k=0}^{\infty} C^T P^k Q Q^T {\left( P^T \right)}^k C = \\ &= \sum_{k=0}^{\infty} \norm{C^T P^k Q}^2 \geqslant 0. \end{aligned} \] Значит, квадратичная форма не принимает отрицательных значений, откуда следует, что все собственные числа матрицы $V$ неотрицательны, а из её симметричности следует, что они к тому же вещественные.

    Пусть у матрицы $V$ есть нулевое собственное число. Тогда для собственного вектора $C_0$, соответствующего нулевому собственному числу, выполняется: \[ V C_0 = 0, \] откуда следует, что $C V C_0 = 0$. Значит, \[ C^T P^k Q = 0, \quad k \geqslant 0. \] Значит, \[ C^T \left[ Q, PQ, \dots, P^{n-1} Q \right] = 0, \] но отсюда следует, что \[ \rank \left[ Q, PQ, \dots, P^{n-1} Q \right] \lt n, \] что противоречит полной управляемости.

    Следовательно, нулевых собственных чисел у матрицы $V$ нет, они все положительны, поэтому матрица является положительно-определённой.

    От противного. Пусть $V$ положительно определена, но система не является полностью управляемой. Тогда строки матрицы \[ S = \left[ Q, PQ, \dots, P^{n-1} Q \right] \] линейно зависимы: существует $C \neq 0$ такой, что $C^T S = 0$; значит, \[ C^T Q = 0, \quad C^T P Q = 0, \quad \dots, \quad C^T P^{n-1} Q = 0. \] Отсюда по теореме Гамильтона-Кэли \[ C^T P^k Q = 0, \quad k \geqslant 0. \] Рассмотрим квадратичную форму: \[ \begin{aligned} C^T V C &= C^T \left[ \sum_{k=0}^{\infty} P^k Q Q^T {\left( P^T \right)}^k \right] C = \\ &= \sum_{k=0}^{\infty} \underbrace{C^T P^k Q}_{=0} Q^T {\left( P^T \right)}^k C = \\ &= 0, \end{aligned} \] что противоречит положительной определённости матрицы $V$.
    Грамиан $V$ является решением матричного уравнения Ляпунова: \[ P V P^T - V + Q Q^T = 0. \]
  15. Задача наблюдения в разностных системах. Критерий полной наблюдаемости
    Рассмотрим разностную систему наблюдения: \[ \left\{ \begin{aligned} x[k+1] &= P[k] x[k] + F[k], & k &= \overline{0, m}, \\ y[k] &= R[k] x[k]. \end{aligned} \right. \]
    По наблюдениям $y[0], y[1], \dots, y[m]$ восстановить решение $x[k]$ при $k = \overline{0, m}$.

    Построим решение системы, зависящее от $x[0]$: \[ \begin{aligned} x[1] &= P[0] x[0] + F[0], \\ x[2] &= P[1] \left( P[0] x[0] + F[0] \right) + F[1], \\ &\vdots \\ x[m] &= P[m-1] \cdots P[0] x[0] + P[m-1] \cdots P[1] F[0] + \dots + F[m-1]. \end{aligned} \] Подставим значения $x[k]$ в уравнение наблюдения: \[ \tag{*} \begin{aligned} y[0] &= R[0] x[0], \\ y[1] &= R[1] \left( P[0] x[0] + F[0] \right), \\ &\vdots \\ y[m] &= R[m] P[m-1] \cdots P[0] x[0] + \\ &\phantom{=} + R[m] P[m-1] \cdots P[0] F[0] + \dots + R[m] F[m-1]. \end{aligned} \]

    (критерий полной наблюдаемости разностной системы)
    Система полностью наблюдаема на $[0, m]$ тогда и только тогда, когда \[ \rank \Theta = \rank \begin{bmatrix} R[0] \\ R[1] P[0] \\ R[2] P[1] P[0] \\ \vdots \\ R[m] P[m-1] \cdots P[0] \end{bmatrix} = n. \]
    От противного. Пусть система полностью наблюдаема, но $\rank \Theta \lt n$. Тогда существует некоторый $C \neq 0$ такой, что $\Theta C = 0$, то есть \[ \left\{ \begin{aligned} R[0] C &= 0, \\ R[1] P[0] C &= 0, \\ &\vdots \\ R[m] P[m-1] \cdots P[0] C &= 0. \end{aligned} \right. \] Но тогда для двух разных векторов $x[0] = 0$ и $x[0] = C$ получим одинаковые наблюдения, что противоречит полной наблюдаемости.
    Пусть $\rank \Theta = n$. Из системы $(*)$ можно найти $x[0]$. По построению эта система разрешима, а так как $\rank \Theta = n$, то она разрешима однозначно. Следовательно, зная $x[0]$, однозначно построим решение.
    Рассмотрим наблюдаемую стационарную систему: \[ \left\{ \begin{aligned} x[k+1] &= P x[k] + F, & k &= \overline{0, m}, \\ y[k] &= R x[k]. \end{aligned} \right. \]
    (критерий полной наблюдаемости стационарной системы)
    Стационарная система полностью наблюдаема на $[0, m]$ тогда и только тогда, когда \[ \rank \Theta = \rank \begin{bmatrix} R \\ RP \\ RP^2 \\ \vdots \\ RP^{m-1} \end{bmatrix} = n. \]
    Частный случай критерия полной наблюдаемости нестационарной системы.
  16. Оценка матричной экспоненты
    Расписать.
  17. Оценка решения линейной системы
    Рассмотрим систему \[ \dot x = A x + f(t), \] где $f(t) \in \mathbb{R}^n$ и $t \geqslant 0$. Предположим, что $f(t)$ является кусочно-непрерывной, причём \[ \norm{f(t)} \leqslant \rho e^{\alpha_0 t}, \] где $\alpha_0 \in \mathbb{R}$ и $\rho \gt 0$.
    Пусть $\alpha$ — максимальное вещественное число собственных значений матрицы $A$: \[ \alpha = \max_{i = \overline{1, n}} \Re (s_i), \] тогда для любого $\varepsilon \gt 0$ справедлива оценка: \[ \norm{x(t, x_0)} \leqslant \gamma(x_0) e^{\max\{\alpha + \varepsilon, \alpha_0\} t}, \quad t \geqslant 0. \]
    Запишем формулу Коши: \[ \begin{aligned} x(t, x_0) &= e^{A t} \left( x_0 + \int\limits_{0}^{t} e^{-A \tau} f(\tau) d\tau \right) = \\ &= e^{A t} x_0 + \int\limits_{0}^{t} e^{A (t - \tau)} f(\tau) d\tau = \\ \end{aligned} \] Пусть $\alpha_1 = \max\{ \alpha + \varepsilon, \alpha_0 \}$, тогда \[ \begin{aligned} \norm{x(t, x_0)} &\leqslant \norm{e^{At} x_0} + \norm{\int\limits_{0}^{t} e^{A (t - \tau)} f(\tau) d\tau} \leqslant \\ &\leqslant \norm{e^{At}} \norm{x_0} + \int\limits_{0}^{t} \norm{e^{A (t - \tau)}} \norm{f(\tau)} d\tau \leqslant \\ &\leqslant \gamma \norm{x_0} e^{\alpha_1 t} + \int\limits_{0}^{t} \gamma e^{\alpha_1 (t - \tau)} \rho e^{\alpha_1 t} d\tau = \\ &= \gamma e^{\alpha_1 t} \left[ \norm{x_0} + \rho \int\limits_{0}^{t} e^{\alpha_1 (t - \tau)} d\tau \right] = \\ &= \gamma e^{\alpha_1 t} \left[ \norm{x_0} + \rho e^{\alpha_1 t} \int\limits_{0}^{t} e^{- \alpha_1 \tau} d\tau \right] = \\ &= \gamma e^{\alpha_1 t} \left[ \norm{x_0} + \rho e^{\alpha_1 t} \left( - \frac{1}{\alpha_1} e^{- \alpha_1 t} + \frac{1}{\alpha_1} \right) \right]. \end{aligned} \]
    Довести до ума.
  18. Преобразование Лапласа. Основные свойства
    Пусть $f$ — функция, удовлетворяющая следующим условиям:
    1. $f$ — кусочно-непрерывная;
    2. $f(t) = 0$ при $t \lt 0$;
    3. $\abs{f(t)} \leqslant M e^{\alpha t}$, где $M$ и $\alpha$ — константы.
    Константа $M$ для разных функций может быть разной, но $\alpha$ у всех одинаковая.
    Преобразование Лапласа: \[ \hat f(s) = \int\limits_{0}^{\infty} f(t) e^{-st} dt. \]
    Интеграл сходится абсолютно для всех $s \in \mathbb{C}_\alpha = \set{ \Re s \gt \alpha }$.
    \[ \begin{aligned} \int\limits_{0}^{T} \abs{f(t) e^{-st}} dt &\leqslant M \int\limits_{0}^{T} e^{(\alpha-\Re s)t} dt = \\ &= M \frac{1}{\alpha - \Re s} e^{(\alpha-\Re s) T} - \frac{M}{\alpha - \Re s} \underset{T \to \infty}{\longrightarrow} \frac{M}{\Re s - \alpha} \lt \infty. \end{aligned} \]
    Оператор $\mathcal{L}: f(t) \to \hat f(s)$ называется оператором Лапласа.
    Свойства:
    1. Линейность: $\mathcal{L}(c_1 f_1 + c_2 f_2) = c_1 \mathcal{L}(f_1) + c_2 \mathcal{L}(f_2)$.
    2. Если $f(t) \mapsto \hat f(s)$, то $e^{\alpha t} \mapsto \hat f(s - \alpha)$.
    3. Если $f(t) \mapsto \hat f(s)$, то $\dot f(t) \mapsto s \hat f(s) - f(0)$
    4. Если $f(t) \mapsto \hat f(s)$, то \[ \int\limits_{0}^{t} f(\tau) d\tau \mapsto \frac{\hat f(s)}{s}. \]
      Обозначим искомый образ через $I$. Пользуясь предыдущим свойством и тем, что \[ \frac{d }{d t} \left( \int\limits_{0}^{t} f(\tau) d\tau \right) = f(t), \] получаем \[ \mathcal{L}(f) = s I \implies I = \frac{\hat f(s)}{s}. \]
    5. Дифференцирование по параметру. Пусть $f(t, p) \mapsto \hat f(s, p)$. Тогда \[ \frac{\partial f(t, p)}{\partial p} \mapsto \frac{\partial \hat f(s, p)}{\partial p}. \]
    6. Теорема о свёртке. Пусть \[ h(t) = \int\limits_{0}^{t} f(t - \tau) g(\tau) d\tau = f * g. \] Тогда \[ \hat h (s) = \hat f (s) \cdot \hat g (s). \]
    7. Если $f(t) \mapsto \hat f(s)$, то $f(t - h) \mapsto e^{-h s} \hat f(s)$.
    8. Обратное преобразование: \[ \begin{aligned} f(t) &= \frac{v.p.}{2 \pi i} \int\limits_{\sigma - i\infty}^{\sigma + i\infty} e^{st} \hat f(s) ds = \\ &= \frac{1}{2 \pi i} \lim\limits_{R \to +\infty} \int\limits_{\sigma - i R}^{\sigma + i R} e^{st} \hat f(s) ds. \end{aligned} \] В пределе интегрирование происходит по прямой линии.
  19. Определение передаточной функции (матрицы). Свойства передаточной функции
    Рассмотрим систему \[ \left\{ \begin{aligned} \dot x &= A x + B u + \varphi(t), \\ y &= C x + \psi(t). \end{aligned} \right. \] Обозначим чяерез $\alpha$ максимальную вещественную часть собственных чисел матрицы $A$: \[ \alpha = \max_{i = \overline{1,n}} \Re(\lambda_i). \] Пусть \[ \norm{u(t)} \leqslant M_1 e^{\alpha t}, \quad \norm{\varphi(t)} \leqslant M_2 e^{\alpha t}, \quad \norm{\psi(t)} \leqslant M_3 e^{\alpha t}. \] Тогда \[ \norm{x(t)} \leqslant \gamma(x_0) e^{(\alpha + \varepsilon) t}. \] Возьмём преобразование Лапласа от обеих частей системы: \[ s \hat x(s) - x_0 = A \hat x(s) + B \hat u(s) + \hat \varphi(s). \] Тогда \[ (s E - A) \hat x(s) = x_0 + B \hat u(s) + \hat \varphi(s). \] Поделим на $(s E - A)$: \[ \hat x(s) = {\left( s E - A \right)}^{-1} x_0 + {\left( s E - A \right)}^{-1} B \hat u(s) + {\left( s E - A \right)}^{-1} \hat \varphi(s). \] Образ наблюдения: \[ \begin{aligned} \hat y(s) &= C \hat x(s) + \hat \psi(s) \\ &= C {\left( s E - A \right)}^{-1} x_0 + C {\left( s E - A \right)}^{-1} B \hat u(s) + \\ &\phantom{=} + C {\left( s E - A \right)}^{-1} \hat \varphi(s) + \hat \psi(s) \end{aligned} \]
    Функцию $W(s) = C {\left( s E - A \right)}^{-1} B$ называют передаточной функцией системы от входа $\hat u(s)$ к выходу $\hat y(s)$.
    Свойства.
    1. Передаточная функция представляет из себя дробно-рациональную функцию \[ W(s) = \frac{P(s)}{Q(s)}, \] причём порядок числителя $m$ не превышает порядок знаменателя $n$.
    2. Рассмотрим ${\left( s E - A \right)}^{-1}$: \[ {\left( s E - A \right)}^{-1} = \frac{\adj A}{\det A}, \] следовательно, в знаменателе передаточной функции стоит характеристический полином матрицы $A$. Отсюда заключаем, что передаточная функция определена везде, кроме собственных значений матрицы $A$.
    3. Передаточная функция инвариантна относительно линейных преобразований.
      Рассмотрим неособое преобразование $T$. Сделаем замену: $x = Tz$, получаем систему \[ \left\{ \begin{aligned} \dot z &= T^{-1} A T z + T^{-1} B u, \\ y &= C T z. \end{aligned} \right. \] Найдём передаточную функцию: \[ \begin{aligned} \overline W(s) &= \overline C {\left( s E - \overline A \right)}^{-1} \overline B = \\ &= C T {\left( s T^{-1} T - T^{-1} A T \right)}^{-1} T^{-1} B = \\ &= C T {\left( T^{-1} \left( s - A \right) T \right)}^{-1} T^{-1} B = \\ &= C T T^{-1} {\left(s - A \right)}^{-1} T T^{-1} B = \\ &= C {\left(s - A \right)}^{-1} B = \\ &= W(s). \end{aligned} \]
  20. Физический смысл передаточной функции. Частотная характеристика
    Рассмотрим систему \[ \left\{ \begin{aligned} \dot x &= A x + B u + \varphi(t), \\ y &= C x + \psi(t). \end{aligned} \right. \] Рассмотрим передаточную функцию $W(s) = C {\left( s E - A \right)}^{-1} B$.
    Передаточная функция системы совпадает с передаточной функцией полностью управляемой и полностью наблюдаемой части.
    Известно, что передаточная функция инвариантна относительно неособых линейных преобразований.

    Приведём систему к каноническому разложению преобразованием $T$: \[ \begin{aligned} \dot z &= \overline A z + \overline B, \\ y &= \overline C z, \end{aligned} \] где \[ \overline A = \begin{bmatrix} A_{11} & 0 & A_{13} & 0 \\ A_{21} & A_{22} & A_{23} & A_{24} \\ 0 & 0 & A_{33} & 0 \\ 0 & 0 & A_{43} & A_{44} \end{bmatrix}, \quad \overline B = \begin{bmatrix} B_1 \\ B_2 \\ 0 \\ 0 \end{bmatrix}, \quad \overline C = \left[ C_1, 0, C_3, 0 \right]. \] Найдём передаточную функцию этой системы. Для начала вычислим ${\left( s E - \overline A \right)}^{-1}$: \[ \begin{aligned} {\left( s E - \overline A \right)}^{-1} &= \begin{bmatrix} s E - A_{11} & 0 & - A_{13} & 0 \\ - A_{21} & s E - A_{22} & - A_{23} & - A_{24} \\ 0 & 0 & s E - A_{33} & 0 \\ 0 & 0 & - A_{43} & s E - A_{44} \end{bmatrix}^{-1}. \end{aligned} \] Заметим, что \[ \begin{bmatrix} A & B \\ 0 & C \end{bmatrix} \cdot \begin{bmatrix} A^{-1} & -A^{-1} B C^{-1} \\ 0 & C^{-1} \end{bmatrix} = \begin{bmatrix} E & 0 \\ 0 & E \end{bmatrix} \] и \[ \begin{bmatrix} A & 0 \\ B & C \end{bmatrix} \cdot \begin{bmatrix} A^{-1} & 0 \\ -C^{-1} B A^{-1} & C^{-1} \end{bmatrix} = \begin{bmatrix} E & 0 \\ 0 & E \end{bmatrix}. \] Получаем, что \[ \begin{aligned} {\left( s E - \overline A \right)}^{-1} &= \begin{bmatrix} \left(s E - A_{11}\right)^{-1} & 0 & M_{13} & M_{14} \\ M_{21} & \left(s E - A_{22}\right)^{-1} & M_{23} & M_{24} \\ 0 & 0 & \left(s E - A_{33}\right)^{-1} & 0 \\ 0 & 0 & M_{43} & \left(s E - A_{44}\right)^{-1} \end{bmatrix}, \end{aligned} \] где $M_{ij}$ — некоторые матрицы.

    Далее, вычислим \[ \begin{aligned} \overline C {\left( s E - \overline A \right)}^{-1} &= \begin{bmatrix} C_1 & 0 & C_3 & 0 \end{bmatrix} \begin{bmatrix} \left(s E - A_{11}\right)^{-1} & 0 & M_{13} & M_{14} \\ M_{21} & \left(s E - A_{22}\right)^{-1} & M_{23} & M_{24} \\ 0 & 0 & \left(s E - A_{33}\right)^{-1} & 0 \\ 0 & 0 & M_{43} & \left(s E - A_{44}\right)^{-1} \end{bmatrix} = \\ &= \begin{bmatrix} C_1 \left(s E - A_{11}\right)^{-1} & 0 & C_1 M_{13} + C_3 \left(s E - A_{33}\right)^{-1} & C_1 M_{14} \end{bmatrix}. \end{aligned} \] Домножим теперь справа на $\overline B$: \[ \begin{aligned} \overline W(s) &= \overline C {\left( s E - \overline A \right)}^{-1} \overline B = \\ &= \begin{bmatrix} C_1 \left(s E - A_{11}\right)^{-1} & 0 & C_1 M_{13} + C_3 \left(s E - A_{33}\right)^{-1} & C_1 M_{14} \end{bmatrix} \begin{bmatrix} B_1 \\ B_2 \\ 0 \\ 0 \end{bmatrix} = \\ &= C_1 \left(s E - A_{11}\right)^{-1} B_1. \end{aligned} \]

    Предположим теперь, что управление и наблюдение являются скалярными. Пусть $A$ не имеет чисто мнимых собственных значений.

    Пусть $u = u_0 e^{i \omega t}$ и $x = P e^{i \omega t}$, где $P \in \mathbb{C}^n$ — некоторый вектор. Тогда \[ \begin{gathered} P \cdot i \omega e^{i \omega t} = A P e^{i \omega t} + B u_0 e^{i \omega t}, \\ P \cdot i \omega = A P + B u_0, \\ \left( i \omega E - A \right) P = B u_0, \\ \implies P = {\left( i \omega E - A \right)}^{-1} B u_0. \end{gathered} \] Подставим решение в наблюдение: \[ \begin{aligned} y &= C {\left( i \omega E - A \right)}^{-1} B u_0 e^{i \omega t} = \\ &= W(i \omega) u_0 e^{i \omega t} = \\ &= r(\omega) e^{i \arg W(i \omega)} u_0 e^{i \omega t}. \end{aligned} \] Тогда

    • $r(\omega)$ — амплитудно-частотная характеристика;
    • ${\displaystyle e^{i \arg W(i \omega)}}$ — фазово-частотная характеристика.

  21. Статическая обратная связь. Управляемость и наблюдаемость замкнутой системы
    Рассмотрим управляемую наблюдаемую систему: \[ \begin{aligned} \dot x &= A x + B u, \\ y &= C x. \end{aligned} \] Будем искать управление в виде $u = K y + \overline u$. Подставим его в систему: \[ \dot x = A x + B K C x + B \overline u = (A + B K C) x + B \overline u. \] Обозначим через $A_{\mathrm{cl}} = A + B K C$ матрицу замкнутой системы.
    $\rank (s E - A_\mathrm{cl}, B) = \rank (s E - A, B)$.
    Рассмотрим матрицу слева: \[ \begin{aligned} (s E - A_\mathrm{cl}, B) &= (s E - A - B K C, B) = \\ &= (s E - A, B) \cdot \begin{bmatrix} E & 0 \\ - KC & E \end{bmatrix}. \end{aligned} \] Матрица справа невырожденная, поэтому $\rank (s E - A, B) = \rank (s E - A_\mathrm{cl}, B)$.
    Система полностью управляема тогда и только тогда, когда полностью управляема замкнутая система.
    Критерий Хаутуса в обе стороны.
    Справедливо равенство: \[ \rank \begin{bmatrix} s E - A_\mathrm{cl} \\ C \end{bmatrix} = \rank \begin{bmatrix} s E - A \\ C \end{bmatrix}. \]
    Рассмотрим матрицу слева: \[ \begin{bmatrix} s E - A_\mathrm{cl} \\ C \end{bmatrix} = \begin{bmatrix} s E - A - BKC \\ C \end{bmatrix} = \begin{bmatrix} E & - BK \\ 0 & E \end{bmatrix} \begin{bmatrix} s E - A \\ C \end{bmatrix}. \] Первая матрица в произведении невырождена, поэтому \[ \rank \begin{bmatrix} s E - A_\mathrm{cl} \\ C \end{bmatrix} = \rank \begin{bmatrix} s E - A \\ C \end{bmatrix}. \]
    Система полностью наблюдаема тогда и только тогда, когда замкнутая система полностью наблюдаема.
    Переходим к двойственной и пользуемся предыдущим следствием либо критерием Хаутуса напрямую.
  22. Стабилизация системы со скалярным управлением. Случай управления системы с матрицей Фробениуса
    Рассмотрим управляемую систему \[ \dot y = P_0 y + q_0 u, \] где $u$ — скалярное управление, а матрицы имеют вид \[ P_0 = \begin{bmatrix} 0 & 0 & \dots & 0 & -\alpha_k \\ 1 & 0 & \dots & 0 & -\alpha_{k-1} \\ \dots & \dots & \dots & \dots & \dots \\ 0 & 0 & \dots & 0 & -\alpha_2 \\ 0 & 0 & \dots & 1 & -\alpha_1 \\ \end{bmatrix}, \quad q_0 = \begin{bmatrix} 1 \\ 0 \\ \vdots \\ 0 \end{bmatrix}. \] Матрица $P_0$ называется матрицей Фробениуса или сопровождающей матрицей для полинома \[ f_0(\lambda) = \det (\lambda E - P_0) = \lambda^k + \alpha_1 \lambda^{k-1} + \dots + \alpha_k. \]
    Для любого набора комплексных чисел $\mu_1, \dots, \mu_k$ найдётся строка $c_0$ такая, что собственные числа матрицы замкнутой системы $P_0 + q_0 c_0$ будут совпадать с $\mu_1, \dots, \mu_k$.
    Построим замену переменных \[ y = K_0 z, \] в результате которой матрица новой системы будет совпадать с $P_0^T$. Это возможно при \[ K_0 = \begin{bmatrix} \alpha_{k-1} & \alpha_{k-2} & \dots & \alpha_1 & 1 \\ \alpha_{k-2} & \alpha_{k-3} & \dots & 1 & 0 \\ \dots & \dots & \dots & \dots & \dots \\ \alpha_{1} & 1 & \dots & 0 & 0 \\ 1 & 0 & \dots & 0 & 0 \end{bmatrix}. \] Она найдена как решение линейного матричного уравнения \[ K_0 P_0^T = P_0 K_0. \] Вектор $q_0$ перейдёт в вектор \[ \overline q_0 = K_0^{-1} q_0 = \begin{bmatrix} 0 \\ \dots \\ 0 \\ 1 \end{bmatrix}. \] После замены получем систему \[ \dot z = P_0^T z + \overline q_0 u. \] Построим для неё управление вида $u = \gamma z$, обеспечивающее ей собственные числа $\mu_1, \dots, \mu_k$. Матрица замкнутой системы примет вид \[ P_0^T + \overline q_0 \gamma = \begin{bmatrix} 0 & 1 & \dots & 0 \\ \dots & \dots & \dots & \dots \\ 0 & \dots & 0 & 1 \\ -(\alpha_k - \gamma_1) & -(\alpha_{k-1} - \gamma_2) & \dots & -(\alpha_1 - \gamma_k) \end{bmatrix} \] будет сопровождающей матрицей для полинома \[ f(\lambda) = \lambda^k + (\alpha_1 - \gamma_k) \lambda^{k-1} + \dots + (\alpha_k - \gamma_1) = \det (\lambda E - P_0^T - \overline q_0 \gamma). \] Построим эталонный многочлен с заданными комплексными числами: \[ f_\mathrm{э}(\lambda) = (\lambda - \mu_1) \cdot \dots \cdot (\lambda - \mu_k) = \lambda^k + \beta_1 \lambda^{k-1} + \dots + \beta_k. \] Чтобы найти строку $\gamma$, приравняем коэффициенты: \[ \gamma_1 = \alpha_k - \beta_k, \quad \dots, \quad \gamma_k = \alpha_1 - \beta_1. \] Учитывая замену переменных, получаем искомое управление: \[ u = \gamma z = \gamma K_0^{-1} y, \] откуда $c_0 = \gamma K_0^{-1}$.
  23. Стабилизация полностью управляемой системы со скалярным управлением
    Рассмотрим управляемую систему \[ \dot y_1 = P_{11} y_1 + Q_1 u, \] где $P_{11}$ и $Q_1$ — матрицы $m \times m$ и $m \times r$ соответственно.
    В управляемой системе выбором управления $u = C_1 y_1$ можно обеспечить любой наперёд заданный набор собственных чисел $\mu_1, \dots, \mu_m$.
    Система управляемая, поэтому по критерию Калмана \[ \rank \left[ Q_1, P_1 Q_1, \dots, P^{m-1} Q_1 \right] = m. \] Делаем замену переменных: $y_1 = T_1 z_1$, где \[ T = \left[ q_1, P_{11} q_1, \dots, P_{11}^{k_1 - 1} q_1, \dots, q_l, P_{11} q_l, \dots, P_{11}^{k_l - 1} q_l \right], \] где $q_1, \dots, q_l$, $1 \leqslant l \leqslant r$ — столбцы матрицы $Q_1$.

    Первая цепочка из $k_1$ векторов \[ q_1, P_{11} q_1, \dots, P_{11}^{k_1 - 1} q_1 \] формируется до тех пор, пока остаётся линейно независимой. Как только появляется линейно зависимый вектор $P_{11}^{k_1} q_1$, процесс останавливается, $k_1$ фиксируется.

    Если $k_1 \lt n$, то добавляем цепочку из $k_2$ вектров, образованную вектором $q_2$.

    Заканчиваем формирование матрицы $T_1$, когда при некотором $l$ выполняется условие \[ k_1 + k_2 + \dots + k_l = m. \]

    После замены получаем систему \[ \dot z_1 = \widetilde P_{11} z_1 + \widetilde Q_1 u, \] где \[ \widetilde P_{11} = T_1^{-1} P_{11} T_1, \quad \widetilde Q_1 = T_1^{-1} Q_1. \]

    Теперь надо выяснить структуру $\widetilde P_{11}$ и $\widetilde Q_1$. Начнём с первой матрицы, рассмотрим $T_1 \widetilde P_{11} = P_{11} T_1$ по столбцам.

    Здесь $\widetilde p_1$ — вектор коэффициентов разложения вектора $P_{11} q_1$ по столбцам $T_1$. Заметим, что $P_{11} q_1$ — второй столбец в $T_1$, поэтому \[ \widetilde p_1 = \begin{bmatrix} 0 \\ 1 \\ 0 \\ \dots \\ 0 \\ 0 \end{bmatrix}. \] Аналогично для $2, \dots, k_1 - 1$. Смотрим на $k_1$-ый столбец: \[ T_1 \widetilde p_{k_1} = P_{11} P_{11}^{k_1 - 1} q_1 = P_{11}^{k_1} q_1. \] Разложение вектора $P_{11}^{k_1} q_1$ по столбцам $T_1$ уже известно из теоремы Гамильтона-Кэли, поэтому \[ \widetilde p_{k_1} = \begin{bmatrix} -\alpha_{k_1}^{(1)} \\ -\alpha_{k_1-1}^{(1)} \\ \vdots \\ -\alpha_{1}^{(1)} \\ 0 \\ 0 \\ 0 \end{bmatrix} \]

    Дальше с $k_1 + 1$ до $k_1 + k_2$ шага всё аналогично, но уже для второй группы столбцов, и так далее.

    Получается, что после замены переменных матрица $\widetilde P_{11}$ будет блочно-треугольной, на диагонали будут стоять матрицы Фробениуса вида \[ \begin{aligned} \widetilde P_{11}^{(1)} &= \begin{bmatrix} 0 & 0 & 0 & \dots & 0 & -\alpha_{k_1}^{(1)} \\ 1 & 0 & 0 & \dots & 0 & -\alpha_{k_1-1}^{(1)} \\ \dots & \dots & \dots & \dots & \dots & \dots \\ 0 & 0 & 0 & \dots & 1 & -\alpha_{1}^{(1)} \\ \end{bmatrix}, \\ \widetilde P_{11}^{(2)} &= \begin{bmatrix} 0 & 0 & 0 & \dots & 0 & -\alpha_{k_2}^{(2)} \\ 1 & 0 & 0 & \dots & 0 & -\alpha_{k_2-1}^{(2)} \\ \dots & \dots & \dots & \dots & \dots & \dots \\ 0 & 0 & 0 & \dots & 1 & -\alpha_{1}^{(2)} \\ \end{bmatrix}, \\ &\vdots \\ \widetilde P_{11}^{(l)} &= \begin{bmatrix} 0 & 0 & 0 & \dots & 0 & -\alpha_{k_l}^{(l)} \\ 1 & 0 & 0 & \dots & 0 & -\alpha_{k_l-1}^{(l)} \\ \dots & \dots & \dots & \dots & \dots & \dots \\ 0 & 0 & 0 & \dots & 1 & -\alpha_{1}^{(l)} \\ \end{bmatrix}. \end{aligned} \] Размеры блоков: $(k_1 \times k_1), \dots, (k_l, k_l)$ соответственно.

    Тогда \[ \widetilde P_{11} = \begin{bmatrix} \widetilde P_{11}^{(1)} & * & \dots & * \\ 0 & \widetilde P_{11}^{(2)} & \dots & * \\ \dots & \dots & \dots & \dots \\ 0 & 0 & \dots & \widetilde P_{11}^{(l)} \end{bmatrix}. \] Это представление называется обобщённой формой Фробениуса.

    Теперь анализируем структуру матрицы $\widetilde Q_1$. Рассматриваем $T_1 \widetilde Q_1 = Q_1$. Смотрим первый столбец: \[ T_1 \widetilde q_1 = q_1. \] но $q_1$ — первый столбец в $T_1$, поэтому \[ \widetilde q_1 = \begin{bmatrix} 1 \\ 0 \\ \dots \\ 0 \end{bmatrix}. \] Аналогично со вторым: \[ \widetilde q_2 = \begin{bmatrix} 0 \\ \dots \\ 0 \\ 1 \\ 0 \\ \dots \\ 0 \end{bmatrix}. \] И так далее. Единицы стоят в местах с индексами $1, k_1 + 1, \dots, k_1 + k_2 + \dots + k_{l-1} + 1$.

    Тут есть два варианта формирования $T_1$: когда $l = r$ и когда $l \lt r$. В первом варианте \[ \widetilde Q_1 = \begin{bmatrix} e_1 & 0 & \dots & 0 \\ 0 & e_2 & \dots & 0 \\ \dots & \dots & \dots & \dots \\ 0 & 0 & 0 & e_l \end{bmatrix}, \] где $e_k$ — единичные векторы размерностей $k_1, \dots, k_l$ соответственно.

    Во втором случае нам нужно продолжить анализировать столбцы, но так как они уже не встречаются в $T_1$, то там будет произвольное разложение, то есть \[ \widetilde Q_1 = \begin{bmatrix} e_1 & 0 & \dots & 0 & * & \dots & * \\ 0 & e_2 & \dots & 0 & * & \dots & * \\ \dots & \dots & \dots & \dots & \dots & \dots & \dots \\ 0 & 0 & 0 & e_l & * & \dots & * \end{bmatrix}, \]

    Теперь рассмотрим допустимое управление с учётом замены: \[ u = C_1 y_1 = C_1 T_1 z_1 = \widetilde C_1 z_1, \qquad \widetilde C_1 = C_1 T_1. \] Запишем замкнутую систему: \[ \dot z_1 = \left( \widetilde P_{11} + \widetilde Q_1 \widetilde C_1 \right) z_1. \] Задача свелась к поиску матрицы $\widetilde C_1$, чтобы матрица замкнутой системы имела наперёд заданные собственные числа $\mu_1, \dots, \mu_m$.

    Если $l = r$, то ищем в виде \[ \widetilde C_1 = \begin{bmatrix} c_1 & 0 & \dots & 0 \\ 0 & c_2 & \dots & 0 \\ \dots & \dots & \dots & \dots \\ 0 & 0 & \dots & c_l \end{bmatrix}, \] где $c_1, \dots, c_l$ — строки длины $k_1, \dots, k_l$, а остальное заполнено нулями.

    Если $l \lt r$, то ищем так: \[ \widetilde C_1 = \begin{bmatrix} c_1 & 0 & \dots & 0 \\ 0 & c_2 & \dots & 0 \\ \dots & \dots & \dots & \dots \\ 0 & 0 & \dots & c_l \\ 0 & 0 & \dots & 0 \\ \dots & \dots & \dots & \dots \\ 0 & 0 & \dots & 0 \end{bmatrix}, \] где нижний нулевой блок имеет размерность $(r - l) \times m$.

    Итак, с учётом проведённого анализа матрица замкнутой системы примет вид \[ \begin{bmatrix} \widetilde P_{11}^{(1)} + e_1 c_1 & * & \dots & * \\ 0 & \widetilde P_{11}^{(2)} & \dots + e_2 c_2 & * \\ \dots & \dots & \dots & \dots \\ 0 & 0 & \dots & \widetilde P_{11}^{(l)} + e_l c_l \end{bmatrix}. \] Это справедливо как в случае $l = r$, так и в случае $l \lt r$.

    Теперь отметим, что спектр матрицы замкнутой системы совпадает с объединением спектров диагональных блоков $\widetilde P_{11}^{(k)} + e_k c_k$, решаем как было сказано в предыдущем билете, то есть строим характеристический полином, эталонный характеристический полином и приравниваем их.

    В конце формируем матрицу $\widetilde C_{1}$, находим $C_1 = \widetilde C_1 T_1^{-1}$ и получаем искомое управление: \[ u = \widetilde C_1 T_1^{-1} y. \]

  24. Стабилизация не полностью управляемой системы со скалярным управлением
    Для того чтобы существовало стабилизирующее управление $u = Cx$ для системы \[ \dot x = P x + Q u, \] необходимо и достаточно, чтобы вещественные части неуправляемых собственных чисел были отрицательны.
    Если существует хотя бы одно неуправляемое число с неотрицательной вещественной частью, то система будет иметь это собственное чисто в своём спектре вне зависимости от выбора управления, поэтому асимптотической устойчивости не добиться никак.
    В случае, когда условие теоремы выполняется, программное управление можно построить конструктивно.
    Если система полностью управляема, то она стабилизируема управлением вида $u = Cx$.
    (алгоритм построения стабилизирующего управления)
    1. Строим матрицу замены переменных $T$. Два возможных варианта:
      1. система полностью управляема, тогда \[ T = \left[ q_1, Pq_1, \dots, P^{k_1-1} q_1, \dots, q_l, Pq_l, \dots, P^{k_l-1} q_l \right] \] и $k_1 + \dots + k_l = n$;
      2. система не полностью управляема, тогда строим столько можем, остальное добиваем до базиса $\mathbb{R}^n$: \[ T = \left[ q_1, Pq_1, \dots, P^{k_1-1} q_1, \dots, q_l, Pq_l, \dots, P^{k_l-1} q_l, \widetilde s_{m+1}, \dots, \widetilde s_n, \right] \] где $k_1 + \dots + k_l = m = \rank K$ — ранг матрицы Калмана.
      Делаем замену: $x = T y$.
    2. Строим матрицу системы после замены переменных: $\overline P = T^{-1} P T$, можно решать $n$ алгебраических систем вида $T \overline P = P T$ относительно столбцов $\overline P$ методом Гаусса.
      1. Если полная управляемость, то $\overline P$ — блочно-диагональная с матрицами Фробениуса.
      2. Если не полная управляемость, то $\overline P$ — блочно-диагональная с матрицами Фробениуса, но последний блок будет соответствовать неуправляемой подсистеме.
    3. Если не полная управляемость, надо найти собственные числа неуправляемого блока и проверить, что их вещественные части меньше нуля. Если это не так, то стабилизирующее управление построить невозможно.
    4. Строим матрицу $K$:
      1. в случае полной управляемости строим как $K = \diag (K_1, \dots, K_l)$, где каждый блок выглядит как \[ K_0 = \begin{bmatrix} \alpha_{k-1} & \alpha_{k-2} & \dots & \alpha_1 & 1 \\ \alpha_{k-2} & \alpha_{k-3} & \dots & 1 & 0 \\ \dots & \dots & \dots & \dots & \dots \\ \alpha_{1} & 1 & \dots & 0 & 0 \\ 1 & 0 & \dots & 0 & 0 \end{bmatrix}, \] где альфы надо взять из соответствующего блока Фробениуса;
      2. если не полная управляемость, то делаем то же самое для всех фробениусовых блоков и докидываем последним блоком единичную матрицу: $K = \diag (K_1, \dots, K_l, E_{n - m})$. Ставим единичную, так как преобразование неуправляемого блока смысла не имеет.
      Проводим замену $y = K z$.
    5. Каждому диагональному блоку полученной матрицы ставим в соответствие эталонный многочлен степени $k_s$, приравниваем его к тому многочлену, что получили в блоке, отсюда находим коэффициенты.
    6. Далее из полученных строчек $\gamma_s$ строим $(r \times n)$ матрицу: \[ \Gamma = \begin{bmatrix} \gamma_1 & 0 & \dots & 0 \\ 0 & \gamma_2 & \dots & 0 \\ \dots & \dots & \dots & \dots \\ 0 & 0 & \dots & \gamma_l \\ 0 & 0 & \dots & 0 \\ 0 & 0 & \dots & 0 \\ \dots & \dots & \dots & \dots \\ 0 & 0 & \dots & 0 \\ \end{bmatrix} \], или, если не полная управляемость, то \[ \Gamma = \begin{bmatrix} \gamma_1 & 0 & \dots & 0 & 0 \\ 0 & \gamma_2 & \dots & 0 & 0\\ \dots & \dots & \dots & \dots & \dots \\ 0 & 0 & \dots & \gamma_l & 0 \\ 0 & 0 & \dots & 0 & 0 \\ 0 & 0 & \dots & 0 & 0 \\ \dots & \dots & \dots & \dots & \dots \\ 0 & 0 & \dots & 0 & 0 \\ \end{bmatrix} \],
    7. Находим искомое управление: \[ u = \Gamma z = \Gamma K^{-1} y = \Gamma K^{-1} T^{-1} x = C x, \] где $C = \Gamma K^{-1} T^{-1}$.
  25. Первая каноническая форма Зубова
  26. Вторая каноническая форма Зубова
  27. Критерий Найквиста
  28. Стабилизация по выходу. Пример полностью управляемой и полностью наблюдаемой системы, не стабилизируемой по выходу. Наблюдатель Люенбергера
    Рассмотрим управляемую систему: \[ \dot x = A x + B u. \] Будем искать управление в виде $u = Kx$.
    Если система полностью управляемая, тогда подбором $K$ можно получить произвольный спектр замкнутой системы.
    Это означает, что из полной управляемости следует стабилизируемость. Обратное, вообще говоря, неверно.
    Рассмотрим матрицу Хаутуса: $(sE - A, B)$.
    Система стабилизируема тогда и только тогда, когда $\rank (sE - A, B) = n$ для всех неустойчивых собственных чисел матрицы $A$.
    Рассмотрим систему \[ A = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 1 & -1 & 1 \end{pmatrix}, \quad b = \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}, \quad C = \begin{pmatrix} 0 & 0 & 1 \end{pmatrix}. \]

    Проверим полную управляемость: \[ K = \begin{bmatrix} 0 & 0 & 1 \\ 0 & 1 & 1 \\ 1 & 1 & 0 \end{bmatrix}, \quad \rank K = 3 = n, \] следовательно, система полностью управляема.

    Проверим полную наблюдаемость: \[ K = \begin{bmatrix} 0 & 0 & 1 \\ 1 & -1 & 1 \\ 1 & 0 & 0 \end{bmatrix}, \quad \rank K = 3 = n, \] следовательно, система полностью наблюдаема.

    Собственные числа матрицы $A$: 1, i, -i. Проверим неустойчивые собственные числа, посчитав ранг матрицы Хаутуса: \[ \rank (E - A, B) = 3, \quad \rank (Ei - A, B) = 3. \]
    Тут по идее должно быть нестабилизируемо?

    Рассмотрим теперь вспомогательную систему вида \[ \dot{\hat x} = A \hat x + B u + L(y - C \hat x), \] где матрица $L$ подлежит определению.

    Данная система называется динамическим наблюдателем Люенбергера.
  29. Динамическая стабилизация по выходу полностью управляемой и полностью наблюдаемой системы
    Рассмотрим систему без управления: \[ \begin{aligned} \dot x &= A x, \\ y &= C x, \\ \dot{\hat x} &= A \hat x + L(y - C \hat x). \end{aligned} \]
    Величина $e = x - \hat x$ называется невязкой.
    Продифференцируем: \[ \begin{aligned} \dot e &= \dot x - \dot{\hat x} = A x - A \hat x - L(y - C \hat x) = \\ &= \dot x - \dot{\hat x} = A x - A \hat x - L(C x - C \hat x) = \\ &= (A - LC) e. \end{aligned} \]
    Пусть система полностью наблюдаема, тогда выбором матрицы $L$ можно получить произвольный спектр матрицы $A - LC$.
    Если пара $(A, C)$ полностью наблюдаема, то пара $(A^T, C^T)$ полностью управляема. Следовательно, двойственная система стабилизируема. Выберем $K$ таким образом, чтобы матрица $A^T + C^T K$ имела заданный спектр: \[ (A^T + C^T K)^T = A + K^T C = A - LC, \] если положить $L = -K^T$.

    Так как $\sigma(Y) = \sigma(Y^T)$, то \[ \sigma(A^T C^T K) = \sigma(A - LC). \]

    Рассмотрим теперь управляемую и наблюдаемую систему: \[ \tag{2} \begin{aligned} \dot x &= A x + B u, \\ y &= C x, \\ \dot{\hat x} &= A \hat x + B u + L(y - C \hat x). \end{aligned} \] Введём невязку: $e(t) = x(t) - \hat x(t)$, отсюда $\hat x(t) = x(t) - e(t)$.

    Пусть $u = K \hat x$, тогда \[ \dot x = Ax + B K \hat x = Ax + B K (x - e) = (A + BK) x - BK e. \] Теперь продифференцируем выражение с невязкой: \[ \dot{\hat x} = \dot x - \dot e = A \hat x + B K \hat x + L(C x - C \hat x). \] С другой стороны, \[ \dot{\hat x} = A x + B u - \dot e. \] Приравниваем: \[ \begin{aligned} A x + B u - \dot e &= A (x - e) + B K (x - e) + LC e, \\ A x + \cancel{B K (x - e)} - \dot e &= A (x - e) + \cancel{B K (x - e)} + LC e, \\ -\dot e &= - A e + LC e, \\ \dot e &= (A - LC) e. \end{aligned} \] В итоге получаем следующую систему: \[ \begin{aligned} \dot x &= (A + B K) x - BK e, \\ \dot e &= (A - LC) e. \end{aligned} \] Пусть \[ z = \begin{bmatrix} x \\ e \end{bmatrix}, \] тогда её можно представить в следующем виде: \[ \dot z = A_\mathrm{cl} z, \] где \[ A_\mathrm{cl} = \begin{bmatrix} A + BK & - BK \\ 0 & A - LC \end{bmatrix}. \] Значит, \[ \sigma(A_\mathrm{cl}) = \sigma(A + BK) \cup \sigma(A - LC). \]

    Если система $(2)$ полностью наблюдаема и полностью управляема, то при помощи динамического наблюдателя и выбора матриц $K$ и $L$ можно стабилизировать систему, используя стационарную (статическую) обратную связь по динамическому наблюдателю: $u = K \hat x$.
  30. Свойства Кронекерова (прямого) произведения матриц
    Рассмотрим матрицы $A \in \mathbb{R}^{m \times n}$ и $B \in \mathbb{R}^{n \times n}$.
    Кронекеровым (прямым) произведением матриц $A$ и $B$ называется матрица вида \[ A \otimes B = \begin{bmatrix} a_{11} B & a_{12} B & \dots & a_{1m} B \\ a_{21} B & a_{22} B & \dots & a_{2m} B \\ \dots & \dots & \dots & \dots \\ a_{m1} B & a_{m2} B & \dots & a_{mm} B \end{bmatrix}. \] Размерность матрицы $\dim A \otimes B = mn \times mn$.
    Пусть \[ A = \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{bmatrix} \quad \text{и} \quad B = \begin{bmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \end{bmatrix}, \] тогда \[ A \otimes B = \begin{bmatrix} a_{11} b_{11} & a_{11} b_{12} & a_{12} b_{11} & a_{12} b_{12} \\ a_{11} b_{21} & a_{11} b_{22} & a_{12} b_{21} & a_{12} b_{22} \\ a_{21} b_{11} & a_{21} b_{12} & a_{22} b_{11} & a_{22} b_{12} \\ a_{21} b_{21} & a_{21} b_{22} & a_{22} b_{21} & a_{22} b_{22} \end{bmatrix}. \]
    Свойства:
    1. Элемент матрицы $A \otimes B$ с индексами $k, l$ задаётся следующим образом: \[ (A \otimes B)_{kl} = a_{ri} b_{sj}, \] где \[ k = (r - 1) n + s, \quad l = (i - 1) n + j, \qquad r, i = \overline{1, m}, \quad s, j = \overline{1, n}. \]
    2. $(A + B) \otimes C = A \otimes C + B \otimes C$.
    3. $A \otimes (B + C) = A \otimes B + A \otimes C$.
    4. $(\mu A) \otimes B = \mu (A \otimes B) = A \otimes (\mu B)$.
    5. $(A \otimes B) \otimes C = A \otimes (B \otimes C)$.
    6. $(A \otimes B)^T = A^T \otimes B^T$.
    7. $A \otimes B \neq B \otimes A$.
    Пусть $A, C \in \mathbb{R}^{m \times m}$ и $B, D \in \mathbb{R}^{n \times n}$. Тогда \[ (A \otimes B) (C \otimes D) = AC \otimes BD. \]
    Расписать.
    $A \otimes B = (A \otimes E_n) (E_m \otimes B)$.
    $\det (A \otimes B) = (\det A)^n (\det B)^m$.
    $(A \otimes B)^{-1} = A^{-1} \otimes B^{-1}$.
    $(A_1 \otimes B_1) (A_2 \otimes B_2) \cdots (A_k \otimes B_k) = (A_1, \dots, A_k) \otimes (B_1, \dots, B_k)$.
    Рассмотрим некоторую билинейную форму \[ \varphi(x, y) = \sum_{i,j = 0}^{r} c_{ij} x^i y^j, \] где $c_{ij}$ — комплексные коэффициенты. Тогда \[ \varphi(A, B) = \sum_{i,j = 0}^{r} c_{ij} A^i B^j. \]
    Если $\varphi(x, y) = 2x + x^2 y$, то $\varphi(A, B) = 2 A \otimes E_n + A^2 \otimes B$.
  31. Теорема о собственных значениях составных матриц
    Пусть $\lambda_1, \dots, \lambda_m$ — собственные значения матрицы $A$ и $\mu_1, \dots, \mu_n$ — собственные значения матрицы $B$. Тогда собственными значениями матрицы $\varphi(A, B)$ будет множество чисел $\varphi(\lambda_i, \mu_j)$ для всех $i = \overline{1,m}$ и $j = \overline{1,n}$.
    Преобразуем матрицы $A$ и $B$ к жордановым формам: \[ J_1 = P A P^{-1}, \quad J_2 = Q B Q^{-1}. \] Тогда $J_1 \otimes J_2$ будет верхнетреугольной, а на диагонали будут стоять числа $\lambda_r^i \mu_s^j$.
    Собственными значениями произведения $A \otimes B$ являются $\lambda_i \mu_j$.
    Надо рассмотреть функцию $\varphi(x,y) = xy$.
    Собственными значениями суммы \[ (A \otimes E_n) + (E_m \otimes B) \] являются числа $\lambda_i + \mu_j$.
    Надо рассмотреть функцию $\varphi(x,y) = x + y$.
    Дописать.
  32. Теорема о разрешимости матричных уравнений вида $AX + XB = C$
    Матричное уравнение $AX + XB = C$ имеет единственное решение, если $A, -B$ не имеют общих собственных значений.
    Рассмотрим левую часть уравнения: \[ AX + XB = AX I + I XB = C. \] Пусть \[ Q = A \otimes I + I \otimes B^T. \] Пользуясь этим обозначением, исходное уравнение можно записать в виде \[ Q X = C. \] Его решение существует и единственно тогда и только тогда, когда собственные числа матрицы $\gamma_{sr} = \varphi(A, B) \neq 0$, то есть матрица невырождена.

    Пусть \[ \varphi(A, B) = \sum_{ij}^{} c_{ij} A^i \otimes B^j. \] Тогда собственные числа имеют вид \[ \varphi(\lambda_r, \mu_s) = \sum_{ij}^{} c_{ij} \lambda_r^i \mu_s^j. \] Но \[ Q = A \otimes I + I \otimes B^T = \varphi(A, B^T), \] то есть $\varphi(x, y) = x + y$.

    От транспонирования матрицы собственные числа не меняются, поэтому если $\mu_s$ — собственные числа $B$, то они же будут являться собственными числами $B^T$.

    Значит, собственные числа матрицы $Q$ имеют вид: \[ \gamma_{sr} = \lambda_s + \mu_r. \] Чтобы система имела единственное решение, требуется, чтобы $\gamma_{sr} \neq 0$, откуда следует, что $\lambda_s \neq - \mu_r$.

    Пусть $A$ и $B$ — гурвицевы. Тогда решение матричного уравнения $AX + XB = C$ существует и единственно, причём \[ X = - \int\limits_{0}^{\infty} e^{At} C e^{Bt} dt. \]
    Так как матрицы $A$ и $B$ гурвицевы, то собственные значения матриц $A$ и $-B$ не могут совпасть.

    Рассмотрим теперь подынтегральное выражение: \[ \begin{aligned} \frac{d }{d t} \left( e^{At} C e^{Bt} \right) &= A e^{At} C e^{Bt} + e^{At} C \left(B e^{Bt}\right) = \\ &= A e^{At} C e^{Bt} + e^{At} C e^{Bt} B. \end{aligned} \]

    Из гурвицевости матрицы $A$ следует, что $\alpha = \max \Re \lambda_j \lt 0$. Следовательно, \[ \norm{e^{At}} \leqslant \gamma(\varepsilon) e^{(\alpha + \varepsilon) t}. \] Аналогично и для матрицы $B$, поэтому следующий несобственный интеграл сходится: \[ \begin{aligned} \int\limits_{0}^{\infty} A e^{At} C e^{Bt} dt + \int\limits_{0}^{\infty} e^{At} C e^{Bt} B dt &= \int\limits_{0}^{\infty} \left[ A e^{At} C e^{Bt} dt + e^{At} C e^{Bt} B \right] dt \\ &= \left. e^{At} C e^{Bt} \right|_{0}^{\cancel \infty} = -C, \end{aligned} \] поэтому \[ X = - \int\limits_{0}^{\infty} e^{At} C e^{Bt} dt. \]
  33. Теорема о разрешимости матричных уравнений вида $A^T X + XA = C$ для гурвицевой матрицы $A$
    Рассмотрим систему \[ \dot x = A x. \] Зададим функцию Ляпунова в виде квадратичной формы: \[ v(t) = x^T V x, \] где $V = V^T$ — симметричная матрица.

    Найдём производную в силу системы: \[ \begin{aligned} \frac{d }{d t} v(t) &= \dot x^T V x + x^T V \dot x = \\ &= x^T A^T V x + x^T V A x = \\ &= x^T (A^T V + V A) x = \\ &= -x^T W x, \end{aligned} \] где $A^T V + V A = -W$.

    1. Если $A$ — гурвицева и $W$ — положительно определена (неотрицательно определена), тогда существует единственное положительно определённое (неотрицательно определённое) решение $V$ матричного уравнения Ляпунова.
    2. Если $V$ — положительно определена и найдём такое $W$, что $-W = A^T V + V A$, причём для всех различных собственных значений матрицы $A$ существует собственный вектор $a$, для которого выполняется неравенство $a^T W a \gt 0$, то матрица $A$ — гурвицева.
    1. Решение матричного уравнения существует и единственно и имеет вид \[ V = \int\limits_{0}^{\infty} e^{A^T t} W e^{A t} dt. \] Рассмотрим некоторый $\xi \neq 0$, составим квадратичную форму: \[ \begin{aligned} \xi^T V \xi &= \int\limits_{0}^{\infty} \xi^T e^{A^T t} W e^{A t} \xi dt = \\ &= \int\limits_{0}^{\infty} \eta^T(t) W \eta(t) dt, \end{aligned} \] где $\eta(t) = e^{At} \cdot \xi$.
      • Если $W \gt 0$, то $\xi^T V \xi \gt 0$.
      • Если $W \geqslant 0$, то $\xi^T V \xi \geqslant 0$.
    2. Пусть $\lambda$ — собственное значение матрицы $A$, которому соответствует собственный вектор $a$. Тогда \[ A a = \lambda a, \qquad a^T A^T = \overline \lambda a^T. \]

      Тогда \[ \begin{aligned} a^T \left( A^T V + V A \right) a &= \left( a^T A^T V + a^T V A \right) a = \\ &= \left( \overline \lambda a^T V + a^T V A \right) a = \\ &= \overline \lambda a^T V a + a^T V A a = \\ &= \overline \lambda a^T V a + \lambda a^T V a = \\ &= (\overline \lambda + \lambda) a^T V a = \\ &= 2 \Re \lambda a^T V a. \end{aligned} \] Заметим, что $a^T V a \gt 0$ в силу положительной определённости $V$. С другой стороны, \[ a^T \left( A^T V + V A \right) a = - a^T W a \lt 0, \] откуда следует, что $\Re \lambda \lt 0$, то есть матрица $A$ — гурвицева.

    Рассмотрим $A^T X + X A = -W$.

    $W$ положительно определена и $A$ гурвицева тогда и только тогда, когда матричное уравнение имеет положительно определённое решение $V$.

    Следует из условия 1 предыдущей теоремы.
    Следует из условия 2 предыдущей теоремы.
  34. Лемма о разрешимости матричного неравенства вида $a^t x + xa \leqslant c^t c$ для наблюдаемой пары $(a, c)$
  35. Стабилизация полностью наблюдаемой системы в терминах матричного уравнения Лурье—Риккати
  36. Теорема Ляпунова об устойчивости нулевого решения
    Рассмотрим систему \[ \tag{*} \dot x = f(t, x), \] где $x \in \mathbb{R}^n$ и $t \geqslant 0$.
    Движение $x = \overline x(t)$ называют устойчивым по Ляпунову, если для любого $t_0 \gt 0$ и любого $\varepsilon \gt 0$ существует $\delta = \delta(t_0, \varepsilon) \gt 0$ такое, что при \[ \norm{x_0 - \overline x_0} \lt \delta(t_0, \varepsilon) \] будет \[ \norm{x(t, t_0, x_0) - \overline x(t)} \lt \varepsilon \] при $t \geqslant t_0$, где $x(t, t_0, x_0)$ — возмущённое движение, проходящее через точку $x_0$ в момент времени $t_0$.

    Пусть \[ \Lambda = \set{ (t, x) | t \geqslant 0, \norm{x} \leqslant m }. \]

    Функция $V(t, x)$, определённая в $\Lambda$ и непрерывная в $\Lambda$ по $t$ и $x$, называется положительно или отрицательно определённой, если существует непрерывная функция $\gamma(x)$ такая, что
    1. $V(t, x) \geqslant \gamma(x) \gt 0$ или $V(t, x) \leqslant -\gamma(x) \lt 0$ при $\norm{x} \neq 0$;
    2. $V(t, 0) = \gamma(0) = 0$.
    Пусть система имеет нулевое решение и пусть существует непрерывно-дифференцируемая функция Ляпунова $V(t, x)$ такая, что
    1. $V(t, x)$ — положительно определённая;
    2. $\left. \dot V(t, x) \right|_{(*)}$ знакоотрицательная, то нулевое решение системы устойчиво по Ляпунову.
    Из положительной определённости функции $V(t, x)$ по определению следует, что существует функция $\gamma(x)$ такая, что \[ V(t, x) \geqslant \gamma(x) \gt 0 \quad \text{для всех} \quad \norm{x} \neq 0 \] и \[ V(t, 0) = \gamma(0) = 0. \] Рассмотрим в пространстве $\mathbb{R}^n$ сферу $S_\varepsilon$: \[ \norm{x} = \varepsilon, \] где $0 \lt \varepsilon \leqslant m \lt M$.

    Так как сфера — компактное множество, а функция $\gamma(x)$ непрерывна, то по теореме Вейерштрасса нижняя грань этой функции достигается в некоторой точке $x^* \in S_\varepsilon$, поэтому \[ \min_{x \in S_\varepsilon} \gamma(x) = \gamma(x^*) = \alpha \gt 0. \]

    Рассмотрим произвольный момент времени $t_0 \in (0, \infty)$. Функция $V(t_0, x)$ непрерывна по $x$, причём $V(t_0, 0) = 0$. Следовательно, существует окрестность $\norm{x} \lt \delta \lt \varepsilon$ такая, что \[ 0 \leqslant V(t_0, x) \lt \alpha \quad \text{при} \quad \norm{x} \lt \delta. \] Рассмотрим любое нетривиальное решение $x = x(t)$ с начальным условием $\norm{x(t_0)} \lt \delta$.

    Проверим, что траектория этого решения целиком остаётся внутри сферы, то есть \[ \norm{x(t)} \lt \varepsilon, \quad t_0 \leqslant t \lt \infty. \] Действительно, при $t = t_0$ имеем \[ \norm{x(t_0)} \lt \delta \lt \varepsilon. \] От противного: пусть существует момент времени $t_1 \gt t_0$, при котором \[ \norm{x(t_1)} = \varepsilon, \quad \text{причём} \quad \norm{x(t)} \lt \varepsilon \quad \forall t \in (t_0, t_1). \] Рассмотрим, как ведёт себя функция $v(t) = V(t, x(t))$ вдоль решения $x(t)$.

    Так как в силу условия теоремы \[ \dot v(t) = \frac{d }{d t} V(t, x(t)) \leqslant 0, \] то функция $v(t)$ невозрастающая. Следовательно, \[ \alpha \gt V(t_0, x(t_0)) \geqslant V(t_1, x(t_1)) \geqslant \gamma(x(t_1)) \geqslant \alpha, \] что невозможно.

    Значит, решение $x = x(t)$ при любом конечном $t \in [t_0, \infty)$ остаётся внутри сферы $S_\varepsilon$ и, так как $\varepsilon \lt M$, это решение определено при $t_0 \leqslant t \lt \infty$ (бесконечно продолжаемо вправо), причём \[ \norm{x(t)} \lt \varepsilon \quad \text{при} \quad t_0 \leqslant t \lt \infty, \] если только $\norm{x(t_0)} \lt \delta$. А это и означает, что тривиальное решение $x = 0$ устойчиво по Ляпунову при $t \to +\infty$.

  37. Теорема Ляпунова об асимптотической устойчивости нулевого решения
    Рассмотрим систему \[ \tag{*} \dot x = f(t, x), \] где $x \in \mathbb{R}^n$ и $t \geqslant 0$.
    Решение $x = \overline x(t)$ называют асимптотически устойчивым по Ляпунову, если
    1. оно устойчиво по Ляпунову;
    2. существует такое положительное $h(t_0)$, что при \[ \norm{x(t_0) - \overline x(t_0)} \lt h(t_0) \] справедливо \[ \norm{x(t, t_0, x_0) - \overline x(t)} \to 0 \quad \text{при} \quad t \to +\infty. \]
    Говорят, что функция $V(t, x)$ допускает бесконечно малый высший предел при $x \to 0$, если
    1. $V(t, 0) = 0$,
    2. $V(t, x)$ является непрерывной в точке $x = 0$ равномерно по $t$, то есть \[ \forall \varepsilon \gt 0 \quad \exists \delta = \delta(\varepsilon) \gt 0: \quad \abs{V(t, x)} \lt \varepsilon \quad \forall t \geqslant 0 \quad \text{при} \quad \norm{x} \lt \delta, \] причём $\delta$ не зависит от времени.
    Пусть существует положительно определённая непрерывно дифференцируемая функция $V(t, x)$, допускающая бесконечно малый высший предел при $x \to 0$ и имеющая отрицательную производную по $t$ в силу системы. Тогда тривиальное решение $x = 0$ является асимптотически устойчивым по Ляпунову при $t \to +\infty$.
    Из теоремы Ляпунова об устойчивости следует, что $x = 0$ является устойчивым.

    Надо доказать, что для любого нетривиального решения $x(t)$, у которого $\norm{x(t_0)} \leqslant m \lt M$, справедливо равенство \[ \lim\limits_{t \to \infty} \norm{x(t)} = 0. \]

    Рассмотрим функцию $v(t) = V(t, x(t))$. Так как из условия теоремы \[ \dot v(t) = \frac{d V}{d t} \lt 0, \] то функция $v(t)$ монотонно убывающая и, будучи ограниченной снизу (следует из положительной определённости), имеет конечный предел: \[ \lim\limits_{t \to \infty} v(t) = \inf_t v(t) = \alpha \geqslant 0. \]

    Предположим, что $\alpha \gt 0$, тогда нетривиальное решение $x(t)$ удовлетворяет неравенству \[ \norm{x(t)} \geqslant \beta \gt 0 \quad \text{при} \quad t_0 \geqslant t \lt \infty. \]

  38. Пример асимптотической устойчивости нулевого решения при неотрицательной производной функции Ляпунова в силу системы (физический маятник с трением)
  39. Теорема Барбашина—Красовского об асимптотической устойчивости
  40. Теорема о неустойчивости
  41. Исследование устойчивости по линейному приближению