Вопросы — Поступление в магистратуру

Показывать
$\global\def\at#1#2{\left. #1 \right\rvert_{#2}}$ $\global\def\abs#1{\left\lvert #1 \right\rvert}$ $\global\def\norm#1{\left\lVert #1 \right\rVert}$ $\global\def\limto#1{\underset{#1}{\longrightarrow}}$ $\global\def\dp#1#2{#1 \cdot #2\,}$ $\global\def\vp#1#2{#1 \times #2\,}$ $\global\def\dv#1#2{\frac{d #1}{d #2}}$ $\global\def\pd#1#2{\frac{\partial #1}{\partial #2}}$ $\global\def\pdv2#1#2{\frac{\partial^2 #1}{\partial #2^2}}$ $\global\def\ppdv#1#2#3{\frac{\partial^2 #1}{\partial #2 \partial #3}}$ $\global\def\paren#1{\left( #1 \right)}$ $\global\def\mbox#1{\text{#1}}$ $\global\def\div{\text{div}\,}$ $\global\def\dsum{\displaystyle\sum\,}$ $\global\def\grad{\text{grad}\,}$ $\global\def\rot{\text{rot}\,}$ $\global\def\vb#1{\textbf{#1}}$ $\global\def\op#1{\mathrm{#1}\,}$ $\global\def\proj{\mathrm{proj}}$ $\global\def\bydef{\mathrm{def}}$ $\global\def\const{\text{const}\,}$ $\global\def\res{\text{res}\,}$ $\global\def\Res{\text{Res}\,}$ $\global\def\Re{\text{Re}\,}$ $\global\def\Im{\text{Im}\,}$ $\global\def\ch{\text{ch}\,}$ $\global\def\sh{\text{sh}\,}$ $\global\def\tg{\mathrm{tg}\,}$ $\global\def\ctg{\mathrm{ctg}\,}$ $\global\def\argtg{\text{argtg}\,}$ $\global\def\Arg{\operatorname{Arg}}$ $\global\def\diag{\operatorname{diag}}$ $\global\def\inv{\operatorname{inv}}$ $\global\def\Sp{\operatorname{Sp}}$
  1. Комплексные числа: определения и алгебраические действия. Тригонометрическая форма комплексного числа
    Комплексными числами называют выражения вида \[ z = x + iy, \qquad i = \sqrt{-1}, \quad x,y \in \mathbb{R}. \] Элемент $i$ называют мнимой единицей.
    Число $x$ называют действительной частью, $y$ — мнимой частью комплексного числа $z = x + i y$. Используют запись: \[ x = \Re z, \qquad y = \Im z. \]
    Обозначение $z = x + iy$ называют алгебраической записью комплексного числа.
    Число $\sqrt{x^2 + y^2}$ называют модулем комплексного числа $z = x + iy$ и обозначают как $\abs{z}$, то есть \[ \abs{z} = \sqrt{x^2 + y^2}. \]

    Геометрически число $z = x + iy$ можно представить в виде точки $(x,y)$.

    Координатная плоскость, точка $(x,y)$ которой поставлена в соответствие числу $x + iy$, называется комплексной плоскостью и обозначается $\mathbb{C}$. Ось $Ox$ при этом называют действительной, а $Oy$ — мнимой осью.
    Угол $\varphi$ называется аргументом комплексного числа $z \neq 0$ и обозначается как $\Arg z$. Значения $-\pi \leqslant \varphi \leqslant \pi$ обычно обозначают $\arg z$.

    Пусть $\abs{z} = r$, тогда \[ \begin{aligned} x &= r \cos \varphi, \\ y &= r \sin \varphi, \end{aligned} \] поэтому \[ z = x + iy = r (\cos \varphi + i \sin \varphi). \]

    Запись $z = r (\cos \varphi + i \sin \varphi)$ называют тригонометрической формой комплексного числа $z$.
    В случае, когда $z = 0$, считают, что $r = 0$, а $\varphi$ может принимать любые значения — аргумент нуля не определён.

    Комплексные числа $z_1 = x_1 + iy_1$ и $z_2 = x_2 + iy_2$ считаются равными тогда и только тогда, когда $x_1 = x_2$ и $y_1 = y_2$.

    Сумма комплексных чисел $z_1 = x_1 + i y_1$ и $z_2 = x_2 + i y_2$ определяется как \[ z_1 + z_2 = (x_1 + x_2) + i (y_1 + y_2). \]
    Разность же определяется как \[ z_1 - z_2 = (x_1 - x_2) + i (y_1 - y_2). \] Геометрически эти операции соответствуют сложению и вычитанию векторов.
    Произведение двух комплексных чисел $z_1 = x_1 + i y_1$ и $z_2 = x_2 + i y_2$ определяется по формуле \[ z_1 z_2 = (x_1 + i y_1) (x_2 + i y_2) = (x_1 x_2 - y_1 y_2) + i (x_1 y_2 + y_1 x_2). \] В тригонометрической форме: \[ z_1 z_2 = r_1 r_2 \left[ \cos(\varphi_1 + \varphi_2) + i \sin (\varphi_1 + \varphi_2) \right]. \]
    Методом математической индукции можно доказать, что справедлива формула Муавра: \[ z^n = r^n (\cos n \varphi + i \sin n \varphi). \]
    Число $\overline{z} = x - iy$ называют сопряжённым к числу $z = x + iy$.
    Деление определяется по формуле \[ \frac{z_1}{z_2} = \frac{x_1 x_2 + y_1 y_2}{x_2^2 + y_2^2} + i \frac{y_1 x_2 - x_1 y_2}{x_2^2 + y_2^2}. \]
  2. Метод Гаусса решения систем линейных уравнений
    Пусть требуется решить систему линейных алгебраических уравнений: \[ \begin{aligned} a_{11} x_1 + a_{12} x_2 + \dots + a_{1n} x_n &= b_1 \\ a_{21} x_1 + a_{22} x_2 + \dots + a_{2n} x_n &= b_2 \\ \dots \\ a_{m1} x_1 + a_{m2} x_2 + \dots + a_{mn} x_n &= b_m. \end{aligned} \] Если все $a_{1i} = 0, i = \overline{1, n}$, то возможны два случая:
    • $b_1 \neq 0$ — система не имеет решений (несовместна);
    • $b_1 = 0$ — в этом случае имеем тождество $0 = 0$, которое можно исключить из рассмотрения.
    Пусть теперь $a_{11} \neq 0$ (этого всегда можно добиться перестановкой слагаемых). Исключим переменную $x_1$ из уравнений системы, начиная со второго. Для этого вычтем из второго уравнения первое, домноженное на $\dfrac{a_{21}}{a_{11}}$, из третьего вычтем первое, домноженное на $\dfrac{a_{31}}{a_{11}}$, и так далее. Получим систему: \[ \begin{aligned} a_{11} x_1 + a_{12} x_2 + \dots + a_{1n} x_n &= b_1 \\ \phantom{x_1 +} a_{22}^{(1)} x_2 + \dots + a_{2n}^{(1)} x_n &= b_2^{(1)} \\ \dots \\ \phantom{x_1 +} a_{m2}^{(1)} x_2 + \dots + a_{mn}^{(1)} x_n &= b_m^{(1)}, \end{aligned} \] где \[ a_{ij}^{(1)} = a_{ij} - a_{1j} \frac{a_{i1}}{a_{11}}, \qquad b_i^{(1)} = b_i - b_1 \frac{a_{i1}}{a_{11}}, \qquad i = \overline{1,m}, \; j = \overline{1,n}. \] Теперь метод Гаусса можно применить к подсистеме, состоящей из уравнений $2, 3, \dots, n$.

    Если на каком-то шаге получили уравнение вида $0 = \beta_i$, где $\beta_i \neq 0$, то система является несовместной. Тождества вида $0 = 0$ следует исключить из рассмотрения ввиду того, что соответствующие им уравнения исходной системы являются избыточными.

    В конце работы алгоритма возможны два случая:
    1. нет свободных переменных: \[ \begin{aligned} \alpha_{11} x_1 + \alpha_{12} x_2 + \alpha_{13} x_3 \dots + \alpha_{1n} x_n &= \beta_1 \\ \phantom{\alpha_{11} x_1 +} \alpha_{22} x_2 + \alpha_{23} x_3 \dots + \alpha_{2n} x_n &= \beta_2 \\ \phantom{\alpha_{11} x_1 + \alpha_{22} x_2 +} \alpha_{33} x_3 \dots + \alpha_{3n} x_n &= \beta_3 \\ \dots \\ \phantom{\alpha_{11} x_1 + \alpha_{22} x_2 + \alpha_{33} x_3 \dots +} \alpha_{nn} x_n &= \beta_n. \end{aligned} \] В этом случае система имеет единственное решение, которое можно получить, последовательно подставляя значения переменных в вышестоящие уравнения.
    2. есть свободные переменные: \[ \begin{aligned} \alpha_{11} x_1 + \alpha_{12} x_2 + \dots + \alpha_{1r} x_r + \dots + \alpha_{1n} x_n &= \beta_1 \\ \phantom{\alpha_{11} x_1 +} \alpha_{22} x_2 + \dots + \alpha_{2r} x_r + \dots + \alpha_{2n} x_n &= \beta_2 \\ \dots \\ \phantom{\alpha_{11} x_1 + \alpha_{22} x_2 +} \alpha_{rr} x_r + \dots + \alpha_{rn} x_n &= \beta_n. \end{aligned} \] Переменные $x_1, \dots, x_r$ называются зависимыми, а переменные $x_{r+1}, \dots, x_n$ — свободными.
      В этом случае необходимо выразить зависимые переменные через свободные: \[ \begin{aligned} \alpha_{11} x_1 + \alpha_{12} x_2 + \dots + \alpha_{1r} x_r &= \beta_1 - \alpha_{1,r+1} x_{r+1} - \dots - \alpha_{1n} x_n \\ \phantom{\alpha_{11} x_1 +} \alpha_{22} x_2 + \dots + \alpha_{2r} x_r &= \beta_2 - \alpha_{2,r+1} x_{r+1} - \dots - \alpha_{2n} x_n \\ \dots \\ \phantom{\alpha_{11} x_1 + \alpha_{22} x_2 +} \alpha_{rr} x_r &= \beta_n - \alpha_{r,r+1} x_{r+1} - \dots - \alpha_{rn} x_n. \end{aligned} \] Далее, последовательно подставляя выражения зависимых переменных в вышестоящие уравнения, получаем фундаментальное решение исходной системы уравнений.
      В связи с тем, что свободные переменные могут принимать произвольные значения, заключаем, что исходная система уравнений имеет счётное количество решений.
  3. Матрицы: основные определения и операции
    Матрицей называют прямоугольную таблицу, заполненную некоторыми математическими объектами.

    Чаще всего матрицу размера $n \times m$ записывают в виде \[ A = \begin{pmatrix} a_{11} & a_{12} & \dots & a_{1m} \\ a_{21} & a_{22} & \dots & a_{2m} \\ \vdots & \vdots & \ddots & \vdots \\ a_{n1} & a_{n2} & \dots & a_{nm} \end{pmatrix}. \]

    Матрица, количество строк и столбцов которой совпадают ($n = m$), называется квадратной.
    Квадратная матрица размера $n$, элементы которой равны нулю везде, кроме позиций $(1,1), (2,2), \dots, (n,n)$, называют диагональной.
    Диагональная матрица $D$ с диагональными элементами $d_1, \dots, d_n$ обозначается как $\diag (d_1, d_2, \dots, d_n)$.
    Матрица, составленная из элементов, находящихся на пересечении нескольких выбранных строк и столбцов матрицы $A$, называется субматрицей для матрицы $A$.
    Если $\alpha_1 \lt \alpha_2 \lt \dots \lt \alpha_k$ и $\beta_1 \lt \beta_2 \lt \dots \lt \beta_l$ — номера соответственно выбранных строк и столбцов, то соответствующая субматрица имеет вид \[ \begin{pmatrix} a_{\alpha_1 \beta_1} & a_{\alpha_1 \beta_2} & \dots & a_{\alpha_1 \beta_l} \\ a_{\alpha_2 \beta_1} & a_{\alpha_2 \beta_2} & \dots & a_{\alpha_2 \beta_l} \\ \vdots & \vdots & \ddots & \vdots \\ a_{\alpha_k \beta_1} & a_{\alpha_k \beta_2} & \dots & a_{\alpha_k \beta_l} \end{pmatrix}. \]
    Произведение матрицы $A$ на некоторое число $c$ определяется как \[ cA = \begin{pmatrix} c a_{11} & c a_{12} & \dots & c a_{1m} \\ c a_{21} & c a_{22} & \dots & c a_{2m} \\ \vdots & \vdots & \ddots & \vdots \\ c a_{n1} & c a_{n2} & \dots & c a_{nm} \end{pmatrix}. \]
    Если матрицы $A$ и $B$ имеют одинаковый размер $(n, m)$, то для них можно определить сложение: \[ A + B = \begin{pmatrix} a_{11} + b_{11} & a_{12} + b_{12} & \dots & a_{1m} + b_{1m} \\ a_{21} + b_{21} & a_{22} + b_{22} & \dots & a_{2m} + b_{2m} \\ \vdots & \vdots & \ddots & \vdots \\ a_{n1} + b_{n1} & a_{n2} + b_{n2} & \dots & a_{nm} + b_{nm} \end{pmatrix}. \]
    Свойства введённых операций:
    1. $(A + B) + C = A + (B + C)$;
    2. $A + B = B + A$;
    3. пусть $\Theta$ — матрица, состоящая из нулей, тогда $A + \Theta = A$;
    4. для любой матрицы $A$ существует противоположная матрица $-A$ такая, что $A + (-A) = \Theta$.
    5. $(c_1 + c_2) A = c_1 A + c_2 A$;
    6. $c (A + B) = c A + c B$;
    7. $c_1 (c_2 A) = (c_1 c_2) A$;
    8. $1 \cdot A = A$.
    Для матриц $A$ и $B$ размера $(n, k)$ и $(k, m)$ соответственно, можно ввести операцию умножения: \[ AB = C, \] где $C$ — матрица размера $(n, m)$, элементы которой определяются по формуле \[ c_{ij} = \sum\limits_{\alpha=1}^{k} a_{1 \alpha} b_{\alpha 1}. \]
    Заметим, что произведение матриц не является в общем случае коммутативной операцией (даже в том случае, когда $AB$ и $BA$ определены, то есть когда $n = m$).
    Матрицы $A$ и $B$, для которых $AB = BA$, называют коммутирующими.
    Свойства произведения матриц:
    1. $(cA) B = c (AB)$;
    2. $(A_1 + A_2) B = A_1 B + A_2 B$;
    3. $A (B_1 + B_2) = A B_1 + A B_2$;
    4. $(AB) C = A (BC)$.
    Матрица $E_n = \diag (\underbrace{1, \dots, 1}_{n})$, называется единичной матрицей размера $n$.
    Зачастую (если порядок матрицы ясен из контекста) вместо $E_n$ записывают просто $E$.
    Из правила умножения матриц сразу следует, что $AE = A$ и $EA = A$.
    Операция, при которой строки матрицы $A$ меняются местами со столбцами, называют транспонированием матрицы $A$ и обозначают как $A^T$. Так, если \[ A = \begin{pmatrix} a_{11} & a_{12} & \dots & a_{1m} \\ a_{21} & a_{22} & \dots & a_{2m} \\ \vdots & \vdots & \ddots & \vdots \\ a_{n1} & a_{n2} & \dots & a_{nm} \end{pmatrix}, \] то \[ A^T = \begin{pmatrix} a_{11} & a_{21} & \dots & a_{n1} \\ a_{12} & a_{22} & \dots & a_{n2} \\ \vdots & \vdots & \ddots & \vdots \\ a_{1m} & a_{2m} & \dots & a_{nm} \end{pmatrix}. \]
    Свойства операции транспонирования:
    1. $(A^T)^T = A$;
    2. $(A + B)^T = A^T + B^T$;
    3. $(cA)^T = c A^T$;
    4. $(AB)^T = B^T A^T$.
  4. Определение определителя. Определитель: элементарные свойства
    Для начала рассмотрим некоторые свойства совокупности перестановок чисел $1, \dots, n$.
    Число всех перестановок $n$ элементов равно $n! = 1 \cdot 2 \cdots n$.
    Пусть $(\alpha_1, \dots, \alpha_n)$ — некоторая перестановка чисел $1, \dots, n$. Будем говорить, что пара элементов $(\alpha_i, \alpha_j), \; i \lt j$, образует инверсию, если $\alpha_i \gt \alpha_j$.
    Число всех пар элементов, образующих инверсию, называют числом инверсий в перестановке и обозначают как $\inv (\alpha_1, \dots, \alpha_n)$.
    Перестановки, содержащие чётное количество инверсий, называются чётными, содержащие нечётное число инверсий — нечётными.
    Определителем квадратной матрицы называется алгебраическая сумма всевозможных произведений элементов этой матрицы, взятых по одному из каждой строки и по одному из каждого столбца. Сомножители в каждом слагаемом записываются в порядке следования строк, тогда номера столбцов образуют перестановки; слагаемые, соответствующие чётным перестановкам, берутся со знаком «плюс», соответствующие нечётным — со знаком «минус».

    Определитель матрицы $A$ обозначают как \[ \det A = \begin{vmatrix} a_{11} & a_{12} & \dots & a_{1n} \\ a_{21} & a_{22} & \dots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{n1} & a_{n2} & \dots & a_{nn} \end{vmatrix} = \sum\limits_{(\alpha_1, \dots, \alpha_n)}^{} (-1)^{\inv(\alpha_1, \dots, \alpha_n)} a_{1 \alpha_1} a_{2 \alpha_2} \cdots a_{n \alpha_n}, \] где $(\alpha_1, \dots, \alpha_n)$ пробегает все перестановки чисел $1, \dots, n$.

    Свойства определителей:
    1. слагаемое $a_{\alpha_1 \beta_1} a_{\alpha_2 \beta_2} \cdots a_{\alpha_n \beta_n}$, где $(\alpha_1, \dots, \alpha_n)$ и $(\beta_1, \dots, \beta_n)$ — некоторые перестановки чисел $1, \dots, n$, входит в определитель со знаком \[ {(-1)}^{\inv(\alpha_1, \dots, \alpha_n) + \inv (\beta_1, \dots, \beta_n)}; \]
    2. $\det A^T = \det A$;
    3. справедливо равенство: \[ \begin{vmatrix} a_{11} & \dots & a_{1n} \\ \dots & \dots & \dots \\ b_{i1} + c_{i1} & \dots & b_{in} + c_{in} \\ \dots & \dots & \dots \\ a_{n1} & \dots & a_{nn} \end{vmatrix} = \begin{vmatrix} a_{11} & \dots & a_{1n} \\ \dots & \dots & \dots \\ b_{i1} & \dots & b_{in} \\ \dots & \dots & \dots \\ a_{n1} & \dots & a_{nn} \end{vmatrix} + \begin{vmatrix} a_{11} & \dots & a_{1n} \\ \dots & \dots & \dots \\ c_{i1} & \dots & c_{in} \\ \dots & \dots & \dots \\ a_{n1} & \dots & a_{nn} \end{vmatrix}; \]
    4. если все элементы какой-либо строки имеют общий множитель, то этот множитель можно вынести за знак определителя: \[ \begin{vmatrix} a_{11} & \dots & a_{1n} \\ \dots & \dots & \dots \\ m a_{i1} & \dots & m a_{in} \\ \dots & \dots & \dots \\ a_{n1} & \dots & a_{nn} \end{vmatrix} = m \begin{vmatrix} a_{11} & \dots & a_{1n} \\ \dots & \dots & \dots \\ a_{i1} & \dots & a_{in} \\ \dots & \dots & \dots \\ a_{n1} & \dots & a_{nn} \end{vmatrix}; \]
    5. определитель с двумя пропорциональными строками равен нулю;
    6. если в матрице заменить местами две строки, то определитель изменит знак на обратный: \[ \begin{vmatrix} a_{11} & \dots & a_{1n} \\ \dots & \dots & \dots \\ a_{i1} & \dots & a_{in} \\ \dots & \dots & \dots \\ a_{j1} & \dots & a_{jn} \\ \dots & \dots & \dots \\ a_{n1} & \dots & a_{nn} \end{vmatrix} = - \begin{vmatrix} a_{11} & \dots & a_{1n} \\ \dots & \dots & \dots \\ a_{j1} & \dots & a_{jn} \\ \dots & \dots & \dots \\ a_{i1} & \dots & a_{in} \\ \dots & \dots & \dots \\ a_{n1} & \dots & a_{nn} \end{vmatrix}; \]
    7. определитель не меняется, если к какой-либо его строке добавить числа, пропорциональные другой строке: \[ \begin{vmatrix} a_{11} & \dots & a_{1n} \\ \dots & \dots & \dots \\ a_{i1} & \dots & a_{in} \\ \dots & \dots & \dots \\ a_{j1} & \dots & a_{jn} \\ \dots & \dots & \dots \\ a_{n1} & \dots & a_{nn} \end{vmatrix} = \begin{vmatrix} a_{11} & \dots & a_{1n} \\ \dots & \dots & \dots \\ a_{i1} & \dots & a_{in} \\ \dots & \dots & \dots \\ a_{j1} + m a_{i1} & \dots & a_{jn} + m a_{in} \\ \dots & \dots & \dots \\ a_{n1} & \dots & a_{nn} \end{vmatrix}; \]
    Минором называют определитель субматрицы матрицы $A$, полученной вычёркиванием одной или нескольких строк и столбцов.
  5. Теорема Кронекера‐Капелли. Общее решение системы линейных уравнений
    Линейной комбинацией векторов $x_1, \dots, x_n$ называется вектор $c_1 x_1 + c_2 x_2 + \dots + c_n x_n$, где $c_1, \dots, c_n$ — некоторые коэффициенты.
    Совокупность векторов $x_1, \dots, x_n$ называют линейно зависимой, если существует набор коэффициентов $c_1, \dots, c_n$, не обращающихся в ноль одновременно, такой, что \[ c_1 x_1 + \dots + c_n x_n = 0. \] Если такой набор не существует, то совокупность называют линейно независимой.
    Рангом матрицы $A$ размера $(n, m)$ называют максимальное количество линейно независимых строк или столбцов.
    Для линейной зависимости множества строк квадратной матрицы необходимо и достаточно обращение в ноль её определителя.

    Рассмотрим неоднородную систему линейных уравнений \[ \begin{aligned} a_{11} x_1 + \dots + a_{1n} x_n &= b_1, \\ \dots & \\ a_{m1} x_1 + \dots + a_{mn} x_n &= b_m. \end{aligned} \] Рассмотрим две матрицы: матрицу коэффициентов \[ \begin{pmatrix} a_{11} & \dots & a_{1n} \\ \dots & \dots & \dots \\ a_{m1} & \dots & a_{mn} \end{pmatrix} \] и расширенную матрицу \[ \begin{pmatrix} a_{11} & \dots & a_{1n} & b_1 \\ \dots & \dots & \dots & \dots \\ a_{m1} & \dots & a_{mn} & b_m \end{pmatrix}. \]

    (Кронекера‐Капелли).
    Для того чтобы система линейных уравнений была совместна, необходимо и достаточно, чтобы ранг матрицы коэффициентов был равен рангу расширенной матрицы.

    Рассмотрим систему линейных однородных уравнений \[ \begin{aligned} a_{11} x_1 + \dots + a_{1n} x_n &= 0, \\ \dots & \\ a_{m1} x_1 + \dots + a_{mn} x_n &= 0. \end{aligned} \] Представим её в матричном виде: \[ A x = 0. \]
    Если столбцы $z_1, \dots, z_k$ — решения системы $Ax = 0$, то любая их линейная комбинация $c_1 z_1 + \dots + c_k z_k$ также является решением этой системы.
    Все решения линейной однородной системы являются линейными комбинациями линейно независимых $n-r$ решений, где $n$ — число неизвестных, а $r$ — ранг матрицы коэффициентов.
    Пусть $z_{r+1}, \dots, z_n$ — такие линейно независимые решения, что все решения являются их линейными комбинациями. Такую совокупность решений называют базисной или фундаментальной, а их линейную комбинацию называют общим решением.
    Общее решение неоднородной системы $Ax = b$ равно сумме частного решения этой системы и общего решения однородной системы $Ax = 0$.
  6. Собственные числа и собственные векторы матриц
    Рассмотрим матрицу $A$. Если для некоторого $\lambda \in \mathbb{R}$ существует такой вектор $x \neq 0$, что справедливо равенство \[ \tag{*} A x = \lambda x, \] то вектор $x$ называют собственным вектором матрицы $A$, а соответствующее ему число $\lambda$ — собственным числом.
    Перенося правую часть равенства $(*)$ налево и пользуясь свойством произведения матриц, получаем следующее эквивалентное матричное равенство: \[ (A - \lambda E) x = 0. \] Известно, что для существования нетривиальных решений полученной системы необходимо и достаточно, чтобы определитель этой системы был равен нулю: \[ \det (A - \lambda E) = 0. \]
    Уравнение \[ \det (A - \lambda E) = 0 \] называют характеристическим уравнением матрицы $A$, а его левую часть — характеристическим полиномом (его обозначают как $p(\lambda)$ или $p_A(\lambda)$).
    Таким образом, каждое собственное число матрицы $A$ является корнем полинома $p(\lambda)$. И наоборот, каждый корень полинома $p(\lambda)$ является собственным числом матрицы $A$.

    Отсюда следует, что квадратная матрица $A$ имеет не более чем $n$ различных собственных чисел.

    (Гамильтона‐Кэли).
    Всякая квадратная матрица $A$ удовлетворяет своему характеристическому уравнению, то есть \[ p(A) = 0. \]
    Если $x_1, \dots, x_k$ — собственные векторы матрицы $A$, соответствующие собственному числу $\lambda$, то их линейная комбинация $c_1 x_1 + \dots + c_k x_k$ либо равна нулю, либо также является собственным вектором матрицы $A$, соответствующим тому же собственному числу $\lambda$.
    Собственные векторы, соответствующие попарно различным собственным числам, линейно независимы.
    Следом матрицы $A$ называют сумму её диагональных элементов: \[ \Sp A = \sum\limits_{i=1}^{n} a_{ii}. \]
    Пусть $\lambda_1, \dots, \lambda_n$ — собственные числа матрицы $A$, тогда справедливо равенство: \[ \Sp A = \sum\limits_{i=1}^{n} \lambda_i. \]
  7. Непрерывные функции. Определение, свойства
    Рассмотрим функцию $f(x)$, определённую в некоторой окрестности точки $x_0$. Будем считать, что точка $x_0$ также принадлежит области определения функции $f(x)$.
    Говорят, что функция $f(x)$ непрерывна в точке $x = x_0$, если выполняется соотношение \[ \lim\limits_{x \to x_0} f(x) = f(x_0). \] Если это соотношение нарушено, то говорят, что в этой точке функция имеет разрыв.
    На языке $\varepsilon-\delta$:
    Говорят, что функция $f(x)$ непрерывна в точке $x = x_0$, если для любого $\varepsilon \gt 0$ существует $\delta = \delta(\varepsilon) \gt 0$ такое, что из неравенства \[ \abs{x - x_0} \lt \delta \quad \mbox{следует} \quad \abs{f(x) - f(x_0)} \lt \varepsilon. \]
    Если функция $f(x)$ определена в точке $x = x_0$, но предел $\lim\limits_{x \to x_0} f(x)$ не существует, то всё же говорят, что функция в этой точке терпит разрыв.
    Говорят, что функция $f(x)$, определённая на промежутке $X$ и непрерывная в каждой точке $x \in X$, является непрерывной в $X$.
    Если функции $f(x)$ и $g(x)$ определены в промежутке $X$ и непрерывны в точке $x_0$, то в этой же точке будут непрерывны и функции \[ f(x) \pm g(x), \qquad f(x) \cdot g(x), \qquad \frac{f(x)}{g(x)} \] (последняя при условии, что $g(x_0) \neq 0$).
    (Первая теорема Больцано-Коши).
    Пусть функция $f(x)$ определена и непрерывна в замкнутом промежутке $[a,b]$ и на концах этого промежутка принимает значения разных знаков. Тогда найдётся точка $c \in [a,b]$, в которой функция обращается в ноль: \[ f(c) = 0. \]
    Если функция $f(x)$ непрерывна в точке $x = x_0$ и значение $f(x_0) \neq 0$, то для всех достаточно близких к $x_0$ значений $x$ функция $f(x)$ сохраняет тот же знак, какой она имеет в точке $x_0$.
    (Вторая теорема Больцано-Коши).
    Пусть функция $f(x)$ определена и непрерывна в некотором промежутке $X$. Если в двух точках $x = a$ и $x = b$ ($a \lt b$) этого промежутка функция принимает неравные значения \[ f(a) = A \quad \mbox{и} \quad f(b) = B, \] то для любого числа $C \in [A,B]$ найдётся точка $c \in [a,b]$ такая, что \[ f(c) = C. \]
    Пусть функция $y = f(x)$ определена, монотонно возрастает (убывает) и непрерывна в некотором промежутке $X$. Тогда в соответствующем промежутке $Y$ значений этой функции существует однозначная обратная функция $x = g(y)$, также монотонно возрастающая (убывающая) и непрерывная.
    (Первая теорема Вейерштрасса).
    Если функция $f(x)$ определена и непрерывна в замкнутом промежутке $[a,b]$, то она ограничена: существуют постоянные конечные константы $m$ и $M$ такие, что \[ m \leqslant f(x) \leqslant M \qquad \forall x \in [a,b]. \]
    (Вторая теорема Вейерштрасса).
    Если функция $f(x)$ определена и непрерывна в замкнутом промежутке $[a,b]$, то она достигает в этом промежутке своих точных верхней и нижней границ.
  8. Производная функции. Непрерывность дифференцируемой функции
    Пусть функция $y = f(x)$ определена в промежутке $X$. Рассмотрим некоторое значение $x = x_0 \in X$, которому придадим приращение $\Delta x$ так, чтобы $x_0 + \Delta x \in X$. Тогда значение $y = f(x_0)$ заменится на новое значение $y + \Delta y = f(x_0 + \Delta x)$, то есть получит приращение \[ \Delta y = \Delta f(x_0) = f(x_0 + \Delta x) - f(x_0). \]
    Предел отношения приращения функции $\Delta y$ к приращению аргумента $\Delta x$ при стремлении $\Delta x$ к нулю, то есть \[ \lim\limits_{\Delta x \to 0} \frac{\Delta y}{\Delta x} = \lim\limits_{\Delta x \to 0} \frac{f(x_0 + \Delta x) - f(x_0)}{\Delta x}, \] называется производной функции $y = f(x)$ в точке $x = x_0$.
    Геометрический смысл производной: угловой коэффициент касательной к кривой $y = f(x)$ имеет вид \[ \tg \alpha = \frac{dy}{dx}. \]
    Если функция $y = f(x)$ имеет в точке $x_0$ конечную производную, то в этой точке функция непрерывна.
    Свойства производной:
    1. $(c f(x))' = c f'(x)$;
    2. $(f(x) \pm g(x))' = f'(x) \pm g'(x)$;
    3. $(f(x) \cdot g(x))' = f'(x) g(x) + f(x) g'(x)$;
    4. $\left( \dfrac{f(x)}{g(x)} \right)' = \dfrac{f'(x) g(x) - f(x) g'(x)}{g^2(x)}$;
    (производная сложной функции).
    Пусть
    1. функция $u = f(x)$ имеет в некоторой точке $x_0$ производную $u_x' = f'(x)$,
    2. функция $y = g(u)$ имеет в соответствующей точке $u_0 = f(x_0)$ производную $y_u' = g'(u)$.
    Тогда сложная функция $y = g(f(x))$ в точке $x_0$ имеет производную \[ \left[ g(f(x)) \right]' = g_u'(f(x_0)) \cdot f_x'(x_0), \] или \[ y_x' = y_u' \cdot u_x'. \]
  9. Понятие неопределённого интеграла. Формула интегрирования по частям
    Функция $F(x)$ в заданном промежутке $X$ называется первообразной функцией для функции $f(x)$ или интегралом от $f(x)$, если во всём этом промежутке $f(x)$ является производной для функции $F(x)$: \[ F'(x) = f(x). \]
    Если в некотором (конечном или бесконечном) промежутке $X$ функция $F(x)$ является первообразной для функции $f(x)$, то и функция $F(x) + C$, где $C$ — любая постоянная, также будет первообразной.
    Выражение $F(x) + C$ представляет собой общий вид функции, которая имеет производную $f(x)$. Это выражение называется неопределённым интегралом функции $f(x)$ и обозначается как \[ \int\limits_{}^{} f(x) dx. \]
    Свойства неопределённого интеграла:
    1. $\displaystyle d \int\limits_{}^{} f(x) dx = f(x) dx$;
    2. так как $F(x)$ — первообразная функции $f(x)$, то \[ \int\limits_{}^{} F'(x) dx = F(x) + C, \] или \[ \int\limits_{}^{} d F(x) = F(x) + C; \]
    3. если функция $f(x)$ непрерывна в $X$, то она в нём имеет первообразную.
    Правила интегрирования:
    1. $\displaystyle \int\limits_{}^{} a f(x) dx = a \int\limits_{}^{} f(x) dx$;
    2. $\displaystyle \int\limits_{}^{} \left[ f(x) \pm g(x) \right] dx = \int\limits_{}^{} f(x) dx \pm \int\limits_{}^{} g(x) dx$;
    3. если \[ \int\limits_{}^{} g(t) dt = G(t) + C, \] то \[ \int\limits_{}^{} g(\omega(x)) \omega'(x) dx = G(\omega(x)) + C \] (считаем, что $g(t), \omega(x), \omega'(x)$ непрерывны)
    4. (формула интегрирования по частям).
      Пусть $u = f(x)$ и $v = g(x)$ — две функции, имеющие непрерывные производные $u' = f'(x)$ и $v' = g'(x)$. Тогда справедлива формула \[ \int\limits_{}^{} u dv = uv - \int\limits_{}^{} v du. \]
  10. Степенные ряды. Радиус сходимости степенного ряда
    Ряд вида \[ \sum\limits_{n=0}^{\infty} a_n x^n = a_0 + a_1 x + a_2 x^2 + \dots + a_n x^n + \dots \] называют степенным.
    Если степенной ряд сходится для значения $x = \overline x \neq 0$, то он абсолютно сходится для любого значения $x$, удовлетворяющего неравенству \[ \abs{x} \lt \abs{\overline x}. \]
    Для каждого степенного ряда (если только он не является всюду расходящимся), «область сходимости» $X$ представляет собой сплошной промежуток от $-R$ то $R$ (со включением концов или нет), причём:
    • если $x \in (-R, R)$, то ряд сходится абсолютно;
    • если $x \lt -R$ или $x \gt R$, то ряд расходится;
    • если $x = \pm R$, то общего утверждения сделать нельзя — может иметь место как сходимость, так и расходимость.
    Промежуток $(-R, R)$ называют промежутком сходимости, а число $R$ ($0 \lt R \leqslant +\infty$) — радиусом сходимости ряда.

    Рассмотрим последовательность \[ \rho_1 = \abs{a_1}, \quad \rho_2 = \sqrt{\abs{a_2}}, \quad \dots, \quad \rho_n = \sqrt[n]{\abs{a_n}}, \quad \dots \] Обозначим через $\rho$ её наибольший предел: \[ \rho = \overline{\lim\limits_{n \to \infty}} \rho_n = \overline{\lim\limits_{n \to \infty}} \sqrt[n]{\abs{a_n}}. \]

    (Коши-Адамара).
    Радиус сходимости степенного ряда есть величина, обратная наибольшему пределу $\rho$, то есть \[ R = \frac{1}{\rho}; \] при этом, если $\rho = 0$, то $R = +\infty$; если $\rho = +\infty$, то $R = 0$.
  11. Линейные пространства. Основные определения (линейной независимости, базиса, размерности пространства, подпространства)
    Векторным (линейным) пространством $V$ над полем $F$ называют систему математических объектов, в которой определено действие сложения и умножения на элементы поля $F$, причём справедливы следующие свойства:
    1. $(x + y) + z = x + (y + z)$, где $x,y,z \in V$;
    2. $x + y = y + x$;
    3. существует элемент 0, нейтральный относительно сложения, то есть $x + 0 = 0 + x = x$ для всех $x \in V$;
    4. для любого элемента $x \in V$ существует элемент $-x \in V$, противоположный данному: $x + (-x) = 0$;
    5. $(\alpha + \beta) x = \alpha x + \beta x$, где $x \in V, \; \alpha, \beta \in F$;
    6. $\alpha (x + y) = \alpha x + \alpha y$;
    7. $\alpha (\beta x) = (\alpha \beta) x$;
    8. существует элемент $1$, нейтральный относительно умножения на элемент поля $F$: $1 \cdot x = x$ для всех $x \in V$.
    Элементы множества $V$ называют векторами, а поля $F$ — числами или скалярами.
    Линейной комбинацией векторов $x_1, \dots, x_n \in V(F)$ называется вектор $c_1 x_1 + \dots + c_n x_n$ при $c_i \in F$.
    Совокупность векторов $(x_1, \dots, x_n$ называется линейно независимой, если равенство \[ c_1 x_1 + c_2 x_2 + \dots + c_n x_n = 0 \] возможно только при $c_1 = c_2 = \dots = c_n = 0$.

    Если же существуют не равные одновременно нулю $c_i$, при которых \[ c_1 x_1 + c_2 x_2 + \dots + c_n x_n = 0, \] то совокупность векторов называют линейно зависимой.

    Совокупность векторов называется порождающей, если все векторы пространства $V$ являются их линейными комбинациями.
    Если для $V$ существует конечная порождающая совокупность векторов, то пространство $V$ называют конечномерным, иначе — бесконечномерном.
    Любая минимальная (по числу векторов) порождающая совокупность является линейно независимой.
    Минимальная порождающая совокупность векторов называется базисом, а число векторов, составляющих базис, называется размерностью пространства $V$ (её обозначают как $\dim V$).
    Подпространством $P$ $n$-мерного пространства $V$ называется множество векторов, образующих векторное пространство по отношению к действиям, которые определены в $V$.

    Заметим, что, $\dim P \leqslant \dim V$, причём если $\dim P = \dim V = n$, то $P = V$.

  12. Определённый интеграл. Сумма Римана. Свойства определённого интеграла

    Пусть функция $f(x)$ задана в некотором промежутке $[a, b]$. Разобьём этот промежуток на части, вставив точки деления: \[ x_0 = a \lt x_1 \lt x_2 \lt \dots \lt x_n = b. \] Наибольшую из разностей $\Delta x_i = x_{i+1} - x_i$ будем обозначать через $\lambda$.

    Возьмём в каждом из промежутков $[x_i, x_{i+1}]$ произвольную точку $x = \xi_i$ (то есть $x_i \leqslant \xi_i \leqslant x_{i+1}$) и составим сумму \[ \sigma = \sum\limits_{i=0}^{n-1} f(\xi_i) \Delta x_i. \]

    Говорят, что сумма $\sigma$ при $\lambda \to 0$ имеет (конечный) предел $I$, если для любого $\varepsilon \gt 0$ существует $\delta \gt 0$ такое, что если $\lambda \lt \delta$, то неравенство \[ \abs{\sigma - I} \lt \varepsilon \] выполняется при любом выборе чисел $\xi_i$.

    Этот факт записывают так: $I = \lim\limits_{\lambda \to 0} \sigma$.

    Конечный предел $I$ суммы $\sigma$ при $\lambda \to 0$ называется определённым интегралом функции $f(x)$ в промежутке $[a,b]$ и обозначается символом \[ I = \int\limits_{a}^{b} f(x) dx; \] в случае существования этого предела функция $f(x)$ называется интегрируемой в промежутке $[a,b]$.
    Сумму $\sigma$ называют римановой (интегральной) суммой.
    Классы интегрируемых функций:
    1. если функция $f(x)$ непрерывна в $[a,b]$, то она интегрируема в $[a,b]$;
    2. если ограниченная функция $f(x)$ имеет в $[a,b]$ лишь конечное число точек разрыва, то она интегрируема;
    3. монотонная ограниченная функция $f(x)$ всегда интегрируема.
    Свойства определённого интеграла:
    1. Если $f(x)$ интегрируема в промежутке $[a,b]$, то она интегрируема и в промежутке $[b, a]$, причём \[ \int\limits_{a}^{b} f(x) dx = - \int\limits_{b}^{a} f(x) dx. \] Кроме того, \[ \int\limits_{a}^{a} f(x) dx = 0. \]
    2. Пусть функция $f(x)$ интегрируема в наибольшем из промежутков $[a,b], [a,c]$ и $[c, b]$. Тогда она интегрируема в двух других, причём \[ \int\limits_{a}^{b} f(x) dx = \int\limits_{a}^{c} f(x) dx + \int\limits_{c}^{b} f(x) dx. \]
    3. Если $f(x)$ интегрируема в $[a,b]$, то $k f(x)$ ($k = \const$) также интегрируема в $[a,b]$, причём \[ \int\limits_{a}^{b} k f(x) dx = k \int\limits_{a}^{b} f(x) dx. \]
    4. Если $f(x)$ и $g(x)$ интегрируемы в $[a,b]$, то $f(x) \pm g(x)$ также интегрируема в $[a,b]$, причём \[ \int\limits_{a}^{b} \left[ f(x) \pm g(x) \right] dx = \int\limits_{a}^{b} f(x) dx + \int\limits_{a}^{b} g(x) dx. \]
    5. Если функция $f(x)$, интегрируемая в промежутке $[a,b]$, неотрицательна и $a \lt b$, то \[ \int\limits_{a}^{b} f(x) dx \geqslant 0. \] Если же $f(x)$ положительна, то \[ \int\limits_{a}^{b} f(x) dx \gt 0. \]
    6. Если две функции $f(x)$ и $g(x)$ интегрируемы в $[a,b]$, $a \lt b$, причём $f(x) \leqslant g(x)$ (или $f(x) \lt g(x)$), то \[ \int\limits_{a}^{b} f(x) dx \leqslant \int\limits_{a}^{b} g(x) dx \qquad \left( \int\limits_{a}^{b} f(x) dx \lt \int\limits_{a}^{b} g(x) dx \right). \]
    7. Пусть функция $f(x)$ интегрируема в $[a,b]$, $a \lt b$, тогда \[ \abs{ \int\limits_{a}^{b} f(x) dx } \leqslant \int\limits_{a}^{b} \abs{f(x)} dx. \]
    8. Если $f(x)$ интегрируема в $[a,b]$, $a \lt b$, и если во всём этом промежутке справедливо неравенство \[ m \leqslant f(x) \leqslant M, \] то \[ m (b - a) \leqslant \int\limits_{a}^{b} f(x) dx \leqslant M (b - a). \]
  13. Выпуклость и вогнутость функции. Условие выпуклости и вогнутости функции
    Функция $f(x)$, определённая и непрерывная в промежутке $X$, называется выпуклой, если для любых $x_1, x_2 \in X$ выполняется неравенство \[ f(q_1 x_1 + q_2 x_2) \leqslant q_1 f(x_1) + q_2 f(x_2), \] где $q_1, q_2$ — положительные числа, в сумме равные единице.
    Функция называется вогнутой, если справедливо неравенство \[ f(q_1 x_1 + q_2 x_2) \geqslant q_1 f(x_1) + q_2 f(x_2). \]
    Свойства выпуклых функций.
    1. Произведение выпуклой функции на положительную постоянную — выпуклая функция.
    2. Сумма двух или нескольких выпуклых функций выпукла.
    3. Если $g(u)$ — выпуклая возрастающая функция, а $u = f(x)$ выпукла, то и сложная функция $g(f(x))$ будет выпуклой.
    4. Выпуклая в промежутке $X$ функция $f(x)$, отличная от постоянной, не может достигать наибольшего значения внутри этого промежутка.
    Пусть функция $f(x)$ определена и непрерывна в промежутке $X$ и имеет в нём конечную производную $f'(x)$. Для того, чтобы $f(x)$ была выпуклой в $X$, необходимо и достаточно, чтобы её производная $f'(x)$ возрастала.
    Пусть функция $f(x)$ определена и непрерывна вместе со своей производной $f'(x)$ в промежутке $X$ и имеет внутри него конечную вторую производную $f''(x)$. Для выпуклости функции $f(x)$ в $X$ необходимо и достаточно, чтобы внутри $X$ выполнялось неравенство: \[ f''(x) \geqslant 0. \]
    Для вогнутости — условие \[ f''(x) \leqslant 0. \]
  14. Понятие обыкновенного дифференциального уравнения 1-го порядка и его решения
    Обыкновенным дифференциальным уравнением 1-го порядка называется соотношение, связывающее искомую функцию, её аргумент и первую производную от искомой функции. Такое соотношение можно записать в виде \[ \tag{1} F(x, y, y') = 0, \] где $y(x)$ — искомая функция.
    Если уравнение $(1)$ можно переписать в виде \[ \tag{2} y' = f(x,y), \] то такое уравнение называют уравнением, разрешённым относительно производной (уравнением в нормальной форме).

    Пусть функция $f(x,y)$ в уравнении $(2)$ определена и непрерывна на некотором множестве $D$ на плоскости $Oxy$.

    Решением ОДУ 1-го порядка на интервале $(a,b)$ называется функция $y = \varphi(x)$, которая
    1. определена и дифференцируема во всех точках указанного интервала;
    2. удовлетворяет условию $(x, \varphi(x)) \in D$, если $x \in (a,b)$;
    3. при подстановке в уравнение $(2)$ обращает его в тождество на $(a,b)$.
    Если решение уравнения получено в виде $y = \varphi(x)$, то говорят, что решение записано в явной форме.
    Соотношение $\psi(y,x) = 0$ называется решением в неявной форме, если оно определяет неявную функцию $y = y(x)$, которая является решением уравнения $(2)$.

    Чтобы убедиться в том, что $\psi(y, x) = 0$ является решением уравнения $(2)$, нужно посчитать полную производную в силу системы $(2)$: \[ \pd{\psi}{x} + \pd{\psi}{y} f(x,y) = 0. \] Если это равенство выполнится в силу соотношения $\psi(y,x) = 0$, то это действительно решение уравнения, записанное в неявной форме.

    Решение уравнения $(2)$ может быть записано также в параметрической форме, то есть в виде двух соотношений \[ x = \varphi(t), \qquad y = \psi(t), \] которые на некотором интервале дают тождество \[ \frac{\psi'(t)}{\varphi'(t)} \equiv f(\varphi(t), \psi(t)). \]
  15. Теорема о существовании и единственности решения задачи Коши дифференциального уравнения 1-го порядка (теорема Пикара). Условие Липшица. Примеры

    Рассмотрим уравнение в нормальной форме \[ \tag{1} y' = f(x, y). \] Будем считать, что функция $f(x,y)$ определена и непрерывна на некотором множестве $D$ изменения переменных $x$ и $y$.

    Рассмотрим некоторую точку $(x_0, y_0)$ этого множества и поставим задачу: найти решение уравнения $(1)$, удовлетворяющее условию \[ \tag{2} y(x_0) = y_0. \]

    Числа $x_0$ и $y_0$ называются начальными данными, условие $(2)$ — начальным условием, а задача нахождения решения уравнения $(1)$, удовлетворяющего условию $(2)$ — задачей Коши (начальной задачей).
    Будем говорить, что через точку $(x_0, y_0)$ проходит единственное решение уравнения $(1)$, если существует положительное число $\delta \gt 0$ такое, что для любых двух решений $\varphi_1(x)$ и $\varphi_2(x)$ этого уравнения, удовлетворяющих условию \[ \varphi_1(x_0) = \varphi_2(x_0) = y_0, \] на интервале $\abs{x - x_0} \lt \delta$ выполняется тождество \[ \varphi_1(x) \equiv \varphi_2(x). \]
    Точка $(x_0, y_0)$ называется при этом точкой единственности, в противном случае — точкой неединственности.
    Решение уравнения $(1)$ называется частным решением, если каждая его точка является точкой единственности. Всякое частное решение входит в общее при некотором значении произвольной константы $C$.
    Решение уравнения $(1)$ называется особым решением, если каждая его точка является точкой неединственности. Особое решение не входит в общее решение ни при каком значении произвольной константы $C$.
    (Пеано, о существовании решения).
    Пусть функция $f(x,y)$ задана и непрерывна по $x$ и $y$ на множестве \[ R = \left\{ (x,y): \abs{x - x_0} \leqslant a, \; \abs{y - y_0} \leqslant b, \; a, b \gt 0 \right\}. \] Тогда существует решение уравнения $(1)$, удовлетворяющее условию $(2)$, и это решение определено по крайней мере на отрезке $\abs{x - x_0} \leqslant h$, где \[ h = \min\left\{ a, \frac{b}{M} \right\}, \qquad M = \max_R \abs{f(x,y)}. \]
    (Пикара, о существовании и единственности решения).
    Пусть функция $f(x,y)$ задана и непрерывна по $x$ и $y$ на множестве \[ R = \left\{ (x,y): \abs{x - x_0} \leqslant a, \; \abs{y - y_0} \leqslant b, \; a, b \gt 0 \right\} \] и существует конечное число $l$ такое, что для любых двух точек $(x, y_1)$ и $(x, y_2)$ из $R$ выполнено условие Липшица \[ \abs{f(x, y_1) - f(x, y_2)} \leqslant l \abs{y_1 - y_2}. \] Тогда существует единственное решение уравнения $(1)$, удовлетворяющее условию $(2)$, причём это решение определено по крайней мере на отрезке $\abs{x - x_0} \leqslant h$, где \[ h = \min\left\{ a, \frac{b}{M} \right\}, \qquad M = \max_R \abs{f(x,y)}. \] Константу $l$ называют константой Липшица.
    Если функция $f$ определена и непрерывна в $D$ и непрерывно дифференцируема в этой области по $y$, то любая точка $(x_0, y_0) \in D$ является точкой единственности решения начальной задачи.
    Рассмотрим уравнение \[ y' = p(x) y + q(x), \] где $p(x), q(x)$ определены и непрерывны на интервале $(\alpha, \beta)$. Поскольку правая часть уравнения является непрерывной и непрерывно дифференцируемой по $y$ функцией, то выполнены условия следствия из теоремы Пикара, поэтому существует решение любой задачи Коши на множестве \[ (x_0, y_0) \in (\alpha, \beta) \times (-\infty, +\infty). \]
    Рассмотрим задачу Коши \[ y' = 3 \sqrt[3]{y^2}, \qquad D = \mathbb{R}^2, \qquad (x_0, y_0) = (0, 0). \] Существуют два решения задачи Коши:
    • $\varphi_1(x) \equiv 0$;
    • $\varphi_2(x) = x^3$.
    Решения $\varphi_1(x)$ и $\varphi_2(x)$ являются различными, поэтому точка $(0, 0)$ является точкой неединственности.
  16. Уравнения с разделяющимися переменными. Примеры
    Рассмотрим уравнение вида \[ \tag{1} \frac{d y}{d x} = \frac{M(x,y)}{N(x,y)}, \] в котором правая часть определена и непрерывна на множестве \[ R = \left\{ x \in (a,b), \; y \in (c, d) \right\}. \] Пусть функции $M(x,y)$ и $N(x,y)$ имеют вид \[ \tag{2} M(x,y) = M_1(x) M_2(y), \qquad N(x,y) = N_1(x) N_2(y). \]
    Уравнение $(1)$, для которого выполнены условия $(2)$, называется уравнением с разделяющимися переменными.
    При выполнении условий $(2)$ уравнение $(1)$ можно привести к виду \[ \tag{3} \frac{M_1(x) dx}{N_1(x)} = \frac{N_2(y) dy}{M_2(y)}. \] Интегрируя обе части полученного уравнения, получаем общее решение исходного уравнения на множестве $R$ в неявной форме: \[ \int\limits_{}^{} \frac{M_1(x) dx}{N_1(x)} - \int\limits_{}^{} \frac{N_2(y) dy}{M_2(y)} = C. \]
    Все точки множества $R$, в которых функции $M_1(x), M_2(y), N_1(x), N_2(y)$ не обращаются в ноль и бесконечность, являются точками единственности решения задачи Коши.
    Пусть \[ f_1(x) = \frac{M_1(x)}{N_1(x)}, \qquad f_2(y) = \frac{M_2(y)}{N_2(y)}. \] Тогда уравнение примет вид \[ \tag{4} y' = f_1(x) f_2(y). \]
    Пусть на множестве $R$ функции $f_1(x)$ и $f_2(y)$ непрерывны, и при этом $f_2(y) \neq 0$. Тогда через каждую точку множества $R$ проходит одно и только одно решение уравнения $(4)$.

    В случае, если условия теоремы не выполняются, некоторые решения могут оказаться особыми. При переходе от уравнения $(1)$ к уравнению $(3)$ могут быть потеряны решения вида $x \equiv \xi$ и $y \equiv \eta$, если $N_1(\xi) = 0$ или $M_2(\eta) = 0$.

    Примеры
  17. Обыкновенные дифференциальные уравнения $n$-го порядка с постоянными коэффициентами

    Рассмотрим следующее уравнение \[ \tag{1} y^{(n)} + a_1 y^{(n-1)} + \dots + a_n y = 0, \] где $a_1, \dots, a_n$ — вещественные постоянные. Используя оператор \[ L = \frac{d^n}{d x^n} + a_1 \frac{d^{n-1}}{d x^{n-1}} + \dots + a_{n-1} \frac{d }{d x} + a_n, \] уравнение можно записать в виде \[ L(y) = 0. \]

    Известно, что всякое решение уравнения $(1)$ с любыми начальными данными существует и единственно, при этом оно определено на всей вещественной оси. Будем искать частное решение уравнения $(1)$ в виде \[ \tag{2} y = e^{\lambda x}, \] где $\lambda$ — некоторое комплексное число.

    Подставляя это представление в уравнение, получаем \[ L(e^{\lambda x}) = (\lambda^n + a_1 \lambda^{n-1} + \dots + a_n) e^{\lambda x} = 0. \] Из этого равенства вытекает, что частное решение уравнения $(1)$ существует в виде $(2)$ тогда и только тогда, когда число $\lambda$ является корнем уравнения \[ P(\lambda) = \lambda^n + a_1 \lambda^{n-1} + \dots + a_n = 0, \] которое называется характеристическим уравнением.

    Общее решение уравнения $(1)$ представляется в виде суммы слагаемых вида $C_i e^{\lambda_i x}$ для каждого простого корня $\lambda_i$ и слагаемых вида \[ (C_{m+1} + C_{m+2} x + C_{m+3} x^2 + \dots + C_{m+k}x^{k-1}) e^{\lambda x} \] для каждого корня $\lambda$ кратности $k$.

    Каждой паре комплексных сопряжённых корней $\lambda = \alpha \pm \beta i$ соответствуют слагаемые \[ C_{m+1} e^{\alpha x} \cos \beta x + C_{m+2} e^{\alpha x} \sin \beta x, \] если эти корни простые, и \[ P_{k-1}(x) e^{\alpha x} \cos \beta x + Q_{k-1}(x) e^{\alpha x} \sin \beta x, \] если каждый из корней $\alpha + \beta i$ и $\alpha - \beta i$ имеет кратность $k$.

    Общее решение линейного неоднородного уравнения порядка $n$ представляет собой сумму общего решения соответствующего однородного уравнения и частного решения неоднородного.

    Линейное неоднородное уравнение \[ y^{(n)} + a_1 y^{(n-1)} + \dots + a_n y = f(x) \] решается методом вариации постоянных. Пусть найдено общее решение \[ y = C_1 y_1 + \dots + C_n y_n, \] тогда решение неоднородного уравнения ищется в виде \[ y = C_1(x) y_1 + \dots + C_n(x) y_n. \] Функции $C_i(x)$ определяются из системы \[ \begin{aligned} C_1' y_1 + \dots + C_n' y_n &= 0, \\ C_1' y_1' + \dots + C_n' y_n' &= 0, \\ \dots \\ C_1' y_1^{(n-2)} + \dots + C_n' y_n^{(n-2)} &= 0, \\ C_1' y_1^{(n-1)} + \dots + C_n' y_n^{(n-1)} &= f(x). \end{aligned} \]

  18. Линейная зависимость и независимость системы функций
    Функции $u_1(x), \dots, u_p(x)$ называются линейно независимыми на интервале $(\alpha, \beta)$, если тождество \[ \sum\limits_{s=1}^{p} \gamma_s u_s(x) \equiv 0 \] выполнено на этом интервале тогда и только тогда, когда $\gamma_s = 0, s = \overline{1,p}$. В противном случае функции называются линейно зависимыми на $(\alpha, \beta)$.

    Рассмотрим набор функций $u_1(x), \dots, u_p(x)$, непрерывно дифференцируемых $p-1$ раз на интервале $(\alpha, \beta)$.

    Определитель \[ W(u_1, \dots, u_p) = \begin{vmatrix} u_1(x) & u_2(x) & \dots & u_p(x) \\ u_1'(x) & u_2'(x) & \dots & u_p'(x) \\ \dots & \dots & \dots & \dots \\ u_1^{(p-1)}(x) & u_2^{(p-1)}(x) & \dots & u_p^{(p-1)}(x) \end{vmatrix} \] называют определителем Вронского (вронскианом).
    Если функции $u_1(x), \dots, u_p(x)$ линейно зависимы на интервале $(\alpha, \beta)$, то определитель Вронского тождественно равен нулю на этом интервале.

    Рассмотрим уравнение \[ \tag{1} y^{(n)} + p_1(x) y^{(n-1)} + \dots + p_n(x) y = 0. \] Пусть $y_1(x), \dots, y_n(x)$ — набор из $n$ решений уравнения на интервале $(\alpha, \beta)$. Построим для них определитель Вронского: \[ W(y_1, \dots, y_n) = \begin{vmatrix} y_1(x) & y_2(x) & \dots & y_n(x) \\ y_1'(x) & y_2'(x) & \dots & y_n'(x) \\ \dots & \dots & \dots & \dots \\ y_1^{(n-1)}(x) & y_2^{(n-1)}(x) & \dots & y_n^{(n-1)}(x) \end{vmatrix}. \] Для сокращения обозначим его как $W(x)$.

    Если на интервале $(\alpha, \beta)$ найдётся хотя бы одна точка $x_0$, для которой $W(x_0) = 0$, то $W(x) \equiv 0$ на этом интервале, а набор решений $y_1(x), \dots, y_n(x)$ является линейно зависимым на этом интервале.
    Если коэффициенты $p_i(x)$ уравнения $(1)$ определены и непрерывны на интервале $(\alpha, \beta)$, то на этом интервале существует набор из $n$ линейно независимых решений этого уравнения.
  19. Линейные однородные уравнения $n$-го порядка с постоянными коэффициентами. Фундаментальная система решений

    Рассмотрим уравнение \[ \tag{1} y^{(n)} + a_1 y^{(n-1)} + \dots + a_n y = 0. \]

    Набор из $n$ решений уравнения $(1)$, линейно независимых на интервале $(\alpha, \beta)$, называется фундаментальной системой решений этого уравнения на указанном интервале.
    Фундаментальная система решений уравнения $(1)$, для которой матрица начальных данных в точке $x_0$ — единичная, называется фундаментальной системой решений, нормированной в этой точке.
    Если функции $y_1(x), \dots, y_n(x)$ образуют ФСР уравнения $(1)$ на интервале $(\alpha, \beta)$, то формула \[ y = \sum\limits_{s=1}^{n} C_s y_s(x), \] где $C_s$ — произвольные постоянные, определяет общее решение уравнения $(1)$ на множестве \[ R = \left\{ x \in (\alpha, \beta): \abs{y} \lt \infty, \; \abs{y'} \lt \infty, \; \dots, \; \abs{y^{(n-1)}} \lt \infty \right\}. \]
    Уравнение $(1)$ не может иметь на интервале $(\alpha, \beta)$ более чем $n$ линейно независимых решений.
  20. Системы линейных однородных уравнений. Свойства решений. Фундаментальная матрица
    Совокупность соотношений вида \[ F_i(x, y_1, y_1', \dots, y_1^{m_1}, y_2, y_2', \dots, y_2^{m_2}, \dots, y_n, y_n', \dots, y_n^{m_n}) = 0, \qquad i = \overline{1,n}, \] называется системой обыкновенных дифференциальных уравнений.

    Рассмотрим \[ \begin{aligned} F_1(x, y_1, y_2, \dots, y_n, y_1', y_2', \dots, y_n') &= 0, \\ F_2(x, y_1, y_2, \dots, y_n, y_1', y_2', \dots, y_n') &= 0, \\ \dots \\ F_n(x, y_1, y_2, \dots, y_n, y_1', y_2', \dots, y_n') &= 0. \end{aligned} \] Пусть функции $F_1, \dots, F_n$ таковы, что система функций разрешима относительно производных искомых функций: \[ \tag{1} \begin{aligned} \frac{d y_1}{d x} &= f_1(x, y_1, \dots, y_n), \\ \dots \\ \frac{d y_n}{d x} &= f_n(x, y_1, \dots, y_n). \end{aligned} \]

    Система вида $(1)$ называется системой обыкновенных дифференциальных уравнений в нормальной форме. Функции $f_s \in C(D), \; D \subset \mathbb{R}^{n+1}$, а $D$ — односвязная область.
    Число уравнений в системе $(1)$ называется порядком этой системы.

    Векторная запись системы $(1)$: \[ y' = f(x,y), \] где \[ y = (y_1, \dots, y_n)^T, \qquad f = (f_1, \dots, f_n)^T. \]

    Рассмотрим однородную систему линейных уравнений: \[ \tag{2} y' = A(x) y. \] Рассмотрим $m$ решений однородной линейной системы $(2)$: $y^{(1)}(x), \dots, y^{(m)}(x)$. Их линейной комбинацией будем называть вектор-функцию \[ \sum\limits_{k=1}^{m} C_k y^{(k)}(x), \] где $C_k$ — некоторые постоянные.

    Линейная комбинация решений однородной линейной системы является также решением этой системы.
    Если вектор-функции линейно зависимы, то их вронскиан тождественно равен нулю.
    Совокупность $n$ линейно независимых решений системы $(2)$ называется её фундаментальной системой решений.
    Матрицу, столбцами которой являются решения ФСР: \[ Y(x) = (y^{(1)}(x), \dots, y^{(n)}(x)), \] называют фундаментальной матрицей (ФМ).
    ФМ $Y(x)$ называется нормированной, если $Y(x_0) = E$. Её также называют матрицантом и обозначают $z(x, x_0)$.
    Свойства ФМ:
    1. ФМ является решением матричного уравнения \[ \frac{d Y(x)}{d x} A(x) Y(x). \]
    2. (теорема Лиувилля). Определитель ФМ определяется следующим образом: \[ \abs{Y(x)} = \abs{Y(x_0)} \exp \left(\int\limits_{x_0}^{x} \sum\limits_{s=1}^{n} a_{ss}(\tau) d\tau\right). \]
    3. Пусть $\tilde Y(x)$ — ФМ системы $(2)$, $Q$ — произвольная невырожденная матрица, тогда $\tilde Y(x) Q$ — ФМ системы $(2)$.
    4. Предположим, что $Y_1(x)$ и $Y_2(x)$ — ФМ системы $(2)$. Тогда существует постоянная невырожденная матрица $Q$ такая, что \[ Y_1(x) = Y_2(x) Q. \]
    5. Общее решение системы $(2)$ имеет вид \[ y = Y(x) \begin{pmatrix} c_1 \\ \dots \\ c_n \end{pmatrix}, \] где $c_1, \dots, c_n$ — произвольные параметры.
  21. Задача линейного программирования
    Задача линейного программирования заключается в поиске минимума или максимума линейной функции при линейных ограничениях.
    Обозначения:
    1. $x = (\xi_1, \dots, \xi_m) \in \mathbb{R}^m$;
    2. $y = (\eta_1, \dots, \eta_n) \in \mathbb{R}^n$;
    3. $c = (\gamma_1, \dots, \gamma_m) \in \mathbb{R}^m$;
    4. $b = (\beta_1, \dots, \beta_n) \in \mathbb{R}^n$;
    5. $A = \set{\alpha_{ij}}_{m \times n}$.
    Прямая задача ЛП: \[ \begin{gathered} \max \dp{c}{x}, \\ xA \leqslant b, \\ x \geqslant 0. \end{gathered} \]
    Двойственная задача ЛП: \[ \begin{gathered} \min \dp{b}{y}, \\ Ay \geqslant c, \\ y \geqslant 0. \end{gathered} \]
    Вектор $x$, удовлетворяющий всем ограничениям ЗЛП, называют допустимым решением. Множество всех допустимых значений ЗЛП — $M \subset \mathbb{R}^m$.
    Допустимое решение $x^*$, на котором целевая функция достигает максимального (минимального) значения, называют оптимальным решением.
    Двойственная задача к двойственной — прямая.
    Пусть $x, y$ — допустимые решения ПЗ и ДвЗ соответственно. Тогда \[ cx \leqslant by. \]
    (критерий оптимальности). Если существуют допустимые решения $\bar x$ и $\bar y$ для ПЗ и ДЗ соответственно такие, что \[ c \bar x = b \bar y, \] то $\bar x$ и $\bar y$ — оптимальные для ПЗ и ДЗ соответственно.
    (двойственности).
    1. Если существуют решения ПЗ и ДЗ, то существует оптимальные решения ПЗ и ДЗ, причём их значения совпадают.
    2. Если одна из задач не имеет допустимых решений, то двойственная к ней не имеет оптимального.
  22. Прямая и двойственная задачи линейного программирования
    Задача линейного программирования заключается в поиске минимума или максимума линейной функции при линейных ограничениях.
    Обозначения:
    1. $x = (\xi_1, \dots, \xi_m) \in \mathbb{R}^m$;
    2. $y = (\eta_1, \dots, \eta_n) \in \mathbb{R}^n$;
    3. $c = (\gamma_1, \dots, \gamma_m) \in \mathbb{R}^m$;
    4. $b = (\beta_1, \dots, \beta_n) \in \mathbb{R}^n$;
    5. $A = \set{\alpha_{ij}}_{m \times n}$.
    Прямая задача ЛП: \[ \begin{gathered} \max \dp{c}{x}, \\ xA \leqslant b, \\ x \geqslant 0. \end{gathered} \]
    Двойственная задача ЛП: \[ \begin{gathered} \min \dp{b}{y}, \\ Ay \geqslant c, \\ y \geqslant 0. \end{gathered} \]
    Вектор $x$, удовлетворяющий всем ограничениям ЗЛП, называют допустимым решением. Множество всех допустимых значений ЗЛП — $M \subset \mathbb{R}^m$.
    Допустимое решение $x^*$, на котором целевая функция достигает максимального (минимального) значения, называют оптимальным решением.
    Двойственная задача к двойственной — прямая.
    Пусть $x, y$ — допустимые решения ПЗ и ДвЗ соответственно. Тогда \[ cx \leqslant by. \]
    (критерий оптимальности). Если существуют допустимые решения $\bar x$ и $\bar y$ для ПЗ и ДЗ соответственно такие, что \[ c \bar x = b \bar y, \] то $\bar x$ и $\bar y$ — оптимальные для ПЗ и ДЗ соответственно.
    (двойственности).
    1. Если существуют решения ПЗ и ДЗ, то существует оптимальные решения ПЗ и ДЗ, причём их значения совпадают.
    2. Если одна из задач не имеет допустимых решений, то двойственная к ней не имеет оптимального.