Пятая случайные функции. Численные характеристики случайной функции

Мы имели много случаев убедиться в том, какое большое значение в теории вероятностей имеют основные числовые характеристики случайных величин: математическое ожидание и дисперсия - для одной случайной величины, математические ожидания и корреляционная матрица - для системы случайных величин. Искусство пользоваться числовыми характеристиками, оставляя по возможности в стороне законы распределения, - основа прикладной теории вероятностей. Аппарат числовых характеристик представляет собой весьма гибкий и мощный аппарат, позволяющий сравнительно просто решать многие практические задачи.

Совершенно аналогичным аппаратом пользуются и в теории случайных функций. Для случайных функций также вводятся простейшие основные характеристики, аналогичные числовым характеристикам случайных величин, и устанавливаются правила действий с этими характеристиками. Такой аппарат оказывается достаточным для решения многих практических задач.

В отличие от числовых характеристик случайных величин, предоставляющих собой определенные числа, характеристики случайных функций представляют собой в общем случае не числа, а функции.

Математическое ожидание случайной функции определяется следующим образом. Рассмотрим сечение случайной функции при фиксированном . В этом сечении мы имеем обычную случайную величину; определим ее математическое ожидание. Очевидно, в общем случае оно зависит от , т. е. представляет собой некоторую функцию :

. (15.3.1)

Таким образом, математическим ожиданием случайной функции называется неслучайная функция , которая при каждом значении аргумента равна математическому ожиданию соответствующего сечения случайной функции.

По смыслу математическое ожидание случайной функции есть некоторая средняя функция, около которой различным образом варьируются конкретные реализации случайной функции.

На рис. 15.3.1 тонкими линиями показаны реализации случайной функции, жирной линией - ее математическое ожидание.

Аналогичным образом определяется дисперсия случайной функции.

Дисперсией случайной функции называется неслучайная функция , значение которой для каждого равно дисперсии соответствующего сечения случайной функции:

. (15.3.2)

Дисперсия случайной функции при каждом характеризует разброс возможных реализаций случайной функции относительно среднего, иными словами, «степень случайности» случайной функции.

Очевидно, есть неотрицательная функция. Извлекая из нее квадратный корень, получим функцию - среднее квадратическое отклонение случайной функции:

. (15.3.3)

Математическое ожидание и дисперсия представляют собой весьма важные характеристики случайной функции; однако для описания основных особенностей случайной функции этих характеристик недостаточно. Чтобы убедиться в этом, рассмотрим две случайные функции и , наглядно изображенные семействами реализаций на рис. 15.3.2 и 15.3.3.

У случайных функций и примерно одинаковые математические ожидания и дисперсии; однако характер этих случайных функций резко различен. Для случайной функции (рис. 15.3.2) характерно плавное, постепенное изменение. Если, например, в точке случайная функция приняла значение, заметно превышающее среднее, то весьма вероятно, что и в точке она также примет значение больше среднего. Для случайной функции характерна ярко выраженная зависимость между ее значениями при различных . Напротив, случайная функция (рис. 15.3.3) имеет резко колебательный характер с неправильными, беспорядочными колебаниями. Для такой случайной функции характерно быстрое затухание зависимости между ее значениями по мере увеличения расстояния по между ними.

Очевидно, внутренняя структура обоих случайных процессов совершенно различна, но это различие не улавливается ни математическим ожиданием, ни дисперсией; для его описания необходимо вести специальную характеристику. Эта характеристика называется корреляционной функцией (иначе - автокорреляционной функцией). Корреляционная функция характеризует степень зависимости между сечениями случайной функции, относящимися к различным .

Пусть имеется случайная функция (рис. 15.3.4); рассмотрим два ее сечения, относящихся к различным моментам: и , т. е. две случайные величины и . Очевидно, что при близких значениях и величины и связаны тесной зависимостью: если величина приняла какое-то значение, то и величина с большой вероятностью примет значение, близкое к нему. Очевидно также, что при увеличении интервала между сечениями , зависимость величин и вообще должна убывать.

Степень зависимости величин и может быть в значительной мере охарактеризована их корреляционным моментом; очевидно, он является функцией двух аргументов и . Эта функция и называется корреляционной функцией.

Таким образом, корреляционной функцией случайной функции называется неслучайная функция двух аргументов , которая при каждой паре значений , равна корреляционному моменту соответствующих сечений случайной функции:

, (15.3.4)

, .

Вернемся к примерам случайных функций и (рис. 15.3.2 и 15.3.3). Мы видим теперь, что при одинаковых математических ожиданиях и дисперсиях случайные функции и имеют совершенно различные корреляционные функции. Корреляционная функция случайной функции медленно убывает по мере увеличения промежутка ; напротив, корреляционная функция случайной функции быстро убывает с увеличением этого промежутка.

Выясним, во что обращается корреляционная функция , когда ее аргументы совпадают. Полагая , имеем:

, (15.3.5)

т. е. при корреляционная функция обращается в дисперсию случайной функции.

Таким образом, необходимость в дисперсии как отдельной характеристике случайной функции отпадает: в качестве основных характеристик случайной функции достаточно рассматривать ее математическое ожидание и корреляционную функцию.

Так как корреляционный момент двух случайных величин и не зависит от последовательности, в которой эти величины рассматриваются, то корреляционная функция симметрична относительно своих аргументов, т. е. не меняется при перемене аргументов местами:

. (15.3.6)

Если изобразить корреляционную функцию в виде поверхности, то эта поверхность будет симметрична относительно вертикальной плоскости , проходящей через биссектрису угла (рис. 15.3.5).

Заметим, что свойства корреляционной функции естественно вытекают из свойств корреляционной матрицы системы случайных величин. Действительно, заменим приближенно случайную функцию системой случайных величин . При увеличении и соответственном уменьшении промежутков между аргументами корреляционная матрица системы, представляющая собой таблицу о двух входах, в пределе переходит в функцию двух непрерывно изменяющихся аргументов, обладающую аналогичными свойствами. Свойство симметричности корреляционной матрицы относительно главной диагонали переходит в свойство симметричности корреляционной функции (15.3.6). По главной диагонали корреляционной матрицы стоят дисперсии случайных величин; аналогично при корреляционная функция обращается в дисперсию .

На практике, если требуется построить корреляционную функцию случайной функции , обычно поступают следующим образом: задаются рядом равноотстоящих значений аргумента и строят корреляционную матрицу полученной системы случайных величин. Эта матрица есть не что иное, как таблица значений корреляционной функции для прямоугольной сетки значений аргументов на плоскости . Далее, путем интерполирования или аппроксимации можно построить функцию двух аргументов .

Вместо корреляционной функции можно пользоваться нормированной корреляционной функцией:

, (15.3.7)

которая представляет собой коэффициент корреляции величин , . Нормированная корреляционная функция аналогична нормированной корреляционной матрице системы случайных величин. При нормированная корреляционная функция равна единице.

Во всех предыдущих параграфах этой главы предполагалось, что управляющие и возмущающие воздействия являются определенными функциями времени. Однако для систем автоматического управления, работающих в реальных условиях, характерно, что эти воздействия носят случайный характер и принципиально непредсказуемы.

Рассмотрим, например, работу следящей системы, управляющей антенной радиолокатора. Для этой системы управляющим воздействием является положение цели, а возмущающими воздействиями можно считать ветровые нагрузки на антенну, отклонения луча от направления на цель из-за рефракции в атмосфере, собственные шумы в усилительном тракте системы, помехи от источников питания и т. п. Все эти процессы обусловлены множеством взаимодействующих причин и носят настолько сложный характер, что их нельзя представить какой-либо заданной функцией времени. То же самое можно сказать и относительно управляющего воздействия. На практике его нельзя считать типовым, например ступенчатым, линейно-растущим, синусоидальным или каким-либо регулярным сигналом. Реально цель маневрирует, поэтому ее положение в любой последующий момент не может быть точно предсказано. На этом маневрирование накладывается постоянное блуждание отражающей точки по корпусу цели.

Таким образом, сигналы управления и возмущения в реальных условиях являются случайными процессами. Случайным, или стохастическим процессом

называют такую функцию времени которая при каждом значении аргумента является случайной величиной. Если вместо времени употребляют другую независимую переменную, то используют термин случайная функция. При многократном воспроизведении условий протекания случайного процесса последний принимает каждый раз различные конкретные значения. Эти значения как функции времени называют реализациями случайного процесса. Типичный вид нескольких реализаций стохастического процесса ошибки угловой координаты цели, отслеживаемой радиолокационной станцией, представлен на рис. XIII. 14.

Математическое описание случайного процесса. При фиксированном значении аргумента случайный процесс является случайной величиной, полное описание которой дает функция распределения

т. е. вероятность того, что в данный момент случайная величина примет значение, меньшее Как известно из теории вероятностей, вместо функции распределения часто удобнее пользоваться плотностью вероятности, являющейся ее производной (в обобщенном смысле):

Если зафиксировать два момента времени то значения случайного процесса образуют систему двух случайных величин или двумерный случайный вектор. Для его полного описания требуется знать двумерную функцию распределения

Рис. ХIII.14. Стохастический процесс ошибки измерения угловой координаты цели, отслеживаемой радиолокационной станцией

или двумерную плотность

которые зависят от как от параметров.

Для более подробного описания случайного процесса в произвольные моменты времени аналогично вводятся функции распределения и плотности более высоких порядков. Таким образом, полное статистическое описание случайной функции (процесса) даетесконечная последовательность ее функций распределения:

или последовательность их производных

Каждый из членов этих последовательностей имеет обычные свойства функций распределения или соответственно плотностей. Кроме того, каждый следующий член последовательности определяет все предыдущие. Например, если положить то

аналогичные формулы имеем и для любых других моментов времени.

Это условие называют условием согласованности семейства функций распределения. Справедливо также условие симметрии:

В общем случае плотности или функции распределения более высокого порядка не определяются плотностями или функциями более низких порядков.

Однако часто полезно рассматривать так называемый абсолютно случайный процесс, значения которого независимы в совокупности для любых Для такого процесса плотность распределения любого порядка определяется через одномерную:

Такой процесс является математическим упрощением, поскольку при достаточно близких значениях значения любого реального процесса близки, и, следовательно, зависимы. Другим крайним случаем является вырожденный, или сингулярный процесс, определяемый одной или несколькими случайными величинами; например,

где - случайная величина; - известные константы. Такой процесс становится полностью известным, если можно измерить его в какой-либо момент времени. В более общем случае сингулярный случайный процесс характеризуется совокупностью случайных величин например,

где - обычные (детерминированные функции времени).

Рис. XIII.15. Возможные реализации двух случайных функций: а - с высокочастотными составляющими; б - с низкочастотными составляющими

Моментные функции. В практических задачах обычно пользуются более простыми характеристиками случайных процессов - моментными функциями. Моментом первого порядка или математическим ожиданием процесса называют выражение

Если эту функцию рассматривать в зависимости от то около среднего значения функции будут группироваться все реализации случайного процесса (рис. XIII.15).

Математические ожидания более высоких степеней носятназвания начальных моментов порядка

Случайная функция имеет нулевое среднее значение и называется центрированной. Центральным моментом -порядка процесса называется математическое ожидание степени центрированного процесса

Меру рассеяния значений случайного процесса относительно математического ожидания его определяет момент второго порядка, называемый чаще дисперсией:

Однако характеристики случайного процесса, основанные на первой плотности не отражают изменения реализаций во времени. Например, два процесса с одной и той же первой плотностью (рис. XIII. 15, а и б) различаются по скорости изменения реализаций, т. е. по степени взаимосвязи между двумя значениями, принимаемыми в одной реализации в различные моменты времени. Для описания временной внутренней структуры случайных процессов используют корреляционную функцию

Эту функцию часто называют также автокорреляционной, или ковариацией, она играет основную роль в теории случайных процессов.

Легко показать, что корреляционная функция симметрична относительно своих аргументов а при ее значение равно дисперсии случайного процесса . В самом деле,

Для характеристики точности систем автоматического регулирования удобно использовать нецентрированную корреляционную функцию:

называемую также вторым начальным моментом процесса.

Связь между устанавливается следующими преобразованиями:

При средний квадрат процесса будет

В системах автоматического регулирования часто действует несколько случайных возмущающих или управляющих сигналов, независимых или взаимосвязанных. Мерой взаимосвязи двух случайных процессов служит взаимная корреляционная функция

где - совместная плотность вероятности для независимых процессов

Для взаимной корреляционной функции справедливо равенство

Теория случайных процессов, в которой используются лишь моменты первого и второго порядков называется корреляционной теорией. Она была создана основополагающими работами А. Н. Колмогорова , Д. Я. Хинчина , Н. Вииера. Большой вклад в ее развитие внесли советские ученые В. С. Пугачев , В. В. Солодовников и др.

Стационарные случайные процессы. При рассмотрении различных случайных процессов выделяют группу процессов, статистические свойства которых не изменяются при сдвиге во времени. Такие процессы называются стационарными. Рассматривая множество реализаций случайного процесса, приведенного на рис. XIII. 14, можно предположить, что в данном случае начало отсчета времени может быть выбрано произвольно, т. е. налицо стационарный процесс. Напротив, на рис. XIII. 15, очевидно, имеем примеры нестационарных процессов.

Исследование систем, случайные процессы в которых стационарны, значительно проще, чем исследование систем с нестационарными процессами. Однако процессы во многих системах регулирования можно приближенно рассматривать как стационарные. Это имеет большое прикладное значение в теории стационарных случайных процессов.

По определению стационарного случайного процесса его математическое ожидание должно быть постоянно при сдвиге аргумента на любой тервал Т:

а корреляционная функция удовлетворяет соотношению

Полагая находим, что корреляционная функция стационарного процесса зависит только от разности отсчетов

Эргодические свойства случайных процессов. Если мы имеем совокупность, или, как говорят, ансамбль реализаций, то математическое ожидание и корреляционная функция получаются усреднением по ансамблю реализаций случайного процесса, т. е. «поперек» процесса в одном или соответственно двух его сечениях. Интересно рассмотреть также результаты усреднения реализаций стационарного процесса по времени вдоль оси на интервале , определив эту операцию естественным образом:

Эта величина различна для разных реализаций случайного процесса и сама является случайной. Можно показать, что ее математическое ожидание для стационарного процесса равно . В то же время дисперсия этой величины, как показывают непосредственные расчеты,

Рис. XIII.16. Структурная схема коррелятора

Условия эргодичности процесса по , сформулированные В. С. Пугачевым , содержат более высокие моменты случайного процесса и здесь не приводятся.

Свойства эргодичности случайных процессов позволяют заменить усреднение по множеству реализаций, практически редко осуществимое, усреднением по времени, взятым по одной реализации, когда Т велико..

Не все стационарные процессы имеют эргодические свойства. Например, процесс, все реализации которого есть случайные величины, не изменяющиеся во времени, как легко убедиться, неэргодичен. Отсюда следует, что физический смысл эргодичности заключается в «хорошей перемешиваемости» реализаций случайного процесса. Поскольку это имеет место практически во всех приложениях, в дальнейшем будем предполагать рассматриваемые процессы эргодическими.

Для таких процессов можно экспериментально определить среднее значение и корреляционную функцию процесса с помощью специальных приборов - корреляторов. Принцип действия корреляторов ясен из рис. XIII.16.

Подавая на вход коррелятора единичный сигнал, на его выходе при достаточно большом времени интегрирования Т будем иметь среднее значение процесса х, приблизительно совпадающее с его математическим ожиданием Если же то в результате будем иметь второй начальный момент по которому легко определить и корреляционную функцию.

Комплексной слуюйной функцией называютфункцию

Z (t )=X (t )+Y (t )i ,

где Х (t ) и Y (t )-действительные случайные функции действительного аргумента t .

Обобщим определения математического ожидания и дисперсии на комплексные случайные функции так, чтобы, в частности, при Y=0 эти характеристики совпали с ранее введенными характеристиками для действительных случайных функций, т. е. чтобы выполнялись требования:

m z (t )=m x (t )(*)

D z (t )=D x (t )(**)

Математическим , ожиданием , комплексной случайной функции Z (t )=Х (t )+Y (t )i называют комплексную функцию (неслучайную)

m z (t )=m x (t )+m y (t )i .

В частности, при Y=0 получим т z (t )=т x (t ),т.е. требование (*) выполняется.

Дисперсией комплексной случайной функции Z (t ) называют математическое ожидание квадрата модуля центрированной функции Z (t ):

D z (t )=M [| (t )| 2 ].

В частности, при Y==0 получим D z (t )= M [| (t )|] 2 =D x (t ), т. е. требование (**) выполняется.

Учитывая, что математическое ожидание суммы равно сумме математических ожиданий слагаемых, имеем

D z (t )=M [| (t )| 2 ]= M {[ (t )] 2 + [ (t ) 2 ]}= M [ (t )] 2 +M [ (t ) 2 ]= D x (t )+D y (t ).

Итак,дисперсия комплексной случайной функции равна сумме дисперсий ее действительной и мнимой частей:

D z (t )=D x (t )+D y (t ).

Известно, что корреляционная функция действительной случайной функции Х (t ) при разных значениях аргументов равна дисперсии D x (t ). Обобщим определение корреляционной функции на комплексные случайные функции Z (t ) так, чтобы при равных значениях аргументов t 1 =t 2 =t корреляционная функция K z (t , t ) была равна дисперсии D z (t ), т. е. чтобы выполнялось требование

K z (t , t )=D z (t ). (***)

Корреляционной функцией комплексной случайной функции Z (t ) называют корреляционный момент сечений (t 1)и (t 2)

K z (t 1 , t 2)= M .

В частности, при равных значениях аргументов

K z (t , t )= M =M [| | 2 ]= D z (t ).

т. е. требование (***) выполняется.

Если действительные случайные функции Х (t ) и Y (t )коррелированы, то

K z (t 1 , t 2)= K x (t 1 , t 2)+K y (t 1 , t 2)+ [R xy (t 2 ,t 1)]+ [ R xy (t 1 ,t 1)].

если Х (t ) и Y (t ) не коррелированы, то

K z (t 1 , t 2)= K x (t 1 , t 2)+K y (t 1 , t 2).

Обобщим определение взаимной корреляционной функции на комплексные случайные функции Z 1 (t )=Х 1 (t )+ Y 1 (t )i и Z 2 (t )=Х 2 (t )+ Y 2 (t )i так, чтобы, в частности, при Y 1 =Y 2 = 0 выполнялось требование

Взаимной корреляционной функцией двух комплексных случайных функций называют функцию (неслучайную)

В частности, при Y 1 =Y 2 =0 получим

т. е. требование (****) выполняется.

Взаимная корреляционная функция двух комплексных случайных функций выражается через взаимные корреляционные функции их действительных и мнимых частей следующей формулой:

Задачи

1. Найти математическое ожидание случайных функций:

a) X (t )=Ut 2 , где U- случайная величина, причем M (U )=5 ,

б ) Х (t )=U cos2t+Vt , где U и V- случайные величины, причем M (U )=3 , M (V )=4 .

Отв. а) m x (t)=5t 2 ; б) т x (t)=3 cos2t+4t.

2. К х (t 1 ,t 2) случайной функции X (t ). Найти корреляционные функции случайных функций:

a) Y (t )=X (t )+t; б) Y (t )=(t +1)X (t ); в) Y (t )=4X (t ).

Отв. a) К y (t 1 ,t 2)= К х (t 1 ,t 2); б) К y (t 1 ,t 2)=(t 1 +1)(t 2 +1) К х (t 1 ,t 2); в) К y (t 1 ,t 2)=16 К x (t 1 ,t 2)=.

3. Задана дисперсия D x (t ) случайной функции Х (t ). Найти дисперсию случайных функций: a) Y (t )(t )+e t б ) Y (t )=tX (t ).

Отв . a) D y (t )=D x (t ); б) D y (t )=t 2 D x (t ).

4. Найти: а) математическое ожидание; б) корреляционную функцию; в) дисперсию случайной функции Х (t )=Usin 2t , где U- случайная величина, причем M (U )=3 , D (U )=6 .

Отв . а)m x (t ) =3sin 2t; б) К х (t 1 ,t 2)= 6sin 2t 1 sin 2t 2 ; в) D x (t )=6sin 2 2t .

5. Найти нормированную корреляционную функцию случайной функции X (t ), зная ее корреляционную функцию К х (t 1 ,t 2)=3cos (t 2 -t 1).

Отв. ρ x (t 1 ,t 2)=cos(t 2 -t 1).

6. Найти: а) взаимную корреляционную функцию; б) нормированную взаимную корреляционную функцию двух случайных функций X (t )=(t +1)U , и Y(t )= (t 2 + 1)U , где U- случайная величина, причем D (U )=7.

Отв . a) R xy (t 1 ,t 2)=7(t 1 +l)(t 2 2 +l); б) ρ xy (t 1 ,t 2)=1.

7. Заданы случайные функции Х (t )= (t- 1)U и Y (t )=t 2 U , где U и V - некоррелированные случайные величины, причем M (U )=2, M (V )= 3, D (U )=4 , D (V )=5 . Найти: а) математическое ожидание; б) корреляционную функцию; в) дисперсию суммы Z (t )=X (t )+Y (t ).

Указание. Убедиться, что взаимная корреляционная функция заданных случайных функций равна нулю и, следовательно, Х (t ) и Y (t ) не коррелированы.

Отв . а) m z (t )=2(t - 1)+3t 2 ; б) К z (t 1 ,t 2)=4(t 1 - l)(t 2 - 1)+6t 1 2 t 2 2 ; в) D z (t )=4(t - 1) 2 +6t 4 .

8. Задано математическое ожидание m x (t )=t 2 +1 случайной функции Х (t ). Найти математическое ожидание ее производной.

9. Задано математическое ожидание m x (t )=t 2 +3 случайной функции Х (t ). Найти математическое ожидание случайной функции Y (t )=tХ" (t )+t 3 .

Отв. m y (t)=t 2 (t+2).

10. Задана корреляционная функция К х (t 1 ,t 2)= случайной функции X (t ). Найти корреляционную функцию ее производной.

11. Задана корреляционная функция К х (t 1 ,t 2)= случайной функции Х (t ). Найти взаимные корреляционные функции.

Задание на курсовую работу

Дано: пять начальных моментов

а1 = 1, а2 = 2, а3 = 2, а4 = 1, а5 = 1 г = 0, µ 0 = 1).

Найти: пять центральных моментов.

Имея в своём распоряжении пять начальных и пять центральных моментов, вычислить значения:

а) математическое ожидание;

б) дисперсию;

в) стандартное отклонение;

г) коэффициент вариации;

д) коэффициент асимметрии;

е) коэффициент эксцессии.

По полученным данным качественно описать плотность вероятности данного процесса.

1. Теоретические сведения

Распределения случайных величин и функции распределения

Распределение числовой случайной величины - это функция, которая однозначно определяет вероятность того, что случайная величина принимает заданное значение или принадлежит к некоторому заданному интервалу.

Первое - если случайная величина принимает конечное число значений. Тогда распределение задается функцией Р (Х = х), ставящей каждому возможному значению х случайной величины X вероятность того, что X = х.

Второе - если случайная величина принимает бесконечно много значений. Это возможно лишь тогда, когда вероятностное пространство, на котором определена случайная величина, состоит из бесконечного числа элементарных событий. Тогда распределение задается набором вероятностей Р (а Х для всех пар чисел а, b таких, что аРаспределение может быть задано с помощью т.н. функции распределения F(x) = Р (Х<х), определяющей для всех действительных х вероятность того, что случайная величина X принимает значения, меньшие х. Ясно, что

Р (а Х

Это соотношение показывает, что как распределение может быть рассчитано по функции распределения, так и, наоборот, функция распределения - по распределению.

Используемые в вероятностно-статистических методах принятия решений и других прикладных исследованиях функции распределения бывают либо дискретными, либо непрерывными, либо их комбинациями.

Дискретные функции распределения соответствуют дискретным случайным величинам, принимающим конечное число значений или же значения из множества, элементы которого можно перенумеровать натуральными числами (такие множества в математике называют счетными). Их график имеет вид ступенчатой лестницы (рис. 1).

Пример 1. Число X дефектных изделий в партии принимает значение 0 с вероятностью 0,3, значение 1 с вероятностью 0,4, значение 2 с вероятностью 0,2 и значение 3 с вероятностью 0,1. График функции распределения случайной величины X изображен на рис. 1.

Рис. 1. График функции распределения числа дефектных изделий.

Непрерывные функции распределения не имеют скачков. Они монотонно возрастают при увеличении аргумента - от 0 при х→∞ до 1 при х→+∞. Случайные величины, имеющие непрерывные функции распределения, называют непрерывными.

Непрерывные функции распределения, используемые в вероятностно-статистических методах принятия решений, имеют производные. Первая производная f(x) функции распределения F(x) называется плотностью вероятности,

По плотности вероятности можно определить функцию распределения:

Для любой функции распределения

Перечисленные свойства функций распределения постоянно используются в вероятностно-статистических методах принятия решений. В частности, из последнего равенства вытекает конкретный вид констант в формулах для плотностей вероятностей, рассматриваемых ниже.

Пример 2. Часто используется следующая функция распределения:

(1)

где а и b - некоторые числа, аНайдем плотность вероятности этой функции распределения:

(в точках х = а их = b производная функции F(x) не существует).

Случайная величина с функцией распределения (1) называется «равномерно распределенной на отрезке ».

Смешанные функции распределения встречаются, в частности, тогда, когда наблюдения в какой-то момент прекращаются. Например, при анализе статистических данных, полученных при использовании планов испытании на надежность, предусматривающих прекращение испытаний по истечении некоторого срока. Или при анализе данных о технических изделиях, потребовавших гарантийного ремонта.

Пример 3. Пусть, например, срок службы электрической лампочки - случайная величина с функцией распределения F(t), а испытание проводится до выхода лампочки из строя, если это произойдет менее чем за 100 часов от начала испытаний, или до момента t 0 = 100 часов. Пусть G(t) - функция распределения времени эксплуатации лампочки в исправном состоянии при этом испытании. Тогда

Функция G(t) имеет скачок в точке t 0 , поскольку соответствующая случайная величина принимает значение t 0 с вероятностью 1-F(t 0 )>0.

Характеристики случайных величин. В вероятностно-статистических методах принятия решений используется ряд характеристик случайных величин, выражающихся через функции распределения и плотности вероятностей.

При описании дифференциации доходов, при нахождении доверительных границ для параметров распределений случайных величин и во многих иных случаях используется такое понятие, как «квантиль порядка р», где 0 <р < 1 (обозначается х р ). Квантиль порядка р - значение случайной величины, для которого функция распределения принимает значение р или имеет место «скачок» со значения меньшер до значения больше р (рис. 2). Может случиться, что это условие выполняется для всех значений х, принадлежащих этому интервалу (т.е. функция распределения постоянна на этом интервале и равна р). Тогда каждое такое значение называется «квантилем порядка р». Для непрерывных функций распределения, как правило, существует единственный квантиль х р порядка р (рис. 2), причем

F(x p )=p. (2)

Рис. 2. Определение квантиля х р порядка р.

Пример 4. Найдем квантиль х р порядка р для функции распределения F(x) из (1).

При 0 <р < 1 квантиль х р находится из уравнения

т.е. х р = а + p (b - а) = а (1-р) +bр. При р = 0 любое х а является квантилем порядка p = 0. Квантилем порядка р = 1 является любое число х b.

Для дискретных распределений, как правило, не существует х р , удовлетворяющих уравнению (2). Точнее, если распределение случайной величины дается табл. 1, где x 1 < х 2 <… < х к , то равенство (2), рассматриваемое как уравнение относительно х р , имеет решения только для k значений р, а именно,

p =p 1

p =p 1 +p 2 ,

p = p 1 +p 2 +p 3 ,

p = p 1 +p 2 + р т , 3<т<к,

р =р, + р 2 +… +p k

Таблица 1. Распределение дискретной случайной величины

Значения х случайной величины 1 х 2 х k Вероятности Р (Х =х)P 1 Р 2 Р k

Для перечисленных к значений вероятности р решение х р уравнения (2) неединственно, а именно,

F(x) =р, +р 2 +… + Р т

для всех х таких, что х т < х < х т+1 . Т.е. х р - любое число из интервала т ; x m+1 ). Для всех остальных р из промежутка (0; 1), не входящих в перечень (3), имеет место «скачок» со значения меньше р до значения больше р. А именно, если

p 1 +p 2 +… + p т 1 +p 2 + … + p т + p т+1 ,

то x р =x т+1 .

Рассмотренное свойство дискретных распределений создает значительные трудности при табулировании и использовании подобных распределений, поскольку невозможным оказывается точно выдержать типовые численные значения характеристик распределения. В частности, это так для критических значений и уровней значимости непараметрических статистических критериев (см. ниже), поскольку распределения статистик этих критериев дискретны.

Большое значение в статистике имеет квантиль порядка p = ½. Он называется медианой (случайной величины X или ее функции распределения F(x)) и обозначается Ме(Х). В геометрии есть понятие «медиана» - прямая, проходящая через вершину треугольника и делящая противоположную его сторону пополам. В математической статистике медиана делит пополам не сторону треугольника, а распределение случайной величины: равенство F(x 0,5 ) = 0,5 означает, что вероятность попасть левее x 0,5 и вероятность попасть правее x 0,5 (или непосредственно x 0,5 ) равны между собой и равны ½ , т.е.

Медиана указывает «центр» распределения. С точки зрения одной из современных концепций - теории устойчивых статистических процедур - медиана является более хорошей характеристикой случайной величины, чем математическое ожидание . При обработке результатов измерений в порядковой шкале (см. главу о теории измерений) медианой можно пользоваться, а математическим ожиданием - нет.

Ясный смысл имеет такая характеристика случайной величины, как мода - значение (или значения) случайной величины, соответствующее локальному максимуму плотности вероятности для непрерывной случайной величины или локальному максимуму вероятности для дискретной случайной величины.

Если х 0 - мода случайной величины с плотностью f(x), то, как известно

из дифференциального исчисления,

У случайной величины может быть много мод. Так, для равномерного распределения (1) каждая точка х такая, что а < х < b, является модой. Однако это исключение. Большинство случайных величин, используемых в вероятностно-статистических методах принятия решений и других прикладных исследованиях, имеют одну моду. Случайные величины, плотности, распределения, имеющие одну моду, называются унимодальными.

Математическое ожидание для дискретных случайных величин с конечным числом значений рассмотрено в главе «События и вероятности». Для непрерывной случайной величины X математическое ожидание М(Х) удовлетворяет равенству

Пример 5. Математическое ожидание для равномерно распределенной случайной величины X равно

Для рассматриваемых в настоящей главе случайных величин верны все те свойства математических ожиданий и дисперсий, которые были рассмотрены ранее для дискретных случайных величин с конечным числом значений. Однако доказательства этих свойств не приводим, поскольку они требуют углубления в математические тонкости, не являющегося необходимым для понимания и квалифицированного применения вероятностно-статистических методов принятия решений.

Замечание. В настоящем учебнике сознательно обходятся математические тонкости, связанные, в частности, с понятиями измеримых множеств и измеримых функций, -алгебры событий и т.п. Желающим освоить эти понятия необходимо обратиться к специальной литературе, в частности, к энциклопедии .

Каждая из трех характеристик - математическое ожидание, медиана, мода - описывает «центр» распределения вероятностей. Понятие «центр» можно определять разными способами - отсюда три разные характеристики. Однако для важного класса распределений - симметричных унимодальных - все три характеристики совпадают.

Плотность распределения f(x) - плотность симметричного распределения, если найдется число х 0 такое, что

(3)

Равенство (3) означает, что график функции у =f(х) симметричен относительно вертикальной прямой, проходящей через центр симметрии х = х 0 . Из (3) следует, что функция симметричного распределения удовлетворяет соотношению

(4)

Для симметричного распределения с одной модой математическое ожидание, медиана и мода совпадают и равны х 0 .

Наиболее важен случай симметрии относительно 0, т.е. х п = 0. Тогда (3) и (4) переходят в равенства

(5)

(6)

соответственно. Приведенные соотношения показывают, что симметричные распределения нет необходимости табулировать при всех х, достаточно иметь таблицы при х х 0 .

Отметим еще одно свойство симметричных распределений, постоянно используемое в вероятностно-статистических методах принятия решений и других прикладных исследованиях. Для непрерывной функции распределения

Р(а) = Р (-а а) = F(a) - F(-a),

где F - функция распределения случайной величины X. Если функция распределения F симметрична относительно 0, т.е. для нее справедлива формула (6), то

Р(а) =2F(a) - 1.

Часто используют другую формулировку рассматриваемого утверждения: если

Если и - квантили порядка α и 1-α соответственно (см. (2)) функции распределения, симметричной относительно 0, то из (6) следует, что

От характеристик положения - математического ожидания, медианы, моды - перейдем к характеристикам разброса случайной величины X:

дисперсии , среднему квадратическому отклонению σ и коэффициенту вариации v . Определение и свойства дисперсии для дискретных случайных величин рассмотрены в предыдущей главе. Для непрерывных случайных величин

Среднее квадратическое отклонение - это неотрицательное значение квадратного корня из дисперсии:

Коэффициент вариации - это отношение среднего квадратического отклонения к математическому ожиданию:

Коэффициент вариации применяется при М(Х)>0. Он измеряет разброс в относительных единицах, в то время как среднее квадратическое отклонение - в абсолютных.

Пример 6. Для равномерно распределенной случайной величины X найдем дисперсию, среднеквадратическое отклонение и коэффициент вариации. Дисперсия равна:

Замена переменной дает возможность записать:

где с = (b - а )/2. Следовательно, среднее квадратическое отклонение равно , а коэффициент вариации таков:

По каждой случайной величине X определяют еще три величины - центрированную Y, нормированную V и приведенную U. Центрированная случайная величина Y - это разность между данной случайной величиной X и ее математическим ожиданием М(Х), т.е. Y= Х - М(Х). Математическое ожидание центрированной случайной величины Г равно 0, а дисперсия - дисперсии данной случайной величины: M(Y) = 0, D(Y) = D(X). Функция распределения F Y (x) центрированной случайной величины Y связана с функцией распределения F(x) исходной случайной величины X соотношением:

F Y (x) =F (x + М(Х)).

Для плотностей этих случайных величин справедливо равенство

f Y (x) =f (x + М(Х)).

Нормированная случайная величина V -это отношение данной случайной величины Х к ее среднему квадратическому отклонению σ, т.е. . Математическое ожидание и дисперсия нормированной случайной величины V выражаются через характеристики X так:

где v - коэффициент вариации исходной случайной величины X. Для функции распределения F v (x) и плотности f v (x) нормированной случайной величины V имеем:

где F(x) - функция распределения исходной случайной величины X, a f(x) - ее плотность вероятности.

Приведенная случайная величина U - это центрированная и нормированная случайная величина:

Для приведенной случайной величины:

(7)

Нормированные, центрированные и приведенные случайные величины постоянно используются как в теоретических исследованиях, так и в алгоритмах, программных продуктах, нормативно-технической и инструктивно-методической документации. В частности, потому, что позволяют упростить обоснования методов, формулировки теорем и расчетные формулы.

Используются преобразования случайных величин и более общего плана. Так, если Y= аХ+ b, где а и b - некоторые числа, то

(8)

Пример 7. Если то У - приведенная случайная величина, и формулы (8) переходят в формулы (7).

С каждой случайной величиной X можно связать множество случайных величин Y, заданных формулой У = аХ+b при различных а>0 и b. Это множество называют масштабно-сдвиговым семейством, порожденным случайной величиной X. Функции распределения F Y (x) составляют масштабно сдвиговое семейство распределений, порожденное функцией распределения F(x). Вместо Y= аХ+ b часто используют запись

(9)

Число с называют параметром сдвига, а число d - параметром масштаба. Формула (9) показывает, что Х - результат измерения некоторой величины - переходит в У - результат измерения той же величины, если начало измерения перенести в точку с, а затем использовать новую единицу измерения, в d раз большую старой.

Для масштабно-сдвигового семейства (9) распределение X называют стандартным. В вероятностно-статистических методах принятия решений и других прикладных исследованиях используют стандартное нормальное распределение, стандартное распределение Вейбулла-Гнеденко, стандартное гамма-распределение и др. (см. ниже).

Применяют и другие преобразования случайных величин. Например, для положительной случайной величины X рассматривают Y= gX, где lgX -десятичный логарифм числа X. Цепочка равенств

Основные задачи

Можно выделить два основных вида задач, решение которых требует использования теории случайных функций.

Прямая задача {анализ): заданы параметры некоторого устройства и его вероятностные характеристики (математические ожидания, корреляционные функции, законы распределения) поступающей на его «вход» функции (сигнала, процесса); требуется определить характеристики на «выходе» устройства (по ним судят о «качестве» работы устройства).

Обратная задача {синтез): заданы вероятностные характеристики «входной» и «выходной» функций; требуется спроектировать оптимальное устройство (найти его параметры), осуществляющее преобразование заданной входной функции в такую выходную функцию, которая имеет заданные характеристики. Решение этой задачи требует кроме аппарата случайных функций привлечения и других дисциплин и в настоящей книге не рассматривается.

Определение случайной функции

Случайной функцией называют функцию неслучайного аргумента t, которая при каждом фиксированном значении аргумента является случайной величиной. Случайные функции аргумента t обозначают прописными буквами X{t), Y{t) и т.д.

Например, если U - случайная величина, то функция Х{!)=С U - случайная. Действительно, при каждом фиксированном значении аргумента эта функция является случайной величиной: при t { = 2

получим случайную величину Х х = AU, при t 2 = 1,5 - случайную величину Х 2 = 2,25 U и т.д.

Для краткости дальнейшего изложения введем понятие сечения.

Сечением случайной функции называют случайную величину, соответствующую фиксированному значению аргумента случайной функции. Например, для случайной функции X(t) = t 2 U, приведенной выше, при значениях аргумента 7, = 2 и t 2 = 1,5 были получены соответственно случайные величины X { = AUn Х 2 = 2,2577, которые и являются сечениями заданной случайной функции.

Итак, случайную ф у н к ц и ю можно рассматр и - вать как совокупность случайных величин {Х(?)}, зависящих от параметра t. Возможно и другое истолкование случайной функции, если ввести понятие ее реализации.

Реализацией (траекторией , выборочной функцией) случайной функции X(t) называют неслучайную функцию аргумента t , равной которой может оказаться случайная функция в результате испытания.

Таким образом, если в опыте наблюдают случайную функцию, то в действительности наблюдают одну из возможных ее реализаций; очевидно, при повторении опыта будет наблюдаться другая реализация.

Реализации функции X(t) обозначают строчными буквами x t (t) t x 2 (t) и т.д., где индекс указывает номер испытания. Например, если X(t) = (/sin t, где U - непрерывная случайная величина, которая в первом испытании приняла возможное значение и { = 3, а во втором испытании и 2 = 4,6, то реализациями X(t) являются соответственно неслучайные функции х { (t ) = 3sin t и х 2 (t) = 4,6sin t.

Итак, случайную функцию можно рассматривать как совокупность ее возможных реализаций.

Случайным (стохастическим ) процессом называют случайную функцию аргумента t, который истолковывается как время. Например, если самолет должен лететь с заданной постоянной скоростью, то в действительности вследствие воздействия случайных факторов (колебание температуры, изменение силы ветра и др.), учесть влияние которых заранее нельзя, скорость изменяется. В этом примере скорость самолета - случайная функция от непрерывно изменяющегося аргумента (времени), т.е. скорость есть случайный процесс.

Заметим, что если аргумент случайной функции изменяется дискретно, то соответствующие ему значения случайной функции (случайные величины) образуют случайную последовательность.

Аргументом случайной функции может быть не только время. Например, если измеряется диаметр ткацкой нити вдоль ее длины, то вследствие воздействия случайных факторов диаметр нити изменяется. В этом примере диаметр - случайная функция от непрерывно изменяющегося аргумента (длины нити).

Очевидно, задать случайную функцию аналитически (формулой), вообще говоря, невозможно. В частных случаях, если вид случайной функции известен, а определяющие ее параметры - случайные величины, задать ее аналитически можно. Например, случайными являются функции:

X{t) = sin Qf, где Q - случайная величина,

X(t) = Г/sin t, где U - случайная величина,

X(t) = Г/sin Qt, где О. и }