Главная > Моделирование, обработка сигналов > Введение в теорию случайных сигналов и шумов
<< Предыдущий параграф
Следующий параграф >>
<< Предыдущий параграф Следующий параграф >>
Макеты страниц

5.3. Сходимость выборочных средних

Выборочное среднее является не единственной несмещенной оценкой искомого среднего; случайная величина , представляющая собой одну-единственную выборку, также является в соответствии

с равенством (5.1) несмещенной оценкой, и можно привести другие примеры. Ответ на вопрос о том, хороша ли некоторая данная статистика, зависит главным образом от того, сколь вероятно, что при подстановке в нее выборки получаемое выборочное значение этой статистики будет близко к истинному значению рассматриваемого статистического параметра. Одна статистика лучше другой, если более вероятно, что выборочное значение первой статистики будет ближе к требуемому значению. В соответствии с этим мы будем теперь изучать свойства сходимости выборочных средних.

Из равенств (5.2) и (5.3) следует, что дисперсия выборочного среднего равна

где мы поменяли местами операции статистического усреднения и суммирования. Несколько более удобная форма того же выражения имеет вид

Для того чтобы двигаться дальше, нам нужно иметь данные о корреляции между выборками, т. е. . При выборе значений вероятностного процесса эта корреляция равна просто корреляционной функции данного процесса:

Однако при выборе значений случайной величины одни лишь статистические свойства заданной случайной величины не дают нам требуемой информации; в этом случае корреляцию можно получить тем или иным путем, исходя из наших сведений о методе выбора.

Для того чтобы увидеть эффект корреляции между отдельными выборками, предположим сначала выборки коррелированными между собой столь сильно, что приближенно

для всех значений п. В этом случае равенство (5.4) сводится приближенно к

Итак, если выборки сильно коррелированы, то независимо от числа выборок дисперсия выборочного среднего приблизительно

равна дисперсии рассматриваемой случайной величины (или вероятностного процесса). В этом случае единственное измерение дает столь же хорошую (или плохую) оценку требуемого среднего, как и любое другое количество измерений. Окажется ли оценка хорошей или нет, зависит здесь исключительно от свойств рассматриваемой случайной величины (или вероятностного процесса).

Некоррелированные выборки.

Предположим теперь, что отдельные выборки не коррелированы друг с другом. В этом случае

и все слагаемые двойной суммы в (5.4), за исключением тех, для которых обращаются в нуль. Слагаемых, для которых имеется и для каждого из них выражение в квадратных скобках равно просто Таким образом, для некоррелированных выборок равенство (5.4) принимает вид

Некоррелированные выборки получаются, в частности, при последовательном повторении независимых экспериментов.

Если мы теперь будем неограниченно увеличивать количество измерений, то из равенства (5.8) будет следовать, что

так что, согласно результатам § 4.6, выборочное среднее сходится в среднем, а значит и по вероятности, к искомому среднему:

и

Подобные оценки называют состоятельными.

В соответствии с равенствами (5.10), являющимися одной из форм закона больших чисел, при неограниченном увеличении количества измерений выборочное среднее становится все лучшей и лучшей оценкой искомого среднего. Под этим мы подразумеваем, строго говоря, что, как гласит равенство (5.106), вероятность того, что выборочное среднее отличается от искомого среднего более чем на некоторое фиксированное число, становится все меньше и меньше с увеличением количества экспериментов. Вместе с тем вполне возможно, что выборочное среднее, полученное но некоторой частной последовательности измерений, при отличается среднего более чем на некоторое фиксированное число.

Оценку ожидаемой ошибки измерений при конечном значении N можно получить, исходя из неравенства Чебышева (4.62)

Используя полученные выше выражения для математического ожидания и дисперсии выборочного среднего, приводим последнее неравенство к виду

Этот результат не зависит от конкретного распределения вероятностей данной случайной величины или вероятностного процесса и потому может дать для ожидаемой ошибки лишь очень грубую оценку сверху.

Периодический выбор.

Для вероятностных процессов наибольший практический интерес представляет собой тот случай, когда выбор делается периодически во времени. При этом N измерений равномерно размещены в интервале длины Т с периодом выбора Если для удобства считать, что интервал измерения начинается в момент то выбор происходит в момент и равенство (5.4) принимает вид

Рассмотрим отдельные слагаемые двойной суммы. Удобно представить себе их расположенными в виде квадратной таблицы, содержащей элементов с индексами Тогда нетрудно заметить следующее: во-первых, все расположенные на главной диагонали элементы с индексами равны между собой и равны Далее, элемент с индексом равен элементу с индексом так как

т. е. всякий элемент над главной диагональю имеет равный себе под диагональю. Далее, если мы имеем дело со стационарным вероятностным процессом, то элемент с индексами равен элементу с индексами и, следовательно, все элементов диагонали над главной равны между собой. Поэтому при периодическом выборе значений стационарного в широком смысле вероятностного процесса дисперсия выборочного среднего равна

Рассмотрим теперь влияние неограниченного увеличения числа измерений при неизменной общей длительности интервала измерения. Для этого удобно переписать выражение (5.12) в виде

Если теперь Т остается постоянным, а (т. е. ) таким образом, что , то сумма переходит в интеграл, а слагаемое обращается в нуль. Следовательно,

и мы видим, что дисперсия выборочного среднего не будет, вообще говоря, стремиться к нулю при , если только интервал Т не возрастает неограниченно.

Так как при постоянном Т и выборочное среднее стремится к временному среднему за конечный интервал времени, т. е. так как

то не вызывает удивления то обстоятельство, что выражение (5.13) совпадает с результатом, полученным ранее при изучении статистических свойств временных средних [см. (4.83)].

<< Предыдущий параграф Следующий параграф >>
Оглавление