Автокорреляционная функция. Автокорреляционная функция и аддитивная модель временного ряда

Главная / Квартира

Корреляционный анализ используется при необходимости оценить временные свойства сигнала без применения спектрального анализа, например, для оценки скорости изменения или длительности сигнала, временной связи (корреляции) одного сигнала с другим.

Взаимная корреляционная функция определяет временную связь двух сигналов во времени. Если сигналы не зависимы друг от друга, их корреляционная функция равна нулю. Чем шире корреляционная функция, тем большая степень связи двух сигналов друг с другом.

Взаимная корреляционная функция определяется соотношением

Пример получения взаимной корреляционной функции показан на рис.1. Значение корреляционной функции в любой момент x определяется площадью пересечения функцийи сдвинутой копии.

Взаимная корреляционная функция не обязательно симметрична и её максимум может оказаться не в точке x=0.

Автокорреляционной функцией (АКФ) ограниченного во времени сигнала называется выражение вида

где x – временной сдвиг исходного сигнала.

Геометрический смысл автокорреляционной функции заключается в определении площади пересечения функции и её копии, сдвинутой на времяx (Рис.2)

Изменяя время сдвига x до тех пор, пока сигнал и его копия перестанут пересекаться (в данном случае), получим АКФ. Очевидно, что при изменении знака сдвига при одинаковой его величине функция автокорреляции одинакова, т.е., что говорит о четном её характере. Ясно, что приx=0 автокорреляционная функция имеет максимум, при этом

а в свою очередь полная энергия сигнала равна

Таким образом, максимум автокорреляционной функции определяет полную энергию сигнала. При увеличении сдвига x АКФ убывает до нуля.

Примеры

    Прямоугольный импульс (рис. 3 ).

а) - амплитуда,- длительность,- начало,

б) Сдвинутый на импульс,

в) Площадь произведения равна

Для x >0 имеем

и интеграл для x <0

Максимум АКФ равен энергии сигнала:

2) Треугольный импульс. Построение АКФ показано на рис. 4 .

Произведение представляет собой нелинейную функцию от t . Полная энергия сигнала (максимум АКФ) равнаДлительность АКФ равна удвоенной длительности сигнала.

3. Сигнал представляет собой пачку из идентичных импульсов, расположенных на равных расстояниях друг относительно друга. АКФ также будет иметь вид пачки импульсов, удаленных друг от друга на те же расстояния, причем амплитуды импульсов в пачке будут убывать от центра к краям (см. рис. 5 )

14. Общая теория радиосигналов. Понятие узкополосного и широкополосного сигнала. Понятие частоты и фазы радиосигнала, их взаимосвязь. Понятие базы сигнала.

Общие определения

К радиосигналам относят высокочастотные почти гармонические (квазигармонические) колебания, в которых амплитуда или мгновенная частота или фаза медленно меняются по некоторому закону. Процесс изменения одного или нескольких параметров высокочастотного гармонического колебания называется модуляцией. В системе радиосвязи закон модуляции должен соответствовать закону изменения передаваемого низкочастотного сообщения.

Частота исходного высокочастотного гармонического колебания называется несущей частотой. Устройство, создающее это колебание, называется генератором несущей частоты или задающим генератором. К нему предъявляются высокие требования к стабильности амплитуды и частоты.

Несущее колебание имеет вид

где -амплитуда,-частота, 0 -начальная фаза.

Различают амплитудную (АМ),частотную (ЧМ) и фазовую (ФМ) модуляцию. При амплитудной модуляции по закону низкочастотного сигнала меняется мгновенная амплитуда, при частотной модуляции – частота, при фазовой модуляции – фаза. Бывают и смешанные виды модуляции. В отдельный класс можно выделить импульсные виды модуляции и манипуляции, при которых происходит дискретное изменение параметра высокочастотного колебания.

    Основные понятия о базе сигнала

В системах связи используется такое понятие как база сигнала, которое определяется теоремой Котельникова. То есть исходя из нее любой сигнал с финитным спектром можно разложить на несколько отсчетов, взятых через интервалы времени , где F – верхняя граничная частота спектра сигнала (рис. 1).

Рис. 1. Пояснение к тереме Котельникова

В данном случае, если сигнал существует только в течение времени - Т ‚ то количество отсчетов будет равно

Эта величина определяет размерность пространства, в котором представляется сигнал координатами (отсчетами мгновенных значений через временные интервалы ). В этой связи в теории связи эту величину называют базой сигнала:

. (2.2)

В иных случаях говорят, что величина определяет базис сигнала, т.е. количество осей координат, в котором раскладывается сигнал.

    Сравнительный анализ узкополосных и

широкополосных сигналов

В действующих системах связи, использующих дискретные сигналы значение базы для простых сигналов равно (рис. 2). Этот же сигнал можно представить в виде сложного сигнала, база которого будет равна -(см. рис. 2).

Рис. 2. Простой и сложный сигналы

База сигнала указывает на зависимость ширины спектра от длительности сигнала. В случае применения простых сигналов ширина его спектра мала:

в связи с чем такие сигналы называют узкополосными. Следует заметить, что спектр узкополосного сигнала после модуляции не намного отличается от спектра первичного сигнала.

Для сложных сигналов

В этом случае спектр сложного сигнала как до, так и после модуляции намного превышает спектр первичного сигнала, поэтому его принято называть широкополосным.

Для начала вспомним понятие полной фазы радиосигнала

Сигналы, у которых изменяется полная фаза в соответствии с модулирующим сигналом называются сигналами с угловой модуляцией.

Для начала рассмотрим сигналы с фазовой модуляцией (phase modulation PM). У сигналов с PM полная фаза изменяется в соответствии с модулирующим сигналом:

а сам радиосигнал может быть представлен следующим образом:

где называется индексом частотной модуляции или девиацией частоты, а модулирующий сигнал по модулю не превосходит единицыТогда полную фазу радиосигнала можно рассчитать как интеграл от мгновенной частоты:

где - произвольная постоянная интегрирования полной фазы (8). Обратите внимание, что абсолютно не верно подставлять выражение для мгновенной частоты вместо несущей частоты в выражение для полосового сигнала:

так как Правильным является выражение (9)!

16. Сигналы с внутриимпульсной модуляцией. Сигналы с линейной частотной модуляцией. Фазо-кодо-манипулированные сигналы. Математические модели, спектральные характеристики, особенности применения.

Фазо-кодо-манипулированные импульсы (ФКМ)

ФКМ радиоимпульсы характеризуются скачкообразным изменением фазы внутри импульса по определенному закону, например (рис. 1.66):

код трехэлементного сигнала

закон изменения фазы

трехэлементный сигнал

или семиэлементный сигнал (рис. 1.67)

Таким образом, можно сделать выводы:

· АЧС сигналов с ЛЧМ является сплошным.

· Огибающая АЧС определяется формой огибающей сигнала.

· Максимальное значение АЧС определяется энергией сигнала, которая в свою очередь, прямопропорциональна амплитуде и длительности сигнала.

· Ширина спектра равна гдедевиация частоты и не зависит от длительности сигнала.

· База сигнала (коэффициент широкополостности) может бытьn >>1.Поэтому ЛЧМ сигналы называют широкополосными.

ФКМ радиоимпульсы длительностью представляют собой совокупность следующих друг за другом без интерваловэлементарных радиоимпульсов,длительность каждого из них одинакова и равна.Амплитуды и частоты элементарных импульсов одинаковы, а начальные фазы могут отличаться на(или какое-либо другое значение). Закон (код) чередования начальных фаз определяется назначением сигнала. Для ФКМ радиоимпульсов, используемых в радиолокации разработаны соответствующие коды, например:

1, +1, -1 - трехэлементные коды

-два варианта четырехэлементного кода

1 +1 +1, -1, -1, +1, -2 - семиэлементный код

Спектральную плотность кодированных импульсов определяют,используя свойство аддитивности преобразований Фурье, в виде суммы спектральных плотностей элементарных радиоимпульсов.

Графики АЧС для трехэлементного и семиэлементного импульсов приведены на рисунке 1.68

Как видно из приведенных рисунков, ширина спектра ФКМ радиосигналов определяется длительностью элементарного радиоимпульса

Коэффициент широкополостности

Где N -количество элементарных радиоимпульсов.

ФКМ сигналы применяются в широкополосных системах связи, радиолокации, в устройствах идентификации обьектов.

6. Понятие нормированной функции. Понятие ортонормированной системы функций.

Нормирование метрических параметров . Норма функций в пространстве L 2 определяется выражением:

Нетрудно заключить, что чем больше интервал в этой формуле, тем больше (при прочих равных условиях) будет значение нормы. При анализе и сравнении сигналов (как аналоговых, так и многомерных дискретных) такое понятие не всегда удобно, и вместо него очень часто используют понятие нормы, нормированной относительно длины интервала. Для символьного обозначения нормирования будем применять знак  :

||s(t)|| =, ||s n || =.

Метрика сигналов (расстояние между сигналами) при аналогичном нормировании:

d (s(t), v(t)) =, d (s n , v n) =

Эти выражения применяются для вычисления среднеквадратического расхождения сигналов или среднеквадратической погрешности выполнения какой-либо операции при сравнении ее результата с теоретически ожидаемым или априорно известным.

Нормированное скалярное произведение сигналов:

б s(t), v(t)  =s(t)v(t) dt = ||s(t)|| ||v(t)|| cos .

б s n , v n   =(1/N)s n v n = ||s n || ||s n || cos .

Косинус угла (коэффициент корреляции) между сигналами – функциями не изменяет своих значений при вычислении как по нормированным, так и по ненормированным значениям скалярного произведения и нормы сигналов (значения нормировки в числителе и знаменателе выражения (2.1.8) сокращаются). Взаимная перпендикулярность функций определяется аналогично взаимной перпендикулярности векторов условием нулевого значения скалярного произведения.

Норма, метрика и скалярное произведение периодических функций обычно нормируются на длину главного периода Т.

Ортогональные сигналы. Два сигнала называются ортогональными (orthogonal), если имеют нулевое скалярное произведение

б u(t), v(t) =u(t)v(t) dt = 0.

Соответственно, два таких сигнала в своем функциональном пространстве являются взаимно перпендикулярными (угол между сигналами равен  = 90 о), полностью независимыми друг от друга (некоррелированными, r = cos , и имеют нулевую энергию взаимодействия (E uv = 0).

На рисунке 2.3.1 приведены примеры взаимно ортогональных сигналов. Нулевое скалярное произведение двух левых сигналов обеспечивается их формой (равна нулю сумма положительных и отрицательных значений произведения сигналов), а двух правых - взаимным расположением (ненулевые значения сигналов не имеют общих координат).

Рис. 2.3.1. Ортогональные сигналы.

Попутно заметим, что энергия и мощность суммы ортогональных сигналов обладают свойством аддитивности, т.к. имеют нулевое значение скалярного произведения и, соответственно, энергии взаимодействия.

Ортонормированный базис пространства. Множество сигналов – векторов {v k , k = 1, 2, …, N} в N-мерном декартовом пространстве при единичной норме и выполнении условий взаимной ортогональности:

б v m , v n  = (2.3.1)

могут быть приняты в качестве ортонормированного базиса данного пространства. Выражение (2.3.1) обычно записывается в следующей форме:

б v m , v n  =  mn , (2.3.1")

где  mn – импульс Кронекера, равный правой части выражения (2.3.1).

С использованием ортонормированного базиса любой произвольный сигнал можно представить в виде линейной комбинации взвешенных базисных векторов:

s = c 1 v 1 + c 2 v 2 + … + c N v N ,

где весовое значение с k определяется проекцией вектора s на соответствующее координатное направление:

c k =  s, v k  .

При распространении данных положений на функциональное пространство L 2 в качестве координатного базиса пространства мы должны использовать совокупность функций {u 0 (t), u 1 (t), u 2 (t), …}, в пределе - бесконечную, которая должна быть системой ортогональных функций {u k (t), k=0, 1, 2, …}, т.е. все функции на этом отрезке должны быть взаимно ортогональны:

б u m (t), u n (t) =u m (t) u n (t) dt = 0, m = 1, 2, ... ; n = 1, 2, ... ; m  n.

Система ортогональных функций на интервале будет ортонормированной (orthonormal functions), если все функции системы при m=n имеют единичную норму, т.е. выполняются условия:

б u m (t), u m (t) = ||u m (t)|| 2 =(u m (t)) 2 dt = 1, ||u m (t)|| = 1, m = 1, 2, ....

Эти условия можно записать в следующей обобщенной форме:

u m (t)·u n * (t) dt =  m,n .

Система ортогональных функций всегда может быть превращена в ортонормированную путем нормировки, т.е. деления всех функций на их норму.

Задача корреляционного анализа возникла из радиолокации, когда нужно было сравнить одинаковые сигналы, смещённые во времени.

Для количественного определения степени отличия сигнала и его смещённой во времени копии
принято вводить автокорреляционную функцию (АКФ) сигнала равную скалярному произведению сигнала и его сдвинутой копии.

(4.1)

Свойства АКФ

1) При
автокорреляционная функция становится равной энергии сигнала:

(4.2)

2) АКФ – функция чётная

(4.3)

3) Важное свойство автокорреляционной функции состоит в следующем: при любом значении временного сдвига модуль АКФ не превосходит энергии сигнала:

4) Обычно, АКФ представляется симметричной линей с центральным максимумом, который всегда положителен. При этом в зависимости от вида сигнала автокорреляционная функция может иметь как монотонно убывающей, так и колеблющийся характер.

Существует тесная связь между АКФ и энергетическим спектром сигнала.

В соответствии с формулой (4.1) АКФ есть скалярное произведение
. Здесь символомобозначена смещённая во времени копия сигнала
.

Обратившись к теореме Планшереля – можно записать равенство:

(4.4) Таким образом, приходим к результату

(4.5)

Квадрат модуля спектральной плотности представляет собой энергетический спектр сигнала. Итак энергетический спектр и автокорреляционная функция связаны парой преобразований Фурье.

Ясно, что имеется и обратное соотношение

(4.6)

Эти результаты принципиально важны по двум причинам: во-первых, оказывается возможным оценивать корреляционные свойства сигналов, исходя из распределения их энергии по спектру. Во-вторых, формулы (4.5), (4.6) указывают путь экспериментального определения энергетического спектра. Часто удобнее вначале получить АКФ, а затем, используя преобразование Фурье, найти энергетический спектр сигнала. Такой приём получил распространение при исследовании свойств сигналов с помощью быстродействующих ЭВМ в реальном масштабе времени.

Часто вводят удобный числовой параметр – интервал корреляции , представляющий собой оценку ширины основного лепестка АКФ.

9.. Взаимокорреляционная функция и ее свойства. Связь взаимокорреляционной функции и взаимного энергетического спектра.

Взаимокорреляционная функция двух сигналов

Взаимокорреляционной функцией (ВКФ) двух вещественных сигналов и называется скалярное произведение вида:

(4.8)

ВКФ служит мерой «устойчивости» ортогонального состояния при сдвигах сигналов во времени.

При прохождении этих сигналов через различные устройства возможно, что сигнал будет сдвинут относительно сигнала на некоторое время .

Свойства ВКФ.

1) В отличие от АКФ одиночного сигнала, ВКФ, описывающая свойства системы двух независимых сигналов, не является чётной функцией аргумента :

(4.9)

2) Если рассматриваемые сигналы имеют конечные энергии, то их ВКФ ограничена.

3) При
значения ВКФ вовсе не обязаны достигать максимума.

Примером ВКФ может служить взаимокорреляционная функция прямоугольного и треугольного видеоимпульсов.

На основании теоремы Планшереля

получаем

(4.11)

Таким образом, взаимокорреляционная функция и взаимный энергетический спектр связаны между собой парой преобразований Фурье.

Автокорреляционная функция - зависимость взаимосвязи между функцией (сигналом) и ее сдвинутой копией от величины временного сдвига.

Для детерминированных сигналов автокорреляционная функция (АКФ ) сигнала f (t) {\displaystyle f(t)} определяется интегралом :

Ψ (τ) = ∫ − ∞ ∞ f (t) f ∗ (t − τ) d t {\displaystyle \Psi (\tau)=\int _{-\infty }^{\infty }f(t)f^{*}(t-\tau)\mathrm {d} t} K (τ) = E { X (t) X ∗ (t − τ) } {\displaystyle K(\tau)=\mathbb {E} \{X(t)X^{*}(t-\tau)\}} ,

где E { } {\displaystyle \mathbb {E} \{\ \}} - математическое ожидание , звездочка означает комплексное сопряжение.

Если исходная функция строго периодическая , то на графике автокорреляционной функции тоже будет строго периодическая функция. Таким образом, из этого графика можно судить о периодичности исходной функции, а следовательно, и о её частотных характеристиках. Автокорреляционная функция применяется для анализа сложных колебаний , например, электроэнцефалограммы человека.

Энциклопедичный YouTube

    1 / 3

    Автокорреляционная функция

    Что такое Автокорреляция?

    Частная автокорреляционная функция

    Субтитры

    К сожалению, коэффициенты процесса скользящего среднего плохо интерпретируемы. Что означает 2ε(t- 1) + 3ε(t- 2) совершенно непонятно. И для интерпретации используют так называемую автокорреляционную функцию процесса: ρk или Corr(Yt, Yt- k) - эта функция называется автокорреляционной функцией процесса. По смыслу для стационарного процесса с нормально распределенными игриками ρk показывает, насколько в среднем изменится сегодняшний Y, если Y k-периодов назад, то есть Yt- k, вырос на 1. Давайте на примере того же самого МА (2)-процесса, процесса скользящего среднего порядка 2, посчитаем и проинтерпретируем автокорреляционную функцию на этот раз. Значит, нас интересует ρk, то есть это Corr (корреляция) между Yt и Y k-периодов назад. Сначала мы заметим какие-то общие соображения, как считать автокорреляционную функцию для любого процесса. По определению корреляции: Corr(Yt, Yt- k) это есть Cov(Yt, Yt- k), деленная на корень из произведения дисперсий: Var(Yt) * Var(Yt- k). Однако у нас стационарный процесс. Здесь мы пользуемся тем, что процесс стационарный, а именно – у него дисперсии одинаковые. Var(Yt) = Var (Yt -k). Ну, соответственно, раз эти две дисперсии равны, то корень из них просто равен - одной из них, любой - Cov(Yt, Yt- k) в числителе так и остается, а в знаменателе корень из произведения двух одинаковых чисел дает просто первое из этих чисел. И, соответственно, мы договорились, что вот это - это автоковариационная функция - это γk, а это дисперсия или γ0. Соответственно, мы получили, что ρk, на самом деле, автокорреляционная функция. Это просто отмасштабированная автоковариационная. Я напомню предыдущие результаты. В предыдущем упражнении мы выяснили, что γk = 14ς квадрат, если k = 0, это дисперсия; - 3ς квадрат, если k = 1;- 2ς квадрат, если k = 2 и 0 при больших значениях k, а именно больше либо равным 3. Исходя из общей формулы, мы получаем, что ρ0 - это и есть γ0 на γ0, это всегда 1 для любого процесса, поэтому это неинтересный показатель, а вот остальные уже более интересные. ρ1- это есть γ1/γ0, в нашем случае мы получаем- 3/14. ρ2 - это есть γ2/γ0, это есть - 2/14. И, соответственно, ρ3 = ρ4 =... = 0. Соответственно, мы можем проинтерпретировать эти коэффициенты. Что означает ρ1? Он означает, что если нам известно, что Yt-1 (вчерашний Y) вырос на одну единицу, то это приводит к тому, что в среднем Yt падает на 3/14. Это мы можем проинтерпретировать ρ1. Ну и, соответственно, ρ2 мы интерпретируем аналогично. Если известно, что Yt- 2 (то есть позавчерашнее значение Y) оказалось, скажем, больше среднего на 1, то есть по сравнению с каким-то средним значением выросло на одну единицу, то мы можем сделать вывод, что Yt в среднем упадет на 2/14. Это мы интерпретируем вот этот коэффициент. Ну а, соответственно, ρ3, ρ4 и так далее интерпретируется следующим образом, что информация о значении Yt- 3 она уже не несет никакой информации о текущем Yt и, в частности, бесполезна при прогнозировании. А вот предыдущие два значения они нам важны.

Применение в технике

Корреляционные свойства кодовых последовательностей, используемых в широкополосных системах, зависят от типа кодовой последовательности, её длины, частоты следования её символов и от её посимвольной структуры.

Изучение АКФ играет важную роль при выборе кодовых последовательностей с точки зрения наименьшей вероятности установления ложной синхронизации.

Другие применения

Автокорреляционная функция играет важную роль в математическом моделировании и анализе временных рядов, показывая характерные времена для исследуемых процессов (см., например: Турчин П. В. Историческая динамика. М.: УРСС , 2007. ISBN 978-5-382-00104-3). В частности, циклам в поведении динамических систем соответствуют максимумы автокорреляционной функции некоторого характерного параметра.

Скоростное вычисление

Часто приходится вычислять автокорреляционную функцию для временного ряда x i {\displaystyle x_{i}} . Вычисление «в лоб» работает за O (T 2) {\displaystyle O(T^{2})} . Однако есть способ сделать это за .

Суть этого способа состоит в следующем. Можно сделать некое обратное взаимно однозначное преобразование данных, называемое преобразованием Фурье, которое поставит им во взаимно однозначное соответствие набор данных в другом пространстве, называемом пространством частот. У операций над данными в нашем обычном пространстве, таких как сложение, умножение и, главное, автокорреляция, есть взаимно-однозначные соответствия в пространстве частот Фурье. Вместо того, чтобы вычислять автокорреляцию «в лоб» на наших исходных данных, мы произведем соответствующую ей операцию над соответствующими данными в пространстве частот Фурье-спектра, что делается за линейное время O(T) - автокорреляции в пространстве частот соответствует простое умножение. После этого мы по полученным данным восстановим соответствующие им в обычном пространстве. Переход из обычного пространства в пространство частот и обратно делается с помощью быстрого преобразования Фурье за O (T log ⁡ T) {\displaystyle O(T\log T)} , вычисление аналога автокорреляции в пространстве частот - за O(T). Таким образом, мы получили выигрыш по времени при вычислениях. и прямо пропорциональна первым n {\displaystyle n} элементам последовательности

Ψ (τ) ∼ Re ⁡ fft − 1 ⁡ (| fft ⁡ (x →) | 2) {\displaystyle \Psi (\tau)\sim \operatorname {Re} \operatorname {fft} ^{-1}\left(\left|\operatorname {fft} ({\vec {x}})\right|^{2}\right)}

Квадрат комплексного модуля берётся поэлементно: | a → | 2 = { Re 2 ⁡ a i + Im 2 ⁡ a i } {\displaystyle \left|{\vec {a}}\right|^{2}=\left\{\operatorname {Re} ^{2}a_{i}+\operatorname {Im} ^{2}a_{i}\right\}} . Если нет погрешностей вычисления, мнимая часть будет равна нулю. Коэффициент пропорциональности определяется из требования Ψ (0) = 1 {\displaystyle \Psi (0)=1} .

Периодическая зависимость представляет собой общий тип компонент временного ряда. Можно легко видеть, что каждое наблюдение очень похоже на соседнее; дополнительно, имеется повторяющаяся периодическая составляющая, это означает, что каждое наблюдение также похоже на наблюдение, имевшееся в том же самое время период назад. В общем, периодическая зависимость может быть формально определена как корреляционная зависимость порядка k между каждым i-м элементом ряда и (i-k)-м элементом. Ее можно измерить с помощью автокорреляции (т.е. корреляции между самими членами ряда); k обычно называют лагом (иногда используют эквивалентные термины: сдвиг, запаздывание). Если ошибка измерения не слишком большая, то периодичность можно определить визуально, рассматривая поведение членов ряда через каждые k временных единиц .

Периодические составляющие временного ряда могут быть найдены с помощью коррелограммы. Коррелограмма (автокоррелограмма) показывает численно и графически автокорреляционную функцию (AКФ), иными словами коэффициенты автокорреляции для последовательности лагов из определенного диапазона. На коррелограмме обычно отмечается диапазон в размере двух стандартных ошибок на каждом лаге, однако обычно величина автокорреляции более интересна, чем ее надежность, потому что интерес в основном представляют очень сильные автокорреляции .

При изучении коррелограмм следует помнить, что автокорреляции последовательных лагов формально зависимы между собой. Рассмотрим следующий пример. Если первый член ряда тесно связан со вторым, а второй с третьим, то первый элемент должен также каким-то образом зависеть от третьего и т.д. Это приводит к тому, что периодическая зависимость может существенно измениться после удаления автокорреляций первого порядка, (т.е. после взятия разности с лагом 1).

Цель работы:

1. Дать основные теоретические сведения

2. Дать примеры расчета АКФ

Глава 1. Теоретические сведения

Коэффициент автокорреляции и его оценка

Для полной характеристики случайного процесса недостаточно его математического ожидания и дисперсии. Еще в 1927 г. Е.Е.Слуцкий ввел для зависимых наблюдений понятие «связанного ряда»: вероятность возникновения на определенном месте тех или иных конкретных значений зависит от того, какие значения случайная величина уже получила раньше или будет получать позже. Иными словами, существует поле рассеяния пар значений x(t), x(t+k) временного ряда, где k - постоянный интервал или задержка, характеризующее взаимозависимость последующих реализаций процесса от предыдущих. Теснота этой взаимосвязи оценивается коэффициентами автоковариации –

g (k) = E[(x(t) - m)(x(t + k) - m)] –

и автокорреляции

r (k) = E[(x(t) - m)(x(t + k) - m)] / D ,

где m и D - математическое ожидание и дисперсия случайного процесса. Для расчета автоковариации и автокорреляции реальных процессов необходима информация о совместном распределении вероятностей уровней ряда p(x(t 1),x(t 2)). Однако для стационарных процессов, находящихся в определенном статистическом равновесии, это распределение вероятностей одинаково для всех времен t 1 , t 2 , разделенных одним и тем же интервалом. Поскольку дисперсия стационарного процесса в любой момент времени (как в t, так и в t + k) равна D = g (0), то автокорреляция с задержкой k может быть выражена как

r (k) = g (k) /g (0),

откуда вытекает, что r (0) = 1. В тех же условиях стационарности коэффициент корреляции r (k) между двумя значениями временного ряда зависит лишь от величины временного интервала k и не зависит от самих моментов наблюдений t.

В статистике имеется несколько выборочных оценок теоретических значений автокорреляции r (k) процесса по конечному временному ряду из n наблюдений. Наиболее популярной оценкой является нециклический коэффициент автокорреляции с задержкой k (Андерсон, 1976; Вайну, 1977):

Наиболее важным из различных коэффициентов автокорреляции является первый - r 1 , измеряющий тесноту связи между уровнями x(1), x(2) ,..., x(n -1) и x(2), x(3), ..., x(n).

Распределение коэффициентов автокорреляции неизвестно, позтому для оценки их достоверности иногда используют непараметрическую теорию Андерсона (1976), предложившего статистику

t = r 1 (n -1) 0.5 ,

которая при достаточно большой выборке распределена нормально, имеет нулевую среднюю и дисперсию, равную единице (Тинтнер, 1965).

Автокорреляционные функции

Последовательность коэффициентов корреляции r k , где k = 1, 2, ..., n, как функция интервала k между наблюдениями называется автокорреляционной функцией (АКФ).

Вид выборочной автокорреляционной функции тесно связан со структурой ряда.

· Автокорреляционная функция r k для «белого шума», при k >0, также образует стационарный временной ряд со средним значением 0.

· Для стационарного ряда АКФ быстро убывает с ростом k. При наличии отчетливого тренда автокорреляционная функция приобретает характерный вид очень медленно спадающей кривой .

· В случае выраженной сезонности в графике АКФ также присутствуют выбросы для запаздываний, кратных периоду сезонности, но эти выбросы могут быть завуалированы присутствием тренда или большой дисперсией случайной компоненты.

Рассмотрим примеры автокорреляционной функции:

· на рис. 1 представлен график АКФ, характеризующегося умеренным трендом и неясно выраженной сезонностью;

· рис. 2 демонстрирует АКФ ряда, характеризующегося феноменальной сезонной детерминантой;

· практически незатухающий график АКФ ряда (рис. 3) свидетельствует о наличии отчетливого тренда.

В общем случае можно предполагать, что в рядах, состоящих из отклонений от тренда, автокорреляции нет. Например, на рис. 4 представлен график АКФ для остатков, полученных от сглаживания ряда, очень напоминающий процесс «белого шума». Однако нередки случаи, когда остатки (случайная компонента h) могут оказаться автокоррелированными, например, по следующим причинам :

· в детерминированных или стохастических моделях динамики не учтен существенный фактор

· в модели не учтено несколько несущественных факторов, взаимное влияние которых оказывается существенным вследствие совпадения фаз и направлений их изменения;

· выбран неправильный тип модели (нарушен принцип контринтуитивности);

· случайная компонента имеет специфическую структуру.

Критерий Дарбина-Уотсона

Критерий Дарбина-Уотсона (Durbin, 1969) представляет собой распространенную статистику, предназначенную для тестирования наличия автокорреляции остатков первого порядка после сглаживания ряда или в регрессионных моделях.

Численное значение коэффициента равно

d = [(e(2)-e(1)) 2 + ... + (e(n)-e(n -1)) 2 ]/,

где e(t) - остатки.

Возможные значения критерия находятся в интервале от 0 до 4, причем табулированы его табличные пороговые значения для разных уровней значимости (Лизер, 1971).

Значение d близко к величине 2*(1 - r 1), где r - выборочный коэффициент автокорреляции для остатков. Соответственно, идеальное значение статистики - 2 (автокорреляция отсутствует). Меньшие значения соответствуют положительной автокорреляции остатков, большие – отрицательной .

Например, после сглаживания ряда ряд остатков имеет критерий d = 1.912. Аналогичная статистика после сглаживания ряда - d = 1.638 - свидетельствует о некоторой автокоррелированности остатков.

Глава 2. Примеры практических расчетов с помощью макроса Excel «Автокорреляционная функция»

Все данные взяты с сайта http://e3.prime-tass.ru/macro/

Пример 1. ВВП РФ

Приведем данные о ВВП РФ

первая разность

Исследуем ряд

На диаграммах показаны: исходный ряд (сверху) и автокорреляционная функция до лага 9 (снизу). На нижней диаграмме штриховой линией обозначен уровень «белого шума» - граница статистической значимости коэффициентов корреляции. Видно, что имеется сильная корреляция 1 и 2 порядка, соседних членов ряда, но и удаленных на 1 единицу времени друг от друга. Корреляционные коэффициенты значительно превышают уровень «белого шума». По графику автокорреляции видим наличие четкого тренда.

Ниже даны значения автокорреляционной функции и уровня белого шума

Ошибка АКФ

Если нас интересует внутренняя динамика ряда необходимо найти первую разность его членов, т.е. для каждого квартала найти изменение значения по сравнению с предыдущим кварталом. Для первой разности построим автокорреляционную функцию.

Пример 2. Импорт

значение

разность

Построим автокорреляционную функцию

Ошибка АКФ

Видим, что есть автокорреляция 1-го и 2-го порядков. График показывает наличие тренда. Положительная автокорреляция объясняется неправильно выбранной спецификацией, т.к. линейный тренд тут непригоден, он скорее экспоненциальный. Поэтому сделаем ряд стационарным, взяв первую разность.

Ошибка АКФ

Видим наличие автокорреляции 4-го порядка, что соответствует корреляции данных, отдаленных на год. Автокорреляцию первого порядка не имеем.

Статистика Дарбина-Ватсона (DW) =2,023

Пример 3. Экспорт

Приведем данные

значение

разность


Для исходного ряда имеем:

Ошибка АКФ

Очевидно наличие четкого тренда, значимыми являются коэффициенты автокорреляции 1-го и 2-го порядков. Для первой разности

Ошибка АКФ

Автокорреляции уже не видим, остатки распределены как «белый шум».

Заключение

Другой полезный метод исследования периодичности состоит в исследовании частной автокорреляционной функции (ЧАКФ), представляющей собой углубление понятия обычной автокорреляционной функции. В ЧАКФ устраняется зависимость между промежуточными наблюдениями (наблюдениями внутри лага). Другими словами, частная автокорреляция на данном лаге аналогична обычной автокорреляции, за исключением того, что при вычислении из нее удаляется влияние автокорреляций с меньшими лагами. На лаге 1 (когда нет промежуточных элементов внутри лага), частная автокорреляция равна, очевидно, обычной автокорреляции. На самом деле, частная автокорреляция дает более "чистую" картину периодических зависимостей.

Как отмечалось выше, периодическая составляющая для данного лага k может быть удалена взятием разности соответствующего порядка. Это означает, что из каждого i-го элемента ряда вычитается (i-k)-й элемент. Имеются два довода в пользу таких преобразований. Во-первых, таким образом можно определить скрытые периодические составляющие ряда. Напомним, что автокорреляции на последовательных лагах зависимы. Поэтому удаление некоторых автокорреляций изменит другие автокорреляции, которые, возможно, подавляли их, и сделает некоторые другие сезонные составляющие более заметными. Во-вторых, удаление периодических составляющих делает ряд стационарным, что необходимо для применения некоторых методов анализа.

Литература

1. Гмурман В.Е. Теория вероятностей и математическая статистика. М.: Высшая школа, 1977.

2. Гмурман В.Е. Руководство к решению задач по теории вероятностей и математической статистике. М.: Высшая школа, 1997.

3. Калинина В.Н., Панкин В.Ф. Математическая статистика. М.: Высшая школа, 1994.

4. Мацкевич И.П., Свирид Г.П., Булдык Г.М. Сборник задач и упражнений по высшей математике (Теория вероятностей и математическая статистика). Минск: Вышейша школа, 1996.

5. Тимофеева Л.К., Суханова Е.И., Сафиулин Г.Г. Сборник задач по теории вероятностей и математической статистике / Самарск. экон. ин-т. Самара, 1992.

6. Тимофеева Л.К., Суханова Е.И., Сафиулин Г.Г. Теория вероятностей и математическая статистика / Самарск. гос. экон. акад. Самара, 1994.

7. Тимофеева Л.К., Суханова Е.И. Математика для экономистов. Сборник задач по теории вероятностей и математической статистике. –М.: УМиИЦ «Учебная литература», 1998.


А, следовательно, высоко значимые

Коэффициент автокорреляции может быть оценен и для нестационарного ряда, но в этом случае его вероятностная интерпретация теряется.

Фактически, нарушен принцип омнипотентности

Периодическая зависимость представляет собой общий тип компонент временного ряда. Можно легко видеть, что каждое наблюдение очень похоже на соседнее; дополнительно, имеется повторяющаяся периодическая составляющая, это означает, что каждое наблюдение также похоже на наблюдение, имевшееся в том же самое время период назад. В общем, периодическая зависимость может быть формально определена как корреляционная зависимость порядка k между каждым i-м элементом ряда и (i-k)-м элементом. Ее можно измерить с помощью автокорреляции (т.е. корреляции между самими членами ряда); k обычно называют лагом (иногда используют эквивалентные термины: сдвиг, запаздывание). Если ошибка измерения не слишком большая, то периодичность можно определить визуально, рассматривая поведение членов ряда через каждые k временных единиц .

Периодические составляющие временного ряда могут быть найдены с помощью коррелограммы. Коррелограмма (автокоррелограмма) показывает численно и графически автокорреляционную функцию (AКФ), иными словами коэффициенты автокорреляции для последовательности лагов из определенного диапазона. На коррелограмме обычно отмечается диапазон в размере двух стандартных ошибок на каждом лаге, однако обычно величина автокорреляции более интересна, чем ее надежность, потому что интерес в основном представляют очень сильные автокорреляции .

При изучении коррелограмм следует помнить, что автокорреляции последовательных лагов формально зависимы между собой. Рассмотрим следующий пример. Если первый член ряда тесно связан со вторым, а второй с третьим, то первый элемент должен также каким-то образом зависеть от третьего и т.д. Это приводит к тому, что периодическая зависимость может существенно измениться после удаления автокорреляций первого порядка, (т.е. после взятия разности с лагом 1).

Цель работы:

1. Дать основные теоретические сведения

2. Дать примеры расчета АКФ

Глава 1. Теоретические сведения

Коэффициент автокорреляции и его оценка

Для полной характеристики случайного процесса недостаточно его математического ожидания и дисперсии. Еще в 1927 г. Е.Е.Слуцкий ввел для зависимых наблюдений понятие «связанного ряда»: вероятность возникновения на определенном месте тех или иных конкретных значений зависит от того, какие значения случайная величина уже получила раньше или будет получать позже. Иными словами, существует поле рассеяния пар значений x(t), x(t+k) временного ряда, где k - постоянный интервал или задержка, характеризующее взаимозависимость последующих реализаций процесса от предыдущих. Теснота этой взаимосвязи оценивается коэффициентами автоковариации –

g (k) = E[(x(t) - m)(x(t + k) - m)] –

и автокорреляции

r (k) = E[(x(t) - m)(x(t + k) - m)] / D ,

где m и D - математическое ожидание и дисперсия случайного процесса. Для расчета автоковариации и автокорреляции реальных процессов необходима информация о совместном распределении вероятностей уровней ряда p(x(t 1),x(t 2)). Однако для стационарных процессов, находящихся в определенном статистическом равновесии, это распределение вероятностей одинаково для всех времен t 1 , t 2 , разделенных одним и тем же интервалом. Поскольку дисперсия стационарного процесса в любой момент времени (как в t, так и в t + k) равна D = g (0), то автокорреляция с задержкой k может быть выражена как

r (k) = g (k) /g (0),

откуда вытекает, что r (0) = 1. В тех же условиях стационарности коэффициент корреляции r (k) между двумя значениями временного ряда зависит лишь от величины временного интервала k и не зависит от самих моментов наблюдений t.

В статистике имеется несколько выборочных оценок теоретических значений автокорреляции r (k) процесса по конечному временному ряду из n наблюдений. Наиболее популярной оценкой является нециклический коэффициент автокорреляции с задержкой k (Андерсон, 1976; Вайну, 1977):

Наиболее важным из различных коэффициентов автокорреляции является первый - r 1 , измеряющий тесноту связи между уровнями x(1), x(2) ,..., x(n -1) и x(2), x(3), ..., x(n).

Распределение коэффициентов автокорреляции неизвестно, позтому для оценки их достоверности иногда используют непараметрическую теорию Андерсона (1976), предложившего статистику

t = r 1 (n -1) 0.5 ,

которая при достаточно большой выборке распределена нормально, имеет нулевую среднюю и дисперсию, равную единице (Тинтнер, 1965).

Автокорреляционные функции

Последовательность коэффициентов корреляции r k , где k = 1, 2, ..., n, как функция интервала k между наблюдениями называется автокорреляционной функцией (АКФ).

Вид выборочной автокорреляционной функции тесно связан со структурой ряда.

· Автокорреляционная функция r k для «белого шума», при k >0, также образует стационарный временной ряд со средним значением 0.

· Для стационарного ряда АКФ быстро убывает с ростом k. При наличии отчетливого тренда автокорреляционная функция приобретает характерный вид очень медленно спадающей кривой .

· В случае выраженной сезонности в графике АКФ также присутствуют выбросы для запаздываний, кратных периоду сезонности, но эти выбросы могут быть завуалированы присутствием тренда или большой дисперсией случайной компоненты.

Рассмотрим примеры автокорреляционной функции:

· на рис. 1 представлен график АКФ, характеризующегося умеренным трендом и неясно выраженной сезонностью;

· рис. 2 демонстрирует АКФ ряда, характеризующегося феноменальной сезонной детерминантой;

· практически незатухающий график АКФ ряда (рис. 3) свидетельствует о наличии отчетливого тренда.




В общем случае можно предполагать, что в рядах, состоящих из отклонений от тренда, автокорреляции нет. Например, на рис. 4 представлен график АКФ для остатков, полученных от сглаживания ряда, очень напоминающий процесс «белого шума». Однако нередки случаи, когда остатки (случайная компонента h) могут оказаться автокоррелированными, например, по следующим причинам :

· в детерминированных или стохастических моделях динамики не учтен существенный фактор

· в модели не учтено несколько несущественных факторов, взаимное влияние которых оказывается существенным вследствие совпадения фаз и направлений их изменения;

· выбран неправильный тип модели (нарушен принцип контринтуитивности);

· случайная компонента имеет специфическую структуру.


Критерий Дарбина-Уотсона

Критерий Дарбина-Уотсона (Durbin, 1969) представляет собой распространенную статистику, предназначенную для тестирования наличия автокорреляции остатков первого порядка после сглаживания ряда или в регрессионных моделях.

Численное значение коэффициента равно

d = [(e(2)-e(1)) 2 + ... + (e(n)-e(n -1)) 2 ]/,

где e(t) - остатки.

Возможные значения критерия находятся в интервале от 0 до 4, причем табулированы его табличные пороговые значения для разных уровней значимости (Лизер, 1971).

Значение d близко к величине 2*(1 - r 1), где r - выборочный коэффициент автокорреляции для остатков. Соответственно, идеальное значение статистики - 2 (автокорреляция отсутствует). Меньшие значения соответствуют положительной автокорреляции остатков, большие – отрицательной .

Например, после сглаживания ряда ряд остатков имеет критерий d = 1.912. Аналогичная статистика после сглаживания ряда - d = 1.638 - свидетельствует о некоторой автокоррелированности остатков.

Глава 2. Примеры практических расчетов с помощью макроса Excel «Автокорреляционная функция»

Все данные взяты с сайта http://e3.prime-tass.ru/macro/

Пример 1. ВВП РФ

Приведем данные о ВВП РФ

Год квартал ВВП первая разность
2001 I 1900,9
II 2105,0 204,1
III 2487,9 382,9
IV 2449,8 -38,1
2002 I 2259,5 -190,3
II 2525,7 266,2
III 3009,2 483,5
IV 3023,1 13,9
2003 I 2850,7 -172,4
II 3107,8 257,1
III 3629,8 522,0
IV 3655,0 25,2
2004 I 3516,8 -138,2
II 3969,8 453,0
III 4615,2 645,4
IV 4946,4 331,2
2005 I 4479,2 -467,2
II 5172,9 693,7
III 5871,7 698,8
IV 6096,2 224,5
2006 I 5661,8 -434,4
II 6325,8 664,0
III 7248,1 922,3
IV 7545,4 297,3
2007 I 6566,2 -979,2
II 7647,5 1081,3


© 2024 solidar.ru -- Юридический портал. Только полезная и актуальная информация