Статистика зависимостей в котировках (теория информации, корреляция и другие методы feature selection) - страница 71

 
faa1947:
Что означают цифры слева

Это биты. Например, 0,05 бит.

Спрашивайте дальше, продолжим диалог.

 
alexeymosc:

Это биты. Например, 0,05 бит.

Спрашивайте дальше, продолжим диалог.

Какая физ величина меряется? каковы пределы изменения? До 1?

 
IgorM:

берем произвольную длину алфавита, на скрине 24 бит и кодируем

красный цвет означает, что цена обновила минимум = 1, синий цвет означает что цена обновила максимум = 0,

и так для каждого ТФ, проверял утверждение, что тренд на старших ТФ "главнее", отчасти правда, но четких правил пока не увидел


Спасибо, догнал.

Подчиненность младших старшим - неоспоримый факт.

http://www.onix-trade.net/forum/index.php?s=2b118a5435ec895351a317ca24d55206&showforum=74

http://forum.fxtde.com/index.php?showtopic=2635&st=1820

http://forum.alpari.ru/showthread.php?p=2984861#post2984861

Здесь идет обсуждение моделей Вадима и он дает ответы на вопросы. Здесь вся информация и все доказательства и четкие правила.

 
VNG:


Спасибо, догнал.

Подчиненность младших старшим - неоспоримый факт.

http://www.onix-trade.net/forum/index.php?s=2b118a5435ec895351a317ca24d55206&showforum=74

http://forum.fxtde.com/index.php?showtopic=2635&st=1820

http://forum.alpari.ru/showthread.php?p=2984861#post2984861

Здесь идет обсуждение моделей Вадима и он дает ответы на вопросы. Здесь вся информация и все доказательства и четкие правила.

спасибо, буду изучать

ЗЫ: даже не ожидал, что появятся ссылки, который день прошу, посылают на гугл искать ... )))

 
faa1947:

Эконометрика - это применение матстатистики к экономики.

Я это и хотел услышать.

Спасибо Вам и всем остальным за содержательную беседу. Успехов!;)

 
faa1947:

Какая физ величина меряется? каковы пределы изменения? До 1?

Максимум может быть 2,098 бит. Это средняя информация этого конкретного ряда данных. Если, например, бар на лаге 1 полностью детерминирует нулевой бар, то их взаимная информация станет равной 2,098 бит.

Что это за число? Это мера информации ) Вам нужно статьи почитать по ТИ. Если коротко, то биты отражают меру случайности значений источника данных по формуле собственной информации одного конкретного значения

I(X) = - log(P(x))*P(x).

Еще один пример. Бросаем монетку, считаем взаимную информацию между двумя последовательными событиями. По формулам, которые я транслировал в своей статье получаем, что взаимная информация I(X;Y) = 0. А если бы выпадение решки точно указывало на последующее выпадение решки (или орла), то I(X;Y) было бы равным 1 - это средняя информация источника данных "честная монетка".

 
alexeymosc:

Максимум может быть 2,098 бит. Это средняя информация этого конкретного ряда данных. Если, например, бар на лаге 1 полностью детерминирует нулевой бар, то их взаимная информация станет равной 2,098 бит.

Что это за число? Это мера информации ) Вам нужно статьи почитать по ТИ. Если коротко, то биты отражают меру случайности значений источника данных по формуле собственной информации одного конкретного значения

I(X) = - log(P(x))*P(x).

Еще один пример. Бросаем монетку, считаем взаимную информацию между двумя последовательными событиями. По формулам, которые я транслировал в своей статье получаем, что взаимная информация I(X;Y) = 0. А если бы выпадение решки точно указывало на последующее выпадение решки (или орла), то I(X;Y) было бы равным 1 - это средняя информация источника данных "честная монетка".

В статистике очень важным является понятие знАчимости. Величины на графике 0.05 и 0.01 это одинаковые величины по их знАчимости и не могут служить основой для каких-либо выводов. Хотя может быть я и не прав.
 
faa1947:
В статистике очень важным является понятие знАчимости. Величины на графике 0.05 и 0.01 это одинаковые величины по их знАчимости и не могут служить основой для каких-либо выводов. Хотя может быть я и не прав.

В данном случае вы не правы.

Я специально привел сравнение со статистикой взаимной информации на случайным рядом данных с тем же распределением. Разница существенная и она подтверждается тестами.

Это сравнение примерно то же самое, что и доверительный интервал в АКФ.

 
alexeymosc:

В данном случае вы не правы.

Я специально привел сравнение со статистикой взаимной информации на случайным рядом данных с тем же распределением. Разница существенная и она подтверждается тестами.

Это сравнение примерно то же самое, что и доверительный интервал в АКФ.

Может быть.

Любой доверительный интервал звучит следующим образом: на уровне 5% (к пример) подтверждается (не подтверждается) нулевая гипотеза.

Как звучит Ваша нулевая гипотеза? Где доверительный интервал? и т.д. Если АКФ понятная для меня штука, то Ваш график не понятен. Если макс 2.098 бит, то 0.05/2.098 - не следует обсуждать. Причем не снимаются вопросы в начале строки.

Кстати, на чем Вы считали АКФ?

 
faa1947:

Возьму обычные приращения для опен.

Гораздо интереснее. Статистика

АКФ

Вероятность отсутствия корреляции. Вначале есть какая-то зависимость, но не значащая.

Точно, именно так. От АКФ никакого толку нет.

А от взаимной информации - должен быть, т.к. нулем там и не пахнет даже на расстоянии в сотни баров.

Причина обращения: