Тестирование Систем прогнозирования в реальном времени - страница 59

 

Картина на данный момент не равнозначная, я бы не стал совершать никаких сделок.

 

to marketeer

Какая-то неувязка получается: прогноз на 3 дня, а отпуск на 3 недели ;-).

Напротив, все сходится, в том смысле, что и не расходилось. Прогноз на три дня, отпуск на 3 недели. Кстати, должен заметить, что когда двухметровая мурена на глубине щелкает своей челюстью в 30 см от причинного места, приходит какое то особое понимание рынка.... :о)


to marketeer, Yurixx

почему победители выбирались с максимальной энтропией, а не минимальной?

Концепция идентификации реализаций одна - максимальное правдоподобие. Конкретных реализаций несколько. Тут демонстрирую "модернизированный" принцип максимальной энтропии, взятый из НС на базе теории информации, в оригинале так:

Если выводы основываются на неполной информации, она должна выбираться из распределения вероятности, максимизирующего энтропию при заданных ограничениях на распределение

Все просто, детерминированный сигнал не несет никакой новой информации. Новое несет только стохастика. Только так и никак иначе. Вопрос в том, сколько "нового" ожидать. От этого зависят базовые характеристики траектории. Статистически правдоподобным, будет тот сигнал, который имеет максимальную энтропию, т.е - самый случайный а правильнее, самый "насыщенны новой информацией" сигнал. Но пока своя теория (да и полное понимание :о) находится в стадии творческого построения. Скрины демонстрируют "мгновенный снимок", а наблюдать то нужно грубо говоря - постоянно.

:о)


Респект автору !

Спасибо, всегда приятно получить респект, а уж получить его от коллег, чье мнение ценю и уважаю - вдвойне приятнее. Да, система очень настойчиво начинала показывать уровень 1.5 и у рынка тогда было несколько моментов появления этого уровня.

 
C возвращением Сергей.
grasn >>:

 Кстати, должен заметить, что когда двухметровая мурена на глубине щелкает своей челюстью в 30 см от причинного места, приходит какое то особое понимание рынка.... :о)  

после такого мертвецы мерещиться не начали ^_^ 

 
grasn >>:

Все просто, детерминированный сигнал не несет никакой новой информации. Новое несет только стохастика. Только так и никак иначе. Вопрос в том, сколько "нового" ожидать. От этого зависят базовые характеристики траектории. Статистически правдоподобным, будет тот сигнал, который имеет максимальную энтропию, т.е - самый случайный а правильнее, самый "насыщенны новой информацией" сигнал.

Может я заблуждаюсь, но качество прогноза не стоит приравнивать к количеству информации. Информация может быть ложной. По известной формуле (она есть и у Потапова) горизонт прогнозирования T = 1/K*log(1/d0), т.е. большая энтропия делает прогноз краткосрочным - происходит информационное переполнение. Может быть имеются в виду разные типы энтропии?

 
Кстати, есть вопрос по интерпретации данной формулы в случае дискретного времени в частности, и по единице измерения T в общем случае. Допустим, у меня d0 = 0.001, log - по формуле должен быть натуральный, так что получаем 6.9, и при энтропии в районе 13 выходит T = 0.5. Это что за "попугаи"? Надобно получить ответ в барах. ;-)
 
NEKSUS_ >>:
C возвращением Сергей.

Спасибо! Я пока еще в отпуске, буду появляться не так часто :о)

после такого мертвецы мерещиться не начали ^_^

Что Вы!!! Мурена по своему красива. Акул на дайвинге не видел, но видел манту (https://ru.wikipedia.org/wiki/%D0%9C%D0%B0%D0%BD%D1%82%D0%B0), невероятная красота.

 
marketeer >>:

Может я заблуждаюсь, но качество прогноза не стоит приравнивать к количеству информации. Информация может быть ложной. По известной формуле (она есть и у Потапова) горизонт прогнозирования T = 1/K*log(1/d0), т.е. большая энтропия делает прогноз краткосрочным - происходит информационное переполнение. Может быть имеются в виду разные типы энтропии?

Качество прогноза определяется только адекватностью модели процесса и способом идентификации, более ничем. То, что написал выше - верно, возможно, Вы меня не поняли, в виду моего безграмотного объяснения. Кстати, а какая информационная энтропия у ложной информации? :о)

 
marketeer >>:
Кстати, есть вопрос по интерпретации данной формулы в случае дискретного времени в частности, и по единице измерения T в общем случае. Допустим, у меня d0 = 0.001, log - по формуле должен быть натуральный, так что получаем 6.9, и при энтропии в районе 13 выходит T = 0.5. Это что за "попугаи"? Надобно получить ответ в барах. ;-)

На вопрос то не ответил!!! :о) Это я все еще расслаблен :о). Тут я не очень понял, попробую перечитать позже. А вот тут:

По известной формуле (она есть и у Потапова) горизонт прогнозирования T = 1/K*log(1/d0), т.е. большая энтропия делает прогноз краткосрочным - происходит информационное переполнение. Может быть имеются в виду разные типы энтропии?

написано чуток некорректно. Энтропия как таковая тут не причем. Она полностью определяется вложенностью системы (ее размерностью). Только этим, больше ничем. Чем выше размерность, тем сложнее прогнозировать систему, вот и все. Ну и каждая размерность привносит свой "кусочек" энтропии. Энтропии может быть "много" при этом система может быть вполне "понятна"

 

Картинку в студию !

Привет, Сергей. Не мог бы ты, как герой этой ветки, повторить свою картинку с прогнозом, который ты слелал перед отпуском, и тем, что реально получилось ?

То есть все -надцать прогнозных траекторий + реальный ход цены на одной картинке.

 
Yurixx >>:

Картинку в студию !

Привет, Сергей. Не мог бы ты, как герой этой ветки, повторить свою картинку с прогнозом, который ты слелал перед отпуском, и тем, что реально получилось ?

То есть все -надцать прогнозных траекторий + реальный ход цены на одной картинке.

Привет Юрий! Рад встрече! К сожалению, не рядом со своей лабораторией. Смогу только минимум через неделю, а то и позже. Полагаю, будет уже поздно :о( Но ничего страшного!!! Я еще напрогнозирую, новых ннадцать траекторий, и одна из них наверняка окажется удачной, а уж энтропию то обоснуем! :о))))))))))

Причина обращения: