Не Машкино это дело! - страница 5

 
Neutron:

Вот что получится, если погружение входов сумматора организовать не на запаздывающие машки, а на самого себя :-) т.е. на на первую производную от идеальной МА.

Осталась мелочь - найти идеальную машку. Попробуй с реальным Джуриком повозиться. Не идеал, но все же поближе к нему. И к тому же весьма гладенький.

 
Neutron:

Ой как всё интересно!

Вот что получится, если погружение входов сумматора организовать не на запаздывающие машки, а на самого себя :-) т.е. на на первую производную от идеальной МА.

А почему никто не просит уточнить? :) Всем всё понятно?

На текущем баре идеальных машек нет. Могут быть правда их прогнозы. Речь о них?

 
Neutron:

to Vinin

Давай свои соображения - будет продолжение!


Я к сожалению уже давно стал читателем. Потому и предложить ничего не могу. А тема действительно интересная. Прошу прощения.

 
lna01:
Neutron:

Ой как всё интересно!

Вот что получится, если погружение входов сумматора организовать не на запаздывающие машки, а на самого себя :-) т.е. на на первую производную от идеальной МА.

А почему никто не просит уточнить? :) Всем всё понятно?

На текущем баре идеальных машек нет. Могут быть правда их прогнозы. Речь о них?

Нет, речь идёт о прогнозе на ширину окна сглаживания для идеальной машки. Напомню, что её не по детски колбасит на правом краю ВР с характерной зоной успокоения как раз в ширину этого самого окна.


Я таки выискал в коде ошибку - пропустил строку не преправив индекс, в итоге прогноз строился по весам посчитаным на окно назад, домноженым на текущее значение идеальной МАшки. Вот исправленный результат (см. рис.). Тут веса домножаются на МАшку (всмысле её производную) окном раньше.


Это прогноз на 5 баров вперёд. Как и следовало ожидать, прогнозная кривая успешно рассыпалась уже на старте. Увеличение числа уравнений свыше 2-х (до сотни проверял) существенного улучшения не даёт.


P.S. Мне полегчало!


to Vinin

Я к сожалению уже давно стал читателем. Потому и предложить ничего не могу. А тема действительно интересная. Прошу прощения.

Ну, а как нейронку под это дело зарядить. Не слабо?

Вдруг априорная нелинейность НС рождённая в неменее чем в двух скрытых слоях, совершит чудо...

 
Neutron:

to Vinin

Я к сожалению уже давно стал читателем. Потому и предложить ничего не могу. А тема действительно интересная. Прошу прощения.

Ну, а как нейронку под это дело зарядить. Не слабо?

Вдруг априорная нелинейность НС рождённая в неменее чем в двух скрытых слоях, совершит чудо...

Нейронку сделать конечно можно. Но дело-то не только в нейронке. Надо со входами определиться, а я пока этого не вижу.

 

Со входами всё нормально. Главное определить доверительный интервал для торговли.

Бывает, что система торгует полгода, а потом резко сливает, а бывает и раньше....

 
Neutron:

Я таки выискал в коде ошибку - пропустил строку не преправив индекс, в итоге прогноз строился по весам посчитаным на окно назад, домноженым на текущее значение идеальной МАшки. Вот исправленный результат (см. рис.). Тут веса домножаются на МАшку (всмысле её производную) окном раньше.


Это прогноз на 5 баров вперёд. Как и следовало ожидать, прогнозная кривая успешно рассыпалась уже на старте. Увеличение числа уравнений свыше 2-х (до сотни проверял) существенного улучшения не даёт.


Серега, это очень плохой прогноз, методы автокорр-и строят прогноз несколько лучше. У тебя будут огромные ошибки при переходе к ВР

 
grasn:

Серега, это очень плохой прогноз, методы автокорр-и строят прогноз несколько лучше. У тебя будут огромные ошибки при переходе к ВР

Если ты имеешь в виду модели линейной авторегресии вида:

то позволю с тобой не согласиться. Дело втом, что я решаю почти такую же задачу (сравни: x[n+1]=SUM{w[i]*x[n-i]}, где i=0...P-1), с той лишь разницей, что веса под знаком суммы у меня определяютя адаптивно на глубине погружения P, а в классическом виде - интегрально на большем участке (для набора статистики при вычислении коэффициентов корреляции). То что результат никакой, так это только укрепляет моё стремление перейти к анализу нелинейными методами, в особенности с использованием НС.

Что касается случая экстраполяции идеальной машки (график ты привёл), то я думаю заметно увеличить горизонт прогнозирования можно потребовав от ФНЧ сохранения производных n-го порядка, где n должно быть больше 2. В моём случае сохранялась только первая производная, поэтому при увеличении горизонта свше 2-3 баров ряд начинал сыпатся.

 
Neutron:
grasn:

Серега, это очень плохой прогноз, методы автокорр-и строят прогноз несколько лучше. У тебя будут огромные ошибки при переходе к ВР

Если ты имеешь в виду модели линейной авторегресии вида:

то позволю с тобой не согласиться. Дело втом, что я решаю почти такую же задачу (сравни: x[n+1]=SUM{w[i]*x[n-i]}, где i=0...P-1), с той лишь разницей, что веса под знаком суммы у меня определяютя адаптивно на глубине погружения P, а в классическом виде - интегрально на большем участке (для набора статистики при вычислении коэффициентов корреляции). То что результат никакой, так это только укрепляет моё стремление перейти к анализу нелинейными методами, в особенности с использованием НС.

Что касается случая экстраполяции идеальной машки (график ты привёл), то я думаю заметно увеличить горизонт прогнозирования можно потребовав от ФНЧ сохранения производных n-го порядка, где n должно быть больше 2. В моём случае сохранялась только первая производная, поэтому при увеличении горизонта свше 2-3 баров ряд начинал сыпатся.




Серега, и где только не используется сумматор с коэффициентами. Этак, можно утверждать, что у тебя нейронная сеть, правда, маленькая. Давай, лучше сравним твою и мою модель, надо только критерии придумать. Я буду использовать predict() в MatCAD, а ты свою систему. Среда разработки у нас одинаковая, так что определяемся с файлом данных (котировка, тестируемый процесс – close, среднее или чего то другое …, участок тестирования). Тестируем только прогноз MA, сама MA выбирается адаптивно – не важно как, только конечный результат важен. Тестируем на каждом отсчете, тем самым добьемся статистической достоверности (данных то вроде достаточно)


У меня правда горизонт прогноза подбирается адаптивно и принимает значения в указанных ранее пределах. Вот пример моего прогноза MA на четыре отсчета вперед:


[ошибок никаких нет]


Попробуем сравнить? А если да, то какие предложения по критериям, желательно, что бы это была одна цифра соответствующая одному отсчету, так я думаю, будет проще для сравнения.


PS: Время на тест давай задавать не очень жестко, я думаю и у тебя много разных дел.

PS2: Для проверки, можно будет обменяться файлами по почте, а можно верить на слово :о)

 

Ok!

Я правильно понял, что выкладывается один на нас двоих файл относительно гладкой кривой (МА) и строится прогноз на N отсчётов вперёд? Если да, то оценивать результат будем следущим способом: набираем статистику прогнозов (1000 результатов) на 10 отсчётов вперёд (например) и строим в декартовых координатах прогнозное поле, откладывая по оси абсцисс истинное значение МА, а по оси ординат - ее прогноз.


По полученому облаку методом наименьших квадратов проводим прямую и тот метод у которого тангенс угла наклона этой прямой будет ближе к 1 - круче!


P.S. А насчёт маленькой нейронки ты как всегда в яблочко попал :-)

Причина обращения: