Цвет тела и его связь с интеллектом - страница 2

 

Подправил файлы. А то открытие позиции происходило в одну сторону и не нормировался входной вектор.

Вот, что на дневках для СЛАУ получилось:

Оптимизация числа входов (ранг матрицы) проводился на 2007 г. Оптимальная размерность входного вектора получилась равна 49. Данные по торгам приведены за совместно с участком оптимизации.

А это нейронная сеточка потрудилась:

Число входов тоже 49. Интересно, двуслойная нелинейная сетка даст лучший результат?

 
Надо китайцев подключать - они самые древние, а значит самые мудрые. :-)
 

Вместо х[n] лучше попробовать пороговую функцию F(x[n]):

если -A<x[n]<A то F(x[n])=0,

если x[n]>A F(x[n])=1

если x[n]<-A F(x[n])=-1

Порог A адаптивен от волатильности.

А для коэффициентов a[1]...a[n] лучше подбирать аналитическую убывающую функцию. Например: a[n]=a[1]/n.

Предположение, что например свеча 5 периодов назад может больше влиять на прогноз чем например свеча один период назад - только тема для подгонки.

При такой постановке задачи оптимизация сводится к способу (периоду) рассчета волатильности (порога А) и вида убывающей функции для коэффициентов a[n]

 

Я нормирую входной вектор на стандартное отклонение, а затем воздействую на него гиперболическим тангенсом. В итоге, получается то о чём Вы сказали - почти пороговая функция, только глаже и, как следствие, можно использовать для обучения НС обратное распространение ошибки. Что и реализовано.

Вопрос о необходимости введения искусственной убывающей функции для весов, с целью повышения значимости последних событий - спорен. Если действительно так, то ничто не мешает НС самой организовать в процессе обучения нужное, сколь угодно сложное затухание по амплитудам весов... Кажется.

 
Neutron писал(а) >>

Я нормирую входной вектор на стандартное отклонение, а затем воздействую на него гиперболическим тангенсом. В итоге, получается то о чём Вы сказали - почти пороговая функция, только глаже и как следствие можно использовать для обучения НС обратное распространение ошибки. Что и реализовано.

Вопрос о необходимости введения искусственной убывающей функции для весов, с целью повышения значимости последних событий - спорен. Если действительно так, то ничто не мешает НС самой организовать в процессе обучения нужное, сколь угодно сложное затухание по амплитудам весов... Кажется.

В принципе все так, но для того чтобы уменьшить вероятность подгонки нужно заменить по-максимуму жесткой логикой. Вопрос только в правильном выборе этой логики - соответствию реальности. Это будет робастной основой (если найдет подтверждение), а НС или другой метод адаптирует ее под текущие условия.

 
Может кто поможет? не могу разобраться с написанием кода для решения СЛАУ. помогите плиз.
Причина обращения: