Использование Нейронных сетей в трейдинге. - страница 5

 

Хоть я и не занимаюсь нейросетями на рынке, но лично я, рискнул бы предположить, что обыкновенная линейная нормировка была бы лучше, чем нормировка на единичную дисперсию, так как переобучать сеть на новых данных должно быть намного лучше, не изменяя зазор потенциального разброса новых данных, что естественно невозможно сделать, приведя ряд к центрированному. При такой нормировке приходится изменять в сети буквально все, даже весовые коэффициенты, то есть попросту переучивать сеть, а не улучшать ее весовые коэффициенты. Но это так, предположение. Его нужно проверять.

 
registred >>:

Хоть я и не занимаюсь нейросетями на рынке, но лично я, рискнул бы предположить, что обыкновенная линейная нормировка была бы лучше, чем нормировка на единичную дисперсию, так как переобучать сеть на новых данных должно быть намного лучше, не изменяя зазор потенциального разброса новых данных, что естественно невозможно сделать, приведя ряд к центрированному. При такой нормировке приходится изменять в сети буквально все, даже весовые коэффициенты, то есть попросту переучивать сеть, а не улучшать ее весовые коэффициенты. Но это так, предположение. Его нужно проверять.


У меня сеть попросту переучивается каждые 24 часа. Не знаю, плюс это или минус. Но, пока фанкчит.

 
Neutron >>:

Нужно Prival-a спосить как получить нужное распределение (прямоугольное) из произвольного в аналитическом виде.

Привалыч сейчас спит, наверно, - так что попытаюсь ответить за него. Делал я как-то моделирование нормальной величины на основе равномерно распределенной на [0,1]. При этом надо было вычислять от равномерно распределенной случайной величины функцию, обратную интегральной гауссовой. Так что для того, чтобы из нормально распреленной получить равномерно распределенную, пришлось бы вычислять от первой интегральную гауссову функцию.

По аналогии, чтобы из произвольно распределенной величины получить равномерно распределенную, надо вначале узнать интегральную функцию распределения первой - и применить ее к сл. величине. Надеюсь, не сильно напартачил.

 

Привет, Алексей.

Давай медлено и доходчиво (специально для меня).

Итак, имеем экспоненциально распределённую СВ вида Y=A*exp{-а*Х} , где Х - амплитуда данных подаваемых на вход НС. Хотим найти некую волшебную функцию f(х), воздействуя которой на ряд входных данных Х позволяет получить их прямоугольное распределение в отрезке +/-1. Для этого ты советуешь:

1. Найти функцию, обратную интегральной гауссовой. Нашли интегральную: Z=-A/a*exp{-а*Х}, теперь обратную ей: X=1/a*ln(-A/a/Z)

Это и есть искомая f(х)=1/a*ln(-A/a/х)?

 
sol писал(а) >>

У меня сеть попросту переучивается каждые 24 часа. Не знаю, плюс это или минус. Но, пока фанкчит.

Я так понимаю не в MQL ?

 
FION писал(а) >>

Я так понимаю не в MQL ?

У меня сетка переучивается на каждом выходе с рынка, перед новым заходом.

 
Neutron писал(а) >>

У меня сетка переучивается на каждом выходе с рынка, перед новым заходом.

Какова структура сети, сколько входов, как долго переучивается, на MQL или внешняя прога?

 

На MQL, несколько десятков строк кода и 9 кБ объём.

Сетка 100/2/1, архитектура масштабируется произвольно (в том числе и количество скрытых слоёв). Скрытый слой/слои с гипертангенсом, выходной показывает Buy/Sell (знак). Переобучается (дообучается) примерно за 100 мс.

Как не старался, наращивание нейронов в скрытом слое не даёт заметного прироста вычислительной мощности, зато заметно усложняет обучение. Возможно, это особенности связаны с конкретноой задачей и результат нельзя обобщать.

 
Neutron писал(а) >>

На MQL, несколько десятков строк кода и 9 кБ объём.

Сетка 100/2/1, архитектура масштабируется произвольно (в том числе и количество скрытых слоёв). Скрытый слой/слои с гипертангенсом, выходной показывает Buy/Sell (знак). Переобучается (дообучается) примерно за 100 мс.

Как не старался, наращивание нейронов в скрытом слое не даёт заметного прироста вычислительной мощности, зато заметно усложняет обучение. Возможно, это особенности связаны с конкретноой задачей и результат нельзя обобщать.

Что Вы имеете ввиду под "архитектура масштабируется произвольно". Насколько я понимаю архитектура - это строение сети. А масштабирование - использование некоторой функции нормирования данных. 100 входов - что-то много. Или Ваши 100 что-то другое?

 

Neutron писал(а) >>

Давай медлено и доходчиво (специально для меня).

Итак, имеем экспоненциально распределённую СВ

ОК, Сергей, давай медленно и печально. Вначале разберемся с общими теоремами. Вот сцылко. Смотри теоремы 24, 25, 26.

Обрати внимание: в Th 24 речь идет о функции плотности распределения.

А вот Th 25 делает как раз в точности то, что тебе нужно, и там речь идет о функции распределения.

Глянь для прикола также на следствие 8 из Th 26. Третья формула следствия - это как раз то, о чем я говорил, когда хотел получить гауссово из равномерного.

А для твоей экспоненциально распределенной нужно просто аккуратно получить ее функцию распределения (интегральную) и применить Th 25.

P.S. Кстати, позабавила последняя фраза Упражнения 36 ("(Указание: так её никто не получает)."). А я, дурак, именно так ее и получал (в Кодабазе есть библиотека статфункций)...

Причина обращения: