На радость нейросетевикам, быстрая и бесплатная библиотека для MT4 - страница 4

 
Figar0 писал(а) >>

З.Ы. хотя у моего советника таких сильно различных результатов не получалось, но это может зависеть от многих условий.

У вашего советника для входа используется другой индикатор?

Начальные веса могут быть разными, но в конечном итоге на одинаковых входящих данных должны получиться примерно одинаковые результаты обучения.

Иначе это жесткий рандом, а не обучение.

 
mgribachev >>:

2 -й прогон оптимизации делался с "0" на тех де данных с теми же параметрами.

Там нечему "доучиваться", т.к. это новое обучение, но оно дает совершенно другие результаты.

При новом обучении сетки начальные веса инициализируются случайными числами. Поскольку начальные веса разные, то и обучение для сеток тоже будет различаться и конечный результат, также будет иметь отличия.


A какой смысл удалять готовые обученные сетки и переучивать их заново?


Я только после убыточных сделок провожу оптимизацию - обучение сетки. Чаще всего StopLoss остается прежним и для того чтобы советник загрузил свежие сетки, нужно только перезагрузить терминал, потому что загрузка из файлов находится в init(). Если StopLoss изменился, то необходимо изменить его и в настройках торгующего советника.


Переоптимизацию можно проводить на ходу, т.е. если советники в это время торгуют, то оптимизатор им не мешает.

 
mgribachev писал(а) >>

У вашего советника для входа используется другой индикатор?

Входы другие, но гораздо более важно наверно то, что период обучения гораздо длинее..

 
mgribachev >>:

Здравствуйте Юрий.

Не сочтите за труд, объясните, пожалуйста, почему две раздельных оптимзации вашего советника,

...

х: от 1 до 5000 шаг 1

...

Начальные веса могут быть разными, но в конечном итоге на одинаковых входящих данных должны получиться примерно одинаковые результаты обучения.

Иначе это жесткий рандом, а не обучение.


Не сочтите за труд внимательно прочесть инструкцию к советнику на предмет того, какие значения для x должны быть при оптимизации и не задавайте больше глупых вопросов.


Если Вы занимаетесь отсебятиной то:


Неча на зеркало пенять, коли рожа крива (с) Козьма Прутков

 
Reshetov писал(а) >>

При новом обучении сетки начальные веса инициализируются случайными числами.

Поскольку начальные веса разные, то и обучение для сеток тоже будет различаться и конечный результат, также будет иметь отличия.

A какой смысл удалять готовые обученные сетки и переучивать их заново?

Я только после убыточных сделок провожу оптимизацию - обучение сетки. Чаще всего StopLoss остается прежним и для того чтобы советник загрузил свежие сетки, нужно только перезагрузить терминал, потому что загрузка из файлов находится в init(). Если StopLoss изменился, то необходимо изменить его и в настройках торгующего советника.

Переоптимизацию можно проводить на ходу, т.е. если советники в это время торгуют, то оптимизатор им не мешает.

В примере приведены начальные параметры 2-х разных стей, обученных на одинакоых данных, одном периоде, с одинаковыми параметрами обучения, по одному и томуже советнику.

Проход Прибыль Всего сделок Прибыльность Матожидание выигрыша Просадка $ Просадка %
54 1036.25 38 1.86 27.27 300.99 48.67
Проход Прибыль Всего сделок Прибыльность Матожидание выигрыша Просадка $ Просадка %
24 880.85 168 1.26 5.24 287.04 30.80

Из этого примера следует, что если начальные параметры 2х ОДИНАКОВО обученных сетей разные, то и последующее их обучение (улучшени) будет разным.

Еслия я правильно понял, то все поледующие обучения (оптимизации) нужно прооводить не удаляя данных из каталога ANN, просто расширяя интервал оптимизаии, добавлением нового периода (одного дня или недели) т.е. начальная дата интервала при новой оптимизации должна оставаться без изменений?

 
Reshetov писал(а) >>

Не сочтите за труд внимательно прочесть инструкцию к советнику на предмет того, какие значения для x должны быть при оптимизации и не задавайте больше глупых вопросов.

Если Вы занимаетесь отсебятиной то:

Неча на зеркало пенять, коли рожа крива (с) Козьма Прутков

Прошу прощения, не понял, что х от 0 до 1000000 жесткое условие.

 
mgribachev >>:

Прошу прощения, не понял, что х от 0 до 1000000 жесткое условие.

Не надо ничего просить и спрашивать.


Нормальные люди сначала все делают по инструкции, а потом уже экспериментируют, если компетенции хватит, на свой страх и риск.

Ненормальные все делают сразу через ж... и тут же начинают предъявлять претензии.

 

mgribachev писал(а) >>


Еслия я правильно понял, то все поледующие обучения (оптимизации) нужно прооводить не удаляя данных из каталога ANN, просто расширяя интервал оптимизаии, добавлением нового периода (одного дня или недели) т.е. начальная дата интервала при новой оптимизации должна оставаться без изменений?

Ну даже не знаю как Вам ответить, чтобы было адекватнее? Попробуйте для начала ответить на вопрос:


Если Вы хотите посмотреть другую передачу по телевизору, то каковы будут действия:


1. Посмотреть на прежнем телевизоре?

2. Удалить прежний телевизор, купить новый и посмотреть на нем?


Прочтите еще раз внимательно инструкцию к советнику на предмет того, есть ли там упоминание про удаление сеток.

 
marketeer >>:

Может кто-нибудь объяснить кое-что в примерах из FANN? В частности, в файле cascade_train.c написана такая фигня:

Наверно я чего-то не понимаю, но складывается впечатление, что каждая последующая пара загрузок обучающего и тестового файла затирает предыдущие. Зачем это? Более того, происходит утечка памяти, т.к. между загрузками не вызывается fann_destroy_train(data);

Затем еще:

Какой смысл?

Кто-то раскомментировал все варианты. В коде из CVS таких ошибок нет.

 
Блин, решил попробовать Советник и FANN но при оптимизации вылетает терминал с ошибкой, что не так интересно???
Причина обращения: