Виртуальный оптимизатор на mql, встроенный в советник? - страница 4

 
TheXpert писал (а) >>

Не тот случай, чтобы гарантию требовать. А вот поведение системы за пределами подгонки с некоторой степенью достоверности можно получить.



Разве можно делать такие утверждения без ссылок на обоснование? Что же это за чудо-метод такой? Очень интересно.

 
TheXpert писал(а) >>

Возьмем самую простую систему -- пересечение мувингов.

Паттерн один -- собственно пересечение, или два, если разделить покупку и продажу.

Условия можно брать абсолютно любые, площадь до пересечения, значения других индикаторов цену и т.д.

Далее нам на помощь приходит сеть Кохонена, которые эти самые условия бьет на кластеры. И именно для кластеров подбиваем статистику.

Фишка в том что статистика изменяется, т.о. мы имеем адекватную информацию о кластере без переобучения системы.

Уточняю: пересечение мувингов - это условие входа и выхода... А паттерн - серия виртуальных профитных и убыточных сделок...

 
bstone >>:

Разве можно делать такие утверждения без ссылок на обоснование? Что же это за чудо-метод такой? Очень интересно.

Собственная нейросеть. Впрочем, беру свои слова обратно, ибо обоснования у меня действительно нет.

Под собственной нейросетью я имею в виду голову.

 
kharko >>:

Уточняю: пересечение мувингов - это условие входа и выхода... А паттерн - серия виртуальных профитных и убыточных сделок...

Нет, именно в исходном варианте.

Еще раз внимательно перечитайте пост Mathemat'a.

 
можно сылку на хорошую книжку по нейросетям применительно к торговле, что то много разговоров, да и доказательства действенности есть
 
bstone писал (а) >>

Думаю, мысль проста: методы обучения нейросети - это подгонка весовых коэффициентов под минимальную ошибку на обучающих данных со всеми вытекающими.

если следовать Вашей же логике

  ТС нейросеть - это подгонка весов по последней ближайшей истории  -  верно! но не совсем ( зависит от способов )

  если брать  ТС  без НЕЙРОСЕТИ  - то на последней истории Вы так же делаете подгонку! -   или не делаете ?

---

а теперь ВНИМАНИЕ!  в ТС с НЕРОСЕТЬЮ можно и нужно вставлять механизм дообучения!  

то же самое можно и нужно делать с  ТС  без нейросети - это называют адаптивность

---

теперь поговорим о подгонках и оптимизациях!

--

если Вы к примеру НАМЕРЯННО заглядываете в будующее - при подгонке то это как раз уже плохо и это не подгонка а фальсификация

--

свой советник в 2007 я подгонял на истории 2007 получил средние значения и пустил на чемпионат!

и собтсвенно он неплохо пришел к финишу

значит подгонка была разумной и качественной!

---

почитайте некоторые мысли о тестировании  оптимизации - и подгонке

https://championship.mql5.com/2012/ru/news

обратите на методику тестирования и подгонки которую использует Александр - BETTER!


Александр Топчило

Например, разбиваю весь период данных на 10 равных отрезков.
Оптимизирую на отрезках 1-5, затем отрезок 6 просчитываю с оптимизированными параметрами.
Оптимизирую на отрезках 2-6, затем отрезок 7 просчитываю с оптимизированными параметрами.
...
Оптимизирую на отрезках 5-9, затем отрезок 10 просчитываю с оптимизированными параметрами.
Суммирую результаты прогона на отрезках 6-10, полученные на предыдущих этапах.


--

считаю что подгонка - слово не ругательное! ( многие считат ПОДГОНКУ чем то нехорошим  )

"подгонка может быть правильной или не правильной"


 

 

Я говорил применительно к исходному вопросу о том, что использование НС исключает подгонку.


Насчет методики А. Топчило хочу отметить, что, очевидно, она не применима к выбору оптимальных параметров одной конкретной системы. Скорее она должна применяться для выбора лучшего из множества систем и/или их структурных аспектов.

 
Конкретно по вашей методики, Юрий, с чего вы взяли, что выбор средних параметров является оптимальным?
 

А у меня такое устойчивое мнение сложилось в посл. дни:  

Надо Нс. обучать каждый выход на своей историй. ( это косается только Нс. у которых выход бай или селл).

Простую Нс. так начал гонять и результаты форвардов, лутше чем оптимизировать каждый выход по одной историй.

 
bstone писал (а) >>
Конкретно по вашей методики, Юрий, с чего вы взяли, что выбор средних параметров является оптимальным?

пришел к выводу после  многочисленных тестов

вставил в свой советник 2007, результат оправдался

---

самое интересное -  где то на форуме так же видел рекомендацию

не брать крайних пиковых значений пааметров

Причина обращения: