Вопрос по программированию нейросети нейросети - страница 2

 
grasn:
Mathemat:

Спасибо, grasn. Мне тоже перестала сниться после моих дилетантских экспериментов (пару лет назад), но, видно, этот цикл я еще не отработал - тем более что за квалифицирующие НС я даже и не брался...

Да, не за что. Не обращайте внимание на мой пессимизм по отношению к НС. Каждый должен пройти свой путь. К слову сказать, давние исследования структуры сигнала мне здорово помогли для разработки модели, которую я продолжал развивать по материалам дружественного форума (https://www.mql5.com/ru/forum/50458). Так получилось, что идеи изложенные Владиславом и многими другими участниками обсуждения (я не про Алекса) очень хорошо легли на мой собственный опыт и понимание процессов.

PS: Кстати, рекомендую для исследований MineSet (если какую ни то закономерность нужно найти), разработанный SGI и проданный вот сюда: http://www.purpleinsight.com/ когда, SGI рушился. Есть необходимый набор средств Data Mining в том числе и классификация, а так же отличные возможности визуализации (все таки, его SGI создавал, а лучше глаза еще никто НС не придумал).


На самом деле НС очень хорошо работают. Твой песимизм понятен, я тоже прошел через такую ситуацию. Стандартные подходы однозначно не работают, видимо ты не исследовал смежные применения. По-пробуй. Очень хорошая и предельно понятная программа для изучения НС - Нейрошелл2. Есть практически все типы НС. Можно легко подключить сеть к МТ4 и сразу посмотреть результаты.

А вообще, любую НС можно легко программировать сразу в MQL4. Так же можно подобрать веса НС с помощью ГА МТ4 или своего собственного. Пессимизм определяется только не хваткой воображения и фантазии. В принципе, пределов нет...

 
Mathemat:
Да, dob-zorge, на вход ее и нужно подавать, а не прогнозировать ее.
Вот это мне и интересно, возможно ли ,чтобы НС выдавала приблизительную Close.
Или надо ориентироваться на сигнал выхода НС.
В расчётах НС использует формулу сигмоидной функции F(x), выход равен от -0,5 до 0,5.
 
klot:

На самом деле НС очень хорошо работают. Твой песимизм понятен, я тоже прошел через такую ситуацию. Стандартные подходы однозначно не работают, видимо ты не исследовал смежные применения. По-пробуй. Очень хорошая и предельно понятная программа для изучения НС - Нейрошелл2. Есть практически все типы НС. Можно легко подключить сеть к МТ4 и сразу посмотреть результаты.

А вообще, любую НС можно легко программировать сразу в MQL4. Так же можно подобрать веса НС с помощью ГА МТ4 или своего собственного. Пессимизм определяется только не хваткой воображения и фантазии. В принципе, пределов нет...

Спасибо за добрый совет, но, например, уровни Фибоначчи работают совсем не хуже самой навороченной НС. И вовсе это не пессимизм, а просто вывод, основанный на здравом смысле, исследованиях и сопоставительном анализе результатов прогноза НС с другими моделями и стратегиями. Для работы использовал NeuroSolution, так же весьма хороший инструмент (MineSet для поиска закономерностей).

Просто поверь на слово, фантазии и воображения у меня в избытке и перепробовал очень многое. Я конечно не категоричный противник использования НС, но для себя выводы сделал (верно пишешь, стандартные подходы вообще не работают).

В любом случае, желаю тебе больше удачных прогнозов. :о)

 
grasn:
klot:

На самом деле НС очень хорошо работают. Твой песимизм понятен, я тоже прошел через такую ситуацию. Стандартные подходы однозначно не работают, видимо ты не исследовал смежные применения. По-пробуй. Очень хорошая и предельно понятная программа для изучения НС - Нейрошелл2. Есть практически все типы НС. Можно легко подключить сеть к МТ4 и сразу посмотреть результаты.

А вообще, любую НС можно легко программировать сразу в MQL4. Так же можно подобрать веса НС с помощью ГА МТ4 или своего собственного. Пессимизм определяется только не хваткой воображения и фантазии. В принципе, пределов нет...

Спасибо за добрый совет, но, например, уровни Фибоначчи работают совсем не хуже самой навороченной НС. И вовсе это не пессимизм, а просто вывод, основанный на здравом смысле, исследованиях и сопоставительном анализе результатов прогноза НС с другими моделями и стратегиями. Для работы использовал NeuroSolution, так же весьма хороший инструмент (MineSet для поиска закономерностей).

Просто поверь на слово, фантазии и воображения у меня в избытке и перепробовал очень многое. Я конечно не категоричный противник использования НС, но для себя выводы сделал (верно пишешь, стандартные подходы вообще не работают).

В любом случае, желаю тебе больше удачных прогнозов. :о)

Кто тебе сказал что нейросети нужны для прогнозов?
 
Прогнозами занимается гидрометеоцентр, гадалки и предсказатели.

Может быть каждый должен заниматься своим делом, а нейросетям ставить те задачи которые они решают на отлично!
Например: распознать образ висельника или призрака?
 
VBAG:
Прогнозами занимается гидрометеоцентр, гадалки и предсказатели.
Еще биржевые аналитики:))
 
Integer:
VBAG:
Прогнозами занимается гидрометеоцентр, гадалки и предсказатели.
Еще биржевые аналитики:))
Да, конечно, и еще многие, которые никогда не готовы взять на себя ответственность за свои слова.
Или их формулировка идет на грани игры слов, чтобы всегда можно было истолковать с точностью до наоборот. Типа сразу "Ну мы же вам об этом говорили...."
Да, собственно, суть не в этом.
Никого не хотел обидеть,
просто ненавижу слово прогноз, да и за нейросети стало обидно. ..,
а с ними и за державу. .
С уважением ко всем участникам.
Владимир
 

Опишу немножко свое представление данных нейросетям. Например в моем эксперте на чампе, одна из сеток на входы принимает соотношения средних:

       ema15 = iMA("EURUSD",PERIOD_M15, 199,0,1,0,1);
       ema13 = iMA("EURUSD",PERIOD_M15, 132,0,1,0,1);
       ema8 = iMA("EURUSD",PERIOD_M15, 66,0,1,0,1);
       ema7 = iMA("EURUSD",PERIOD_M15, 46,0,1,0,1);
       ema5 = iMA("EURUSD",PERIOD_M15, 6,0,1,0,1);       
       
       input[0] = (ema15 - Close[1])*15000;
       input[2] = (ema13 - Close[1])*10000;
       input[1] = (ema8 - Close[1])*12000;
       input[3] = (ema7 - Close[1])*15000;
       input[4] = (ema5 - Close[1])*10000;
       input[5] = (ema15 - ema8)*12000;
       input[6] = (ema13 - ema7)*15000;
       input[7] = (ema8 - ema5)*10000;

Умножение на числа, для получения более ровных входов.

Далее сетка обучалась на случайно выдернутых сигналах из истории(скажем 400 - это очень мало => запоминание какого-либо периода просто исключино). Выходы я делал такие:

1.0 - более 70 пунктов вверх и менее 30 пунктов вниз втечение суток.

0,9 - 60 вверх 25 вниз

0.8 - 40 вверх 20 вниз

0.75 - флэт

0.7 - 40 вниз, 20 вверх

0.6 - 60 вниз 25 вверх

0.5 - 70 вниз 30 вверх

После дня обучения получаются неплохие результаты при тестировании на других выборках(не из обучения)... Далее делается советник, причем если понизить планки (скажем не 70 пунктов провита, а 20), то результаты впечатляют.

Всем удачи.

 
Вот-вот, plan, все ж таки классификация получается, и это обнадеживает. Спасибо за идею!

P.S. А сетка-то какая, если не секрет? Я до сих пор возился с Jordan/Elman.
 
Mathemat:
Вот-вот, plan, все ж таки классификация получается, и это обнадеживает. Спасибо за идею!

P.S. А сетка-то какая, если не секрет? Я до сих пор возился с Jordan/Elman.



Вообще, все сам писал. На C# :) Так проще разобраться и реализовать что-то свое. Например у меня модифицированный алгоритм обучения сеток. Сетки многослойные (например 8 - 60 - 20 - 1), объединены в коммитет: каждая реализует свою идею.
Причина обращения: