Рыночный этикет или правила хорошего тона на минном поле - страница 23

 
Интерес ведь не в НС как таковой - она действительно одна и таже, только, может, функция активации отличается или еще что... (жалко JOONE на проверку глючный оказался - там полно всяких фишек этого плана...) Интерес в качестве входного сигнала, процессе обучения, и что на выходе
 
Neutron писал(а) >>

Ну, давай, идею подкидывай - обсудим!

Что там на вход сунуть перспективно. - МАшку?

Ой, да что только я уже на вход ни подавал... :) Ладно, расскажу историю целиком.

Я уже как-то говорил, что мне нравится генетика, поскольку вопрос, какое поведение сети должно быть оптимальным - для ОРО - это вопрос очень открытый.

Предполагалось на каждом новом баре спрашивать сеть и реагировать соответственно. Ну написал я кое-то, подсобрал разных там средних, стохастиков или чего там Бог послал на вход, запустил. Смотрю - чудеса творит сетка. Граали рисует (не сразу, конечно, но учится до грааля)...

Ошибка была в том, что немногие индикаторы можно использовать с шифтом 0 - им нужен весь бар для построения. Фактически я подавал на сетку данные с того бара, которого еще не было и заглядывал таким образом в будущее.

С тех пор вот маюсь со входными данными. Но выяснил для себя, что обучение работает :)

 
YDzh писал(а) >>
Интерес ведь не в НС как таковой - она действительно одна и таже, только, может, функция активации отличается или еще что... Более того, от функции активации (конкретного её вида) ничего не зависит, от способа обучения (если он выполняется корректно) ничего не зависит!

Всё зависит от того, что ты собираешься прогнозировать. В этом соль и смысл.

Нет смысла касаться темы индюков в основее которых лежит сглаживание ВР в том или ином виде (МАКД например) - можно показать строго, что ФЗ в этом случае является непреодалимой преградой для прогноза ВР со свойствами антиперсистентности в ряде первой разности (ценовые ряды именно таковыми и являются).

По-поводу "заглянуть в будущее" при обучении НС, та это мы все проходили...

 
Neutron писал(а) >>

Всё зависит от того, что ты собираешься прогнозировать. В этом соль и смысл.

Нет смысла касаться темы индюков в основее которых лежит сглаживание ВР в том или ином виде (МАКД например) - можно показать строго, что ФЗ в этом случае является непреодалимой преградой для прогноза ВР со свойствами антиперсистентности в ряде первой разности (ценовые ряды именно таковыми и являются).

По-поводу "заглянуть в будущее" при обучении НС, та это мы все проходили...

Ну это как посмотреть. Бар это уже усредненная величина. Минимальный бар - минутка, значит все что лежит до текущей минуты уже в той или иной мере усреднено.

 
Neutron писал(а) >>

Всё зависит от того, что ты собираешься прогнозировать. В этом соль и смысл.

Нет смысла касаться темы индюков в основее которых лежит сглаживание ВР в том или ином виде (МАКД например) - можно показать строго, что ФЗ в этом случае является непреодалимой преградой для прогноза ВР со свойствами антиперсистентности в ряде первой разности (ценовые ряды именно таковыми и являются).

По-поводу "заглянуть в будущее" при обучении НС, та это мы все проходили...

Ну если так - тогда нет смысла касаться индикаторов вообще. Они все построены на аггрегации данных в том или ином виде. Кроме времени, объема и цен первичных данных нет. Тогда надо спускаться на уровень тика... но там "шума много". Парадокс...

 
YDzh писал(а) >>

Ну если так - тогда нет смысла касаться индикаторов вообще. Они все построены на аггрегации данных в том или ином виде. Кроме времени, объема и цен первичных данных нет. Тогда надо спускаться на уровень тика... но там "шума много". Парадокс...

Это истина! Вот только суеты не надо - суп отдельно.

Что касается бара, то я использую только цены открытия - никакого усреднения. И в планах, собираюсь поступить так, как свертует мудрый Привал - перейду на тики. Тут правда повозится придётся с режимом сохранания и сбора информации. Но если это того стОит, то от чего нет?

 

Так, кажись до коррекции весов всё!


for(int i = cikl; i >= 0; i--)
{
out = OUT2(i);---------------------------------------------------// Получаем вых. сигнал сетки
test = (Close[i]-Close[i+1])/Close[i+1];--------------------------// Получаем n+1-вый отсчет

d_2_out = test - out;---------------------------------------------// Ошибка на выходе сетки
d_2_in = d_2_out * (1 - out*out);--------------------------------// Ошибка на входе выходного нейрона

Correction2[0] += d_2_in * D2[0];---------------------------// Суммируем микрокоррекции
SquareCorrection2[0] += Correction2[0] * Correction2[0];----------// по каждому весу входящему в вых. нейрон
Correction2[1] += d_2_in * D2[1];---------------------------// и суммируем квадраты оных микрокоррекций
SquareCorrection2[1] += Correction2[1] * Correction2[1];
Correction2[2] += d_2_in * D2[2];
SquareCorrection2[2] += Correction2[2] * Correction2[2];

d_11_in = d_2_in * (1 - D2[1]*D2[1]);-----------------------------// Считаем ошибку на входах нейронов
d_12_in = d_2_in * (1 - D2[2]*D2[2]);-----------------------------// скрытого слоя

for (int k = 0; k < 17; k++)
{---------------------------------------------------------------// Сууммируем микрокоррекции для входов
Correction11[k] += d_11_in * D1[k];----------------------// первого нейрона
SquareCorrection11[k] += Correction11[k] * Correction11[k];
}

for (k = 0; k < 17; k++)
{---------------------------------------------------------------// Суммируем микрокоррекции для входов
Correction12[k] += d_12_in * D1[k];----------------------// второго нейрона
SquareCorrection12[k] += Correction12[k] * Correction12[k];
}
}
 

Коды выкладываю на всякий случай:

NeuroNet_1 - это пустой советник для обучения сетки

NeroLite_ma - двухслойный перцептрон, собственно... легко расширяется до N слойного -:)

Файлы:
 
Neutron писал(а) >>

Это истина! Вот только суеты не надо - суп отдельно.

Что касается бара, то я использую только цены открытия - никакого усреднения. И в планах, собираюсь поступить так, как свертует мудрый Привал - перейду на тики. Тут правда повозится придётся с режимом сохранания и сбора информации. Но если это того стОит, то от чего нет?

Да я и не суечусь :) Полезность тиков признают и в литературе... Запахло теорией хаоса... Насчет того, стоит ли... Стоит ли? И где Привал это советует?

И что, какие результаты на цене открытия? Я как-то от нечего делать подручными средствами игрался с регрессионным анализом. И получилось, что high и low на порядок легче прогнозировать, чем цены открытия... Что при ближайшем рассмотрении не так уж и странно...

 
YDzh >>:

И где Привал это советует?

... повсюду! Привал мудр!

Причина обращения: