Рыночный этикет или правила хорошего тона на минном поле - страница 14

 
Neutron >>:

Это самая большая ошибка. Рынок вас накажет за дерзость!

С Рынком можно только играть, и по его правилам. И если ему понравится игра, он вас наградит.

Вы приписываете рынку личностные качества, да еще с большой буквы? :)

Рынок - это дикая стихия, аналогия с океаном мне кажется достаточно удачной.

 

Я шутил:-)

Знаю, что рынок, это всего-навсего случайный, и где-то квазистационарный процесс. А задача ТС сводится к поиску и эксплуатации хоть какого-то подобя стационрности.

sealdo писал(а) >>

Интересно, есть ли способ рассчитывать цели (ТП,СЛ), например, от волатильности "дневок", "неделек", или иначе, чтобы они могли плавно изменяться с рынком.

Эти величины характеризуют рынок и оценить их можно, только прогоном ТС на истории.
 
Neutron >>:

Я шутил:-)


Да здесь полно серьезных дядек! Шутка...-:)

Neutron, у меня вопросы по ОРО. Правильно ли я понимаю, что когда значение ошибки подается на вход нейрона, он делит эту ошибку между всеми весами своих входов, соответственно их доле в общей сумме этих весов?

То есть берем значение ошибки +/- Er, потом суммируем все веса входящих синапсов Sw1 = SUM(w1+w2+w3+... wn) и вычисляем долю (в общем весе) каждого из них

Dw1 = w1/(Sw1/100) после чего распределяем +/-Er между всеми весами соответственно их доле в общем весе: wi = wi +/- Dwi *Er это так? Если да, то можно ли это сделать такое распределение не линейным, а скажем экспоненциальным? Ведь в жиывых системах "премии" и "оплеухи", т.е. ошибки и бонусы распределяются среди "первых" и "последних" вовсе не линейно.

Второй вопрос:

Откуда вообще берется значение ошибки? Каков знак этого значения? Модет ли величина полученного в ходе пердыдущей транзакции убытка, выступать "значением ошибки"?

 
paralocus >>:

Правильно ли я понимаю, что когда значение ошибки подается на вход нейрона, он делит эту ошибку между всеми весами своих входов, соответственно их доле в общей сумме этих весов?

Нет, не делит -- распространяет. И получается так не потому, что кому-то так вздумалось, а в результате минимизации целевой функции.

В свете этого --

Если да, то можно ли это сделать такое распределение не линейным, а скажем экспоненциальным? Ведь в жиывых системах "премии" и "оплеухи", т.е. ошибки и бонусы распределяются среди "первых" и "последних" вовсе не линейно.

Данное предположение скорей всего приведет к замедлению обучения или расхождению суммарной ошибки.

 
TheXpert >>:

Нет, не делит -- распространяет. И получается так не потому, что кому-то так вздумалось, а в результате минимизации целевой функции.

В свете этого --

Данное предположение скорей всего приведет к замедлению обучения или расхождению суммарной ошибки.

А предсказуемость увеличиться?

 
paralocus писал(а) >>

Neutron, у меня вопросы по ОРО. Правильно ли я понимаю, что когда значение ошибки подается на вход нейрона, он делит эту ошибку между всеми весами своих входов, соответственно их доле в общей сумме этих весов?

То есть берем значение ошибки +/- Er, потом суммируем все веса входящих синапсов Sw1 = SUM(w1+w2+w3+... wn) и вычисляем долю (в общем весе) каждого из них

Dw1 = w1/(Sw1/100) после чего распределяем +/-Er между всеми весами соответственно их доле в общем весе: wi = wi +/- Dwi *Er это так? Если да, то можно ли это сделать такое распределение не линейным, а скажем экспоненциальным? Ведь в жиывых системах "премии" и "оплеухи", т.е. ошибки и бонусы распределяются среди "первых" и "последних" вовсе не линейно.

Второй вопрос:

Откуда вообще берется значение ошибки? Каков знак этого значения? Модет ли величина полученного в ходе пердыдущей транзакции убытка, выступать "значением ошибки"?

Не, всё не так.

Рассмотрим не коммитет сетей как у тебя, а обычную двуслойную сетку. Потом можно будет обобщить.

У тебя есть вектор входных сигналов (пусть одномерный) длиной n отсчётов и пусть n+1 отсчёт является проверочным для качества обучения Сети. Суёшь ей на вход этот вектор (n отсчётов), предварительно приравняв все веса случайным значениям в диапазоне +/-1 с равномерным распределением плотности вероятности и смотришь то, что родила на выходе сетка. Пусть, она выдала на-гора +5.1, а твой проверочный n+1 отсчёт (то значение к которому должна стремится обученная сетка на этом обучающем векторе) +1.1 Тогда, ты берёшь разницу между полученным значением и искомым +4 и добавляешь это значение с сохранением его знака к каждому весу выходного нейрона (это, если он без ФА), или находишь значение производной от ФА от этого значения и добавляешь его к весам на входе последнего нейрона (если есть ФА). И т.д.

Если этот кусок переваришь, расскажу как дальше проталкивать ошибку к входным весам первого (входного) слоя.

 
Neutron >>:

Не, всё не так.

Может лучше в формулах? Математика тут несложная.

paralocus >>:

А предсказуемость увеличиться?

Вряд ли.

 
TheXpert >>:

Нет, не делит -- распространяет. И получается так не потому, что кому-то так вздумалось, а в результате минимизации целевой функции.

В свете этого --

Данное предположение скорей всего приведет к замедлению обучения или расхождению суммарной ошибки.

И почему должно появиться расхождение суммарной ошибки, если Er = e(w1*x) + e(w2*x) + ... e(wn*x)? Нет, суммарная ошибка будет равнв входящей ошибке.

 
TheXpert писал(а) >>

Может лучше в формулах? Математика тут несложная.

Формулы можно и самому в литературе посмотреть, которой полно в просторах Инета.

Не будем спешить. И не пытайтись усложнить себе жизнь всякими наворотами, типа "нелинейное обучение" и т.п. это от Лукавого. Красота и надёжность в простоте и гармонии!

 
Neutron >>:

Если этот кусок переваришь, расскажу как дальше проталкивать ошибку к входным весам первого (входного) слоя.

Пошел варить...

Причина обращения: