Гибридные нейросети. - страница 20

 
rip >>:

MSE

Странно, когда я начинал применять этот же инструмент к форексу с MSE у меня ничего не вышло. Нужно применять совсем другую ошибку я считаю.

 
registred >>:

Странно, когда я начинал применять этот же инструмент к форексу с MSE у меня ничего не вышло. Нужно применять совсем другую ошибку я считаю.



Ок, какую? В случае с обучением с учителем, думаю MSE достаточно.

 
rip >>:

Ок, какую? В случае с обучением с учителем, думаю MSE достаточно.


Я думаю над этим. Но точно знаю, что MSE не годится. По крайней мере для меня по указанной выше причине. Я считаю, что для нейросетки учителем(правилом) является ошибка, так как это универсальный аппроксиматор, необходимо каким-то образом определить степень этой аппроксимации, качество приближения с учетом выхлопов на рынке, привести так сказать ряд к более стационарному виду. Если у вас есть какие-то идеи по этому поводу, мы можем обсудить.

 
registred >>:


Я думаю над этим. Но точно знаю, что MSE не годится. По крайней мере для меня по указанной выше причине. Я считаю, что для нейросетки учителем(правилом) является ошибка, так как это универсальный аппроксиматор, необходимо каким-то образом определить степень этой аппроксимации, качество приближения с учетом выхлопов на рынке, привести так сказать ряд к более стационарному виду. Если у вас есть какие-то идеи по этому поводу, мы можем обсудить.


Если бы можно было ряд привести к стационарному виду, думаю не было бы форекса как такового :)

 

Одним словом, примеры успешного применения нейросетей уже были у людей, надо над этим работать еще короче.

 
registred >>:

Одним словом, примеры успешного применения нейросетей уже были у людей, надо над этим работать еще короче.

Почему были, есть. Если мне память не изменяет в 2007 году, Better победил как раз с вероятностной НС

Задачей сети был прогноз движения движения курса.

 
rip >>:

Почему были, есть. Если мне память не изменяет в 2007 году, Better победил как раз с вероятностной НС

Задачей сети был прогноз движения движения курса.



Да, я читал. У вероятностной сети есть одна большая проблема, она чувствительна к шуму в данных. Если  по-простому, в ней мало эмпиризма в отличии от BackProp-а и других итерационных методов.

 
registred писал(а) >>

У вероятностной сети есть одна большая проблема, она чувствительна к шуму в данных.

Можно об этом поподробнее? Кажется, встречал иные мнения в литературе.

 

ВНС менее чувствительна к шуму в данных, относительно аналогичных методов(например k-NN), но относительно MLP и подобных картина скорее всего будет обратной...

 
lea >>:

Можно об этом поподробнее? Кажется, встречал иные мнения в литературе.


А какой там параметр для настройки? Сигма? Каким способом Вы будете ее настраивать? Как найти оптимальное решение? Вот эти вопросы для меня не вполне понятны. Другое дело, что для MLP существенный параметр лишь тип ошибки, я настаиваю все же на этом. Конечно, MLP залетает в локальный минимум с этим есть приемы борьбы. В любом случае, для MLP оптимальное решение может быть найдено и не через нахождение в глобальном мимимуме для многих задач. Если у вас с PNN что-то получилось, то это очень хорошо.

Причина обращения: