Нейросети,как их освоить с чего начать? - страница 7

 
Neutron >>:
Ну не будте так строги. В конце концов, сеть иногда переучивают (а я это делаю на каждом осчёте анализируемого ВР) и среднестатистически метод минимум находит. Что касается понижения размерности, то для ВР типа ценовых, это не работает в той мере в которой вы подаёте, к сожалению.

А таймфрейм Вы какой используете? Что касается понижения размерности, то смотря с какой целью Вы это собираетесь делать. Если банальная предобработка, то это не даст должного эффекта без каких-то априорных соображений, то есть, когда данных вам уже хватает и Вы лишь улучшаете результат. Если Вы используете понижение размерности для чего-то другого, то может быть все, что угодно.;)

 
registred писал(а) >>

А таймфрейм Вы какой используете?

Не использую я ни какой ТФ.

Причина в том, что свечи юзают на всех ТФ все кому не лень, из-за этого, ВР построенный по ценам открытия (или акрытия) более близок к интегрированному случайному, чем ВР построенные из исходного другими способами (например, переходом к инструментальному времени и т.п.).

 

Спасибо gpwr, arnautov

Шаг 1: Выбираем входные данные. Например,


x1 = WPR Per1

x2 = WPR Per2

x3 = WPR Per3

Я правильно понимаю, что под входными данными понимаются переменные вынесеные во внешние параметры советника, с которыми будут сравниваться коофиценты?

Ближе к теме? Без проблем! Начать надо с написания нейрона, с последующим объединением их в сеть. А навороченные программы - это потом. Все остальные советы - туфта.

А написание нейрона, можно на этапы разложить?


Ну что? Кто в теме писал, что хочет на примере разобраться, начнём?

Первые шаги нам указали, советник на пятой странице...

 
Neutron >>:

Я знаю, что не так давно доказано две теоремы.

Буду признателен за ссылки

Согласно первой, трёхслойная нелинейная НС (та, что состоит из трёх слоёв нейронов, с нелинейностью на выходе у каждого) является универсальным аппроксиматором

Ну это уже вроде давно доказано. То, что 3-слойным персептроном можно саппроксимировать любую функцию, со сколь угодно малой заданной точностью.

и дальнейшее наращивание числа слоёв не прибавляет мощности сети.

Согласно второй теореме, вычислительная мощность сети не зависит от конкретного вида нелинейности на выходах её нейронов. Важно, что бы она (нелинейность) была в принципе, и не важно, что конкретно - сигмоида или арктангенс.

То, что я говорил, результат практических экспериментов. А насчет нелинейности... впрочем надо вначале ознакомиться с этими теоремами.

Кроме того, доказана однозначная связь между оптимальной длиной обучающей выборки на исторических данных, размерностью входа НС и полного числа её синапсов, в смысле минимизации ошибки предсказания на данных не принимавших участие в тренировке сети. Это позволяет не заниматься ленинизмом подбирая в ручную этот оптимум. При существующих мощностях РС, это заметно экономит время и силы.

Имелось в виду числа настраиваемых параметров? Пороги в них тоже входят. Кстати, тоже не помешало бы документальное подтверждение. Да и тем, кто начинает заниматься нейросетями, не помешает ознакомиться с данным материалом.

 
Andrey4-min >>:

А написание нейрона, можно на этапы разложить?

Лучше писать на объектно-ориентированном языке.


Нейрон слишком мелкое понятие при написании НС.

Слой есть объединение одинаковых нейронов, поэтому рассматривать отдельно нейрон не имеет смысла.


В своей библиотеке я использовал всего 2 вида абстракций -- слой и веса.


Веса -- это блок синапсов, связывающих 2 слоя.

Слой имеет входной, выходной буфер и буфер ошибок, а также функцию активации. Синапсы представляют собой двумернный массив и связывают выходной буфер слоя со входным следующего.

Сеть представляет собой совокупность слоев и связей между ними. Выходным может считаться любой слой, имеющий ненулевые сигналы в буфере ошибок.

 
TheXpert писал(а) >>

Ну это уже вроде давно доказано. То, что 3-слойным персептроном можно саппроксимировать любую функцию, со сколь угодно малой заданной точностью.

Погрешностью, а не точностью.

Если это ясно, тогда к чему вот эти сложности:

TheXpert писал(а) >>

На многих задачах 4-слойный персептрон показывает гораздо лучшие результаты и сходимость.

А кое-где используется 5-слойный. Про сложные сети (с несколькими выходными слоями и сложными связями) на базе персептрона я пока умолчу.

Имелось в виду числа настраиваемых параметров? Пороги в них тоже входят. Кстати, тоже не помешало бы документальное подтверждение. Да и тем, кто начинает заниматься нейросетями, не помешает ознакомиться с данным материалом.

Да, имелись в виду число весов в НС их связь с числом входов и оптимальной длиной обучающей выборки. Вывод зависимости приведён в статье прикреплённой в Attach на стр. 64-65. Коротко, если число весов НС - w , число входов d и длина обучающей выборки Р, то при оптимуме, должно выполнятся условие: P =(w^2)/d

Ссылки на теоремы приведу позже - их нужно найти.

Файлы:
yvtwslxtn.zip  1592 kb
 
Neutron >>:

Погрешностью, а не точностью.

Да.

Если это ясно, тогда к чему вот эти сложности:

Все просто, когда добавление слоя или изменение архитектуры осуществляется несколькими кликами мышки или несколькими строчками кода, то эти сложности превращаются в интересные дополнительные возможности.

Да, имелись в виду число весов в НС их связь с числом входов и оптимальной длиной обучающей выборки. Вывод зависимости приведён в статье прикреплённой в Attach на стр. 64-65.

Спасибо. А доказательство теорем? Или хотя бы точная формулировка?

 

Теорема о пригодности любой нелинейной функции нейронов была доказана бывшим советским, а с конца 1980х годов американским математиком Владиком Крейновичем [1] и опубликована в одном из лидирующих западных нейросетевых журналов.

1. Kreinovich V.Y. Arbitrary nonlinearity is sufficient to represent all functions by neural networks: A theorem / Neural Networks, 1991, Vol.4, №3. - pp.381-383.

P.S. О достаточности 3-х слоёв - позже.

 

Стогое доказательство достаточности 3-х слоёв я видел в статье Горбань А.Н. "..." - не могу найти её.

Константация факта дастаточности имеется в статье прикреплённой ниже на стр 39.

Файлы:
esibfjnus.zip  967 kb
 
Кажись, тут есть какая-то связь с теоремой, доказанной Колмогоровым, о том, что любую функцию любого количества переменных можно точно выразить через функции двух переменных. Возможно, неточно выразился, но ее нередко упоминают в статьях о НС.
Причина обращения: