Рыночный этикет или правила хорошего тона на минном поле - страница 27

 
:-)
 

Сто эпох достаточно, если знак прогнозировать?

Да и еще: когда сеть только что инициализирована требуется N эпох обучения, а когда сеть уже обучена, т.е. на каждом последующем шаге(после очередного прогноза) тоже N эпох, или достаточно одной?

 

Хороший вопрос, paralocus.

Я могу дать только рекомендации. Так вот, по моим экспериментальным данным, число эпох обучения НС с бинарным входом лежит в пределах от 10 до 100 итераций для 2 и 8 нейронов в скрытом слое соответственно. Для аналогового входа - 300-500. Всё нужно проверять экспериментально.

Каждый раз нужно N эпох.

 

Понятно.

Вот код сетки:

код сюда не влез, поэтому в аттаче

Я, к своему стыду до сих пор путаюсь в простом вопросе - расчет длины эпохи.

Вроде все понятно - P = k*w^2/q, где k = (2...4); w - число синапсов, q - число входов. Видимо, у меня в голове имеется какая-то терминологическая путаница. Что называть входом, а что - синапсом.

Не мог бы ты прояснить это еще раз? Вот всегда по-жизни получается так, что самые простые вещи наиболее трудны для понимания -:)

Файлы:
nero2.mqh  7 kb
 

Кажись работает -:)


 

Синапс (w), это то, что у нейрона слева. Вход (d), подразумевает число синапсов у каждого нейрона из первого (скрытого) слоя. Для НС состоящей из одного нейрона, число синапсов равно числу входов. Для НС состоящей из двух слоёв и содержащей в первом слое (скрытом) два нейрона, а во втором (выходном) - один: w=2d+3. Вход нейрона с постоянным смещением +1 считается обычным входом. Для такой сети при d=100, число синапсов w=2*100+3=203. Оптимальная длина обучающего вектора P=k*w^2/d=2*(2d+3)*(2d+3)/d=(примерно)=2*2d*2=8d=8*100=800 отсчётов.

 

Спасибо!

Переделал входы на бинарные - все пошло гораздо лучше! Сейчас гоняю сетку в тестере с различными комбинациями вх. сигналов. Увлекательное занятие... -:)

 

Гутен морген,

хочу вот радостью поделиться: первый приличный результат, не в последнюю очередь благодаря одному совету Neutron'а в свое время... Синий отрезок - новые данные, ордината в пунктах. Абсцисса: 10.000 EURUSD60.

Длинные позиции.:

Короткие позиции не так впечатляют:

Нейронная сеть, 13 входных сигналов, без скрытого слоя. Тренировка генетическим алгоритмом

 

Neutron, похоже ты был прав насчет 25 отсчетов готовности... -:)

Что-то у меня сеть не учится. После 100 эпох веса практически те же, которыми сеть была инициализирована.

В связи с этим еще один глупый вопрос:

В каждой эпохе обучающй вектор один и тот же или нет?

Вобщем, получается у меня, что отношение накопленной коррекции к накопленному квадрату коррекции очень быстро стремиться к нулю. Поэтому уже после 10-й итерации обучение практически прекращается.

 
YDzh писал(а) >>

Нейронная сеть, 13 входных сигналов, без скрытого слоя. Тренировка генетическим алгоритмом

Круто, YDzh!

У меня результаты гораздо скромнее. Нужно тебе на демо ставить и смотреть на чём сетка срежется.

Причина обращения: