Где грань между подгонкой и реальными закономерностями? - страница 21

 
Reshetov:

Для особоодаренных:


1) врусскомязыкенетсловаособоодаренный.

Ну, разок можно, но не пять раз подряд за пять страниц.

..............

2) Вред от деления периодов .....

и

Вред от тестов на OOS ....

согласитесь это разные вещи.

Не искажайте достоверную информацию. Её и так не много.... )

 
Reshetov:

Нет, не было, если тест на OOS дал положительный результат.

Если на OOS был отрицательный результат, то это вовсе не означает подгонку под Sample - рынок может измениться. Чтобы убедиться в подгонке, необходимо провести тесты на OOS до Sample и после. Если по обоим форвардам результат отрицательный, то тогда уже имеем дело с голимой подгонкой.

Успешные форвардные тесты не гарантируют профитности ТС в будущем. Их предназначение - выявление подгонки.

Для того, что бы убедится, что ТС не тупо подогнана под период оптимизации, проводим тест на OOS.


Всё правильно. Но. OOS должен содержать в себе информацию, отличную от той, которая имеется в периоде оптимизации, что бы иметь уверенность в том, что ТС способна к обобщению (найдена какая то закономерность, и результаты будут схожи на разных данных но содержащих эту закономерность). В противном случае тест на OOS будет с такими же результатами, как и на sample, но это уже не будет подтверждением того, что ТС-кой усвоена какая то закономерность, и уже в будущем ТС работать с прежними результатами не сможет.


Теперь, внимание! Вопрос: Проверяете ли, что OOS содержит данные, отличные от S? Если да, то каким образом?

 


Если в самой схеме кто-то найдет неточности, сообщите, плиз...

Размеры поставил истинные, но все равно мутное изображение. В отдельном окне - четкое.

 
Figar0:


Говорите, что готовите данные для обучения. Можно поподробнее, как давно используете такие приемы? Что то в Ваших словах очень знакомое, помнится, я предлагал, вроде как в ветке про контекст, готовить синтетические данные с заранее нужными параметрами для оптимизации, что бы можно было поменять параметры данных и видеть отклик ТС. По моему, во де как Вы как раз соглашались со мной, но предлагали вариант немного отличный от моего - готовить данные из реальных кусков истории, так ли это?

 
lasso:

1) врусскомязыкенетсловаособоодаренный.го.... )

Для особоодаренных:

см. Словари и энциклопедии на Академике: Особоодаренный

P.S. Для особоодаренных знатоков русского языка: в русском языке есть пробелы для отделения одних слов от других.

 

Вай, вай, вай...

Как у Вас все сложно...:))

 

lasso, лучше всего тебе почитать что-нибудь не слишком сложное по нервосеткам. Думаю, что именно оттуда вся эта терминология и пришла. Возможно, я неточен в терминах, прошу извинить, давно я это читал:

1. Sample data: участок обучения. Это участок, с которого мы непосредственно берем данные и на которых обучаем сеть.

2. Verification data: участок верификации. На этом участке мы не обучаем, но используем его для оценки ошибки и контроля, когда же нам надо остановиться в обучении. Существует известная кривая ошибки верификации в зависимости от числа прогонов. Это кривая с минимумом. Если будем обучать слишком долго, т.е. не остановимся вовремя, ошибка на участке обучения будет по-прежнему уменьшаться, однако ошибка на участке верификации теперь будет расти. Это и есть подгонка: мы очень неплохо аппроксимировали данные на участке обучения, однако переборщили, т.к. ошибка верификации стала расти. Именно вторая ошибка и есть оценка качества обучения и способности нейросети к генерализации.

3. Testing data. Вот это и есть истинный OOS, out of sample.

Второй участок, верификации, на котором оценивается ошибка, не является OOS, хотя на нем мы не обучаем. Тем не менее данные с этого участка используются для обучения данных с первого. Для правильной, абсолютно независимой проверки качества обучения (точнее, генерализации) нам нужно брать данные, которые мы до сих пор не видели и не использовали в обучении.

Здесь в тестере у нас не нервосетки. Ошибка оценивается напрямую на участке Sample data. Так что напрямую перенести нервометоды сюда не получится. Хотя, возможно, xeon что-то и тут придумал со своим TestCommander...

 
Reshetov:

Для особоодаренных:

см. Словари и энциклопедии на Академике: Особоодаренный

P.S. Для особоодаренных знатоков русского языка: в русском языке есть пробелы

Будьте добры, дайте, пожалуйста, своё толкование слова "особоодарённый", дабы не было привратных толкований этого понятия.
 
joo:
Figar0:


Говорите, что готовите данные для обучения. Можно поподробнее, как давно используете такие приемы? Что то в Ваших словах очень знакомое, помнится, я предлагал, вроде как в ветке про контекст, готовить синтетические данные с заранее нужными параметрами для оптимизации, что бы можно было поменять параметры данных и видеть отклик ТС. По моему, во де как Вы как раз соглашались со мной, но предлагали вариант немного отличный от моего - готовить данные из реальных кусков истории, так ли это?


готовить данные для обучения по какому-либо правилу это просто введение дополнительного фильтра в систему.
 
Reshetov:

Для особоодаренных: нестационарность - это отсутствие статистических закономерностей, таких как матожидание и дисперсия.

Накиньте на чарт конверты Боллинджера и вы увидите в чем проявляются "закономерности" нестационарности, т.к. центр индикатора - матожидание, а расстояние от центра до конвертов - дисперсия.

Матожидание и дисперсия имеют смысл только при бесконечно большой выборке.
Причина обращения: