Нейро сети - страница 4

 
joo писал(а) >> единственным правильным решением будет "обучение без учителя".

Абсолютно. Потому что нет идеального учителя для сети. Вернее, мы не можем знать что может быть идеальным учителем для сети.....))))

 
LeoV >>:

Абсолютно. Потому что нет идеального учителя для сети. Вернее, мы не можем знать что может быть идеальным учителем для сети.....))))

Вот именно! С учителем обучить сетку возможно только на уже известной нам функции, например на синусоиде. Здесь мы, без зазрения совести, можем скармливать сети следующую за

обучаемой точку в качестве учителя. С рынком такой фокус не пройдет.

 
joo писал(а) >> Вот именно! С учителем обучить сетку возможно только на уже известной нам функции, например на синусоиде. Здесь мы, без зазрения совести, можем скармливать сети следующую за обучаемой точку в качестве учителя. С рынком такой фокус не пройдет.

Да, и в этом варианте - чем меньше ошибка на обучающей выборке, тем будет лучше для сети. А с рынком такой фокус не пройдёт.

 

Строить сеть строго на обучение с учителем не целесообразно, проще описать все патерны вручную кодом, ошибок будет меньше.

Истинное предназначение нейросететь обучение без учителя, те обучение тому чего учитель не знает,

выявление закономерностей которых лично вы не видите (и никто не видит, в этом и есть преимущество).

ЗЫ Блондинка подруге: ты знаеш что значит "I do not know".

Подруга: "Я не знаю".

Блондинка: Ну вот, и никто не знает.

 
LeoV >>:
gpwr писал(а) >> Это везде написано что сеть нужно обучать до тех пор пока ошибка на тестируемой выборке не перестанет уменьшаться.

На самом деле всё гораздо сложнее. Когда вы её обучите до минимальной ошибки на тестируемой выборке, скорее всего вы получите переобученную сеть......

Не скорее всего, а так и есть. Истина. Причем уменьшение мощности сети для лучшего обобщения не помогает. Минимум ошибки на тесте - провал на форварде.
 
muallch писал(а) >>
Не скорее всего, а так и есть. Истина. Причем уменьшение мощности сети для лучшего обобщения не помогает. Минимум ошибки на тесте - провал на форварде.

Согласен. Выражение "скорее всего" я применил в смысле однозначности перетренировки .....)))) А уменьшение мощности сети иногда всё-таки помогает......

 
muallch >>:
Не скорее всего, а так и есть. Истина. Причем уменьшение мощности сети для лучшего обобщения не помогает. Минимум ошибки на тесте - провал на форварде.

Чего-то вы, граждане, мудрите. Либо изобрели что-то новое, либо мы друг друга не понимаем.

В во всех учебниках написано что обучение сети с учителем происходит путём разбиения данных на обучающую выборку и тестируемую. Сеть обучается путём минимизации ошибки на обучающей выборке при этом наблюдается ошибка на тестируемой выборке (out-of-sample test or verification). Oбучениe останавливается когда ошибка на тестируемой выборке перестаёт уменьшаться (показано пунктирной линией внизу). Причём ошибка на обучающей выборке может продолжать уменьшаться как показана на этом рисунке


Вы утверждаете что обучение сети нужно останавливать ещё раньше чем показано пунктирной линией на рисунке. Где именно? А зачем тогда вообще сеть обучать? По вашей логике, выбирайте любые значения весов и вперед, используйте сеть для торговли. Вот тогда-то у вас и будет верный слив.

 
LeoV >>:

Согласен. Выражение "скорее всего" я применил в смысле однозначности перетренировки .....)))) А уменьшение мощности сети иногда всё-таки помогает......

Точно. В том то и дело, что иногда... Граали на МАшках тоже иногда дают на форварде прибыль. Нет (по крайне мере я не нащупал) четкой системной зависимости форвард-результатов от мощности (слойности, нейронности... и т.д.) обученной сетки. Я не говорю, что от вида сетки ничего не зависит - это только один из критериев. Зато размер прибыли за пределами тестовой выборки имеет четкую зависимость (нелинейную) от степени обученности - многочисленные эксперимены со "сквозным" тестированием это подтверждают.

 
gpwr >>:

Вы утверждаете что обучение сети нужно останавливать ещё раньше чем показано пунктирной линией на рисунке. Где именно? А зачем тогда вообще сеть обучать? По вашей логике, выбирайте любые значения весов и вперед, используйте сеть для торговли. Вот тогда-то у вас и будет верный слив.

Нет, не утверждаю.


И с этим трудно спорить...

 
gpwr >>:

Чего-то вы, граждане, мудрите. Либо изобрели что-то новое, либо мы друг друга не понимаем.

В во всех учебниках написано что обучение сети с учителем происходит путём разбиения данных на обучающую выборку и тестируемую. Сеть обучается путём минимизации ошибки на обучающей выборке при этом наблюдается ошибка на тестируемой выборке (out-of-sample test or verification). Oбучениe останавливается когда ошибка на тестируемой выборке перестаёт уменьшаться (показано пунктирной линией внизу). Причём ошибка на обучающей выборке может продолжать уменьшаться как показана на этом рисунке

Сначала out-of-sample есть - для настройки сетки. А потом его не будет - впереди реальное будущее, его надо предсказать. По какому критерию останавливать обучение - определенная ошибка или количество прогонов обучения? Или еще что-то?

Причина обращения: