Нейросети,как их освоить с чего начать? - страница 8

 
Mathemat писал(а) >>
Кажись, тут есть какая-то связь с теоремой, доказанной Колмогоровым, о том, что любую функцию любого количества переменных можно точно выразить через функции двух переменных. Возможно, неточно выразился, но ее нередко упоминают в статьях о НС.

Да-да. Ноги у проблемы растут от 58 года прошлого века.

 
Neutron >>:

Не использую я ни какой ТФ.

Причина в том, что свечи юзают на всех ТФ все кому не лень, из-за этого, ВР построенный по ценам открытия (или акрытия) более близок к интегрированному случайному, чем ВР построенные из исходного другими способами (например, переходом к инструментальному времени и т.п.).

О каком инструментальном времени идет речь?

 
Neutron >>:

Сложно как-то.

Я знаю, что не так давно доказано две теоремы. Согласно первой, трёхслойная нелинейная НС (та, что состоит из трёх слоёв нейронов, с нелинейностью на выходе у каждого) является универсальным аппроксиматором и дальнейшее наращивание числа слоёв не прибавляет мощности сети. Согласно второй теореме, вычислительная мощность сети не зависит от конкретного вида нелинейности на выходах её нейронов. Важно, что бы она (нелинейность) была в принципе, и не важно, что конкретно - сигмоида или арктангенс. Это избавляет нас от попыток найти лучшее из равного.

Все, понял. Смутила фраза "мощность сети".


Из этих двух теорем никак не следует, что 4 слоя не эффективней 3-х.

Из них следует только то, что там, где обучаются 4 слоя, можно обучить 3. Про эффективность обучения там не сказано.


Скажем, обучаться всегда можно сначала 3 слоя. А затем пожно пытаться улучшить эффективность с помощью других архитектур, в частности, повышением слойности.


Насчет нелинейности. Все классно, но все-таки несмотря ни на какие доказательства, у каждой ФА есть свои достоинства и недостатки. Именно поэтому я придумал свою. Хотя и у нее они есть.

Про эффективность в доказательстве, я уверен, не говорится.


Засим, думаю, дискуссию можно считать оконченной.

 
registred писал(а) >>

О каком инструментальном времени идет речь?

Это, когда свечи строятся не по времени, а по штукам (см. поиск на форуме).

TheXpert писал(а) >>

Скажем, обучаться всегда можно сначала 3 слоя. А затем пожно пытаться улучшить эффективность с помощью других архитектур, в частности, повышением слойности.

Так-то оно так, но за лишний слой (вобще не принципиальный) придётся платить супер цену - сложность обучения растёт как Р^3!

 
Neutron писал(а) >>

Так-то оно так, но за лишний слой (вобще не принципиальный) придётся платить супер цену - сложность обучения растёт как Р^3!

И это конечно приведёт к альтернативным результатом работы сети НО будут ли они лучше это вопрос. Если сеть научилась зарабатывать за 3 слоя то четвёртый может сильно навредить.....Так что выбор архитектуры это не совсем тоже самое что и повышение слойности. Архитектура это тип сети и каждый тип может иметь несколько слоёв.А на качество обучения сильно влияет качество входа, поэтому и двух слойные сети работают превосходно.....

 

Согласен полностью.

 
Integer >>:

Не заморачивайтесь самостоятельным программирование нейросетей, есть готовые програмы. Единственная, программа по которой есть книга на русском языке - Statistica Neural Networks, и притом эта книга производит впечатление, что написана действительно специалистами по нейронным сетям, и имеет вполне приличное введение и обзор методов работы с нейронными сетями и существующих типов нейросетей. Программа позволяет экспортировать обученные сети в виде dll, которыми можнопользоваться в советниках в МТ (правда сам пока не пробовал, если что не так извиняйте). Специализированные тредерские программы с неросетями не так просто к МТ прикрутить, а если можно, то криво или косо или очень дорого. Есть ДЦ с терминалами обеспечивающи экспорт данных в файлы метастока, здесь дегко прикрутить специализированную трейдерску программу для работы с неросетями. Ех! Ну почему бы разработчикам МТ не обеспечить возможность экспорта данных, чтобы можно было пользоваться любыми другим программами теханализа без лишних подпорок.

Совершенно не согласен... готовые продукты это как шампунь 3в1... немного шампунь, немного кондеционер, немного бальзам...

Но ни то ни другое в нормальном качестве...


На работу сети очень сильно влияет много факторов, которые неизвестно как реализованы в этой программе...

Мало того, что в результате разработки собственной реализации очень сильно повышается общее понимание принципов работы сети так еще и получаем очень гибкий инструмент...


Ну вот например как мне изменить функцию расчета ошибки сети при обучении ? Стандартное СКО на что-то другое ?

Да никак... это алгоритм надо менять... а он недоступен...

Да и ошибки исправить невозможно... представьте себе, что через год попыток вы узнаете, что в программе ошибка которую невозможно исправить ?

Думаю будет круто... :)


Это безразлично для студентов или людей НЕПРОФЕССИОНАЛЬНО, т.е. не зарабатывая этим денег, занимаются нейросетями...


А когда вопрос касается денег, то весь процесс от и до нужно контролировать...


Поэтому мое мнение, что по возможности все надо делать самим, или по крайней мере использовать инструменты работу которых можно контролировать...

 
Solver.it писал(а) >>

представьте себе, что через год попыток вы узнаете, что в программе ошибка которую невозможно исправить ?

Думаю будет круто... :)

Поэтому нужно пользоваться популярными програмами такими как нерошел неросолюшин и т.д. почитать мнения и всё такое. А если ваша программа зилипупкина не известного, тогда конечно да использовать её нужно осторожно

 
Solver.it писал(а) >>
А что у профессионалов? На чём торгуют профи? Как они торгуют?
 
Solver.it писал(а) >>

Совершенно не согласен...

Если бы вы занимались трехмерной графикой и анимацией, писали бы свою 3DStudioMAX?

Причина обращения: