Практические алгоритмы архитектур нейросетей - страница 5

 
Valio >>:

... Вдогонку.

1. Нормализация входов по модулю всего входного вектора в сети Кохонена не имеет смыла.

2. Можно полюбопытствовать, что за линейная ковариация -- избавление от зависимости между входами?

 
Swetten >>:

Ой, мама...

P.S. Кстати, дяденька Решетов, а не напомните ссылочку на скрипт для закачки истории? Ну, который сам на кнопу "Home" жмёт? :)

Специально для тетеньки Swetten повтор:


Закачивание котировок скриптом "Key_Home"

 

Кажется тут, в соседней ветке, кто-то недавно про "тролей" что-то говорил...

Лучше взгляните на своих экспертов. Больше других меня порадовал Сливающий Джо. Если это все, что вы смогли почерпнуть, из нейросетей, то примите мои соболезнования.

Я надеюсь, вы не думаете, что одному вам известно, где лежит Википедия.

 
Reshetov писал(а) >>

Специально для тетеньки Swetten повтор:

Закачивание котировок скриптом "Key_Home"

Ага, пасиб. :)

 

Ну, что, господа, кто-нибудь построил нейросеть? Каковы результаты, где, чаво? А то, как ни зайду, усе размышляють чавота.:)

 
Не переживай, строится и построится, никуда не денется.
 

практически уверен, что поиски "практических алгоритмов нейросети" очень

напоминают поиски практических рецептов получения Медикамента он же Великий Препараториум он же Философский камень.

Да, именно так! Тема обсуждения то, ничуть не менее проста чем этот самый Философский камень,

да и исследовать при помощи этой самой нейросети кое-кто собирается не что иное как Будущее,

прогнозирование проще говоря. :) и с учетом сказанного особенно приятно читать про ковариации

с нормировками входов и проч. и проч. :))))

 

По поводы веры -- это в церковь.

 
TheXpert писал(а) >>

... Вдогонку.

1. Нормализация входов по модулю всего входного вектора в сети Кохонена не имеет смыла.

cмеяться конечно грех, но в очередной раз "улыбнуло" ))

paralocus писал(а) >>

Вообще, у меня просьба...

Нет проблем, в принципе это все подробно объясняется в статье Сергеева, но могу и я разжевать если, чур "в пианиста не стрелять" ))

Любой нейросети на вход подается N-мерный вектор и на выходе получают K-мерный, где N как выборочный набор данных с целью

улучшения их "узнаваемости" приводят к единичному вектору в N-мерном евклидовом пространстве. Автор статьи объясняет процесс

подготовки данных в случае N=2:

На первом рисунке видим наши необработанные данные (набор машек), но втором их "разносят" по квадрантам, на третьем - нормируют.

Если разобраться в механизме работы простейшего алгоритма группирования в картах Кохонена, становится понятным необходимость такой подготовки .. Таким образом то что обозвано ковариацией попросту распределяет значения из 1-го квандранта графика по другим неиспользуемым квадрантам как бы расширяя динамический диапозон и использование занимаемого пространства т.е. x.i Э [-1;+1], и далее нормирование же помогает невелировать масшабирование родственных векторов к примеру как бы это сделала корреляция, в конечном случае SUMM(x.i^2)=1 .. В случае N>2 (в коде статьи Nвх=15 ) производятся такие же подобные простейшие действия ...

Вообще конечно, все рассматриваемые НС-ки это даже не вчерашний день, и даже не год а более 40 лет, т.е. древность глубокая .. существуют другие, более современные методы, такие как в примеру адаптивного так и и переходного резонанса, что позволяет решить дилемму пластичной стабильности образов восприятия .. и это востребовано это не только в аалице временных рядов. Делайте вывод.

 
Valio >>:

На первом рисунке видим наши необработанные данные (набор машек), но втором их "разносят" по квадрантам, на третьем - нормируют.

Если разобраться в механизме работы простейшего алгоритма группирования в картах Кохонена, становится понятным необходимость такой подготовки .. Таким образом то что обозвано ковариацией попросту распределяет значения из 1-го квандранта графика по другим неиспользуемым квадрантам как бы расширяя динамический диапозон и использование занимаемого пространства, нормирование же помогает невелировать масшабирование родственных векторов к примеру как бы это сделала корреляция.. В случае N>2 (в коде статьи Nвх=15 ) производятся такие же подобные действия

По поводу входных данных, хотелось бы увидеть ;) практическую реализацию такого "идеального" алгоритма (функцию на MQL) максимально отражающего состояние рынка в определённый момент

времени или за некоторый период(паттерн) и приспособленную для подачи на вход(ы) нейросети. В качестве шаблона прикладываю любимый индикатор формирования обучающей выборки IndToCSV_NN.mq4

Файлы:
Причина обращения: