Советник Better Обсуждение ошибок - страница 3

 
HideYourRichess >>:

А Better то сам признаёт, что это его советник?


Думаю эту штуку подкинули для отвода глаз. Вероятно есть алгоритмы позволяющие получать прибыль без оных нейросетей.

Это чертовски сложная штука а результат....

Да и приктутить стоящую сеть к MT4 большая проблема. Я не говорю про попытки написать сеть на MQ4. Практически невозможно...

Может будет реально на MQ5.

 
Debugger >>:

Мелочь, но дьявол кроется в мелочах.


Вот именно. я говорю СМОТРИТЕ В КОД ВНИМАТЕЛЬНО! Не путайте людей! 

  Там же стоит опредедлние типа слоя - выходной или внутренний


void CNeuroNet::CalculateError() // Расчет ошибки
{
	int N, nN, L; 
	double sum;
	for(L=nLayer-1; L>0;L--) // проходим по слоям
	{
		switch (LayerType[L+1]) // определяем тип следующего слоя
		{
		case ltOut: // выходной вектор 
			for(N=0;N<nNeuron[L];N++) // вычисляем ошибку нейронов выходного слоя
				Err[L][N][0]=Out[L][N]*(1-Out[L][N])*(Out[L+1][N]-Out[L][N]);
			break;
		case ltBack: // скрытый слой по методу обратного распространения
			for(N=0;N<nNeuron[L];N++) // проходим по нейронам в слое
			{ 
				sum=0;
				for(nN=0;nN<nNeuron[L+1];nN++) sum+=Err[L+1][nN][0]*W[L+1][nN][N];
				Err[L][N][0]=Out[L][N]*(1-Out[L][N])*sum;
			}
			break;
		}
	}
}
 
Debugger >>:


Я не знаю кто чего признает.

Аааа, я думал у вас точные сведения, что это именно тот самый советник Better-а.


Можно было бы тогда обратиться напрямую к автору, за разъяснениями. А так, не удивительно будет, если он пошлет.

 
Debugger >>:


Эту штуку я скачал точно на этом форуме. Но где не помню. Просто случайно наткнулся у себя в куче хлама.

Да на заборе то же написано...

 
Debugger >>:


Думаю эту штуку подкинули для отвода глаз. Вероятно есть алгоритмы позволяющие получать прибыль без оных нейросетей.

Это чертовски сложная штука а результат....

Да и приктутить стоящую сеть к MT4 большая проблема. Я не говорю про попытки написать сеть на MQ4. Практически невозможно...

Может будет реально на MQ5.

Не обязательно, для отвода глаз. Это могла быть чья то ошибка, или коммерческих ход для продажи чего то там, или ещё какие причины. Мало ли.

 
sergeev >>:


Вот именно. я говорю СМОТРИТЕ В КОД ВНИМАТЕЛЬНО! Не путайте людей!

  Там же стоит опредедлние типа слоя - выходной или внутренний



sergeev >>:


Вот именно. я говорю СМОТРИТЕ В КОД ВНИМАТЕЛЬНО! Не путайте людей!

  Там же стоит опредедлние типа слоя - выходной или внутренний




sergeev >>:


Вот именно. я говорю СМОТРИТЕ В КОД ВНИМАТЕЛЬНО! Не путайте людей!

  Там же стоит опредедлние типа слоя - выходной или внутренний




sergeev >>:


Вот именно. я говорю СМОТРИТЕ В КОД ВНИМАТЕЛЬНО! Не путайте людей!

  Там же стоит опредедлние типа слоя - выходной или внутренний




Так я про что и говорю, что в формуле выходного слоя должна быть формула:

Err[L][N][0]=Out[L][N]*(1-Out[L][N])*(образец-Out[L][N])


 
HideYourRichess >>:

Аааа, я думал у вас точные сведения, что это именно тот самый советник Better-а.


Можно было бы тогда обратиться напрямую к автору, за разъяснениями. А так, не удивительно будет, если он пошлет.


Совсем не думаю что автор ответит на вопросы. Не в его это интересах. А вот запутать в его интересах.

По этому я и открыл эту мему, что бы попытаться вычислить правду.

 
Debugger >>:


Совсем не думаю что автор ответит на вопросы. Не в его это интересах. А вот запутать в его интересах.

По этому я и открыл эту мему, что бы попытаться вычислить правду.


Имею в виду правду про алгоритм.
 
HideYourRichess >>:

А Better то сам признаёт, что это его советник?

http://forum.alpari.ru/post1514879-45.html

https://forum.mql4.com/ru/18643

 
Debugger >>:


Имею в виду правду про алгоритм.

Кто знает, попытаться не помешало бы. Конечно, если соображения этичности не сильно беспокоют, тогда можно так.

Причина обращения: