Мысли о некоторой абсурдности мультивалютного анализа. - страница 16

 
MetaDriver >>:

Универсальные архиваторы мало используют специфику конкретных данных. Если её учитывать (знать заранее) можно многое выносить за скобки.

Разработчики MT5 этим и занимались, разрабатывая алгоритм сжатия. Если раскроют, велосипед изобретать самому, возможно, не понадобится.

 
getch >>:

Как тестер может помочь в определении уровня прогнозируемости?

Так же как архиватор.

 
getch >>:

Разработчики MT5 этим и занимались, разрабатывая алгоритм сжатия. Если раскроют, велосипед изобретать самому, возможно, не понадобится.

Я на это как-то абсолютно не расчитываю. Рубль раньше станет единой валютой, чем метаквоты начнут делиться этим алгоритмом. Даже если он несложен.

Пошли уже лучше изобретать. :)

 
MetaDriver >>:

Так же как архиватор.

Тестер не в состоянии определить уровень прогнозируемости, как и архиватор. Архиватор может выдать размер чистой (сжатой) информации. Чем сильнее сжимается, тем эффективнее базис для поиска закономерностей. Ведь что делает архиватор - ищет закономерности в общем случае. Чем лучше сжал - тем больше закономерностей нашел.

 
Я, кстати, склоняюсь к алгоритмам "с потерей информации". Отнюдь не вся она нужна. А сжатие куда выше.
 
MetaDriver >>:
Я, кстати, склоняюсь к алгоритмам "с потерей информации". Отнюдь не вся она нужна. А сжатие куда выше.

Логично, поскольку всю информацию все равно от рынка не получить.

Но критерий эффективного базиса, вроде, как сформулирован.

 
getch >>:

Тестер не в состоянии определить уровень прогнозируемости, как и архиватор. Архиватор может выдать размер чистой (сжатой) информации. Чем сильнее сжимается, тем эффективнее базис для поиска закономерностей. Ведь что делает архиватор - ищет закономерности в общем случае. Чем лучше сжал - тем больше закономерностей нашел.

Не спеши так быстро. Глюков наловишь. :)

Я эту тему думал уже на заре занятий форексом - года два с половиной назад. Алгоритмы сжатия действительно ищут (и находят) закономерности, но обычно заглядывая вперёд (как раз те которые "без потери" - двухпроходны). Так, что лучше уж сразу перейти к потоковым... :)

 
MetaDriver >>:

Не спеши так быстро. Глюков наловишь. :)

Я эту тему думал уже на заре занятий форексом - года два с половиной назад. Алгоритмы сжатия действительно ищут (и находят) закономерности, но обычно заглядывая вперёд (как раз те которые "без потери" - двухпроходны). Так, что лучше уж сразу перейти к потоковым... :)

Аналогично, мысли были рождены в том же состоянии познания форекса, только немного раньше по времени.

Двухпроходность и нужна для определения базиса. Первый проход - это и есть преобразование базиса.

Если же говорить о гипотизе постоянного битрэйта рынка, то потоковые методы сжатия видятся отличными кандидатами.

 

MetaDriver писал(а) >>

... Так, что лучше уж сразу перейти к потоковым... :)...

И тут нас тоже подстерегает злой облом - уверен, что все они работают с задержкой, то бишь для эффективного кодирования им тоже необходима "будущая история", хотя и немного.

// Однако в тестере, чтоб запузырить кривую в небо, мне достаточно знать всего-то на полбара вперёд... :)

 
MetaDriver >>:

И тут нас тоже подстерегает злой облом - уверен, что все они работают с задержкой, то бишь для эффективного кодирования им тоже необходима "будущая история", хотя и немного.

// Однако в тестере, чтоб запузырить кривую в небо, мне достаточно знать всего-то на полбара вперёд... :)

Они работают с задержкой, потому что нужно дождаться порции информации для сжатия (того самого часа в примере выше). Тут все в порядке.

Причина обращения: