Модель рынка: постоянная пропускная способность - страница 14

 
sanyooooook:
чаще, реже, а если время не учитывать?
Определение использует вероятности, привязки ко времени нет, с этим полная свобода. Или, если угодно, неизвестность :).
 

Предполагается, что рынок, как относительно замкнутая система, за единицу времени генерирует постоянное (или медленно меняющееся) количество информации.

В чем-то может и соглашусь, рынок не измениться на определенное количество (допустим пунктов) пока не придет определенное количество информации

 
sanyooooook:

В чем-то может и соглашусь, рынок не измениться на определенное количество (допустим пунктов) пока не придет определенное количество информации


пришли новые люди с новыми идеями по поводу старой информации и надеждой заработать бабла на ошибочности чужих предположений и изменили рынок :) Они ничего не слышали о теории эффективных рынков :)
 
К чему это все?
 
Avals:

пришли новые люди с новыми идеями по поводу старой информации и надеждой заработать бабла на ошибочности чужих предположений и изменили рынок :) Они ничего не слышали о теории эффективных рынков :)


Пришли, а через 40 пунктов ушли? Поняв ошибочность своих предположений о новизне своих идей (по поводу старой информации), пошли почитать об эффективности рынков?

-- 

Вроде не пятница.

 
gip:
Мопед не хренфикса, он ссылку приводил, а оно ещё откуда-то совсем издалека.

Лады. Как один из соавторов мопеда подброшу дровишек:

"Стандартные" методы архивации (неважно LZ, Хаффман, более экзотические) работают с потоком байт на входе.

Поток котировок обычно кодируется потоком действительных чисел, т.е. пакетами по нескольку байт.

До тех пор пока этот факт игнорируется, сжатие популярными универсальными архиваторами даже близко не может приблизиться к осмысленному исследованию объёма информации в потоке котировок.

Притом лемпель-зив будет стабильно обходить хаффмана в разы, что вполне логично (но совершенно бессмысленно), ибо на входе идут легко прогнозируемые "технические" паттерны, связанные с представлением данных (а отнюдь не с поведением котировок).

С другой стороны - писать специализированный архиватор для сжатия потока double - пока вроде преждевременно, ибо перспективность подхода неясна и туманна.

Что же осмысленного можно сделать с минимумом усилий и максимумом разумности в результатах, дабы продвинуть исследование?

Как мне каатца - преобразовать, для начала поток котировок

1) к байтовому потоку

2) первых разностей

3) логарифмированному

В этом случае возможно это информационное исследование, станет немного более информативным.

// падон за каламбур.

 
MetaDriver:

До тех пор пока этот факт игнорируется, сжатие популярными универсальными архиваторами даже близко не может приблизиться к осмысленному исследованию объёма информации в потоке котировок.

Притом лемпель-зив будет стабильно обходить хаффмана в разы, что вполне логично (но совершенно бессмысленно), ибо на входе идут легко прогнозируемые "технические" паттерны, связанные с представлением данных (а отнюдь не с поведением котировок).

А что скажешь по поводу полученного топикстартером результата? Я имею в виду более высокую степень сжатия для случайных рядов.

Может ли это означать что архиватор не смог "расшифровать" содержащуюся в ценовом ряде информацию, но и не смог её выбросить?

Как мне каатца - преобразовать, для начала поток котировок

1) к байтовому потоку

2) первых разностей

3) логарифмированному

Это как раз к вопросу о том, к чему применять измеритель информации.

Здесь есть, как мне кажется, довольно общая проблема и состоит она в том, что максимум информации несут именно редкие события.

Однако, именно в силу их редкости мы не можем достоверно восстановить для них функцию плотности вероятности, необходимую для количественного измерения содержащейся в них информации.

 
Candid:

А что скажешь по поводу полученного топикстартером результата? Я имею в виду более высокую степень сжатия для случайных рядов.

Может ли это означать что архиватор не смог "расшифровать" содержащуюся в ценовом ряде информацию, но и не смог её выбросить?

Да не. Тут мне кажется всё примитивнее. Насколько я понял просматривая топик, сжимались свечи. При генерации случайного сигнала тоже моделировались свечи. Притом, что использовалось нормальное распределение. В этом и фишка (имха). Оно (НР) создаёт бОльшую плотность вероятности равномерных по амплитуде и величине сдвига свечей. То бишь "меньшую информативность", выражаясь языком теории информации. Отсюда и бОльшая сжимаемость. Полученный результат, кстати, свидетельствует что метода всё же работоспособна, несмотря на инструментальную примитивность подхода.

Это как раз к вопросу о том, к чему применять измеритель информации.

Здесь есть, как мне кажется, довольно общая проблема и состоит она в том, что максимум информации несут именно редкие события.

Однако, именно в силу их редкости мы не можем достоверно восстановить для них функцию плотности вероятности, необходимую для количественного измерения содержащейся в них информации.

Тут тики могут быть в помощь. В том смысле, что

1) входной информации в принципе уйма, есть что покрутить-посжимать.

2) тиковый анализ будет на порядки корректнее, нежели "кастрированный" барами.

А потом можно покрутить разного рода мелко-пороговые Зигзаги. Ренко, каги и всякие прочие модификации.

Ну и до кучи... - Редкость события понятие относительное, совсем очень редкие можно для начала проигнорировать (отсечь), а для остальных собрать какую-никакую статистику.

--

Общее впечатление от топика - сумбурно несколько. Уровень дискуссии заслуживает повышения. Тема того стОит. Осмысленная тема.

 

Candid:

Может ли это означать что архиватор не смог "расшифровать" содержащуюся в ценовом ряде информацию, но и не смог её выбросить?

Собсно, зря я написал "Да не". Вполне можно и так сказать. Моя трактовка этому никак не противоречит, а вполне соответствует.

Опять всему виной толстые хвосты. Козлы. Из-за них всё.

 

MetaDriver:

... толстые хвосты. Козлы. Из-за них всё.

Тока не нада писать "Ты просто не умеешь их готовить..."

Сам знаю.

:)

Причина обращения: