Уравнение регрессии - страница 2

 
Ну возьмите и получите эмпирическое распределение ошибок при аппроксимации полиномом. И сравните его с нормальным. Особое внимание обратите на хвосты, а не на центральную часть.
 
Mathemat:
Ну возьмите и получите эмпирическое распределение ошибок при аппроксимации полиномом. И сравните его с нормальным. Особое внимание обратите на хвосты, а не на центральную часть.

Мы говорим о выборе лучших (в смысле МНК) параметров полинома?

Или выборе их же - но лучших в другом смысле?

Или о правильности выбора полинома для апроксимации?

Я попросил разьяснить мне неэффективность МНК для вычисления параметров заранее выбранной функции (ведь причина толстохвостости может быть в неудачной функции :).

И если есть такие же простые процедуры определения этих параметров - радостно с ними ознакомлюсь.

Но меня удивляет постановка вопроса: раз в ошибках есть хвосты - не годится МНК...

;)

 
alsu:

Лучше пользуйтель LAD или квантильной регрессией. Это сложнее (кодить гораздо больше придется, да и в науку втыкать), зато работает ...

Что, правда для котировок работает? А объективные свидетельства этому существуют?


P.S. Имхо, любая претендующая на экстраполяцию аппроксимация предполагает стационарность. Толстые хвосты (опять же имхо) как раз представляют срывы стационарности, то есть попытка их учесть ничего конкретного к предсказанию не добавит. Ну расширит доверительные интервалы, сделав предсказание бесполезным, и какая нам от этого польза?

Но это всё умозрительные рассуждения, с радостью посмотрел бы на опровергающие их реальные данные

 
Candid:

P.S. Имхо, любая претендующая на экстраполяцию аппроксимация предполагает стационарность. Толстые хвосты (опять же имхо) как раз представляют срывы стационарности, то есть попытка их учесть ничего конкретного к предсказанию не добавит. Ну расширит доверительные интервалы, сделав предсказание бесполезным, и какая нам от этого польза?

Но это всё умозрительные рассуждения, с радостью посмотрел бы на опровергающие их реальные данные

Оченка параметров регрессии при мультивалютном анализе может предполагать не "лобову" экстраполяцию, а учет этих параметров, например, в торговле по менее ликвидным парам - позволит получить некоторое стат преимущество (ведь не на рынке торгуем, а по котировкам ДЦ ставки делаем).

Только вот спрэд уж там большой...

Но тем не менее - при значительном движении мажоров, миноры поведут себя по "писанному".

;)

 

FreeLance:

Но тем не менее - при значительном движении мажоров, миноры поведут себя по "писанному".

Может быть, сам не проверял, поэтому мнения не имею.
 
Candid:

Что, правда для котировок работает? А объективные свидетельства этому существуют?


P.S. Имхо, любая претендующая на экстраполяцию аппроксимация предполагает стационарность. Толстые хвосты (опять же имхо) как раз представляют срывы стационарности, то есть попытка их учесть ничего конкретного к предсказанию не добавит. Ну расширит доверительные интервалы, сделав предсказание бесполезным, и какая нам от этого польза?

Но это всё умозрительные рассуждения, с радостью посмотрел бы на опровергающие их реальные данные

Попробую объяснить теоретически, т.к. данные расчетов привести пока не готов, они сырые.

Я в процессе своих исследований попытался представить ценовой временной ряд в виде суммы двух стационарных (!) процессов: а) гауссовского со значимыми корреляциями до 2-3 отсчетов (строго говоря, он квазистационарен, т.к. характеристики все же немного "плывут") и б) пуассоновского потока реакций на внешние воздействия. Первый - это мы все знаем, что такое. Второй - как раз то, что вы назвали "срывами стационарности" и что действительно приводит к образованию толстых экспоненциальных хвостов. Но если мы берем в рассмотрение именно такую модель, то оказывается, что нестационарность потока котировок, который мы видим на экране, кажущаяся - на самом деле сумма двух стационарных процессов стационарна как в широком, так и в узком смысле.

Аппроскимируя с помощью МНК, мы заставляем регрессионный полином "цепляться" не только за нормальную часть процесса, но и за пуассоновские выбросы, отсюда малая эффективность предсказания, которое, вообще говоря, нужно нам для . С другой стороны, беря квантильные полиномы, мы полностью избавляемся от второй, пуассоновской части процесса: квантили на нее просто не реагируют, причем абсолютно. Таким образом, определив места, где регрессия дает значительные попытки, мы можем таким образом почти в режиме онлайн локализовать "срывы" с большой степенью достоверности (предсказать их, наверное, пока не получится, т.к. нет соответствующей модели, по крайней мере, у меня:).

Примерно (очень) приведу свои сравнительные результаты (они делались наполовину вручную): эффективность локализации срыва стационарности (частота правильного определения ее на первом баре) у МНК - около 0.55-0.6, у квантилей - 0.85 и больше (здесь работы еще навалом). В этом и состоит выигрыш.

 
alsu:

Аппроскимируя с помощью МНК, мы заставляем регрессионный полином "цепляться" не только за нормальную часть процесса, но и за пуассоновские выбросы, отсюда малая эффективность предсказания, которое, вообще говоря, нужно нам для . С другой стороны, беря квантильные полиномы, мы полностью избавляемся от второй, пуассоновской части процесса: квантили на нее просто не реагируют, причем абсолютно. Таким образом, определив места, где регрессия дает значительные попытки, мы можем таким образом почти в режиме онлайн локализовать "срывы" с большой степенью достоверности (предсказать их, наверное, пока не получится, т.к. нет соответствующей модели, по крайней мере, у меня:)

Хм. то есть всё ровно наоборот, не расширение доверительного интервала, а сужение. Очень интересно, надо почитать, спасибо.

Насчёт того, что стационарен и процесс срывов конечно хочется повозражать. Но аргументов нет, так что остаётся одно - думать.

Может вы и проблему времени решили? :) Я имею в виду проблему выбора размера окна.

 
alsu:

Я в процессе своих исследований попытался представить ценовой временной ряд в виде суммы двух стационарных (!) процессов: а) гауссовского со значимыми корреляциями до 2-3 отсчетов (строго говоря, он квазистационарен, т.к. характеристики все же немного "плывут") и б) пуассоновского потока реакций на внешние воздействия. Первый - это мы все знаем, что такое. Второй - как раз то, что вы назвали "срывами стационарности" и что действительно приводит к образованию толстых экспоненциальных хвостов.

Интересно, интересно. Candid, помнишь мою тему на Обитаемом Острове по поводу метамодели с квазистационарным процессом (дифурки там, еще кролика из шляпы мы вытащили)? Что-то очень похожее. Ноосфера все-таки существует, и мысли в ней общие...
 
Mathemat:
Интересно, интересно. Candid, помнишь мою тему на Обитаемом Острове по поводу метамодели с квазистационарным процессом (дифурки там, еще кролика из шляпы мы вытащили)? Что-то очень похожее. Ноосфера все-таки существует, и мысли в ней общие...
ну так запутались мы уже с вами все ... в квантовом смысле, конечно:))
 
Candid:

Может вы и проблему времени решили? :) Я имею в виду проблему выбора размера окна.

не решил:)
Причина обращения: