вопрос к разработчикам. Необходимое железо для быстрой оптимизации? - страница 2

 
HIDDEN:

Вот реально мой пример.
Захотелось мне загнать по 10 валютным парам тиковую историю с 2001 года, на тот момент был у меня селерончик 2,4 и оперативы 1 гиг. Все длилось больше 3-х недель беспрерывной работы.

Пошел и купил Intel Core 2 Extreme, впихнул в него 4 гига памяти с наименшими тайменгами, винт шустрый и запустил. Так на это дело мне потребывалось 4 дня в общей сложности.
Разница скоростей очевидна, тоже самое и с тестированием. Я на быстрой машине могу заниматься разработкой, анализом, тестированием оптимизацией, а торгует пусть старенькая машинка.

Или вот еще один пример, многие наверное цифровали DVD в MPEG4. На старой машине у меня оцифровка 1,5 часового фильма шла где-то 1 час 20-30 минут. На новой машине этот процесс занимает 11 минут. Разница опять таки очевидна. Смысл брать шуструю машину нужен только для реализации определенных задач, просто так смысла нет. Не думаю что трейдеры тут собравшиеся находят много времени что-бы еще и в игры поиграть.


А я сделал еще лучше: Взял крутую маму, впихнул в нее 2 гига 800-тки, сore 2 duo 6300 (1.83 mhz) за 210 баков и разогнал проц с 1.83 до 3.3 mhz -- обогнав тем самым Intel Core 2 Extreme (1000$). :)))
 
natlam:
HIDDEN:

Вот реально мой пример.
Захотелось мне загнать по 10 валютным парам тиковую историю с 2001 года, на тот момент был у меня селерончик 2,4 и оперативы 1 гиг. Все длилось больше 3-х недель беспрерывной работы.

Пошел и купил Intel Core 2 Extreme, впихнул в него 4 гига памяти с наименшими тайменгами, винт шустрый и запустил. Так на это дело мне потребывалось 4 дня в общей сложности.
Разница скоростей очевидна, тоже самое и с тестированием. Я на быстрой машине могу заниматься разработкой, анализом, тестированием оптимизацией, а торгует пусть старенькая машинка.

Или вот еще один пример, многие наверное цифровали DVD в MPEG4. На старой машине у меня оцифровка 1,5 часового фильма шла где-то 1 час 20-30 минут. На новой машине этот процесс занимает 11 минут. Разница опять таки очевидна. Смысл брать шуструю машину нужен только для реализации определенных задач, просто так смысла нет. Не думаю что трейдеры тут собравшиеся находят много времени что-бы еще и в игры поиграть.


А я сделал еще лучше: Взял крутую маму, впихнул в нее 2 гига 800-тки, сore 2 duo 6300 (1.83 mhz) за 210 баков и разогнал проц с 1.83 до 3.3 mhz -- обогнав тем самым Intel Core 2 Extreme (1000$). :)))

Ну а теперь прикинь как я могу разогнать свой, вообще получится космический апарат. Только вот гнать процы я не оченб люблю, начинают выскакивать разные глюки, которые никаму не нужны, особенно в нашем дела.
 
HIDDEN:
natlam:
HIDDEN:

Вот реально мой пример.
Захотелось мне загнать по 10 валютным парам тиковую историю с 2001 года, на тот момент был у меня селерончик 2,4 и оперативы 1 гиг. Все длилось больше 3-х недель беспрерывной работы.

Пошел и купил Intel Core 2 Extreme, впихнул в него 4 гига памяти с наименшими тайменгами, винт шустрый и запустил. Так на это дело мне потребывалось 4 дня в общей сложности.
Разница скоростей очевидна, тоже самое и с тестированием. Я на быстрой машине могу заниматься разработкой, анализом, тестированием оптимизацией, а торгует пусть старенькая машинка.

Или вот еще один пример, многие наверное цифровали DVD в MPEG4. На старой машине у меня оцифровка 1,5 часового фильма шла где-то 1 час 20-30 минут. На новой машине этот процесс занимает 11 минут. Разница опять таки очевидна. Смысл брать шуструю машину нужен только для реализации определенных задач, просто так смысла нет. Не думаю что трейдеры тут собравшиеся находят много времени что-бы еще и в игры поиграть.


А я сделал еще лучше: Взял крутую маму, впихнул в нее 2 гига 800-тки, сore 2 duo 6300 (1.83 mhz) за 210 баков и разогнал проц с 1.83 до 3.3 mhz -- обогнав тем самым Intel Core 2 Extreme (1000$). :)))

Ну а теперь прикинь как я могу разогнать свой, вообще получится космический апарат. Только вот гнать процы я не оченб люблю, начинают выскакивать разные глюки, которые никаму не нужны, особенно в нашем дела.

Ну на счет глюков не скажи, ты ж наверное знаеш что твое ядро conroe ничем не отличается от моего (кроме свободного множителя, который не влияет на производительность и на два мега больше кеша), соотвественно у них потенциал по макс. частоте примерно одинаков и что core 2 Extreme это мой проц только разогнаный на заводе и накоторый дана гарантия 3 года на частоту 2.93. Вот и все. Поетому практически все проци conroe при наличии прямых рук и класной мамки могут работать без проблем на частоте 3.0 БЕЗ ГЛЮКОВ!!!

П.С.Твой проц можно без проблем погнать к 3.7. а это 20% + память на 15-20%.
             В НАШЕМ ДЕЛЕ ПРОИЗВОДИТЕЛЬНОСТИ МНОГО НЕ БЫВАЕТ.
 
natlam:

В НАШЕМ ДЕЛЕ ПРОИЗВОДИТЕЛЬНОСТИ МНОГО НЕ БЫВАЕТ.

Но только при условии что мы движемся в правильном направлении. ;o) Потому что если двигаться в противоположном направлении, то это лишь ускорит процесс удаления от цели. Но это уже философский вопрос, который решается каждым индивидуально...
 

Каждый из нас уверен что он движется в правильном направлении.


П.С. Признатся себе что ты пол года зря убил на одну идею или один советник (котрый себя не оправдал) ой как не легко :))

 
natlam:

Каждый из нас уверен что он движется в правильном направлении.


П.С. Признатся себе что ты пол года зря убил на одну идею или один советник (котрый себя не оправдал) ой как не легко :))


Может быть и нелегко - но, опять же , не всем. Реально смотрящий на вещи человек должен это признать.
Именно столько уходит вначале на проверку идеи - около 6 месяцев. Потом может и выясниться, что идея не оправдала себя.
Нужно переходить к следующей идеи. Но возникает вопрос : "Опять 6 месяцев убивать на одну идею ?"
Сколько же жизней нам понадобиться, чтобы проверить хотя бы десяток идей ? :)
Поэтому, ИМХО, нужно менять методику обработки идей.
Меняются идеи, но не меняется подход по их проверке.
И вот, что сделал Я. :)
Я постарался максимально стандартизировать советника, чтобы у меня на программирование (и повторение старых ошибок) уходило минимум времени :
- создается шаблон универсального советника;
- ключевые данные идеи представляются в ввиде индикатора(ов);
- общие функции выводятся в библиотеку;
- содаются подключаемые к шаблону файлы правил : входа, выхода, модификации.
- файлы правил пишутся таким образом, чтобы перебор вариантов идеи отдать на растерзание оптимизатору;

Что имеем в результате ?
Если раньше у меня уходило до 3 месяцев запрограммировать правильно советника, то теперь уходит неделя на создание индикатора, представляющего ключевые данные идеи.
Потом я просто подключаю идею к универсальному шаблону. Это раз.
Второе.
Если раньше мне с трудом удавалось перебрать несколько вариантов одной и той же идеи (скажем до 10 вариантов) - то теперь оптимизатор за 2 дня потрошит идею на клетки.
И вместо 10 вариантов случайных субъективных переборов будем иметь пару миллиардов вариантов (многие из них конечно же бесполезны).
Если я не прав - приму любую критику.

И объясните мне как все-таки двухядерный комп заставить быстрее оптимизировать советника ? Я с двумя копиями метатрейдера ниче не понял.
 
1CMaster:

И объясните мне как все-таки двухядерный комп заставить быстрее оптимизировать советника ? Я с двумя копиями метатрейдера ниче не понял.


Один входной параметр советника разбиваешь на две части. По одной части оптимизируешь на одном терминале, по второй на другом. Получаешь загрузку двух ядер.

Например, у тебя в советнике есть некий входной параметр X который нужно оптимизировать по значениям от 0 до 100 с шагом 1. На одном терминале X оптимизируешь от 0 до 50, на втором от 51 до 100.
 
1CMaster:
Если раньше мне с трудом удавалось перебрать несколько вариантов одной и той же идеи (скажем до 10 вариантов) - то теперь оптимизатор за 2 дня потрошит идею на клетки.
И вместо 10 вариантов случайных субъективных переборов будем иметь пару миллиардов вариантов (многие из них конечно же бесполезны).
Если я не прав - приму любую критику.

И объясните мне как все-таки двухядерный комп заставить быстрее оптимизировать советника ? Я с двумя копиями метатрейдера ниче не понял.



Что значит раньше? До появления генетики?
 
Вопрос разработчикам и пользователям на сколько реально использование nVidia Tesla GPU Computing Processor (Tesla C870) при оптимизации советников. http://www.nvidia.ru/page/tesla_computing_solutions.html
 
HIDDEN:

Захотелось мне загнать по 10 валютным парам тиковую историю с 2001 года, на тот момент был у меня селерончик 2,4 и оперативы 1 гиг. Все длилось больше 3-х недель беспрерывной работы.

Пошел и купил Intel Core 2 Extreme, впихнул в него 4 гига памяти с наименшими тайменгами, винт шустрый и запустил. Так на это дело мне потребывалось 4 дня в общей сложности.

В твоем примере, скорее всего, не мощность проца сыграла главную роль, а ОБЪЕМ ПАМЯТИ. Обрати внимание в Task Manager'е, сколько оперативной и виртуальной памяти жрет тот или иной процесс. Например, при оптимизации на тиках за 1999-2007 и использованием одной валютной пары, компу в общей сложности требуется около 1 Гиг памяти! А если несколько пар - то соответственно еще больше...

Всё, что не умещается в оперативку, пишется в виртуальную память на диск. Отсюда и огромные тормоза...

Причина обращения: