MQL5 и Nvidia CUDA - страница 2

 
Shaitan >>:

С чего бы? Есть видюха, а остальное бесплатно. Инструментарий разработчика бесплатный. Куча готовых примеров. За GPGPU солидное будущее. Уже сейчас вместо суперкомпьютеров используют для расчётов (например в томографии) системники, куда просто напихано 4 видюхи. Производительность та же, а стоимость в сотни раз меньше.

У ATI, кстати, есть своя аналогичная разработка.

Почитайте: http://gpgpu.org/

У них есть даже софтины под финчасть (правда за денюшки)

 
rozanovff, как я понял вам надо не конкретную проблему решить а просто возможность обсудить. Будет проблема - можно будет обговорить, как ее решить...
 

В ближайшиее время nVidia и ATI выпустят релизы  OpenCL  и независимо от "законодателя" появиться возможность работы на GPU.

Intel тоже обещает потдержку в Larrabee

 
Shaitan, я имел в виду что стоимость разработки тестера на GPU будет довольно большой - соответственно и стомость самого MT5. Одно дело конкретный расчёт заскриптовать, а другое переписать компилятор MQL5 из CPU в GPU - это очень не просто.
 

Мы рассматривали возможность применения CUDA в MQL5, но практических преимуществ не нашли.


Мое личное мнение о CUDA можно прочесть в ветке 'MQL5 vs V8'

Сложные матричные расчеты требуют абсолютно нетривиального и кропотливого переписывания под тот же самый CUDA. Что практически недоступно непрофессиональным (не GPU программерам) разработчикам. А ускорение вообще не гарантировано, особенно с учетом того, что в том же самом CUDA базовая математика - это float (этого хватает для оперирования цветов в графике), а не double. В математике float ну никак не подходит (ибо точность никакая), даже на double некоторые плюются.

Применение CUDA в расчетах останавливает вот что (на CUDA 2.0, GT200):

Что касается вычислений с двойной точностью(double), их скорость на текущем аппаратном поколении ниже одинарной точности в несколько раз.

....

Реально производительность может быть даже ещё меньше, так как архитектура оптимизирована для 32-битного чтения из памяти и регистров, кроме того, двойная точность не нужна в графических приложениях, и в GT200 она сделана скорее для того, чтобы просто была.

Бенчмарки (расчитанные на float математике) GPU при переписывании под double сольют по полной и вполне вероятно, что никакого ускорения вообще не будет. Скорее даже падение производительности будет.


Я даже не говорю о стоимости времени копирования 50-100 мегабайт исторических данных во внутреннюю память видеокарты, а потом возвращения результата назад в оперативку. И так для 10-20 индикаторов на каждый тик. Не забывайте, что видеокарта еще и по прямому назначению применяется, перерисовывая великолепие интерфейсов некоторых операционок :)
 
nVidia CUDA (Куда? Вверх или вниз?)))))))))))))))
 
double они через год-два сделают, иниче их Tesla обернётся пшиком. Другой вопрос - компилятор скриптового языка не переделать под систему массового параллелизма, ИМХО. Придётся вводить отдельные программные конструкции для GPU.
 
Fermi:
http://www.ixbt.com/video3/gf100-2-part1.shtml
Причина обращения: