В качестве стартера в Open CL, у меня есть простой вопрос понимания для оптимизации вычислений на GPU.
Насколько я понял, что я могу сделать то матрицу 1000 X 1000 и положить один код на каждый пиксель в то же время с помощью GPU. Как насчет следующей опции:
У меня есть 100 раз в 100 х 100 матрицы и нужно вычислить их по- разному. Поэтому мне нужно
сделать серийное или я могу начать 100 экземпляров, то я начинаю 100 Python multiprocesses и каждые стрелять вычисление матрицы на GPU (assumning thetre достаточно ресурсов).Другой путь круглый, я одна матрица 1000 X 1000 и 100 другой экземпляр, чтобы вычислить, я могу сделать это, как то же самое время или последовательной обработки?
Любые советы или понятие, как решить этот быстрый способ ценятся
Благодаря Adrian