首试GPU并行运算
来源:互联网 发布:网络舆情队伍建设 编辑:程序博客网 时间:2024/06/01 22:35
今天首次尝试了GPU的并行计算,总得感觉上CPU与GPU之间的数据传输速度太慢,所以永远不要低估了GPU与CPU之间的数据传输速率,当需要用到GPU强大的并行计算能力时,一定要衡量好数据传输之间所花费的时间与GPU并行计算之间所省下的时间,看看得是否偿失,频繁的数据传输只会适得其反。
下面就放一个10个矢量之间的计算,GPU并行计算与CPU的串行计算所花的时间对比。
注意:那个时间单位错了,是s,不是ms
测试源代码:
#include <iostream>#include <time.h>#include <iomanip>#include "cuda_runtime.h"using namespace std;clock_t start, stop;double duration;__global__ void add(int *a, int *b, int *c){int tid = 0;while (tid<10){c[tid] = a[tid] + b[tid];tid += 1;}}int main(){start = clock();for (int j = 0; j < 100000; j++){int a[10], b[10], c[10];int *dev_a, *dev_b, *dev_c;cudaMalloc((void**)&dev_a, 10 * sizeof(int));cudaMalloc((void**)&dev_b, 10 * sizeof(int));cudaMalloc((void**)&dev_c, 10 * sizeof(int));for (int i = 0; i < 10; i++){a[i] = -i;b[i] = i*i;}cudaMemcpy(dev_a, a, 10 * sizeof(int), cudaMemcpyHostToDevice);cudaMemcpy(dev_b, b, 10 * sizeof(int), cudaMemcpyHostToDevice);cudaMemcpy(dev_c, c, 10 * sizeof(int), cudaMemcpyHostToDevice);add << <10, 1 >> >(dev_a, dev_b, dev_c);cudaMemcpy(c, dev_c, 10 * sizeof(int), cudaMemcpyDeviceToHost);cudaFree(dev_a);cudaFree(dev_b);cudaFree(dev_c);}stop = clock(); duration = (double)(stop - start) / CLK_TCK;system("pause");return 0;}
0 0
- 首试GPU并行运算
- 安装带有Kinfu和GPU并行运算版本的PCL
- GPU并行编程方法
- GPU并行编程方法
- GPU并行编程方法
- GPU---并行计算利器
- GPU:并行计算利器
- GPU并行编程方法
- MATLAB GPU并行编程
- GPU---并行计算利器
- GPU---并行计算利器
- 并行运算
- matlab 查看电脑系统性能(CPU,GPU),并开启并行运算
- 面向GPU并行计算新趋势
- 面向GPU并行计算新趋势
- 面向GPU并行计算新趋势
- CUDA: GPU的并行计算
- TensorFlow多GPU并行计算
- UI调试神器 for ios:Reveal的使用与破解
- jqGrid 学习笔记整理——进阶篇(二)
- js 声明变量
- WebViewJavascriptBridge详细使用
- Swift高阶函数map,filter,reduce实践
- 首试GPU并行运算
- 常用正则表达式
- MongoDB在Windows32bit(linux)下配置成自动开启的服务器注意事项
- Swift StateMachine源码分析
- 算法练习-实现memmove,及memmove与memmcpy区别
- swift:基于MPMoviePlayerController的视频播放器
- StudyJams-第02课_线性布局(LinearLayout)、相对布局(RelativeLayout)、填充(padding)、边距(margin)
- hbase 异常解决
- 实现UNC转本地路径