提交 a73ce6b6 authored 作者: James Bergstra's avatar James Bergstra

cuda.opt - Reverting modifications to local_transfer_cut

上级 abba17eb
......@@ -62,16 +62,10 @@ gpu_seqopt.register('InputToGpuOptimizer', InputToGpuOptimizer(),
@local_optimizer([])
def local_cut_gpu_host_gpu(node):
copy_op=None
if tensor.opt.opt.check_chain(node, gpu_from_host, host_from_gpu):
copy_op = GpuElemwise(scal.identity, {})
return [node.inputs[0].owner.inputs[0]]
if tensor.opt.opt.check_chain(node, host_from_gpu, gpu_from_host):
copy_op =tensor.copy
if copy_op:
#copy_op = lambda x:x
rval = copy_op(node.inputs[0].owner.inputs[0])
assert isinstance(rval, gof.Variable), "rval is not a variable"
return [rval]
return [node.inputs[0].owner.inputs[0]]
return False
gpu_cut_copies.register('cut_gpu_host_transfers', local_cut_gpu_host_gpu,
'fast_run', 'inplace', 'gpu')
......
Markdown 格式
0%
您添加了 0 到此讨论。请谨慎行事。
请先完成此评论的编辑!
注册 或者 后发表评论