model = Model(inputs=[v_i, v_j], outputs=output_list)
model = multi_gpu_model(model,4)
model.compile(....)

主要就是第二句话中的

multi_gpu_model函数,会把数据和模型分到多个gpu上执行

有个坑,就是整个程序导入keras时要么全部from keras import ...,要么全部 from tensorflow.python.keras import ...,不能tensorflow里的keras不能和原生keras混用,
要不就会报Node' object has no attribute 'output_masks的错误


https://blog.csdn.net/sinat_26917383/article/details/75633754

上边博客里边动态分配内存时,如果使用的是tensorflow里的keras那么不用set_session,如果远程keras那么需要K.set_session(sess)

相关文章:

  • 2022-01-02
  • 2021-08-05
  • 2021-07-18
  • 2021-08-29
  • 2021-12-07
  • 2021-11-17
  • 2022-01-13
猜你喜欢
  • 2022-12-23
  • 2021-10-05
  • 2021-12-08
  • 2022-12-23
  • 2022-12-23
  • 2021-09-10
  • 2022-12-23
相关资源
相似解决方案