卷积神经网络模型同步训练方法、集群及可读存储介质
授权
摘要
本申请公开了一种卷积神经网络模型同步训练方法、集群及可读存储介质,在本方法中,在训练卷积神经网络时,则按照训练数据量向各个GPU分配训练样本。各个GPU按照被分配的训练数据量对同一个卷积神经网络的训练耗时之间的差异得到缩小,各个GPU之间训练等待时间可缩短,训练效率得到提升。与此同时,在本方法中,用于训练卷积神经网络的GPU的型号可不同,因而可减少闲置GPU,可降低硬件成本。
基本信息
专利标题 :
卷积神经网络模型同步训练方法、集群及可读存储介质
专利标题(英):
暂无
公开(公告)号 :
CN110705705A
申请号 :
CN201910912956.1
公开(公告)日 :
2020-01-17
申请日 :
2019-09-25
授权号 :
CN110705705B
授权日 :
2022-04-22
发明人 :
曹芳郭振华刘海威
申请人 :
浪潮电子信息产业股份有限公司
申请人地址 :
山东省济南市高新区浪潮路1036号
代理机构 :
北京集佳知识产权代理有限公司
代理人 :
田媛媛
优先权 :
CN201910912956.1
主分类号 :
G06N3/08
IPC分类号 :
G06N3/08 G06N3/04
相关图片
IPC结构图谱
G
G部——物理
G06
计算;推算或计数
G06N
基于特定计算模型的计算机系统
G06N3/00
基于生物学模型的计算机系统
G06N3/02
采用神经网络模型
G06N3/08
学习方法
法律状态
2022-04-22 :
授权
2020-02-18 :
实质审查的生效
IPC(主分类) : G06N 3/08
申请日 : 20190925
申请日 : 20190925
2020-01-17 :
公开
注:本法律状态信息仅供参考,即时准确的法律状态信息须到国家知识产权局办理专利登记簿副本。
文件下载
1、
CN110705705A.PDF
PDF下载