航天结构件的加工过程具有多品种、小批量、工艺复杂多变的特征,每种工件由多道具有先后顺序约束的工序完成,是典型的作业车间调度问题.由于航天结构件紧急插单任务的扰动影响批量生产任务的生产进程,降低生产效率,所以车间调度方案需要动态变更.在传统作业车间调度的基础上,柔性作业车间调度可以面向更加动态、复杂的车间环境.根据柔性作业车间的特点,可以将该类调度问题拆分为资源配置和工序排序两个子问题,分别利用调度系统中存在的多类型知识,赋予系统自适应响应能力.
柔性作业车间调度需要利用实时性状态数据来驱动,但目前系统对于车间资源中离散程度高、关联性差的数据无法很好地利用.在处理大规模复杂数据方面,知识图谱技术[1 -2 ] 能够表达更丰富的语义,对数据进行语义信息集成与表示.认知制造[3 ] 作为下一代智能制造[4 ] ,利用感知-认知系统实现信息-物理系统的交互.知识图谱技术与认知制造的结合应用增强了车间动态调度策略优化与知识之间的联通性,一定程度上提高了决策方案的科学性.如何利用知识图谱提供的调度知识实现动态调度决策优化是值得研究的课题.
近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力.
为此,本文针对柔性作业车间调度问题,以最小化设备平均负载和最小化总完工时间为目标,在调度过程的资源配置和工序排序阶段,分别设置强化学习智能体,提出双系统强化学习框架.其中,基于感知系统获取知识图谱的知识,分别将资源配置和工序排序所需要的参数集成表示为多维信息矩阵的形式,为认知调度系统提供车间状态参数;认知调度过程中对两个智能体共同构建具有继承关系的双环深度Q网络(Dual-Loop Deep Q Network, DL-DQN)方法.
1 柔性作业车间调度模型
柔性作业生产车间调度问题可以描述为:总共有K个任务订单,其中包括批产任务和插单任务,每个任务包含n个待加工工件,即J = J 1 , J 2 , … , J i i = 1 , 2 , … , n , 所有任务动态到达需要在L种设备组G = G 1 , G 2 , … , G l l = 1 , 2 , … , L 上加工,每个设备组包含一定数量T的设备M = { M 1 , M 2 , … , M t } ( t = 1 , 2 , … , T ) 执行对应的工序,不同的任务包含不同的加工工件数目、对应不同的加工工序,需要在设备组上进行工序排序并加工.对插单任务进行资源配置,并根据资源配置结果对机加工工序进行优化排序,使得设备总负载和任务总完工时间最小.在问题描述中涉及到的参数如表1 所示.
柔性作业车间调度模型需要满足如下基本假设:①批产任务中工件一定的情况下,插单任务的工件动态到达;②同一工件工序之间有优先级,需在前道工序加工完成后进行后道工序的加工;③工件某一道工序在加工过程中不能被中断;④ 工件在加工过程中的准备时间、工件转换时间等一同计入加工时间; ⑤同一设备在某一时刻只能加工一道工序;⑥ 同一设备前一工件未完成,后续安排工件需等待;⑦不存在撤单、设备故障等特殊情况.
(1) m i n f 1 = m i n 1 N M ∑ l = 1 L ∑ t = 1 T W l , t ∀ l ∈ [ 1 , 2 , … , L ] , t ∈ [ 1 , 2 , … , T ]
(2) m i n f 2 = m i n ∑ k = 1 K ∑ i = 1 n B k , i T ∀ i ∈ [ 1 , 2 , … , n ] , k ∈ [ 1 , 2 , … , K ]
W l , t = W k , i = ∑ j = 1 m B M k , i , j J k , i ( e o k , i , j t - s o k , i , j t ) B k , i T = S k , i T + ∑ j = 1 m B M k , i , j J k , i ( e o k , i , j t - s o k , i , j t + r o k , i , j t )
(3) 1 ≤ ∑ j = 1 m ∑ i = 1 n B M k , i , j J k , i ≤ N n u m ∀ k ∈ [ 1 , 2 , … , K ]
(4) ( s o k , i , j t , e o k , i , j t ) ⋃ ( s o k , i , q t , e o k , i , q t ) = ⌀ j ≠ q
(5) s o k , i , j t , e o k , i , j t ⋃ s o u , v , w t , e o u , v , w t = ⌀ M k , i , j = M u , v , w
(6) W l , t < L l , t W
(7) s o k , i , j t > 0
(8) s o k , i , j t = e o k , i , j - 1 t + r o k , i , j - 1 t
上述公式中,式(1)表示目标函数为最小化设备平均负载;式(2)表示目标函数为最小化总加工时间;式(3)表示插单任务需设备数目在可用设备数N num 内;式(4)表示同一工件在同一时间只能进入一道工序;式(5)表示同一设备在同一时间只能加工一道工序;式(6)表示设备负荷约束,安排在设备上的总负荷不得超过该设备的最大负荷;式(7)定义了工件的首道工序开始时间;式(8)表示本道工序开始时间s o k , i , j t 在前道工序完成时间e o k , i , j - 1 t 后,需考虑设备间运输时间r o k , i , j - 1 t .
2 双系统强化学习方法
为了实现柔性作业车间的动态调度,解决调度过程中的多阶段方案生成优化,本文提出了知识图谱驱动的车间动态调度过程中感知-认知双系统框架.如图1 所示,系统I的感知是将各类型数据进行表示与集成,将调度信息转变成多维矩阵的形式分别表示资源配置和工序排序,输入到系统II.在紧急任务的触发下,系统II的认知利用DL-DQN强化学习方法进行车间排产优化——资源配置智能体以最小化设备平均负载为目标,首先进行该工件所需人员、设备、物料等资源匹配形成资源社群;工序排序智能体以最小化完工时间为目标,将资源社群以工序为单位实现工件顺序排产计划,分步进行调度策略生成,提高加工流的生产连续性和效率.
图1
图1
双系统强化学习框架
Fig.1
Dual-system reinforcement learning framework
本文将工作流调度过程看作是一个马尔科夫决策过程,调度目标为最小化设备总负载和最小化总完工时间,分别将优化目标抽象成两个智能体,智能体之间形成继承关系可以观察到对方的动作和奖励.在考虑双环强化过程的前提下,外环强化过程中资源配置状态处于一个状态的长期最优价值为Q s t 1 , s t 1 ; θ ,执行某个动作之后带来长期最优价值为m a x a ' Q s t 2 , s t 2 ; θ - ; 内环强化过程中工序排序状态处于一个状态的长期最优价值为Q s t 2 , s t 2 ; θ ,执行某个动作之后带来长期最优价值为m a x a ' Q s t + 1 1 , s t + 1 1 ; θ - ,在强化学习算法中,参数θ通过迭代最小化损失函数来来更新.
2.1 感知-调度参数表示与多维信息矩阵集成
利用知识图谱提供的调度参数,根据车间动态调度的两个子问题,分别将所需数据转化成多维信息矩阵输入到系统的强化学习模型中.
资源配置所需的数据为离散型数据,R 为资源信息矩阵,每种任务需要由多位工人在多台设备上采用不同的资源进行加工,每种资源包含多种类型:
(9) R k , i , j = M k , i , j , P k , i , j , S k , i , j ( k = 1 , 2 , … , K ; i = 1 , 2 , … , n ; j = 1,2 , … , m ; R k , i , j ∈ R ; M k , i , j ∈ M ; P k , i , j ∈ P ; S k , i , j ∈ S )
工序排序所需的数据由工艺序列和加工时间两组数据组成,Q 为工序排序信息矩阵,各类型数据构建出排序涉及相关调度参数,以某时间段工位数据建模表示如下:
(10) Q = { O , T }
O 为工艺参数矩阵,即任务加工工艺流程方法.加工车间每种设备组只能对应加工某一类型工艺:
(11) O = s i , j | s i , j = G 1 , G 2 , … , G l ( i = 1 , 2 , … , n ; j = 1 , 2 , … , m ; l = 1 , 2 , … , L )
T 为时间参数矩阵,包括当前任务在某工序加工的开始时间s o k , i , j t 、结束时间e o k , i , j t 和不同工件间的转移时间r o k , i , j t .
(12) T = { t i , j | t i , j > 0 } = { ( s o k , i , j t , e o k , i , j t , r o k , i , j t ) | ( s o k , i , j t > 0 , e o k , i , j t > 0 , r o k , i , j t > 0 ) } ( k = 1 , 2 , … , K ; i = 1 , 2 , … , n ; j = 1 , 2 , … , m )
2.2 认知-DL-DQN调度算法
对感知数据利用DL-DQN算法实现认知应用.图2 为本文提出的柔性作业车间动态调度流程.依据批产任务生产方案流程,对插单任务进行紧急程度的判别后分别应用不同的调度原则,当插单任务进入认知调度实现策略优化时,资源配置智能体形成以工件为核心的资源社群配置,工序排序智能体实现单个工序上的工件排序优化.
图2
图2
车间动态调度流程
Fig.2
Workshop dynamic scheduling process
本文提出的方法不同于传统调度优化方法,其基于优化目标赋予每个智能体不同的功能,然后与多个子环境交互,根据知识图谱提供的各类型信息和应用场景的协同反馈逐步调整策略实现优化.图3 为DL-DQN强化学习方法框架,A1是资源配置智能体,A2是工序排序智能体.外环强化由A1根据当前加工资源的参数状态s t 1 对工件的人员、物料和设备等资源进行配置,生成策略a t 1 到调度场景,对资源配置策略进行以设备平均负载为目标的评估然后将奖励r t 1 返回到A1.资源配置策略状态与当前加工场景的工序排序状态共同作为状态s t 2 激励A2进行内环强化,内环强化的A2生成工序排序策略a t 2 到调度场景,对工序排序策略进行以最小化完工时间为目标的评估然后将奖励r t 2 反馈到A2,至此完成一个DL-DQN强化学习循环.
图3
图3
DL-DQN强化学习方法框架
Fig.3
Framework of DL-DQN reinforcement learning algorithm
多智能体在进行车间调度时依赖车间的状态感知信息,分别设计不同的状态空间矩阵.结合车间调度约束和优化目标设计状态矩阵F,车间调度任务主要包括资源配置和工序排序两个阶段,因此用F = F 1 F 2 对车间状态进行描述,F 1 = f 1 1 f 2 1 为车间资源状态,F 2 = f 1 2 f 2 2 为工件加工工艺和加工时间状态,f 1 1 = f 1,1 1 f 1,2 1 f 1,3 1 、f 1 2 = f 1,1 2 f 1,2 2 分别表示批产任务的两阶段状态,f 2 1 、f 2 2 分别表示插单任务的两阶段状态,f 1 , 1 1 = f 1 , 1 , 1 1 表示人员状态的特征向量,f 1 , 2 1 = f 1 , 2 , 1 1 表示物料状态的特征向量,f 1 , 3 1 = f 1 , 3 , 1 1 f 1 , 3 , 2 1 表示设备状态的特征向量,f 1 , 1 2 = f 1 , 1 , 1 2 f 1 , 1 , 2 2 表示工艺状态的特征向量,f 1 , 2 2 = [ f 1 , 2 , 1 2 f 1 , 2 , 2 2 f 1 , 2 , 3 2 f 1 , 2 , 4 2 ] 表示时间状态的特征向量.批产任务加工状态的参数含义及表达式如表2 所示, 插单任务所需参数与批产任务相同.
资源配置和工序排序智能体根据机器的加工状况以及工件的生产属性,分别为每一个工件设置调度优先值,本文分别针对两个智能体设置不同的决策动作空间.
资源配置决策空间:资源配置任务是对插单任务进行人员、设备、物料等资源的配置,合理选择能够最小化设备平均负载的最优资源,决策空间定义如表3 所示.
工序排序决策空间:工序排序是将配置好的资源社群,以最小化完工时间为目标分别在每个工位上进行排序,决策空间定义如表4 所示.
通过设置合理的奖励机制,保证算法在多智能体设置下的收敛性,函数设计如下.
首先定义设备繁忙、空闲的示性函数η M l , t ( t a ) , 表示为
(13) η M l , t ( t a ) = 0 , 在 t a 时 刻 机 器 M l , t 处 于 空 闲 状 态 - 1 , 在 t a 时 刻 机 器 M l , t 处 于 繁 忙 状 态
(14) r u 1 = 1 N M ∑ l = 1 L ∑ t = 1 T ∫ t u - 1 t u η M l , t ( t a ) d t a
式中:N M 为 设 备 总 数 ; t u - 1 和 t u 为 第 u - 1 和 第 u 个 决 策 时 刻 ; r u 1 为 系 统 在 t u 时刻获得的关于设备平均负载的即时奖励.该奖励的意义在于:最小化设备平均负载等价于最大化运行一次试验获得的总奖励R 1 .
(15) R 1 = ∑ u = 1 U r u 1 = 1 N M ∑ u = 1 U ∑ l = 1 L ∑ t = 1 T ∫ t u - 1 t u η M l , t ( t a ) d t a = 1 N M ∑ l = 1 L ∑ t = 1 T ∫ 0 T l , t η M l , t ( t a ) d t a = - 1 N M ∑ l = 1 L ∑ t = 1 T ( e l , t t - s l , t t ) = - 1 N M ∑ l = 1 L ∑ t = 1 T W l , t
(16) m a x ∑ u = 1 U r u 1 ⇔ m a x - 1 N M ∑ l = 1 L ∑ t = 1 T W l , t ⇔ m i n 1 N M ∑ l = 1 L ∑ t = 1 T W l , t
由式(15)和(16)可知,资源配置阶段的最大化奖励R 1 等价于最小化设备平均负载,证明定义的奖励函数有效.
首先定义ta 时刻第k个任务的第i个工件中第j道工序状态的示性函数$\mu_{o_{k, i, j}}\left(t_a\right) $,即:
(17) μ o k , i , j ( t a ) = 0 , 在 t a 时 刻 第 k 个 任 务 的 第 i 个 工 件 中 第 j 道 工 序 没 有 开 始 加 工 - 1 , 在 t a 时 刻 第 k 个 任 务 的 第 i 个 工 件 中 第 j 道 工 序 已 经 开 始 加 工
(18) r u 2 = ∑ k = 1 K ∑ i = 1 n ∫ t u - 1 t u μ o k , i , j ( t a ) d t a
r u 2 为系统在t u 时刻获得的关于总完工时间的即时奖励.该奖励的意义在于最小化总完工时间等价于最大化运行一次试验获得的总报酬R 2 . 假设D P k , i , j 为第k个任务的第i个工件中第j道工序的交付时间.
(19) R 2 = ∑ u = 1 U r u 2 = ∑ u = 1 U ∑ k = 1 K ∑ i = 1 n ∑ j = 1 m ∫ t u - 1 t u μ o k , i , j ( t a ) d t a = ∑ k = 1 K ∑ i = 1 n ∑ j = 1 m ∫ 0 D P k , i , j μ o k , i , j ( t a ) d t a = - ∑ k = 1 K ∑ i = 1 n ∑ j = 1 m ( S k , i T + B M k , i , j J k , i ( e o k , i , j t - s o k , i , j t + r o k , i , j t ) ) = - ∑ k = 1 K ∑ i = 1 n ( S k , i T + ∑ j = 1 m B M k , i , j J k , i ( e o k , i , j t - s o k , i , j t + r o k , i , j t ) ) = - ∑ k = 1 K ∑ i = 1 n B k , i T
(20) m a x ( ∑ u = 1 U r u 2 ) ⇔ m a x - ∑ k = 1 K ∑ i = 1 n B k , i T ⇔ m i n ( ∑ k = 1 K ∑ i = 1 n B k , i T )
由式(19)和(20)可知,工序排序阶段的最大化奖励R 2 等价于最小化总完工时间,证明定义的奖励函数有效.
为双目标奖励函数赋予权值转变为总奖励函数R ,如下式:
(21) R = μ 1 R 1 + μ 2 R 2
式中:μ 1 、μ 2 分别为两个目标的权值,μ 1 + μ 1 = 1 . 将双目标优化转换为单目标优化的奖励函数,通过控制权值的大小,决策者可依据目标的侧重情况人为设定.例如, 当调度环境要求考虑尽快完工,可将工序排序智能体奖励函数R 2 的权值设置为0.7,资源配置智能体奖励函数R 1 的权值设置为0.3.
本文模型在DQN基础上改进,两个智能体在训练时,在单位时间内,资源配置智能体根据知识图谱提供的资源相关离散型知识生成资源配置决策动作,随着状态变化以社群的形式传递给工序排序智能体,下一个排序动作以每一设备组为单位,对资源社群进行任务加工序列的安排.调度的两阶段过程不断更新迭代,直至任务完成,采用梯度下降法更新参数,实现策略函数的优化,算法的伪代码如算法1所示.
2. 用随机权重参数 θ 1 、θ 2 初始化函数Q 1 、Q 2
3. 用随机权重参数 θ 1- 、θ 2- 初始化函数Q ^ 1 、Q ^ 2
5. 重置资源配置计划并清除结果, 得到初始状态s t 1
7. 选择资源配置策略a t 1 并在调度环境中执行操作a t 1
9. 将经历(s t 1 ,a t 1 ,r t 1 ,s t 2 ) 存放到记忆池 D 1
13. 选择工序排序策略a t 2 并从规则库Z ={FIFO, SPT, EDD, SL, SRPT}中选择一个规则a t 2 进行工序排序
15. 将经历(s t 2 ,a t 2 ,r t 2 ,s t + 1 1 ) 存放到记忆池 D 2
16. 从记忆池D 2 中随机选择一个转换样本数据,用(s j 2 ,a j 2 ,r j 2 ,s j + 1 1 ) 表示
17. $y_i^2=\left\{\begin{array}{l}r_j^2, N \text { 在 } j+1 \text { 步是结束状态 } \\r_j^2+\gamma^2 \max _{a^2} \hat{Q}^2\left(s_{j+1}^2, a^2 ; \theta^{2-}\right), \text { 其他 }\end{array}\right.$
18. 采用梯度下降法(y i 2 - Q 2 (s j 2 ,a j 2 ;θ 2 ))更新参数θ 2
22. 从记忆池D 1 中随机选择一个转换样本数据,用(s j 1 ,a j 1 ,r j 1 ,s j + 1 2 ) 表示
23. $y_i^1=\left\{\begin{array}{l}r_j^1, N \text { 在 } j+1 \text { 步是结束状态 } \\r_j^1+\gamma^1 \max _{a^1} \hat{Q}^1\left(s_{j+1}^1, a^1 ; \theta^{1-}\right), \text { 其他 }\end{array}\right.$
24. 采用梯度下降法(y i 1 - Q 1 (s j 1 ,a j 1 ;θ 1 ))更新参数θ 1
3 案例与应用
对提出的双系统强化学习方法进行模型训练和实验.首先,对仿真参数进行说明并进行方法对比;然后利用某航天所薄壁壳体加工过程中紧急插单问题进行实例测试,并进行分析.
3.1 模型训练与对比
3.1.1 测试数据
本研究根据Brandimarte[28 ] 提出的方法生成一系列柔性作业车间动态调度问题标准算例,将本文问题进行简化,每种加工任务的工序数相同,根据不同的工序随机选择加工设备,然后在工序加工时间区间内随机生成对应时间(见表5 ).
为验证本文提出的DL-DQN算法效果,将随机算法(Random Algorithm, RA)、GA、DQN作为对比算法进行分析比较.
3.1.2 时间复杂度分析
(1) RA[29 ] .以先到先加工原则为约束,随机选择设备需加工工件并进行资源分配,设找到可行解需要的迭代次数为T RA ,因此RA的时间复杂度可近似描述为O (T RA K ).
(2) GA[30 ] .遗传算法一般很难收敛到全局最优解,因此算法的停止根据设置的迭代次数,设GA的最大迭代次数为T GA ,种群数量为λ ,则GA的时间复杂度可近似描述为O (T GA λK ).
(3) DQN.在DQN网络的运行阶段,运行回合数为T DQN ,每回合中的步长为nt ,因此在运行阶段的时间复杂度为O (T DQN nt K ).本文提出的DL-DQN算法的时间复杂度与DQN相同.表6 为时间复杂度对比.
由表可见,本文算法和所提算法的时间复杂度和任务数成线性关系,不同的算法涉及参数不同会影响时间复杂度.
3.1.3 模拟结果
本研究以MK04算例进行实验评估,构建作业车间环境,并使用DL-DQN算法进行柔性作业车间调度,在迭代过程中记录参数变化,与DQN算法进行对比.训练过程参数变化如图4 所示.
图4
图4
MK04算例模拟参数收敛曲线
Fig.4
Convergence curve of simulation parameters for Case MK04
根据测试算例MK01~MK10,分别用本文方法和对比方法求解总优化目标,结果如图5 所示.
图5
图5
测试算例不同算法的总优化目标
Fig.5
Total optimization goals of different algorithms for test cases
由图4 可见DL-DQN算法训练过程的全局累积奖励表现出良好的上升趋势,收敛速度较DQN模型快,优化过程优于DQN模型,且得到的解决方案更好,更能适应柔性作业车间调度的动态性.进一步,通过本文算法和对比算法的求解应用(见图5 ),所提方法的设备平均负载与总完工时间的加权值均小于对比算法.整体看来,DL-DQN方法效果较优,验证了本文所提方法的有效性.
3.2 实例测试
3.2.1 加工车间任务信息表
利用某动力所固体火箭发动机薄壁壳体生产模拟数据进行实例测试以验证所提方法的有效性.薄壁壳体的加工具有产研并存的特性,整理航天所生产原始数据后得到设备类型与相关信息如表7 所示,不同的设备组对应不同的工序.
案例以薄壁壳体批产任务加工过程中紧急订单触发任务为分析对象,在设备信息基础上,设置6个任务的工艺约束、加工时间、加工数量和交货期,其中包含4个批产任务(J1 ~J4 )与2个插单任务(J5 ~J6 ).生产任务工序信息表和时间表如表8 和表9 所示,其中“空白”表示无此项.
3.2.2 感知系统知识表示与集成
根据本文提出的DL-DQN算法,分别为资源配置智能体和工序排序智能体提供多维信息矩阵,两阶段调度过程中所需的参数矩阵如图6 所示.
图6
图6
多维信息矩阵实例化表示
Fig.6
Instantiated representation of multi-dimensional information matrix
3.2.3 认知系统车间调度策略生成
假设插单任务的触发时间节点位于批产任务初始化后的20 h和80 h处,针对插单任务导致的柔性作业车间动态调度事件,首先对其进行资源配置,然后以资源社群为单位进行工序排序,将插单任务排产到合适的工序位置.
在资源配置过程中,针对机加工车间的车床工作状况进行全方位的任务配置.以该车间某一时间段的车床加工任务作为分析基础,将车床按照类型划分,每种型号的车床设备各1台,其加工功能不同,针对插单过程中导致的设备平均负载变化,车间车床设备相关信息如表10 所示.
为表明资源配置智能体生成配置策略的合理性,以设备利用率为参考得出调度前后车床设备利用率曲线图(见图7 ),可以直观地发现,车间车床利用率呈现整体上升趋势且变化平缓,较少出现某一设备负载突变的情况.
图7
图7
插单前后车床利用率信息
Fig.7
Lathe utilization information before and after order insertion
将插单任务触发前后的车间调度模式以甘特图的形式表示出来,图8 为插单前任务调度方案结果,图9 为插单后任务调度方案结果.不同的颜色代表不同任务,同一任务按照时序关系对工序进行区分.
图8
图8
插单前调度方案
Fig.8
Scheduling plan before order insertion
图9
图9
插单后调度方案
Fig.9
Scheduling plan after order insertion
根据插单前后的甘特图得出不同任务交付时间与加工时长的对比.如表11 所示(“空白”表示无此项),运用本文方法能够在满足插单任务交付期的前提下,在一定程度上缩短批产任务的总加工时长,特别是调度策略前后J4 的总加工时间减少35.08%,交付时间减少13.67%.薄壁壳体制造过程中不同的加工工艺所需时间差异大,因此车间中工序排序引起的时间微小变化会更有利于调度.从设备利用率和加工时间变化来看,本文提出的双系统深度强化学习方法具有一定的可行性.
4 结论
本文对产研并存的柔性作业车间动态调度问题进行了研究,以最小化设备平均负载和最小化总完工时间为优化目标,提出感知-认知双系统与DL-DQN算法融合嵌入的方法,得出以下结论:
(1) 感知系统将知识图谱提供的数据转化成多维信息矩阵输入到认知系统,认知系统将调度过程分成资源配置和工序排序两部分,分别将两个优化目标抽象成具有继承关系的智能体.
(2) 采用DL-DQN算法,外环利用资源配置智能体生成以工件为单位的资源社群,内环利用工序排序智能体以资源社群为单位进行工序级别的工件排序优化.
(3) 对比不同的算法和进行某航天所的固体火箭发动机薄壁壳体加工车间的实例测试,证实提出的双环强化学习方法能更好地利用调度知识图谱提供的参数信息,实现柔性作业车间调度的多目标优化.
目前的研究将设备故障、突发撤单等不确定因素忽略,未来将探究多资源约束情况下的柔性作业车间自适应调度问题.
参考文献
View Option
[1]
JI S X , PAN S R , CAMBRIA E , et al . A survey on knowledge graphs: Representation, acquisition, and applications
[J]. IEEE Transactions on Neural Networks and Learning Systems , 2022 , 33 (2 ): 494 -514 .
DOI:10.1109/TNNLS.2021.3070843
URL
[本文引用: 1]
[3]
CARVALHO A , CHOUCHENE A , LIMA T , et al . Cognitive manufacturing in industry 4.0 toward cognitive load reduction: A conceptual framework
[J]. Applied System Innovation , 2020 , 3 (4 ): 55 .
DOI:10.3390/asi3040055
URL
[本文引用: 1]
[4]
LU Y Q , XU X , WANG L H . Smart manufacturing process and system automation: A critical review of the standards and envisioned scenarios
[J]. Journal of Manufacturing Systems , 2020 , 56 : 312 -325 .
DOI:10.1016/j.jmsy.2020.06.010
URL
[本文引用: 1]
[5]
ZHANG J , DING G F , ZOU Y S , et al . Review of job shop scheduling research and its new perspectives under Industry 4.0
[J]. Journal of Intelligent Manufacturing , 2019 , 30 (4 ): 1809 -1830 .
DOI:10.1007/s10845-017-1350-2
URL
[本文引用: 1]
[6]
巴智勇 , 袁逸萍 , 戴毅 , 等 . 考虑机器故障的作业车间调度方案鲁棒测度方法
[J]. 计算机集成制造系统 , 2020 , 26 (12 ): 3341 -3349 .
[本文引用: 1]
BA Zhiyong , YUAN Yiping , DAI Yi , et al . Robustness measurement approach of job shop scheduling with machine breakdowns
[J]. Computer Integrated Manufacturing Systems , 2020 , 26 (12 ): 3341 -3349 .
[本文引用: 1]
[7]
方佳 , 陆志强 . 考虑设备故障的鲁棒调度计划模板的建模优化
[J]. 上海交通大学学报 , 2020 , 54 (12 ): 1278 -1290 .
[本文引用: 1]
FANG Jia , LU Zhiqiang . Modeling and optimization of robust scheduling template considering equipment failure
[J]. Journal of Shanghai Jiao Tong University , 2020 , 54 (12 ): 1278 -1290 .
[本文引用: 1]
[8]
GAO K Z , YANG F J , ZHOU M C , et al . Flexible job-shop rescheduling for new job insertion by using discrete jaya algorithm
[J]. IEEE Transactions on Cybernetics , 2019 , 49 (5 ): 1944 -1955 .
DOI:10.1109/TCYB.2018.2817240
PMID:29993706
[本文引用: 1]
Rescheduling is a necessary procedure for a flexible job shop when newly arrived priority jobs must be inserted into an existing schedule. Instability measures the amount of change made to the existing schedule and is an important metrics to evaluate the quality of rescheduling solutions. This paper focuses on a flexible job-shop rescheduling problem (FJRP) for new job insertion. First, it formulates FJRP for new job insertion arising from pump remanufacturing. This paper deals with bi-objective FJRPs to minimize: 1) instability and 2) one of the following indices: a) makespan; b) total flow time; c) machine workload; and d) total machine workload. Next, it discretizes a novel and simple metaheuristic, named Jaya, resulting in DJaya and improves it to solve FJRP. Two simple heuristics are employed to initialize high-quality solutions. Finally, it proposes five objective-oriented local search operators and four ensembles of them to improve the performance of DJaya. Finally, it performs experiments on seven real-life cases with different scales from pump remanufacturing and compares DJaya with some state-of-the-art algorithms. The results show that DJaya is effective and efficient for solving the concerned FJRPs.
[9]
王鹏飞 . 群智能优化算法及在流水车间调度问题中的应用研究 [D]. 长春 : 吉林大学 , 2019 .
[本文引用: 1]
WANG Pengfei . Swarm intelligence optimization algorithm and its application in flow shop scheduling problem [D]. Changchun : Jilin University , 2019 .
[本文引用: 1]
[10]
ZHOU B , BAO J S , LI J , et al . A novel knowledge graph-based optimization approach for resource allocation in discrete manufacturing workshops
[J]. Robotics and Computer-Integrated Manufacturing , 2021 , 71 : 102160.
[本文引用: 1]
[11]
CHAKRABORTTY R K , RAHMAN H F , RYAN M J . Efficient priority rules for project scheduling under dynamic environments: A heuristic approach
[J]. Computers & Industrial Engineering , 2020 , 140 : 106287.
[本文引用: 1]
[12]
蒋小康 , 张朋 , 吕佑龙 , 等 . 基于混合蚁群算法的半导体生产线炉管区调度方法
[J]. 上海交通大学学报 , 2020 , 54 (8 ): 792 -804 .
[本文引用: 1]
JIANG Xiaokang , ZHANG Peng , LYU Youlong , et al . Hybrid ant colony algorithm for batch scheduling in semiconductor furnace operation
[J]. Journal of Shanghai Jiao Tong University , 2020 , 54 (8 ): 792 -804 .
[本文引用: 1]
[13]
王金凤 , 陈璐 , 杨雯慧 . 考虑设备可用性约束的单机调度问题
[J]. 上海交通大学学报 , 2021 , 55 (1 ): 103 -110 .
[本文引用: 1]
WANG Jinfeng , CHEN Lu , YANG Wenhui . A single machine scheduling problem considering machine availability constraints
[J]. Journal of Shanghai Jiao Tong University , 2021 , 55 (1 ): 103 -110 .
[本文引用: 1]
[14]
杜轩 , 潘志成 . 聚类差分进化算法求解多目标工艺规划与调度集成问题
[J]. 计算机集成制造系统 , 2019 , 25 (7 ): 1729 -1738 .
[本文引用: 1]
DU Xuan , PAN Zhicheng . Clustering and differential evolution algorithm for solving multi-objectives IPPS problem
[J]. Computer Integrated Manufacturing Systems , 2019 , 25 (7 ): 1729 -1738 .
[本文引用: 1]
[15]
李聪波 , 沈欢 , 李玲玲 , 等 . 面向能耗的多工艺路线柔性作业车间分批优化调度模型
[J]. 机械工程学报 , 2017 , 53 (5 ): 12 -23 .
DOI:10.3901/JME.2017.05.012
[本文引用: 1]
合理的调度方案能有效降低柔性作业车间总能耗。针对柔性作业车间中加工工件种类多、单批工件数量大、加工工艺路线柔性大等问题,研究一种面向能耗的多工艺路线柔性作业车间分批优化调度模型。分析柔性作业车间中工件加工过程能耗特性,以车间总能耗最低和完工时间最小为优化目标建立了多工艺路线柔性作业车间分批优化调度模型,并采用多目标 模拟退火算法对模型进行优化求解。通过算法优化得到的调度方案与经验调度方案的对比分析,验证了该模型的有效性和实用性。
LI Congbo , SHEN Huan , LI Lingling , et al . A batch splitting flexible job shop scheduling model for energy saving under alternative process plans
[J]. Journal of Mechanical Engineering , 2017 , 53 (5 ): 12 -23 .
DOI:10.3901/JME.2017.05.012
[本文引用: 1]
Reasonable scheduling can significantly reduce total energy consumption in flexible job shops. A batch splitting flexible job shop scheduling model for energy saving under alternative process plans is proposed, in terms of flexible job shops with the characteristic of large variety of workpiece, large quantities of batch size and flexibility of process plans. The characteristic of energy consumption composition of workpiece machining is analyzed, and then the batch splitting flexible job shop scheduling model is established, with the optimization objectives of minimizing energy consumption and makespan. Finally the model is solved based on Multi-objective simulated algorithm, verifying the validity of the model by comparing the algorithm optimization scheduling with experimental scheduling.
[16]
PENG C , WU G L , LIAO T W , et al . Research on multi-agent genetic algorithm based on tabu search for the job shop scheduling problem
[J]. PLoS One , 2019 , 14 (9 ): e0223182.
[本文引用: 1]
[17]
KUNDAKCI N , KULAK O . Hybrid genetic algorithms for minimizing makespan in dynamic job shop scheduling problem
[J]. Computers & Industrial Engineering , 2016 , 96 : 31 -51 .
DOI:10.1016/j.cie.2016.03.011
URL
[本文引用: 1]
[18]
SHEN X N , YAO X . Mathematical modeling and multi-objective evolutionary algorithms applied to dynamic flexible job shop scheduling problems
[J]. Information Sciences , 2015 , 298 : 198 -224 .
DOI:10.1016/j.ins.2014.11.036
URL
[本文引用: 1]
[19]
WANG Z , ZHANG J H , YANG S X . An improved particle swarm optimization algorithm for dynamic job shop scheduling problems with random job arrivals
[J]. Swarm and Evolutionary Computation , 2019 , 51 : 100594.
[本文引用: 1]
[20]
张洁 , 张朋 , 刘国宝 . 基于两阶段蚁群算法的带非等效并行机的作业车间调度
[J]. 机械工程学报 , 2013 , 49 (6 ): 136 -144 .
[本文引用: 1]
针对带非等效并行机的作业车间生产调度问题,以制造系统的生产成本、准时交货率等为目标,构建生产调度多目标模型。利用蚁群算法在求解复杂优化问题方面的优越性,建立调度问题与蚁群并行搜索的映射关系,将调度过程分成任务分派和任务排序两个阶段,每个阶段分别设计蚁群优化算法,并将两阶段寻优蚂蚁有机结合,构建一种具有继承关系的两阶段蚁群并行搜索算法,可以大大提高获得较优解的概率,并且压缩求解空间,快速获得较优解。通过均匀试验和统计分析确定算法的关键参数组合,将两阶段蚁群算法应用不同规模的8组算例。结果表明,无论是优化结果还是计算效率,两阶蚁群算法均优于改进的遗传算法。将所提出两阶段蚁群算法应用于实际车间的生产调度,减少了生产过程中工序间等待时间和缩短了产品交付周期。
ZHANG Jie , ZHANG Peng , LIU Guobao . Two-stage ant colony algorithm based job shop scheduling with unrelated parallel machines
[J]. Journal of Mechanical Engineering , 2013 , 49 (6 ): 136 -144 .
[本文引用: 1]
The job shop scheduling problem with unrelated parallel machines is investigated. Multiple objectives such as production cost and on time delivery rate for manufacturing system are taken into account in the proposed scheduling model. Considering the superiority of ant colony algorithm in solving the complex optimization problem, the mapping relationship between scheduling problem and ant colony parallel search is structured. The schedule process consists of two stages: tasks assignment and task sequencing. For each stage, the ant colony optimization is designed respectively so that a two-stage ant colony system(TSACS) with inheritance relationship is proposed. It can compress the solution space and improve the solving speed. Key parameters of TSACS are identified through the uniform experiment and statistical analysis. Computational experiments of 8 examples with different sizes are conducted. The results indicate that the proposed TSACA significantly outperforms the improved genetic algorithm in both optimization results and computational efficiency. The implementation of TSACS in real-life case also demonstrates that the waiting time between operations can be reduced and the product delivery cycle can be shortened.
[21]
周亚勤 , 杨长祺 , 吕佑龙 , 等 . 双资源约束的航天结构件车间生产调度方法
[J]. 机械工程学报 , 2018 , 54 (9 ): 55 -63 .
[本文引用: 1]
ZHOU Yaqin , YANG Changqi , LÜ Youlong , et al . Scheduling the production of aerospace structural parts with dual resource constraints
[J]. Journal of Mechanical Engineering , 2018 , 54 (9 ): 55 -63 .
DOI:10.3901/JME.2018.09.055
[本文引用: 1]
The production scheduling method of aerospace structural parts with dual resource constraints of critical equipment and operator is investigated, where structural parts' processing time varies with the operator's ability, and the key components and processes have specific equipment and operator requirements constraints. A mathematical model of the flexible job shop scheduling with dual resource constraints (FJSSDR) is constructed to describe the equipment、operator and process information of the parts. A nested ant colony-genetic hybrid algorithm (NACGHA) is designed to solve the FJSSDR problem. Aiming at the dual resource selection problem, the mapping relationship between resource selection problem and ant colony parallel search is structured. Genetic algorithm is used to solve the optimal scheduling problem by taking the selected double resource constraints as the processing constraint information of the job. The equipment processing sequence is optimized with avoiding conflict of key operator resources, where the objectives of fullest utilization of critical equipment and makespan minimization are considered. The ant colony algorithm pheromones are updated by integrating the objective value obtained by ant colony and genetic algorithm to improve the performance. At last, a scheduling case of aerospace structural parts production shop is analyzed. The case study demonstrates that the proposed NACGHA method has good performance on FJSSDR in terms of reducing resource total load, avoiding resource conflict and improving the utilization of key equipment.
[22]
汪浩祥 , 严洪森 , 汪峥 . 知识化制造环境中基于双层Q学习的航空发动机自适应装配调度
[J]. 计算机集成制造系统 , 2014 , 20 (12 ): 3000 -3010 .
[本文引用: 1]
WANG Haoxiang , YAN Hongsen , WANG Zheng . Adaptive assembly scheduling of aero-engine based on double-layer Q-learning in knowledgeable manufacturing
[J]. Computer Integrated Manufacturing Systems , 2014 , 20 (12 ): 3000 -3010 .
[本文引用: 1]
[24]
WANG Y D , LIU H , ZHENG W B , et al . Multi-objective workflow scheduling with deep-Q-network-based multi-agent reinforcement learning
[J]. IEEE Access , 2019 , 7 : 39974 -39982 .
DOI:10.1109/ACCESS.2019.2902846
URL
[本文引用: 1]
[25]
LUO S . Dynamic scheduling for flexible job shop with new job insertions by deep reinforcement learning
[J]. Applied Soft Computing , 2020 , 91 : 106208.
[本文引用: 1]
[26]
HE Z L , TRAN K P , THOMASSEY S , et al . Multi-objective optimization of the textile manufacturing process using deep-Q-network based multi-agent reinforcement learning
[J]. Journal of Manufacturing Systems , 2022 , 62 : 939 -949 .
DOI:10.1016/j.jmsy.2021.03.017
URL
[本文引用: 1]
[27]
林时敬 , 徐安军 , 刘成 , 等 . 基于深度强化学习的炼钢车间天车调度方法
[J]. 中国冶金 , 2021 , 31 (3 ): 37 -43 .
[本文引用: 1]
LIN Shijing , XU Anjun , LIU Cheng , et al . Crane scheduling method in steelmaking workshop based on deep reinforcement learning
[J]. China Metallurgy , 2021 , 31 (3 ): 37 -43 .
[本文引用: 1]
[28]
BRANDIMARTE P . Routing and scheduling in a flexible job shop by tabu search
[J]. Annals of Operations Research , 1993 , 41 (3 ): 157 -183 .
DOI:10.1007/BF02023073
URL
[本文引用: 1]
[29]
喻鹏 , 张俊也 , 李文璟 , 等 . 移动边缘网络中基于双深度Q学习的高能效资源分配方法
[J]. 通信学报 , 2020 , 41 (12 ): 148 -161 .
[本文引用: 1]
YU Peng , ZHANG Junye , LI Wenjing , et al . Energy-efficient resource allocation method in mobile edge network based on double deep Q-learning
[J]. Journal on Communications , 2020 , 41 (12 ): 148 -161 .
[本文引用: 1]
[30]
牟乃夏 , 徐玉静 , 李洁 , 等 . 遗传禁忌搜索算法收敛性和时间复杂度分析
[J]. 河南理工大学学报(自然科学版) , 2018 , 37 (4 ): 118 -122 .
[本文引用: 1]
MOU Naixia , XU Yujing , LI Jie , et al . Analyses of convergence and time complexity of genetic tabu search algorithm
[J]. Journal of Henan Polytechnic University (Natural Science) , 2018 , 37 (4 ): 118 -122 .
[本文引用: 1]
A survey on knowledge graphs: Representation, acquisition, and applications
1
2022
... 柔性作业车间调度需要利用实时性状态数据来驱动,但目前系统对于车间资源中离散程度高、关联性差的数据无法很好地利用.在处理大规模复杂数据方面,知识图谱技术[1 -2 ] 能够表达更丰富的语义,对数据进行语义信息集成与表示.认知制造[3 ] 作为下一代智能制造[4 ] ,利用感知-认知系统实现信息-物理系统的交互.知识图谱技术与认知制造的结合应用增强了车间动态调度策略优化与知识之间的联通性,一定程度上提高了决策方案的科学性.如何利用知识图谱提供的调度知识实现动态调度决策优化是值得研究的课题. ...
Knowledge graph completeness: A systematic literature review
1
2021
... 柔性作业车间调度需要利用实时性状态数据来驱动,但目前系统对于车间资源中离散程度高、关联性差的数据无法很好地利用.在处理大规模复杂数据方面,知识图谱技术[1 -2 ] 能够表达更丰富的语义,对数据进行语义信息集成与表示.认知制造[3 ] 作为下一代智能制造[4 ] ,利用感知-认知系统实现信息-物理系统的交互.知识图谱技术与认知制造的结合应用增强了车间动态调度策略优化与知识之间的联通性,一定程度上提高了决策方案的科学性.如何利用知识图谱提供的调度知识实现动态调度决策优化是值得研究的课题. ...
Cognitive manufacturing in industry 4.0 toward cognitive load reduction: A conceptual framework
1
2020
... 柔性作业车间调度需要利用实时性状态数据来驱动,但目前系统对于车间资源中离散程度高、关联性差的数据无法很好地利用.在处理大规模复杂数据方面,知识图谱技术[1 -2 ] 能够表达更丰富的语义,对数据进行语义信息集成与表示.认知制造[3 ] 作为下一代智能制造[4 ] ,利用感知-认知系统实现信息-物理系统的交互.知识图谱技术与认知制造的结合应用增强了车间动态调度策略优化与知识之间的联通性,一定程度上提高了决策方案的科学性.如何利用知识图谱提供的调度知识实现动态调度决策优化是值得研究的课题. ...
Smart manufacturing process and system automation: A critical review of the standards and envisioned scenarios
1
2020
... 柔性作业车间调度需要利用实时性状态数据来驱动,但目前系统对于车间资源中离散程度高、关联性差的数据无法很好地利用.在处理大规模复杂数据方面,知识图谱技术[1 -2 ] 能够表达更丰富的语义,对数据进行语义信息集成与表示.认知制造[3 ] 作为下一代智能制造[4 ] ,利用感知-认知系统实现信息-物理系统的交互.知识图谱技术与认知制造的结合应用增强了车间动态调度策略优化与知识之间的联通性,一定程度上提高了决策方案的科学性.如何利用知识图谱提供的调度知识实现动态调度决策优化是值得研究的课题. ...
Review of job shop scheduling research and its new perspectives under Industry 4.0
1
2019
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
考虑机器故障的作业车间调度方案鲁棒测度方法
1
2020
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
考虑机器故障的作业车间调度方案鲁棒测度方法
1
2020
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
考虑设备故障的鲁棒调度计划模板的建模优化
1
2020
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
考虑设备故障的鲁棒调度计划模板的建模优化
1
2020
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
Flexible job-shop rescheduling for new job insertion by using discrete jaya algorithm
1
2019
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
1
2019
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
1
2019
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
A novel knowledge graph-based optimization approach for resource allocation in discrete manufacturing workshops
1
2021
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
Efficient priority rules for project scheduling under dynamic environments: A heuristic approach
1
2020
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
基于混合蚁群算法的半导体生产线炉管区调度方法
1
2020
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
基于混合蚁群算法的半导体生产线炉管区调度方法
1
2020
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
考虑设备可用性约束的单机调度问题
1
2021
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
考虑设备可用性约束的单机调度问题
1
2021
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
聚类差分进化算法求解多目标工艺规划与调度集成问题
1
2019
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
聚类差分进化算法求解多目标工艺规划与调度集成问题
1
2019
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
面向能耗的多工艺路线柔性作业车间分批优化调度模型
1
2017
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
面向能耗的多工艺路线柔性作业车间分批优化调度模型
1
2017
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
Research on multi-agent genetic algorithm based on tabu search for the job shop scheduling problem
1
2019
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
Hybrid genetic algorithms for minimizing makespan in dynamic job shop scheduling problem
1
2016
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
Mathematical modeling and multi-objective evolutionary algorithms applied to dynamic flexible job shop scheduling problems
1
2015
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
An improved particle swarm optimization algorithm for dynamic job shop scheduling problems with random job arrivals
1
2019
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
基于两阶段蚁群算法的带非等效并行机的作业车间调度
1
2013
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
基于两阶段蚁群算法的带非等效并行机的作业车间调度
1
2013
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
双资源约束的航天结构件车间生产调度方法
1
2018
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
双资源约束的航天结构件车间生产调度方法
1
2018
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
知识化制造环境中基于双层Q学习的航空发动机自适应装配调度
1
2014
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
知识化制造环境中基于双层Q学习的航空发动机自适应装配调度
1
2014
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
DRL-scheduling: An intelligent QoS-aware job scheduling framework for applications in clouds
1
2018
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
Multi-objective workflow scheduling with deep-Q-network-based multi-agent reinforcement learning
1
2019
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
Dynamic scheduling for flexible job shop with new job insertions by deep reinforcement learning
1
2020
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
Multi-objective optimization of the textile manufacturing process using deep-Q-network based multi-agent reinforcement learning
1
2022
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
基于深度强化学习的炼钢车间天车调度方法
1
2021
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
基于深度强化学习的炼钢车间天车调度方法
1
2021
... 近年来,已有众多学者针对动态柔性作业车间调度问题[5 ] 进行研究,主要在鲁棒式方法、重调度法、智能算法等方面展开.鲁棒式方法[6 -7 ] 对生产扰动事件的响应速度慢,历史信息无法得到重用;重调度方法[8 ] 可以对扰动事件快速响应,但无法很好利用工艺信息之间的关系;相比之下智能算法[9 -10 ] 更适用于处理作业车间的动态调度问题.通过智能算法完成自适应车间调度问题的方法有优先级规则方法[11 ] 、启发式算法[12 ] 、遗传算法(Genetic Algorithm, GA)[13 ] 、进化算法[14 ] 、模拟退火[15 ] 、禁忌搜索方法[16 ] 等.在考虑插单任务的动态调度研究中,Kundakci等[17 ] 针对动态作业车间调度问题中的插单任务、机器故障等,引入有效的混合遗传算法求解此类问题的最大完工时间;Shen等[18 ] 针对柔性作业车间调度的新工件插入和机床故障等问题,提出了基于多目标进化算法的主动-被动调度方法;Wang等[19 ] 提出了一种改进的粒子群算法用于工件随机到达的动态柔性作业车间调度问题的求解.为了实现多约束下调度问题的多目标优化,一些研究学者将调度过程进行分步骤处理.张洁等[20 ] 提出针对调度过程的任务分派和任务排序两阶段,构建具有继承关系的两阶段蚁群并行搜索算法;周亚勤等[21 ] 提出一种嵌套式蚁群-遗传混合算法解决关键设备和人员双资源约束下的航天结构件柔性作业车间调度问题;汪浩祥等[22 ] 利用强化学习的实时性和知识化制造系统的自适应性,将航空发动机装配调度分为分派机器和工序调度两个阶段.现有的调度规则大多无法进行自适应调整以应对动态场景,但随着机器学习的快速发展,可通过学习生成复杂调度策略的强化学习方法已经产生,能赋予调度规则较强的自适应和学习能力.进一步,深度Q网络(Deep Q Network, DQN)结合了具有感知能力的深度学习和决策能力的强化学习,融合了深度神经网络能够利用历史数据在线学习和强化学习从而依据状态灵活选取决策行为的优点,更适用于柔性作业车间调度的决策过程[23 ] .Wang等[24 ] 在多智能体强化学习环境中运用DQN指导基础设施云上多工作流的调度,分别将最大完工时间和成本两个优化目标抽象成两个智能体.Luo[25 ] 研究了用DQN解决以总延期最小为目标的新任务插入下的动态柔性作业车间调度问题.He等[26 ] 针对纺织过程优化问题转化为随机博弈的新框架,在DQN网络算法中将多优化目标抽象成多智能体.林时敬等[27 ] 针对炼钢车间天车动态调度事件,也运用DQN算法将多天车抽象成多智能体协同天车操作动作序列.但现在基于DQN的车间调度方法中,所需调度策略的优化过程与调度相关数据的关联度不够,因此考虑在调度算法中利用系统提供的语义知识优化车间动态调度能力. ...
Routing and scheduling in a flexible job shop by tabu search
1
1993
... 本研究根据Brandimarte[28 ] 提出的方法生成一系列柔性作业车间动态调度问题标准算例,将本文问题进行简化,每种加工任务的工序数相同,根据不同的工序随机选择加工设备,然后在工序加工时间区间内随机生成对应时间(见表5 ). ...
移动边缘网络中基于双深度Q学习的高能效资源分配方法
1
2020
... (1) RA[29 ] .以先到先加工原则为约束,随机选择设备需加工工件并进行资源分配,设找到可行解需要的迭代次数为T RA ,因此RA的时间复杂度可近似描述为O (T RA K ). ...
移动边缘网络中基于双深度Q学习的高能效资源分配方法
1
2020
... (1) RA[29 ] .以先到先加工原则为约束,随机选择设备需加工工件并进行资源分配,设找到可行解需要的迭代次数为T RA ,因此RA的时间复杂度可近似描述为O (T RA K ). ...
遗传禁忌搜索算法收敛性和时间复杂度分析
1
2018
... (2) GA[30 ] .遗传算法一般很难收敛到全局最优解,因此算法的停止根据设置的迭代次数,设GA的最大迭代次数为T GA ,种群数量为λ ,则GA的时间复杂度可近似描述为O (T GA λK ). ...
遗传禁忌搜索算法收敛性和时间复杂度分析
1
2018
... (2) GA[30 ] .遗传算法一般很难收敛到全局最优解,因此算法的停止根据设置的迭代次数,设GA的最大迭代次数为T GA ,种群数量为λ ,则GA的时间复杂度可近似描述为O (T GA λK ). ...