-
油井结蜡是石油开发和开采过程中严重影响油井正常生产的现象,通常会造成油井的阻塞,更为严重时会造成蜡卡停井及负荷过重烧电机等现象,导致油井停产维护,大大增加了油井开采成本[1-2]。目前,油井开采中主要采取定期加药、热洗井等清蜡措施提高油井开采效率[3]。然而实际生产中,由于人工对油井的结蜡监测分析不及时、不到位,往往采取粗放生产管理方式,使得油井洗井周期的确定存在一定的随机性和盲目性,导致广泛存在油井在没有明显结蜡特征的状态下,进行了大量洗井作业的过度洗井现象,造成资源浪费。所以,监测油井结蜡状态,确定合理的油井清洗周期和清蜡效果评价标准,对于提高油井开采效率,降低生产成本有着重要的意义。随着数字油田建设的推进,用人工智能技术进行采油工艺措施决策的条件越来越成熟。
国内外开展了利用人工智能预测油井结蜡工况的研究,人工神经网络、循环神经网络等各种基于智能算法模拟的蜡沉积预测模型得到了广泛的应用。这种模型可预测蜡在不同条件下的沉积速率,根据原始数据的输入,使用适当的人工智能算法来模拟蜡沉积速率和影响因素之间的关系,而不需要仔细研究特定的蜡沉积机理[4]。周诗岽等[5]采用BP神经网络和逐步回归分析方法建立蜡沉积速率模型,证明了基于BP神经网络的蜡沉积速率模型具有较高的精度。Behbahani等[6]采用基于多层感知器(MLP)拓扑结构的人工神经网络(ANN)模型计算蜡的析出量,相比于机理模型[7-8]精度更高。邴绍强[9]分析油井生产参数的相关性建立结蜡规则模型,利用长短时记忆神经网络对油井结蜡综合指数做出预测,具有较高的精度。目前,结合对结蜡定量分析的清蜡效果评价的研究相对较少,缺乏对清蜡效果的有效的定量评价。影响油井结蜡的因素很多,并且具有非常复杂的非线性关系,示功图的时序变化直接反映了油井结蜡状况[10-11]。笔者利用人工智能的算法模型,通过研究抽油机井示功图及生产数据变化规律与结蜡等级的定量关系,建立了结蜡等级预测预警模型,可实时预测油井结蜡等级并超前预警,从而帮助人们合理选择清蜡周期,在此基础上构建了结蜡井清蜡效果评价指数Q,对清蜡的效果做出有效的定量评价。
-
构建油井结蜡等级预测模型和热洗效果评价指数的技术思路为:(1)收集蜡卡井的时序示功图和生产参数,对各项参数进行归一化处理;(2)通过残差卷积神经网络提取示功图的图形特征,结合电参、井参作为表征油井结蜡程度的特征向量;(3)使用聚类算法对特征向量聚类,定义数据集中样本的油井结蜡等级,划分训练集和测试集;(4)利用LSTM神经网络训练样本集,建立油井结蜡等级的预测模型;(5)基于油井结蜡等级预测模型构建洗井清蜡效果评价指数。主要流程如图1所示。
-
残差卷积神经网络(ResNet)[12]是在普通卷积神经网络的相邻几层中引入了一个包含恒映射(或者线性变换映射)的“快捷连接(Shortcut)”构建而成。 “Shortcut”的引入使得深层卷积神经网络具有更加强大表征能力,从而在图像分类、识别任务中更好地提取图形中的特征。构建油井结蜡预测模型需要提取示功图的图形特征,使用残差卷积神经网络能够自动提取示功图图形特征,避免手工设计示功图图形特征提取方法[13]。
-
Elman[14]提出的循环神经网络(Recurrent Neural Networ, RNN),主要用于处理序列数据, 其最大的特点就是神经元在某时刻的输出可以作为输入再次输入到神经元, 这种串联的网络结构非常适合于时间序列数据, 可以保持数据中的依赖关系,RNN已经被广泛用于各种与时间序列相关的任务中[15-17]。但在实际应用中, 对于长序列预测问题,RNN常面临训练方面的难题,根据文献[18-19],RNN模型不能保持隐藏层的长期记忆,且无法克服梯度消失问题,导致网络无法收敛。
为解决梯度消失问题及保持隐藏层的长期记忆,在RNN的基础上提出了长短期记忆 (Long Short-Term Memory, LSTM) [20]网络。LSTM网络使用了三个“门控”来控制不同时刻的状态和输出,通过“门控”结构将短期记忆与长期记忆结合起来,可以缓解梯度消失的问题。LSTM结构在时间上的展开与RNN完全一致,区别在于其中Cell的不同,LSTM的Cell计算节点包含更多结构,包括输入门、遗忘门和输出门。通过在隐藏层的计算节点中引入门控机制,LSTM在结构上天然地克服了梯度消失的问题,具有更多的参数来控制模型;通过4倍于RNN的参数量,可以更加精细地预测时间序列变量。油井结蜡的预测是一个长期的时序信息处理过程,因此,本文选用LSTM作为油井结蜡的预测模型。
-
油井结蜡后会引起示功图、井口生产数据(井口回压、套压和温度)和电参数据(上行电流、下行电流、A相电流、A相平均电流、AB相电压、功率因数、无功功率、周期内有功功率平均值和周期内无功功率平均值)等油井生产参数发生变化,这些参数的时序变化直接或间接反映了油井的结蜡状况。其中,示功图是井下工况最直接的表现,图2为某油井的正常示功图和严重结蜡时的示功图对比。可以观察到油井结蜡主要表现为示功图形状“膨胀”,上平均载荷增大,下平均载荷减小,图形面积增大。为获得表征油井结蜡程度的特征数据,提取示功图图形的特征向量,结合采集的生产参数,作为油井结蜡预测模型的输入特征向量,然后基于LSTM建立结蜡程度的预测模型。
-
从大量油井历史生产数据中获得所有蜡卡井一个结蜡周期内高质量的历史生产参数,包含示功图数据、电参数及井口参数,模型建立需要采集的各项参数见表1。
表 1 建立预测模型采集的参数
Table 1. Parameters collected for establishing a prediction model
符号 参数 单位 x 示功图位移 m y 示功图载荷 kN z1 井口回压 MPa z2 井口套压 MPa z3 井口温度 ℃ z4 上行电流 A z5 下行电流 A z6 A相电流 A z7 A相平均电流 A z8 周期内有功功率平均值 kw z9 周期内无功功率平均值 kw z10 AB相电压 V z11 功率因数 z12 无功功率 kw 结蜡周期是上次洗井至发生蜡卡的时间段,每个数据采集时间间隔为1 d。同时假设该井满足以下条件:(1)上次洗井充分,洗井后井筒内基本无结蜡残留;(2)上次洗井后至发生蜡卡期间未采取洗井清蜡措施,且结蜡程度是逐渐增加的;(3)油井未发生其他重大故障,该井各项采集参数的变化主要受结蜡影响。对所有数据进行归一化处理,以消除单位、数值范围不同带来的影响。
示功图是图形,还需要提取示功图的图形特征转化为与生产参数一致的特征向量,基于开源框架pytorch构建18层残差卷积神经网络[12]提取示功图图形特征,其中全连接层使用50个神经单元,该层输出就代表提取的示功图图形特征。为使网络具有针对示功图图形的特征提取能力,使用10种工况的示功图样本预训练网络参数,网络模型训练的优化方法为Adam,设置Batch size为128,学习率(learning rate)为 0.001,训练世代为10。
在某时刻T,由卷积神经网络提取的示功图图形特征P(50维),结合该时刻的生产参数Z(12维),得到表征该时刻油井结蜡程度的特征向量
$ {X}_{T}=[P,Z] $ ,其对应T时刻的油井结蜡程度记为$ {Y}_{T} $ 。为定量化描述油井结蜡程度,将一个结蜡周期内的油井结蜡程度分为5个等级,1级代表井基本无结蜡,5级为油井结蜡程度极端严重,已发生或将要发生蜡卡,油井结蜡等级随时间依次增加,处于同一结蜡等级的$ {X}_{T} $ 最为相似。为获得结蜡周期内每个$ {X}_{T} $ 对应的$ {Y}_{T} $ ,使用k-means聚类算法对其聚类,设定聚类数为5,图3展示了5口井一个结蜡周期内聚类的结果,一个结蜡周期内油井结蜡等级逐渐上升。表2展示了聚类后一口井的结蜡等级及其对应时间段内的示功图形状变化范围,定义了不同结蜡等级对应的结蜡程度的标准。表 2 油井结蜡程度标准
Table 2. Standard of paraffin deposition in oil wells
结蜡等级 结蜡程度 示功图 1级 基本无结蜡 2级 有轻微结蜡或
有结蜡趋势3级 轻度结蜡,蜡沉积
速度上升4级 中度结蜡 5级 重度结蜡或
已发生蜡卡一口抽油机井的结蜡等级总是这5个等级中的一种,建立预测模型所需要的样本标签以及每个时刻的输出都是代表结蜡等级的one-hot向量。经过数据预处理后得到油井结蜡的时序特征向量X以及对应的标签Y作为建立LSTM预测模型的数据集,其中70%作为训练集,30%作为测试集。
-
将一口井的结蜡变化归结为周期性的重复过程,一口井洗井清蜡后,结蜡等级逐渐上升,若无人为干预,油井将会延续其结蜡趋势直至发生严重结蜡或蜡卡。每口井在一个完整的结蜡周期内处于各等级的时间不同,周期长短也不同。一个周期内油井未来一段时间的结蜡等级变化可通过当前及上一段时间的油井特征参数进行预测,这是一个从变化时序特征中提取信息,对下一段时序数据进行预测的过程。
因此,需要基于LSTM构建序列到序列的网络模型[21]作为油井结蜡等级的预测模型,序列到序列模型通过对输入序列特征进行编码,提取序列中丰富的时序变化信息,能更好地进行长时期的预测。模型输入为当前及过去一段时间的油井特征向量序列X,模型输出为未来一段时间的结蜡等级序列Y,图4展示了这个过程。
$$ \mathit{X}=\{{X}_{T-k},\cdots ,{X}_{T-2},{X}_{T-1},{X}_{T}\} $$ (1) $$ \mathit{Y}=\{{Y}_{T+1},{Y}_{T+2},{Y}_{T+3},\cdots ,{Y}_{T+l}\} $$ (2) T表示当前时刻,输入特征向量时序长度由k控制,输出向量时序长度由l控制,考虑到数据集中的油井结蜡周期平均在100 d左右,所以设置 k=20, l=80。对于X的时序长度小于k的,向前重采样补齐。基于pytorch构建LSTM的序列到序列模型,模型训练优化器使用基于一阶梯度的随机目标函数优化算法Adam,其中学习率设置为0.001,decay设置为8×10−4。此外,为了防止过拟合,训练过程中使用dropout[22]机制,其值设为0.1,训练的batch-size为16,训练过程中loss变化见图5。可以看出,基于LSTM的油井结蜡预测模型是收敛的。通过该预测模型,使用油井采集的示功图数据和生产数据,就可以预测未来一段时间的油井结蜡程度,提前对油井发生严重结蜡(5级结蜡)发出预警,指导技术人员精确把握油井结蜡趋势、发展程度和清蜡时机。
-
模型预测的输出为代表未来80 d油井结蜡等级的序列,即
$\widehat{Y}=\{{Y}_{1},{Y}_{2},\cdots ,{Y}_{80}\}$ ,$ {Y}_{k} $ 代表未来第k天结蜡等级的one-hot向量,通过该输出序列,可以知道各结蜡等级在未来发生时间,通过与对应结蜡等级实际发生时间的真实值对比,得到预测值与真实值的绝对值差$ {\mathrm{\Delta }K}_{i} $ (i=1, 2, ···, 4)(见图6),作为评价该模型性能的指标,绝对值的差越小表明模型性能越好,模型预测更准确,预测值的可信度更高。图 6 模型预测值与真实值对比示意图
Figure 6. Schematic diagram of the comparison between the predicted values of the model and the actual values
为全面评价该模型对结蜡等级预测的性能,本文定义5个评价指标,如表3所示。以
$ {K}_{1} $ 为例,计算方式为累加所有样本二级结蜡等级发生时间的预测值与真实值差的绝对值$ \mathrm{\Delta }{K}_{1} $ ,再除以样本数,得到对应结蜡等级的预测误差。平均误差为各等级结蜡预测误差和的平均,反映了模型的整体性能。从表3中看出,K1、K2、K3、K4误差都为2~4 d,平均误差为3.2 d,表明模型预测的各结蜡等级发生的时间与真实值误差不大,模型泛化性能较好,能达到现场实际需求的精度。表 3 模型评价指标及测试结果
Table 3. Model evaluation indicators and testing results
评价指标 计算方式 误差值 二级结蜡预测误差K1 $ {K}_{1}={\displaystyle\sum _{i=1}^{n}\mathrm{\Delta }{K}_{1}}\Big/{n} $ 2.6 三级结蜡预测误差K2 $ {K}_{2}={\displaystyle\sum _{i=1}^{n}\mathrm{\Delta }{K}_{2}}\Big/{n} $ 3.2 四级结蜡预测误差K3 $ {K}_{3}={\displaystyle\sum _{i=1}^{n}\mathrm{\Delta }{K}_{3}}\Big/{n} $ 3.6 五级结蜡预测误差K4 $ {K}_{4}={\displaystyle\sum _{i=1}^{n}\mathrm{\Delta }{K}_{4}}\Big/{n} $ 3.4 平均预测误差K $ K=\dfrac{{K}_{1}+{K}_{2}+{K}_{3}+{K}_{4}}{4} $ 3.2 -
热洗是油田普遍采用的清蜡措施,热洗清蜡主要是通过在油套环空内注入热水或配置好的药剂溶液,反循环洗井,热水注入和抽汲同时进行。当前,热洗工艺对于清蜡的效果评价没有一个科学有效的定量化指标,热洗清蜡作业人员难以获得有效的反馈。本文结合油井结蜡等级预测模型,构建热洗作业的清蜡效果评价指数,对结蜡井每次的热洗作业效果做出有效的定量化评价。
评价一口结蜡井热洗作业的清蜡效果,可以通过洗井前后油井结蜡等级的变化来制定评价指标。一口严重结蜡井在实施洗井措施后,其结蜡等级越低,说明其清蜡效果越好。本次洗井后,下一次发生严重结蜡的时间有所延长,也反映了本次洗井彻底,效果较好。洗井前后结蜡等级的下降幅度可以作为洗井清蜡效果的即时性评价,洗井周期的延长代表了洗井清蜡效果的长期性评价。因此可以依据这2个变量构建结蜡井的热洗效果定量化评价指数Q,其表达式为
$$ Q=\alpha\left({y}_{\mathrm{a}}-{y}_{\mathrm{b}}\right)/4+\beta ({T}_{\mathrm{r}}-{T}_{\mathrm{l}})/{A}_{\mathrm{T}} $$ (3) 式中,ya为热洗清蜡前油井的结蜡等级;yb为热洗清蜡后油井的结蜡等级;Tr为上个周期热洗清蜡后油井到达严重结蜡的时长,d;Tl为本次洗井后油井到达严重结蜡的时长,d。其中,ya、Tl已知,yb、Tr可通过油井结蜡等级预测模型得到,为平衡Q的2部分量纲不同所带来的影响,分别进行归一化,第1部分除以等级下降最大值4,第2部分除以该区块结蜡井的平均清蜡周期AT。权重指数
$ \alpha 、\beta $ 决定构成Q的2部分所占的比例,为使Q值归一化到0~1的范围,设置$ \alpha +\beta =1 $ 。$ \alpha $ 、$ \beta $ 是评价指数Q计算式中设置的超参数,$ \alpha $ 越大则表明Q值计算以洗井清蜡效果的即时性评价为主,结蜡等级下降幅度大小是洗井效果最直接的反映,而下次油井发生严重结蜡时间的延长是其从属效应,所以应设置$ \alpha >\beta $ ,推荐设置$ \alpha \in[0.8,\mathrm{ }0.9] $ 。每次洗井清蜡作业后,都可以结合油井结蜡等级变化和预测模型计算其Q值,给出洗井清蜡效果的定量化评价,为洗井清蜡周期的确定提供参考。
-
2020年3月开始在长庆油田某作业区进行数据驱动的抽油机井结蜡预测及清蜡制度优化现场试验,截至2020年9月,该区块未出现蜡卡躺井问题,通过该预测模型指导洗井作业,累计避免了蜡卡躺井15井次,延长了该区块平均洗井周期16 d。
以长庆油田某井为例,该井深1 040 m,日产液58 t,井底流压2.88 MPa,动液面深510 m,平均洗井周期65 d。2020年6月1日洗井后,根据LSTM 建立的结蜡等级预测模型,输入步长为20 d,输出步长为80 d,利用6月1日—6月21日的油井生产参数预处理后作为模型输入数据,得到未来80 d内油井结蜡等级的预测值。图7为该井6月22日—8月20日油井结蜡等级的真实值与预测值的对比,可以看出,预测值与真实值基本吻合,表明模型预测变化是准确的。
图 7 长庆油田某井结蜡等级预测结果
Figure 7. Prediction result of paraffin deposition level in a well in Changqing Oilfield
模型预测油井结蜡等级在59 d后(8月20日)达到5级结蜡,此时系统发出严重结蜡预警及采取清蜡作业的建议,观察该井示功图发现明显“膨胀”,油井确有发生蜡卡的趋势,综合分析生产情况,于8月23日对该井实施热洗清蜡作业,热洗时间3 h,热洗液注入温度85 ℃,热洗注入流量15 m3/d。措施后结蜡等级降为一级,计算本次清蜡效果评价指数Q=0.91,Q值较大,表明本次洗井清蜡效果良好,观察到清蜡后实测示功图(图8)及各项指标完全恢复正常,说明洗井清蜡效果良好,与Q值对洗井效果的评价一致。
现场应用结果表明,本文建立的油井结蜡等级预测模型可以准确地预测油井结蜡等级的发展变化,把握油井结蜡程度及发展趋势,既避免了对结蜡程度不清楚造成的过度洗井,又能够通过预测油井到达5级结蜡的时间,指导现场人员及时采取有效清蜡措施,避免油井蜡卡躺井。
-
(1)利用卷积神经网络提取的示功图图形特征,结合12项生产参数的特征向量能有效地表征油井结蜡程度,通过聚类算法对油井结蜡程度进行等级划分,以序列特征向量作为输入,基于LSTM构建的油井结蜡等级预测模型能够对油井结蜡等级做出精确的长期预测。
(2)本文构建的模型在测试集上具有良好的泛化能力,具有较小的预测误差,能准确预测油井各结蜡等级发生时间,指导现场人员把握油井结蜡趋势,确定合理的洗井清蜡时机。
(3)现场应用结果表明,数据驱动的抽油机井结蜡预测模型能实现油井结蜡程度的定量化预测,从而指导现场人员进行洗井周期的决策,有效避免了蜡卡躺井,同时延长了油井免洗周期,基于预测模型构建的洗井清蜡效果定量化评价指数,对评价热洗清蜡效果具有较好的指导作用。
(4)应用人工智能技术的抽油机井结蜡预测预警方法、洗井周期决策实现了抽油机井清蜡制度由传统的业务驱动向数据驱动的转变,对于开展油气设备的智能化预测性维护具有借鉴意义。
Prediction of paraffin deposition and evaluation of paraffin removal effect for pumping wells driven by timing indicator diagram
-
摘要: 抽油机井结蜡是一个渐变的过程,序列示功图变化可以反映油井结蜡的程度。现场根据经验来预测结蜡程度和确定结蜡井热洗清蜡制度,决策能力低、效果差。应用人工智能技术认识结蜡程度与抽油机井示功图、电机运行参数、井口生产参数的关联关系,开展数据驱动的抽油机井结蜡预测预警方法和热洗效果评价的研究。应用残差卷积神经网络(ResNet)提取结蜡井示功图特征,使用聚类算法确定其结蜡等级,融合提取的示功图图形特征和12项生产参数建立样本集,利用长短时记忆神经网络(LSTM)构建序列到序列网络结构模型对样本集进行训练,建立结蜡等级预测模型,定量预测抽油机井的结蜡等级,并构建了油井清蜡效果评价指数Q。研究结果表明,建立的抽油机井结蜡预测模型和清蜡效果评价指数实现了油井结蜡等级的定量化预测、洗井周期的决策、清蜡效果的有效评价,对精准确定清蜡时机、评价清蜡效果具有较好的指导作用,有效避免了蜡卡躺井,同时延长了油井免洗周期。Abstract: The paraffin deposition on pumping well is a gradual process, and the changes in timing indicator diagram can reflect the degree of paraffin deposition in oil wells. Normally, it is usually to predict paraffin deposition degree and to determine thermal washing system for paraffin removal by using on-site experience, with low decision-making ability and poor paraffin removal effect. With the help of artificial intelligence technology, the correlation relationship between paraffin deposition degree and production parameters such as indicator diagram of pumping wells, motor operating parameters, and wellhead production parameters can be understood. Then, the researches on predicting, warning paraffin deposition and on evaluating thermal washing effect for pumping wells were performed driven by data. Extract the features of indicator diagram for paraffin deposition wells by using the residual convolutional neural network (ResNet), determine the paraffin deposition level by using the clustering algorithm, establish a sample set by combining the graphic features of the extracted indicator diagram with the 12 production parameters, train the sample set with a network structure model that constructed from sequence to sequence with long and short-term memory neural network (LSTM), establish a paraffin deposition level prediction model, quantitatively predict the paraffin deposition level for pumping wells, and construct an index Q evaluating paraffin removal effect for oil wells. The research results show that the established model predicting paraffin deposition and the constructed index evaluating paraffin removal effect for paraffin deposition wells have achieved quantitative prediction of paraffin precipitation level, decision-making of well cleaning cycle, and effective evaluation of paraffin removal effect. There is a perfect role for the established models to accurately guide paraffin removal timing and to guide paraffin removal evaluation, which may effectively avoid the paraffin stuck in the well and prolonging the no-clean cycle for oil wells.
-
表 1 建立预测模型采集的参数
Table 1. Parameters collected for establishing a prediction model
符号 参数 单位 x 示功图位移 m y 示功图载荷 kN z1 井口回压 MPa z2 井口套压 MPa z3 井口温度 ℃ z4 上行电流 A z5 下行电流 A z6 A相电流 A z7 A相平均电流 A z8 周期内有功功率平均值 kw z9 周期内无功功率平均值 kw z10 AB相电压 V z11 功率因数 z12 无功功率 kw 表 2 油井结蜡程度标准
Table 2. Standard of paraffin deposition in oil wells
结蜡等级 结蜡程度 示功图 1级 基本无结蜡 2级 有轻微结蜡或
有结蜡趋势3级 轻度结蜡,蜡沉积
速度上升4级 中度结蜡 5级 重度结蜡或
已发生蜡卡表 3 模型评价指标及测试结果
Table 3. Model evaluation indicators and testing results
评价指标 计算方式 误差值 二级结蜡预测误差K1 $ {K}_{1}={\displaystyle\sum _{i=1}^{n}\mathrm{\Delta }{K}_{1}}\Big/{n} $ 2.6 三级结蜡预测误差K2 $ {K}_{2}={\displaystyle\sum _{i=1}^{n}\mathrm{\Delta }{K}_{2}}\Big/{n} $ 3.2 四级结蜡预测误差K3 $ {K}_{3}={\displaystyle\sum _{i=1}^{n}\mathrm{\Delta }{K}_{3}}\Big/{n} $ 3.6 五级结蜡预测误差K4 $ {K}_{4}={\displaystyle\sum _{i=1}^{n}\mathrm{\Delta }{K}_{4}}\Big/{n} $ 3.4 平均预测误差K $ K=\dfrac{{K}_{1}+{K}_{2}+{K}_{3}+{K}_{4}}{4} $ 3.2 -
[1] 邢敦通, 张金元. 原油结蜡规律及清防蜡工艺的研究[J]. 石化技术, 2017, 24(2):15,22. doi: 10.3969/j.issn.1006-0235.2017.02.013 XING Duntong, ZHANG Jinyuan. Rules of wax deposition crude oil and wax removal[J]. Petrochemical Industry Technology, 2017, 24(2): 15,22. doi: 10.3969/j.issn.1006-0235.2017.02.013 [2] 康宜恩, 黄海, 孙杰. 帅垛油田油井蜡卡规律研究与治理对策[J]. 油气藏评价与开发, 2014, 4(6):53-56. doi: 10.3969/j.issn.2095-1426.2014.06.012 KANG Yien, HUANG Hai, SUN Jie. Wax locking regular and its countermeasure of Shuaiduo oilfield[J]. Reservoir Evaluation and Development, 2014, 4(6): 53-56. doi: 10.3969/j.issn.2095-1426.2014.06.012 [3] 王国正, 崔奋, 顾兆林, 等. 热洗清蜡工艺技术对比研究及应用[J]. 石油矿场机械, 2014, 43(9):81-85. doi: 10.3969/j.issn.1001-3482.2014.09.022 WANG Guozheng, CUI Fen, GU Zhaolin, et al. Comparative study and application of thermal well-flushing paraffin removal technology[J]. Oil Field Equipment, 2014, 43(9): 81-85. doi: 10.3969/j.issn.1001-3482.2014.09.022 [4] BURGER E D, PERKINS T K, STRIEGLER J H. Studies of wax deposition in the trans Alaska pipeline[J]. Journal of Petroleum Technology, 1981, 33(6): 1075-1086. doi: 10.2118/8788-PA [5] 周诗岽, 吴明, 王俊. 基于人工神经网络的原油管道蜡沉积速率模型[J]. 西安石油大学学报(自然科学版), 2004, 19(1):38-40. doi: 10.3969/j.issn.1673-064X.2004.01.009 ZHOU Shidong, WU Ming, WANG Jun. Wax deposition rate model for crude oil pipeline based on neural network[J]. Journal of Xi’an Shiyou University(Natural Science), 2004, 19(1): 38-40. doi: 10.3969/j.issn.1673-064X.2004.01.009 [6] BEHBAHANI T J, BEIGI A A M, TAHERI Z, et al. Investigation of wax precipitation in crude oil: experimental and modeling[J]. Petroleum, 2015, 1(3): 223-230. doi: 10.1016/j.petlm.2015.07.007 [7] HSU J J C, SANTAMARIA M M, BRUBAKER J P. Wax deposition of waxy live crudes under turbulent flow conditions[C]//Paper presented at the SPE Annual Technical Conference and Exhibition, September 1994, New Orleans, Louisiana: SPE-28480-MS. [8] 黄启玉, 李瑜仙, 张劲军. 普适性结蜡模型研究[J]. 石油学报, 2008, 29(3):459-462. doi: 10.3321/j.issn:0253-2697.2008.03.030 HUANG Qiyu, LI Yuxian, ZHANG Jinjun. Unified wax deposition model[J]. Acta Petrolei Sinica, 2008, 29(3): 459-462. doi: 10.3321/j.issn:0253-2697.2008.03.030 [9] 邴绍强. 基于人工智能的抽油机井结蜡预警方法[J]. 石油钻探技术, 2019, 47(4):97-103. doi: 10.11911/syztjs.2019093 BING Shaoqiang. An early warning method based on artificial intelligence for wax deposition in rod pumping wells[J]. Petroleum Drilling Techniques, 2019, 47(4): 97-103. doi: 10.11911/syztjs.2019093 [10] 钟张起, 侯读杰, 叶晓峰, 等. 示功图载荷比与清蜡定量化分析[J]. 油气田地面工程, 2014, 33(9):10-11. doi: 10.3969/j.issn.1006-6896.2014.9.005 ZHONG Zhangqi, HOU Doujie, YE Xiaofeng, et al. Quantitative analysis of dynamometer card load ratio and wax removal[J]. Oil-Gasfield Surface Engineering, 2014, 33(9): 10-11. doi: 10.3969/j.issn.1006-6896.2014.9.005 [11] 王海文, 赵雷, 赵辉, 等. 结蜡油井示功图跟踪测试与分析[J]. 油气田地面工程, 2011, 30(11):24-26. doi: 10.3969/j.issn.1006-6896.2011.11.011 WANG Haiwen, ZHAO Lei, ZHAO Hui, et al. Tracking test and analysis of dynamometer card of waxed oil wells[J]. Oil-Gasfield Surface Engineering, 2011, 30(11): 24-26. doi: 10.3969/j.issn.1006-6896.2011.11.011 [12] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2016, Las Vegas, NV, USA: 770-778. [13] 张超凡. 示功图特征提取方法及其应用研究[D]. 秦皇岛: 燕山大学, 2019. ZHANG Chaofan. Research on feature extraction method of dynamomenter and its application[D]. Qinhuangdao: Yanshan University, 2019. [14] ELMAN J L. Finding structure in time[J]. Cognitive Science, 1990, 14(2): 179-211. doi: 10.1016/0364-0213(90)90002-E [15] PALANGI H, DENG L, SHEN Y L, et al. Deep sentence embedding using long short-term memory networks: Analysis and application to information retrieval[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2016, 24(4): 694-707. doi: 10.1109/TASLP.2016.2520371 [16] 张剑, 屈丹, 李真. 基于词向量特征的循环神经网络语言模型[J]. 模式识别与人工智能, 2015, 28(4):299-305. doi: 10.16451/j.cnki.issn1003-6059.201504002 ZHANG Jian, QU Dan, LI Zhen. Recurrent neural network language model based on Word vector features[J]. Pattern Recognition and Artificial Intelligence, 2015, 28(4): 299-305. doi: 10.16451/j.cnki.issn1003-6059.201504002 [17] MIKOLOV T, SUTSKEVER I, CHEN K, et al. Distributed representations of words and phrases and their compositionality[C]//Advances in Neural Information Processing Systems (NIPS 2013). South Lake Tahoe, USA, 2013: 3111-3119. [18] HOCHREITER S, BENGIO Y, FRASCONI P, et al. Gradient flow in recurrent nets: The difficulty of learning long-term dependencies[M]//KREMER S C, KOLEN J F. A Field guide to dynamical Recurrent neural Networks. IEEE Press, 2001. [19] BIANCHI F M, LIVI L, ALIPPI C. Investigating echo-state networks dynamics by means of recurrence analysis[J]. IEEE Transactions on Neural Networks and Learning Systems, 2016, 29(2): 427-439. doi: 10.1109/TNNLS.2016.2630802 [20] HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural Computation, 1997, 9(8): 1735-1780. doi: 10.1162/neco.1997.9.8.1735 [21] SUTSKEVER I, VINYALS O, LE Q V. Sequence to sequence learning with neural networks[C]// Proceedings of the 27th International Conference on Neural Information Processing Systems - Volume 2, December 2014, Montreal, Canada: 3014-3112. [22] SRIVASTAVA N, HINTON G, KRIZHEVSKY A, et al. Dropout: a simple way to prevent neural networks from overfitting[J]. The Journal of Machine Learning Research, 2014, 15(1): 1929-1958. -