基于数据自驱动的多阶特征动态融合手语翻译方法与流程

专利2022-06-29  81


本发明属于多媒体信息处理领域,涉及到计算机视觉、自然语言处理、深度学习等技术,具体地说是一种基于数据自驱动的多阶特征动态融合手语翻译方法。



背景技术:

早期的手语识别研究关注于离散性手语识别,其本质上是一种特殊的视频分类问题。随着视频理解技术的发展,连续性手语翻译吸引越来越多的关注。

由于视频数据复杂繁多,现有的手语翻译方法存在很多弊端,尤其是在多特征融合方面。经典的融合方法分为前端融合和后端融合。前端融合是在特征层面上进行的,而后端融合是在决策层上进行的。前端融合常采用直接的特征拼接,或加权转化,甚至映射到高维空间的融合,再输入模型计算;对于后端融合,直接将多个特征直接输入模型获得多个得分,再通过计算相似性匹配分布,或者是多分类器权重计算,基于图结构学习等方式,最终获得权重相加后的总得分。前者注重互补信息的原始保留;后者侧重各特征在决策得分层面上,对互补信息上的启发性。各有优点,也都存在一些缺点,如固定的学习参数并不灵活;传统方法在融合优化上花费了过多的时间进行复杂计算;更重要的是,无效特征可能主导融合并降低准确性。一旦将所有特征都考虑在内,融合过程将是不可逆的。不好的特征带来的负面影响无法消除,从而导致了手语翻译的结果连贯性差、精确度较低。



技术实现要素:

本发明针对现有技术中存在的不足之处,提供一种基于数据自驱动的多阶特征动态融合手语翻译方法,以期能够实现对手语视频的连续句子翻译,并提高手语识别的准确性。

本发明为解决技术问题采用如下技术方案:

本发明一种基于数据自驱动的多阶特征动态融合手语翻译方法的特点是按如下步骤进行:

步骤1、构建特征池与特征择优:

步骤1.1、从手语视频数据库任取一手语视频q,并提取所述手语视频q的x种视觉特征与y种动作特征,得到视觉特征集合fv与动作特征集合fm

步骤1.2、定义变量x,并初始化x=2;定义第x个视觉拼接特征集合为并有f1v=fv

步骤1.3、从所述视觉特征集合fv中任取x种不同的视觉特征并按序拼接为一种新的视觉特征,从而得到由种视觉特征组成的第x个视觉拼接特征集合

步骤1.4、将x 1赋值给x,并返回步骤1.3顺序执行,直到x=x为止,从而得到x个视觉拼接特征集合

步骤1.5、定义变量y,并初始化y=2;定义第y个动作拼接特征集合为并有f1m=fm

步骤1.6、从所述动作特征集合fm中任取y种不同的动作特征并按序拼接为一种新的动作特征,从而得到由种动作特征组成的第y个动作拼接特征集合

步骤1.7、将y 1赋值给y,并返回步骤1.6顺序执行,直到y=y为止,从而得到y个动作拼接特征集合

步骤1.8、将所述x个视觉拼接特征集合中所有视觉特征构成视觉特征池,视觉特征池中视觉特征的总数记为x';将所述y个动作拼接特征集合中所有动作特征构成动作特征池,动作特征池中动作特征的总数记为y';

步骤1.9、从所述视觉特征池中随机选择一个视觉特征并作为最优视觉特征序列从动作特征池中随机选择一个动作特征并作为最优动作特征序列其中,vi表示所述最优视觉特征序列中第i个视觉特征,1≤i≤kv,mj表示所述最优动作特征序列中第j个动作特征,1≤j≤km,kv与km分别为所述最优视觉特征序列和最优动作特征序列的总长度;

步骤2、特征优化:

步骤2.1、定义当前时刻为t,并初始化t=1;

步骤2.2、利用式(1)实施数据自驱动的注意力操作,得到t时刻的视觉注意力特征vt和动作注意力特征mt;

式(1)中,为t时刻所述最优视觉特征序列中第i个视觉特征vi对应的注意力权值,并有:ht-1为多阶特征动态融合手语翻译模型在t-1时刻的隐状态,当t=1时,ht-1=0,mlp(·)表示多层感知机操作;为t时刻所述最优动作特征序列中第j个视觉特征mj对应的注意力权值,并有

步骤3、第一阶特征动态融合:

根据式(2)将所述t时刻的视觉注意力特征vt和动作注意力特征mt结合起来,得到t时刻的融合特征ct;

式(2)中,为向量同维度的相加操作;μt,ηt分别为所述t时刻的视觉注意力特征vt和动作注意力特征mt的数据自驱动融合权重,并有:[μt,ηt]=softmax(ht-1[vt;mt]t),其中[;]表示按行拼接操作,[·]t表示矩阵转置操作;

步骤4、第二阶特征动态融合:

步骤4.1、将所述t时刻视觉注意力特征vt、动作注意力特征mt和融合特征ct分别输入三个相互独立的长短期记忆人工神经网络lstm中,得到三个对应的隐状态,并构成待融合隐状态合集

利用式(3)得到所述待融合隐状态合集中ht每个隐状态对应的得分融合权重

式(3)中,softmax(·)代表路径选择概率,正切函数σ(·)代表路径相关性融合权重;w1,w2是两个需要学习的参数矩阵,b1,b2是两个需要学习的偏置参数;

步骤4.2、利用式(4)得到t时刻的多阶特征动态融合手语翻译模型的隐状态ht;

步骤4.3、利用式(5)得到t时刻多阶特征动态融合手语翻译模型的识别概率pt;

pt=softmax(weht)(5)

式(5)中,we为需要学习的映射矩阵;

步骤4.4、将t 1赋值给t,并返回步骤2.2顺序执行,直到t=t为止,t为生成的手语翻译句子的总长度,从而得到识别概率序列{p1,p2,...,pt};

步骤4.5、计算识别概率序列{p1,p2,...,pt}中每个识别概率的方差e1,e2,.….,et,从而得到识别概率序列平均方差

步骤5、在所述动作特征池中的所有y'个动作特征中随机选择一个动作特征,并在所选择的动作特征下,计算视觉特征池中的所有x'个视觉特征的多阶特征动态融合手语翻译模型的识别概率序列平均方差,再将平均方差最大的识别概率序列对应的视觉特征作为最优视觉特征序列,并赋值给

同理,在所述视觉特征池中的所有x'个动作特征中随机选择一个视觉特征,并在所选择的视觉特征下,计算动作特征池中的所y'个动作特征的多阶特征动态融合手语翻译模型的识别概率序列平均方差,再将平均方差最大的识别概率序列对应的动作特征作为最优动作特征序列,并赋值给

步骤6、将最优视觉特征序列与最优动作特征序列带入步骤2.2-步骤4.4中顺序执行,从而得到最终的识别概率序列{p1′,p′2,.….,p′t};

步骤7、根据式(6)得到t时刻生成的手语翻译单词yt,从而得到所述手语视频q的手语翻译句子{y1,y2,...,yt}:

yt=argmax(pt′)(6)

式(6)中,argmax(·)表示求取识别概率中最大值对应的位置索引。

与已有技术相比,本发明的有益效果体现在:

1、本发明利用手语视频的不同视觉特征或动作特征之间的多元相关性,扩充了手语视频特征种类,并根据手语翻译模型在不同特征下的识别概率进行特征选择,挑选出性能最佳的手语视频特征,从而提高了手语翻译模型的可靠性。

2、本发明采用数据自驱动的注意力机制处理手语视频的视觉特征与动作特征,推断每个视觉特征和动作特征与前一时刻任务状态的相关性,从而增强了特征的表征能力。

3、本发明利用手语视频的视觉特征与动作特征对视频内容的不同表现方式,以自学习的方式挖掘视觉特征与动作特征之间的互补信息,提高了手语翻译模型对手语视频的理解能力。

4、本发明采用的数据自驱动特征动态融合方法,能够根据任务状态自适应地选择不同的融合模式,学习多种特征之间的相关性约束,促进了所有以视觉特征为中心、以动作特征为中心或以融合特征为中心的实体识别,从而提升了手语识别的准确性。

附图说明

图1为本发明的结构示意图;

图2为本发明的第一阶特征动态融合操作流程图;

图3为本发明的第二阶特征动态融合操作流程图。

具体实施方式

本实施例中,如图1所示,一种基于数据自驱动的多阶特征动态融合手语翻译方法包括:首先提取输入手语视频的多种视觉与动作特征,根据特征之间的多元相关性构建特征池,并根据模型在各特征下的识别概率选择最优特征;再使用数据自驱动的注意力机制进行特征优化,得到视觉与动作注意力特征;接着进行第一阶动态特征融合得到融合特征,以挖掘视觉特征与动作特征之间的互补信息;然后进行第二阶动态特征融合,根据任务状态动态计算不同特征下隐状态的得分融合权重,最后通过得分融合得到手语翻译句子;具体的说,是按如下步骤进行:

步骤1、构建特征池与特征择优:

步骤1.1、从手语视频数据库任取一手语视频q,并提取手语视频q的x种视觉特征与y种动作特征,得到视觉特征集合fv与动作特征集合fm;卷积神经网络常用来提取视频帧的视觉特征,例如vgg网络、resnet网络等;视频的动作特征包括光流特征、c3d特征、cdc特征等;

步骤1.2、定义变量x,并初始化x=2;定义第x个视觉拼接特征集合为并有f1v=fv

步骤1.3、从视觉特征集合fv中任取x种不同的视觉特征并按序拼接为一种新的视觉特征,从而得到由种视觉特征组成的第x个视觉拼接特征集合

步骤1.4、将x 1赋值给x,并返回步骤1.3顺序执行,直到x=x为止,从而得到x个视觉拼接特征集合

步骤1.5、定义变量y,并初始化y=2;定义第y个动作拼接特征集合为并有f1m=fm

步骤1.6、从动作特征集合fm中任取y种不同的动作特征并按序拼接为一种新的动作特征,从而得到由种动作特征组成的第y个动作拼接特征集合

步骤1.7、将y 1赋值给y,并返回步骤1.6顺序执行,直到y=y为止,从而得到y个动作拼接特征集合

步骤1.8、将x个视觉拼接特征集合中所有视觉特征构成视觉特征池,视觉特征池中视觉特征的总数记为x';将y个动作拼接特征集合中所有动作特征构成动作特征池,动作特征池中动作特征的总数记为y';

步骤1.9、从视觉特征池中随机选择一个视觉特征并作为最优视觉特征序列从动作特征池中随机选择一个动作特征并作为最优动作特征序列其中,vi表示最优视觉特征序列中第i个视觉特征,1≤i≤kv,mj表示最优动作特征序列中第j个动作特征,1≤j≤km,kv与km分别为最优视觉特征序列和最优动作特征序列的总长度;本实施例中,手语视频q被划分为等长的视频片段,kv=km等于视频片段的个数;

步骤2、特征优化:

步骤2.1、定义当前时刻为t,并初始化t=1;

步骤2.2、利用式(1)实施数据自驱动的注意力操作,得到t时刻的视觉注意力特征vt和动作注意力特征mt;

式(1)中,为t时刻最优视觉特征序列中第i个视觉特征vi对应的注意力权值,并有:ht-1为多阶特征动态融合手语翻译模型在t-1时刻的隐状态,当t=1时,ht-1=0,mlp(·)表示多层感知机操作;为t时刻最优动作特征序列中第j个视觉特征mj对应的注意力权值,并有

步骤3、第一阶特征动态融合:

本实施例中,如图2所示,根据式(2)将t时刻的视觉注意力特征vt和动作注意力特征mt结合起来,得到t时刻的融合特征ct;

式(2)中,为向量同维度的相加操作;μt,ηt分别为t时刻的视觉注意力特征vt和动作注意力特征mt的数据自驱动融合权重,并有:[μt,ηt]=softmax(ht-1[vt;mt]t),其中[;]表示按行拼接操作,[·]t表示矩阵转置操作;

步骤4、第二阶特征动态融合:

步骤4.1、本实施例中,如图3所示,将t时刻视觉注意力特征vt、动作注意力特征mt和融合特征ct分别输入三个相互独立的长短期记忆人工神经网络lstm中,得到三个对应的隐状态,并构成待融合隐状态合集

利用式(3)得到待融合隐状态合集中ht每个隐状态对应的得分融合权重

式(3)中,softmax(·)代表路径选择概率,正切函数σ(·)代表路径相关性融合权重;w1,w2是两个需要学习的参数矩阵,b1,b2是两个需要学习的偏置参数;

步骤4.2、利用式(4)得到t时刻的多阶特征动态融合手语翻译模型的隐状态ht;

步骤4.3、利用式(5)得到t时刻多阶特征动态融合手语翻译模型的识别概率pt;

pt=softmax(weht)(5)

式(5)中,we为需要学习的映射矩阵;在本实施例中,利用手语翻译数据库中的所有单词构建单词表,并将单词表中所有单词按照出现次数从高到低进行编号,从而构建单词索引表;本实施例中,单词索引表中共有279个单词,

步骤4.4、将t 1赋值给t,并返回步骤2.2顺序执行,直到t=t为止,t为生成的手语翻译句子的总长度,本实施例中,t=kv=km;从而得到识别概率序列{p1,p2,...,pt};

步骤4.5、计算识别概率序列{p1,p2,...,pt}中每个识别概率的方差e1,e2,...,et,从而得到识别概率序列平均方差

步骤5、在动作特征池中的所有y'个动作特征中随机选择一个动作特征,并在所选择的动作特征下,计算视觉特征池中的所有x'个视觉特征的多阶特征动态融合手语翻译模型的识别概率序列平均方差,再将平均方差最大的识别概率序列对应的视觉特征作为最优视觉特征序列,并赋值给本实施例中,采用resnet网络提取手语视频的视觉特征为最优视觉特征;

同理,在视觉特征池中的所有x'个动作特征中随机选择一个视觉特征,并在所选择的视觉特征下,计算动作特征池中的所y'个动作特征的多阶特征动态融合手语翻译模型的识别概率序列平均方差,再将平均方差最大的识别概率序列对应的动作特征作为最优动作特征序列,并赋值给本实施例中,采用c3d网络提取手语视频的动作特征为最优动作特征;

步骤6、将最优视觉特征序列与最优动作特征序列带入步骤2.2-步骤4.4中顺序执行,从而得到最终的识别概率序列{p1′,p′2,...,p′t};

步骤7、根据式(6)得到t时刻生成的手语翻译单词yt,从而得到手语视频q的手语翻译句子{y1,y2,...,yt}:

yt=argmax(pt′)(6)

式(6)中,argmax(·)表示求取识别概率中最大值对应的位置索引;本实施例中,利用构建的单词索引表将得到的手语翻译句子{y1,y2,...,yt}转化为自然语言句子。


技术特征:

1.一种基于数据自驱动的多阶特征动态融合手语翻译方法,其特征是按如下步骤进行:

步骤1、构建特征池与特征择优:

步骤1.1、从手语视频数据库任取一手语视频q,并提取所述手语视频q的x种视觉特征与y种动作特征,得到视觉特征集合fv与动作特征集合fm

步骤1.2、定义变量x,并初始化x=2;定义第x个视觉拼接特征集合为并有

步骤1.3、从所述视觉特征集合fv中任取x种不同的视觉特征并按序拼接为一种新的视觉特征,从而得到由种视觉特征组成的第x个视觉拼接特征集合

步骤1.4、将x 1赋值给x,并返回步骤1.3顺序执行,直到x=x为止,从而得到x个视觉拼接特征集合

步骤1.5、定义变量y,并初始化y=2;定义第y个动作拼接特征集合为并有

步骤1.6、从所述动作特征集合fm中任取y种不同的动作特征并按序拼接为一种新的动作特征,从而得到由种动作特征组成的第y个动作拼接特征集合

步骤1.7、将y 1赋值给y,并返回步骤1.6顺序执行,直到y=y为止,从而得到y个动作拼接特征集合

步骤1.8、将所述x个视觉拼接特征集合中所有视觉特征构成视觉特征池,视觉特征池中视觉特征的总数记为x';将所述y个动作拼接特征集合中所有动作特征构成动作特征池,动作特征池中动作特征的总数记为y';

步骤1.9、从所述视觉特征池中随机选择一个视觉特征并作为最优视觉特征序列从动作特征池中随机选择一个动作特征并作为最优动作特征序列其中,vi表示所述最优视觉特征序列中第i个视觉特征,1≤i≤kv,mj表示所述最优动作特征序列中第j个动作特征,1≤j≤km,kv与km分别为所述最优视觉特征序列和最优动作特征序列的总长度;

步骤2、特征优化:

步骤2.1、定义当前时刻为t,并初始化t=1;

步骤2.2、利用式(1)实施数据自驱动的注意力操作,得到t时刻的视觉注意力特征vt和动作注意力特征mt;

式(1)中,为t时刻所述最优视觉特征序列中第i个视觉特征vi对应的注意力权值,并有:ht-1为多阶特征动态融合手语翻译模型在t-1时刻的隐状态,当t=1时,ht-1=0,mlp(·)表示多层感知机操作;为t时刻所述最优动作特征序列中第j个视觉特征mj对应的注意力权值,并有

步骤3、第一阶特征动态融合:

根据式(2)将所述t时刻的视觉注意力特征vt和动作注意力特征mt结合起来,得到t时刻的融合特征ct;

式(2)中,为向量同维度的相加操作;μt,ηt分别为所述t时刻的视觉注意力特征vt和动作注意力特征mt的数据自驱动融合权重,并有:[μt,ηt]=softmax(ht-1[vt;mt]t),其中[;]表示按行拼接操作,[·]t表示矩阵转置操作;

步骤4、第二阶特征动态融合:

步骤4.1、将所述t时刻视觉注意力特征vt、动作注意力特征mt和融合特征ct分别输入三个相互独立的长短期记忆人工神经网络lstm中,得到三个对应的隐状态,并构成待融合隐状态合集

利用式(3)得到所述待融合隐状态合集中ht每个隐状态对应的得分融合权重

式(3)中,softmax(·)代表路径选择概率,正切函数σ(·)代表路径相关性融合权重;w1,w2是两个需要学习的参数矩阵,b1,b2是两个需要学习的偏置参数;

步骤4.2、利用式(4)得到t时刻的多阶特征动态融合手语翻译模型的隐状态ht;

步骤4.3、利用式(5)得到t时刻多阶特征动态融合手语翻译模型的识别概率pt;

pt=softmax(weht)(5)

式(5)中,we为需要学习的映射矩阵;

步骤4.4、将t 1赋值给t,并返回步骤2.2顺序执行,直到t=t为止,t为生成的手语翻译句子的总长度,从而得到识别概率序列{p1,p2,.….,pt};

步骤4.5、计算识别概率序列{p1,p2,.….,pt}中每个识别概率的方差e1,e2,.….,et,从而得到识别概率序列平均方差

步骤5、在所述动作特征池中的所有y'个动作特征中随机选择一个动作特征,并在所选择的动作特征下,计算视觉特征池中的所有x'个视觉特征的多阶特征动态融合手语翻译模型的识别概率序列平均方差,再将平均方差最大的识别概率序列对应的视觉特征作为最优视觉特征序列,并赋值给

同理,在所述视觉特征池中的所有x'个动作特征中随机选择一个视觉特征,并在所选择的视觉特征下,计算动作特征池中的所y'个动作特征的多阶特征动态融合手语翻译模型的识别概率序列平均方差,再将平均方差最大的识别概率序列对应的动作特征作为最优动作特征序列,并赋值给

步骤6、将最优视觉特征序列与最优动作特征序列带入步骤2.2-步骤4.4中顺序执行,从而得到最终的识别概率序列{p′1,p′2,...,p′t};

步骤7、根据式(6)得到t时刻生成的手语翻译单词yt,从而得到所述手语视频q的手语翻译句子{y1,y2,...,yt}:

yt=argmax(p′t)(6)

式(6)中,argmax(·)表示求取识别概率中最大值对应的位置索引。

技术总结
本发明公开了一种基于数据自驱动的多阶特征动态融合手语翻译方法,包括:首先提取输入手语视频的多种视觉与动作特征,根据特征之间的多元相关性构建特征池,并根据模型在各特征下的识别概率选择最优特征;再使用数据自驱动的注意力机制进行特征优化,得到视觉与动作注意力特征;接着进行第一阶动态特征融合得到融合特征,以挖掘视觉特征与动作特征之间的互补信息;然后进行第二阶动态特征融合,根据任务状态动态计算不同特征下隐状态的得分融合权重,最后通过得分融合得到手语翻译句子。本发明能够实现对手语视频的连续句子翻译,并提高手语识别的准确性。

技术研发人员:郭丹;宋培培;刘祥龙;汪萌
受保护的技术使用者:合肥工业大学
技术研发日:2020.02.17
技术公布日:2020.06.09

转载请注明原文地址: https://bbs.8miu.com/read-17502.html

最新回复(0)