显示目标区域的遥感图像的交互式武器瞄准系统的制作方法

专利2022-06-29  110


本申请是申请日为2014年10月31日,申请号为201480064097.0,发明名称为“显示目标区域的遥感图像的交互式武器瞄准系统”的申请的分案申请。

相关申请的交叉引用

本申请要求于2013年10月31日提交的申请号为61/898,342的美国临时专利申请的优先权和利益,其内容据此为了所有目的通过引用并入本文。

实施例总体上涉及用于武器系统和无人机系统(uas)的系统、方法以及设备,并且更具体地涉及显示目标区域的遥感图像以用于交互式武器瞄准。

背景

武器瞄准通常通过火炮操作员对武器进行射击来执行。对于间接对武器进行射击,武器瞄准系统和射击控制系统不给操作员提供目标的直接观察。

概述

设备被公开,其包括射击控制控制器、惯性测量单元、磁罗盘、导航单元以及数据存储器,惯性测量单元与射击控制控制器进行通信,惯性测量单元被配置为提供高程数据给射击控制控制器,磁罗盘与射击控制控制器进行通信,磁罗盘可操作以给射击控制控制器提供方位角数据,导航单元与射击控制控制器进行通信,导航单元被配置为将位置数据提供给射击控制控制器,数据存储器与射击控制控制器进行通信,数据存储器具有与多个武器和相关的炮弹(round)相关联的弹道信息,使得射击控制控制器基于所存储的弹道信息、所提供的高程数据、所提供的方位角数据和所提供的位置数据来确定所选择的武器和相关的炮弹的预测的弹着点。在一个实施例中,射击控制控制器可以从遥感器接收图像元数据,其中,图像元数据可以包括遥感器的中心视场(cfov)的地面位置,并且其中cfov可以指向所确定的预测的弹着点。射击控制控制器可基于从遥感器接收到的图像元数据确定图标叠加,其中,该图标叠加可以包括cfov的位置和确定的预测的弹着点。射击控制控制器还可以进一步基于预测与特定的武器相关的距离来确定预测的弹着点,其中,距离可以是武器炮弹的当前位置和与地面的弹着点之间的距离。实施例还可以包括被配置为将与区域的地形的视觉表示相关的信息提供给射击控制控制器来确定该预测的弹着点的地图数据库并且射击控制控制器还可以进一步基于地图数据库信息来确定预测的弹着点。

在另一个实施例中,设备还包括环境条件确定器,其被配置成为了使射击控制控制器确定预测的弹着点来提供与预测的弹着点的周围区域的环境条件有关的信息。在这样的实施例中,射击控制控制器可以进一步基于环境条件信息来确定预测的弹着点,使得射击控制控制器还被配置为与电磁辐射收发器进行通信,收发器被配置为发射和接收电磁辐射。电磁辐射收发器可以是射频(rf)接收器和rf发射器。在替代实施例中,电磁辐射收发器还可以被配置为从遥感器接收视频内容和图像元数据,并且遥感器可以经由容纳遥感器的飞行器上的传感器控制器的通信设备发送图像元数据。遥感器可以被安装到飞行器,以及电磁辐射收发器还可以被配置为发送信息给飞行器的传感器控制器。射击控制控制器可以发送包含所确定的预测的弹着点的信息到飞行器的传感器控制器以引导安装到飞行器的遥感器的指向。

在其他实施例中,弹道范围确定器可以被配置为基于所述武器的位置、方位角、高程和炮弹类型确定预测的弹着点。数据存储器还可以是数据库,数据库包括查找表、一个或多个算法和查找表与一个或多个算法的组合中的至少一个。位置确定组件还可以包括以下项中的至少一项:基于地面的位置确定组件;基于卫星的位置确定组件;以及基于地面和卫星的混合的位置确定设备。射击控制控制器与用户接口通信,用户接口包括以下项中的至少一项:触觉响应组件;机电辐射响应组件;和电磁辐射响应组件,以及用户接口可以被配置为:经由用户接口接收一组指令和将所接收的一组指令发送到射击控制控制器。

在另一个实施例中,设备还可以包括指令创建组件,其具有被配置为识别和记录发生在用户接口的挑选的预定义的活动的用户接口以及与远程通信设备通信的通信接口中的至少一个,远程通信设备被配置为通过传感器控制器引导遥感器;使得在用户接口的用户请求遥感器瞄准预期的武器瞄准位置。指令创建组件可以与容纳遥感器的飞行器通信以将指令发送到飞行器来保持武器瞄准位置在遥感器的视野中。

远程瞄准系统还被公开,其包括武器、武器上的显示器、射频(rf)接收器、远离武器的传感器,其中,该传感器被配置为提供在武器显示器上的预测的弹着点的图像元数据,以及瞄准设备,其本身包括具有与多个武器和相关炮弹相关的弹道信息的数据存储器以及射击控制控制器,其中射击控制控制器基于弹道信息、从惯性测量单元接收的高程数据、从磁罗盘接收的方位角数据、从位置确定组件接收的位置数据确定预测的弹着点,其中,射击控制控制器与惯性测量单元、磁罗盘和位置确定组件通信。遥感器可以被安装到无人机。瞄准系统可确定武器的位置和方向,并还使用弹道查找表来确定武器的预测的弹着点。遥感器可以接收武器的预测的弹着点,并将传感器瞄准在武器的预测的弹着点。该系统此外还可包括第二武器,在第二武器上的第二显示器和第二瞄准设备,使得由遥感器提供的武器显示器上的预测的弹着点和在第二武器显示器上的预测的图像位置相同。在一个实施例中,第二武器不能对遥感器进行控制。此外,第二武器可能没有将第二武器的任何预测的弹着点的信息发送到遥感器。武器的确定的预测的弹着点可能与第二武器的确定的预测的弹着点不同。传感器可以是光学摄像机,其被配置为将视频图像提供到远程瞄准系统以用于在武器显示器上显示。

本公开还涉及以下内容:

1)一种设备,包括:

射击控制控制器;

惯性测量单元,其与所述射击控制控制器进行通信,所述惯性测量单元被配置为将高程数据提供给所述射击控制控制器;

磁罗盘,其与所述射击控制控制器进行通信,所述磁罗盘可操作以将方位角数据提供给所述射击控制控制器;

导航单元,其与所述射击控制控制器进行通信,所述导航单元被配置为将位置数据提供给所述射击控制控制器;

数据存储器,其与所述射击控制控制器进行通信,所述数据存储器具有与多个武器和相关的炮弹相关联的弹道信息;

其中,所述射击控制控制器基于所存储的弹道信息、所提供的高程数据、所提供的方位角数据和所提供的位置数据确定所选择的武器和相关的炮弹的预测的弹着点。

2)根据1)所述的设备,其中,所述射击控制控制器从遥感器接收图像元数据,其中,所述图像元数据包括所述遥感器的中心视场(cfov)的地面位置,以及,其中,所述cfov被指向所确定的预测的弹着点。

3)根据2)所述的设备,其中,所述射击控制控制器基于从所述遥感器接收到的所述图像元数据确定图标叠加,其中,所述图标叠加包括所述cfov的位置和所述确定的预测的弹着点。

4)根据1)所述的设备,其中,所述射击控制控制器还基于预测与特定的武器相关联的距离来确定所述预测的弹着点,其中,所述距离是在所述武器的炮弹的当前位置和与地面的弹着点之间的距离。

5)根据1)所述的设备,还包括:

地图数据库,其被配置为将与区域的地形的视觉表示有关的信息提供给所述射击控制控制器以确定所述预测的弹着点。

6)根据5)所述的设备,其中,所述射击控制控制器还基于地图数据库信息确定所述预测的弹着点。

7)根据1)所述的设备,还包括:

环境条件确定器,其被配置为提供与所述预测的弹着点的周围区域的环境条件有关的信息,以便供所述射击控制控制器确定所述预测的弹着点。

8)根据7)所述的设备,其中,所述射击控制控制器还基于环境条件信息确定所述预测的弹着点。

9)根据1)所述的设备,其中,所述射击控制控制器还被配置为与电磁辐射收发器进行通信,所述收发器被配置为发送和接收电磁辐射。

10)根据9)所述的设备,其中,所述电磁辐射收发器是射频(rf)接收器和rf发射器。

11)根据9)所述的设备,其中,所述电磁辐射收发器还被配置为从遥感器接收视频内容和图像元数据,并且,其中,所述遥感器经由在容纳所述遥感器的飞行器上的传感器控制器的通信设备发送所述图像元数据。

12)根据11)所述的设备,其中,所述遥感器被安装到所述飞行器。

13)根据12)所述的设备,其中,所述电磁辐射收发器还被配置为将信息发送给所述飞行器的所述传感器控制器。

14)根据13)所述的设备,其中,所述射击控制控制器将包含所确定的预测的弹着点的信息发送到所述飞行器的所述传感器控制器以引导被安装到所述飞行器的所述遥感器的指向。

15)根据1)所述的设备,还包括弹道范围确定器,其被配置为基于武器位置、方位角、高程和炮弹类型确定所述预测的弹着点。

16)根据1)所述的设备,其中,所述数据存储器是数据库,所述数据库包括查找表、一个或多个算法和查找表与一个或多个算法的组合中的至少一个。

17)根据1)所述的设备,其中,所述导航单元包括以下项中的至少一项:基于地面的位置确定组件;基于卫星的位置确定组件;以及基于地面和卫星的混合的位置确定设备。

18)根据1)所述的设备,其中,所述射击控制控制器与用户接口进行通信,所述用户接口包括以下项中的至少一项:触觉响应组件;机电辐射响应组件;和电磁辐射响应组件。

19)根据18)所述的设备,其中,所述用户接口被配置为:经由所述用户接口接收一组指令并且将接收到的一组指令发送到所述射击控制控制器。

20)根据1)所述的设备,还包括:

指令创建组件,其包括以下项中的至少一项:

用户接口,其被配置为识别和记录发生在所述用户接口的挑选的预定义的活动;

通信接口,其与远程通信设备进行通信,所述远程通信设备被配置为经由传感器控制器引导遥感器;以及

其中,在所述用户接口的用户请求所述遥感器瞄准预期的武器瞄准位置。

21)根据20)所述的设备,其中,所述指令创建组件与容纳所述遥感器的飞行器进行通信并且发送指令到所述飞行器以将武器瞄准位置保持在所述遥感器的视野中。

22)一种远程瞄准系统,包括:

武器;

在所述武器上的显示器;

射频(rf)接收器;

远离所述武器的遥感器,其中,所述遥感器被配置为在所述显示器上提供预测的弹着点的图像元数据;以及

瞄准设备,包括:

数据存储器,其具有与多个武器和相关的炮弹相关联的弹道信息;以及

射击控制控制器,其中,所述射击控制控制器基于所述弹道信息、从惯性测量单元接收到的高程数据、从磁罗盘接收到的方位角数据、从位置确定组件接收到的位置数据确定预测的弹着点,其中,所述射击控制控制器与所述惯性测量单元、所述磁罗盘和所述位置确定组件进行通信。

23)根据22)所述的远程瞄准系统,其中,所述遥感器被安装到无人机。

24)根据22)所述的远程瞄准系统,其中,所述瞄准系统确定所述武器的位置和方向,并且还使用弹道查找表来确定所述武器的所述预测的弹着点。

25)根据22)所述的远程瞄准系统,其中,所述遥感器接收所述武器的所述预测的弹着点,并且将所述遥感器瞄准所述武器的所述预测的弹着点。

26)根据25)所述的远程瞄准系统,其中,所述系统还包括:

第二武器;

在所述第二武器上的第二显示器;

第二瞄准设备;以及

其中,由所述遥感器提供的在所述显示器上的所述预测的弹着点与在所述第二显示器上的预测的图像位置相同。

27)根据26)所述的远程瞄准系统,其中,所述第二武器没有对所述遥感器的控制权。

28)根据26)所述的远程瞄准系统,其中,所述第二武器没有将所述第二武器的任何预测的弹着点信息发送给所述遥感器。

29)根据26)所述的远程瞄准系统,其中,所述武器的所确定的预测的弹着点不同于所述第二武器的确定的预测的弹着点。

30)根据22)所述的远程瞄准系统,其中,所述遥感器是光学摄像机,其被配置为将视频图像提供到所述远程瞄准系统以用于在所述显示器上显示。

附图简述

实施例被以举例的方式说明并且不限于附图中的图形,以及在附图中:

图1是武器瞄准系统环境的示例性实施例;

图2是包括具有安装的计算设备的手持的或安装的火炮或榴弹发射器和具有遥感器的无人机(uav)的系统的示例性实施例;

图3显示了具有最初远离目标和武器的预测的弹着点定位的遥感器的uav的俯视图;

图4是武器瞄准系统的示例性实施例的流程图;

图5是描绘了示例性武器瞄准系统的功能框图;

图6示出了具有带有观察预测的击中地面点(gp)周围和以中心视野为中心的目标区域的显示器或视线的武器的武器瞄准系统的实施例;

图7示出了其中瞄准系统被配置为控制在uav上的遥感摄像机的武器瞄准系统的实施例;

图8示出了具有被动控制传感器/uav控件的武器瞄准系统的实施例的一组示例性显示器;

图9示出其中来自遥感器的图像对于武器用户的视角被旋转或没有旋转的实施例;

图10描绘了可包括接收来自一个遥感器的影像的多个武器的武器瞄准系统的示例性实施例;

图11描绘了其中如武器被用户操纵、武器的预测的击中gp穿过不同区域的场景;以及

图12示出了计算设备实施例的示例性顶层功能框图。

详细描述

武器瞄准系统被在本文中公开,其中系统可具有火炮数据计算机或弹道计算机、射击控制控制器、通信设备和可选的对象检测系统或雷达,其都被设计以帮助武器瞄准系统更快和更准确地击中确定的目标。示例性武器瞄准系统实施例可显示交互式武器瞄准的目标区域的遥感图像并且精确地将武器炮弹瞄准在目标区。一个实施例可以包括无人机系统(uas),例如无人机(uav)。所述uav可以是固定翼交通工具或者可以具有连接到底盘的一个或多个螺旋桨以便使得uav能够悬停在相对固定的位置。此外,uav可以包括传感器,其中传感器对于武器瞄准系统是远程的,并且传感器可以是图像采集设备。该传感器可以被瞄准,以便具有在识别的目标周围的区域的视程。在uav上的传感器可以通过从不同的来源(例如,uav的飞行员或地面操作员)接收的命令而被移动。传感器还可以被命令以在连续的基础上以及基于从地面操作员接收的方向集中于特定的目标。

在武器瞄准系统的一个实施例中,系统可以被用于给武器的用户显示武器的目标区域,例如,围绕确定的或计算的武器的击中可以在的地方的区域,如从远离武器的传感器观察到的。这允许用户实时(或接近实时)观察在目标区域内的武器的作用,并对武器进行瞄准调整。为了帮助瞄准武器,显示器可以使用指示器(例如,标线、十字瞄准线或误差估计椭圆/区域)在显示器上的目标区域内指示确定的或预期的击中位置。遥感器的使用可以允许在没有从用户到目标的直接视线的情况下(例如,当目标位于障碍物(例如)后面时)目标被攻击。遥感器可以是可以被各种平台支持的各种已知的传感器中的任何一个。在一些实施例中,传感器可以是被安装到远离武器定位并在围绕目标的区域的视程内的飞行器的摄像机。这样的飞行器可以是uav,例如小型无人机系统(suas)。

图1描绘了武器瞄准系统环境100,其具有武器110、显示器120、瞄准设备130、通信设备140、遥感器150、远程通信设备160和传感器控制器170。还示出了目标a、预期的武器作用或预测的瞄准位置b、观察的目标区域c和实际武器作用d。武器瞄准系统环境100还可以包括一组障碍物(诸如小山)、用于转动武器的武器底座和飞行器180,遥感器150、远程通信设备160和传感器控制器170可以被安装到飞行器180。

武器110可以是各种武器中的任何一个,例如榴弹发射器、迫击炮、大炮、坦克炮、舰炮、甲板炮或发射弹丸以击中武器作用的位置的任何其他武器。在一些实施例中,武器110可移动以便允许它和与武器相关的火炮和炮弹一起被容易地移动。瞄准设备130可以包括惯性测量单元(imu),其可包括磁强计、陀螺仪、加速度计以及磁罗盘和导航系统,导航系统可以是确定武器110的位置和方向的全球定位系统(gps)。当用户操纵或定位武器110时,瞄准设备130可以监视武器的位置,从而确定武器的指向(其可以是罗盘航向)、武器的方向,例如,武器相对于平行于地面的当地水平面的角度。此外,瞄准设备然后可基于武器及其弹丸的特性,使用目标确定装置132(如弹道计算机、查找表等等)以提供武器作用的确定点。武器作用点可以是预期的弹丸弹着点,其可以是预期的武器作用位置。目标确定装置132还可参考具有高程信息的数据库或地图以允许武器作用或预测的瞄准位置b的更准确的确定。瞄准位置信息可以包括经度、纬度和位置的高程并且还可包括误差值,例如在瞄准位置周围或附近的天气状况。

在实施例中,瞄准设备130可以例如是具有惯性测量单元的平板计算机,例如可购自韩国首尔三星镇的三星集团的nexus7(通过美国新泽西州的里奇菲尔德公园(ridgefieldpark)的三星电子),可购自加利福尼亚州的库比蒂诺的苹果公司的ipad,或可购自台湾台北的华硕(asustek)电脑公司的nexus7(通过加拿大的华硕弗里蒙特(asusfremont))。

有关瞄准位置b的瞄准位置信息可以随后通过通信设备140被发送到连接到传感器控制器170的远程通信设备160,其中传感器控制器170可以引导遥感器150。在一个实施例中,通信设备140可以通过远程通信设备160发送瞄准信息给uav地面控制站,然后uav地面控制站可以发送瞄准信息返回到远程通信设备160,其然后可以将瞄准信息转发到传感器控制器170。遥感器150然后可被瞄准来观察预期武器瞄准位置b,其可以包括围绕该位置的邻近区域。围绕该位置的邻近区域在图1中被描绘作为观察目标区域c。瞄准遥感器150的控制可通过传感器控制器170来确定,其中,传感器控制器170可以具有处理器和可寻址存储器,并且其可以使用遥感器150的位置、遥感器150的方向(即它的罗盘的方向)和相对于水平面的角度来确定传感器瞄准在地面上的地方,其可能是图像中心、图像边界或图像中心和图像边界两者。在一个实施例中,遥感器150的位置可以可选地被从uav的机载gps传感器获得。在另一个实施例中,传感器的方向(例如,罗盘的方向和相对于水平面的角度)可以通过uav的方向和相对水平面的角度以及传感器的方向和其相对于uav的角度来确定。在一些实施例中,传感器控制器170可以使传感器瞄准到预期的武器瞄准位置b和/或观察的目标区域c。可选地,由传感器控制器170对遥感器150的瞄准可包括传感器的变焦。

在实施例中,通信设备140可以被连接到地面控制站(gcs),例如,可购自加利福尼亚蒙罗维亚的aerovironment公司(http://www.avinc.com/uas/small_uas/gcs/)的一个,并且可以包括双向的数字的无线数据链路的数字数据链路(ddl)收发器(例如,可购自加利福尼亚蒙罗维亚的aerovironment公司(http://www.avinc.com/uas/ddl/))。

在一些实施例中,远程通信设备160和遥感器150可被安装在飞行器(诸如卫星或飞行器、飞行在目标区域c的观察距离内的无论是有人驾驶的飞行器还是无人驾驶的飞行器(uav)180)上。uav180可以是各种公知的飞行器中的任何一个,诸如固定翼航空器、直升机、四旋翼飞行器、飞艇、系留气球或类似物。uav180可包括位置确定设备182,例如gps模块和方位或方向确定设备184,例如imu和/或罗盘。gps182和imu184提供数据给控制系统186以确定uav的位置和方向,其反过来可能被与预期的武器瞄准位置b一起使用来引导遥感器150以观察位置b。在一些实施例中,传感器控制器170基于从控制系统186接收的数据和从武器瞄准系统接收的预期的武器瞄准位置可以移动(即,倾斜、平移、缩放)遥感器150。

在一个实施例中,imu184或控制系统186可确定uav180的姿态(即,俯仰、滚动、偏航、位置和航向)。一旦进行了确定,利用数字地形和高程数据(dted)(被存储在uav上的数据存储器(例如数据库)中)的输入的imu184(或系统186)则可以确定任何特定的参照地球的(earth-referenced)网格位置相对于uav上的参照(例如它的外壳)位于何处(例如位置b)。在本实施例中,该信息可以然后被通过传感器控制器170来使用以定位遥感器150以瞄准相对于uav的外壳的期望的瞄准位置。

除了将摄像机指向瞄准位置b,如果uav的操作员(vo)允许,则uav还可尝试在瞄准位置b上使轨道居中。vo将理想地指定安全的风量,其中基于火炮上的显示器指定的位置,uav可以安全地飞行。在一些实施例中,如果实际位置不是使uav的轨道居中的所期望的瞄准位置,系统可以使火炮的操作员能够为uav的飞行指定所期望的“从其凝视”位置。此外,安全的风量可以被基于接收定义选择的地理区域的地理数据以及可选地与选择的地理区域相关联的操作模式来确定,其中,接收的操作模式可以限制uav在可能在安全的风量外的风量上飞行。也就是说,vo可以基于所选择的地理区域和接收到的操作模式控制uav的飞行。因此,在一个实施例中,武器操作员可以能够完全控制uav的操作和飞行路径。此外,地面操作员或uav的飞行员可以基于uav的图像数据命令武器和引导武器指向目标。

来自武器系统的给uav或传感器的命令可能被发送(例如,经由包括目标上的光标(cot)、stanag4586(nato无人机控制系统的标准接口-无人机互操作性)或无人系统的联合体系结构(jaus)的任何命令语言)。

遥感器150的视场可被定义为在任何给定时间所采集的看得到的区域的范围。因此,传感器150的中心视场(cfov)可以指向指示的武器的瞄准位置b。用户可以手动放大或缩小瞄准位置b的图像来获得与预期的武器击中地点(包括周围的目标区域和目标)相关联的最佳视野。遥感器150采集图像数据以及传感器控制器170经由远程通信设备160可以与相关元数据一起发送所采集的数据。在一些实施例中的元数据可以包括与由遥感器150正在采集的影像有关和相关联的其他数据。在一个实施例中,伴随影像的元数据可以指示实际的cfov,例如,假设它仍然可以回转到指示的位置,以及被发送的图像的每个角的实际网格位置。这允许显示器显示预期的武器瞄准位置b在图像上的何处,并在该位置绘制标线(例如十字瞄准线)。

在一些示例性实施例中,遥感器150可以是被安装在万向支架上的光学摄像机,使得它可以相对于uav平移和倾斜。在其他实施例中,传感器150可以是被安装在uav中的固定位置中的光学摄像机,并且uav被定位以保持摄像机观察目标区域c。遥感器可以配备有光学或数字变焦功能。在一个实施例中,可能在uav上有多个可以包括红外或光波长的摄像机,操作员可在它们之间任意切换。根据示例性实施例,由遥感器150生成的图像可以由远程通信设备160经由通信设备140发送到显示器120。在一个实施例中,提供了包括cfov和作为网格位置的视图的每个角的信息(例如,地面经度、纬度、每个点的高程)的例如图像元数据的数据可以与来自遥感器150的影像一起被传送。显示器120然后可以显示给武器用户观察的目标区域c,其包括预期的武器瞄准位置b,其如在图1中所示可以是瞄准标线(如cfov)。在一些实施例中,如当武器110正在被移动和遥感器150正在回转(例如,倾斜和/或偏航)时,预期的瞄准位置b可以与cfov分开显示以赶上新的位置b并且使cfov重新居于新位置的中心。以这种方式,当用户操纵武器110(例如,旋转和/或倾斜武器)时,用户可以在显示器120上看到武器110的预测瞄准位置b在何处(如通过遥感器150观察到的)。这允许武器用户看到瞄准位置以及目标和武器的击中,即使从武器到瞄准位置b之间没有直接的视线(例如目标位于障碍物后面的情况下)。

在一个实施例中,为了帮助用户,显示的图像可以被旋转为了使显示器与罗盘方向对准,使得武器被指向一些限定的固定方向或由一些限定的固定方向所指向,例如,北始终是在显示器的上边。图像可以被旋转以符合武器用户的方向,而不管uav或遥感器的其他安装的位置。在实施例中,图像在显示器上的方向被通过如由瞄准设备(例如射击控制计算机)计算的火炮筒或迫击炮身管的炮膛方位角来控制。在一些实施例中,显示器120还可以显示观察目标区域c内的武器的位置。

在实施例中,远程通信设备160、遥感器150和传感器控制器170可以全部被例如体现在shrikevtol中,其是可购自加利福尼亚蒙罗维亚的aerovironment公司(http://www.avinc.com/uas/small_uas/shrike/)的人工可压缩、垂直起降的微型飞行器(vtolmav)系统。

此外,瞄准系统的一些实施例可包括瞄准误差校正。在一个示例性实施例中,可以提供飞行器风估计作为将与炮弹击中估计一起使用的动态信息并且提供更准确的误差校正。当武器的炮弹的实际击中地面点从预测的击中地面点(gp)移位时,不改变武器的位置,用户在他们的显示器上可以突出显示实际击中的gp以及瞄准系统可确定校正值以应用到预测的击中gp的确定,以及然后提供这个新预测的gp到遥感器并且在武器的显示器上对其进行显示。这样的一个实施例被在图1中所示,在显示器120中,其中实际弹着点d从预测击中gpb偏移。在这个实施例中,用户可突出显示点d并且作为实际弹着点输入到瞄准系统,其将然后被提供以用于瞄准误差校正。因此,目标弹着点可以经由跟踪第一炮弹击中以及然后针对目标对武器进行调整来进行校正。在误差校正或校准的另一个示例性实施例中,系统可以使用对描绘了在击中之前和之后的弹着点的接收的影像的图像处理来检测弹着点。该实施例可以基于确定与使用的炮弹相关的计算的飞行时间来确定何时可以声明击中已经发生。系统然后可以基于炮弹的预期的着陆区域和最后实际射击的炮弹来调整位置。

图2描绘了实施例,其包括手持的或安装的火炮或榴弹发射器210,其具有安装的计算设备(例如,具有视频显示器222的平板计算机220)、惯性测量单元(imu)230、弹道范围模块232、通信模块240和具有遥感器(例如成像传感器252)的uav250。uav250还可具有导航单元254(例如,gps)和安装在万向支架256上的传感器,使得传感器252可相对于uav250平移和倾斜。imu230可以使用加速度计、陀螺仪、编码器或磁力计的组合来确定的武器210的方位角和高程。imu230可以包括在平板计算机220中的硬件模块、测量姿态的独立的设备或者在武器安装设备中的一系列位置传感器。例如,在一些实施例中,imu可使用电子设备,其通过读取平板计算机220的传感器来测量和报告设备的速度、方向和重力。

考虑到武器的位置(即纬度、经度和高程)、方位角、高程以及炮弹的类型,弹道范围模块232计算估计的或预测的弹着点。在一个实施例中,预测的弹着点可以由包括在计算、风估计中的弹道范围模块进一步细化。弹道范围模块232可以是平板计算机或具有单独的处理器和存储器的独立的计算机中的模块。计算可以通过基于武器的范围测试构造的查找表来完成。弹道范围模块的输出可以是包括预测的弹着点b(即纬度、经度和高程)的一系列消息。弹道范围模块232可以以可以被下载到平板220作为应用程序的非临时性计算机启用指令的形式。

通信模块240可以通过无线通信链路(例如rf链路)向uav250发送估计的或预测的弹着点。通信模块240可以是计算设备,例如,被设计成承受振动、下落、极端温度和其它粗糙处理的计算设备。通信模块240可以连接到uav地面控制站或可购自加利福尼亚州蒙罗维亚的aerovironment公司的掌上ddlrf模块或与所述uav地面控制站或所述掌上ddlrf模块进行通信。在一个示例性实施例中,弹着点消息可以是“在目标上的光标”的格式、地理空间网格或纬度和经度的其他格式。

uav250可接收rf消息并且将远离武器的成像传感器252指向预测的弹着点b。在一个实施例中,成像传感器252通过uav的rf链路将视频发送到通信模块240。在一个示例性实施例中,视频和元数据可以被以运动图像标准协会(misb)格式发送。通信模块然后可以发送该视频流回到平板电脑220。具有其视频处理器234的平板电脑220旋转视频以对准参照的火炮的框架,并且添加了标线叠加,其向炮手显示在视频中的预测的弹着点b。可以完成视频图像的旋转,使得火炮手看到的图像的顶部与火炮210指向的罗盘方向或者可替代地从火炮的方位角确定的罗盘方向或目标位置和火炮位置之间的罗盘方向相匹配。

在一些实施例中,被提供给武器210的用户的平板计算机220上的视频显示器222上显示的视频图像可以包括预测的弹着点b和计算的误差椭圆c。视频图像222上还示出uav的中心视场(cfov)d。

在一个实施例中,除了自动引导传感器或摄像机万向支架朝向预测的弹着点,uav还可飞向预测的弹着点或将本身定位在预测的弹着点周围。当uav最初(在接收预测的弹着点的坐标时)在其中预测的弹着点太远而不能被看到或不能由uav的传感器以足够的分辨率看到的位置时,飞向预测的弹着点可能发生。此外,利用预测的弹着点,uav可以为uav自动地建立等待航线或等待位置,其中,这样的等待航线/位置允许uav传感器在观测范围内并且没有障碍。这样的等待航线可以使得它定位uav以允许固定侧视摄像机或传感器以将预测的弹着点保持在视野范围内。

图3示出具有初始远离目标304和武器302的预测的弹着点b定位的遥感器312的uav310的俯视图,使得由预测的弹着点b和目标区域(大概包括目标304)的传感器312产生的图像(如通过图像扫描线320所示),传感器缺乏足够的分辨率以为用户提供足够有用的武器302的瞄准。这样,uav310可改变其航线以移动传感器更靠近预测的弹着点b。当uav被设置为跟随武器302或被武器302控制时,这种航线的改变可以是自动的,或当武器的用户要求或命令时,航线的改变可以由uav操作员完成。在一个实施例中,由uav操作员保留对uav的控制允许考虑例如空域限制、uav续航能力、uav安全、任务分配等等的因素并且对其做出响应。

如图3中所示,uav执行右转并朝向预测的弹着点b前进。在武器瞄准系统的实施例中,uav可以飞到如由航线340所示的特定位置c,也就是离预测的弹着点b的距离为d的地方。该移动允许传感器312正确地观察预测的弹着点b并且允许武器302瞄准到目标304。距离d可以变化,并且可以取决于多种因素(包括传感器312的功能(例如,变焦、分辨率、稳定性等)、武器302上的显示屏的功能(例如,分辨率等)、用户利用成像的能力)以及因素(例如uav应被定位离目标有多近)。在本示例性实施例中,uav当到达位置c时然后可以将自身定位到在等待航线或观察位置350中以保持预测的弹着点b的视野。如图所示,等待航线350是围绕预测的弹着点b的圆,其他航线还被根据这些示例性实施例来使用。uav310’在等待航线350中时,uav现在可以连续地重新定位其传感器312’以保持其对预测的弹着点b的视野322。即,当uav围绕目标飞行时,传感器看着预测的弹着点的位置或被锁定在其上。在本实施例中,在等待航线时间期间,uav可以发送视频图像回到武器302。当武器302的用户重新定位武器的瞄准时,uav可能重新瞄准传感器312’和/或重新定位uav310’本身以将新的预期的武器瞄准位置保持在传感器的视野中。在示例性实施例中,遥感器可任选地观察目标,同时引导武器,使得预期的瞄准位置与目标相一致。

图4是武器瞄准系统400的示例性实施例的流程图。图中所描绘的方法包括以下步骤:武器被例如通过用户放置在适当的位置(步骤410);瞄准设备确定预期的武器作用的位置(步骤420);通信设备发送预期的武器作用的位置给远程通信设备(步骤430);遥感器控制器从远程通信设备接收作用位置,并将遥感器引导到作用位置(步骤440);传感器经由远程通信设备和武器通信设备将作用位置的影像发送到武器显示屏(步骤450);以及用户观察预期武器作用的位置和目标区域(可包括目标)(步骤460)。作用位置可以是被计算的、预测的或预期的弹着点(有或没有误差)。在步骤460之后,过程可以从步骤410重新开始。以这种方式,用户可以瞄准武器,并基于先前接收到的作用位置的影像调整对目标的射击。在一个实施例中,步骤450可以包括旋转图像以便使图像与武器的方向对准以帮助用户瞄准。

图5描绘了武器瞄准系统500的功能框图,其中该系统包括显示器520、瞄准设备530、uav远程视频终端540和rf接收器542。显示器520和瞄准设备530可以可拆卸地附连或安装在火炮或其他武器(未示出)上,或与火炮或其他武器(未示出)一起操作。显示器520对于武器的用户可以是可见的以方便瞄准和引导射击。瞄准设备530可包括射击控制控制器532(该射击控制控制器具有处理器和可寻址的存储器)、imu534、磁罗盘535、gps536和有关火炮和炮弹的弹道数据的数据库537(即,数据存储器)。imu534生成武器相对于水平面的高程位置或角度,并提供该信息给射击控制控制器532。磁罗盘535提供武器的方位角(例如武器瞄向的罗盘航向)给控制器532。位置确定组件(如gps536)提供武器的位置给射击控制控制器532,其典型地包括经度、纬度和海拔高度(或高程)。数据库537提供关于武器和它的炮弹(射弹)两者的弹道信息给射击控制控制器532。数据库537可以是查找表、一个或多个算法或两者,但通常提供查找表。射击控制控制器532可以与imu534、罗盘535、gps536和数据库537通信。

另外,射击控制控制器532可以使用来自组件imu534、罗盘535、gps536的武器的位置和方向信息以和来自数据库537的武器和炮弹弹道数据一起进行处理并确定估计或预测的地面弹着点(未示出)。在一些实施例中,控制器532可以使用来自imu534的武器的高程以对数据库537的查找表与武器和炮弹的定义的类型一起进行处理以确定将去向与地面的弹着点的炮弹距离武器的预测的范围或距离。武器和炮弹的类型可以由武器的用户先于武器的操作进行设置,以及在实施例中,炮弹选择可在武器使用期间改变。一旦距离被确定,则射击控制控制器532可以使用来自gps536的武器位置和来自罗盘535的武器方位角以确定预测的弹着点。此外,计算机532可以使用来自uav的从rf接收器542或uav远程视频终端(rvt)540接收的图像元数据,其中元数据可以包括遥感器(例如光学摄像机(未示出))的cfov的地面位置,并且可以包括被传送回系统500的视频图像的一些或所有角的地面位置。射击控制控制器532然后可使用该元数据和预测的弹着点以创建将在显示器520上显示的图标叠加533。这个叠加533可能包括cfov的定位和预测的弹着点b。

射击控制控制器532的示例性实施例可以使用由上述的连接的组件提供的误差输入来确定围绕预测的弹着点的误差区域(例如椭圆)并且在显示器520上对其进行显示。在一个实施例中,射击控制控制器532还可以经由rf发射器542和其相关联的天线发送预测的击中gp545到uav以引导在uav上的遥感器指向哪里并采集图像。在一个实施例中,射击控制控制器532可以发送请求到中介,其中请求包括目标点,其中射击控制控制器532的操作员想要观察并请求从uav上的传感器接收影像。

另外,在一些实施例中,射击控制控制器532还可以包括来自地图数据库538的输入以确定预测的击中gp。在例如当武器和预测的击中gp被定位在不同的海拔高度或地面高度时的情况下,预测的击中gp的精度可通过使用地图数据库得到改善。另一个实施例可以包括环境条件数据539,其可以被接收作为输入并被射击控制控制器532使用。环境条件数据539可以包括风速、空气密度、温度等等。在至少一个实施例中,射击控制控制器532可以基于如由imu提供的武器的状态估计和环境条件(例如从uav接收的风估计)计算炮弹的轨迹。

图6示出具有例如具有显示器或视觉620的迫击炮、火炮或榴弹发射器的武器610的武器瞄准系统600的实施例,其观察围绕预测的击中gpb并且在cfovd上居中的目标区域c,如同通过具有装有万向架的摄像机650的uav680观察到的。uav680包括装有万向架的摄像机控制器670,其引导摄像机650指向由发射器/接收器660从武器610接收的预测的击中gpb。在一个实施例中,uav可以给电光(eo)和红外(ir)全运动视频(eo/ir)影像提供cfov。即,发射器/接收器660可以将视频从传感器或摄像机650发送到显示器620。在武器瞄准系统的实施例中可以有在武器和遥感器、传感器的主动控制或传感器的被动控制之间的交互的两个选项。在主动控制的示例性实施例中,火炮或武器的位置可控制传感器或摄像机,其中旋转摄像机使cfov处在击中地点并且摄像机还提供对实际变焦功能的控制。在被动控制的示例性实施例中,uav操作员可控制传感器或摄像机,并且因此,仅当击中地点在摄像机的视野内时,击中地点可以出现。在这种被动控制实施例中,摄像机的变焦功能是不可用的;然而,从摄像机(或其它视频处理)接收到的压缩数据可被用于实现变焦效果。

在主动控制的实施例中,武器操作员监督传感器的控制。瞄准系统将预测的击中地面点(gp)的坐标发送到遥感器控制器(其可以以各种消息格式中的任何一种来实现,包括作为目标上的光标(cot)消息)。遥感器控制器采用预测的击中gp作为对摄像机的cfov的命令。遥感器控制器然后使摄像机在预测的击中gp上居中。在现有的滞后时间介于当武器定位时和当旋转传感器以使其视野居中于预测的击中点上时之间的情况下,瞄准设备(例如,射击控制控制器)将使在显示的图像上的例如十字瞄准线线的标线变灰,直到cfov实际上与预测的击中gp对准为止,并且当它移向cfov时,它将在图像上显示预测的击中gp。在一些实施例中,武器的炮管方向然后可能影响在uav的中心视场的运动中的改变,从而当它们出现在击中视觉显示器620上时,允许武器的操作员快速寻找和识别多个目标。

图7示出了武器瞄准系统的实施例,其中该瞄准系统被配置为控制在uav上的远程摄像机。显示器710示出了位于视野中心的cfove的左上方的预测的击中gpb。在显示器710中,摄像机处于转向预测的击中点gp的过程中。在显示器720中,预测的击中gpb现在对准图像的视野中心中的cfove。显示器730示出了当预测的击中gpb位于摄像机的视野的外面(即在示出的图像的左上方)时的情况。在这种情况下,无论是传感器还是摄像机尚未转向以观察gpb或它不能够这样做。这可能是由于例如在传感器万向支架的倾斜和/或滚动中的限制的因素。在一个实施例中,显示器730示出的箭头f或其它符号,其中箭头可以指示朝向预测的击中gpb的位置的方向。这允许用户至少获得他/她在何处正瞄准武器的一般的指示。

在被动控制的实施例中,武器的用户可以看到来自遥控器的图像,但对遥感器或uav或携带遥感器的其他设备没有控制权。武器的用户可以看到来自遥感器的影像,其包括投射到图像上的指示预测的击中gp位于何处的叠加。如果预测的击中gp在摄像机的视野以外,则在图像的边缘的箭头将指示计算的弹着点相对于图像在哪个方向(诸如在显示器730中示出的)。在这样的实施例中,用户可以移动武器以定位到视野内的预测的击中地面点和/或可以请求uav操作员重定向遥感器和/或uav以使预测的击中gp进入视野。在本实施例中,以被动控制模式操作系统的武器用户可以具有对图像的缩放的控制以允许促进预测的击中gp的定位和操纵。应当注意的是,当存在多于一个武器系统时,被动控制的实施例可以被采用,所述多于一个武器系统使用例如来自相同的远程摄像机的相同的显示影像以引导单独的武器中的每个的瞄准。因为预测的弹着点的计算被在武器完成,其具有瞄准系统或射击控制计算机(给出影像的坐标(cfov,角)),所以瞄准系统可以生成用户显示图像,而无需发送任何信息给遥感器。即,在被动模式中,没有必要将预测的击中gp发送到远程摄像机,因为遥感器从不朝向该gp。

图8示出了具有被动控制传感器/uav控制的武器瞄准系统的实施例的显示器。显示器810示出了位于摄像机的视野以外(即在示出的图像的左上方)的预测的击中gpb。在这种情况下,摄像机还没有旋转以观察gpb或它不能够这样做,由于例如在传感器万向支架的倾斜和/或滚动中的限制的因素。在一个实施例中,显示器810示出箭头e或其它符号,其指示到预测的击中gpb的位置的方向。这允许用户至少获得他/她在何处正瞄准武器的一般的指示。显示器820示出了位于cfov的左下方的预测的击中gpb。虽然通过操纵武器,gpb可以在显示器820的图像内移动,但是由于遥感器的控制是被动的,所以传感器可能不被引导来移动cfov与gpb对准。显示器830和840示出其中用户分别具有对摄像机的变焦、放大和缩小的控制的实施例。

图9示出了实施例,其中来自遥感器的图像被旋转或未被旋转到武器的用户的视角(即:武器的方向)。显示器910显示旋转到武器的方向的影像并显示预测的击中gpb、cfove和武器的位置g。显示器920显示未旋转到武器的方向的影像并显示预测的击中gpb、cfove和武器位置g。在被动模式的一个实施例中,显示器仍然可以被旋转到武器的目标的方向,即:不是武器所指向的地方。在这种情况下,武器的位置g将仍然在显示器的底部,但预测的击中gpb将不是cfov。

在一些实施例中,系统可以包括多个武器和/或多个遥感器中的一者或两者。多个武器实施例具有多于一个武器,其从单个遥感器观察到相同的影像,其中每个武器系统显示其自身的预测的击中gp。以这种方式,几个武器可以在瞄准相同的或不同的目标时协调一起工作。在这些实施例中,武器中的一个可以主动控制遥感器/uav,而其他的在被动模式下。此外,每件武器的每个瞄准设备可将它的预测的击中gp提供给uav并且遥感器然后可以向所有武器的全部瞄准设备提供在它的元数据中的武器的预测的击中gp中的每个。以这种方式,利用每个瞄准设备的元数据,元数据可以被包括在每个武器显示器的叠加中。该元数据可以包括关于武器和/或武器位置的标识符。

图10描绘了可以包括从一个遥感器接收影像的多个武器的武器瞄准系统的示例性实施例。uav1002可具有装有万向架的摄像机1004,其观察具有图像边界1006和图像角1008的目标区域。图像的中心是cfov。武器1010具有预测的击中gp1014,如在具有cfov的显示器1012上所示的。武器1020可具有预测的击中gp1024,如在具有cfov的显示器1022上所示的。武器1030可在cfov具有预测的击中gp1034,如显示器1032上所示的。在其中武器1030处于遥感器/uav的主动控制模式的实施例中,cfov然后可以与gp1034对准。武器1040具有预测的击中gp1044,如在具有cfov的显示器1042上所示的。在其中每件武器的预测的击中gp与其他武器经由uav或者直接共享的实施例中,每件武器可以显示其他武器的预测的击中gp。在一个实施例中,uav1002的操作员可以使用从装有万向架的摄像机1004接收到的影像以例如基于武器的各自的预测的击中gp1044确定一组武器1010、1020、1030、1040中的哪一件武器可能处于攻击目标的最好的位置。

在一些实施例中,最有效的武器可基于从一个遥感器接收到的影像以及可选地与炮弹相关联的弹道表被利用。因此,动态环境可被创建,其中不同的武器可用于目标,其中目标和预测的击中gp在不断地变化。控制可以在火炮操作员、uav操作员和或控制指挥官之间动态地转移,其中每个操作员可能已经主管武器瞄准系统的不同方面。也就是说,uav或武器的控制或命令可以从一个操作员动态地转移到另一个。此外,系统可以基于从在uav上的传感器接收的影像和命令控制允许不同的武器的自动命令并且允许多个武器的同步。

在一些实施例中,一个武器可以利用多个遥感器,其中武器显示器将自动切换以显示来自遥感器的影像(显示预测的击中gp或在屏幕外的gp或在多个图像输入上的gp)以显示最接近预测的击中gp的影像。本实施例采用预测的击中gp的最佳视野。可替代地,利用观察到预测的击中gp的一个以上的遥感器,武器用户可以在影像将被显示或将每个图像输入显示在其显示器上(例如并排视图)之间进行切换。

图11描绘了一种场景,其中当武器1102被用户操纵时,武器的预测的击中gp穿过不同区域(如通过单独的遥感器观测到的)。武器显示器可以自动切换到遥感器的武器的预测的gp位于其内的影像。利用在uav1的远程摄像机的观察区域1112内的武器的预测的击中gp1110,显示器可以显示来自uav1的视频图像a。然后,如所示的,当武器被操纵到右侧时,利用在uav2的远程摄像机的观察区域1122内的武器的预测的击中gp1120,显示器将显示来自uav2的视频图像b。最后,如图所示,当武器被进一步操纵到右侧时,利用在uav3的远程摄像机的观察区域1132内的武器的预测的击中gp1130,显示器将显示来自uav3的视频图像c。

图12示出了计算设备实施例1200的示例性顶层功能框图。示例性操作环境被示为计算设备1220,即:计算机,其具有处理器1224,诸如中央处理单元(cpu);诸如例如阵列的查找表的可寻址存储器1227;外部设备接口1226,例如,可选的通用串行总线端口和相关的处理和/或以太网端口和相关的处理;输出设备接口1223,例如,web浏览器;应用处理内核1222;和可选的用户接口1229,例如,一排状态灯和一个或多个拨动开关和/或显示器和/或键盘、操纵杆、跟踪球或其它位置输入设备和/或指针鼠标系统和/或触摸屏。可选地,可寻址存储器可以例如是:闪存、ssd、eprom和/或磁盘驱动器和/或另一存储介质。这些元件可以经由数据总线1228彼此进行通信。在诸如一个支持可选的web浏览器和应用的操作系统1225中,处理器1224可以被配置为执行以下步骤:射击控制控制器与惯性测量单元、磁罗盘、全球定位系统(gps)单元、数据存储器进行通信;惯性测量单元被配置为将高程数据提供给射击控制控制器;磁罗盘可操作以将方位角数据提供给射击控制控制器;gps单元被配置为将位置数据提供给射击控制控制器;数据存储器具有与多个武器和相关的炮弹相关联的弹道信息;并且,其中射击控制控制器基于所存储的弹道信息、所提供的高程数据、所提供的方位角数据和所提供的位置数据确定所选择的武器和相关的炮弹的预测的弹着点。在一个实施例中,路径间隙检查可以由射击控制控制器执行,其中如果系统检测到在武器的路径上存在障碍物或在武器的路径上将存在障碍物(如果发射的话),则射击控制控制器提供不射击炮弹的功能。

预期的是,可以进行上述实施例的特定特征和方面的各种组合和/或子组合,并且仍然属于本发明的范围。因此,应当理解的是,所公开的实施例的各种特征和方面可以彼此组合或彼此替代以便形成所公开的发明的不同模式。此外,意图是,本发明的范围被通过示例的方式在本文公开并且不应当受限于以上描述的特定的公开的实施例。


技术特征:

1.一种设备,包括:

射击控制控制器,其中,所述射击控制控制器确定所选择的武器和相关的炮弹的预测的弹着点,并且其中,所述射击控制控制器将关于所预测的弹着点的信息发送到容纳遥感器的飞行器上的传感器控制器以引导所述飞行器的所述遥感器的指向。

2.根据权利要求1所述的设备,其中,所述飞行器的所述遥感器的所述指向基于所选择的武器的所预测的弹着点。

3.根据权利要求2所述的设备,其中,所预测的弹着点基于以下项中的至少一项:弹道信息、高程数据、方位角数据和位置数据。

4.根据权利要求3所述的设备,还包括:

数据存储器,所述数据存储器与所述射击控制控制器进行通信,所述数据存储器已存储有与多个武器和相关的炮弹相关联的弹道信息。

5.根据权利要求3所述的设备,还包括:

导航单元,所述导航单元与所述射击控制控制器进行通信,所述导航单元被配置为将所述位置数据提供给所述射击控制控制器。

6.根据权利要求3所述的设备,还包括:

磁罗盘,所述磁罗盘与所述射击控制控制器进行通信,所述磁罗盘能够操作为将所述方位角数据提供给所述射击控制控制器。

7.根据权利要求3所述的设备,还包括:

导航单元,所述导航单元与所述射击控制控制器进行通信,所述导航单元被配置为将所述位置数据提供给所述射击控制控制器。

8.根据权利要求1所述的设备,其中,所述射击控制控制器基于预测与所选择的武器相关联的距离来确定所述预测的弹着点,其中,所述距离是在所述武器的炮弹的当前位置和与地面的弹着点之间的距离。

9.根据权利要求1所述的设备,还包括:

环境条件确定器,所述环境条件确定器与所述射击控制控制器进行通信,其中,所述环境条件确定器被配置为提供与所述预测的弹着点的周围区域的环境条件有关的信息,以便供所述射击控制控制器确定所述预测的弹着点;并且其中,所述射击控制控制器基于所述环境条件信息确定所述预测的弹着点。

10.根据权利要求1所述的设备,还包括:

弹道范围确定器,所述弹道范围确定器与所述射击控制控制器进行通信,其中,所述弹道范围确定器被配置为基于武器位置、方位角、高程和炮弹类型确定所述预测的弹着点。

11.根据权利要求1所述的设备,其中,所述射击控制控制器从所述遥感器接收图像元数据,并且其中,所述图像元数据包括所述遥感器的中心视场cfov的地面位置,并且其中,所述cfov被指向所确定的预测的弹着点。

12.根据权利要求1所述的设备,其中,所述飞行器是无人机(uav)。

13.一种方法,包括:

由射击控制控制器确定所选择的武器和相关的炮弹的预测的弹着点;以及

由所述射击控制控制器将关于所预测的弹着点的信息发送到容纳遥感器的飞行器上的传感器控制器以引导所述飞行器的所述遥感器的指向。

14.如权利要求13所述的方法,还包括:

由所述飞行器的所述传感器控制器接收所发送的关于所预测的弹着点的信息;以及

由所述传感器控制器基于所接收的所预测的弹着点来引导所述飞行器的所述遥感器的所述指向。

15.根据权利要求13所述的方法,其中,所预测的弹着点基于以下项中的至少一项:弹道信息、高程数据、方位角数据和位置数据。

16.如权利要求15所述的方法,还包括:

由与所述射击控制控制器进行通信的数据存储器,将与所选择的武器和相关的炮弹相关联的所述弹道信息提供给所述射击控制控制器。

17.如权利要求15所述的方法,还包括:

由与所述射击控制控制器进行通信的导航单元,将所述位置数据提供给所述射击控制控制器。

18.根据权利要求15所述的方法,还包括:

由与所述射击控制控制器进行通信的磁罗盘,将所述方位角数据提供给所述射击控制控制器。

19.根据权利要求15所述的方法,还包括:

由与所述射击控制控制器进行通信的导航单元,将所述位置数据提供给所述射击控制控制器。

20.根据权利要求13所述的方法,还包括:

由所述传感器控制器发送来自所述飞行器的所述遥感器的所预测的弹着点的视频;以及

经由与所述射击控制控制器进行通信的显示设备显示所发送的所预测的弹着点的视频。

技术总结
涉及一种显示目标区域的遥感图像的交互式武器瞄准系统。远程瞄准系统包括武器(110)、在武器(110)上的显示器(120)、射频(RF)接收器(140)、远离武器(110)的传感器(150),传感器(150)被配置为在武器显示器(120)上提供预测的弹着点B的图像元数据,且瞄准设备(130)包括数据存储器(537)和射击控制控制器(532),数据存储器(537)具有与多个武器和相关的炮弹相关联的弹道信息,射击控制控制器(532)基于弹道信息、从惯性测量单元(534)接收到的高程数据、从磁罗盘(535)接收到的方位角数据、从位置确定组件(536)接收到的位置数据确定预测的弹着点B,射击控制控制器(532)与惯性测量单元(534)、磁罗盘535和位置确定组件(536)进行通信。

技术研发人员:约翰·C·麦克尼尔;厄尔·克莱德·考克斯;马科托·温诺;乔恩·安德鲁·罗斯
受保护的技术使用者:威罗门飞行公司
技术研发日:2014.10.31
技术公布日:2020.06.09

转载请注明原文地址: https://bbs.8miu.com/read-16833.html

最新回复(0)