点赞

未来战争制胜的关键在于人机环境系统的有效协同

发布时间: 2021-12-15 发布来源:中国指挥与控制学会

13
1561
    摘要:未来战争是人机环境系统融合的战争。

    它不仅仅是智能化战争,更是智慧化战争,未来的战争不但要打破形式化的数学计算,还要打破传统思维的逻辑算计,是一种结合人、机、环境各方优势互补的新型计算-算计博弈系统。

    而有效的协同作战是其主要的手段,通过有效的协同方式形成智慧化系统作战模式。

    其中,人工智能在未来战争中发挥着重要作用,但也存在着可解释性、学习、常识,这三道过不去的坎。

    最后,介绍了未来战争中可能存在的问题,包括人机融合智能中的深度态势感知问题、不确定性问题和人的问题。

    所以,人机融合智能机制、机理的破解以及有效的协同方式将成为未来战争致胜的关键。

     关键词:人机环境系统 未来战争 深度态势感知 人工智能 协同作战一、未来战争——人机环境系统融合的战争近年来,AI的杰出代表阿尔法系列在围棋等博弈中取得的了耀眼的成绩,但其根本仍是封闭条件下的相关性机器学习和推理,而军事智能博弈的根本依然是开放环境下因果性与相关性混合的人之学习和理解,这种学习能够产生在一定程度上范围不确定的隐性知识和秩序规则(如同小孩子们的学习一样),这种理解可以把表面上无关的事物相关起来。

    种种迹象表明,未来的战争可能就是人机环境系统融合的战争。

    孙子曰:知彼知己,方百战不殆。

    这里的知既包括人的感知,也包括机器的感知,人机之间感知的区别是人能够得意忘形,机器对于意向的理解还不能够像人一样灵活深入;这里的彼既包括对手、也包括装备和环境,这里的己也包括己方的人、机、环境三部分。

    所以,没有人,就没有智能,也就没有人工智能,更没有未来的战争。

    真正的智能或人工智能,不是抽象的数学系统所能够实现的,数学只是一种工具,实现的只能是功能,而不是能力,只有人才会产生真正的能力,所以人工智能是人、机、环境系统相互作用的产物,未来的战争也是机器计算结合人算计的结果,是一种结合计算的算计或是一种洞察,事实上,若仅是单纯的计算,算的越快、越准、越灵,危险往往越大,越容易上当受骗,越容易“聪明反被聪明误”,而中国一个著名的成语“塞翁失马”就说明了计算不如人的算计和洞察。

    最近一段时间,美国各兵种分别针对未来作战方式提出了多域战、全域战、马赛克战等模式,都是人机环境系统工程,是人、机、环境中各元素的弥散与聚合,是各种符号的分布式表征计算与众多非符号的现象性表示算计综合、混合、融合,同时也是机械、信息、知识、经验、人工智能、智能、智慧的交叉互补。

    所以,人机融合智能机制、机理的破解将成为未来战争致胜的关键。

    任何分工都会受规模和范围限制,人机融合智能中的功能分配是分工的一部分,另外一部分是能力分配。

    功能分配是被动的,外部需求所致;能力分配是主动的,内部驱动所生。

    在复杂、异质、非结构、非线性数据/信息/知识中,人的或者是类人的方向性预处理很重要,当问题域被初步缩小范围后,机器的有界、快速、准确优势便可以发挥出来了;另外,当获得大量数据/信息/知识后,机器也可以先把他们初步映射到几个领域,然后人再进一步处理分析。

    这两个过程的同化顺应、交叉平衡大致就是人机有机融合的过程。

    二、未来战争形态——智慧化协同作战未来的战争不仅是智能化战争,更是智慧化战争,未来的战争不但要打破形式化的数学计算,还要打破传统思维的逻辑算计,是一种结合人、机、环境各方优势互补的新型计算-算计博弈系统。

    这有点像教育,学校的任务是将知识点教授给学生(有点像机器学习一样),但教育不只是教授知识点,教育应该挖掘知识背后的逻辑,或者是更深层次的东西。

    比如,我们在教计算的时候,其实要去想计算背后是什么。

    我们首先是应该培养学生们的数感,再去教他们计算的概念,什么是加、什么是减,然后教怎么应用,进而形成洞察能力。

    在智慧化战争中,协同作战是必要的手段。

    鉴于核武器的不断蔓延和扩散,国家无论大小,国与国之间的未来战争成本将会越来越高。

    从某种角度上说,两者既是合作伙伴,又是竞争对手和战略对手(既要防止核/生化/智能武器失控,又要摧毁对方的意志并打败对手)。

    如果把男性看作力量,把女性看作智慧,那么未来的战争应该是女性化战争,至少是混合式的战争。

    无论人工智能怎样发展,未来是属于人类的,应该由人类共同定义未来战争的游戏规则并决定人工智能的命运,而不是由人工智能决定人类的命运。

    究其因,人工智能是逻辑的,而未来战争不仅仅是逻辑的,还存在着大量的非逻辑因素。

    面对敌军强劲的电磁频谱和网络空间作战能力,各军种之间协同实施多领域作战时,信息通联、指挥控制系统,情报、监视、侦察等各个系统的无缝衔接和协调统一也将是一大考验。

    所以,未来战争是将人机环有效结合,并协同多方领域,形成的智慧化协同作战模式。

    三、人工智能在未来战争中的作用如同多模态处理有利有弊一样,AI对未来战争也有好有坏。

    未来的人工智能和正义的战争应该承担着人类和平的使命,人负责做正确的事:公平正义、共同命运、安全可控,而人工智能则要正确的做事:快速准确、海量存储、可解释性。

    人工智能的理念源于20世纪40年代。

    1948年,英国科学家图灵在其论文《计算机器与智能》中描述了可以思考的机器”,被视为人工智能的雏形,并提出“图灵测试”。

    在之后的 1956年,马尔文·明斯基、约翰·麦卡锡、香农等学者在美国达特茅斯学院召开了一次关于人工智能的研讨会,史称“达特茅斯会议”, 正式确立了人工智能的概念与发展目标。

    研究领域包括命题推理、知识表达、自然语言处理、机器感知、机器学习等。

    人工智能60多年的发展历程,可以总结为以下几个主要发展阶段。

    第一次高潮期(1956~1974):达特茅斯会议之后,研究者们在搜索式推理、自然语言、机器翻译等领域取得了一定的成果。

    第一次低谷期(1974~1980):随着计算机运算能力不足、计算复杂性较高、常识与推理实现难度较大等原因造成机器翻译项目失败,人工智能开始受到广泛质疑和批评。

    第二次高潮期(1980~1987):具备逻辑规则推演和在特定领域解决问题的专家系统开始盛行,日本“第五代计算机计划”为其典型代表。

    第二次低谷期(1987~1993):抽象推理不再被继续关注,基于符号处理的智能模型遭到反对。

    发展期(1993~2012):“深蓝”等人工智能系统的出现让人们再次感受到人工智能的无限可能。

    爆发期(2012-):机器学习、移动网络、云计算、大数据等新一代信息技术引发信息环境和数据基础变革,运算速度进一步加快且成本大幅降低,推动人工智能向新一代阶段爆发式增长。

    现代的人工智能有点像小学生做作业,布置什么就是什么,缺乏需求任务的自主/自动生成、动态任务规划、需求矛盾协调。

    很难处理快态势感知和慢态势感知之间的矛盾,更不容易实现整个人机环境系统的有机相互联动和事实与价值元素的混编嵌入。

    所以,人工智能有限的理性逻辑和困难的跨域能力是其致命的缺陷。

    人工智能无法理解相等关系,尤其是不同事实中的价值相等关系;人工智能也无法理解包含关系,尤其是不同事实中的价值包含关系(小可以大于大,有可以生出无)。

    人可以用不正规不正确的方法和手段实现正规正确的目的,还可以用正规正确的方法和手段实现不正规正确的意图。

    还有,人可以用普通的方法处理复杂的问题,还可以(故意)用复杂的方法解答简单的问题。

    同时,人工智能在军事领域有三道过不去的坎,即可解释性、学习、常识。

     1、可解释性:人工智能过不去的第一道坎 可解释性不但包括对已有规则的解释,还包括构建起规则的新内涵与外延。

    如今,AI的可解释性正在成为一道过不去的坎,去年,欧盟出台《人工智能道德准则》,明确提出AI发展方向应该是“可信赖的”,包含安全、隐私和透明、可解释等方面。

    人工智能应用以输出决策判断为目标。

    可解释性是指人类能够理解决策原因的程度。

    人工智能模型的可解释性越高,人们就越容易理解为什么做出某些决定或预测。

    模型可解释性指对模型内部机制的理解以及对模型结果的理解。

    其重要性体现在:建模阶段,辅助开发人员理解模型,进行模型的对比选择,必要时优化调整模型;在投入运行阶段,向决策方解释模型的内部机制,对模型结果进行解释。

    比如决策推荐模型,需要解释:为何为这个用户推荐某个方案。

    目前,各领域对人工智能的理解与界定因领域分殊而有不同,但在共性技术和基础研究方面存在共识。

    第一阶段人工智能旨在实现问题求解,通过机器定理证明、专家系统等开展逻辑推理;第二阶段实现环境交互,从运行的环境中获取信息并对环境施加影响;第三阶段迈向认知和思维能力,通过数据挖掘系统和各类算法发现新的知识。

    严格意义上说,美国的人工智能技术总体上世界领先,但是一旦涉及到人机融合智能,往往就体现不出那么大的优势了,甚至不见得有领先的态势(也许中美在人机融合智能方面根本不存在代差)。

    究其因,人的问题。

    例如这次疫情,按医疗软件、硬件、医疗人员水平条件来看,美国应该比目前状况要比中国好得多,可惜应了《三体》里的一句话:弱小和无知不是生存的障碍,傲慢才是!

    领导人的失误和错误已让许多的先进性大打折扣,甚至荡然无存。

    这不禁使人联想到前几日美国《军备控制杂志》的报道可能也类似吧!

    美国防部2021财年申请289亿美元用于美国核武器设施的现代化建设,体现了特朗普政府战略发展重点:提升核指挥、控制和通信(NC3)基础设施的高度自动化与提高其速度和准确性,但同时也引发一个令人不安的问题,即在未来的核战争中,AI自主系统在决定人类命运方面将扮演哪种角色?

    当前计算机辅助决策仍处于起步阶段,容易出现难以预料的故障。

    机器学习算法虽擅长面部识别等特定任务,但也会出现通过训练数据传达的内在“偏见”。

    因此,在将人工智能应用于核武器指控方面需采取谨慎负责的态度,只要核武器存在,人类(而不是机器)就必须对核武器的使用行使最终控制权,此时,人机融合智能的真实能力将会如疫情管控一样显得异常重要。

    人机融合智能,根本上就是科学技术与人文艺术、数学符号事实语言与自然经验价值语言结合的代表。

    时空不但在物理领域可以发生弯曲,而且还可以在智能中发生了扭曲。

    如果说哲学逻辑经历了世界的本源问题、研究方法问题的转向,那么上个世纪分析哲学——对人类语言工具的剖析成了人类思想上的一次“革命”,这一场以维特根斯坦为象征的哲学革命,直接诱发了以图灵机、图灵测试为代表的人工智能科技之快速发展。

    但金观涛老师的“真实性哲学”认为,在二十一世纪中分析哲学最终反倒将哲学束缚在了牢笼中,实际上也造成了思想的禁锢:符号不指涉经验对象时亦可以有其自身的真实性,而且这一结论对数学语言和自然语言皆可成立。

    与此同时,纯符号的真实性是可以嵌入到经验真实性中的;科学研究与人文研究可以成为有所统一但互不重叠且有各自真实性标准的两个领域。

    人类的巨大进步是让真实性本能(常识的客观性)处于终极关怀和相应价值的系统的支配之下。

    但是今天真实性的两大柱石正在被科学进步颠覆,真正令人感到恐怖的事情发生了:人正在无法抗拒地沦为聪明的“动物”——在一个真假不分的世界里,不会有是非,也不会有真正的道德感和生命的尊严。

    所谓的AI,很大程度上不过是运用了计算机不断增强的计算能力,而采用这条路径注定是错误的,人是活学活用,机是死学僵用。

    而人类智能就是对小样本态势感知的能力大小。

    态势感知的一个著名例子就是中医中的望闻问切,通过自然语言和数学语言之间的差别来打破心智与物理之间的分歧,进而把事实与价值统一起来。

    态势感知最早应源于《难经》第六十一难,曰:经言,望而知之谓之神,闻而知之谓之圣,问而知之谓之工,切脉而知之谓之巧。

    何谓也?

    最早使用四字联称,则应处于《古今医统》:“望闻问切四字,诚为医之纲领。

    ”望是观察病人的发育情况、面色、舌苔、表情等;闻是听病人的说话声音、咳嗽、喘息,并且嗅出病人的口臭、体臭等气味;问是询问病人自己所感到的症状,以前所患过的病等;切是用手诊脉或按腹部有没有痞块(叫做四诊)。

    人工智能可解释性之所以困难,其根本原因在于其包含的不仅仅是数学语言,还有自然语言,甚至是思维语言(所以根本不可能迈过这道坎)。

    而人机融合智能不但可以进行主体的悬置,还可以游刃有余地进行主体变换,在人、机、环境系统交互中真正实时适时地实现深度态势感知,有机地完成数学语言、自然语言、思维语言之间的能指、所指、意指切换,可以轻松地直奔目的和意图实现。

     2、学习:人工智能过不去的第二道坎 机器学习相比人类学习本身而言就是一个小小的“隐喻”。

    人的学习是初期的灌输及更重要的后期环境触发之交、互、学、习构成,机器缺乏后期这种的能力。

    人的学习是事实与价值的混合性学习,而且是权重调整性动态学习。

    人的记忆也是自适应性,随人机环境系统而变化,不时会找到以前没注意到的特征。

    人的学习学的不是知识,而是获取数据、信息、知识经验的方法;机器的学习学的是数据、信息和知识。

    不同的物质系统之间存在着相似性;同一物质系统的每个子系统与其整体系统之间也有相似性;具有不同运动形式和不同性质的物质系统,却遵守着相似的物理规律,这些事实都说明:相似性是自然界的一个基本特性。

    比如质量-弹簧-阻尼构成的机械系统与电阻-电感-电容构成的电路系统是相似系统,就反映了物理现象之间的相似关系(一般而言,相似关系可以用来化简复杂系统进行研究)。

    机器比较容易学习、迁移这种同质性、线性的相似系统,却很难实现异质性、非线性相似系统的类比、转换。

    但是人的学习却可以在对称与非对称、同质与非同质、线性与非线性、同源与非同源、同构与非同构、同理与非同理、同情与非同情、周期与非周期、拓扑与非拓扑、家族与非家族之间任意自由驰骋、漫步。

    机器的学习离不开时间、空间和符号,而人的学习则是随着价值、事实、情感变化而变化的系统;机器的学习遵循、按照、依赖已有的规则,而人的学习则是如何修改旧规则、打破常规则、建立新规则。

    例如真正优秀的领导人和指挥员在于如何打破规则——改革,而不是按部就班地迈着四方步稳稳当当地走向没落和腐朽,更不是眼睁睁看着疫情泛滥施虐双眼却盯着竞选和乌纱帽。

    2017年3月16日美国国防高级研究计划局(DARPA)计划启动“终身学习机器”(Lifelong Learning Machines,L2M)项目,旨在发展下一代机器学习技术,并以其为基础推动第三次AI技术浪潮。

    DARPA认为AI技术的发展已历经第一次和第二次浪潮,即将迎来第三次浪潮。

    第一次AI技术浪潮以“规则知识”为特征,典型范例如Windows操作系统、智能手机应用程序、交通信号灯使用的程序等。

    第二次AI技术浪潮以“统计学习”为特征,典型范例如人工神经网络系统,并在无人驾驶汽车等领域取得进展。

    虽然上述AI技术对明确的问题有较强的推理和判断能力,但不具备学习能力,处理不确定问题的能力也较弱。

    第三次AI技术浪潮将以“适应环境”为特征,AI能够理解环境并发现逻辑规则,从而进行自我训练并建立自身的决策流程。

    由此可知,AI的持续自主学习能力将是第三次AI技术浪潮的核心动力,L2M项目的目标恰与第三次AI浪潮“适应环境”的特征相契合。

    通过研发新一代机器学习技术,使其具备能够从环境中不断学习并总结出一般性知识的能力,L2M项目将为第三次AI技术浪潮打下坚实的技术基础。

    目前,L2M包含30个性能团体的庞大基础,通过不同期限和规模的拨款、合同开展工作。

    2019年3月,DARPA合作伙伴南加州大学(USC)的研究人员发表了有关探索仿生人工智能算法的成果:L2M研究员兼USC维特比工程学院的生物医学工程和生物运动学教授Francisco J. Valero-Cuevas与该学院博士生AliMarjaninejad、Dario Urbina-Melendez和Brian Cohn一起,在《自然-机器智能》(Nature Machine Intelligence)杂志上发表了一篇文章,文中详细介绍了人工智能控制的机器人肢体的成功研发。

    该肢体由类似动物的肌腱驱动,能够自学行走任务,甚至能自动从平衡失调中恢复。

    推动USC研究人员开发这一机器人肢体的是一种仿生算法,只需五分钟的“非结构化游戏”(unstructured play),就能自主学习行走任务;也就是说,进行随机运动,使机器人能够学习自己的结构和周围的环境。

    当前的机器学习方法依赖于对系统进行预编程来处理所有可能的场景,复杂、工作量大且低效。

    相比之下,USC研究人员揭示,人工智能系统有可能从相关的经验中学习,因为随着时间的推移,它们致力于寻找和适应解决方案,以应对挑战。

    实际上,对于众多无限的学习而言,人是很难实现终身的,总有一些能学习到,还有许多另一些也一知半解甚至一无所知的更多,对于没有“常识”和“类比”机理的机器而言,终身学习也许就是一个口号!

    首先需要理清楚的应该是:哪些能学?

    哪些不能学?

    人类的学习是全方位的学习,不同角度的学习,一个事物可以变成多个事物,一个关系可以变成多个关系,一个事实不但可以变成多个事实,甚至还可以变成多个价值,更有趣的是,有时,人的学习还可以多个不同的事物变成一类事物,多个不同的关系可以变成一个关系,多个事实可以变成一个事实,甚至还可以变成一个价值。

    而机器学习本质上是人(一个或某些人)的认知显性化,严格意义上,是一种“自以为”“是”,即人们常常只能认出自己习惯或熟悉的事物,所以,这个或这群人的局限和狭隘也就在不自觉中融进了模型和程序中,因而,这种一多变换机制往往一开始就是先天不足。

    当然,机器学习也并不是一无是处,虽然做智能不行,但用来做计算机或自动化方向的应用应该还是不错的!

    如果说,学习的实质就是分类,那么人的学习就是获得并创造分类的方法,而机器学习只是简单地被使用了一些分类的方法而已。

    DARPA的“终身学习机器 ”(Lifelong Learning Machines,L2M)项目本质上也许就是一个美丽的泡泡,吹一下就会忽高忽低地漂浮在空中,尽管阳光照耀之下也会五彩斑斓,但终究会破灭的吧!

     3、常识:人工智能过不去的第三道坎 常识中也有许多错误、愚蠢和目不忍睹。

    正如所有的药一样,所有的知识都是有范围和前提的,失去了这些,知识的副作用就会涌现出来。

    知识只是常识的素材和原材料,机器只有“知”而没有“识”,不能知行合一。

    知识不应依附于思想,而应同它合二为一;知识如果不能改变思想,使之变得完善,那就最好把它抛弃。

    拥有知识,却毫无本事,不知如何使用——还不如什么都没有学——那样的知识是一把危险的剑,会给它的主人带来麻烦和伤害。

    其中限制知识这些副作用发作的最有效途径之一便是常识的形成,一般而言,常识往往是碎片化的,而态势感知就是通过对这些零零碎碎常识状态、趋势的感觉、知觉形成某种非常识的认识和洞察。

    另外,常识是人类感知和理解世界的一种基本能力。

    典型的AI系统缺乏对物理世界运行的一般理解(如直观物理学)、对人类动机和行为的基本理解(如直觉心理学)、像成年人一样对普遍事物的认知。

    DARPA正在继续开发第二代人工智能技术及其军事应用的同时,积极布局第三代人工智能发展,2018-2020财年,通过新设项目和延续项目,致力于第三代人工智能基础研究,旨在通过机器学习和推理、自然语言理解、建模仿真、人机融合等方面的研究,突破人工智能基础理论及核心技术。

    相关项目包括:“机器常识”,“终身学习机”,“可解释的人工智能”,“可靠自主性”,“不同来源主动诠释”,“自动知识提取”,“确保AI抗欺骗可靠性”,“自动知识提取”,“加速人工智能”,“基础人工智能科学”,“机器通用感知”,“利用更少数据学习”,“以知识为导向的人工智能推理模式”,“高级建模仿真工具”,“复杂混合系统”,“人机交流”,“人机共生”等。

    除此,DARPA近期发布的人工智能基础研究项目广泛机构公告还包括:“开放世界奇异性的人工智能与学习科学”,“人机协作社会智能团队”,“实时机器学习”等。

    如果学问不能教会我们如何思想和行动,那真是莫大的遗憾!

    因为学问不是用来使没有思想的人有思想,使看不见的人看见的。

    学问的职责不是为瞎子提供视力,而是训练和矫正视力,但视力本身必须是健康的,可以被训练的。

    学问是良药,但任何良药都可能变质,保持时间的长短也要看药瓶的质量。

    俄罗斯人弗拉基米尔·沃沃斯基(Vladimir Voevodsky)的主要成就是:发展了新的代数簇上同调理论,从而为深刻理论数论与代数几何提供了新的观点。

    他的工作的特点是:能简易灵活地处理高度抽象的概念,并将这些要领用于解决相当具体的数学问题。

    上同调概念最初来源于拓扑学,而拓扑学可以粗略地说成是“形状的科学”,其中研究沃沃形状的例子如球面、环面以及它们的高维类似物。

    拓扑学研究这些对象在连续变形(不允许撕裂)下保持不变的基本性质。

    通俗地说,上同调论提供了一种方法将拓扑对象分割成一些比较容易研究的片,上同调群则包含了如何将这些基本片装配成原来对象的信息。

    代数几何中研究的主要对象是代数簇,它们是多项式方程的公共解集。

    代数簇可以用诸如曲线或曲面之类的几何对象来表示,但它们比那些可变形的拓扑对象更具“刚性”。

    DARPA战略技术办公室(STO)2017年提出的“马赛克战”概念认为未来战场是一个由低成本、低复杂系统组成的拼接图,这些系统以多种方式连接在一起,可创建适合任何场景的理想交织效果。

    这个概念的一部分是“以新的令人惊讶的方式组合当前已有的武器”,重点是有人/无人编组、分解的能力,以及允许指挥官根据战场情形无缝召唤海陆空能力,而不管是哪支部队在提供作战能力。

    简单地说,上面介绍的“马赛克战”和“机器常识”,都是对抗博弈人机环境系统的新型拓扑系统,如同沃沃斯基创立的“主上同调”(motiviccohomology)理论。

    其中,真正厉害的不是那些基本的知识、条例和规则,而是应用这些基本的知识、条例和规则的在实践中获得普遍成功能力的人,比如以毛泽东(湖南一师)、粟裕(湖南二师)等为代表的一大批非军事名校毕业的战略家和军事家最终以自己的常识打败了黄埔军系校长和将军们的知识……

     四、未来战争中存在的问题 1、人机融合智能中的深度态势感知问题从表面上看,各国军事智能化发展非常迅速:百舸争流,百花齐放,百家争鸣,一片热火朝天的景象,实际上,各国的军事智能化进程却都存在着一个致命的缺点,就是没能深入地处理人机融合的智能问题,尤其是深度态势感知问题。

    任何颠覆性科技进步都可回溯到基础概念的理解上,例如人的所有行为都是有目的的,这个目的性就是价值,目的性可以分为远中近,其价值程度也相应有大中小,除了价值性因果推理之外,人比人工智能更为厉害的还有各种变特征、变表征、变理解、变判断、变预测、变执行。

    严格地说,当前的人工智能技术应用场景很窄,属于计算智能和感知智能的前期阶段,不会主动地刻画出准确的场景和情境,而智能科学中最难的就是刻画出有效的场景或上下文,而过去和现代军事智能化的思路却是训练一堆人工智能算法,各自绑定各自的军事应用场景。

    一般而言,这些人工智能技术就是用符号/行为/联结主义进行客观事实的形式化因果推理和数据计算,很少涉及价值性因果关系判断和决策,而深度态势感知中的深度就是指事实与价值的融合,态、势涉及客观事实性的数据及信息/知识中的客观部分(如突显性、时、空参数等),简单称之为事实链,而感、知涉及主观价值性的参数部分(如期望、努力程度等),不妨称之为价值链,深度态势感知就是由事实链与价值链交织纠缠在一起的“双螺旋”结构,进而能够实现有效的判断和准确的决策功能。

    另外,人侧重于主观价值把控算计,机偏向客观事实过程计算,也是一种“双螺旋”结构。

    如何实现这两种“双螺旋”结构之间(时空、显著性、期望、努力、价值性等)的恰当匹配,是各国都没有解决的难题。

    某种意义上说,深度态势感知解决的不仅是人机环境系统中时间矛盾、空间矛盾的突显性,还有事实矛盾、价值矛盾和责任矛盾的选择性。

    矛盾就是竞争,决策包含冒险。

    好的态势感知能力就是在混乱中看到秩序、在不可能中看到可能、在黑暗中看到光明……

    所以,目前智能军事领域的瓶颈还是人机融合智能中的深度态势感知问题。

    2、不确定性问题著名军事理论家克劳塞维茨认为:战争是一团迷雾,存在着大量的不确定性,是不可知的。

    这里的不可知是不可预知、不可预测,从现代人工智能的发展趋势来看,可预见未来的战争中存在着很多人机融合隐患仍未解决,具体有:1)在复杂博弈环境中,人类和机器是在特定的时空内吸收、消化和运用有限的信息,对人而言,人的压力越大,误解的信息就越多,也就越容易导致困惑、迷茫和意外;对机器而言,对跨领域非结构化数据的学习、理解、预测依然是非常困难的事情。

    2)战争中决策所需信息在时空、情感上的广泛分布,决定了在特定情境中,一些关键信息仍然很难获取,而且机器采集到的重要客观物理性数据与人类获取的主观加工后的信息、知识很难协调融合。

    3)未来战争中存在的大量非线性特征和出乎意料的多变性,常常会导致作战过程及结果的诸多不可预见性,基于公理的形式化逻辑推理已远远不能满足复杂多变战况决策的需求。

    3、人的问题“跨域协同”是一个“人的问题”。

    “多域战”解决“跨域协同”问题的方式方法可以用两个术语来概括。

    一是聚合(convergence),即“为达成某种意图在时间和物理空间上跨领域、环境和职能的能力集成”;二是系统集成(integration of systems),不仅聚焦于实现“跨域协同”所需的人和流程,还重视技术方案。

    截至目前,“跨域协同”尚没有承认,当前的系统和列编项目是“烟囱式”的互相独立,跨域机动和火力需要“人”方面的解决方案。

    随着自动化、机器学习、人工智能等技术的成熟,美军的对手将寻求应用这些技术能力来进一步挑战美国。

    按照沃克的要求,打破现有的“烟囱式”方案,设计出背后有人机编队做支撑的新方案,是美军的责任。

    “多域战”的起源可以追溯到2015年4月8日,时任国防部副部长沃克在美国陆军战争学院要求陆军研究“空地战2.0”。

    在这次讲话中,他总结了21世纪战争会产生的问题以及美军需要的应对方法。

    具体到“空地战2.0”,沃克设想,该概念应该成为美军进入战区、突破A2/AD防御后遂行作战并取胜的依靠手段。

    沃克的原话:“我们将不得不考虑与那些拥有大量导弹、精确火炮、火箭炮的对手作战,而且他们还会使用信息化战争使我们网络化的部队陷入彻底的混乱。

    “空地战2.0”是什么样子?

    我不知道,陆军需要自己琢磨出来。

    ”另外,沃克也给出了重要指示,他着重提到了Tyler Cowen的一本书《Average is Over》,研究“空地战2.0”时需要予以重视。

    这本书的作者认为,在象棋比赛中,机器总是能够打败国际象棋大师。

    但是有三个玩家时,即机器与人联合起来对弈另一台机器时,人机组合会胜出。

    应用到战争,沃克希望人机编队成为未来战争美军的制胜关键。

    2020年5月12日,美国防务专家彼得·希克曼发表了一篇文章 《未来战争制胜的关键在于人》。

    文章认为,随着战争的性质的不断演变,人工智能将对战争的演变做出重大贡献,但过高估计技术变革的速度和先进技术在未来胜利中所起的作用仍具有风险。

    过分强调技术将会使竞争对手发现盲点,进而加以利用。

    追求尖端技术并无问题,但在未来战争中,制胜的关键因素依然是人。

    事实上,这与毛泽东同志有关人民战争战略思想是一致的:武器是战争的重要因素,但不是决定的因素,决定的因素是人而不是物。

    五、尾声如果说“逻辑是符号串的等同或包含关系”,那么非逻辑则是非符号的等同或包含关系。

    人工智能处理一些逻辑问题较好,而人处理一些非逻辑问题稍优,人机融合则能处理逻辑与非逻辑的融合问题。

    人工智能在对抗博弈中起重要作用需要几个条件:首先是找到数学定量计算就能解决的部分,其次与人融合过程中使该AI部分找到适当的时机、方式和作用,最后,人做对的事,AI“把事情做对”。

    最近,美陆军未来司令部司令约翰·默里上将和陆军其他技术领导人强调“人类”必须最终作出重要决定并掌控“指挥和控制”系统,同时还明确指出快速演化的人工智能武器系统应用可以让陆军指挥人员“率先看到、率先作出决定、率先采取行动”,当然由此能够更快地摧毁敌人。

    (人工智能的数据处理能力会让人类的决策速度呈现指数级的提高,即提速OODA环。

    )仔细想想,任何事物都不会无中生有,凡事都有苗头和兆头,人机融合就是能够及时(恰如其分)地捕捉到这些零零碎碎的迹象和蛛丝马迹,太快太慢都不好,“率先看到、率先做出决定、率先采取行动”,不一定由此能够更快地摧毁敌人。

    有时,慢一点未必不是一个好的选择,太快了也许更容易上当受骗吧!

    目前,人智与AI的失调匹配是导致目前人工智能应用领域弱智的主要原因。

    人可以身在曹营心在汉,是非、01同在:既是又不是,叠加态。

    危机管理呢?

    常常是叠加势:危险与机会共生,危中有机,机中有危,两者纠缠在一起,如何因势利导、顺势而为,则是人机融合智能中深度态势感知的关键。

    人机是非同构的,即本质是不同的两者事物,一个受控实验部分不可重复,一个受控实验普遍可重复。

    人的智慧也是由受控与不可受控部分、可重复与不可重复部分构成的。

    色盲者认为是无色的,对他是真的,对其它主体却是假的,若色盲者比正常人多,则正常人会是色盲吗?

    科学的缺点在于否认了个性化不受控不可重复的真实。

    所以基于这种科学性的基础上必然会带来一些缺陷。

    人,尤其是每个人都是天然的个性化不受控不可重复的主体,你不能说他就是不存在的。

    从这个角度看,人机融合的实质就是帮助科学完善它的不足和局限。

    大数据的优点是受控实验普遍可重复性,如此一来可以寻找共性规律——按图索骥;但是,这也是大数据的一个缺点,容易忽略新生事物——受控实验不可重复部分的出现,表现出刻舟求剑效应。

    有些受控实验不可重复之真实性也是存在的,但这不在科学范围内。

    以前是盲人摸象,现在是人机求剑。

    所以,在未来战争中,对人机融合智能机制、机理的破解以及有效的协同方式将成为未来战争致胜的关键,而在整个过程中,人工智能技术是必不可少的。

来源: 中国指挥与控制学会

原文链接:http://mp.weixin.qq.com/s?__biz=MzA4ODcwOTExMQ==&mid=2655631126&idx=3&sn=eb790214e66a148a787070109b3892bf

版权声明:除非特别注明,本站所载内容来源于互联网、微信公众号等公开渠道,不代表本站观点,仅供参考、交流、公益传播之目的。转载的稿件版权归原作者或机构所有,如有侵权,请联系删除。

电话:(010)86409582

邮箱:kejie@scimall.org.cn

展开
收起