共查询到10条相似文献,搜索用时 601 毫秒
1.
2.
近年来,以人机对抗为途径的智能决策技术取得了飞速发展,人工智能(Artificial intelligence, AI)技术AlphaGo、AlphaStar等分别在围棋、星际争霸等游戏环境中战胜了顶尖人类选手.兵棋推演作为一种人机对抗策略验证环境,由于其非对称环境决策、更接近真实环境的随机性与高风险决策等特点,受到智能决策技术研究者的广泛关注.通过梳理兵棋推演与目前主流人机对抗环境(如围棋、德州扑克、星际争霸等)的区别,阐述了兵棋推演智能决策技术的发展现状,分析了当前主流技术的局限与瓶颈,对兵棋推演中的智能决策技术研究进行了思考,期望能对兵棋推演相关问题中的智能决策技术研究带来启发. 相似文献
3.
战术仿真是作战仿真中重要的一部分,是针对合同战术、班组战术层次的仿真,涉及班组的整体决策和成员的个体行为建模,班组的决策行为通常关注于班组成员间的协同合作,而成员的个体行为易受各种战场要素的影响,关注于个体行为的规划,只在单一层次进行建模会造成行为描述的混乱。为了区分班组行为和个体行为,增强个体行为的表达能力,基于行为树和HTN(Hierarchical Task Network)构建了班组层次行为模型,将战术命令的执行分为班组整体决策和实体具体执行两个层次。班组决策层采用行为树对班组的决策行为进行建模,提出了寻径距离因素和武器威胁因素的战术位置选择评估方法,负责班组成员间的协同决策,为班组成员分配任务;实体执行层采用HTN对作战实体的行为进行建模,根据班组决策层分配的任务利用规划算法规划个体任务计划,提升对实体行为描述的表达能力。并通过搭建仿真对抗环境验证了该层次行为模型的有效性。 相似文献
4.
人工智能(artificial intelligence, AI)技术的发展为源码处理场景下AI系统提供了强有力的支撑.相较于自然语言处理,源码在语义空间上具有特殊性,源码处理相关的机器学习任务通常采用抽象语法树、数据依赖图、控制流图等方式获取代码的结构化信息并进行特征抽取.现有研究通过对源码结构的深入分析以及对分类器的灵活应用已经能够在实验场景下获得优秀的结果.然而,对于源码结构更为复杂的真实应用场景,多数源码处理相关的AI系统出现性能滑坡,难以在工业界落地,这引发了从业者对于AI系统鲁棒性的思考.由于基于AI技术开发的系统普遍是数据驱动的黑盒系统,直接衡量该类软件系统的鲁棒性存在困难.随着对抗攻击技术的兴起,在自然语言处理领域已有学者针对不同任务设计对抗攻击来验证模型的鲁棒性并进行大规模的实证研究.为了解决源码处理场景下AI系统在复杂代码场景下的不稳定性问题,提出一种鲁棒性验证方法 (robustness verification by Metropolis-Hastings attack method, RVMHM),首先使用基于抽象语法树的代码预处理工具提取模型的变量池,然后利... 相似文献
5.
6.
FSM在海军作战仿真CGF中的应用 总被引:1,自引:0,他引:1
计算机兵力生成(CGF)是现代作战模拟仿真中的一项重要内容,特别是在对抗条件下,CGF还必须具有战术决策能力,知道如何根据当前的战场态势,按照己方的作战原则,动态更新自身的行为.文章结合海军对海突击作战的特点,将有限状态自动机(FSM)与行为规则相结合来实现对抗条件下CGF的行为仿真,该方法已运用到对海突击作战仿真软件中,应用表明:该方法可以较真实地仿真红蓝方的行为,具有相当的战术决策能力,取得了良好的效果,也为该系统后期基于Agent的行为仿真提供了一种行为规则表示方法. 相似文献
7.
8.
基于深度强化学习的多机协同空战方法研究 总被引:1,自引:0,他引:1
多机协同是空中作战的关键环节, 如何处理多实体间复杂的协作关系、实现多机协同空战的智能决策是亟待解决的问题. 为此, 提出基于深度强化学习的多机协同空战决策流程框架(Deep-reinforcement-learning-based multi-aircraft cooperative air combat decision framework, DRL-MACACDF), 并针对近端策略优化(Proximal policy optimization, PPO)算法, 设计4种算法增强机制, 提高多机协同对抗场景下智能体间的协同程度. 在兵棋推演平台上进行的仿真实验, 验证了该方法的可行性和实用性, 并对对抗过程数据进行了可解释性复盘分析, 研讨了强化学习与传统兵棋推演结合的交叉研究方向. 相似文献
9.
10.
基于一般的决策和规划流程,提出了一个面向兵棋推演的快速决策框架(Rapid Military Decision Framework, RMDF),该框架针对异构实体模型,通过分层的网格环境对复杂推演环境简化建模,将推演实体的作用效果,简化为地面、海上和空中三个网格环境层次上的作用效果,并以热图的形式在网格环境中显示,通过推演实体的核心参数来确定其性能模型和行为模型,并基于一致性包算法实现任务分配,生成备选行动策略,通过快速仿真实现推演策略的迭代优化,能够在推演之前或推演期间提供行动方案的快速评估,可以有效地辅助兵棋推演指挥人员进行复杂态势下的兵棋推演。 相似文献