排序方式: 共有57条查询结果,搜索用时 15 毫秒
51.
驾驶员视觉搜索模式模糊聚类评价方法 总被引:3,自引:0,他引:3
针对用单一眼动参数评价驾驶员视觉搜索模式存在片面性和较大误差等不足,提出运用模糊理论,将驾驶员的注视持续时间、水平方向视角、垂直方向视角、扫视幅度和扫视速度5个主要表征参数综合起来进行评价的方法。通过真实交通环境中的实车试验,记录驾驶员行驶过程的眼动数据,建立模糊相似矩阵和模糊等价矩阵,依据聚类样本驾驶员的驾驶里程确定最佳阈值,将样本驾驶员视觉搜索模式分为4类,并以每类驾驶员视觉搜索模式特征为判别标准,运用择近原则对其他驾驶员的视觉搜索模式进行识别和评价。结果表明:所提出的驾驶员视觉搜索模式模糊聚类评价方法有效且可靠。 相似文献
52.
基于圆管的吸能原理,采用铝质筒元作为吸能元件,研究筒元轴向与径向承载的不同变形模式,以及不同排列方式筒系结构对被撞横梁的缓冲性能的改善效果。试验和模拟计算结果表明,筒系吸能结构能明显降低与横梁碰撞的台车的减速度值,提高横梁的能量吸收能力,缓冲效果显著。 相似文献
53.
54.
为了避免现有驾驶分心研究方法的局限性,从注意力需求角度入手,探索了高速跟车过程中驾驶人安全驾驶所需的最低视觉注意力。在驾驶模拟器上进行试验,记录26名驾驶人在正常驾驶和视线遮挡驾驶2种状态下的视觉行为和视线遮挡行为数据,并进行统计分析。考虑驾驶人个体差异,初步探索了最低视觉注意力需求分布。结果表明:高速跟车驾驶状态下,驾驶人可以不需观察周围交通信息安全行驶35m左右,视线遮挡距离与车速无关,可用于表征注意力需求。视线遮挡距离和遮挡频率存在个体差异,但驾驶人总体遮挡百分比基本不变。高速跟车过程中驾驶人的剩余注意力主要用于观察道路前方和其他区域。具体表现为视线遮挡驾驶状态下驾驶人对道路前方和其他区域的观察距离显著缩短,而观察频率基本不变,且仅需行驶25m左右的时间驾驶人即可完成观察周围交通状况,说明观察频率对获取交通信息更为重要。驾驶人平均每行驶20~60m(1.0~2.8s)需要观察前方道路一次,每行驶80~220m(4.1~8.6s)需要观察车速表一次,每行驶140~300m(6.7~13.5s)需要观察后视镜一次,每50~200m(2.5~9.1s)可以遮挡视线一次,但遮挡距离一般小于43.7m(约2.4s)。研究结果有助于提高分心预警系统的环境敏感性和车内人机界面设计的合理性。 相似文献
55.
相邻前车的驾驶行为会影响后车,因此先进的辅助驾驶系统需具备识别前车驾驶行为的能力. 对高速场景下相邻前车换道行为进行研究,分别提出双层连续隐马尔可夫模型-贝叶斯生成分类器(CHMM-BGC),以及基于双向长短时记忆网络(Bi-LSTM)的行为识别模型和意图预测模型. 采用自然驾驶数据集对模型的有效性进行测试验证. 实验分析表明:基于Bi-LSTM的行为识别模型相较于双层CHMM-BGC在平均识别率上提升了11.24%,两种行为识别模型均可在相邻前车换道过程的早期阶段识别换道行为;考虑相邻前车与周围环境车辆的交互作用,可使模型具有预测性,两种意图预测模型均可在车辆换道时刻前预测到驾驶人换道意图. 模型仿真计算时间可满足系统的实时性需求,为本车驾驶人预留出反应时间,为预测周围车辆行驶轨迹研究提供支持. 相似文献
56.
本文中基于神经工效学认知理论融入驾驶员预瞄模型,建立了以认知-控制为框架的驾驶员横向控制模型。模型采用Simulink和TruckSim软件联合仿真的形式验证。采用粒子群优化算法对控制框架中的比例-微分(PD)控制器模块参数进行优化标定。结果表明,在侧风工况下,基于认知-控制为框架所建立的驾驶员横向控制模型有效(RMSE=0.09),且精度更高,适应度更广。另外,从认知-控制角度改变预览时间tp、增益比例kp和微分参数kd,可表征不同驾驶风格的驾驶员行为。本研究为提高侧风工况下的高级辅助驾驶系统和自动驾驶汽车的安全性和舒适性提供参考思路。 相似文献
57.
针对基于端到端深度卷积神经网络的驾驶行为检测模型缺乏全局特征提取能力以及视觉Transformer(vision transformer,ViT)模型不擅长捕捉底层特征和模型参数量较大的问题,本文提出一种基于深度卷积和Tokens降维的ViT模型用于驾驶人分心驾驶行为实时检测,并通过开展与其他模型的对比试验、所提模型的消融试验和模型注意力区域的可视化试验充分验证了所提模型的优越性。本文所提模型的平均分类准确率和精确率分别为96.93%和96.95%,模型参数量为21.22 M,基于真实车辆平台在线推理速度为23.32 fps,表明所提模型能够实现实时分心驾驶行为检测。研究结果有利于人机共驾系统的控制策略制定和分心预警。 相似文献