共查询到20条相似文献,搜索用时 19 毫秒
1.
食品安全监管的核心是充分利用各种数据资源,但由于食品数据涉及部门和来源方式多样化,是典型的多源异构数据,需要对数据质量进行评估,以便于采取相应的数据治理手段提升数据质量,从而为食品监管大数据应用奠定建设基础。本文对食品监管大数据进行梳理,对食品生产经营主体的经营主体登记注册数据、行政监管数据、经营行为数据、消费投诉数据、互联网舆情数据进行剖析。随后充分考虑数据特点,提出数据全面性、数据完整性、数据冗余性、数据规范性、数据一致性和数据异常值六个方面的数据质量评估体系。最后,对食品大数据质量评估机制建设提出了相关对策建议。 相似文献
2.
3.
数据融合技术又称多传感器数据融合或分布式传感,即对多类多源和多平台传感器数据进行组合,提供有关空间信息综合态势的一种数据处理技术。数据融合可分为:信号级数据融合、像素级数据融合、特征级数据融合和符号级数据融合。本文讨论了红外图像、可见光图像、多谱图像、雷达图像等的数据融合问题以及各级数据融合的方法。 相似文献
4.
5.
计量数据是企业指挥生产,确定经营方针的基础,是企业控制检验产品的质量、考核能源和原材料消耗的依据;计量数据是电子计算机等现代工具的粮食,是计量管理的最终目的;计量数据标志着生产、技术、安全、环保的水平。所以研究计量数据的管理内容、确定管理任务、划分计量数据类别、确定管理环节、分析行业的特点,对制定本企业的计量数据管理制度和办法是非常必要的。 一、计量数据管理内容 计量数据管理主要是指计量数据的采集和反馈。即设法获得计量数据,反馈到有关部门,发挥计量数据的作用。计量数据不是孤立存在的,每种计量数据都定量地反… 相似文献
6.
7.
8.
常晓宇 《中国新技术新产品》2019,(13)
数据库已是计算机科学技术中发展最快、应用最广泛的重要分支之一。而大数据技术实际上就是将所掌握的海量的数据进行分析和使用,使这些数据发挥更大的价值。该文首先阐述了大数据的基本概念及大数据的特性,从3个方面指出了传统数据和大数据的区别,从大数据采集、数据分析、数据挖掘、大数据的价值与应用几个方面总结了大数据的关键技术,最后展望了大数据的未来方向。 相似文献
9.
实现试验数据的有效管理和数据重用并形成NVH试验历史支撑数据库,成为支撑NVH研究、提高NVH研究水平的迫切需要。在分析了汽车NVH试验数据特点和试验数据管理需求的基础上,提出了一套完整的支持商用测试系统和手工数据的汽车NVH试验数据结构化方法,针对数据单位统一定义、数据可视化、试验对象动态扩展等关键问题提出了解决方案,并开发了实用化的汽车NVH试验数据管理系统。对提高汽车NVH研究水平和工作效率、减少工程试验成本上有重要作用。这些解决方案也可供其他振动噪声工程或汽车工程试验数据的系统开发参考借鉴。 相似文献
10.
人类工效学基础数据主要由人体形态、人体力学和人体感知(视、听、触等)等各类与消费品、服装、工具、设备和环境设计相关的人体特性数据组成。鉴于工效学基础数据在工业设计和人机系统优化中的重要基础性作用,很多发达国家都建立了较为完善的数据调查体系和更新机制。本文分析了美国、英国、德国、日本、韩国等国家的工效学基础数据的采集和调查情况,介绍了中国的人类工效学基础数据的现状和存在的问题,总结了人类工效学基础数据调查的特点和趋势,给出了中国人类工效学基础数据调查的建议。 相似文献
11.
针对自动气象站组网功能,陕西省气象技术装备中心开发了自动气象站运行监控、质量跟踪及维修专家软件。本文从自动站数据质量检查和自动站缺测数据处理方法、定时观测、数据查算和订正、编发气象报告等方面,分别介绍了自动气象站异常数据的处理方法,从而做好数据的维护,异常数据的处理.提高报表质量。确保自动站数据的准确性和完整性。 相似文献
12.
Visual FoxPro是一个数据库开发和管理工具,SQL是结构化查询语言,包括数据查询、数据定义、数据操纵和数据控制功能等。因此熟练掌握一些简单常用的查询命令,会大大地提高数据查询的速度,有利于我们对数据库应用程序的进一步开发。 相似文献
13.
14.
大气数据计算机测试系统是以计算机为控制和数据处理中心,计算机模仿GJB289A多路传输总线的控制器对大气数据计算机发送控制命令字和方式指令字,同时接收大气数据计算机发送到GJB289A多路传输数据总线上的数据。计算机通过控制各种接口板发送离散信号、模拟信号和数字信号给大气数据计算机,同时通过控制各种接口板接收大气数据计算机所发送的离散信号、模拟信号和数字信号,从而实现大气数据计算机输出数据的自动测试。 相似文献
15.
Surajit Chaudhuri Kris Ganjam Venky Ganti 《硅谷》2005,(6):77-81
简介
由于拼写错误、意外的缩略语和其他不规则问题,实际的数据是“有问题”的。因此,在数据仓储项目中,很大一部分的时间和金钱都花费在了数据提取、数据转换和数据加载(ETL,Extraction、Transformation、Loading)阶段。在ETL阶段,新数据被清理、标准化,并使其与现有数据一致。在Microsoft SQL Server 2005中可用的模糊查找和模糊分组转换,有助于使ETL过程在遇到若干种在交际数据中观测到的常见错误时更易复原。它们解决一般的匹配和分组问题,而无需特定于域的规则和脚本的专家集合。通过为您的域自定义模糊查找和模糊分组,您可以利用Business Intelligence Development Studio内的通用数据清理算法,并避免创建复杂的自定义规则和代码。 相似文献
16.
17.
本文通过研究数据资源处理与管理的理论和方法,结合专利数据资源特点,梳理当前专利数据资源存在的问题。并参照《专利文献数据规范》(ZC0014-2012),以"标准化、模块化、集成化"为原则,结合"数据、标准、集成"三大基本要素,通过整合数据标准化处理的全流程,形成了科学的数据资源标准化处理模型。对数据资源的标准化、数据资源管理的流程化,以及提高数据资源的应用水平,具有一定的借鉴作用。 相似文献
18.
19.
目的提出疫情数据可视化叙事设计的方法,在疫情数据信息传播过程中,叙事设计为民众提供了易懂易记的数据信息,更好地解决了从数据感知到对数据认知以及产生行为反应等一系列问题。方法从疫情传播数据可视化对民众产生的影响进行分析,将目前传染病领域数据可视化设计的特点和不足进行归纳。对疫情数据进行叙事化结构解析,融入故事化的叙述流程,形成连续性的思维路径。充分调动民众的情绪和参与性,形成适应于疫情传播数据可视化设计的参考方法。结论以新型冠状病毒肺炎疫情为例,对疫情数据可视化叙事设计的五个主要活动方面:挖掘数据、明确目的、了解受众、叙事类型以及视觉呈现进行介绍。叙事化设计可以有效帮助民众认知疫情,从而更好地预防、把控和阻止疫情蔓延。 相似文献
20.
在国家政策激励引导和市场主体的不断探索下,我国数据要素市场进入了快速发展期,数据交易相关服务也进入发展快车道。伴随着数据要素市场化的快速发展,数据交易主体壁垒、交易平台重复建设、交易规则自成体系等问题逐渐显现,建设数据交易全国统一大市场是减少资源浪费、提高市场运行效率、保障我国数据交易市场健康有序发展的有力举措。建立数据交易全国统一大市场亟需构建全国统一的数据交易标准体系,明确数据分类分级、数据交易准入、交易过程服务、流程描述、质量评价、风险评估、交易监管等全链条标准规则,并积极推动各类数据交易试点先行先试。本研究分析了我国数据交易和标准化发展现状,构建了数据交易标准体系,并在关键标准制定、国际交流与合作等方面提出意见建议。 相似文献