首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 187 毫秒
1.
随着人工智能、大数据、机器学习、计算机视觉等技术的发展,卷积神经网络(CNN)越来越多地应用于图像识别领域,图像数据集的丰富性以及多样性对CNN模型的性能和表达能力至关重要,但现有的鱼类图像公共数据集资源较匮乏,严重缺少训练集以及测试集样本,难以满足深度CNN模型优化及性能提升的需要。实验以大黄鱼、鲤、鲢、秋刀鱼和鳙为对象,采用网络爬虫以及实验室人工拍照采集相结合的方式,构建了供鱼种分类的基础图片数据集,针对网络爬虫手段获取到的鱼类图像存在尺度不一、格式不定等问题,采用图像批处理的方式对所有获取到的图像进行了统一的数据预处理,并通过内容变换以及尺度变换对基础数据集做了数据增强处理,完成了7 993个样本的图像采集与归纳;在权值共享和局部连接的基础上,构建了一个用于鱼类识别的CNN模型,采用ReLU函数作为激活函数,通过dropout和正则化等方法避免过度拟合。结果显示,所构建的CNN鱼种识别模型具有良好的识别精度和泛化能力。随着迭代次数的增加,CNN模型的性能也逐步提高,迭代1 000次达到最佳,模型的准确率为96.56%。该模型采用监督学习的机器学习方式,基于CNN模型,实现了5种常见鱼类的鱼种分类,具有较高的识别精度和良好的稳定性,并且模型本身具有一定程度的鱼种推广可能性,为养殖鱼类的品种识别提供了一种新的理论计算模型。  相似文献   

2.
针对公开大规模水产动物数据集少、人为采集数据工作量大以及传统数据增强方法对数据的特征提升有限的问题,提出一种基于深度卷积生成对抗网络的数据增强方法用于水产动物图像识别。首先,使用深度卷积生成对抗网络(DCGAN)对样本数据进行增强,然后分别使用VGG16、InceptionV3、ResNet50这三个训练模型,以微调的方式,对样本进行训练、识别。结果显示,所提出的方法在水产动物数据集上,与非生成式的数据增强方法相比,在3种模型上分类的准确率可分别提高9.8%、2.7%、1.2%。试验证实,DCGAN可有效增强水产动物图像数据,提高深度神经网络模型对水产动物图像分类的准确率。  相似文献   

3.
针对目前河蟹追溯成本高、消费者无法细粒度地追溯单体河蟹信息等问题,提出一种基于迁移学习和金字塔卷积的河蟹背甲图像个体识别算法。该算法使用金字塔卷积层替换普通残差卷积块构建网络模型,可以从蟹背图像中提取多尺度、深层次的特征信息。结果显示:采用金字塔卷积结构的Resnet34和Resnet50的准确率分别为98.38%、98.51%,与使用普通卷积层的模型相比,准确率提升5.49%、1.3%,而当模型深度达到101层时,模型性能不再明显提升。与使用金字塔卷积结构的全新学习模型相比,迁移学习方法的训练收敛迭代轮次从20轮降低至5轮,此时模型准确率为98.88%,较全新学习的准确率提升0.37%,同时弥补了样本量较少的问题。该研究为河蟹个体识别追溯提供了理论依据和技术支持。  相似文献   

4.
鱼类产卵场会随着外部环境条件的改变而发生变化, 因此, 快速、有效地定位鱼类产卵场对于开展水生生物资源调查、珍稀水生动物保护等工作具有重要的意义。本研究基于无人机航拍影像和青海湖裸鲤(Gymnocypris przewalskii)产卵场实地调查结果, 构建了深度学习模型, 以分析将深度学习模型应用于青海湖裸鲤产卵场识别中的可行性。模型训练交并比精度和像素精度分别为 0.870 和 0.996, 验证交并比精度和像素精度分别为 0.648 和 0.985, 虽然精度低于一般的遥感影像或图像分割精度, 但从测试的结果来看, 深度学习模型可以识别到约 79%的产卵场, 但尚不能精确地分割出产卵场, 可以作为一种辅助手段, 应用到青海湖裸鲤产卵场的识别中。  相似文献   

5.
基于ResNet50和迁移学习的红鳍东方鲀病鱼检测方法   总被引:1,自引:0,他引:1  
针对红鳍东方鲀病鱼样本数量少、检测准确率不高等问题,提出一种基于ResNet50和迁移学习的红鳍东方鲀病鱼检测方法。首先使用ResNet50在ImageNet数据集上进行模型预训练;然后基于预训练结果构建了红鳍东方鲀病鱼检测ResNet50网络,将经过预训练的、包含16个残差块的模型权重迁移到构建的ResNet50网络中进行模型权重初始化以降低训练成本;为进一步提高检测的准确性,在构建的ResNet50网络模型的最后一个卷积层后面加入反卷积层用以学习目标中的细节信息;最后,用红鳍东方鲀健康鱼和病鱼图像构建了数据集,并采用翻转、旋转、随机裁剪、色度变化和添加噪声等方法进行了数据增广,以增加数据样本的多样性,进而提高检测方法的鲁棒性。在所构建的数据集上进行了试验,试验结果表明,基于ResNet50和迁移学习的红鳍东方鲀病鱼检测方法准确率可以达到99%,与ResNet18、ResNet34、ResNet101和ResNet152不同深度的残差网络相比,分别约提升了10.7%、6.6%、6.2%和5.6%,在与不加入反卷积的ResNet50残差网络相比,约提升0.4%的精度。研究表明,采用基于ResNet50和迁移学习的方法,有效地解决了红鳍东方鲀病鱼样本少和准确率不高的问题,为红鳍东方鲀病鱼检测提供了新方法。  相似文献   

6.
中国拥有种类繁多的鱼类,外形是其分类的重要依据。但目前主要采用人工识别方法进行分类,为解决鱼类人工识别存在的问题,提出一种基于深度学习的鱼类智能识别系统的设计,以实现对中国1 400种鱼类的智能识别。系统首先采用卷积神经网络的Efficient模型,将含有1 400种鱼类,50万张鱼类图片的数据集进行训练,最终得到的模型识别精度达到了95%,单张图片识别时间仅为0.2 s,模型大小为74.5 MB。系统前端使用微信小程序,后端采用Spring+SpringMVC+Mybatis的SSM架构,调用训练好的模型文件进行识别,实现了鱼类识别、页面呈现、统计分析和相邻种类推荐等功能。该系统所提出的设计和实现方法对鱼类智能识别技术在移动端的应用提供了一种可行的思路,对海洋科研人员和开发人员有一定的借鉴作用。  相似文献   

7.
针对传统深度学习鱼类识别方法正确率较低、模型训练过程中参数不能够自适应确定的问题,提出了一种基于迁移学习(Transfer Learning, TL)的粒子群(Particle Swarm Optimization, PSO)改进ShuffleNet鱼类识别方法。以20种鱼类为对象,采用粒子群算法将模型的损失函数作为适应度函数,对批处理大小和学习率两个超参数进行优化,并利用迁移学习方式进行训练,构建了TL-PSO-ShuffleNet模型。结果显示:该方法与AlexNet、MobileNet、ShuffleNet模型相比,识别正确率分别提高了57.89%、30.43%、23.28%。本研究提出的鱼类识别方法具有正确率较高、参数设定具备自适应性等特点,为鱼类自动化识别研究提供了参考和借鉴。  相似文献   

8.
Prophet是Facebook开源的一种时间序列预测模型,擅长处理具有大异常值和趋势变化的日常周期数据。针对Prophet时序模型在短时间数据上预测精度较低的问题,提出了基于Prophet改进的Prophet_SVR模型对未来2 h内溶氧参数进行预测,并利用对比模型在相同数据上进行对比试验。试验结果通过均方根误差(E_(RMSE))和平均绝对百分比误差(E_(MAPE))进行对比。结果显示:Prophet_SVR模型的试验结果相对于Prophet时序模型E_(RMSE)下降0.197 1,E_(MAPE)下降3.890 4%。试验对比可知,Prophet_SVR预测模型在降低预测整体误差和提升单个数值预测精度上效果更优。该方法训练模型的时间更短、效率更高,为短期水质参数预测提供了参考。  相似文献   

9.
针对传统理化方法分析水质污染情况耗时耗力等问题,提出一种基于鱼类异常行为识别的水质监测方法。以红色斑马鱼(red zebrafish)为研究对象,利用计算机视觉技术,首先对斑马鱼图像进行预处理,利用灰度共生矩阵获取鱼群纹理特征;然后通过Lucas-Kanade光流法计算鱼群的运动信息熵,并对获取的纹理特征和信息熵进行归一化处理;最后采用轻量化梯度促进机(LightGBM)对鱼类异常行为进行检测,与深度神经网络(DNN)和支持向量机(SVM)检测效果对比。结果显示:利用LightGBM对鱼类异常行为进行检测,准确率为98.5%,与其他模型对比分别提高0.5%和25.3%。研究表明,基于LightGBM模型的鱼类异常行为检测方法相比其他模型能更准确地识别鱼类非正常游动。该模型适用于自动水质监测。  相似文献   

10.
为解决目前鳀(Engraulis japonicus)限额捕捞与分类统计不准确的问题,提出一种改进YOLOv5的识别算法。该方法将SENet注意力机制引入到YOLOv5主干网络结构中,通过融合捕捞作业不同时期的目标信息并降低复杂背景的干扰,以提高模型检测精度和实时检测效率。采用实际拍摄的鳀作业视频,将视频转化为图片格式实现前期标注和处理,对获得的5 550幅图像按照8∶1∶1划分训练集、验证集和测试集,设置对照实验,将YOLOv5主干网络替换为MobileNetV2,并引进SENet注意力机制,分别通过4种模型进行对比,结果表明,该识别算法获得平均精度均值(mAP)为99.4%、精度为98.9%、召回率为99.1%,相比原模型分别提高了2.5%、3.7%和2.9%。研究结果可以为鳀围网作业的目标识别提供新的思路,同时也为渔获作业统计提供了一种辅助手段。  相似文献   

11.
近年来深度学习在图像识别研究中取得突破进展,带动了目标检测技术的快速发展。利用目标检测技术开发水族馆鱼类目标检测APP,可以增强游客参观体验,提升科普效果。针对水族馆拍摄的80种鱼类,首先,使用LabelImg软件进行目标标记,再利用标记的目标导出成tfrecord数据;其次,选择ssd_mobilenet_v1模型进行数据训练,通过20万次的迭代训练获取到鱼类目标检测模型;最后,利用TensorFlow多目标检测API调用模型,定义2个接口和12个类,开发出Android系统手机APP。经过80种鱼类1620张图片测试,正确率为92.59%,华为MHA-AL00手机目标检测平均时间40 ms。使用鱼类目标检测APP,能实现水族馆鱼类快速识别、多鱼类目标实时检测,可提升游客的参观体验,辅助科普量化评价。  相似文献   

12.
In order to monitor the fish volume entrapped over time in a set net in real time, a new remote fish finder system based on a mobile network was developed and tested. This system was designed with a client/server architecture including an echo sounder terminal, a web server, and some end user display terminals, which allowed fishermen to monitor the fishing state of a set net via any display device. In addition, in order to transfer the echo data smoothly via a mobile network, a fish echo extraction method based on image processing and a data organization structure were proposed, which can significantly reduce the data volume for transmission, supply sufficient information to reconstruct the high resolution echogram at the user terminals, and calculate the positional and morphometric parameters of fish echoes. Furthermore, a semiautomatic data recording method for use with a database was proposed to manage the extracted fish echo data and the fishing records. The functions and capabilities of the new system were demonstrated by a sea trial.  相似文献   

13.
This paper proposes a new approach combining YOLOv3 with MobileNetv1 for fish detection in real breeding farm. The feature maps of MobileNet are reselected as per their receptive fields for better fish detection instead of fixed chosen strategy in the original YOLOv3 framework. A set of fish image data acquired in breeding farm is used to evaluate the proposed method. The high accuracy of detection results is achieved to confirm the effectiveness of the proposed method. Furthermore, taking the place of “ImageNet”, a slighter dataset including fish images with 16 species for backbone network pretraining is picked out from “ImageNet” to extract fish features. On this basis, the effect of detection of the model is further improved due to that the extracted features are more closed to fish objects. Therefore, the proposed method is proved to have the capability of providing necessary and accurate number of fish, which will then be used to determine the breeding actions accordingly.  相似文献   

14.
鱼类目标检测对渔业精准养殖、生产自动化、资源调查及鱼行为的研究等具有重要的意义.为了能快速准确地得到鱼类目标的位置和所属类别,提出了一种改进YOLO v4模型的鱼类目标检测方法,在CIoU(Complete Intersection over Union)损失函数基础上构建了新的损失项,改进的损失函数使真实框与相交框呈...  相似文献   

15.
为了保证鱼类行为数据采集的准确性和鲁棒性,本实验提出了一种干扰消除算法,对鱼目标三维定位算法进行优化。主要针对鱼目标三维信息采集平台中出现的一种由全反射引起的干扰现象,利用光学原理分析其出现原因,总结干扰现象特点,之后通过基于轮廓的运动目标跟踪方法,设计干扰消除算法,优化鱼目标三维定位算法,实现对干扰现象影响的消除,提高定位精度。通过对红鲫和仿真鱼的定位实验,结果发现,本实验提出的去干扰优化算法可以有效消除干扰像对于目标定位的影响,准确获取鱼目标的三维坐标,保证鱼目标三维定位跟踪的准确性和鲁棒性,提高鱼目标行为信息采集精度。  相似文献   

16.
The Precision Fish Farming (PFF) approach was applied to the estimation of fish oxygen consumption of rainbow trout in a raceway farm. A dynamic model, simulating the evolution of Dissolved Oxygen concentration, was identified: the daily oscillation of fish oxygen consumption rate was simulated by means of a sinusoidal function. The model was applied to the data set collected during a four-week field study, which was carried out in July 2019. Water temperature and Dissolved Oxygen concentration were measured with an hourly frequency in farm influent and effluent. Fish biomass was monitored on a daily basis by combining the data provided by a state-of-the art system for non-invasive estimation of fish weight distribution with mortality counting. The monitoring period was partitioned into two time-windows, as fish was not fed during the first two weeks. These windows were further partitioned into a calibration and validation set. Three model parameters, i.e. the average daily respiration rate, the amplitude of its daily oscillation, and its phase were estimated by fitting the model output to the time series of DO concentration in the effluent. The results of the calibration show that: 1) the daily average oxygen consumption rate is consistent with the literature; 2) the amplitude of the daily oscillation when fish is regularly fed is more than twice that estimated for fasting fish. The results of the validation suggest that the model could be used to implement a cost-effective automatic control of oxygen supply, based on the short-term prediction of oxygen demand.  相似文献   

17.
基于鱼体背部弯曲潜能算法的四种主养鱼类识别   总被引:1,自引:0,他引:1  
以四种主养淡水鱼鲫(Carassius auratus)、草鱼(Ctenopharyngodon idellus)、团头鲂(Megalobrama amblycephala)、鲤(Cyprinus carpio)为例,提出一种基于图像处理技术的鱼种类自动识别方法。首先通过鱼体信息采集系统获取待识别鱼体图像,并对其进行灰度化与二值化,得到鱼体轮廓信息;然后采用邻域边界算法对鱼体的轮廓进行提取,根据轮廓曲线建立鱼体背部轮廓数学模型;最后根据轮廓模型,采用鱼体背部弯曲潜能算法对不同种类鱼体样本的背部弯曲潜能值进行计算和聚类统计,得到不同鱼类样本的背部弯曲潜能值分布区间,从而通过比对待识别鱼体背部弯曲潜能值的区间实现对不同鱼类的自动识别。对四种主养鱼类的实验测试结果表明,对团头鲂的识别精度可以达到100%,对鲫、鲤和草鱼的识别精度达到96%,基本上能准确实现四种鱼体的分类识别,具有较好的实际应用价值。  相似文献   

18.
This paper presents a novel method to evaluate fish feeding intensity for aquaculture fish farming. Determining the level of fish appetite helps optimize fish production and design more efficient aquaculture smart feeding systems. Given an aquaculture surveillance video, our goal is to improve fish feeding intensity evaluation by proposing a two-stage approach: an optical flow neural network is first applied to generate optical flow frames, which are then inputted to a 3D convolution neural network (3D CNN) for fish feeding intensity evaluation. Using an aerial drone, we capture RGB water surface images with significant optical flows from an aquaculture site during the fish feeding activity. The captured images are inputs to our deep optical flow neural network, consisting of the leading neural network layers for video interpolation and the last layer for optical flow regression. Our optical flow detection model calculates the displacement vector of each pixel across two consecutive frames. To construct the training dataset of our CNNs and verify the effectiveness of our proposed approach, we manually annotated the level of fish feeding intensity for each training image frame. In this paper, the fish feeding intensity is categorized into four, i.e., ‘none,’ ‘weak,’ ‘medium’ and ‘strong.’ We compared our method with other state-of-the-art fish feeding intensity evaluations. Our proposed method reached up to 95 % accuracy, which outperforms the existing systems that use CNNs to evaluate the fish feeding intensity.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号