《------往期经典推荐------》

一、AI应用软件开发实战专栏【链接】

项目名称项目名称
1.【人脸识别与管理系统开发2.【车牌识别与自动收费管理系统开发
3.【手势识别系统开发4.【人脸面部活体检测系统开发
5.【图片风格快速迁移软件开发6.【人脸表表情识别系统
7.【YOLOv8多目标识别与自动标注软件开发8.【基于YOLOv8深度学习的行人跌倒检测系统
9.【基于YOLOv8深度学习的PCB板缺陷检测系统10.【基于YOLOv8深度学习的生活垃圾分类目标检测系统
11.【基于YOLOv8深度学习的安全帽目标检测系统12.【基于YOLOv8深度学习的120种犬类检测与识别系统
13.【基于YOLOv8深度学习的路面坑洞检测系统14.【基于YOLOv8深度学习的火焰烟雾检测系统
15.【基于YOLOv8深度学习的钢材表面缺陷检测系统16.【基于YOLOv8深度学习的舰船目标分类检测系统
17.【基于YOLOv8深度学习的西红柿成熟度检测系统18.【基于YOLOv8深度学习的血细胞检测与计数系统
19.【基于YOLOv8深度学习的吸烟/抽烟行为检测系统20.【基于YOLOv8深度学习的水稻害虫检测与识别系统
21.【基于YOLOv8深度学习的高精度车辆行人检测与计数系统22.【基于YOLOv8深度学习的路面标志线检测与识别系统
23.【基于YOLOv8深度学习的智能小麦害虫检测识别系统24.【基于YOLOv8深度学习的智能玉米害虫检测识别系统
25.【基于YOLOv8深度学习的200种鸟类智能检测与识别系统26.【基于YOLOv8深度学习的45种交通标志智能检测与识别系统
27.【基于YOLOv8深度学习的人脸面部表情识别系统28.【基于YOLOv8深度学习的苹果叶片病害智能诊断系统
29.【基于YOLOv8深度学习的智能肺炎诊断系统30.【基于YOLOv8深度学习的葡萄簇目标检测系统
31.【基于YOLOv8深度学习的100种中草药智能识别系统32.【基于YOLOv8深度学习的102种花卉智能识别系统
33.【基于YOLOv8深度学习的100种蝴蝶智能识别系统34.【基于YOLOv8深度学习的水稻叶片病害智能诊断系统
35.【基于YOLOv8与ByteTrack的车辆行人多目标检测与追踪系统36.【基于YOLOv8深度学习的智能草莓病害检测与分割系统
37.【基于YOLOv8深度学习的复杂场景下船舶目标检测系统38.【基于YOLOv8深度学习的农作物幼苗与杂草检测系统
39.【基于YOLOv8深度学习的智能道路裂缝检测与分析系统40.【基于YOLOv8深度学习的葡萄病害智能诊断与防治系统
41.【基于YOLOv8深度学习的遥感地理空间物体检测系统42.【基于YOLOv8深度学习的无人机视角地面物体检测系统
43.【基于YOLOv8深度学习的木薯病害智能诊断与防治系统44.【基于YOLOv8深度学习的野外火焰烟雾检测系统
45.【基于YOLOv8深度学习的脑肿瘤智能检测系统46.【基于YOLOv8深度学习的玉米叶片病害智能诊断与防治系统
47.【基于YOLOv8深度学习的橙子病害智能诊断与防治系统48.【基于深度学习的车辆检测追踪与流量计数系统
49.【基于深度学习的行人检测追踪与双向流量计数系统50.【基于深度学习的反光衣检测与预警系统
51.【基于深度学习的危险区域人员闯入检测与报警系统52.【基于深度学习的高密度人脸智能检测与统计系统
53.【基于深度学习的CT扫描图像肾结石智能检测系统54.【基于深度学习的水果智能检测系统
55.【基于深度学习的水果质量好坏智能检测系统56.【基于深度学习的蔬菜目标检测与识别系统
57.【基于深度学习的非机动车驾驶员头盔检测系统58.【太基于深度学习的阳能电池板检测与分析系统
59.【基于深度学习的工业螺栓螺母检测60.【基于深度学习的金属焊缝缺陷检测系统
61.【基于深度学习的链条缺陷检测与识别系统62.【基于深度学习的交通信号灯检测识别
63.【基于深度学习的草莓成熟度检测与识别系统64.【基于深度学习的水下海生物检测识别系统
65.【基于深度学习的道路交通事故检测识别系统66.【基于深度学习的安检X光危险品检测与识别系统
67.【基于深度学习的农作物类别检测与识别系统68.【基于深度学习的危险驾驶行为检测识别系统
69.【基于深度学习的维修工具检测识别系统70.【基于深度学习的维修工具检测识别系统
71.【基于深度学习的建筑墙面损伤检测系统72.【基于深度学习的煤矿传送带异物检测系统
73.【基于深度学习的老鼠智能检测系统74.【基于深度学习的水面垃圾智能检测识别系统
75.【基于深度学习的遥感视角船只智能检测系统

二、机器学习实战专栏【链接】,已更新31期,欢迎关注,持续更新中~~
三、深度学习【Pytorch】专栏【链接】
四、【Stable Diffusion绘画系列】专栏【链接】
五、YOLOv8改进专栏【链接】持续更新中~~
六、YOLO性能对比专栏【链接】,持续更新中~

《------正文------》

基本功能演示

基于YOLO11深度学习的胃肠道息肉智能检测分割与诊断系统【python源码+Pyqt5界面+数据集+训练代码】深度学习实战、目标分割、人工智能

摘要:胃肠道息肉是消化道内常见的病变,部分类型的息肉有潜在恶变为癌症的风险,因此早期检测和准确诊断对于预防胃肠道癌症至关重要。传统的检测方法依赖于内镜检查,由医生根据经验判断息肉的存在及其性质,这种方法不仅耗时,而且对医生的专业技能要求极高。本文基于YOLO11深度学习框架,通过1000胃肠道息肉相关图片,训练了一个进行胃肠道息肉智能检测分割目标分割模型可以检测分割出胃肠道息肉的具体位置及大小。最终基于此模型开发了一款带UI界面的胃肠道息肉智能检测分割与诊断系统,可用于实时检测场景中的胃肠道息肉智能检测与诊断。该系统是基于pythonPyQT5开发的,支持图片、批量图片、视频以及摄像头进行目标检测分割,并保存检测结果。本文提供了完整的Python代码和使用教程,给感兴趣的小伙伴参考学习,完整的代码资源文件获取方式见文末

点击跳转至文末《完整相关文件及源码》获取


前言

胃肠道息肉是消化道内常见的病变,部分类型的息肉有潜在恶变为癌症的风险,因此早期检测和准确诊断对于预防胃肠道癌症至关重要。传统的检测方法依赖于内镜检查,由医生根据经验判断息肉的存在及其性质,这种方法不仅耗时,而且对医生的专业技能要求极高。基于YOLO深度学习框架开发的胃肠道息肉智能检测分割与诊断系统,利用先进的计算机视觉技术自动分析内镜图像或视频,实现对胃肠道息肉的高效检测、精确分割以及初步诊断。该系统的出现极大地提高了检测效率和准确性,有助于早期发现病变,降低胃肠道癌症的发生率。

应用场景:
临床辅助诊断:为医生提供实时辅助,帮助他们在进行内镜检查时快速识别息肉位置,提高诊断速度和准确性。
大规模筛查:在公共卫生项目中用于人群的胃肠道疾病筛查,通过自动化处理大量内镜图像,加快筛查进程。
医学教育与培训:作为教学工具,帮助医学生和初级医生了解不同类型息肉的特征,提升他们的诊断能力。
远程医疗支持:通过互联网将偏远地区的内镜图像传输到中心医院,由专家结合智能系统提供的分析结果给出诊断意见,扩大优质医疗服务覆盖范围。
研究与发展:研究人员可以使用该系统分析大量的临床数据,探索息肉发生发展的规律,为制定更有效的预防策略提供科学依据。
个性化健康管理:为有家族史或其他高风险因素的人群提供个性化的监测服务,定期评估其健康状况,及时采取干预措施。

博主通过搜集胃肠道息肉的相关图片,根据最前沿的YOLO11目标分割技术,基于python与Pyqt5开发了一款界面简洁的胃肠道息肉智能检测分割与诊断系统,可支持图片、视频以及摄像头检测,同时可以将图片、视频以及摄像头的检测结果进行保存本文详细的介绍了此系统的核心功能以及所使用到的技术原理与制作流程。

软件初始界面如下图所示:
在这里插入图片描述

检测结果界面如下:
在这里插入图片描述

检测结果说明:

诊断结果区域:分别用'绿色'、‘红色’背景代表‘正常’、‘异常’这2种类别的检测结果
显示效果如下:
在这里插入图片描述
在这里插入图片描述

一、软件核心功能介绍及效果演示

软件主要功能

1. 可进行胃肠道息肉检测分割,在诊断结果区域显示['正常'、'异常']这2种诊断结果;
2. 支持图片、图片批量、视频及摄像头进行检测分割;
3. 可显示总分割面积占比以及单个目标的分割面积占比
4. 界面可实时显示目标位置分割结果分割面积占比置信度用时等信息;
5. 结果保存:支持图片视频摄像头分割结果保存

界面参数设置说明

在这里插入图片描述

  1. 置信度阈值:也就是目标检测时的conf参数,只有检测出的目标置信度大于该值,结果才会显示;
  2. 交并比阈值:也就是目标检测时的iou参数,只有目标检测框的交并比大于该值,结果才会显示;
  3. 窗口1:显示分割结果:表示是否在检测图片中显示分割结果,默认勾选;
  4. 窗口1:显示检测框与标签:表示是否在检测图片中显示检测框与标签,默认勾选;
  5. 窗口2:显示Mask或者显示原始分割图片:表示在窗口2中显示分割的Mask或者原始图片分割内容

IoU:全称为Intersection over
Union,表示交并比。在目标检测中,它用于衡量模型生成的候选框与原标记框之间的重叠程度。IoU值越大,表示两个框之间的相似性越高。通常,当IoU值大于0.5时,认为可以检测到目标物体。这个指标常用于评估模型在特定数据集上的检测准确度。

显示Mask或者显示原始分割图片选项的功能效果如下:
显示Mask选项效果:
在这里插入图片描述
显示原始分割图片效果:
在这里插入图片描述

(1)图片检测演示

1.点击打开图片按钮,选择需要检测的图片,或者点击打开文件夹按钮,选择需要批量检测图片所在的文件夹,操作演示如下:
2.点击目标下拉框后,可以选定指定目标的结果信息进行显示。
3.
点击保存按钮,会对图片检测结果进行保存,存储路径为:save_data目录下。
4.点击表格中的指定行,界面会显示该行表格所写的信息内容。
注:右侧目标位置默认显示置信度最大一个目标位置,可用下拉框进行信息切换。所有检测结果均在表格中显示。

点击保存按钮,会对图片的检测结果进行保存,共会保存3种类型结果,分别是:检测分割结果标识图片、分割的Mask图片以及原图分割后的图片。存储在save_data目录下,保存结果如下:
在这里插入图片描述

(2)视频检测演示

1.点击打开视频图标,打开选择需要检测的视频,就会自动显示检测结果。再次点击该按钮,会关闭视频
2.点击保存按钮,会对视频检测结果进行保存,同样会保存3种类型结果,分别是:检测分割结果标识视频、分割Mask视频以及原视频分割后的视频,存储路径为:save_data目录下。

视频检测保存结果如下:
在这里插入图片描述

(3)摄像头检测演示

1.点击打开摄像头按钮,可以打开摄像头,可以实时进行检测,再次点击该按钮,可关闭摄像头
2.点击保存按钮,可以进行摄像头实时图像的检测结果保存

(4)检测结果保存

点击保存按钮后,会将当前选择的图片【含批量图片】、视频或者摄像头的分割结果进行保存。结果会存储在save_data目录下,保存内容如下:
在这里插入图片描述

二、目标分割模型的训练、评估与推理

1.YOLO11简介

YOLO11源码地址:https://github.com/ultralytics/ultralytics

Ultralytics YOLO11是一款尖端的、最先进的模型,它在之前YOLO版本成功的基础上进行了构建,并引入了新功能和改进,以进一步提升性能和灵活性。YOLO11设计快速、准确且易于使用,使其成为各种物体检测和跟踪、实例分割、图像分类以及姿态估计任务的绝佳选择。
在这里插入图片描述

YOLO11创新点如下:

YOLO 11主要改进包括:
增强的特征提取:YOLO 11采用了改进的骨干和颈部架构,增强了特征提取功能,以实现更精确的目标检测。
优化的效率和速度:优化的架构设计和优化的训练管道提供更快的处理速度,同时保持准确性和性能之间的平衡。
更高的精度,更少的参数:YOLO11m在COCO数据集上实现了更高的平均精度(mAP),参数比YOLOv8m少22%,使其在不影响精度的情况下提高了计算效率。
跨环境的适应性:YOLO 11可以部署在各种环境中,包括边缘设备、云平台和支持NVIDIA GPU的系统。
广泛的支持任务:YOLO 11支持各种计算机视觉任务,如对象检测、实例分割、图像分类、姿态估计和面向对象检测(OBB)。

YOLO11不同模型尺寸信息:

YOLO11 提供5种不同的型号规模模型,以满足不同的应用需求:

Modelsize (pixels)mAPval 50-95Speed CPU ONNX (ms)Speed T4 TensorRT10 (ms)params (M)FLOPs (B)
YOLO11n64039.556.1 ± 0.81.5 ± 0.02.66.5
YOLO11s64047.090.0 ± 1.22.5 ± 0.09.421.5
YOLO11m64051.5183.2 ± 2.04.7 ± 0.120.168.0
YOLO11l64053.4238.6 ± 1.46.2 ± 0.125.386.9
YOLO11x64054.7462.8 ± 6.711.3 ± 0.256.9194.9

2. 数据集准备与训练

通过网络上搜集关于胃肠道息肉相关图片,并使用Labelme标注工具对每张图片中的分割结果及类别进行标注。一共包含1000张图片,其中训练集包含800张图片验证集包含200张图片,部分图像及标注如下图所示。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

数据集的各类别具体分布如下所示:
在这里插入图片描述

图片数据的存放格式如下,在项目目录中新建datasets目录,同时将检测的图片分为训练集、验证集放入Data目录下。
在这里插入图片描述

同时我们需要新建一个data.yaml文件,用于存储训练数据的路径及模型需要进行检测的类别。YOLOv8在进行模型训练时,会读取该文件的信息,用于进行模型的训练与验证。data.yaml的具体内容如下:

train: D:\2MyCVProgram\3.SegmentProgram\BreastCancerSeg\datasets\Data\train
val: D:\2MyCVProgram\3.SegmentProgram\BreastCancerSeg\datasets\Data\val

nc: 1
names: ['polyp']

注:train与val后面表示需要训练图片的路径,建议直接写自己文件的绝对路径。
数据准备完成后,通过调用train.py文件进行模型训练,epochs参数用于调整训练的轮数,batch参数用于调整训练的批次大小【根据内存大小调整,最小为1】,代码如下:

#coding:utf-8
from ultralytics import YOLO
import matplotlib
matplotlib.use('TkAgg')

if __name__ == '__main__':
    # 训练模型配置文件路径
    yolo_yaml_path = 'ultralytics/cfg/models/11/yolo11-seg.yaml'
    # 数据集配置文件路径
    data_yaml_path = 'datasets/Data/data.yaml'
    # 官方预训练模型路径
    pre_model_path = "yolo11n-seg.pt"
    # 加载预训练模型
    model = YOLO(yolo_yaml_path).load(pre_model_path)
    # 模型训练
    model.train(data=data_yaml_path, 
                epochs=150, 
                batch=4)

3. 训练结果评估

在深度学习中,我们通常用损失函数下降的曲线来观察模型训练的情况。YOLOv8在训练时主要包含三个方面的损失:定位损失(box_loss)、分类损失(cls_loss)、动态特征损失(dfl_loss)以及分割损失(seg_loss),在训练结束后,可以在runs/目录下找到训练过程及结果文件,如下所示:
在这里插入图片描述

各损失函数作用说明:
定位损失box_loss:预测框与标定框之间的误差(GIoU),越小定位得越准;
分类损失cls_loss:计算锚框与对应的标定分类是否正确,越小分类得越准;
动态特征损失(dfl_loss):DFLLoss是一种用于回归预测框与目标框之间距离的损失函数。在计算损失时,目标框需要缩放到特征图尺度,即除以相应的stride,并与预测的边界框计算Ciou Loss,同时与预测的anchors中心点到各边的距离计算回归DFLLoss。这个过程是YOLO11训练流程中的一部分,通过计算DFLLoss可以更准确地调整预测框的位置,提高目标检测的准确性。
分割损失(seg_loss):预测的分割结果与标定分割之前的误差,越小分割的越准确;
本文训练结果如下:
在这里插入图片描述
我们通常用PR曲线来体现精确率和召回率的关系,本文训练结果的PR曲线如下。mAP表示Precision和Recall作为两轴作图后围成的面积,m表示平均,@后面的数表示判定iou为正负样本的阈值。mAP@.5:表示阈值大于0.5的平均mAP。

定位结果的PR曲线如下:
在这里插入图片描述

分割结果的PR曲线如下:
在这里插入图片描述

从上面图片曲线结果可以看到:定位的平均精度为0.947,分割的平均精度为0.947,结果还是非常不错的。

4. 模型推理

模型训练完成后,我们可以得到一个最佳的训练结果模型best.pt文件,在runs/trian/weights目录下。我们可以使用该文件进行后续的推理检测。
图片检测代码如下:

#coding:utf-8
from ultralytics import YOLO
import cv2

# 所需加载的模型目录
path = 'models/best.pt'
# 需要检测的图片地址
img_path = "TestFiles/cju2nd7l7z98o0799gfjvyfmw.jpg"

# 加载预训练模型
# conf	0.25	object confidence threshold for detection
# iou	0.7	intersection over union (IoU) threshold for NMS
model = YOLO(path, task='segment')
# model = YOLO(path, task='segment',conf=0.5)


# 检测图片
results = model(img_path)
print(results)
res = results[0].plot()

res = cv2.resize(res,dsize=None,fx=0.5,fy=0.5,interpolation=cv2.INTER_LINEAR)
cv2.imshow("Res", res)
cv2.waitKey(0)

执行上述代码后,会将执行的结果直接标注在图片上,结果如下:
在这里插入图片描述
更多检测结果展示如下:
在这里插入图片描述
在这里插入图片描述

以上便是关于此款胃肠道息肉智能检测分割与诊断系统的原理与代码介绍。基于此模型,博主用pythonPyqt5开发了一个带界面的软件系统,即文中第二部分的演示内容,能够很好的支持图片、视频及摄像头进行检测,同时支持检测结果的保存。

关于该系统涉及到的完整源码、UI界面代码、数据集、训练代码、测试图片视频等相关文件,均已打包上传,感兴趣的小伙伴可以通过下载链接自行获取。


【获取方式】

关注末尾名片G-Z-H:【阿旭算法与机器学习】,发送【源码】即可获取下载方式

本文涉及到的完整全部程序文件:包括环境配置文档说明、python源码、数据集、训练代码、UI文件、测试图片视频等(见下图),获取方式见文末:
在这里插入图片描述

注意:该代码基于Python3.9开发,运行界面的主程序为MainProgram.py,其他测试脚本说明见上图。为确保程序顺利运行,请按照程序运行说明文档txt配置软件运行所需环境。

Logo

助力广东及东莞地区开发者,代码托管、在线学习与竞赛、技术交流与分享、资源共享、职业发展,成为松山湖开发者首选的工作与学习平台

更多推荐