中文 · 한국어 · 日本語 · Русский · Deutsch · Français · Español · Português · Türkçe · Tiếng Việt · العربية
首页
隆重推出 Ultralytics YOLO26,这是备受赞誉的实时目标检测和图像分割模型的最新版本。YOLO26 构建于深度学习和计算机视觉的进步之上,具有端到端无需 NMS 的推理能力以及优化的边缘部署功能。其精简的设计使其适用于各种应用,并能轻松适配从边缘设备到云端 API 的不同硬件平台。对于稳定的生产工作负载,我们推荐使用 YOLO26 和 YOLO11。
探索 Ultralytics 文档,这是一套全面的资源,旨在帮助你理解并利用其功能和特性。无论你是经验丰富的机器学习从业者,还是该领域的新手,此中心都旨在最大程度地挖掘 YOLO 在你项目中的潜力。
如需商业用途的企业许可证,请前往 Ultralytics Licensing 进行申请。
从哪里开始
YOLO:简史
YOLO (You Only Look Once) 是一款广受欢迎的目标检测和图像分割模型,由华盛顿大学的 Joseph Redmon 和 Ali Farhadi 开发。自 2015 年发布以来,YOLO 因其卓越的速度和精度而广受认可。
- 2016 年发布的 YOLOv2 通过引入批量归一化、锚框 (anchor boxes) 和维度聚类改进了原始模型。
- 2018 年推出的 YOLOv3 使用了更高效的主干网络、多个锚框和空间金字塔池化,进一步提升了模型性能。
- YOLOv4 于 2020 年发布,引入了诸如 Mosaic 数据增强、新的无锚检测头和新的损失函数等创新。
- YOLOv5 进一步优化了模型表现,并增加了超参数优化、集成实验跟踪以及自动导出到主流格式等新功能。
- YOLOv6 由美团于 2022 年开源,并广泛应用于该公司的自动配送机器人中。
- YOLOv7 增加了额外的任务,例如 COCO 关键点数据集上的姿态估计。
- YOLOv8 由 Ultralytics 于 2023 年发布,引入了新功能和改进,增强了性能、灵活性和效率,并支持全方位的视觉 AI 任务。
- YOLOv9 引入了诸如可编程梯度信息 (PGI) 和广义高效层聚合网络 (GELAN) 等创新方法。
- YOLOv10 由清华大学的研究人员使用 UltralyticsPython 包开发,通过引入无需非极大值抑制 (NMS) 的端到端检测头,实现了实时目标检测的重大突破。
- YOLO11:于 2024 年 9 月发布,YOLO11 在多项任务中展现出卓越的性能,包括目标检测、分割、姿态估计、追踪和分类,支持在多种 AI 应用场景和领域进行部署。
- YOLO26 🚀:Ultralytics 的下一代 YOLO 模型,专为边缘部署而优化,具备端到端无需 NMS 的推理能力。
YOLO 许可协议:Ultralytics YOLO 如何授权?
Ultralytics 提供两种许可选项以满足不同的使用需求:
- AGPL-3.0 许可协议:此经 OSI 认证的开源许可证非常适合学生和爱好者,旨在促进开放协作与知识共享。详情请参阅 LICENSE 文件。
- 企业版许可协议:专为商业用途设计,该许可证允许将 Ultralytics 软件和 AI 模型无缝集成到商业产品和服务中,无需遵循 AGPL-3.0 的开源要求。如果你的方案涉及将我们的解决方案嵌入商业产品,请通过 Ultralytics Licensing 与我们联系。
我们的许可策略旨在确保对开源项目的任何改进都能回馈给社区。我们坚信开源,我们的使命是确保我们的贡献能以造福所有人的方式被使用和扩展。
目标检测的演变
多年来,目标检测已取得了重大演变,从传统的计算机视觉技术发展到先进的深度学习模型。YOLO 模型系列始终处于这一演变的前沿,不断突破实时目标检测的极限。
YOLO 的独特之处在于将目标检测视为一个单一的回归问题,直接从整张图像中预测边界框和类别概率。这种革命性的方法使得 YOLO 模型比以前的二阶段检测器快得多,同时保持了高精度。
随着每一个新版本的发布,YOLO 都引入了架构上的改进和创新技术,从而提升了各项指标的性能。YOLO26 延续了这一传统,结合了计算机视觉研究的最新进展,具备端到端无需 NMS 的推理能力,并针对实际应用进行了边缘部署优化。
常见问题 (FAQ)
什么是 Ultralytics YOLO?它如何改进目标检测?
Ultralytics YOLO 是备受赞誉的 YOLO (You Only Look Once) 系列,专为实时目标检测和图像分割而设计。最新模型 YOLO26 在前版本基础上进行了创新,引入了端到端无需 NMS 的推理功能,并优化了边缘部署性能。YOLO 支持多种视觉 AI 任务,如检测、分割、姿态估计、追踪和分类。其高效的架构确保了卓越的速度和精度,使其适用于包括边缘设备和云端 API 在内的多种应用场景。
如何开始使用 YOLO 的安装和设置?
YOLO 的上手过程既快速又简单。你可以使用 pip 安装 Ultralytics 包,并在几分钟内运行起来。以下是基本的安装命令:
pip install -U ultralytics如需详细的逐步指南,请访问我们的 快速入门页面。该资源将指导你完成安装、初始设置以及运行你的第一个模型。
如何在我自己的数据集上训练自定义 YOLO 模型?
在自定义数据集上训练 YOLO 模型涉及几个详细步骤:
- 准备你的标注数据集。
- 在 YAML 文件中配置训练参数。
- 使用
yolo TASK train命令启动训练。(每个TASK都有其对应的参数)
以下是目标检测任务的代码示例:
from ultralytics import YOLO
# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")
# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)如需详细的操作指南,请查看我们的 训练模型说明,其中包含用于优化训练过程的示例和提示。
Ultralytics YOLO 有哪些许可选项?
Ultralytics 为 YOLO 提供两种许可选项:
- AGPL-3.0 许可协议:此开源许可证非常适合教学和非商业用途,有助于促进开放协作。
- 企业版许可协议:此许可专为商业应用设计,允许将 Ultralytics 软件无缝集成到商业产品中,而不受 AGPL-3.0 许可的限制。
更多详细信息,请访问我们的许可协议页面。
如何使用 Ultralytics YOLO 进行实时目标追踪?
Ultralytics YOLO 支持高效且可定制的多目标追踪。要使用追踪功能,你可以使用 yolo track 命令,如下所示:
from ultralytics import YOLO
# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")
# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")关于设置和运行目标追踪的详细指南,请查看我们的 追踪模式文档,该文档解释了配置过程及其在实时场景中的实际应用。