Ultralytics YOLO banner

中文 · 한국어 · 日本語 · Русский · Deutsch · Français · Español · Português · Türkçe · Tiếng Việt · العربية


Ultralytics CI Ultralytics Downloads Ultralytics Discord Ultralytics Forums Ultralytics Reddit
Run Ultralytics on Gradient Open Ultralytics In Colab Open Ultralytics In Kaggle Open Ultralytics In Binder

首页

隆重推出 Ultralytics YOLO26,这是备受赞誉的实时目标检测和图像分割模型的最新版本。YOLO26 构建于深度学习计算机视觉的进步之上,具有端到端无需 NMS 的推理能力以及优化的边缘部署功能。其精简的设计使其适用于各种应用,并能轻松适配从边缘设备到云端 API 的不同硬件平台。对于稳定的生产工作负载,我们推荐使用 YOLO26 和 YOLO11

探索 Ultralytics 文档,这是一套全面的资源,旨在帮助你理解并利用其功能和特性。无论你是经验丰富的机器学习从业者,还是该领域的新手,此中心都旨在最大程度地挖掘 YOLO 在你项目中的潜力。

如需商业用途的企业许可证,请前往 Ultralytics Licensing 进行申请。


Ultralytics GitHub Ultralytics LinkedIn Ultralytics Twitter Ultralytics YouTube Ultralytics TikTok Ultralytics BiliBili Ultralytics Discord

从哪里开始

入门指南

使用 pip 安装 ultralytics,只需几分钟即可快速上手,开始训练 YOLO 模型


快速入门

预测

使用 YOLO 对新的图像、视频和流进行预测


了解更多

训练模型

在自定义数据集上从头开始训练新的 YOLO 模型,或者加载预训练模型进行训练


了解更多

探索计算机视觉任务

探索 YOLO 的各种任务,如检测、分割、分类、姿态估计、OBB 和追踪


探索任务

探索 YOLO26 🚀 新功能

了解 Ultralytics 最新的 YOLO26 模型,体验端到端无需 NMS 的推理和边缘优化


YOLO26 模型 🚀

SAM 3:基于概念的图像分割 🚀 新功能

Meta 最新的 SAM 3 引入了可提示的概念分割 —— 使用文本或图像示例分割所有实例


SAM 3 模型

开源,AGPL-3.0

Ultralytics 提供两种 YOLO 许可协议:AGPL-3.0 和企业版。欢迎在 GitHub 上探索 YOLO。


YOLO 许可协议



Watch: How to Train a YOLO26 model on Your Custom Dataset in Google Colab.

YOLO:简史

YOLO (You Only Look Once) 是一款广受欢迎的目标检测图像分割模型,由华盛顿大学的 Joseph Redmon 和 Ali Farhadi 开发。自 2015 年发布以来,YOLO 因其卓越的速度和精度而广受认可。

  • 2016 年发布的 YOLOv2 通过引入批量归一化、锚框 (anchor boxes) 和维度聚类改进了原始模型。
  • 2018 年推出的 YOLOv3 使用了更高效的主干网络、多个锚框和空间金字塔池化,进一步提升了模型性能。
  • YOLOv4 于 2020 年发布,引入了诸如 Mosaic 数据增强、新的无锚检测头和新的损失函数等创新。
  • YOLOv5 进一步优化了模型表现,并增加了超参数优化、集成实验跟踪以及自动导出到主流格式等新功能。
  • YOLOv6美团于 2022 年开源,并广泛应用于该公司的自动配送机器人中。
  • YOLOv7 增加了额外的任务,例如 COCO 关键点数据集上的姿态估计。
  • YOLOv8 由 Ultralytics 于 2023 年发布,引入了新功能和改进,增强了性能、灵活性和效率,并支持全方位的视觉 AI 任务。
  • YOLOv9 引入了诸如可编程梯度信息 (PGI) 和广义高效层聚合网络 (GELAN) 等创新方法。
  • YOLOv10清华大学的研究人员使用 UltralyticsPython 包开发,通过引入无需非极大值抑制 (NMS) 的端到端检测头,实现了实时目标检测的重大突破。
  • YOLO11:于 2024 年 9 月发布,YOLO11 在多项任务中展现出卓越的性能,包括目标检测分割姿态估计追踪分类,支持在多种 AI 应用场景和领域进行部署。
  • YOLO26 🚀:Ultralytics 的下一代 YOLO 模型,专为边缘部署而优化,具备端到端无需 NMS 的推理能力。

YOLO 许可协议:Ultralytics YOLO 如何授权?

Ultralytics Enterprise License banner

Ultralytics 提供两种许可选项以满足不同的使用需求:

  • AGPL-3.0 许可协议:此经 OSI 认证的开源许可证非常适合学生和爱好者,旨在促进开放协作与知识共享。详情请参阅 LICENSE 文件。
  • 企业版许可协议:专为商业用途设计,该许可证允许将 Ultralytics 软件和 AI 模型无缝集成到商业产品和服务中,无需遵循 AGPL-3.0 的开源要求。如果你的方案涉及将我们的解决方案嵌入商业产品,请通过 Ultralytics Licensing 与我们联系。

我们的许可策略旨在确保对开源项目的任何改进都能回馈给社区。我们坚信开源,我们的使命是确保我们的贡献能以造福所有人的方式被使用和扩展。

目标检测的演变

多年来,目标检测已取得了重大演变,从传统的计算机视觉技术发展到先进的深度学习模型。YOLO 模型系列始终处于这一演变的前沿,不断突破实时目标检测的极限。

YOLO 的独特之处在于将目标检测视为一个单一的回归问题,直接从整张图像中预测边界框和类别概率。这种革命性的方法使得 YOLO 模型比以前的二阶段检测器快得多,同时保持了高精度。

随着每一个新版本的发布,YOLO 都引入了架构上的改进和创新技术,从而提升了各项指标的性能。YOLO26 延续了这一传统,结合了计算机视觉研究的最新进展,具备端到端无需 NMS 的推理能力,并针对实际应用进行了边缘部署优化。

常见问题 (FAQ)

什么是 Ultralytics YOLO?它如何改进目标检测?

Ultralytics YOLO 是备受赞誉的 YOLO (You Only Look Once) 系列,专为实时目标检测和图像分割而设计。最新模型 YOLO26 在前版本基础上进行了创新,引入了端到端无需 NMS 的推理功能,并优化了边缘部署性能。YOLO 支持多种视觉 AI 任务,如检测、分割、姿态估计、追踪和分类。其高效的架构确保了卓越的速度和精度,使其适用于包括边缘设备和云端 API 在内的多种应用场景。

如何开始使用 YOLO 的安装和设置?

YOLO 的上手过程既快速又简单。你可以使用 pip 安装 Ultralytics 包,并在几分钟内运行起来。以下是基本的安装命令:

使用 pip 安装
pip install -U ultralytics

如需详细的逐步指南,请访问我们的 快速入门页面。该资源将指导你完成安装、初始设置以及运行你的第一个模型。

如何在我自己的数据集上训练自定义 YOLO 模型?

在自定义数据集上训练 YOLO 模型涉及几个详细步骤:

  1. 准备你的标注数据集。
  2. 在 YAML 文件中配置训练参数。
  3. 使用 yolo TASK train 命令启动训练。(每个 TASK 都有其对应的参数)

以下是目标检测任务的代码示例:

目标检测任务训练示例
from ultralytics import YOLO

# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)

如需详细的操作指南,请查看我们的 训练模型说明,其中包含用于优化训练过程的示例和提示。

Ultralytics YOLO 有哪些许可选项?

Ultralytics 为 YOLO 提供两种许可选项:

  • AGPL-3.0 许可协议:此开源许可证非常适合教学和非商业用途,有助于促进开放协作。
  • 企业版许可协议:此许可专为商业应用设计,允许将 Ultralytics 软件无缝集成到商业产品中,而不受 AGPL-3.0 许可的限制。

更多详细信息,请访问我们的许可协议页面。

如何使用 Ultralytics YOLO 进行实时目标追踪?

Ultralytics YOLO 支持高效且可定制的多目标追踪。要使用追踪功能,你可以使用 yolo track 命令,如下所示:

视频目标追踪示例
from ultralytics import YOLO

# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")

关于设置和运行目标追踪的详细指南,请查看我们的 追踪模式文档,该文档解释了配置过程及其在实时场景中的实际应用。

评论