网站淘宝客 难做,网站开发毕业设计文献综述,模板网站建设全过程,建设部网站内装修标准在不断发展的计算机视觉领域#xff0c;姿态估计作为一项关键创新脱颖而出#xff0c;改变了我们理解视觉数据以及与视觉数据交互的方式。 Ultralytics YOLOv8 处于这一转变的最前沿#xff0c;提供了一个强大的工具来捕捉图像中物体方向和运动的微妙之处。 NSDT工具推荐姿态估计作为一项关键创新脱颖而出改变了我们理解视觉数据以及与视觉数据交互的方式。 Ultralytics YOLOv8 处于这一转变的最前沿提供了一个强大的工具来捕捉图像中物体方向和运动的微妙之处。 NSDT工具推荐 Three.js AI纹理开发包 - YOLO合成数据生成器 - GLTF/GLB在线编辑 - 3D模型格式在线转换 - 可编程3D场景编辑器 - REVIT导出3D模型插件 - 3D模型语义搜索引擎 传统上跟踪图像中对象的关键点非常复杂但使用 YOLOv8它变得无缝且直观。 这一进步不仅令人兴奋而且还为各个领域开辟了一个充满可能性的世界其中包括体育分析、医疗保健和零售等。
在本文中我们将探索使用 YOLOv8 进行姿态估计的过程。 我们将介绍以下内容
使用 CVAT 进行姿势估计的数据标注我们首先将数据集上传到 CVAT 平台配置工具标注关键点然后导出数据。转换 Ultralytics YOLOv8 的标注标注后我们将数据转换为与 YOLOv8 兼容的格式确保我们的模型可以正确解释它。数据分割构建数据至关重要因此我们将其分为训练集、验证集和测试集以促进有效的模型训练。训练 YOLOv8 模型进行姿势估计组织好数据后我们将训练 YOLOv8 模型来识别和估计姿势。使用 YOLOv8 进行推理最后我们将使用经过训练的模型对新数据进行姿势估计看看我们努力的结果。 你还可以浏览我们关于使用 Ultralytics YOLOv8 进行姿势估计的 YouTube 视频 。
让我们开始吧
1、使用 CVAT 标注姿态数据
数据标注过程在计算机视觉领域至关重要。 我们将在本教程中使用老虎数据集来演示如何准确注释关键点这是训练姿势估计模型的重要步骤。 图 1.2Ultralytics Tiger-Pose 数据集
注意 Ultralytics Tiger-Pose数据集可以从这里下载并解压缩为即将到来的任务做好准备。 这些图像将作为我们训练过程的基础因此请确保它们存储方便。
如果你是 CVAT 新手值得花时间查看 CVAT 文档来熟悉其功能。 这将为更加简化的标注过程提供基础。
1.1 上传数据集
下载Tiger-Pose图像后请务必解压缩文件。 接下来将所有图像作为新任务上传到 CVAT 平台然后单击“提交并打开”。
完成后你将被引导至如下所示的页面 图1.3Ultralytics Tiger-pose 数据集上传
1.2 设置标注工具 CVAT
在 CVAT 中打开任务后系统会提示你选择一个特定作业该作业将作为你的标注工作区。 每个用户的作业编号例如此处提到的“作业#391317”都会有所不同。 这将引导你进入标注界面其中设置将完成你可以开始标记数据。 图 1.4使用 CVAT 的 Ultralytics YOLOv8 Tiger-pose 数据集标注工作流程
1.3 数据标注
使用 CVAT你可以选择使用不同的格式进行标注。 对于Tiger-Pose数据集我们将利用点标注来标记关键点。 该过程在教程中提供的详细 gif 中进行了可视化指导你完成标注的每个步骤 图 1.5使用 CVAT 的 Ultralytics Tiger-pose 数据标注过程
1.4 数据导出
完成标注后可以使用“CVAT for images 1:1”格式导出数据集该格式适合稍后在工作流程中转换为 YOLOv8 格式。
2、将标注转换为YOLOv8 格式
从 CVAT 导出标注后你将收到一个 zip 文件。 解压该文件以显示 annotations.xml文件其中包含你分配的关键点和标签。 该文件至关重要因为它包含 YOLOv8 将学习的结构化数据。
要将其与 YOLOv8 集成请将annotations.xml文件放入与图像数据集相同的目录中。 如果你需要重新下载数据集可以从 Ultralytics Tiger-Pose 数据集获取。 确保下载后解压缩文件为下一步做好准备。 现在创建一个名为 cvat_to_ultralytics_yolov8.py的 Python 脚本。 将提供的代码复制到这个新文件中。 运行此脚本会将你的标注转换为 YOLOv8 格式为训练模型奠定基础
import ast
import os.path
from xml.dom import minidomout_dir ./out
if not os.path.exists(out_dir):os.makedirs(out_dir)file minidom.parse(annotations.xml)images file.getElementsByTagName(image)for image in images:width int(image.getAttribute(width))height int(image.getAttribute(height))name image.getAttribute(name)elem image.getElementsByTagName(points)bbox image.getElementsByTagName(box)[0]xtl int(float(bbox.getAttribute(xtl)))ytl int(float(bbox.getAttribute(ytl)))xbr int(float(bbox.getAttribute(xbr)))ybr int(float(bbox.getAttribute(ybr)))w xbr - xtlh ybr - ytllabel_file open(os.path.join(out_dir, name .txt), w)for e in elem:label_file.write(0 {} {} {} {} .format(str((xtl (w / 2)) / width),str((ytl (h / 2)) / height),str(w / width),str(h / height)))points e.attributes[points]points points.value.split(;)points_ []for p in points:p p.split(,)p1, p2 ppoints_.append([int(float(p1)), int(float(p2))])for p_, p in enumerate(points_):label_file.write({} {}.format(p[0] / width, p[1] / height))if p_ len(points_) - 1:label_file.write( )else:label_file.write(\n)
运行脚本后删除 annotations.xml以避免后续步骤中出现任何潜在的混乱。
3、数据分割
对数据集进行标注和转换后下一步是将图像和标注组织成不同的集合以进行训练和评估。
在项目中创建两个目录一个名为 images另一个名为 labels。将图像及其相应的标注文件分别分发到这些文件夹中。为了促进此数据分割过程请创建一个名为 splitdata.py的 Python 文件。将提供的代码复制并粘贴到 splitdata.py 文件中。通过运行该文件来执行 Python 脚本
此过程可确保你的数据被适当地划分为训练和测试子集为 Ultralytics YOLOv8 训练做好准备。
import splitfoldersinput_fol_path path to folder, that includes images and labels folder
splitfolders.ratio(input_fold_path, outputoutput,seed1337, ratio(.8, .2, .0), group_prefixNone, moveFalse)
结果将是一个包含两个不同目录的输出文件夹 train和 test。 这些文件夹已准备好在 YOLOv8 训练过程中使用。
4、训练 YOLOv8 模型进行姿势估计
下一阶段涉及制作一个 data.yaml文件该文件充当 YOLOv8 的路线图将其定向到你的数据集并定义训练类。 将必要的代码插入 data.yaml自定义数据集目录的路径。
请根据需要调整数据集目录路径。 配置 data.yaml后就可以开始训练模型了。
path: path to the dataset directory
train: train
val: val kpt_shape: [12, 2]
flip_idx: [0,1,2,3,4,5,6,7,8,9,10,11]
names:0: tiger
一旦完成就可以开始了 你可以使用提供的命令来启动 YOLOv8 模型的训练以进行老虎姿势估计。
yolo taskpose modetrain datapath/data.yaml modelyolov8n.pt imgsz640
训练持续时间会有所不同并且取决于你拥有的 GPU 设备。
5、使用 YOLOv8 进行推理
训练后通过对新数据进行推理来测试你的模型。 运行提供的命令以应用姿势估计模型来检测和分析姿势。
# Run inference using a tiger-pose trained model
yolo taskpose modepredict \
sourcehttps://www.youtube.com/watch?vMIBAT6BGE6U \
showTrue modelpath/to/best.pt
下图显示推理结果展示了模型将所学知识应用到现实场景的能力 图 1.7使用 Tiger-Pose 估计模型估计老虎姿势 原文链接YOLOv8姿态估计模型训练 - BimAnt