本文共 2046 字,大约阅读时间需要 6 分钟。
在完成数据集的获取任务后,首先需要对数据集进行分析。分析的核心目标在于了解数据集的类别构成和各类别的特点,从而为后续开发模型奠定基础。这可以通过查看图片特征和类别分布来实现。
"华为云杯"2020深圳开发数据应用创新大赛-生活垃圾图片分类数据集是一个标准的VOC格式数据集。该数据集包含14964张图片,分为44个类别。每个类别代表一种常见的垃圾类型,例如一次性快餐盒、书籍纸张、充电宝、剩饭剩菜等。为了确保读取文件时不会因编码格式问题而出错,我们直接在程序中处理类别信息,这样虽然看起来有些繁琐,但能保证程序的稳定运行。
在处理数据之前,我们需要先创建相应的文件夹结构,以便将图片按类别进行分隔。以下是代码实现:
import osimport xml.dom.minidomfrom PIL import Image# 定义根目录root_dir = os.path.dirname(__file__)images_path = os.path.join(root_dir, 'images')# 创建类别的文件夹结构class_names = ['一次性快餐盒', '书籍纸张', '充电宝', '剩饭剩菜', '包', '垃圾桶', '塑料器皿', '塑料玩具', '塑料衣架', '大骨头', '干电池', '快递纸袋', '插头电线', '旧衣服', '易拉罐', '枕头', '果皮果肉', '毛绒玩具', '污损塑料', '污损用纸', '洗护用品', '烟蒂', '牙签', '玻璃器皿', '砧板', '筷子', '纸盒纸箱', '花盆', '茶叶渣', '菜帮菜叶', '蛋壳', '调料瓶', '软膏', '过期药物', '酒瓶', '金属厨具', '金属器皿', '金属食品罐', '锅', '陶瓷器皿', '鞋', '食用油桶', '饮料瓶', '鱼骨']for class_name in class_names: class_dir = os.path.join(images_path, class_name) if not os.path.exists(class_dir): os.makedirs(class_dir)
接下来,我们需要解析每个标签文件,将图片分类并统计各类别的出现次数。以下是实现代码:
import osimport xml.dom.minidomAnnoPath = r'./VOCdevkit/VOC2007/Annotations/'Annolist = os.listdir(AnnoPath)rate = {}total = 0for annotation in Annolist: dom = xml.dom.minidom.parse(AnnoPath + annotation) collection = dom.documentElement objectlist = collection.getElementsByTagName('object') for object in objectlist: name_list = object.getElementsByTagName('name') object_name = name_list[0].childNodes[0].data if object_name not in rate: rate[object_name] = 0 rate[object_name] += 1 total += 1 过程结束后,我们将获得每个类别的统计信息。通过分析这些统计结果,我们可以发现以下问题是当我们训练模型时可能会遇到的痛点:
针对这些问题,我们可以采取以下优化措施:
通过详细分析数据类别的特点,并针对性地进行数据处理和优化,可以显著提升后续模型的性能和泛化能力。这一过程不仅仅是个别类别的处理,更是对整个数据集质量进行全面评估和提升。
转载地址:http://jshxz.baihongyu.com/