文件名称:MNIST训练数据集中的“不良”笔迹证明使CNN预测“良好”笔迹错误-研究论文
文件大小:1.63MB
文件格式:PDF
更新时间:2024-06-08 11:56:42
MNIST Wrong Labels
当我比较MNIST数据集中的人类学习模型和机器学习模型(ML)之间的错误时,我注意到人类在某些“不良”笔迹上会出错,而ML可以正确预测,而ML在某些“良好”笔迹上会出错。 我认为这可能是训练集中的“不良”笔迹,而机器学习者学会了他们正确地预测“不良”笔迹,但要付出预测某些“良好”笔迹错误的代价。 没有好的或不好的手写标记数据,甚至没有0-9的好的或不好的手写定义。 我将SD19v2 hsf4和hsf6用作标记数据,并将HR的360度性能评估方法作为SD19v2的“好”笔迹引入可接受样式的评估中,并将其应用于MNIST训练和测试数据集,并在CNN获悉后批准更多的31570个“不良”训练数据,与仅学习“良好”笔迹的CNN相比,在“良好”测试数据上产生的错误多17个。 使用这种方法,我发现hsf6中有6位作者,其数字图片被切错了,而在SD19v2 hsf4和hsf6的400个错误最多的数字图片中,有64张图片的标签错误,有59张很难分辨是什么。