数据标注涉及以下方面:
现在更需要标注的数据类型和行业包括:
在数据标注过程中,还需注意数据隐私与安全问题,如数据加密与计算效率的权衡等。
在合成过程中,我们发现原始真实数据的质量和数量对合成效果的影响很大,因此我们需要尽可能提高这些数据的质量。团队发现直接使用合成数据进行训练可行,但在实际应用场景中可能会出现一些不匹配的情况。例如,不同机构或医院对阳性和阴性的定义可能不一致,导致标准不统一。尽管存在这些问题,合成数据仍是一个不错的替代训练数据集。c.数据领域的三个趋势、挑战和机会从量到质的转变早期的大模型训练侧重于“暴力美学”,即通过大量算力和大规模数据集来驱动模型的性能提升。然而,随着技术的进步,数据质量成为了提高模型性能的关键瓶颈。这意味着简单地增加数据量和算力不再足够,更重要的是提高数据的质量和相关性。数据标注向知识密集型转变多模态模型需要处理多种类型的数据(如文本、图像、声音等),这要求数据标注过程更加细致和复杂。例如,进行情绪判断或推理时,需要更高水平的理解和分析能力。数据标注不再是简单的劳动力作业,而是转变为一种知识密集型的工作。
大模型的数据标注不再只是关注清晰的行业术语,而是更多地需要模型能理解的标注方式,这可能涉及更多上下文的理解和语义分析。目前数据服务依赖于标注员本身对业务的理解,这些数据是高阶的,通用型的已经不需要了,更多的是公司内部的独有的数据内容和词语,真正能承接大模型数据标注的服务商不多。真正能够承接指令、承接数据标注的通用型公司其实不是特别多,因为这更依赖于本身对业务的理解。因此,现在大部分的客户的数据标注都是自己做,我们也会参与其中。d.数据隐私与安全数据加密与计算效率的权衡隐私问题在数据处理方面尤为复杂。虽然联邦学习被提出作为一种可能的解决方案,但效率极低,低了几个数量级。并且自从概念提出以来,除了在数据加密方面取得一些进展外,其它方面的发展仍然缓慢。数据加密的程度与计算资源的损失之间存在基本的权衡。尽管一些硬件厂商,如Intel和ARM,推出了针对隐私保护的加密产品,虽然在理论上可行,但实际效率仍然很低。隐私与效率之间的权衡
首先,我们需要对数据集进行清洗,和传统深度学习时代一样,数据清洗工作依然占据了AIGC时代模型训练70%-80%左右的时间。并且这个过程必不可少,因为数据质量决定了机器学习的上限,而算法和模型只是在不断逼近这个上限而已。我们需要筛除分辨率较低,质量较差(比如说768*768分辨率的图片< 100kb),存在破损,以及和任务目标无关的数据,接着去除数据里面可能包含的水印,干扰文字等,最后就可以开始进行数据标注了。数据标注可以分为自动标注和手动标注。自动标注主要依赖像BLIP和Waifu Diffusion 1.4这样的模型,手动标注则依赖标注人员。(1)使用BLIP自动标注caption我们先用BLIP对数据进行自动标注,BLIP输出的是自然语言标签,我们进入到SD-Train/finetune/路径下,运行以下代码即可获得自然语言标签(caption标签):