ZEROGEN框架分为三个阶段:
在本文中,本文研究了一个通过PLMs生成数据集的极端实例,用于零样本学习。给定一个下游任务,本文首先用一个强大的PLMs在特定任务提示的指导下从头生成它的数据集。然后,用合成的数据集训练的微小任务模型被用来进行零样本推理。在没有任何人类注释的情况下,本文表明,一个单层LSTM可以超越其PLM对应的零样本性能(例如,GPT2-XL),甚至超过用人类注释训练的同一模型。
尽管已经证明了有效性,但基于零样本学习的数据集生成方面的研究仍处于早期阶段。本文讨论了本文在开发ZEROGEN时观察到的几个问题,并揭示了未来研究中的大量改进空间。
此外,本文在合成数据集中观察到了诸如NLI和QA等困难任务中的大量噪声实例,当采用更多的解码策略(如核子采样)时,这种情况会逐渐恶化。需要更好的可控解码方法来确保标签的正确性,同时保留数据集的多样性(Massarelli等人,2020)。此外,考虑到噪声数据集,从噪声标签中学习的方法可以被整合到微小任务模型的训练中(Song等人,2020)。
本文希望本文能够为进一步利用基于大型预训练语言模型的数据集生成的零样本学习提供贡献。