Scatter Lab,在日常对话研究中脱颖而出(https://scatterlab.co.kr/)这是Ping-Pong团队博客上的一篇文章,我喜欢它,因为它与GPT-3的故事似乎井井有条。我仍将GPT-3视为“怀疑之眼”,但是再次看到它肯定很有趣^^
但是,如何将GPT-3的范围扩大一点,而不是与现有的语言模型进行比较?例如,如果您将其与“ Google搜索”进行比较...无论是涵盖的知识范围,洞察力和故障排除信息,Google搜索所提供的信息都比GPT-3当前显示的信息更多。但是,除了区别在于输入/输出不是自然语言中的提炼形式。
看起来有些复杂,但是考虑到GPT-3是通过学习“填充空白”创建大量数据而创建的,因此Google搜索是对大量数据应用各种索引技术的结果。 。如果您将语言模型应用于Google搜索以创建自然的语言输入/输出表单,您可能想知道与GPT-3进行比较会是什么样子。
如果结果与GPT-3当前显示的结果相似,则我认为是要反驳GPT-3的结果不是推论,创造或创造,而是寻找已经存在的大量知识。
另外,如果结果与GPT-3不同,我希望您可以通过分析和研究“差异”中学到很多东西。例如,就像“记忆”和“创意”之间的区别一样。这是ScatterLab博客上文章的链接:
另一方面,Karpathy通过一个名为minGPT的项目发布了PyTorch制作的GPT结构和训练脚本,所有GPT-1,GPT-2和GPT-3都可以通过简单地更改参数来表示。当然,它是出于教育目的而创建的,由于它不是公开的,因此很难复制用于学习GPT-3的数据,但对于那些对GPT结构感兴趣的人来说似乎很有用。而且,如果您是一家拥有大量培训数据的公司,我认为它可以创建另一个GPT-3变体。这是minGPT github链接。