联系我们

自然语言处理

GPT-2,人工智能文本生成器已全面发布

mm

更新

 on

下一个网站 (TNW)报告, 开放AI,许多人工智能项目背后的非营利组织刚刚在GPT-2的计划阶段发布中发布了最终模型,该文本生成器已导致 一场辩论 自2月份发布以来。

基于OpenAI的研究论文,标题为 语言模型是无监督的多任务学习者GPT-2的用途 机器学习 基于有限的输入生成新颖的文本。”这意味着用户可以输入关于任何主题的一两个句子,并且AI生成器将提供与原始输入有某种关系的文本。正如TNW所指出的,与大多数“文本生成器”不同,它本质上不会输出预写的字符串。 GPT-2构成了以前不存在的文本。”

卡内基梅隆大学图书馆计划主任Scott B. Weingart在其推文中给出了一个具体的例子:

 

开放AI最初担心其系统的可能恶意使用,因此回到 2019年二月 它决定发布GPT-2 在八个月内分为四个部分。正如他们在博客中解释的那样, “由于我们担心该技术的恶意应用,我们未发布经过​​训练的模型。作为负责任公开的一项实验,我们将发布一个供研究人员进行实验的小得多的模型以及技术论文。”

如前所述 完整模型包含15亿个参数。 “训练模型所用的参数越多,它看起来就越“智能”,就像人类一样,实践也可以完美。”

TNW指出,最初 开放AI发布了具有1.24亿个参数的模型,随后分别发布了355和7.74亿个参数。他们认为,在测试发布的模型之后,“每个迭代都比以前的迭代显示出了显着的功能提升。”

为了防止滥用,OpenAI发布了GPT-2检测模型,该模型应“先发制人地防止滥用”。要自己承认一个 博客文章,这些检测模型仍需要额外的工作,才能达到迄今为止GPT-2本身所达到的质量水平。

那些感兴趣的可以 下载GPT-2模型 这里 在Github上,查看模型卡 这里,并阅读OpenAI的博客文章 这里.

联合国前外交官和翻译,目前是自由记者/撰稿人/研究员,主要研究现代技术,人工智能和现代文化。