一种新的AI语言模型可以自学诗歌和散文

2020-08-07 15:28:51
导读 在美国证券交易委员会表示,麝香, 你的微博是一个blight They真正成本可能你的工作, 如果你不停止 这一切tweetingat的夜晚。

在美国证券交易委员会表示,“麝香,/你的微博是一个blight./They真正成本可能你的工作,/如果你不停止/这一切tweetingat的夜晚。” / ......然后麝香哭了,“为什么?/鸣叫我写的不是故意的,/我不使用大写字母//我肯定我的推文很干净。” /“但是您的推文可以推动市场//这就是为什么我们很痛苦。/您可能是个天才/和亿万富翁,/ /但这并没有赋予您无聊的权利!”

Ť他的前言(描述特斯拉和SpaceX创始人埃隆·马斯克(Elon Musk)在美国金融监管机构美国证券交易委员会的试行)不是21世纪某些有抱负的苏斯博士的产物。他们来自通过运行一个软件的计算机写的一首诗叫做剖成预先训练变压器3gpt-3,因为它是更俗称,是由开放开发的ai,一个人工智能(ai)实验室总部设在加利福尼亚弗朗西斯科,马斯克先生协助找到了弗朗西斯科。它代表了ai研究最深入的领域之一的最新进展:使计算机能够生成复杂的,类似于人的文本。该软件基于“语言模型”的思想而构建。这旨在统计地表示一种语言,映射单词跟在其他单词之后的概率,例如,“红色”后面跟随“玫瑰”的频率。可以对句子甚至整个段落执行相同类型的分析。然后可以给这样的模型一个提示-“一首关于西尔维娅·普拉斯(Sylvia Plath)风格的红玫瑰的诗”-并且它将挖掘其统计关系集以得出一些与描述相匹配的文本。

但是,实际上建立这样的语言模型是一项艰巨的工作。这就是ai或机器学习(ai的一个特定子领域)出现的地方。通过拖曳大量书面文本,以及通过数百万次文本预测尝试中的反复试验来学习,计算机可以应对繁重的任务。绘制出这些统计关系。

可以暴露算法的文本越多,则使该算法越复杂,它的性能就越好。什么设置gpt-3与众不同的是它的规模空前。支持gpt-3的模型拥有1750亿个参数,每个参数都可以单独调整-比其任何先前版本大一个数量级。它接受了有史以来最大的文本集培训,包括书籍,维基百科和Common Crawl的混合,从互联网的各个角落抓取的数十亿页文本集。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章