“音乐是数学最先进的形式。”这是一个非常有洞察力的陈述。它绘制了关于两个主题以及模式识别,间隔和逆转的平行是一部分的。然而,尝试找到谁写了这个,你会画一个空白。旨在通过几个世纪和专家访谈涌入档案信息的广泛努力也将吸收空白。因为句子不是由人写的。它是由计算机生成的。
最先进的人工智能模型名为Generative Pre-Training-3(GPT-3)的几周后释放。而且用户留下了令人惊叹的。简而言之,它是有史以来最强大的计算模型之一。更具体地,它是一种文本生成算法,其评估特定单词将出现以周围的单词,然后教授自己的可能性。反复。并变得更聪明。
模型的输入包括半十万亿个单词和1750亿个参数和所有互联网。给它一个主题,它将在不到十秒钟内生成5段文章。或者在琐事中吸引它,一个人将无法辨别是否有人类或一台机器在另一端。GPT 3具有巨大神奇的人工智能,也许是一个在办公室世界中的成就,即一个人会永远梦想。可以模仿他们的反应的机器,几乎让人类对某种情况响应了语言。AI将使您的电脑告诉您您应该在下次说明的内容。GPT 3机器将使聊天栏看起来原始。实际上,对照组的结果有可能被人类而不是机器所写的人们所撰写的最多86%的人。简单地说:这是可怕的。
这并非所有,该模型通过应用程序编程接口(API)自由并向公众开放。并且应用程序很多。基本应用程序包括使用聊天机器人替换呼叫中心工作者,而高级应用程序包括内容生成,起草法律通知。在人类历史上第一次,它是可能受到影响的白领工作。在乔布斯稀缺的时候,找到创造就业创造时,后果并不漂亮。
也就是说,翻盖是GPT-3基于没有上下文的预期。因此,虽然该技术毫无疑问,但目前,虽然这项技术将影响工作,但现在将缓慢。因为上下文容量仍然是未经证实的。也就是说,模型如何知道它是否吐出来是上下文纠正的?它可以是语法正确,风格的准确,但不是上下文?答案:否,是的。因为无论计算能力如何,模型都基于输入和模式。它仍然缺少最人类的元素。一个主观和非常诽谤的人。那是:人类判断。
这也提出了一个问题:可以有一个可以通过GPT学习的上下文吗?它有效地做到了吗?因为有效沟通的关键是上下文和风格。风格通常会反映模式,并且可以通过看到数据模式来有效地学习。通常通过看一组识别的数据之前了解的样式,以及跟随它。并且这种理解被选中在选择后的方式。所以模式学习可能是风格的结果。然而,风格可能是人格和背景的结果。这就是故障可能撒谎的地方。所以假设一个人始终有一个脚脚的风格,可能并不意味着上下文并不是很严重。交谈,如果B是生气和严重的语气,那就不一定意味着背景是非常严重的。再一次,一台计算机无法辨别出来。至少现在没有。
目前,GPT-3带来了一些非常真正的挑战。随着我们越来越多地粘在手机屏幕上并消耗大量信息,GPT-3可以以惊人的速度生成内容。可能或可能不是语境的内容,但将进一步模糊事实和“替代事实”之间的线路。我们会看到我们可能称之为“灰色知识”的舞台。从相同的源重复导出的知识,但无法创新或推断更多,但同时可以简单地概述可用信息的知识。
我们即将进入算法偏差的时代。对于“熟悉的”这可能是一个挑战。因为模型从互联网和话语中占据了大多数内容,最重要的是。因此,如果特定的单词说与特定的情绪相关联 - 这正是模型吐出的。提供互联网足够的虚假事实,模型将它们带到真实。
如果您认为剑桥分析和深迎员丑闻带来了重大担忧,这项技术比有动机和倾向性谈话的程度,这项技术更大,只有十个数量级,只需产生。规模可以让Goebebels转身在他的坟墓里。
未来在这里。但我们为此做好了准备吗?
-Jai MRAF是M76分析和施防师的创始人兼首席执行官。Satyendra Pandey是航空专业人员和一本专栏作家。表达的观点是个人的