
不劳您亲自写提示词,它来:

采纳ChatGPT推荐的菜谱之后,想要去买食材?
直接一句话,买菜平台的购物车就给你加好了:
想要分享买了啥?
一句命令直接链接发推特,整个过程你根本不用打开“小蓝鸟”:
联网能力的加入,则可以让它自动对回答进行事实核验。
甩给它一个Excel文件,也是唰唰唰就开始分析:



在TED演讲现场真实测试发一条推特,可见你们对自家AI的信任!

不过在等待结果时,老哥看着还是非常屏气凝神的,后面测试成功后才笑了起来~
所以,ChatGPT这些新功能具体效果如何?就跟着老哥一起来看看。
聊天界面直接加购物车、发推特
如下图所示,即将到来的“Auto功能”藏在三个不同的新模式之中:
Browsing、Code Interpreter和Plugins。


然后依靠Dall·E App插件,一张看起来非常有氛围的大餐图片就出来了。
布洛克曼介绍,Dall·E插件在画这张图时,其实就是自己给自己写提示词,写了下面这么一大堆:



在Instacart平台加购稍微耗费了ChatGPT一点时候,然后链接就出来了(这里也用到了“检索”插件)。

打开之后“诚不我欺”,食材都被安排好了,直接下单即可。

(当然,在此之前,你也可以随意为某些食材增加一些数量,或者家里已经有的删掉就可以了。)
接着,ChatGPT再次确认布洛克曼是否需要将链接分享到推特平台,布洛克曼回答yes。
只见一顿自动操作之后,ChatGPT弹出来一个Zapier给出的预览界面,上面有布洛克曼的推特账户名称,以及一会要发布的文案供验证和检查。



量子位专门去他的主页看了一下,确实有这条推特,点击里面的链接,也确实是前面我们看到的购物车界面。



然而事实真的如此吗?
在这里,就用切换到“Browsing”模式,然后将刚刚那个对话丢给ChatGPT,让它自己去验证一下。
注意了,ChatGPT拿到需求后,并没有直接更新答案,而是一步一步地写下了自己都要查什么做了什么:
首先我将搜索第一篇文章的发布日期,来验证第一个日期。
键入论文题目开始搜索……
该论文的发布日期在搜索结果0的摘录中给出。我将引用这段摘录来核实用户提供的第一个日期。
查看结果(可点击)。
然后我去搜索第二篇文章的发布日期…… 结果在这里给出…… balabala


经此环节后,ChatGPT汇总出最终答案——
果然前面全都错了,第一篇2017年4月6日发布,第二篇6月13日发布,两者间隔两个月零1周(量子位也实际验证了一下,这回是对的)。



现在切换到“Code Interpreter”模式,将文件直接上传,来看看ChatGPT将如何对它进行自动分析。
它先是将表格中所有列名的含义都梳理了一遍,问布洛克曼接下来是想进行数据分析还是做可视化。

布洛克曼表示:老实说我自己也不知道想干啥,但我可以让它给出一些“探索性的图”。
这是一个超高级别的指令,背后可能包含了很多意图,ChatGPT必须推断出我可能感兴趣的东西。
聪明的ChatGPT,给了三个选项,包括:
1、每篇论文作者数量的直方图,这可以让我们了解Al研究的典型团队规模。
2、每年论文发表总数的时间折线图,它可以向我们展示研究趋势。
3、论文标题的单词云,它可以向我们展示研究标题中最常出现的词语。

“话音刚落”,ChatGPT就开始通过自己写代码生成结果:





布洛克曼:是时候了解AGI了

我们都是站在巨人的肩膀上,可以看到全AI行业在计算、算法、数据上都取得了进步。
不过OpenAI在早期,做了一些深思熟虑的选择。
我们的第一个选择就是直面现实,比如我们很认真地想过如果想要在这个领域取得进展,需要做什么?我们也做了很多没有用的尝试,最终你才能看到这些有用的结果。
我还认为,最重要的是让不同团队之间可以紧密协作。

那么,为什么OpenAI会坚信大模型的能力和趋势?
布洛克曼表示,他们一直都知道深度学习最终会通往何处。但具体来看,一个实验室应该怎么做?
他用一个“无心插柳柳成荫”的例子来说明:
过去我们有人尝试训练一个模型,预测亚马逊平台评论的下一个字符。
最终,他得到了一个可以分析评论句法的模型,但同时也得到了一个达到SOTA的情绪分析分类器,可以告诉人们这条评论是好评还是差评。
这个算法在现在看来可能不足为奇。但在当时我们第一次从底层句法中分析出来语义,我们就知道必须朝这个方向做下去。



从一开始我们考虑如何构建通用人工智能时,实际上是希望它能造福全人类。
如果是秘密开发这一切,然后在弄清楚安全性后,再按下“开始键”,你希望你做对了,但对于我来说,并不知道该如何执行这一计划。
可能其他人会这么做,但对于我来说,这是可怕的、感觉不太对。
我认为这种路线目前的唯一替代方法,在机器变得完美之前,给人们时间来提建议。

是时候让我们都了解这项技术了。
-END-







