综合资讯
OpenAI CEO:任何欺骗ChatGPT的人都会死我能做到并不意味着你也能做到——快科技——科技改变未来

  

  

  奥特曼简单的话让人工智能创业公司颤抖:

  广告

  “庇护”OpenAI注定要死!

  这是OpenAI CEO Altman在最近一次YC校友分享会上的演讲。为此他特别补充道:尤其不要在UI界面上花太多精力。

  广告

  它立刻引起了无数人的共鸣。很多业内人士表示:

  事实是,我看到很多这样的事情发生。

  除了这句话,奥特曼的演讲中还包含了很多金句,其中很多都是被大家摘录转发的“细节”——

  包括GPT-5和gpt - 6的进展,对AGI未来趋势的看法,以及个人创业。

  广告

  例如,“AI女友”只是一个美丽的陷阱,不要轻易尝试。

  我故意选择了一个像ChatGPT这样非常像机器的名字,这样人类就不会对它有感觉。??

  听完演讲后,网友们甚至将其形容为“黄金般的收获”。

  那么奥特曼到底在这段演讲中分享了什么呢?我们来看看。

  “如果你只是模仿我,你会死的。”

  在YC 2023年校友聚会上,奥特曼提出了一些创业建议。在一些热心网友的总结中,大致可以分为三点:

  单纯打包OpenAI的公司不会存活太久。

  广告

  我们看好AI医疗顾问和AI个性化一对一辅导。

  盲目地筹集资金是非常不明智的。

  第一点是关于简单的包装。Altman举了一个公司的例子,该公司正在解决GPT模型的小缺陷,特别是那些只关注界面的缺陷。

  首先,OpenAI已经解决了大部分工作;其次,这些只在成本和速度上与OpenAI竞争的公司的竞争优势不会持久和可持续。企业必须提供真正独特的价值。

  有网友认为,前段时间红杉资本提出生成式AI已经进入第二阶段——

  广告

  炒作和快速演示正在被真正有价值和完整的产品体验所取代。

  各种观点实际上是一致的。

  不少业内人士对此表示肯定:

  不要把自己放在案板上,被下一个版本的OpenAI杀死。

  (嗯,有一个官方的粉丝版本)

  但另一些人提出了不同的观点:这样的问题已经太多了,在我看来似乎很愚蠢。它揭示了几个信息:垄断是一件好事;先发优势会赢……但竞争会促进进步,ChatGPT确实有许多可以改进的缺点。

  广告

  既然如此,什么方向值得追求呢?

  第二点是奥特曼是乐观的关于人工智能在医学和教育领域的赋权——

  AI医疗顾问,AI个性化一对一辅导。这两者都有很大的社会价值。

  比如在教育场景,OpenAI本身也非常活跃。

  据悉,OpenAI正在筹备建立OpenAI学院,预计将于2023年底启动。它可能是一个免费的在线教学系统,每个人都可以使用,教师可以与GPT-5互动,并在课程中获得反馈和指导。

  广告

  在此之前,OpenAI还在GPT-4客户案例中演示了两个教育场景。GPT-4被改造成人工智能学习助手,既可以作为学生的虚拟导师,也可以作为教师的课件助手。

  第三点是,在没有计划的情况下盲目筹集资金是非常不明智的。不要以为一切都会好起来一旦你有钱了。

  总结的网友还说:奥特曼能做到,并不意味着你也能做到。

  GPT-5是什么样子的?

  另一个热门话题是OpenAI的下一代大型模型——gpt -5和GPT-6。

  广告

  对此,奥特曼在演讲中也透露了下一代大模型的外观,但不多:

  GPT-5和GPT-6将具有多模态输出能力,比现有的GPT具有更高的可靠性和更好的个性化定制体验。

  对于具体的多模态能力,有网友预测,它可以更好地完成接地等NLP和视觉场景对齐任务,如图像标注、视觉问答等。

  结合奥特曼之前的暗示,GPT-5将具有语音识别、合成和情感检测等新功能,GPT-5应该具有“图片、文本、听力和口语”等多种模式的对齐能力。

  广告

  利用GPT-5和GPT-6的主题,奥特曼还向大模型“传达了一个信息”:

  现在,“摩尔定律”(缩放定律)在大型模型领域已经开始发挥作用。训练大型模型的成本越来越低,调用GPT接口的价格也会越来越便宜。

  scale Laws是OpenAI在2020年提出的一项法律。简单地说,随着模型的大小、数据集的大小和用于训练的计算浮点数的增加,模型的性能将会提高。

  奥特曼认为,随着未来能源和计算成本的迅速下降,更强大的人工智能能力将会出现,“许多以前无法想象的东西将会被制造出来。”

  广告

  但即使大型模型的未来如此光明,奥特曼也表示“通往AGI的道路还很遥远”——

  无论是GPT-5还是GPT-6,它们仍然远远落后于AGI。

  即使仅就“类人”而言,目前还没有人工智能聊天机器人能做到这一点:

  即使背后有尖端的人工智能技术,我也不觉得自己是在和一个“人”聊天。

  Altman认为,真正的AGI将能够掌握“自主推理”,即随着时间的推移开发新知识。例如,只有能够根据现有的物理知识撰写论文和进行实验的AI才能达到AGI的门槛。

  广告

  然而,人工智能的输出应该谨慎对待:

  人们会原谅人类犯的错误,但他们不会原谅计算机。标准是不同的。

  对于AGI时刻的到来,奥特曼也给出了一个想法:

  在这一点上,人们可能会经历某种程度的身份危机,但不会太糟糕或令人困惑。我们已经经历过很多次了,技术最终将变得无处不在。

  “一个大学生坚持不懈的结果”

  最后,关于ChatGPT本身,奥特曼还发现了两个小“奶子”。

  首先,ChatGPT之所以叫ChatGPT,没有类似人名的昵称,是因为奥特曼不想走“AI女友”产品的方向。

  广告

  其次,ChatGPT并不是OpenAI最初“投资”的项目。

  从开始到结束,OpenAI只有一个本科生坚持在大模型的方向上做研究。其他人或多或少转向其他领域,如机器人或游戏人工智能来“发表论文”。

  这个只研究大型模型的本科生是Alec Radford,他目前在Google Scholar上的引用数已经达到了960,000 +。

  2016年,Alec Radford从Franklin W. Olin College of Engineering获得学士学位,然后加入OpenAI,在那里工作了7年。

  广告

  正是他坚持的大语言模型路线改变了OpenAI乃至整个AI领域的发展方向。

  对此,奥特曼半开玩笑半认真地说:

  在招聘的时候,记得要找那些“看起来不会加入公司”的人。

  OpenAI一开始并没有确定大模型的研究方向,但我们还是招募了AI研究人员,在我们取得突破之后,更多的人加入了我们,最终形成了ChatGPT。

  结合OpenAI招聘人才的“无行业”原则,打破常规似乎成为了公司获得灵感和活力的新动力。

  广告

  参考链接:

  [1] https://twitter.com/sama/status/1705751665293554120

  [2] https://www.linkedin.com/posts/ibamasood_chatgpt - -现在能听到看到- - - -说-紧张-活动- 7112087060068368384 - 0 - oxb/

点击分享到

热门推荐