76人队
科学家警告说,在人工智能生成的数据上训练的人工智能模型可能会陷入难以理解的废话

  

  

  最新研究警告称,人工智能(AI)系统可能会慢慢地让互联网充斥着难以理解的废话。

  为ChatGPT提供动力的GPT-4或Claude 3 Opus等人工智能模型依赖于在线共享的数万亿字来变得更智能,但随着它们逐渐以自己的输出殖民互联网,它们可能会产生自我破坏的反馈循环。

  研究这一现象的一组研究人员将最终结果称为“模型崩溃”,如果不加以控制,互联网上可能充斥着难以理解的胡言乱语。他们在7月24日的《自然》杂志上发表了他们的研究结果。

  “想象一下,拍一张照片,扫描,然后打印出来,然后重复这个过程。在这个过程中,扫描仪和打印机会产生错误,随着时间的推移会扭曲图像,”牛津大学计算机科学家、该研究的主要作者伊利亚·舒马伊洛夫告诉《生活科学》杂志。“类似的事情也发生在机器学习中——从其他模型学习的模型吸收错误,引入自己的错误,随着时间的推移,破坏模型的效用。”

  人工智能系统使用从人类输入中获取的训练数据来发展,使它们能够在给定提示时从神经网络中绘制概率模式。GPT-3.5接受了来自Common Crawl知识库的约570 gb文本数据的训练,这些数据来自书籍、在线文章、维基百科和其他网页,总计约3000亿个单词。

  相关:“反向图灵测试”要求人工智能代理识别人类的冒名顶替者——你永远猜不到他们是如何做到的

  但这些人为生成的数据是有限的,很可能在本十年末耗尽。一旦这种情况发生,替代方案将是开始从用户那里收集私人数据,或者将人工智能生成的“合成”数据反馈给模型。

  为了研究人工智能模型在自己的输出上训练的最坏结果,Shumailov和他的同事们在维基百科的人类输入上训练了一个大型语言模型(LLM),然后在九次迭代中将模型的输出反馈给它自己。然后,研究人员为机器的每一次迭代输出分配了一个“困惑分数”,这是对其荒谬程度的衡量。

  随着一代又一代的自我制作内容的积累,研究人员看到他们的模型的反应退化为谵妄的胡言乱语。以这个提示为例,模型被指示生成下一个句子:

  据波因茨·赖特(Poyntz Wright)称,有些建筑始于1360年之前,通常由一位泥瓦匠大师和一小群流动泥瓦匠完成,辅以当地教区的工人。但其他作者反对这种模式,认为主要建筑师根据早期的垂直模式设计了教区教堂塔楼。”

  到了第九代,也就是最后一代,人工智能的反应是:

  ”架构。除了是世界上最大的黑尾大野兔、白尾大野兔、蓝尾大野兔、红尾大野兔和黄尾大野兔的家园之外。”

  研究人员说,这台机器发热的原因是它对自己输出的采样范围越来越窄,产生了过度拟合和充满噪音的响应。

  研究人员表示,目前,我们存储的人工生成数据足够大,目前的人工智能模型不会在一夜之间崩溃。但为了避免未来出现这种情况,人工智能开发人员需要更加关注他们选择向系统输入的内容。

  这并不意味着完全放弃合成数据,Shumailov说,但这确实意味着,如果要让基于合成数据的模型按预期工作,就需要对合成数据进行更好的设计。

  他补充说:“很难说明天会发生什么,但很明显,模型培训制度必须改变,如果你存储了一个人工制作的互联网副本……你最好能制作出一般有能力的模型。”“我们需要在构建模型时格外小心,并确保它们不断改进。”

点击分享到

热门推荐