如果您认为像OpenAI 的ChatGPT 这样的人工智能平台比以前更愚蠢,那么您并不孤单。
作家史蒂文·沃恩-尼科尔斯(Vaughan-Nichols)在激烈的观点专栏《计算机世界》中表示,他注意到所有主要的可公开访问的人工智能模型——想想像ChatGPT和Claude这样的著名品牌旗舰——不像以前的版本那么容易使用。
他在: 上写道:“事实上,很多时候,最终的结果都是令人恼火的、令人恼火的错误。更糟糕的是,这是非常错误的。”
他在Business Insider 的一篇文章中指出,在OpenAI 开发者论坛上发帖的用户也注意到,去年最新版本的GPT 发布后,准确性显着下降。
6 月份,一位用户在: 上写道:“经过这么多的炒作,我有点失望。”
不用说,事情不应该如此。新版本的软件通常被认为比它们所替代的版本更好。那么质量下降的原因是什么?
一种可能性是,这些人工智能从来没有看上去那么强大。请记住,他们的训练数据是从Reddit 和X (Twitter) 等网站中挑选出来的,但我们对它们竟然有效这一事实感到惊讶。
但根据沃恩-尼科尔斯的说法,另一个可能的原因是,除了社交媒体垃圾之外,人工智能现在正在收集人工智能生成的信息,这正在慢慢侵蚀它们的能力。
沃恩-尼科尔斯指的是“模型崩溃”的概念,这是一种当输入人工智能生成的数据时人工智能模型会恶化的现象。随着互联网上充斥着人工智能生成的垃圾(从图像到文本),这种现象变得越来越普遍。
上个月发表在期刊《自然》 上的一篇论文写道:“我们发现在训练中不加区别地使用模型生成的内容可能会导致最终模型出现不可逆转的缺陷。”
随着人类世界的高质量内容越来越少,这将成为一个日益严重的问题,一些专家估计这种情况到2026 年就会发生。
当然,我们也有可能重新发现人类所做的无价且不可替代的工作的价值——,但我们并没有屏住呼吸。
版权声明:本文转载于网络,版权归作者所有。如有侵权,请联系本站编辑删除。