好莱坞演员对AI担Jim Ruymen/UPI信用:UPI/Alamy
人工智能现在可以从头开始创建图像,小说和源代码。除了真正不是从头开始的,因为需要大量的人类生成的例子来训练这些AI模型,这激怒了艺术家,程序员和作家,并导致了一系列诉讼。
好莱坞演员是最新的与人工智能反对的创意。他们担心电影制片厂可以控制自己的形象,并在电影中“明星”中“明星”,也许扮演他们宁愿避免并说出线条或表现出他们会感到令人讨厌的场景。更糟糕的是,他们可能不会为此获得报酬。
这就是为什么屏幕演员协会和美国电视和广播艺术家联合会(SAG-AFTRA)(有160,000名成员)正在罢工,直到可以与工作室协商AI权利为止。
同时,Netflix为具有AI经验的人的工作清单而受到演员的抨击,支付了高达90万美元的薪水。
AI生成的图像的质量可能会随着时间的推移而降莱斯大学
说到培训数据,我们去年写道,如果AI生成的图像的扩散可能是一个问题,如果它们最终在网上大量数量,因为新的AI模型会努力训练。专家警告说,最终结果将使质量恶化。冒着提出过时的参考的风险,AI会慢慢破坏自身,就像影印本的影印本的降解影印本一样。
好吧,一年快速前进,这似乎正是正在发生的事情,导致另一组研究人员发出相同的警告。德克萨斯州莱斯大学的一支小组发现,AI生成的图像大量训练数据逐渐扭曲了输出。但是有希望:研究人员发现,如果这些图像的数量保持在一定层面以下,那么这种降解就可以被避免。chatgpt可能会弄错它TADA图像/shutterstock
损坏的培训数据只是AI可以开始崩溃的一种方式。本月的一项研究称,在数学问题上,Chatgpt越来越糟。当被要求检查500个数字是否是素数时,3月份发布的GPT-4版本的精度为98%,但6月发布的版本仅得分仅为2.4%。奇怪的是,相比之下,GPT-3.5的准确性似乎从3月的7.4%增长到6月的近87%。
普林斯顿大学的Arvind Narayanan在另一项研究中发现了其他不断变化的表现水平,将问题归结为“微调的意外副作用”。基本上,这些模型的创建者正在对其进行调整,以使输出更可靠,准确或(潜在的计算密集程度更少)以降低成本。尽管这可能会改善某些事情,但其他任务可能会遭受损失。结果是,尽管AI现在可能会做得很好,但未来版本的性能可能会差得多,这可能并不明显。
更大的数据并不总是更好Vink风扇/shutterstock
近年来AI的许多进步都来自规模:更大的型号,更多的培训数据和更多的计算机功能,这是一个公开的秘密。这使AIS变得昂贵,笨拙且渴望资源,但也使它们更有能力。
当然,正在进行大量的研究来缩小AI模型并使它们更有效,并致力于更优雅的方法来推进该领域。但是规模一直是游戏的重要组成部分。
但是现在,有证据表明这可能会有严重的弊端,包括使模特更加种族主义。研究人员对两个开源数据集进行了实验:一个包含4亿个样本,另一个包含20亿。他们发现,在较大的数据集上接受培训的模型将黑人女性面孔与“犯罪”类别相关联的可能性是两倍以上,将黑人男性面孔与“犯罪”相关联的可能性要高出五倍。
AI可以识别目标雅典娜AI
今年早些时候,我们介绍了AI驱动的无人机的奇怪故事,该故事“杀死”了其操作员以达到其预期的目标,这完全是胡说八道。这个故事很快就被美国空军否认了,这并没有阻止它在世界范围内报告。
现在,我们有了新的声称,即AI模型可以比人类做得更好,尽管细节太秘密,无法透露并验证。
该公司的发言人说:“它可以检查人们是否穿着特定类型的制服,是否携带武器以及他们是否在投降迹象。”希望他们是对的,并且AI可以比确定质数更好地发动战争。
Chatgpt如何工作?|生成的人工智能真正对经济意味着什么|AI带来的真正风险|如何使用AI使您的生活更简单|AI有助于破解科学挑战|人工智能可以变得有意识吗?
本文来自作者[lejiaoyi]投稿,不代表言希号立场,如若转载,请注明出处:https://lejiaoyi.cn/jyan/202506-772.html
评论列表(3条)
我是言希号的签约作者“lejiaoyi”
本文概览:好莱坞演员对AI担Jim Ruymen/UPI信用:UPI/Alamy人工智能现在可以从头开始创建图像,小说和源代码。除了真正不是从头开始的,因为需要大量的人类生成的例子来训练...
文章不错《如果您喜欢此AI新闻回顾,请尝试我们的特别系列,我们在其中探索有关人工智能的最紧迫问题。在这里找到它们:》内容很有帮助