404 Media创造了一篇有待同行评议的论文。该研究创造,绝大多数天生式人工智能用户正在利用这项技能,通过在互联网上发布虚假或修改的人工智能内容(如图片或视频),“模糊真实与欺骗之间的界线”。研究职员还仔细研究了之前揭橥的关于天生式人工智能的研究,以及大约200篇关于天生式人工智能滥用的新闻宣布。
研究职员总结道:“在现实天下的滥用案件中,最普遍的策略是操纵人类的相似性和假造证据。”“个中大多数都带有明显的意图,即影响公众年夜众舆论,进行诱骗或敲诈活动,或产生利润。”
更繁芜的问题是,天生式人工智能系统越来越前辈,而且随时可用——“只须要最少的技能专长”,研究职员说,这种情形正在扭曲人们“对社会政治现实或科学共识的集体理解”。

任何关于谷歌自己在利用这项技能时的尴尬失落误——作为地球上最大的公司之一,缺点造成的规模有时是巨大的。
如果你读了这篇论文,你就会不由自主地得出这样的结论: 天生式人工智能的“滥用”听起来很像是这项技能在按预期事情。人们正在利用天生式人工智能来制作大量虚假内容,由于它真的很善于完成这项任务,因此互联网上充斥着人工智能的垃圾。
这种情形是由谷歌自己造成的,它许可这些虚假内容扩散,乃至是这些虚假内容的来源,无论是虚假图像还是虚假信息。
研究职员表示,这种混乱也在测试人们辨别真假的能力。
他们写道:“同样,大量生产低质量、类似垃圾邮件和邪恶的合成内容,可能会增加人们对数字信息的疑惑,并让用户承担过多的验证任务。”
令人不寒而栗的是,由于我们被虚假的人工智能内容淹没,研究职员表示,有些情形下,“有名人士能够将不利的证听说明为人工智能产生的,以昂贵而低效的办法转移举证任务。”
随着谷歌(Google)等公司连续将人工智能植入每一款产品,我们可以预见更多这样的事情发生。