在大规模语言模型时代,我们经常听到人工智能的风险,包括错误泛滥、错误信息和侵犯隐私。 2023 年4 月,我的同事梅丽莎·海基拉(Melissa Heikkila) 还预测,这些新的人工智能模型很快就会让垃圾邮件和诈骗充斥互联网。但新一波浪潮即将到来,并且是由广告收入推动的。
评估网站质量的NewsGuard 发现,不良行为者正在利用人工智能快速构建垃圾邮件网站,并通过在网络上传播的程序化广告赚钱。包括大牌在内的140 多个品牌在该网站上做广告,该网站使用人工智能生成文本。
(来源:Stephanie Arnett/MITTR | Envato)
这种策略之所以有效,是因为程序化广告允许广告商在没有人工监督的情况下在互联网上购买广告位。算法对广告位进行出价,以优化广告收到的观看次数。
人们现在正在使用生成式人工智能来构建网站并产生广告收入。自2023 年4 月以来,NewsGuard 已追踪了200 多个“不可靠的人工智能新闻和信息网站”,其中大多数似乎都在向信誉良好的公司寻求广告收入。
NewsGuard 使用人工智能来检查这些网站是否包含与ChatGPT 等大型语言模型的标准错误消息相匹配的文本。这些标记的网站由人类研究人员审查。
我们发现,大多数网站作者都是完全匿名的,有些网站甚至提供虚假的作者简介和人工智能生成的照片。
正如NewsGuard 研究员Lorenzo Arvanitis 告诉我的那样,“这只是互联网上的游戏名称。”在许多情况下,善意的公司最终会为垃圾内容付费,但这些内容可能不准确、具有误导性或虚假。原因是这些网站为了吸引在线用户的注意力而展开了激烈的竞争。
最重要的是,生成式人工智能的作用在上述“战略”中正在得到强化。根据Avanitis 的说法,这种现象可能会变得“随着这些语言模型变得更加复杂和更容易使用而变得更加普遍”。
尽管我们预计它会被恶意行为者用于虚假信息活动,但我们不应忽视生成式人工智能的潜在后果:大量资金和资源可能被浪费。
支持: 伦