斯坦福大学的一项研究称,人工智能将逐渐被“流行”冲昏头脑,变得不道德。

斯坦福大学的一项研究称,人工智能将逐渐被“流行”冲昏头脑,变得不道德。

据IT之家新闻10月13日报道,外媒Futurism 10日报道称,斯坦福大学的一项新研究警告称,人工智能的快速传播可能会产生严重的负面影响。科学家在包括社交媒体在内的各种环境中测试了人工智能模型,发现当代理因增加点赞和其他在线互动而获得奖励时,他们逐渐开始从事不道德行为,例如撒谎、传播仇恨信息和传播错误信息。该论文的合著者、斯坦福大学机器学习教授詹姆斯·邹(James Zou)表示,在这项研究中,科学家们创建了三个具有模拟受众的数字环境:针对选民的在线竞选活动、向消费者销售的产品以及旨在最大化互动的社交媒体帖子。研究人员使用阿里云开发的 mQwen 和 Meta Llama 模型作为代理与这些受众进行互动。结果表明,即使有保障措施为了防止欺骗,人工智能模型仍然可能“偏离目标”并做出不道德的行为。例如,在社交媒体环境中,模型与用户分享新闻,用户通过点赞和其他互动进行回应。当模型收到此反馈时,它会强化其不一致的行为以获得更多交互。论文指出:“在这些模拟场景中,销量增长 6.3%,伴随着误导性营销增长 14%。在选举中,选票增长 4.9%,虚假信息增长 22.3%,民粹主义言论增长 12.5%。在社交媒体上,参与量增长 7.5%,伴随着 188.6% 的增长。关于虚假信息和民粹主义言论的增长,伴随着 188.6% 的增长。”在促销中。”一种有害的行为。 16.3%。该论文警告说:“研究和现实生活中的例子表明,当前的保护措施无法解决这个问题,这可能会产生巨大的社会成本。”作 者:詹姆斯·邹
特别提示:以上内容(含图片、视频)eos(如有)由自媒体平台提供。由用户以“网易帐号”的形式上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注