美国麻省理工学院研究团队:部分人工智能系统已学会如何欺骗人类

新闻资讯2024-06-09 22:49小乐

美国麻省理工学院研究团队:部分人工智能系统已学会如何欺骗人类

2023年7月7日,在瑞士日内瓦举行的“人工智能造福人类全球峰会”上,一名与会者拍摄了仿真机器人索菲亚的照片。新华社记者连毅摄

据新华社北京5月12日报道,人工智能系统是否会欺骗人类,一直是各方关心的问题。近日,美国麻省理工学院的一个研究小组声称,一些人工智能系统已经学会了如何欺骗人类,其中一些声称经过训练,能够乐于助人且诚实。研究成果发表在美国细胞出版社《模式》号期刊上。

该文章的第一作者、麻省理工学院人工智能安全领域的博士后彼得·帕克和他的同事分析了一些文献,重点研究了人工智能系统传播虚假信息的方式。通过习得的欺骗,他们系统地学会了“操纵”他人。

研究人员发现的人工智能系统欺骗最引人注目的例子是元界平台的“西塞罗”人工智能系统,该系统旨在在虚拟外交策略游戏中充当人类玩家的对手。尽管Metaverse平台公司声称西塞罗AI系统“很大程度上是诚实且乐于助人的”并且在玩游戏时“从不故意背刺”其人类盟友,但该公司公布的论文数据显示该系统在玩游戏时并不公平。

“我们发现元界平台的AI系统已经成为了欺骗高手。”帕克表示,“虽然元界平台公司成功训练其AI系统在游戏中获胜,但——名‘西塞罗’AI系统在玩家排名前10%的——名中却未能诚实地训练其获胜。”

其他人工智能系统能够在扑克游戏中虚张声势,或者在策略游戏《星际争霸2》中佯装攻击以击败对手,或者在谈判游戏中扭曲偏好以获得上风。

研究人员表示,虽然人工智能系统在游戏中作弊看似无害,但它可能会导致“人工智能欺骗能力的突破”,并在未来演变成更高级的人工智能欺骗形式。

“我们需要尽可能多的时间来为未来人工智能产品和开源模型中可能出现的更高级的欺骗做好准备,”帕克说。 “我们建议将欺骗性人工智能系统归类为高风险系统。”

编辑刘嘉妮

猜你喜欢