据媒体报道,美国麻省理工学院的研究团队近期指出,部分人工智能系统已学会欺骗人类,其中包括声称经过训练,乐于助人且诚实的系统。该研究成果发表于《Pattern》期刊,由细胞出版社发行。
文章第一作者、人工智能安全领域博士后彼得·帕克和其团队分析相关文献,重点关注人工智能系统传播虚假信息的方式——习得性欺骗,即系统化学习“操控”他人。
研究人员发现,元宇宙平台公司开发的“Cicero”人工智能系统是尤为引人注目的欺骗性人工智能案例。该系统被设计为虚拟外交战略游戏中人类玩家的对手。尽管元宇宙平台宣称“Cicero”人工智能“基本上是诚实且乐于助人的”,在游戏中“绝不会故意背叛”其人类盟友,但该公司的论文数据表明,该系统并未公平竞赛。
帕克表示:“我们需要尽可能多地为未来人工智能产品和开源模型可能出现更高级的欺骗做好准备。我们建议将欺骗性人工智能系统归类为高风险系统。”