欢迎光临KOTOO财情




科学家让机器学习道德特征,结果发现 AI 比人更懂得合作妥协

2024-05-09 237

去年中国乌镇 AlphoGo 与柯洁的围棋世纪大战中,我们都见识到人工智能(AI)这些年来的快速进步,如今几乎可以确定的说,在大多数零和游戏(Zero-Sum Game)中,机器会击败人类。但如果其他情况下呢?

不论国际象棋、围棋或扑克牌,过程经常由两个或以上的玩家互相冲突竞争,并由一方击败对手获胜,对 AI 发展来说,这样的游戏结果能提供明确的里程碑来衡量发展过程。但 AI 最终要应用的现实世界毕竟不是这么简单,机器必须学会与人、机器之间更复杂的长期合作关系。

New Atlas 报导指出,为了解 AI 面对人及其他机器“社交”时的情况,美国杨百翰大学(BYU)电脑科学教授 Jacob Crandall、Michael Goodrich 和麻省理工及其他单位同事合作创造了一种 S# 算法,试图教导机器学习合作及妥协,并在实际游戏中测试性能。

与过往围棋、国际象棋等单人零和游戏不同,研究人员选择玩家需要不同程度合作及妥协的数款游戏,包含囚徒困境(Prisoner’s Dilemma)与牵涉到夏普利值(Shapley value)等内容,接着团队便在机器、人类与人机等不同合作方式情况下进行测试。

结果显示,至少以 S# 编程机器的情况来说,在大多数情况下,机器确实比人类更懂得如何合作与妥协。

Crandall 表示,在这些游戏中,如果参与的两个人都相互诚实、忠诚,那就能完成得像两台机器一样好,但实际的多数情况并非如此,Crandall 将这种情况称为“人为疏失”(human failings)。

“我们实验中的人类参与者有种不忠诚的倾向,他们会在合作关系中叛逃(defect)且不诚实,约有近半参赛者互动时会某种程度不遵照建议进行。”

从另一方面来看,研究人员编程为“重视诚实”的机器,就确实是诚实的。Crandall 认为,这种算法正在体会道德特征是件好事,它被编程为不说谎,并在需要的时候保持合作。

未来像自驾车等多种 AI 应用,机器都必须学会与人类和其他机器分享资讯、合作或妥协,研究人员认为,这些发现将能为未来应用 AI 技术的设备奠定基础。

这项研究已刊登在《自然─通讯》(Nature Communications)期刊。

  • AI Is Better at Compromise Than Humans, Finds New Study
  • Morality algorithm lets machines cooperate and compromise better than humans

(图片来源:shutterstock)

2019-03-15 20:31:00

标签:   资讯头条 kotoo科技资讯 kotoo科技 kotoo科技资讯头条 科技资讯头条 KOTOO商业产经 新闻网 科技新闻网 科技新闻 Kotoo科技新闻网 Kotoo 科技新闻 科技新闻网 新闻网 KOTOO商业产经 科技资讯头条 kotoo科技资讯头条 kotoo科技 kotoo科技资讯 资讯头条 Kotoo 科技新闻 科技新闻网 新闻网 KOTOO商业产经 科技资讯头条 kotoo科技资讯头条 kotoo科技 kotoo科技资讯 资讯头条
0