- 積分
- 120
- 最後登入
- 1970-1-1
- 閱讀權限
- 30
- 積分
- 120
- 帖子
- 精華
升級
10%
|
作者 Nana Ho | 發布日期 2018 年 01 月 23 日 19:10
去年中國烏鎮 AlphoGo 與柯潔的圍棋世紀大戰中,我們都見識到人工智慧(AI)這些年來的快速進步,如今幾乎可以確定的說,在大多數零和遊戲(Zero-Sum Game)中,機器會擊敗人類。但如果其他情況下呢?
不論西洋棋、圍棋或撲克牌,過程經常由兩個或以上的玩家互相衝突競爭,並由一方擊敗對手獲勝,對 AI 發展來說,這樣的遊戲結果能提供明確的里程碑來衡量發展過程。但 AI 最終要應用的現實世界畢竟不是這麼簡單,機器必須學會與人、機器之間更複雜的長期合作關係。
New Atlas 報導指出,為了解 AI 面對人及其他機器「社交」時的情況,美國楊百翰大學(BYU)電腦科學教授 Jacob Crandall、Michael Goodrich 和麻省理工及其他單位同事合作創造了一種 S# 演算法,試圖教導機器學習合作及妥協,並在實際遊戲中測試性能。
與過往圍棋、西洋棋等單人零和遊戲不同,研究人員選擇玩家需要不同程度合作及妥協的數款遊戲,包含囚徒困境(Prisoner’s Dilemma)與牽涉到夏普利值(Shapley value)等內容,接著團隊便在機器、人類與人機等不同合作方式情況下進行測試。
結果顯示,至少以 S# 編程機器的情況來說,在大多數情況下,機器確實比人類更懂得如何合作與妥協。
Crandall 表示,在這些遊戲中,如果參與的兩個人都相互誠實、忠誠,那就能完成得像兩台機器一樣好,但實際的多數情況並非如此,Crandall 將這種情況稱為「人為疏失」(human failings)。
「我們實驗中的人類參與者有種不忠誠的傾向,他們會在合作關係中叛逃(defect)且不誠實,約有近半參賽者互動時會某種程度不遵照建議進行。」
從另一方面來看,研究人員編程為「重視誠實」的機器,就確實是誠實的。Crandall 認為,這種演算法正在體會道德特徵是件好事,它被編程為不說謊,並在需要的時候保持合作。
未來像自駕車等多種 AI 應用,機器都必須學會與人類和其他機器分享資訊、合作或妥協,研究人員認為,這些發現將能為未來應用 AI 技術的設備奠定基礎。
這項研究已刊登在《自然─通訊》(Nature Communications)期刊。
原文出處:科技新報
|
|