請選擇 進入手機版 | 繼續訪問電腦版

微剋多資訊

 找回密碼
 註冊

Sign in with google

Google帳號登入

搜索

該用戶從未簽到

升級   10%

發表於 2018-1-26 15:17 | 顯示全部樓層 |閱讀模式
作者 Nana Ho | 發布日期 2018 年 01 月 23 日 19:10


去年中國烏鎮 AlphoGo 與柯潔的圍棋世紀大戰中,我們都見識到人工智慧(AI)這些年來的快速進步,如今幾乎可以確定的說,在大多數零和遊戲(Zero-Sum Game)中,機器會擊敗人類。但如果其他情況下呢?

不論西洋棋、圍棋或撲克牌,過程經常由兩個或以上的玩家互相衝突競爭,並由一方擊敗對手獲勝,對 AI 發展來說,這樣的遊戲結果能提供明確的里程碑來衡量發展過程。但 AI 最終要應用的現實世界畢竟不是這麼簡單,機器必須學會與人、機器之間更複雜的長期合作關係。

New Atlas 報導指出,為了解 AI 面對人及其他機器「社交」時的情況,美國楊百翰大學(BYU)電腦科學教授 Jacob Crandall、Michael Goodrich 和麻省理工及其他單位同事合作創造了一種 S# 演算法,試圖教導機器學習合作及妥協,並在實際遊戲中測試性能。

與過往圍棋、西洋棋等單人零和遊戲不同,研究人員選擇玩家需要不同程度合作及妥協的數款遊戲,包含囚徒困境(Prisoner’s Dilemma)與牽涉到夏普利值(Shapley value)等內容,接著團隊便在機器、人類與人機等不同合作方式情況下進行測試。


結果顯示,至少以 S# 編程機器的情況來說,在大多數情況下,機器確實比人類更懂得如何合作與妥協。

Crandall 表示,在這些遊戲中,如果參與的兩個人都相互誠實、忠誠,那就能完成得像兩台機器一樣好,但實際的多數情況並非如此,Crandall 將這種情況稱為「人為疏失」(human failings)。

「我們實驗中的人類參與者有種不忠誠的傾向,他們會在合作關係中叛逃(defect)且不誠實,約有近半參賽者互動時會某種程度不遵照建議進行。」

從另一方面來看,研究人員編程為「重視誠實」的機器,就確實是誠實的。Crandall 認為,這種演算法正在體會道德特徵是件好事,它被編程為不說謊,並在需要的時候保持合作。

未來像自駕車等多種 AI 應用,機器都必須學會與人類和其他機器分享資訊、合作或妥協,研究人員認為,這些發現將能為未來應用 AI 技術的設備奠定基礎。

這項研究已刊登在《自然─通訊》(Nature Communications)期刊。


原文出處:
科技新報

樓主熱門主題

簽到天數: 5

該用戶今日未簽到

升級   20%

發表於 2018-3-17 22:13 | 顯示全部樓層
AI發展需要在可控制範圍才不會危害到人類啊

使用道具

簽到天數: 3

該用戶今日未簽到

升級   66.67%

發表於 2018-7-18 01:39 | 顯示全部樓層
總有一種人類未來要被AI控制的緊張感……

使用道具

簽到天數: 10

該用戶今日未簽到

升級   0%

發表於 2018-12-8 21:41 | 顯示全部樓層
很多電影ai暴走不都是也學習到人類的負面情緒,而不受控制的。

使用道具

簽到天數: 12

該用戶今日未簽到

升級   7.5%

發表於 2018-12-25 19:27 | 顯示全部樓層
AI 發展到成人影業 應該很不錯 哈 可以減少犯罪率

使用道具

您需要登入後才可以回帖 登入 | 註冊

本版積分規則

小黑屋|Archiver|微剋多資訊(MicroDuo)

GMT+8, 2024-3-29 13:10

Discuz! X

© 2009-2023 Microduo

快速回覆 返回頂部 返回列表