谷歌提出人工智能的五大安全規則
不久前谷歌與OpenAI公司、斯坦福大學和伯克利大學聯合發表一篇題為《AI安全的具體問題》的論文,猜想研究人員在研發和使用AI過程中可能遇到的具體問題。
感覺這個規則可以拍一部好看的科幻電影。
http://www.ue2382.cn
0
科客點評:感覺這個規則可以拍一部好看的科幻電影。
不久前谷歌與OpenAI公司、斯坦福大學和伯克利大學聯合發表一篇題為《AI安全的具體問題》的論文,猜想研究人員在研發和使用AI過程中可能遇到的具體問題。谷歌研究(Google Research)的Chris Olah)周二則在一篇博文中闡述了開發出更智能、更安全人工智能的五大規則。
Olah在博文中指出:“這些都是具有前瞻性的、長期的研究問題——這些現在看起來可能是小問題,但對未來系統則至關重要?!?/p>
Olah提出的五個規則是:
避免負面效應:AI在完成一組任務時不應該被周圍環境打擾。
避免獎勵黑客: AI應該妥當地完成任務,而不是借助一些迂回的方法。
可擴展的監督: AI不需要接收不斷的反饋或有效的輸入。
安全探索:AI在學習時不應傷害自身或環境。
魯棒性到分布式的轉變: AI應該能夠識別出全新的環境,并在新環境中有效地完成任務。關注科客網官方微信kekebat,獲取更多精彩資訊。(cnBeta.COM,原標題《谷歌提出人工智能的五個安全規則》)
注:轉載文章,不代表本站贊同其觀點和對其真實性負責,本站不承擔此類稿件侵權行為的連帶責任。如版權持有者對所轉載文章有異議,請與我們聯系。
莫將
████████████看 黃 魸 手 機 瀏 覽 噐 咑 幵:275236.c○m 郗蒛資羱!無需下載、直接欣賞,妳嬞鍀!████████████錐椎
烏爾奇奧拉
真的很科幻…………