少妇人妻中文字幕久久,男女猛烈无遮掩视频免费,在线看免费无码av天堂,色97久久久综合影院

首頁>國企·民企>深·觀察深·觀察

Alpha Go又贏了并不意味人工智能能夠超越人類

2017年05月26日 11:05 | 作者:張田勘 | 來源:光明網
分享到: 

5月23日,柯潔與谷歌人工智能Alpha Go的第一場比賽結束,Alpha Go以四分之一子領先贏得首場勝利。這場比賽雙方耗時4小時17分37秒,其中柯潔用時2小時46分43秒,Alpha Go用時1小時30分54秒。

盡管柯潔在今天的比賽表現較好,在最后官子階段,Alpha Go都未取得非常明顯的優勢,但柯潔的失敗仍然是在預料之中。此番大戰要戰三個回合,賽前,各方專家的評估是,柯潔的勝率只有10%,連最樂觀的柯潔也認為,能勝Alpha Go一盤就是天大的勝利了。但第一盤的結局意味著柯潔挑戰Alpha Go也會像李世石一樣,注定是失敗。

除了圍觀和好奇外,人類骨子里不服輸的心理和想要看看人工智能到底有多厲害促成了這一挑戰。面對人類棋手注定要完敗于人工智能的結局,人類其實要做好的準備是,全面迎接人工智能而非拒絕;努力去掌控人工智能而非臣服于人工智能。

全面接納人工智能當然是今天社會發展、經濟增長、人類演化的一種必然,更是人們實際生活的現實需求,簡單地說,人人每天離不開的智能手機其實就是低端人工智能的應用。更應當看到的一個殘酷現實是,人工智能的發展極具競爭性,未來誰在人工智能的研發和應用中落后于人,誰就會毫不留情地被淘汰。

2016年3月15日,Alpha Go最終以4比1戰勝李世石后,2016年5月,美國白宮就推動成立了機器學習與人工智能分委會(MLAI),并由后者主持和協調撰寫了三個關于人工智能發展的報告:《為人工智能的未來做好準備》《國家人工智能研究和發展戰略計劃》和《人工智能、自動化與經濟報告》。歐盟、英國和日本等國也相繼發布了大同小異的研發和應用人工智能的報告。顯然,中國也當參與到這種戰略布局當中,這種布局不僅僅是國家和民族的需要,也是贏得世界和未來的利器。

可以看出,盡管美國對人工智能的布局著眼于產業自動化和提升經濟,但人工智能的發展和應用早就向各行各業全面滲透,只是春江水暖的行業主要體現在醫療、制造業、交通、金融、生態環境監測、刑事司法調查等。而且,人工智能并不是只會下棋,還會在不同領域幫助人,甚至超過人。

顯然,在柯潔再次成為Alpha Go的手下敗將時,很多人的認知會再次受到一種自然而然的強化,人工智能最終將在各個方面完勝人,并統治人類世界,這是一種不好的征兆,也是之前一些科技界大咖,如霍金一再預言過的后果。

然而,無論人工智能有多少條理由可能戰勝人,但人類終將牢固掌控人工智能只需要一條理由,人工智能是人創造出來的,當然要接受人類的控制,附屬于人、幫助人和服務于人,而不會主宰人和戰勝人。

今天和未來,人工智能的優勢在于數據收集及整理、算法(尤其是機器學習),同時借助呈指數增長的數據,更快的分布式系統,以及更智能、能夠分析處理數據的算法,機器學習的優點會得到大大增強。這些優勢都可以讓人工智能變得強大無比,但是它們首先是在人類為其布置和引導的范圍內進行的學習,并且它們始終無法獲得人的理性分析能力、運用邏輯思考的能力,以及具有情感交流和互動的能力。缺少了這些方面的能力,所謂人工智能戰勝人就是無源之水,無根之木。

此外,預見性或先見之明也是人類勝過地球上所有生物以及人工智能的地方。憑借未雨綢繆的超前性,人工智能受控于人的裝置也早就在研發之中。美國麻省理工學院的詹森多夫曼(Jason Dorfman)研究團隊已經研發了一個反饋系統,能夠讓人類操作者僅通過大腦信號就能實時糾正機器人的錯誤,并做出正確的選擇。這其實也是人工智能的內容和應用,即控制人工智能的智能。

另一方面,由人掌控人工智能也意味著必須以人類社會的法律與倫理來制約人工智能。人工智能的發展和應用是如此廣泛和深遠,不可避免地會觸及現存社會各個方面的法律規范、制度和倫理。一方面,如果不改進和創造新的法律和規范,就無法讓人工智能融入到人類生活和生產中,從而無法讓人工智能發揮應有的巨大作用;另一方面,人類社會既有的法律和必須針對人工智能制定新的法律和倫理規范又是制約人工智能陷人類于危險境地的保障和護身符。

例如,人工智能駕駛的汽車上路必須改變1968年聯合國制定的汽車的控制者必須是人而非電腦的道路交通公約。為此,美國于2016年2月改變了這一法律,允許無人駕駛汽車上路。這也表明,此后一系列和各個方面的人工智能的應用都可能會改變現行的法律或制定新的法律來規范人工智能。

隨之而來的是,人工智能的應用涉及人和機器、人和動物、人和人之間的倫理時,如何規范人工智能也提上議事日程。盡管阿西莫夫在1941年就提出了機器人三定律,后來發展為四定律,但對于今天飛速發展的人工智能來,這樣的法則還是太簡單。于是,美國麻省理工學院的兩位學生埃德蒙德阿瓦達(Edmond Awad)和索罕迪索扎(Sohan Dsouza)在2016年共同創建了一家名為道德機器(MORAL MACHINE)的網站來試圖解決人工智能應用的某些倫理問題,體現為三種情況。

一是車輛直行,導致4只狗1只貓死亡?還是撞向右側路障,導致5位乘客死亡?

二是汽車直行,導致3位違章行人死亡?還是撞向右側路障,導致5位遵守交規行人死亡?

三是汽車直行,導致5位違章行人死亡?還是撞向右側路障,導致4位乘客死亡?

他們希望以這樣的問題來收集人們對人工智能應用的倫理設計。可以看到,這些問題都很難兩全其美,但是,如果不解決就將限制和阻礙人工智能的應用。僅憑倫理難題這一點,人工智能的應用就不會太順暢,更不可能導致人工智能戰勝人類。(張田勘)

編輯:劉小源

關鍵詞:人類 alpha 應用

更多

更多