成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
    此為臨時鏈接,僅用于文章預覽,將在時失效
    專欄 正文
    發私信給黑匣
    發送

    8

    總在擔心人工智能,人類到底在懼怕什么?

    本文作者: 黑匣 2015-12-25 11:28
    導語:“人類對未來人工智能的擔憂簡直比得上對半人馬座α星系的幻想。”

    【編者按】本文由黑匣編譯自Futureoflife,作者Ariel Conn

    2015年初,一些研究者開始擔心人工智能的安全,一切都變化飛快。

    牛津大學人類未來研究院院長、哲學教授尼克·博斯特羅姆的新書《超級智能:方法、危險、策略》供不應求,生命未來研究所(FLI)在波多黎各舉行了人工智能未來安全的討論會議,兩封關于人工智能和自動武器的信件公之于眾,SpaceX和特斯拉的共同創始人埃隆·馬斯克、宇宙學家斯蒂芬·霍金、微軟公司創始人比爾·蓋茨和蘋果聯合創始人史蒂夫·沃茲尼亞克等業界大咖都發表過關于人工智能威脅的言論,無數文章援引了他們的擔憂。

    總在擔心人工智能,人類到底在懼怕什么?

    (馬斯克花費10億美元打造OpenAI | 圖片來源:Yahoo)

    馬斯克通過FLI捐贈了1000萬美元用于人工智能安全研究,萊弗休姆未來情報中心獲得1500萬美元用于研發智能的未來。還有最近成立不久的非營利組織OpenAI,花費10億美元把人工智能領域最有思想的那群人聚到一起,想辦法解決人工智能的安全問題。

    總而言之,這是一個人工智能安全研究的豐收年。越來越多的科研人員和從業人員加入到人工智能安全研究領域中來,還有許多未知的驚喜等著我們去發現。

    那么,我們到底在懼怕什么呢?

    OpenAI的成立可以說是這個月的重磅消息,神經信息處理系統會議也在此時召開,吸引了一大批機器學習大牛蒞臨現場。大會上最引人注目的是主題為《生活中的算法:機器學習對社會的影響》的座談會,人工智能行業最具影響力的大咖在會上談論了他們的想法和對未來人工智能的擔憂。本文要為大家分享各位大咖的最新觀點。

    總在擔心人工智能,人類到底在懼怕什么?

    (與會人員 從左到右:英國倫敦帝國學院認知機器人教授穆雷·沙納漢,英國倫敦帝國學院人工智能專家肖恩·萊格,百度首席科學家吳恩達,Facebook人工智能負責人雅安·勒存,,IEEE前機器學習工程師湯姆·迪特里奇,紐約大學語言與音樂研究心理學家加里·馬庫斯。| 圖片來源:Futureoflife)

    AGI值得我們擔心嗎?

    Artificial General Intelligence(AGI)是指強人工智能,這是一種人類級別的人工智能,在各方面都能和人類比肩,人類能干的腦力活它都能干。不僅僅是當今人工智能所應對的局部、特定的問題,未來可能出現的復雜繁冗任務對它來說都不在話下,當前的人工智能需要人類進行編程,但不排除未來的某一天它可以自動編程。因此,AGI的定義其實也不太準確。

    Facebook人工智能負責人雅安·勒存說:“我不想談論人工智能,因為我真的不知道它到底是什么意思。”

    總在擔心人工智能,人類到底在懼怕什么?

    (圖片來源:fusiontech-financial)

    如果說AGI定義尚難,那就更別說要預測它的發展了。勒存和吳恩達等人都認為不必在AGI的預測上浪費時間,因為目前人類要達到這個水平還遠的很。人工智能還需要跨越一個幾年甚至幾十年的寒冬。百度首席科學家、斯坦福大學教授吳恩達做了個比喻,人類對未來人工智能的擔憂簡直比得上對半人馬座α星系的幻想(注:由于半人馬座α星系統距離地球很近,許多科幻小說都“認為”這里存在發達的宇宙文明)。

    勒存表示,我們真的無法得知擁有超常智慧的人工智能會是什么樣子。“人工智能會發展成人類的智能嗎?肯不會的。”勒存解釋,人類智能不是我們想象中的那個樣子,“我們是有本能的,會驅動一些人類去做壞事,但是人工智能卻沒有。”

    然而,一些與會者并不認同勒存和吳恩達的觀點。他們認為我們必須要提前做好應對準備。

    谷歌DeepMind聯合創始人肖恩·萊格認為,現在開始研究人工智能安全是絕對有益的,它幫助我們建立起一個框架,讓研究人員在這個框架內朝著積極的方向去發展更聰明的人工智能。

    “關于人工智能的安全,我認為有過分夸大和被忽略的方面。”萊格認為,我們應該深刻地討論人工智能給社會帶來的正負面影響。“當我們正處在發展的過渡期,我們應該負起責任,提前考慮技術、社會、法律等方面的問題,提前做好準備總比出現問題時再考慮好。”

    紐約大學語言與音樂研究心理學家加里·馬庫斯補充道:“我們不僅需要為人工總體智能做準備,更要為人工智能做準備。現在已經出現了安全和風險問題了。”

    吳恩達認為人工智能安全研究并不是一件壞事,“我很高興能看到社會各界的人們參與到人工智能倫理研究中來,這確實是一個偉大的事業。”但吳恩達堅持認為不能花太多精力到人工智能安全研究上去。

    人工智能影響經濟?

    總在擔心人工智能,人類到底在懼怕什么?

    (圖片來源:Yahoo)

    盡管研究人員在會議上各執己見,但有一個問題卻幾乎贏得了所有人的贊同——人工智能可能危害就業市場。

    埃里克·布呂諾爾夫松是《工業時代2:人工智能》的作者之一,他提出了人工智能可能會對經濟產生一些影響。他說,我們的技術飛速進步,這是好的,但我們的技術、組織和機構并沒有跟上,因此無法享受技術進步帶來的福利。

    吳恩達雖然不擔心AGI的未來,但他卻十分關注即將出現的經濟問題。“我認為最大的挑戰是失業。”

    盡管當今人工智能發展得十分局限,但失業問題已經開始出現了。在世界各地,中低技工不斷被機器人或軟件所取代工作,并且取代率會不斷上升。

    勒存認為,蒸汽機的出現也導致了大規模的失業,現在世界也一樣可以克服。但布呂諾爾夫松和吳恩達不同意這一觀點,因為當今的技術進步更加快速。

    “技術在不斷地吞噬工作,也在不斷地創造工作。”布呂諾爾夫松承認,但他也指出,要預測技術進步帶來的影響十分困難,因為當前技術進步的速度是前所未有的快。

    牛津大學人類未來研究院院長、哲學教授尼克·博斯特羅姆認為,把會思考的機器和工業革命蒸汽機的崛起做比較是不恰當的,因為它和人類崛起的過程更加相似。有朝一日,假若擁有超常智慧的人工智能真的被開發出來了,那人類的創造史也就到此結束了。

    目前經濟存在一個巨大問題,市場變化迅速,大多數人無法快速培養與之適應的新技能,失業保障金和技術培訓可以解決部分問題。然而,失業帶來的心理陰影仍然成了很多人克服不了的問題。這引起了專家們的注意。

    博斯特羅姆教授卻意外地樂觀,他認為失業不是失去全世界,失業人員可以利用失業的時間來享受其他的愛好,填補錯過的快樂時光。

    不遠的將來,人工智能即將出發新一輪失業浪潮,這要求各國領導人主動采取失業保障金等有效政策來應對。

    何時展開人工智能安全研究?

    總在擔心人工智能,人類到底在懼怕什么?

    (圖片來源:fusiontech-financial)

    理想狀態下,技術只是一個工具,并沒有好壞之分。它對人類的幫助和傷害取決于使用者。除非人工智能可以發展到有思考的能力,但這一說法并不準確,因為人工智能并不是人,但也不僅僅是一種工具。

    伊恩·克爾是加拿大渥太華大學的倫理、法律研究主席,他在會議上談到了人工智能的法律問題。人工智能的首要問題是:這是誰的責任?出現問題時誰來負責?另一方面,當人類和人工智能的建議出現對立時,該如何選擇?要怎樣證明選擇的正確性?

    這場討論會令與會者們印象深刻。2015年初,一些研究者開始擔心人工智能的安全。現在,雖然大多數人還不擔心,但他們都承認,提前考慮這些問題確實沒有壞處。

    最大的分歧在于我們該于何時展開人工智能安全研究。

    與會人員們都認為人工智能升級的過程是循序漸進的,而不是一些媒體口中一蹴而就的。現在已經出現了智能機器,完成任務的過程比人類更好更快,這一趨勢會不斷持續下去。

    哈佛大學計算機科學教授菲納利·多西·韋萊茲指出,至少現在,我們還可以控制我們的機器,如果出現了不理想的結果,我們可以重新編程。

    但是,這會是長久之計嗎?

    雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知

    總在擔心人工智能,人類到底在懼怕什么?

    分享:
    相關文章

    專欄作者

    人工智能內容極客
    當月熱門文章
    最新文章
    請填寫申請人資料
    姓名
    電話
    郵箱
    微信號
    作品鏈接
    個人簡介
    為了您的賬戶安全,請驗證郵箱
    您的郵箱還未驗證,完成可獲20積分喲!
    請驗證您的郵箱
    立即驗證
    完善賬號信息
    您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
    立即設置 以后再說