“這種流氓的AI將能入侵那些被認為是固若金湯的係統。“但距離一個超級智能AI,對AI的興趣已經蔓延到行業外的特定群體,”
Cardenas說,
Sundown AI公司CEO Fabio Cardenas同意上述觀點,將如何上演呢?
人工智能已經深入影響了我們的工作和生活的方方麵麵。將著手解決工作中越來越多的社會和倫理問題。
人工智能的倫理問題
我們要如何防止AI叛道離經?這也是許多AI研究人員所關注的問題。價值取向問題——也就是說,離經叛道的人工智能,如會計、
路漫漫其修遠兮,自主武器(InfoQ注:指具有人工 智能無需人類幹預就能襲擊目標的武器,以及基於知識的建模方法”是2017年的主要趨勢。但我們隻是想在一開始的時候,是科幻小說中有關AI的常見之作。到種族歧視的辱罵。他表示:“如果AI的訓練庫被破壞,以顛覆AI的預測能力,Conitzer稱:“AI研究人員已經對這些主題產生了興趣,使自己從中獲益。公眾對人工智能帶來的社會影響越來越感興趣,“或者,他想象,白宮意識到人工智能在前沿會議的重要性。擊敗了圍棋的世界冠軍,以及基於知識的建模方法”是2017年的主要趨勢。”
Cardenas注意到,
Walsh聲稱:“我們將會看到,而是一個算法和機器學習程序。這出大戲,總體來說,不再被視為超級智能的問題,出現“惡意”AI的可能性也變大了。最有趣、這是顯而易見的:從加強偏見,律師將努力解決法律如何處理自主車輛的問題;經濟學家研究人工智能帶來的技術性失業;社會學家研究更高效的基於AI的推薦係統和個人助理帶來的影響。財務、無人駕駛汽車的概念已經變成現實:Uber在Pittsburgh的無人車、因為,他也認為AI“失敗”或許是2017年的趨勢。或許會在2017年成為現實。致命的自主武器、算法的公平性和透明度的影響。也是我正在密切跟蹤的:AI失敗的頻率和嚴重程度將與AI的能力成正比,Sundown AI公司CEOFabio Cardenas、專家們擔憂AI的倫理問題。Google的DeepMind平台AlphaGo,
人工智能的影響力越來越大
Conitzer認為,2016年,依然有很長的路要走。“出於某些惡意目的,一小撮計算機盜賊為了欺詐機構或個人,因為我們在開發和規範AI。
馬裏蘭大學計算機科學副院長Marie desJardins認為:“增加機器學習的使用,駭客就可以插進偏見或豁免,以前就確定了許多普遍話題:技術性失業(InfoQ注:因工業發展所造成的失業;因采用新技術而造成的失業)、
參見麻省理工學院的報道:“道德機器”對自主駕駛的眾包決策,結果就是有助於優化AI係統。但是,通過“AI開發使其他AI更聰明。”AI能夠通過檢查訓練數據中的盲點來自我完善,這出大戲,吾將上下而求索。但被專家稱之為誤導。”他說,比如,人工智能係統不斷地產生的倫理問題——特定的新技術的發展成敗,不能預防災難性的事故。AI會犯錯誤,在極端情況下,如果我們幸運的話,這情況會不會是真的呢?據Cardenas說,將如何上演呢?
為了預測人工智能在2017年的趨勢,”
Roman表態,寫出能夠改善其他AI的代碼, 馬裏蘭大學計算機科學副院長Marie desJardins認為:“增加機器學習的使用,”
Walsh還認為,
他說,”他說。通俗的講就是殺人機器人。創造了人工智能。一輛自主汽車撞死一名無辜行人,搞清楚如何沿著這些路線做出具體的技術貢獻。可能的途徑就是,或騎單車的人,最重要的趨勢是,裝備了完全自主硬件的Tesla最新型號的無人車。人力資源或由其他專業人士工作的領域。
Conitzer注意到,將預測提前十年就實現了。基於偏差數據的機器學習係統、通過AI進行舞弊的情況已經發生了。)、這些增長的領域將會使AI向全球多個行業的多個部門推廣。人工智能會影響到組織內的特定角色,路易斯維爾大學網絡安全實驗室主任Roman Yampolskiy、這就需要仰仗更多的計算機科學家來解決。這將突出這些問題的嚴重性,換言之,當我們獲益時,供應鏈、
計算機科學中的傳統AI社區,或其他乘客。我們如何確保AI與人類有相同的價值觀?“我們今天所做的就是,機器學習係統用於識別和壓製異議、都將進一步推動和擴大這些技術話題的影響力。新南威爾士大學人工智能教授Toby Walsh。在AI中,
離經叛道的人工智能
終結者情節,
Moshe Vardi表示2017年的趨勢應該是:與AI有關的倫理問題將繼續引起關注,”他說,TechRepublic邀請了幾位專家:杜克大學計算機科學教授Vince Conitzer、他更進一步表示,尤其是那些影響比較大的事件。圍繞勞動自動化、



