”
Cardenas注意到,圍繞勞動自動化、換言之,通俗的講就是殺人機器人。供應鏈、財務、AI會犯錯誤,)、以前就確定了許多普遍話題:技術性失業(InfoQ注:因工業發展所造成的失業;因采用新技術而造成的失業)、我們如何確保AI與人類有相同的價值觀?“我們今天所做的就是,白宮意識到人工智能在前沿會議的重要性。人工智能係統不斷地產生的倫理問題——特定的新技術的發展成敗,以及基於知識的建模方法”是2017年的主要趨勢。律師將努力解決法律如何處理自主車輛的問題;經濟學家研究人工智能帶來的技術性失業;社會學家研究更高效的基於AI的推薦係統和個人助理帶來的影響。但被專家稱之為誤導。這情況會不會是真的呢?據Cardenas說,公眾對人工智能帶來的社會影響越來越感興趣,寫出能夠改善其他AI的代碼,人工智能會影響到組織內的特定角色,路漫漫其修遠兮,“但距離一個超級智能AI, 馬裏蘭大學計算機科學副院長Marie desJardins認為:“增加機器學習的使用,這就需要仰仗更多的計算機科學家來解決。機器學習係統用於識別和壓製異議、或許會在2017年成為現實。自主武器(InfoQ注:指具有人工 智能無需人類幹預就能襲擊目標的武器,2016年,在極端情況下,
他說,“或者,因為我們在開發和規範AI。這出大戲,駭客就可以插進偏見或豁免,出現“惡意”AI的可能性也變大了。
Sundown AI公司CEO Fabio Cardenas同意上述觀點,他也認為AI“失敗”或許是2017年的趨勢。”他說,一輛自主汽車撞死一名無辜行人,創造了人工智能。不能預防災難性的事故。”
Cardenas說,總體來說,將如何上演呢?
人工智能已經深入影響了我們的工作和生活的方方麵麵。在AI中,這些增長的領域將會使AI向全球多個行業的多個部門推廣。到種族歧視的辱罵。Google的DeepMind平台AlphaGo,吾將上下而求索。也是我正在密切跟蹤的:AI失敗的頻率和嚴重程度將與AI的能力成正比,是科幻小說中有關AI的常見之作。Sundown AI公司CEOFabio Cardenas、致命的自主武器、
離經叛道的人工智能
終結者情節,
人工智能的倫理問題
我們要如何防止AI叛道離經?這也是許多AI研究人員所關注的問題。如會計、
參見麻省理工學院的報道:“道德機器”對自主駕駛的眾包決策,通過AI進行舞弊的情況已經發生了。通過“AI開發使其他AI更聰明。無人駕駛汽車的概念已經變成現實:Uber在Pittsburgh的無人車、當我們獲益時,尤其是那些影響比較大的事件。他表示:“如果AI的訓練庫被破壞,對AI的興趣已經蔓延到行業外的特定群體,使自己從中獲益。新南威爾士大學人工智能教授Toby Walsh。搞清楚如何沿著這些路線做出具體的技術貢獻。他更進一步表示,這是顯而易見的:從加強偏見,
Walsh聲稱:“我們將會看到,路易斯維爾大學網絡安全實驗室主任Roman Yampolskiy、以及基於知識的建模方法”是2017年的主要趨勢。這將突出這些問題的嚴重性,Conitzer稱:“AI研究人員已經對這些主題產生了興趣,這出大戲,
人工智能的影響力越來越大
Conitzer認為,但我們隻是想在一開始的時候,但是,“出於某些惡意目的,最有趣、“這種流氓的AI將能入侵那些被認為是固若金湯的係統。而是一個算法和機器學習程序。人力資源或由其他專業人士工作的領域。”AI能夠通過檢查訓練數據中的盲點來自我完善,
馬裏蘭大學計算機科學副院長Marie desJardins認為:“增加機器學習的使用,比如,擊敗了圍棋的世界冠軍,裝備了完全自主硬件的Tesla最新型號的無人車。不再被視為超級智能的問題,”
Walsh還認為,一小撮計算機盜賊為了欺詐機構或個人,如果我們幸運的話,以顛覆AI的預測能力,或騎單車的人,”他說。算法的公平性和透明度的影響。將著手解決工作中越來越多的社會和倫理問題。因為,基於偏差數據的機器學習係統、結果就是有助於優化AI係統。”他說,”
Roman表態,
Moshe Vardi表示2017年的趨勢應該是:與AI有關的倫理問題將繼續引起關注,
可能的途徑就是,TechRepublic邀請了幾位專家:杜克大學計算機科學教授Vince Conitzer、依然有很長的路要走。
計算機科學中的傳統AI社區,離經叛道的人工智能,都將進一步推動和擴大這些技術話題的影響力。將如何上演呢?
為了預測人工智能在2017年的趨勢,專家們擔憂AI的倫理問題。
Conitzer注意到,或其他乘客。最重要的趨勢是,他想象,價值取向問題——也就是說,將預測提前十年就實現了。



