×
×

球探比分直播:2019年AI領域回顧:穩定發展還是幻想破滅?

2019-12-31 10:30:24 來源:IT之家
對于人工智能(AI)領域來說,2019年堪稱是個異常忙碌的年份。AI進步和登上新聞頭條的速度讓我們的日常生活中充滿了令人敬畏和自豪的時刻。當然,有時候也充斥著惱人的想法,即我們的社會對AI時代的到來準備依然不夠充分。2019年是AI取得重大進步的一年還是幻想破滅的一年?隨著研究人員迅速攻克以前讓人感覺難以企及的基準,我們今天能說這個領域走上了穩定的發展軌道嗎?

球探比分即时足球比分捷报手机 www.922129.live

在應用數據科學合作伙伴公司(Applied Data Science Partners)的幫助下,我們希望后退一步,對2019年的AI活動進行排序和透視。在聚光燈下,重要的是要把一件作品最初吸引人的興趣與它的實際重要性以及它對這個領域的影響分開?;謖飧鱸?,本文以平行方式敘述2019年的AI故事,并試圖分離它們的意義。下面,就讓我們回顧下2019年AI領域的發展情況:

強化學習回歸

如果我們選擇用一句話來描述2019年的AI發展情況,那很可能是:“強化學習(RL)回歸了,而且看起來它會繼續保持這種趨勢。”

到目前為止,我們中的大多數人可能都已經熟悉有監督學習模式:有些人收集了大量的訓練數據,將它們提供給機器學習算法,讓它提煉出模型,然后幫助我們進行預測和分類。我們中的有些人甚至可能會有這樣的印象,即AI是有監督學習的同義詞。然而,它只是我們今天擁有的眾多機器學習類型中的一種。

在強化學習中,代理通過試驗和錯誤來學習,通過與環境的交互來判斷他們的行為。當涉及多個智能代理時,它們就被認為是一個多智能代理強化學習系統。

這個領域已經存在了幾十年,從概念上講,比起有監督學習模式,這聽起來更像是一種創造智能的學習機制。然而,直到2015年,英國人工智能初創企業DeepMind才獲得了吸引力,當時該公司使用Deep Q學習(經典強化學習算法與深度神經網絡相結合)創建了可以玩Atari游戲的代理。2018年,人工智能研發組織OpenAI也通過征服《Montezuma’s Revenge》游戲在該領域站穩了腳跟,這是一款被認為特別難的Atari游戲。

在過去的幾個月里,事情取得了重大進展:這些工作重新喚醒了強化學習研究界的信念。在過去,強化學習被認為過于低效和簡單,無法解決復雜的問題,哪怕是游戲。

今年獲得重大推進的另一個用例是自然語言處理(NLP)。盡管研究人員在這個領域已經工作了幾十年,但在幾年前,自然語言處理系統生成的文本聽起來并不夠自然。自2018年底以來,人們的注意力已經從過去的單詞嵌入轉移到預先訓練的語言模型上,這是自然語言理解從計算機視覺中借鑒的一種技術。

訓練這些模型是以一種無監督學習的方式進行的,這使得當代系統能夠從互聯網上可用的海量文本中學習。因此,這些模式變得“有知識”,并發展出了理解語境的能力。然后,使用有監督學習可以進一步提高他們在特定任務中的表現。這種通過訓練不同任務來改進機器學習模型的做法屬于遷移學習領域,被認為具有很大的潛力。

自然語言理解技術從去年開始蓄勢待發,2018年底推出了Google Bert、Elmo和ulmfit等系統,但今年的風頭完全被OpenAI的GPT-2搶走,其表現引發了人們對自然語言理解系統是否合乎道德用例的討論。

理念走向成熟

今年也見證了最近的某些深度學習技術走向成熟。使用有監督學習的應用,特別是計算機視覺,催生了成功的現實產品和系統。

生成性對抗網絡(GANS)已經達到了完美水平,其中生成器網絡試圖通過學習生成模仿訓練數據的圖像來欺騙鑒別器網絡。顯然,創建人和物體的人工但逼真的圖像不再是AI的前沿。2019年,AI生成的藝術甚至脫離了過去幾年的假設討論,成為今天博物館裝飾和拍賣的一部分。

計算機視覺技術也已被應用于具有重大商業和社會利益的領域,包括自動駕駛汽車和醫學。AI算法在這些領域的采用自然很慢,因為它們直接與人類生活互動。至少到目前為止,這些系統還不是完全自主的,它們的目標是支持和增強人類操作員的能力。

研究小組正在與醫院密切合作,開發用于疾病早期預測的AI系統,并組織龐大的健康數據檔案,一個顯著的例子是DeepMind Health和倫敦大學附屬醫院(UCLH)之間正在進行的合作。然而,這些工作中的大多數仍處于實驗階段,到目前為止,使用深度學習來增強醫學圖像的軟件SubtlePet,是唯一獲得FDA批準的AI系統。

沉睡的巨人

AutoML是機器學習的一個子領域,自上世紀90年代出現以來,在2016年引起了人們的極大興趣,但不知何故從未登上過頭條,至少沒有像其他AI趨勢那樣引發關注?;蛐碚庖橐蠐謁荒敲椿ㄉ詰謀局剩篈utoML旨在通過自動做出今天數據科學家通過手動、暴力調整做出的決策,來提高機器學習的實踐效率。

在過去的三年里,我們對這一領域的理解發生了變化。今天,大多數大公司都提供AutoML工具,包括Google Cloud AutoML、Microsoft Azure、Amazon Web Services和DataRobot。今年,人們的興趣轉向了進化方法,學習進化AI框架(LEAF)成為最先進的技術。然而,AutoML還沒有達到允許全自動AI系統比AI專家團隊表現更好的成熟程度。

AI的擔憂

盡管取得了巨大成功,但今年AI領域也帶給我們許多令人沮喪的故事。一個主要問題是機器學習模型中存在的偏見,這個問題直到2018年才出現,當時亞馬遜發現其自動招聘系統中存在性別偏見,而美國法院廣泛使用的判決工具COMPAS也被發現對性別和種族存在偏見。

今年此類示例數量明顯增加,這可以說表明公眾和機構對用于自動化決策的現有AI系統越來越懷疑。舉幾個例子為證:

——10月份多家醫院算法被發現對黑人患者有偏見;

——用于發放英國簽證的AI系統在10月份被一個人權組織指責存在種族偏見;

——蘋果的信用評分系統在11月被客戶指責存在性別偏見。

偏見是一個特別令人擔憂的問題,因為它位于有監督深度學習的核心中。當有偏見的數據用于訓練算法,而預測模型無法解釋時,我們無法真正判斷是否存在偏見。到目前為止,研究界的反應是開發技術以了解深層模型決策背后的原因。但專家警告稱,如果我們采取正確的做法,許多問題都可以得到解決。Google Cloud Model Cards是最近組織社區走向開源模式的一次嘗試,并對其性質和局限性進行了清晰的描述。

今年的另一個令人擔憂的認識是,一項技術變得越復雜,它被濫用的可能性就越高。深度造假(Deepfakes)就是Gans的副產物,深度學習算法被用來在純粹虛構的場景中創建涉及真人的圖片或視頻。不需要擁有太多的遠見,就可以看到這種技術如何被用來傳播虛假消息,從政治宣傳到欺凌等。這個問題不能僅靠科學家來解決,歷史證明,他們不善于預測他們的發現對現實生活的影響,更不用說控制它們了,這需要社會各界的對話。

如今,量化AI的價值是很困難的,但有一件事是肯定的:AI已經離開了科幻小說和前衛計算機科學的領域,現在是需要在這方面投入巨資的時候了。今年早些時候,三位主要的深度學習研究人員獲得了圖靈獎,這是人們期待已久的、對AI作為計算機科學既定領域的認可。
 


免責聲明:本文由作者原創。文章內容系作者個人觀點,轉載目的在于傳遞更多信息,并不代表EETOP贊同其觀點和對其真實性負責。如涉及作品內容、版權和其它問題,請及時聯系我們,我們將在第一時間刪除!

 
  1. EETOP 官方微信

  2. 創芯大講堂 在線教育

  3. 創芯老字號 半導體快訊

相關文章

全部評論

  • 最新資訊
  • 最熱資訊
{ganrao} 天臣配资app 快乐8 神来棋牌官网下载 江西时时彩qq群 平特怎么买法 福建快3今天开奖结果一一 熊猫四川麻将有挂吗 广东十一选五开奖信息 白小姐精选四不像中特图 云南期货配资公司 贵州11选五网上购买 四人麻将游戏下载免费 浙江十一选五奖金图 2020年千炮捕鱼旧版本 上证指数走势图如何看 排列7计划