人工智慧你怎麼看

  未來的生活肯定會有人工智慧存在,那麼你對人工智慧到底怎麼看呢?下面是小編為你整理的,供大家閱覽!

  ?

  想象一下 2020 年的普通一天,人工智慧助手喚你起床,為你端上已準備好的早餐,都是你最喜歡的食物。在晨跑中,播放器會自動播放符合你喜好的最新歌曲。上班路上,電子助手會根據你過去的閱讀品味,自動向你推送新聞以供閱讀。

  你閱覽著新聞,注意到總統選舉馬上就要來了,人工智慧參考了你過去的政治看法和本州其他選民的意見,向你推薦了一位民主黨候選人。你的手機上,一條彈出資訊詢問你是否需要 AI 助手幫你準備投票所需檔案,你點選「同意」,然後關掉螢幕,繼續自己的生活。

  人工智慧:呆板的資料機器

  AI 個人助手在幾年前已經走進現實,對於我們來說,把履行公民義務的重任交與它們還是顯得有些不合適——即使人工智慧幾乎總是知道在特定的時刻給我們最好的建議。通過足量的資料學習,人工智慧可以為每個人提供準確的,個性化的建議,甚至比你最親密朋友的建議更完美。

  Alphabet 董事長埃裡克·施密特堅信,人工智慧的發展會讓每個人都會變得更聰明,更有能力,更為成功。人工智慧已經展現出了巨大潛力,有希望幫助解決人類社會面臨的各種複雜挑戰,如氣候變暖,人口增長和人類發展。

  然而機器展現出的潛力也帶來了擔憂。有調查顯示,34% 的人表示自己害怕人工智慧,而 24% 的人認為人工智慧會對社會造成負面影響。相比較未知的恐懼,人工智慧對於資料的依賴帶來了現實的隱患,GWI 的研究表明,63% 的民眾擔心他們的個人資訊被科技公司濫用。最近 Oxford Internet Institute 的研究顯示,人們對於讓人工智慧助手打理自己生活的方式持謹慎態度,特別是當這些助理提出自己的建議,卻又不告訴你它推理過程的時候。

  在這裡,我們沒有必要混淆數學與魔法。人工智慧並不是在你手機裡生活的神祕生物。但我們往往會忘記,人工智慧一直在讀取我們的個人資料,通過複雜的數學模型,自動推斷我們的興趣、位置、習慣、財務和健康。

  開發者的角色

  當前關於演算法與人類的很多討論都圍繞著設計者在演算法中的作用——人工智慧創造者的潛在意識和偏差是否會被編碼進幫我們做出決定的演算法中。很多人擔心開發者的個人偏見會被帶入演算法,其中一點點微妙的歧視就會讓部分人群的利益受到侵害——也許還有更壞的結果,科技平臺會演變成弱勢群體難以逾越的門檻。即使演算法和寫演算法的人沒有偏見,沒有人能夠保證訓練演算法的資料中一切都是平等的,現實世界本身存在著偏見,資料集中的內容也會對人工智慧框架產生影響。

  持這一觀點的決策者和專家們經常誤解人工智慧演算法出錯的原因。他們不斷指責開發者,卻忽略了自我學習系統的侷限性。將錯誤推給別人是一種自然反應,特別是在你無法理解這些技術時。演算法的偏差很少來自於開發它們的工程師。事實上,在大部分情況下,問題的根源出自訓練演算法的資料,這才是構建未來人工智慧社會所要擔心的真正危險。

  演算法決定論

  回想一下機器學習到底是怎麼工作的,通過應用統計學技術,我們可以開發自動識別資料中特徵的演算法。為了達到這個目的,系統需要經過巨大資料集的訓練,訓練模型的資料越多,預測準確率越高。

  在個性化數字應用中,這些統計學習技術被用來建立演算法,為使用者提供個性化服務,計算機閱讀了我們的使用模式、品味、偏好、人格特徵和社交圖譜,隨後建立起對於人類的數字觀感。計算機形成的社交身份並不基於你的個性或選擇,相反,這種虛擬身份來自於你的可統計資料點,和它們的機器解釋。這種代替,無論多麼複雜,都是人工智慧對人類的不完美數字表達。

  人工智慧只能查詢歷史資料,為使用者所需做出建議。這就是為什麼今年 8 月,一個視覺識別神經網路通過 1400 萬張照片的訓練後預測唐納德·特朗普將會贏得本屆美國總統大選。鑑於這個資料集中並沒有女性美國總統,AI 可能判斷性別是識別模型的相關特徵。但即使排除這一點,如果讓這個俄羅斯人訓練的人工智慧投票的話,它肯定會投特朗普。

  這樣的推論會導致越來越僵化的推薦系統,它傾向於不斷強化現有的看法,就像社交網路中的反射效應一般。「個性化」使每個人都被貼上了標籤,讓現實生活和網路世界互相割裂。計算機不斷地推薦「你喜歡的」內容,使用者獲得的資訊在不知不覺中被演算法誤導,人類或許在人工智慧真正覺醒之前就已深陷其中了

  動態的人生

  我們的身份是動態的,複雜而充滿矛盾的。根據我們的社會背景,我們總會擁有者幾個不同的身份,這意味著我們需要用到幾種不同的 AI 助理——在學校或工作中的,在酒吧或教堂裡的。

  除了通常的自我介紹,我們在網路中可能也需要以不同的身份展現自我,和不同的群體展開互動。我們不希望自己在社交網路中被隨意檢視,我們也不希望自己在尋找新奇事物時,還要擔心朋友和家人的窺視。如果我們想要試試不同的社會身份,會發生什麼?4Chan 創始人 Chris Poole 說道:「這不是你在和誰分享的問題,這有關你與他人分享什麼樣的內容。身份就像一個稜鏡,別人通過它來看你會呈現無數不同的面貌。」

  區分不同的自我表達階層,繪製不同社交環境下的身份,對於人工智慧而言是一個巨大挑戰。很多時候,人類面臨的問題不在於演算法設計——我們連自己是什麼都還沒弄清楚。但人工智慧助手總會給我們一個答案:關於過去的我們。身份的變化在這樣的環境中變得越來越難,我們的生活習慣和信念被自我強化的迴圈鎖定,演算法構建的《土撥鼠日》出現了。

  我們在日常生活中越依賴於個性化演算法,我們的個性就會越被計算所磨滅,我們所讀,我們所見,我們生活的方式都將被機器所決定。通過專注於現狀,接管探索資訊和偶遇陌生人的渠道,用過去發生過的事情試圖再一次討好自己,這就是演算法決定論的世界。

  當過去照進未來,人類賴以生存的自發性,開放與進取變得逐漸稀缺。溫斯頓·丘吉爾曾經的話變成了這樣:我們塑造了演算法,然後,演算法塑造了我們。

  如何阻止未來

  在今天,現實世界中的人工智慧應用已經融入到了日常生活的方方面面——而人們對這一科技的興趣也是越發濃厚。但是有兩個主要的挑戰正讓未來變得難以觸及。從科技進步的角度來講,不同應用之間的資料交換上缺乏互通性標準,而具備這一點能夠防止徹底的個性化。要是想要真正有用的話,機器學習系統需要更多的個人資料——而這些資料現在都被孤立地分散在一些有競爭力的科技公司的專業資料庫當中。那些掌握資料的公司就掌握了權利。一些公司,最著名的比如說像 Apple 和 Viv,已經開始通過與第三方服務結合的實驗來擴大自己的勢力範圍。最近,一些最大的科技公司宣佈了與人工智慧研究的主要合作,這樣就可以將益處帶給大多數人,而不僅僅是少數人。這將會對今後建立對人工智慧的普遍信任至關重要。

  從社會的角度來看,人類似乎對人工智慧的急速發展有一種莫名的反感。人們擔心會失去對人工智慧助手的控制。信任是我們控制能力的一種直接表現。試圖對生產力進行一些微小的改進,卻要賭上關係和名譽,大多數人都不願意這樣做。

  當然,在早期,人工智慧助手的行為方式可能並不是它的人類製造者所期望的。有先例證明,一些失敗的人工智慧實驗會減少對弱人工智慧narrow AI解決方案和聊天機器人conversational bots的信任。Facebook、微軟和谷歌紛紛在 2016 年建立了它們的機器人平臺,但過早呈現在人們面前的人工智慧科技,因其有限的功能、應用和定製化讓使用者大失所望。

  一直困擾我們的恐懼——人工智慧科技的後果,也因為很多科幻小說中所描述的有意識、暴戾的人工智慧統治世界的反烏托邦場景而加劇。但是我們所面對的未來,既不會像是人工智慧網路「天網」Skynet,也不會像喬治·奧威爾的《1984》裡一樣:而更可能會像是《美麗新世界》A Brave New World中所描述的一個享樂主義的社會,在那裡,科技的地位仍然是需要為普遍的幸福和自我放縱所服務。

  未來導向型機制

  每天都有關於我們每個人的成千上萬個演算法決策——從 Netflix 的電影推薦、Facebook 上的好友建議,到保險風險評估和信用評分。就各方面而言,人們自己應該有責任對關於自己的演算法決策進行跟蹤和仔細審查,或者說我們可能需要將此編碼到他們使用的數字平臺設計當中?責任是非常重要的一點,準確來說是因為在大範圍內進行估量和實施是非常困難的。

  因此,在一頭栽進這個未知的領域之前,我們需要回答一個問題:我們想讓人類和人工智慧之間的關係成為什麼樣子?反思這些問題,我們才會設計出非決策性的、透明並且有責任感的演算法,這些演算法能夠辨別出個體當中複雜、發展和多方面的本質。