關於講道德的故事

  道德,就好似一個人的靈魂,一個沒有靈魂的人就無生命可言。下面是小編為您整理的,希望對你有所幫助!

  篇一:機器人也要講道德

  根據科幻作家阿西莫夫的同名小說改編的電影《我,機器人》裡有這樣一個場景:2035年的一個早晨,機器人與人類一起穿梭在美國芝加哥繁忙的街道上,它們在送快遞,幫主人遛狗,做搬運工,急著回家給主人拿急救藥品——這並非遙不可及,日前,谷歌公司的機器人汽車專案就有可能讓這一虛構成為現實。

  今年5月,美國內華達州為一輛搭載谷歌智慧駕駛系統的汽車頒發了牌照,允許這輛無須人工駕駛的汽車在公共道路上測試行駛。據行業人士預計,自動駕駛汽車在歐美有望於3年至5年後投入使用。

  根據國際機器人聯合會網站公佈的資料,自1961年以來,全球機器人的銷售總量已達230萬,2011年銷量最高,達到16萬臺。眼下,全球機器人產業已處在一個蓬勃發展的上升期。

  阿西莫夫定律的困境

  當機器人越來越多地滲透到人們的生活中,由此引發的法律與道德問題也隨之而來。

  英國謝菲爾德大學人工智慧與機器人學教授諾爾·沙吉舉例說,設想你的機器人汽車正在開往停車場,此時一個兒童正在附近玩耍。一輛卡車開來,濺起的塵土干擾了機器人汽車的感測器,機器人汽車因不能感知兒童的存在而造成交通事故。那麼誰應該對此負責,是機器生產廠家、軟體工程師還是機器人自身?

  隨著機器人越來越聰明,用途越來越廣泛,機器人最終將面臨這樣一種情境:在不可預知的條件下做出道德判斷——在有平民存在的情況下,無人飛機是否應該對目標所在房間開火?參與地震救援的機器人是否應該告訴人們災難真相,即使那樣會引發恐慌?機器人汽車是否應該為了避免撞到行人而突然轉向,即使那樣會撞到其他人?

  1942年,阿西莫夫提出了機器人三定律:機器人不得傷害人類,或者目睹人類將遭受危險而袖手不管;機器人必須服從人給予它的命令,當該命令與第一定律衝突時例外;機器人在不違反第一、第二定律的情況下要儘可能保護自己的生存。

  看似完美的三定律在電影《我,機器人》中遇到了麻煩;在兒童和成人同時出現交通事故時,機器人會計算出成人存活率高,選擇優先救成年人,而不是兒童。在這種情況下,如何教會機器人進行道德判斷就被提上了日程。

  像人一樣學習道德

  怎麼教機器人學會道德判斷?《道德機器:教會機器人如何判斷對和錯》一書的作者之一、美國印第安納大學科學史和科學哲學系教授科林·艾倫表示,這要從人類修習德行的方法中去尋找。

  他舉例說,2010年4月的美國紐約街頭,一名見義勇為的男子在與歹徒搏鬥後奄奄一息,但在近兩個小時裡,先後有20多名行人路過卻無人伸出援手。該男子終因失血過多而死亡。人們對道德的理解有時候並不和實際行動相符。為什麼會這樣呢?

  對此,艾倫解釋說,在現實中,人們往往“本能地”做出反應,並沒有考慮行為所產生的道德問題。古希臘哲學家亞里士多德就認為,人需要在現實中不斷地踐行有道德的行為,最終使其成為一種習慣。在以後再遇到道德選擇時,才能不經思考就能表現出良好的品行。

  因此,艾倫認為,可以設計一些具有簡單規則的機器人汽車。當汽車遇到上述情況的時候,學習著去進行救助,然後再根據一些道德規範,對機器人汽車的“救助”行為進行分析和肯定,從而逐漸培養起它們的道德感。

  然而,另一個更為複雜的問題接踵而來。當人類本身尚對諸如網路下載、墮胎以及安樂死等問題的看法存在分歧的時候,工程師們也不知道應該將哪一套道德體系輸入機器人。同時,將一種價值判斷應用於具體案例時,也會有分歧。比如,在不傷害到別人的情況下,實話被認為是美德。如果說謊能促進友誼,且不傷害到雙方,這時說謊就是“對的”。基於人類道德的差異性,機器人的道德可能會有若干版本。

  當機器人像人一樣開始學習並實踐道德,它們是否會超越和取代人類?艾倫說,他現在還不擔心這一點,眼下需要做的事是如何教會機器人做出正確的道德判斷。至於怎樣的道德判斷是正確的,這個問題,恐怕連人類有時候都還沒有弄清楚。

  篇二:愛的道德

  布拉格實在非常小,小到只用半天時間就能走完。但是根據米蘭·昆德拉小說《生命不能承受之輕》改變的電影《布拉格之戀》讓它聞名於世。

  卡夫卡生前就居住在這個城市的黃金小巷22號。卡夫卡每天都要到西貝斯卡大街的雅可咖啡館裡進行思考和寫作,維持生命的就是老闆送的幾片面包,他從來不問世事。卡夫卡的特立獨行引起了一個女人的注意。她坐到卡夫卡對面,從桌子上拿起他寫好的稿紙閱讀,卡夫卡寫一頁,她便讀一篇——那是《變形計》手稿,在當時沒有誰能讀懂,但這個女人是個例外。在離開之前,她通過酒侍留下一張便箋,上面寫著:“我不得不承認,我喜歡上了你和你的作品。”

  這個女人是俄羅斯著名記者密列娜·傑森斯卡。當時她已經是一位銀行家的夫人,但是傑森斯卡對卡夫卡隱藏了這一切。從此以後,他們開始通過布拉格的綠色郵差交流情感。

  但是,1920年的一個偶然機會讓卡夫卡得知傑森斯卡原來是有夫之婦,他陷入了深深的思索。之後卡夫卡便停止了與傑森斯卡的一切聯絡。1921年,當傑森斯卡再次來到布拉格,再次來到這家咖啡館時,她沒有見到卡夫卡。熟悉的亞麻桌布下,空留了一副舊刀叉。

  傑森斯卡來到布拉格的那個晚上,卡夫卡坐在咖啡館幽暗的燈影裡給傑森斯卡寫出了最後一封信:“我現在已經記不起你臉龐的樣子呢,只有你離開咖啡桌那一霎那的背影及衣飾歷歷在目。”

  他們後來再也沒有見過面。直到卡夫卡彌留之際,人們才聽到已經處於昏迷狀態的他口裡呢喃著傑森斯卡的名字。

  不橫刀奪愛,不在愛的名義下苟且,把愛人放在光明之外,把自己放在光明之處。卡夫卡用孤寂的一生表達了自己對愛的尊重——這應該就是愛的最高道德了吧。

  篇三:1500歐元的道德底線

  我到德國留學,那天去交學費。

  交完300多歐元的註冊費和保險費之後,收費的老師給了我一張1800歐元的收據,我稀裡糊塗地收下了,到另一個房間辦其他事情。可是我知道我還有1400元的語言學費沒有交。於是我就問辦公室桌前的另一箇中國同學到哪裡交學費,她很詫異地看著我手裡的收據說:“你不是已經交過了嗎?”我立刻反應過來,是收費的人弄錯了。

  我當然知道1500歐元對於我這種窮學生來說是怎樣的一種誘惑,可是在幾秒鐘的時間內,我做出了決定,這筆錢我必須交上去。我轉身走出去找弄錯收據的那個人,結果發現辦公室的老師跟我一起出來了。他在弄清楚情況之後,很凶地批評了弄錯收據那個人,然後拍了拍我的肩膀說:“你很誠實。”我微笑著說了一聲“謝謝”,可是我心裡想的是:“其實我並非誠實,我也沒那麼高尚。”

  現在來分析一下我那幾秒鐘的所思所想。在通常的觀點上,這件事會有兩個相反的結果。

  壞的結果是誰沒交學費最終被查出來,那當然是一件面上極端難看的事情,而且對中國人的影響極壞。

  好的結果是這1500歐元歸我所有,這筆錢足夠我半年的生活費。

  可是,在深層含義上,這兩個結果所面對的道德處境都是我不能承受的。前者意味著在眾人眼中的道德敗壞,而且代表著中國人的道德敗壞,雖然這個錯誤的直接原因是德國人導致的,但是在道德上理並不在我們一方。後者呢?後者意味著我的下半輩子將永遠受到良心的拷問和譴責,因為它嚴重越過了我心中的道德底線,它將為我的人品抹上最大一筆汙點。事後很多人說:“學校那麼有錢,又不差你那一點。”可是我知道事情不是這樣看的。其中的道理,不用細說。

  事後想起這件事,覺得自己的做法完全正確。我決不能為了這1500歐元下半輩子不得安生,我買的是一片良心的清寧。為這片清寧,我寧願明年冒著烈日和暴雨去打工幹活,因為自己辛苦勞動得來的錢花得理直氣壯。

  這件事是我出國以後面對的最嚴峻的道德考驗,讓我踏實的是,它為今後可能遭遇的一切波峰浪谷開了一個好頭,遠多於誠實和高尚。