與機器人的道德
A. 機器人怎麼講道德
AJung Moon 目前是英屬哥倫比亞大學人機交互專業的博士生,也是Open RoboEthics Initiative團隊的一員。他們的任務是利用開源 Garage二代機器人,設計符合人類禮儀行為的情境。她給自己的推特取了個名字叫@RoboEthics(機器道德),相信機器人可以通過對是非的判斷來提高道德行為水平。
該情境設計非常簡單。機器人的體積比較大,電梯的空間有限,因此假設電梯只能在同一時間內搭一名乘客,首先預設機器人傳遞普通和加急信件兩種任務,機器人需要和共同搭乘電梯的研究人員對話,做出合理的請求或是退讓。Moon和團隊成員設計了以下四種反應:
做出退讓並回答「您先請,我搭下一趟電梯」。
單純站在電梯旁,一言不發。
請求先搭電梯,「我有一份重要的信件需要傳遞,請讓我先走,麻煩您先出來一下」。若請求成功,在電梯內人員出門後,立即進電梯。
或者再確認,電梯內的人員是否著急,若是,放棄請求,請他們先走。
從常理的角度出發,我們不難判斷一言不發的動作最沒有禮貌,詢問對方是否著急用電梯後再做出判斷最合乎常理。簡而言之,當機器人有加急的任務,卻一言不發地站在你的旁邊,獃獃地看著你是最不讓人舒服的;反過來,如果任務不著急,那麼機器人還是應該在對話後,請其他人先走。
如果在對話後,電梯里的人不願意出來怎麼辦呢?那也沒辦法,機器人總不能把那人拖出來,所以只能等下一趟。團隊也故意設計了一個搞笑片段。機器人很魯莽,即使碰到坐著輪椅的人,也會不管三七二十一自己先上,坐在輪椅上的人肯定會認為這個機器人很沒有禮貌。
團隊成員Moon發表了她的研究成果,旨在讓機器人的行為更人性化、更符合常見的溝通模式, 即使機器人無法分辨對錯,也需要植入「假裝」小聰明的程序。本田ASIMO的設計師也解釋說,為了讓ASIMO看起來更像人,在給客人送茶倒水之前,機器人會故意在倒完茶後暫停一會,環顧四周或客人,假裝他也明白社交禮儀。
機器人或許不會從根本上擁有判斷是非的直覺,但通過模擬人們的禮儀行為,相信它們也能成為德智體美勞全面發展的機器人。
B. 機器人是否能遵守人類的道德准則
對這些鋼鐵復機器而言,它們根制本不知道什麼是法律和道德,它們也無法對自己的行為負責——它可以判斷對方是人還是機器,但卻無法識別對方是士兵還是平民。士兵可以用常識判斷眼前的女子,究竟是身藏炸葯還是身懷六甲,但機器人根本就沒有這個能力。它們甚至會誤傷已喪失戰斗意志或能力的傷員和准備投降的士兵。
C. 機器人能做出道德選擇嗎
Asimov)(美籍猶太人,為本世紀最頂尖的科幻小說家之一)最著名的小說《機器人規則》設計了將道德標准輸入機器人的管理系統中。機器人的道德行為問題在1982年的電影《銀翼殺手》(BladeRunner)中就提到了。當克隆殺手羅伊·貝迪(Roy Batty )面臨選擇是否使它的敵人——私人偵探Rick Deckard去死的時候,貝迪選擇了去救他。 最近出版的國際期刊 Reasoning-based IntelligentSystems ,描述了一種有望使計算機在道德判斷上走在前面的方法。 葡萄牙新里斯本大學(Universidade Nova de Lisboa)的Luís Moniz Pereira與印度尼西亞印尼大學(universitas indonesia)的Ari Saptawijaya寫作的論文,模擬道德與未來邏輯( Modelling Morality with ProspectiveLogic)中宣稱:道德觀現在不只是人類哲學家的高級領域了。 Pereira和Saptawijaya認為,他們已經成功地在模仿了被稱為「電車問題」的道德困境,並且開發了一種與人類擁有相同道德標準的計算機系統。 電車問題闡明了一種典型的道德困境:是否可以傷害某個人或者更多的人來救另外的某些人?其中有許多個版本;現在讓我們來看看其中的兩個: 環境:有一輛電車正在行駛,它的司機已經昏厥了。電車正朝著五個在軌道上行走的人撞去,站台太高,路人沒有足夠的時間爬上去避讓。旁觀者版本:叫做Hank的人正站在轉換閘旁,他可以轉換電車去另一輛平行的軌道,從而使5個路人倖免於難,不過,有一個人正好站在另一條平行的軌道上,Hank轉換了閘刀,那個人就死了;不然的話,他可以什麼也不做,讓那五個人死掉。 論文的作者認為,他們已經在計算機邏輯上成功模擬了此問題。他們分析了人類隱藏的道德判斷標准,然後在計算機上模擬邏輯編程進行建模。 對機器人的道德困境的關注和機器人小說出現的時間一樣久遠。道德行為(在這個案例中,自我犧牲)在1921年的捷克劇作家Karel Capek的戲劇《羅素姆萬能機器人》(Rossum's Universal Robots)就已經可以找到,這是機器人(robot)一詞的出處。 最後,將來我們肯定完全需要調和機器人系統的行為責任的合理性。我們需要花足夠時間在科幻小說家為我們提供的,有關自動機器人和計算機在道德問題上。可是我們確完全沒有足夠的時間來完善我們自己的思想。(環球科學編譯羅麗聰)
D. 未來,AI機器人是否應該具備倫理道德
機器人倫理學家就是那些為機器人和人工智慧的倫理和社會影響及其後果而擔憂的人。所以,從某種程度上說,我是一個專業的擔憂者。
探尋人類——包括人類工程師、機器人製造商和維護者、維修人員等等,也就是每個與人工智慧和機器人有關的人,應該如何採取負責任和道德的行為,盡量減少人工智慧和機器人對我們的社會,我們每一個人以及我們的星球帶來的不必要的道德後果和危害,如果人們願意的話。
目前,唯一的完整意義上的道德主體是像你我一樣的成年人類,當然不是所有的人類,是心智健全的成年人類。當然,我們並不能人工建立一個類似的道德主體,所以,我們目前能做到的就是在有限的意義上建立較低級別的道德機器人,它們可以根據特定的倫理規則來選擇它們的行為。但是,不像你我,它們不能決定是否要遵守道德,當然也不能在事後證明它們自己的行為是正確的。
E. 強迫機器人士兵犧牲道德嗎
如果是在戰場,少談感情,多看實益。若是犧牲少量機器人士兵能避免更大傷亡,那隻能犧牲少量機器人。
F. 如何對機器人進行道德教育
很顯然,無論機器人學家如何設計機器人,只要出了事律師還是會起訴人,而非機器人內。此外,如果我們容依然遵循傳統的產品責任法的話,那麼毫無疑問引入這種道德設置選項一定會讓用戶和廠商面臨更多的新型責任訴訟,正如知情同意書的出現在醫療領域引起的各種糾紛一樣。
盡管如此,還是有越來越多的人相信我們需要在法律上重新認真思考,我們是否對無人駕駛汽車和其它類型的機器人實行了合理的管制。
首先,我們可以考慮將製造商未能及時與用戶在涉及道德選擇的問題上達成知情同意書的情況,視為產品存在缺陷。正如當醫生未能在執行一種醫學治療前與病人達成知情同意書時,將被視為不作為一樣,我們也可以認為如果製造商在無人駕駛汽車的設計和其它技術方面對用戶個人的具體道德偏好不尊重的話,將需要對由此引起的問題承擔一定的責任。這個方案可能會讓無人駕駛汽車的設計復雜度增加。不過,誰說過製造機器人是一件很簡單的事情嗎?
G. 人類最大的難題:如何保證機器人的倫理道德
如何保證機器人的判斷和行為符合人類倫理道德,包括保證它不為了滿足主人的要求而違背人類倫理道德呢?在機器人越來越智能化,越來越普及的時候,這些問題將會成為人類面對的最大難題。
H. 所謂機器人的道德標准,這有用嗎
沒道德道德 技能拿用 要槍機械肯定要加 加肯定虧
PK至尊 每基本都斗猥瑣 槍機械該內玩機械
沒哪職業槍重容火器BBQ吧 照面說全轉槍算
自試 機械關鍵候 炸死 作用顯易見
能其意解決手技能呢
我槍 廣1 至尊2 至尊漫遊 彈葯 都機械 信自實踐
能P至尊簡單 都機械 說明機械非重要技能
信信罷
I. 智能機器人應不應該具備人類的基本「道德」
應該具備,這樣他們才能更好的生存下去,不然他們逐漸的發展下去的話,只能被銷毀掉。