

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
1、<p> “物倫理學(xué)”視閾下機器人的倫理設(shè)計</p><p> [摘要]自治型機器人作為高科技時代的產(chǎn)物已退步走進人類世界,人們在與機器人互動的過程中會產(chǎn)生諸多倫理問題和安全問題。“物倫理學(xué)”是當(dāng)前哲學(xué)研究中“物轉(zhuǎn)向”在倫理學(xué)領(lǐng)域內(nèi)的映射,這要求我們關(guān)注物的倫理性,對智能機器人這種物行為體納入責(zé)任環(huán)中進行道德責(zé)任的考量,在人體安全、安全關(guān)鍵系統(tǒng)的調(diào)節(jié)機制、工程師、安全文化和高可靠性組織(HRO)等諸
2、多方面進行倫理設(shè)計,以期在機器人倫理學(xué)的框架內(nèi)把物行為體善建為“理想人”。 </p><p> [關(guān)鍵詞]機器人 物倫理學(xué) 自治行為體 倫理設(shè)計 責(zé)任環(huán) </p><p> ?。ㄖ袌D分類號]B82-057 [文獻標(biāo)識碼]A [文章編號]1007-1539(2013)03-0133-06 </p><p> 隨著新興科技的出現(xiàn)及其機械化程度的提升,智能化、自治型機
3、器人開始走進了我們的生活視野。面對機器人行業(yè)的出現(xiàn)與發(fā)展,計算機行業(yè)的重要締造者比爾·蓋茨給出了鮮明的洞見:“機器人行業(yè)的出現(xiàn)……正如30年前計算機行業(yè)一樣正在蓬勃發(fā)展?!彼帧澳柖伞辈孕旁诓痪玫膶?,機器人的飛速發(fā)展將會達到和當(dāng)今計算機一樣的普及程度。然而,另一方面,“機器人在可預(yù)見的未來將面臨人類道德的拷問,也面臨擔(dān)負(fù)著人類道德和法律的責(zé)任”。美國著名計算機倫理學(xué)家詹姆斯·摩爾以及黛博拉·約翰遜
4、也警醒世人關(guān)注機器人倫理學(xué)。呼吁為未來機器人奠定道德性根基。 </p><p> “物倫理學(xué)”是當(dāng)前哲學(xué)研究中“物轉(zhuǎn)向”在倫理學(xué)領(lǐng)域內(nèi)的映射,是當(dāng)前哲學(xué)研究中的一個重要動向。在“物倫理學(xué)”的轉(zhuǎn)向下,對自治型機器人進行倫理考量是高科技時代人類需要持有的責(zé)任倫理,是前瞻性倫理原則和關(guān)護性倫理學(xué)的題中要義。我們把機器人這樣的人工物看作道德主體,并在社會技術(shù)系統(tǒng)中進行道德分配的基礎(chǔ)上,以“嵌入”道德的方式(即實行“物倫
5、理”)對機器人進行倫理設(shè)計,消弭機器人的安全問題,以期機器人在“需求工程”的大框架中表現(xiàn)為一個道德完備的人工物行為體。 </p><p> 一、機器人倫理設(shè)計的必要性 </p><p> 機器人作為智能行為體是新興技術(shù)中最具前沿和發(fā)展空間的技術(shù)之一。然而,歷史經(jīng)驗證明,缺乏道德性的高智能機器很可能變得肆無忌憚,具有破壞性。因此,智能機器必須加入倫理因素的考量,對其進行倫理規(guī)制。 <
6、;/p><p> ?。ㄒ唬┤伺c機器人的交互與合作 </p><p> 高智能機器人能夠由自然語言控制。安裝在夾具上的攝像機可以模擬人的視力功能,驅(qū)動器為機器人的行動提供足夠的動力,機械手臂也顯得越來越靈活。然而,最為重要的是,機器人可以通過傳感器的輸入和用戶的語音命令與周圍環(huán)境進行交互,并能保持對周圍環(huán)境的實時反饋。對于人類來說,兼具理性并能夠與人類進行交談的機器人是全新的挑戰(zhàn),尤其對于具有
7、靈活移動能力并能自由行進的機器人更是如此,例如具有代表性的日本“阿西莫(ASIMO)”和美國“漢森(Hanson)”機器人就已經(jīng)具備了面部情緒表達的類人型功能,表現(xiàn)出與人類進行全面交互的獨特能力。 </p><p> 智能機器人具有復(fù)雜的“人一機交互”的性質(zhì),交互的雙方可以是人類,也可以是機器人,人與機器之間的物理邊界變得模糊并逐漸融合。專家機器人可能在一個群體組織中擔(dān)任領(lǐng)導(dǎo)的角色,它可以基于數(shù)據(jù)庫里有效的知識
8、提出最佳解決方案。除此之外,機器人可以快速運行復(fù)雜的邏輯計算,并作出最優(yōu)化的決策。不但人與機器存在著交互,而且機器人之間也可以形成交互,比人類更有效率地從數(shù)據(jù)庫中汲取信息。 </p><p> ?。ǘ靶枨蠊こ獭敝械臋C器人倫理責(zé)任 </p><p> 機器人設(shè)計師對機器人的功能和行為負(fù)有特殊責(zé)任。對我們來說,在“需求工程”的核心活動中的特殊利益就在于分析、討論和引導(dǎo)確保機器人的倫理需求
9、的設(shè)計。“需求工程”既是一個宏觀層面上的組織活動(判定產(chǎn)品中需要嵌入什么樣的需求),又是一個微觀層面上關(guān)于最終需求的項目活動。因此,我們要把主要觀點放在“需求工程”的整體特征上,將目光聚焦在宏觀層面的需求上,構(gòu)建具有倫理設(shè)計的智能化自治型機器人。 </p><p> 然而,不少學(xué)者也提出了不同的意見,他們擔(dān)心在構(gòu)建人工物的道德特征上可能造成人類逃避責(zé)任。如提出“物倫理學(xué)”的荷蘭學(xué)者維爾貝克(Verbeek)強調(diào)
10、:“工程倫理大多聚焦于設(shè)計者的責(zé)任和道德決策,其余的則擴展到技術(shù)本身的意義方面。然而,這些關(guān)于非中性技術(shù)的分析使得工程倫理把一些道德歸咎于人工物就不免顯得有些牽強了?!彼J(rèn)為除了設(shè)計之外,能夠?qū)崿F(xiàn)其應(yīng)用價值也是定義人工物的一個重要方面。維爾貝克的重點在于闡明為什么要對機器人進行倫理設(shè)計,并且不能對設(shè)計師、制造商和其他利益相關(guān)者進行責(zé)任豁免。 </p><p> 瑞典馬蘭德蘭大學(xué)(Mlardalen Univer
11、sity)的G.道濟格·森科威克(Gordana Dodig Crnkovic)教授和皮爾森(Persson)教授也提出了類似的觀點:“社會技術(shù)系統(tǒng)要求把道德責(zé)任看作是一個道德分配網(wǎng)絡(luò),對具有道德意義的工作任務(wù)必須要被視為道德責(zé)任,即使行為主體是一臺智能機器也應(yīng)具有道德責(zé)任?!?</p><p> (三)機器人的安全問題 </p><p> 自20世紀(jì)50年代工業(yè)機器人出現(xiàn)以
12、來,機器人就已經(jīng)成為各生產(chǎn)工序中的一個重要部分從而走進了我們的生活,并深刻改變著我們的生存世界。在電子領(lǐng)域,計算機科學(xué)和機電一體化的發(fā)展使這些智能工具更加完善,能力也得到了增強,這也使得其在非工業(yè)領(lǐng)域的應(yīng)用得到了飛速發(fā)展。我們可以想象,在不久的將來,從娛樂行業(yè)到醫(yī)療行業(yè),從私人住宅到公共場所,都將遍布著各式機器的身影,甚至我們的環(huán)境也會受到周圍電子設(shè)備的影響而變得兼具智能性和適應(yīng)性,并能與人類進行良好的溝通。 </p>&
13、lt;p> 安全問題是所有新技術(shù)相關(guān)事務(wù)中最為重要的問題。我們需要明確的是,無論是工業(yè)機器人還是社會機器人的發(fā)展,它們都對人類的安全構(gòu)成了挑戰(zhàn),這種境況具有長期性和艱巨性。為了解決該問題,在工業(yè)機器人領(lǐng)域中,制造商、終端用戶以及其他涉眾已經(jīng)起草和頒布了一系列相關(guān)安全準(zhǔn)則與法規(guī),例如,韓國信息通訊部在2008年頒布的《機器人道德憲章》,日本頒布了《下一代機器人安全問題指導(dǎo)方針(草案)》等。 然而,在安全問題的解決機制上,我們
14、僅僅把機器人在工業(yè)應(yīng)用領(lǐng)域的經(jīng)驗直接拿來解決非工業(yè)領(lǐng)域的問題是不恰當(dāng)?shù)?。其原因在于,雖然當(dāng)今工業(yè)機器人領(lǐng)域經(jīng)歷了一次重大變革,人們可以把工業(yè)機器人禁錮在柵欄內(nèi),以防其與人過近接觸而引發(fā)安全問題,但是在將來,智能機器人將變得能夠自由移動,并能夠與人類密切交互。這些新情況將給機器人的安全問題帶來新的挑戰(zhàn)。 </p><p> 二、物倫理學(xué)對人工智能的適用性 </p><p> G.道濟格&
15、#183;森科威克(G.Dodig Crnkovic)和皮爾森(Persson)都強調(diào)了人工智能和人工道德的相似性:“人工智能被定義為一種人工物行為體能夠完成傳統(tǒng)上只有人類智能才能完成的任務(wù)過程中所具有的一種能力;人工道德被定義為一個人工物行為體按照人類道德的標(biāo)準(zhǔn)進行行為時所表現(xiàn)出的一種能力?!庇纱?,我們得知,雖然人工智能和人類智能不屬于同一現(xiàn)象,但它們都能夠產(chǎn)生相同的特定行為。隨著人工物變得越來越智能化和自治化,我們期望它們能夠遵守我
16、們?nèi)祟惖膬r值體系和道德規(guī)范。 </p><p> 與經(jīng)典道德責(zé)任理論相比,“物倫理學(xué)”是一種實用道德責(zé)任。從宏觀層面上看,像智能機器人這種物行為體在社會技術(shù)系統(tǒng)中也擔(dān)負(fù)著巨大責(zé)任,這是大科技時代中倫理責(zé)任的題中要義。因此,這就要求我們在物倫理框架內(nèi)尋求對人工物的行為規(guī)制。 </p><p> ?。ㄒ唬┪镄袨轶w在社會技術(shù)系統(tǒng)中擔(dān)負(fù)的責(zé)任 </p><p> 有關(guān)技
17、術(shù)產(chǎn)品系統(tǒng)的責(zé)任問題必須把設(shè)計者、制造商、用戶以及技術(shù)產(chǎn)品自身都考慮在內(nèi)。人類行為體可以通過工程和操作指令影響物行為體的道德,然而,作為在社會技術(shù)系統(tǒng)中的人工物也可以限制和影響人類。盡管如此,人類和技術(shù)之間的關(guān)系研究直到現(xiàn)在還一直強調(diào)從研發(fā)環(huán)節(jié)上對設(shè)計師和制造商進行倫理規(guī)制。然而,當(dāng)我們看到全球社會技術(shù)系統(tǒng)的巨大進展時,我們應(yīng)該認(rèn)識到,應(yīng)把物行為體納入到整個社會技術(shù)系統(tǒng)中進行倫理考量。 </p><p> 人工
18、智能的生產(chǎn)和使用增加了社會技術(shù)系統(tǒng)的復(fù)雜性。甚至當(dāng)今機器人也被當(dāng)作一種智能化自治工具而被賦予倫理功能。然而,技術(shù)不是價值中立的,對于有道德相關(guān)性的任務(wù)來說是具有責(zé)任的,這些應(yīng)當(dāng)通過“功能性道德責(zé)任”(通過對物行為體進行功能結(jié)構(gòu)的設(shè)計進而使其擔(dān)負(fù)倫理責(zé)任)來完成。這正如美國印第安納大學(xué)科學(xué)哲學(xué)與歷史系的科林·艾倫(Colin Alien)教授所指出的那樣:“無論人工物的道德是否具有真正的道德,人工產(chǎn)品的行為都會產(chǎn)生道德后果。這不
19、能簡單地說他們可能導(dǎo)致傷害,相反地,我們需要明確這樣的事實,人工物所引發(fā)的危害可以通過行為體自身進行調(diào)節(jié)和規(guī)制?!?</p><p> 首先,經(jīng)典道德責(zé)任——道德責(zé)任是一種個人責(zé)任。道德責(zé)任是主體倫理行為中最重要的內(nèi)容。道德責(zé)任的兩種主要方法是經(jīng)典道德責(zé)任方法和實踐道德責(zé)任方法,其中經(jīng)典道德責(zé)任認(rèn)為機器不肩負(fù)責(zé)任,而實踐道德責(zé)任則認(rèn)為人工智能機器依據(jù)其智能程度而具有不同的功能性責(zé)任。 </p>&
20、lt;p> 美國斯坦福大學(xué)的埃謝爾曼(Eshleman.A)、索諾馬州立大學(xué)的蘇林斯(SulHns)和芬蘭奧陸大學(xué)的西坡恩(Siponen)都反對把道德責(zé)任歸咎于人工智能系統(tǒng),他們認(rèn)為對人工智能系統(tǒng)的贊揚或責(zé)備就像對一個物行為體一樣都是無意義的。美國著名文化傳播學(xué)者尼森鮑姆(Nissenbaum)認(rèn)為,判定一個行為體是否對一個行為具有道德負(fù)責(zé),通常要考慮兩個方面:“因果責(zé)任”和“精神狀態(tài)”。一般認(rèn)為,只有人類才被認(rèn)為具有道德行為
21、能力。人類行動能力的基礎(chǔ)是“意向(intention)”,因為“意向性”賦予了人們能夠從錯誤的事物中進行學(xué)習(xí)的能力,這被視為人類特有的能力。 </p><p> 同樣地,信息哲學(xué)家盧西亞諾·弗洛里迪(Luciano Floridi)也反對把道德責(zé)任歸于人工智能系統(tǒng),他認(rèn)為人工智能系統(tǒng)不具有“意向性”這樣的精神因素。然而事實上,即使對于人類來說,意向性也只是建立在被觀察對象的行為表現(xiàn)的基礎(chǔ)上,因為我們無
22、法完全洞悉人類大腦的內(nèi)部運作。 </p><p> 以上觀點主要出于人工智能主體是一個孤立實體的觀點。然而,為更好地解答這個道德責(zé)任問題,我們必須把智能行為體看作是一個“社會技術(shù)組織”系統(tǒng)的一部分。從該維度講,責(zé)任在這樣一個復(fù)雜的系統(tǒng)中是分配式的和網(wǎng)絡(luò)式的,智能機器在一定程度上肩負(fù)著重要的角色。 </p><p> 總之,人工智能技術(shù)正飛速發(fā)展,具有自治型的智能行為體將會變得更加先進,
23、以至于我們把機器人劃為具有“意向性”精神狀態(tài)的物將不成問題,因此,對于人工智能機器來說,兼具因果責(zé)任和意向性的“精神狀態(tài)”也都將會實現(xiàn)。 </p><p> 其次,實用道德責(zé)任——道德責(zé)任是一種系統(tǒng)責(zé)任?!耙庀蛐浴眴栴}和行為體的自由意志都很難解決工程科學(xué)中出現(xiàn)的實際情況,例如關(guān)于自治型機器人的具體開發(fā)和使用就是明證。對此,美國斯塔夫大學(xué)哲學(xué)系教授丹尼特(Daniel C.Dennett)認(rèn)為,我們不能僅僅把道德
24、責(zé)任理解為一種個人責(zé)任,而是要把其看作一組“外在主義實用準(zhǔn)則”。我們應(yīng)該采用這種更接近于機器人應(yīng)用程序的實用方法。 </p><p> 對此,科林·艾倫(Colin Allen)引入“工具性方法(Instrumental approach)”:把道德責(zé)任看作是一個系統(tǒng)責(zé)任、一種社會調(diào)節(jié)機制,其旨在增強人們認(rèn)為是善的行為,減少惡的行為。因此,對于一個能行使任務(wù)并能自行評估其后果的行為體來說是肩負(fù)責(zé)任的。
25、他認(rèn)為,當(dāng)成熟的道德行為者可能超越當(dāng)今和未來的技術(shù)時,我們采用“工具性方法”,然而,在適用性道德和“真正的(genuine)”道德行為體之間還存有很大的空間。這就是我們確定為“功能性道德”的利基。美國羅格斯大學(xué)的阿薩羅同樣認(rèn)為,我們把機器人看作是一種社會技術(shù)系統(tǒng),隨著機器人表現(xiàn)出越來越復(fù)雜的行為時,它們將被賦予更大的道德權(quán)限,這就要全面考察機器人的道德責(zé)任問題。 </p><p> 綜上所述,道德責(zé)任是行為體的
26、行為方式,這就要求行為體應(yīng)遵循可接受性的道德準(zhǔn)則。這些可接受性的道德準(zhǔn)則影響著行為體在分配責(zé)任中的行為表現(xiàn)。 </p><p> ?。ǘ┪飩惱韺W(xué)對機器人行為進行規(guī)制 物倫理學(xué)和人工智能兩者是一種平行關(guān)系。倫理規(guī)范對于特定的人工物行為體類型來說也是特定的。當(dāng)然,這并不是說豁免工程師的道德責(zé)任,相反地,根據(jù)預(yù)防原則(相當(dāng)于約納斯的“關(guān)護倫理”和“責(zé)任倫理”),工程師被期望在道德上可以對物行為體進行倫理設(shè)計。
27、</p><p> 我們認(rèn)為,包括自治型智能機器人在內(nèi)的社會技術(shù)系統(tǒng)的道德責(zé)任,應(yīng)該遵循實用主義的路徑,把其當(dāng)作一個調(diào)節(jié)機制來看待。出于實用的目的,自治型智能系統(tǒng)和“高可靠性組織”(HRO)一樣,都面臨著在復(fù)雜性風(fēng)險下安全運行的境況,因此,應(yīng)把責(zé)任問題納入到一個整體責(zé)任環(huán)中進行倫理探討,用物倫理學(xué)對機器人行為進行規(guī)制進而解決相關(guān)安全問題和倫理問題。 </p><p> 三、機器人倫理學(xué)
28、在責(zé)任環(huán)中的設(shè)計 </p><p> 共同擔(dān)責(zé)的復(fù)雜系統(tǒng)應(yīng)該保證“人機”混合組織的安全性。因此,必須把具有自治型人工智能物的發(fā)展納入到一個責(zé)任環(huán)中進行倫理設(shè)計。這為設(shè)計師、制造商、用戶處理問題奠定了思想基礎(chǔ),為其后果評估和技術(shù)的使用提供了一個解決途徑。 </p><p> ?。ㄒ唬┽槍θ梭w安全的倫理設(shè)計 </p><p> 人身安全是人類與人工智能機器的交互中必
29、須考量的重要問題之一。這主要表現(xiàn)為兩個方面:一方面,指有利于增強人類安全度的機器人,主要包括在危險環(huán)境中的作業(yè)機器人和救援機器人等;另一方面,指具有承受強大負(fù)荷能力的機器人,主要包括需要大幅度移動并可能對人類造成身體傷害的機器人。 </p><p> 可能出現(xiàn)安全問題的環(huán)節(jié)包括人機協(xié)作、機器人與機器人的交互等方面。針對這些安全問題,通常采用安全標(biāo)準(zhǔn)來對人工智能物進行安全問題的規(guī)制。例如,美國新頒布的“工業(yè)機器人
30、安全運行標(biāo)準(zhǔn)”(ANSI/RIA/1S010218-1:2007)就是為了規(guī)制新興機器人技術(shù)的安全問題。該標(biāo)準(zhǔn)的制訂和頒布對于諸如軟件機器人、認(rèn)知機器人和其他人工機器來說,都是極其必要的。 </p><p> ?。ǘ┌踩P(guān)鍵系統(tǒng)的調(diào)節(jié)機制設(shè)計 </p><p> 面對高新科學(xué)技術(shù)的發(fā)展,人們應(yīng)該對可能產(chǎn)生社會不利影響的智能系統(tǒng)保持審慎的態(tài)度。對此,我們應(yīng)像對待其他技術(shù)的發(fā)展一樣,對人工
31、智能技術(shù)的發(fā)展采取“預(yù)防原則”。根據(jù)預(yù)防原則,我們能合理預(yù)見其發(fā)展趨勢及道德后果。 </p><p> 審視人工智能的實際應(yīng)用方面,大家最為關(guān)注的是安全關(guān)鍵系統(tǒng)問題。在航空航天、交通和醫(yī)療等“安全關(guān)鍵系統(tǒng)”的經(jīng)驗基礎(chǔ)上,不同等級的組織通常都需要做好應(yīng)對各種事故的準(zhǔn)備。有人認(rèn)為,支持它們功能的社會技術(shù)結(jié)構(gòu)是由預(yù)防和減少故障的安全屏障所組成的。這正道出了安全關(guān)鍵系統(tǒng)中的倫理設(shè)計問題的核心:要確保系統(tǒng)能夠正常安全運行
32、,就必須通過減少反常和意外事故來進行補充。 </p><p> 宏觀層面的安全保障必須考慮技術(shù)、管理、使用和影響等多個層面的問題。對于工程師來說,真正倫理方面的憂慮則是風(fēng)險識別與評估,以及安全保障問題。 </p><p> ?。ㄈ┕こ處煹牡赖略O(shè)計 </p><p> 從以上提到的經(jīng)典道德責(zé)任和實踐道德責(zé)任的分歧可以看出,對于物行為體是否具有道德意蘊的問題,許多
33、學(xué)者存在著正反兩方面的觀點。然而,我們在宏觀層面上可以把該問題看作是“需求工程”問題。我們關(guān)注的焦點是道德責(zé)任的肩負(fù)主體問題,具體來說也就是自治型人工產(chǎn)品的出現(xiàn)可能導(dǎo)致人類把全部責(zé)任推卸給機器人的問題。 </p><p> 因此,調(diào)動工程師關(guān)注智能(計算機)人工產(chǎn)品則顯得尤為重要。美國伊利諾伊大學(xué)計算機科學(xué)系的凱思·W.米勒(Keith W.Miller)教授率先發(fā)起了“計算機相關(guān)人工產(chǎn)品道德責(zé)任的規(guī)
34、則”的討論。他“重申了對(計算機)人工物產(chǎn)品保有道德責(zé)任的重要性,并警醒每個人和科研機構(gòu)在生產(chǎn)和使用(計算機)人工物產(chǎn)品時都要牢記自己所肩負(fù)的責(zé)任”。此外,凱思·W.米勒還組成了一個“國際責(zé)任計算機特設(shè)委員會”,該委員會由50名專家組成。在該委員會制訂的27條現(xiàn)行草案中總共提出了五個規(guī)則,其中的首要規(guī)則就是:“從事設(shè)計、開發(fā)計算機人工智能產(chǎn)品的人們都對其肩負(fù)道義上的責(zé)任,都對人工智能產(chǎn)品的社會效應(yīng)肩負(fù)責(zé)任。該責(zé)任應(yīng)該與其他從事
35、于設(shè)計、開發(fā)以及專門從事于把人工智能產(chǎn)品當(dāng)做社會技術(shù)系統(tǒng)一部分來使用的人們共同擔(dān)負(fù)?!?</p><p> (四)安全文化和高可靠性組織(HR())的設(shè)計 </p><p> 機器人安全是機器人倫理設(shè)計的一個最基本的問題。根據(jù)安全性要求,可靠性(reliability)是最重要的行為考量準(zhǔn)則。安全設(shè)計是指鼓勵產(chǎn)品設(shè)計師在開發(fā)過程中“設(shè)計出”既健康又能規(guī)避安全風(fēng)險的一個概念。安全設(shè)計大致
36、分為兩條防線:“第一條防線”在于構(gòu)建安全風(fēng)險中恰當(dāng)?shù)墓こ探鉀Q方案;“第二條防線”作為“第一條防線”的補充,是一種旨在減少各種風(fēng)險的安全文化(主要包括管理程序、防護措施等)。“兩條防線”相結(jié)合可以培養(yǎng)一個人預(yù)知安全威脅和建立預(yù)防措施的能力。 </p><p> 安全文化是一種調(diào)控機制,旨在社會技術(shù)系統(tǒng)中建立一個高可靠性安全機制。此外,安全文化也可以看作是管理層和員工共同承諾并進行實施的一系列安全保障活動。因此,安
37、全文化的基礎(chǔ)是高效、開放和透明的溝通,它在承認(rèn)安全風(fēng)險存在的前提下,主動發(fā)現(xiàn)和消除潛在的危險和隱患。“要建立安全文化,組織就必須從錯誤中不斷改正。一種安全文化應(yīng)意識到錯誤的存在,安全文化作為企業(yè)的一部分,應(yīng)該以一種非懲罰性方式來規(guī)制錯誤行為?!?</p><p> 自治型機器人作為計算機的一種應(yīng)用拓展,被廣泛用于諸多復(fù)雜性、高危性組織部門中,在高可靠性組織(HRO)中具有重要性地位。因此,保障高可靠性組織(HR
38、O)的安全設(shè)計和倫理設(shè)計是解決機器人在責(zé)任環(huán)中設(shè)計的重要內(nèi)容和環(huán)節(jié)。 </p><p> 總之,在當(dāng)前情況下,我們需知確保系統(tǒng)的安全性才是最重要的目的,這就要求高可靠性組織(HR())通過不斷學(xué)習(xí)和改進組織行為程序來實現(xiàn)?!鞍踩O(shè)計”既是安全文化的主要內(nèi)容,也是預(yù)防原則的題中要義。它對于一切新技術(shù)的出現(xiàn)都保有一種前攝性態(tài)度,這為我們在宏觀層面上探討道德機器人的“需求工程”提供了有益的借鑒。 </p>
39、<p><b> 結(jié)語 </b></p><p> “在科技哲學(xué)中,物轉(zhuǎn)向意味著其擺脫先驗研究路向,關(guān)注經(jīng)驗研究;在科技倫理學(xué)中,物轉(zhuǎn)向意味著其擺脫人類中心主義,關(guān)注物的倫理性。”因此,機器人倫理學(xué)的勃興可以看做是哲學(xué)中的物轉(zhuǎn)向在科技倫理中的回應(yīng)。為了確保物行為體的行為具有道德性,我們需要對機器人進行倫理設(shè)計。物倫理是人工智能技術(shù)發(fā)展的道德性要求,兩者是相互依存、并行不悖的
40、:人工智能的發(fā)展需要倫理設(shè)計和道德規(guī)制,同樣只有物倫理的植入才能保證人工物融入人類社會。 </p><p> 當(dāng)然,由于科技的進步,技術(shù)應(yīng)用所引發(fā)的新現(xiàn)象和新問題將會層出不窮。在“需求工程”框架下對機器人進行倫理設(shè)計的思想可能不會立即實現(xiàn),我們也不能一勞永逸地完成機器人的倫理設(shè)計,這需要我們作出長期的努力并逐步地完善。正所謂“路漫漫其修遠(yuǎn)兮”,我們期望未來的機器人行為體兼具“理想人”一樣的道德品質(zhì),期望機器人的
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 醫(yī)學(xué)倫理學(xué)與倫理學(xué)的屬性
- 倫理學(xué)視閾下的女性幸福.pdf
- 倫理學(xué)視閾下的課堂優(yōu)化探微
- 倫理學(xué)教案非倫理學(xué)專業(yè)
- 倫理學(xué)視閾下的“走捷徑”治理研究
- 倫理學(xué)視閾下的課堂優(yōu)化探微.pdf
- 和諧農(nóng)村社會秩序的倫理學(xué)視閾
- 設(shè)計的倫理學(xué)思考
- 倫理學(xué)視閾下的當(dāng)代幸福問題研究
- 文學(xué)倫理學(xué)視閾下赫索格中猶太文化倫理研究
- 醫(yī)學(xué)倫理學(xué)
- 教師倫理學(xué)
- 倫理概念及倫理學(xué)淺析
- 生命倫理學(xué)
- 《護理倫理學(xué)》
- 通俗倫理學(xué)
- 社會倫理學(xué)
- 生命倫理學(xué)
- 《倫理學(xué)與現(xiàn)實生活——應(yīng)用倫理學(xué)引論》
- 和諧農(nóng)村社會秩序的倫理學(xué)視閾.pdf
評論
0/150
提交評論