【編者按】因為隨著科技的發(fā)展志笼,科學家們給出的定義被不斷刷新韭脊。通常認為,對自己具有一定的控制和感知能力塞帐,能夠自主完成一定的動作的機器裝置拦赠,就可以算做機器人。
最近葵姥,位于德國的一家汽車制造廠里荷鼠,一臺高度自動化的機器人突然出現(xiàn)了錯誤操作,抓起旁邊的一名安裝工人献舍,摔向了一塊金屬板逛指,造成該工人不幸罹難。消息一出苟及,輿論嘩然:加上不久之前剛剛上映的電影《超能查派》骤转,很多人開始擔心,以后科技進步了,會不會出現(xiàn)特別聰明的機器人锚蛀,背叛了人類的意志曙悠,最終成為《終結者》里那樣主宰世界的機器霸主?另外廊畔,如果機器人真的殺人了影其,誰該為這樣的兇殺承擔責任脖煮?
其實啊贬奢,這事還真沒那么可怕啦。
啥是機器人蜀骗?
在討論之前悦追,我們不妨先來劃定一個范圍,什么樣的東西限寞,才算是機器人呢忍啸?
實際上,這個問題并沒有確切的答案履植,因為隨著科技的發(fā)展计雌,科學家們給出的定義被不斷刷新。通常認為玫霎,對自己具有一定的控制和感知能力凿滤,能夠自主完成一定的動作的機器裝置,就可以算做機器人庶近。
這里所說的“自主”翁脆,又有兩層意思:第一種,是按照人類預先給它設定好的程序鼻种,按部就班地執(zhí)行下去反番,實現(xiàn)人類設計好的功能。這種機器人如今已經(jīng)非常普遍叉钥,大到登月的“玉兔”號探測器罢缸,小到家用的掃地機器人,都屬此類码累。
也就是說譬椰,這類機器人要去做什么事情,都是它的制造者說了算的锦镶,它只是一個工具虑庇,并不擁有真正的自主意志——和原始人手里的石斧并沒有本質(zhì)差別;區(qū)別只在于這種工具比較“聰明”偶屯,能夠根據(jù)實際工作的情況光丢,更靈活、更精確地實現(xiàn)主人設定的程序,完成更加復雜而精確的行動镰掐,就像在坑洼不平的路面孕序,坐汽車肯定比坐牛車舒服。
第二種就有點嚇人了炸诚,這種機器人擁有一定的人工智能(AI)递市,能夠自主學習和獨立思考,在人類給它設定的程序之外碗屏,實現(xiàn)人類沒有教給它的功能唁情,就像電影里的查派和終結者。這種機器人的行為是不可預測的甫匹,就像我們看到一個襁褓中的孩子甸鸟,也不可能知道他將來會成為怎樣的人,做出怎樣的事情來兵迅?
真會殺人抢韭?
提到機器人“謀殺”人類的問題,第一種機器人顯然不在討論之列恍箭,因為正常情況下它們并沒有被設定殺人的程序刻恭,哪怕是真的判斷失誤而誤傷人類,那也只能是意外事故扯夭;即便是有誰使壞鳍贾,故意給機器人裝了危險的指令,此刻的機器人依然還是一個工具而已勉抓,并沒有自主的意志贾漏。
這一類機器人致人死亡的事情,實際并不算罕見藕筋,比如本文開頭提到的這起事故键腹。理由也很簡單,任何人類制造出來的東西蒂抒,都不可能100%地確保不出故障溪客;而越是功能復雜、制造精密的系統(tǒng)先兆,發(fā)生故障的概率就越難降低肢箕。回想一下爵例,這些年人類發(fā)射的無人航天器牲支,從菲萊、玉兔到新視野號豌淹,盡管都代表了當時最先進的科學技術窥血,但多多少少都有掉過鏈子婶耕。
機器出了故障就有可能對人類造成傷害,人類能做的只能是盡量降低故障率牢辣,加強安全防護赖厅,卻不能因噎廢食,放棄機器人的運用晾咪。全世界范圍內(nèi)收擦,因為汽車出現(xiàn)故障而致人類死亡的案例每天、每小時甚至每分鐘都在發(fā)生谍倦,但汽車依舊是人類最青睞的機器塞赂;同理,我們也沒有必要對機器人苛求永不犯錯剂跟。
盡管從理論上說减途,第二種機器人完全可能以“自主的決定”去殺害人類酣藻,但令人寬慰的是曹洽,囿于科技的發(fā)展水平,目前世界上還沒有造出一種和人類能力接近的人工智能(AI)辽剧,所以我們暫時還不用擔心這事送淆。
但是,還有一類介于這兩者之間的機器人怕轿,還真的可能會成為人類的殺手偷崩,那就所謂的戰(zhàn)爭機器人(killer robot)。
目前大家所熟悉的“掠食者”無人機撞羽,本質(zhì)就是戰(zhàn)爭機器人欣挠,但它依然屬于我們說的第一類機器人,導彈要鎖定誰蚀攘、要不要發(fā)射都是由坐在基地里的人類遙控決定的怕枣。然而,一些國家已經(jīng)在研制自動化程度更高的戰(zhàn)斗機器人嘴略,允許它們在戰(zhàn)場上自主尋找庸既、選擇目標,再自己決定是否開火卑蚓。顯然技熊,這類機器人如果出現(xiàn)故障或者誤判,后果會比工廠里的焊接機器人嚴重得多径泉。 今年3月望吧,聯(lián)合國秘書長潘基文先生曾公開呼吁各國停止此類研究,但似乎效果很有限缰兄。
如何預防俊炒?
可以預見的是菌劲,制造機器人的科學技術仍會不斷發(fā)展,而人類對于機器人的運用也會越來越廣泛子姜,無論是居家生活祟绊、工業(yè)生產(chǎn)中都是如此。比如哥捕,谷歌公司一直在研究的無人駕駛汽車牧抽,或許數(shù)年之后就會行駛在馬路上。
因此遥赚,如何盡量避免“機器殺人”的危險出現(xiàn)扬舒,就是一個很有現(xiàn)實意義的問題了。
對于第一種機器人(也就是目前使用的機器人)而言凫佛,除了在設計讲坎、調(diào)試時更加謹慎之外,最實際的措施就是減少人類和機器人直接接觸的機會愧薛。對于有固定工作地點的機器人(比如流水線上的機器臂)晨炕,可以設置物理隔離并劃定危險區(qū)域,禁止無關人員靠近毫炉;對于能自主走動的機器人(比如掃地瓮栗、送外賣的機器人),則可以加裝規(guī)避裝置垄套,讓它和人類時刻保持安全距離番链。此外,給每臺機器人加裝操作簡便的“紅色按鈕”沦浆, 確保在它出現(xiàn)錯誤動作時蝉齐,人類能夠一鍵關停。
對于第二種機器人(具有自主思維能力的AI機器人)将盾,實際上并沒有確切的預防方法多梅,因為誰也不知道真正的人工智能將會如何思考、如何學習键羡,如何理解人類的情感锚拳?一種可能的思路是,按照科幻小說作家阿西莫夫提出的“機器人三定律”來制約人工智能慰奉,將“機器人不得傷害人類”销泽、“不能眼見人類處于危險而袖手旁觀”原則貫穿整個開發(fā)工作的始終,“從小開始”培養(yǎng)智能機器人對于人類的服從與善意证森。
當然辰令,這種方法能否奏效,目前依然有很大的爭議节值。另一種觀點認為徙硅,如果我們真的能制造出一個自主學習榜聂、獨立思考的人工智能機器人,其性質(zhì)就跟漁夫撬開膽瓶上所羅門的封印差不多嗓蘑,人類根本無法預測须肆、控制這個AI能夠?qū)W到多少知識,又會用這些知識造出什么樣的東西來(或許可能是它自己的許許多多個副本)桩皿,搞不好就是人類文明的盡頭豌汇。
這次發(fā)生在德國的事故的確非常令人遺憾,但人類似乎并不需要對這種非智能機器人有太多顧慮泄隔,畢竟拒贱,我們早已將更加生死攸關的問題交給了電腦與機器(比如民航客機上的自動駕駛儀,記錄你全部身家的銀行佛嬉、股市的服務器)逻澳,對于“機器殺人”這種小概率的事故就更不需要焦慮了。
相應地暖呕,對于未來可能出現(xiàn)的人工智能機器人士敬,或許更需要引起關注與思考。當然的闹,開發(fā)AI機器人是科學家和工程師們的事情博旬,但有空了解下這個新奇的領域,也是件很有意思的事情翼养。
聲明:本網(wǎng)站所收集的部分公開資料來源于互聯(lián)網(wǎng),轉(zhuǎn)載的目的在于傳遞更多信息及用于網(wǎng)絡分享波寓,并不代表本站贊同其觀點和對其真實性負責缘嗦,也不構成任何其他建議。本站部分作品是由網(wǎng)友自主投稿和發(fā)布报逛、編輯整理上傳烦草,對此類作品本站僅提供交流平臺,不為其版權負責任疤。如果您發(fā)現(xiàn)網(wǎng)站上所用視頻幽摔、圖片、文字如涉及作品版權問題丙图,請第一時間告知刮便,我們將根據(jù)您提供的證明材料確認版權并按國家標準支付稿酬或立即刪除內(nèi)容,以保證您的權益绽慈!聯(lián)系電話:010-58612588 或 Email:editor@mmsonline.com.cn恨旱。
- 暫無反饋