2018年12月18日,歐盟人工智能高級別專家組發(fā)布了一份人工智能品德準(zhǔn)則草案。在許多人擔(dān)憂人工智能取代人類、破壞品德的大布景下,該草案旨在指導(dǎo)人們制作一種“可信賴的人工智能”。怎么才能讓機(jī)器人更令人信賴?可否賦予它們品德修養(yǎng)呢?就此論題,作者采訪了美國匹茲堡大學(xué)科學(xué)哲學(xué)和科學(xué)史系杰出教授、西安交通大學(xué)長江講座教授科林·艾倫。
問:發(fā)展人工智能的品德應(yīng)選用怎樣的模式?
艾倫:咱們曾在《道德機(jī)器》中評論了機(jī)器品德發(fā)展模式,以為“自上而下”和“自下而上”相混合的模式是相對好的答案。首先談一談“自上而下”和“自下而上”意味著什么。咱們以兩種不同的方法使用這兩個術(shù)語。一個是工程的視角,也就是一些技術(shù)和計算機(jī)科學(xué)的視角,例如機(jī)器學(xué)習(xí)和人工進(jìn)化,而另一個則是品德學(xué)視角。機(jī)器學(xué)習(xí)和人工進(jìn)化并不從任何準(zhǔn)則開端,它們只是試圖使機(jī)器符合特定類型的行為描述,并且在給定輸入使機(jī)器以這種方法行事時,它的行為可以符合特定類型,這叫“自下而上”。與之相比,“自上而下”的方法則意味著一個清晰的、將規(guī)矩賦予決議計劃過程的模式,并且試圖寫出規(guī)矩來指導(dǎo)機(jī)器學(xué)習(xí)。咱們可以說,在工程領(lǐng)域中,“自下向上”是從數(shù)據(jù)傍邊學(xué)習(xí)經(jīng)驗(yàn),而“自上向下”則是用斷定的規(guī)矩進(jìn)行預(yù)編程。
問:怎么讓人工智能具有道德?
艾倫:首先要說的是,人類自己還不是完全有道德的,將一個人培養(yǎng)成有道德的人可不是一件簡單的事。人類的實(shí)質(zhì)都是出于利己主義做事,而不考慮別人的需求和利益。但是,一個道德的智能體必須學(xué)會抑制自己的愿望以方便別人。咱們現(xiàn)在構(gòu)建的機(jī)器人,其實(shí)并不具有自己的愿望,也沒有自己的動機(jī),因?yàn)樗鼈儧]有自私的利益。所以,訓(xùn)練人工智能和訓(xùn)練人的品德是有很大差異的。對機(jī)器的訓(xùn)練問題在于,咱們怎樣才能賦予機(jī)器一種才能,讓它敏感地察覺到哪些對人類的品德價值觀而言是重要的工作。此外,機(jī)器需求認(rèn)識到它的行為會對人類形成苦楚嗎?我以為是需求的。咱們可以考慮通過編程,使機(jī)器按照這種方法行事,且無需考慮怎么讓機(jī)器人優(yōu)先考慮他者利益,究竟現(xiàn)在的機(jī)器還不擁有利己的天性。
問:什么是人工智能的“品德”?
艾倫:人工智能的“品德”,或者說“道德機(jī)器”“機(jī)器品德”,有很多不同的意義。我將這些意義歸為3種。第一種意義中,機(jī)器應(yīng)具有與人類完全相同的品德才能。第二種意義中,機(jī)器不用完全具備人類的才能,但它們對品德相關(guān)的現(xiàn)實(shí)應(yīng)該具有敏感性,并且能依據(jù)現(xiàn)實(shí)進(jìn)行自主決議計劃。第三種意義則是說,機(jī)器規(guī)劃者會在較低層面上考慮機(jī)器的品德,可是并沒有賦予機(jī)器人重視品德現(xiàn)實(shí)并做出決議計劃的才能。
就現(xiàn)在而言,第一種意義所想象的機(jī)器仍是一個科學(xué)幻想。所以,我在《道德機(jī)器》一書中略過了對它的評論,而更有興趣評論那些介乎第二、第三種意義之間的機(jī)器。當(dāng)下,咱們期望規(guī)劃者在規(guī)劃機(jī)器人時可以考慮品德因素。這是因?yàn)?,在沒有人類直接監(jiān)督的情況下,機(jī)器人可能將在公共領(lǐng)域承擔(dān)越來越多的工作。這是咱們第一次發(fā)明可以無監(jiān)督地運(yùn)行的機(jī)器,這也是人工智能品德問題與以往一些科技品德問題之間實(shí)質(zhì)的區(qū)別。在這樣的“無監(jiān)督”情境中,咱們期望機(jī)器可以做出更道德的決議計劃,期望對機(jī)器的規(guī)劃不僅僅要著眼于安全性,更要重視人類在乎的價值問題。