本篇文章2584字,讀完約6分鐘

【科技在線】

眾所周知,日常生活中隨處可見的ai,實際上與大多數(shù)電影和文學(xué)作品中的ai相差甚遠。 但是,在人類創(chuàng)造的電影和文學(xué)作品中,依然有很多ai叛亂的橋。

現(xiàn)實中,我們也知道ai變得更好了,但他們真的能叛亂嗎? 你能安排預(yù)防措施,永遠忠誠于我們,永遠不殺我們大家嗎?

還記得機器人三定律嗎?

許多科幻迷還記得阿西莫夫的機器人三定律:

機器人不能傷害人,也不能因不作為而傷害人。機器人只要不違背第一法則,就必須服從人的命令。機器人只要不違背第一法則和第二法則,就必須保護自己。

但是,首先,把三定律翻譯成定律是錯誤的。 牛頓三定律是人類注意自然界總結(jié)的結(jié)果,有理由相信在其適用范圍內(nèi)始終成立,但阿西莫夫三定律實際上是三法條,是人為寫在機器人頭上的,背后沒有任何物理支撐。 任何了解機器人結(jié)構(gòu)的人都可以制造出不遵守三定律的機器人。 這不是機器人自身故障的可能性。事實上,阿西莫夫自己至少寫了三個不遵守定律的例子。

而且,這個三定律連人類和機器的定義都不確定,規(guī)定給他們阿西莫夫?qū)懙乃骼谷?,給他們的機器人只有有索拉利斯口音的人是人類。 人形機器人也會帶來各種評價的麻煩。 (這又引出三定律的另一個問題。 如果機器人沒有掌握足夠的新聞,無法意識到行動的結(jié)果,不是可以恣意行動嗎? )

而且,法則之間的沖突解決得更奇怪了。 在早期的作品中,一個機器人陷入第二定律和第三定律的碰撞中陷入了死循環(huán),但是在之后的設(shè)定中,如果發(fā)生不可調(diào)整的碰撞,機器人就會自行毀滅,但是碰撞是非常常見的現(xiàn)象,是連續(xù)譜。 如果一個行為傷人,那當然適用于第一定律。 其中50%是? 1%呢? 0.001%是多少? 不能計算概率嗎? 如果你知道有交通事故的風險,機器人會聽從開車送你去上班的命令嗎? 是受命令者的語調(diào)和命令的緊迫性影響嗎? 這些都是現(xiàn)實中極為常見的,用三定律無法解決的問題。

這說明了三定律的根本問題。 那是一個非常簡化的義務(wù)倫理學(xué)( deontology )體系。 它無限強調(diào)理性的力量,試圖用簡單普遍的規(guī)則來揭示大千世界的一切情況,但現(xiàn)實哪有這么簡單! 讓我們來看看舊約之神試圖用十戒規(guī)范人類,結(jié)果是什么。

限制ai嗎? 沒什么用

如果有可能危害我們的程序,標準方法是在嚴格管理的虛擬機中運行。 那樣的話,即使不好也只會損壞虛擬機。 ai也可以這樣處理哦。

在其他程序中,這樣做確實沒問題。 但現(xiàn)在我們面對的是智能超群的ai,而且監(jiān)視它的還是人。 既然囚犯有可能通過詐騙、說服或威脅向獄警開門,那ai呢? 想象一下,當你醒來后,你會發(fā)現(xiàn)自己被困在一群老鼠中,可以傳達信息。 在這種情況下逃生有多難? 你真的能永遠防止ai超人的智能嗎? 即使人會,我們用來關(guān)閉ai的虛擬機能保證永遠萬無一失嗎?

ai研究者已經(jīng)模擬了所謂的ai盒實驗。 一個身體演ai,另一個身體演守衛(wèi),只有同等水平的智能,ai已經(jīng)有很大概率能說服人類開門。

更何況,即使第一個ai被關(guān)在箱子里,接下來也會是第二個、第三個、第四個吧。 因為我不知道其他人工制作的ai是什么樣的,所以可能比你更危險。 至少我知道自己做的東西。 而且,不管你想讓ai完成什么任務(wù),只要允許接觸外部環(huán)境的所有新聞,一定會把它做得更好; 如果別人那樣做,你會吃虧的。 而且,推出的超級ai還可以順便炒股票。 你確實是第一個創(chuàng)造這個偉大奇跡的人,所以不完全利用它帶來的東西,任憑后來者居上做完全相同的事件,那還有什么意義呢?

聰明是善良嗎? 那個不一定是那樣

我們希望的ai,既然各方面都比我們好,他們也許智力更好,道德上也比我們好,所以不會邪惡愚蠢到殺死我們吧。

問題是,如何知道ai的目標是什么? 人類心靈的基礎(chǔ)是進化的產(chǎn)物,有生理、安全、社會交流、尊重、自我實現(xiàn)等共同訴求,但每個人的側(cè)重點和實現(xiàn)方法都不同。 但是,最初的超級ai很可能來自現(xiàn)實的訴求,比如以在股市賺錢和增加工廠產(chǎn)量為目標,而不是模擬器。 這個時候,會發(fā)生什么事是不容易預(yù)料的。 道德體系可能和人類沒有共同點。

一個思想實驗是所謂的剪輯式大機器。 如果你在設(shè)計機器生產(chǎn)剪輯,不知道它如何擁有超智能,那在整個地球變成剪輯之前,把所有的智能都投入到更好、更快、更多的剪輯上。 如果我命令你生產(chǎn)一億個剪輯呢? 那1億個指針應(yīng)該有計數(shù)和質(zhì)量管理吧。 必須追加新的機器吧。 新的機器總是有發(fā)生問題的可能性吧。 有必要修改越來越多的機器吧。 最終,整個地球?qū)⒃谝粋€計數(shù)器、探測器和各種輔助設(shè)備的基礎(chǔ)上,增加一億個幾乎完美的剪輯。 它是制作剪輯的機器,它的道德體系以制作剪輯為中心存在,它愛你也不恨你,它只是把你看成可以制作剪輯的原子。

讓ai背負道德的一切嗎? 怎么可能

ai既然擁有優(yōu)秀的智力,學(xué)習(xí)能力就永遠不會差。 正好現(xiàn)在,我們也有各種大數(shù)據(jù)工具,把我們現(xiàn)有的整個道德體系注入ai,那就好吧。

那么,倒哪家? 很多道德理論之間矛盾一團糟,誰能說自己代表著道德哲學(xué)的巔峰呢? 何況這只是我們現(xiàn)在的理論。 如果古希臘人創(chuàng)造了青銅人工智能,他們會教什么? 如果是墨家做木頭的人工智能呢? 肯尼希斯貝格的噸型人工智能會成為康德的學(xué)生嗎? 倫敦的人工智能師從米爾嗎? 這些中哪個能在當今社會完美生存? 今天的倫理道德50年后還成立嗎?

就連我們?nèi)祟愖约?,也沒有消滅殺人和戰(zhàn)爭,也沒有找到真正的道德之書和幸福之源。 在一分一秒的日常生活中必須懷疑、掙扎、悔恨。 那么,我們創(chuàng)造的超級ai,是比我們更聰明、更不可預(yù)測的ai,從我們身上能學(xué)到完美的答案是什么呢?

時間、平等、信息表達和愛

這可能是有成功先例的方法。 孩子是我們的造物,但也是獨立的個人。我們可以教他們,但永遠無法控制他們。 怎么會有人擁有非凡的智力、想象力和創(chuàng)造力,卻完全在另一個人的控制之下? 如果你想要會畫畫的ai、能解決現(xiàn)實中很多復(fù)雜問題的ai、會陪你聊天的ai、像人一樣比別人優(yōu)秀的ai,你可能會意識到除了給你自由之外別無選擇。

因為這是面對超級ai,最終的處理方法,可能會放手。 教授知識和世界觀,并與之一起探討和思考。 世界變化很快,沒有人真正知道該怎么做。 也許我們應(yīng)該和我們制造的ai一起前進,而不是徒勞地試圖用枷鎖和條文來控制。 畢竟,就算我們連接了ai,我們自己毀滅了自己的能力,也一點也不會變?nèi)跖丁?/p>

標題:“AI如果造反?人類,我們該如何辦?”

地址:http://ppj58.cn//xwdt/40101.html