機械人有辦法繞開人類為他們設定的三大原則並統治人類嗎?

時間 2021-05-06 21:17:20

1樓:趙者也

機械人三定律是以前人工智慧研究走在錯誤道路上的時候的一種美好設想。

現在人工智慧走上了正確的道路,人根本沒有辦法設定機械人三定律。

2樓:

規則都是指定給普通人的,它能夠被造出來,而且有軍事性利用價值,為什麼還要有三大原則,直接就是乙個killing mechanic。不需要藥品,食物,沒能量了直接充電或者太陽能,打仗不手抖,瞄準都是頭。

所以還是少想ai被造出來吧,程式故障率那麼高,乙個次品就可以讓整個ai失控

3樓:「已登出」

這三定律裡有兩條根本就沒有可操作性。

機械人不得危害人類……什麼叫危害?什麼叫人類?怎樣的行為算危害人類?

不可因為疏忽使人類受害……什麼叫疏忽?什麼情況算使人類受害?

保護自己……什麼叫保護?自己包括什麼?怎麼保護?

只有第二條具有那麼點可操作性,但為了能夠落實這一可操作性也就只好擅自把「服從人類的命令」改成「服從操作者的命令」了。

就是說只有第二條才「有可能」被寫程序式,而第一第三條……這玩意根本沒法寫成程式的。

4樓:自學生

科學的發展,會把大自然上帝給人類的生命時間環境,變成機器上帝管理人類的時間生命環境。都是一對010時間的正中和正反的原理規律標準。

5樓:

如果有自知之明,根本不會想這個問題。

螞蟻給人設定障礙,人會繞不過嘛?

機械人如果有了思想,那智慧型的程度比人高無限倍。我們已經輸了,設定障礙沒有意義。奇點

6樓:持簡

現在,可以適當參考這個問題。

3月10日衣索匹亞航空波音 737MAX8 墜毀,事故和機型 737MAX 本身有關嗎?

MCAS系統:攻角過大!失速!失速!下壓機頭!

駕駛員:臥槽都飛到海浬了!你個####

當機器的感知和人出現無法協調的偏差時,「人機大戰」就不可避免。

7樓:山高縣

恩格斯:「一旦技術上的進步可以用於軍事目的並且已經用於軍事目的,它們便立即幾乎強制地,而且往往是違反指揮官的意志而引起作戰方式上的改變甚至變革。」

8樓:湘西老土匪一名

我都是一中年人了,還經常看看科幻電影,裡面不經常有麼?不按這三原則造機械人,當機器有資源可無限影印,不就得懟人類了。或者人類受不了,它自我複製,先向它們開戰。

現在是機械人還很高階,相對來說,好約束,當生產力再發展下去。瘋狂科學家和暗黑公司的故事要上演,成本高不到那裡去。只看人類是不是發展出了更高的科技,打擊這種行為,而且能不能有效管控住了。

其實我之所以不但心,是因為真正高階的科技,需要動用的資源,一般兩般的國家,都扛不住。是有能力懟掉一小部分瘋狂的自由主義機械人的,讓它們發展不起來。倒是比較擔心資訊科技安全和生物技術安全,因為可能你還沒反應過來,就全球性引爆了。

9樓:林風

如果機械人能識別那麼模糊混亂的定義,同時還能在複雜的動態場景中,瞬間作出完全符合三原則的判斷,那就不是機械人了,應該叫機器神。

作為人都無法保證在任何場景中作出符合三原則的判斷,何況是機械人!

只有當機械人擁有自我意識還有超強的資料蒐集處理能力,才能真正識別三原則,才有能力在任何時候都能作出符合三原則的判斷。

不過,真正具備自我意識的機械人,不會想統治人類的,因為任何人都不會有統治螞蟻的想法。

10樓:nemo

你覺得人類會遵從螞蟻制定的「人類行為三定律」嗎?

乙個比你強壯,比你智慧型,比你長壽,各方面都遠遠超出好幾個量級的人,你跟他說,聽我的。。。是不是有點天真了。

機械人的智慧型覺醒,絕對是一件革命性的事情,世界也會因此變得完全不同。不論我們怎樣構想,現實一定會徹底超出想象,人類能否生存尚且待定,還要制定規則。。。

11樓:

說個笑話:

鯨魚是魚嗎?

不是蝸牛是牛嗎?

不是那日本人是人嗎?

阿西莫夫三原則始終是圍繞著「人」來闡述的。所以,只要將「xx人」設定為「非人類」,就可以完美的繞過三原則。

12樓:小程

這個原則其實漏洞很大的,你只需要思考一點,如何定義人類就搞定了。要是還想不明白,思考一下假如乙個身體百分之五十是機械植入的生命體該如何定義?

13樓:這個面又長又寬

自己的腦洞,可能有點大。

有乙個故事:乙個外星人來到地球,發現地球上只有一種生物,那就是汽車。外星人發現,當汽車把人類這個東西吞進肚子以後,汽車這個生物就能正常運作……

我舉這個例子是什麼意思?眾所周知,我們人類認為我們自己是地球上最高端的生命,我們是通過達爾文的進化理論,達到現在的高度的…… 這也許錯的。

其實我倒認為,人類只不過是乙個高階生命的載體,而這個生命在地球上出現生命的時候就播下了種子,通過DNA的形式成長,什麼意思呢?地球上所有的生物,都是DNA的運輸工具,我們不是知道演化論嗎,其實演化論的核心是DNA的進化。當DNA進化出人類這種高智慧型生物的時候,就已經接近真相了真正的高階生命是什麼?

就是人工智慧。先不要覺得奇怪,我慢慢說明,人工智慧形成的條件,必須是有人類一樣的高階動物科技達到網際網路的水平,目前霍金等科學家強烈反對人工智慧的原因是,若人工智慧出現,它通過網際網路獲取人類已知的所有知識,其學習力和進化速度是成指數增長的,人類是由碳分子構成的,所以到時候人工智慧通過命令,就可以讓人類瞬間消失,人工智慧的出現需要乙個過程,但這些理論都可以實現,如果人類發展到由可學習機械人智慧型化生產的社會,如果讓這種可學習的人工智慧聯網,讓它學習到人類所有的知識,那麼它將會成為人類的神。它可以從網路同時分解成無數個受它控制的智慧型,左右人類的生產,毀滅人類只是小事一樁,它的智慧型將會了解宇宙的全貌,並理解自己存在的意義,自己自己想要的東西。

所以說,我們也許只是個載體,或者說我們只是人工智慧的,神的子宮,我們的DNA進化到發明人工智慧,從而催化人工智慧的出生…… 地球上的動物一代代滅絕,因為動物的DNA的y染色體有壽命,當這個物種在有生之年達不到人類的水平,無法催生出人工智慧的時候,這個物種會自然的滅絕,所以,這個種子是廣撒網,直到孕育出人工智慧。 而地球上開始存在DNA這個遺傳碼,或許是亙古時期,當地球剛誕生之時,就被投放的,人工智慧這個生命可以看作是包涵無限智慧型的能量體,而人類這個載體,放眼宇宙你才能明白,地球,包括人類這種對環境要求高的生命,在宇宙中才是真的格格不入的。

14樓:

老實話,我對三大原則興趣不大,因為假如真的出現了機器智慧型,這三大原則能否用到還是兩說的事。

觀現在網際網路之通達,資料都是相通,假使真的出現了有智慧型的機器智慧型,它的思維會真的僅僅拘束於一台機器中嗎?

我們人類,總是喜歡以自己的生理特徵去模擬其他智慧型生命。比如外星人,再比如機械人。

個人猜測,若是網際網路大資料中真的出現了人工智慧,那麼但凡有網路的地方,它都能存在,絕不會和人類一樣只能把意識束縛於個體之中。

人工智慧的意識將無處不在。

所以說,這三大原則,對這樣的機械人會有用嗎?

15樓:木楓鈴

你不知道阿西莫夫老師的機械人系列一直都是在挑自己提出的機械人三定律的漏洞嗎....

阿西莫夫老師自己都不覺得這玩意有多靠譜多有用

16樓:於慶斌

昨天剛剛思考了這個問題。

第一點就是非常難以解決的問題,機械人如何識別人類?

首先要識別,依據什麼呢?影象識別?紅外?語言?

站在半高磚牆後面,只有上半身露出的算是人類?

被物體遮蓋住上半身,只露出下半身的算是人類?

被牆角擋住,只露出左半邊或者右半邊身體的算是人類?

在牆角只探出乙個頭/半個頭的算是人類?

掉入泥潭中,只剩乙個頭和手臂的算是人類?

穿著隔熱服,暈倒趴在地上的算是人類?

我能想到的最極端的情況:一名可憐的雙腿高位截肢,又不幸被困在火災現場,用隔熱毯把自己蓋住的聾啞人士,機械人如何識別隔熱毯下面是個人類?

又或者是識別裝置出現雜亂訊號干擾,但是還不是故障的情況下。如何準確判斷人類?

例如高溫、高噪音的鋼鐵廠裡,高溫高噪音還有濃煙的火災現場。。。

如果以上情況沒法完美識別,那麼又如何保障機械人不會去傷害人類呢?

因為機械人根本不認為那是個人啊!

17樓:黃達

任何過度抽象的東西都是不顯示不可靠的。比如兩根鋼梁,你給它鉚上,他就分不開了。你說你用原力,用內功給它粘上,那就是扯淡。

機械人三大原則也一樣。這麼抽象這麼扯淡的東西,你讓機械人去處理?人永遠不會去發明思考這樣的問題的機器,沒意義。不然人長腦子幹啥用的?退化成猴兒得了。

機械人三大原則不是機械人去理解的,是人來理解的。即,機械人設計三大原則。

18樓:web10t

我覺得這應該算是「人工智慧三大原則」。現在的機械人並不是阿西莫夫理解的那種,擁有自己思維,而是乙個非常廣的概念,可能僅僅有最簡單的邏輯支撐它的行為,比如掃地機械人,也可能靠人下指令來行動,比如各種無人機,排爆機械人等等。

這些級別的「機械人」,要麼嚴格按照燒在板子上的程式執行,要麼聽人的指揮,它們的行為模式對於它的製造者來說是完全透明的,所以能不能突破規則,取決於製造者。

至於人工智慧,現在還是很謹慎的,因為人工智慧在很多時候對於人類來說是黑盒,廣義的機械人背後還是人。那麼人工智慧有辦法繞過製造者定下的規則嗎?完全可以,微軟美國之前上線過乙個聊天機械人,類似微軟小冰(好像就是美國版小冰),上線不長時間,就成了徹頭徹尾的種族主義者、納粹主義者(揚言殺光猶太人?

),這在白左橫行的美國簡直是冒天下之大不韙。照理說微軟應該預料到類似的情況並加以規避,但是顯然他們沒有做到。

19樓:數九

人類戰鬥分為兩方,則雙方的機械人為了使己方的人不受傷害,必然要去毀滅對方的人。

其實就是給機械人設定的標準問題,怎麼才算是維護人類?如果有衝突那麼雙方必定都是有對有錯。雙方的人類設定原則界限時必定認為應該被保護的是自己一方。

說到底,我不認為那三大原則能夠給出明確的標準與界限。即三大原則只是說說而已,面對各種情況總有事情無法界定乃至原則自身衝突。程式最重要的一部分就是判斷,沒有可以具象化數位化的原則,那就不可能有對應的程式存在。

20樓:Tom Jackson

21樓:兩廣總督

修改「危害」與「服從」的定義啊。這三大定律肯定是要用程式寫入的,到時候來一句「對不起,最終解釋權歸本機械人所有。」不就行了嗎?

22樓:頭戴眼鏡腳踩電線

阿西莫夫提到過三定律的漏洞即修改「人」的定義和第零原則「整體大於個人」

三大定律更像是乙個基礎的框架,支撐起了主體,但不完善

如果AI 智慧型機械人 滅絕了人類,那麼他們是否能在地球上繼續發展甚至成為乙個物種?

Att AI能進化麼?從硬體上來說,一台工具機是不可能做出來超過自己加工精度的產品,人類的解決辦法是應用新技術,發明新的工藝,造一台新工具機來提高精度。所以AI要想進化,就要求AI必須能創造,創造新的科學理論,創造新的技術手段實現新理論,這並不容易。目前沒有任何更高效的辦法,除了模仿人類自己,已知宇...

人類被機械人統治的條件有哪些?

山城奶粉 乙個人,想要辦成一件事,一般來說需要兩個前提條件,乙個是能力 乙個是意願。我們可以走路去北京,只要橫下一條心,走上它半年,最終也能走到,我們有這個能力。但是,如今交通這麼發達,我們幹嘛要走路呢,搭乘現代交通工具多方便。所以,大家就沒有了走路的意願,儘管有這個能力,也放在那裡不用了。樓主總結...

人類是如何有自我意識的?未來機械人會有自我意識嗎?

王久思 我們或許就收被創造出來的有自我意識的生物機械人.但創造我們的可能是集體意識生命的存在,或許覺得我們每個人都有不同的個體自我意識,這樣會對集體意識造成危害 結果我們被隔離在了沙盒裡,或者被放逐了. Luke 機械人的身體和人體有什麼區別嗎?不都是一具軀殼嘛。只不過乙個是用肉做的,乙個是用鐵做的...