1樓:李恰茜
「我們已經擁有原始形式的人工智慧,而且已經證明非常有用。但我認為人工智慧的完全發展會導致人類的終結」,霍金教授在星期二播出的採訪中說。
「一旦經過人類的開發,人工智慧將會自行發展,以加速度重新設計自己。」
霍金的意思,前提是人工智慧的完全發展,而不是「人工智慧的發展」。 現在沒完全發展,還在可控範圍,又有實際利益和價值存在。。。
2樓:
與新路德主義分子不同,近日科學和商業界的領袖表達出了對未來科技可能威脅到人類社會的擔憂。但他們的方法不是禁止科技的發展,而是通過更為前沿性的科技研究,研究科技倫理,制定規則規範,設定防禦性措施等約束高技術可能的負效應。相比之下,新舊路德主義更多是對技術的恐懼,被科技日益拋棄的無力感使得他們只想要科技下前進的腳步甚至消除科技從而倒退到原始社會去。
通過科技發展來解決科技帶來的問題看上去是唯科學主義,但在這個過程中不只有科技乙個因素,而是包含了自然、人性、利益、社會、文化等的流動網路,因此唯科學主義只是乙個稻草人,沒有存粹的科技因素,異質的諸多行動者共同構成了科技發展的共同體。通過發展新的技術,重視基礎科學研究,研發控制技術,進行倫理審查和規則約束等行動者之間持續的轉譯和協商過程才是預防科技負效應的進步之道。
3樓:
因為現在人工智慧的水平,還遠遠不到需要人來警惕的水平。
況且,那些警惕的人,想象的太超前了。人工智慧發展到什麼的樣,能不能發展成他們想象的那樣,都還不一定呢
4樓:文刀叉點
吸菸有害健康
手機有輻射,各種無線訊號都有輻射
造紙廠會汙染環境
等等,社會上矛盾的事情多了去了,但是依然會存在人工智慧只是可能有危險,但是既然你知道這一點了,為什麼不去研究預防的方法呢,是吧
有時候,其實搞這個領域的人,看到好多人啥都不懂就在危言聳聽,是一件很無耐的事
5樓:易涵
利益永遠是第一的驅動力。
只要人工智慧還有錢可以賺,就會有人繼續研究。
當年的含鉛汽油不也是麼,開發商明知道有劇毒還是要生產。冰箱也是,都在汙染環境緩慢的侵蝕著人類的未來。但是如果不生產,現在會有更多的人因為經濟和科技的不發達而失業,甚至餓死。
因此人工智慧也像是當下的利益與持久的危害的博弈。小到掃地機,siri,大到智慧型駕駛,甚至戰爭用機械人,都有很可觀的利益。這注定了科學家不會停止研究人工智慧。
非專業人士求輕噴。
6樓:
因為目前的人工智慧根本達不到威脅世界的技術水平,甚至無法滿足日常簡單操作,所以研究一下也沒啥啦。
等到水平到了,機械人量產了。。。
慢慢的就會從「很多名人呼籲人類警惕人工智慧」
轉變為「少數頑固派抵制購買智慧型機械人」。
最後只能靠威爾史密斯來拯救世界了。
為什麼有很多名人讓人們警惕人工智慧?
星次 因為他們都不是人工智慧開發相關人員罷了,全世界沒有普通人所謂的 AI,本質都是一堆程式,你沒設定的沒寫的功能它就是沒有,之所以成為AI是因為它的開發是基於問題,將問題拆分,並且分析問題,根據對應的屬性得出乙個又乙個的權重,有2種主流的分析演算法,最晚的結果只有乙個,得出乙個結果權重,所謂的學習...
那麼多名人讓我們警惕人工智慧,這次和人類打成平手了,你覺得你能接受這個結果麼?
雄師傅 我覺得人工智慧這個東西吧算是個雙刃劍吧!就是因為我們總是對那些未知的科幻 太空 未來感興趣,所以才一直想開發出更有意思更有挑戰的東西!只要是運用得當就不會產生不可估計的後果,所以我認為只要人類不停的去研究更先進的技術,去探知更深遠的未來,總是可以把AI技術緊緊把握在手中!成為自己所應用的巧手...
為什麼人們總認為人工智慧會消滅人類?
Ser Jaime 我甚至覺得AI取代人類也沒什麼可怕的,只是碳基生命向矽基生命遞上了進化的接力棒,未來由AI統治的世界甚至不需要糧食,可以更好的管理生態,機械人之間所有知識共享,不需要學習成本,向下一代機械人傳遞知識也只需要一瞬間,而不需要花幾十年的時間,這樣積累和創新知識的能力會呈幾何倍增長,他...