自然語言處理 CAD 圖紙指導設計,有這方面的研究進展嗎?

時間 2021-05-31 21:43:13

1樓:貓阿C

這是乙個很有意思的話題。首先要明確技術水平。自然語言是智慧型化範疇,低於此的等級有兩個:

自動化與人工。我們認為計算機是很笨的,只能幹一些苦力,即使是自然語言,也是通過大量的矩陣運算來實現看似簡潔的演算法。那麼我們不指望計算機解決工程師無法解決的問題。

回到此問題,從幾個層面看這個問題吧。

首先是研究物件。 設計是乙個複雜的系統工程,有複雜的邊界條件。從人工、半自動化互動、自動化、智慧型化角度看,上述的每乙個下面都存在著一些可做的事情。

比如說智慧型化,識別過期規範是不是算呢? 全域性的智慧型化肯定沒到那個水平,選定應用場景的智慧型化未嘗不可。

其次是是否有必要上智慧型化? 為智慧型而智慧型的想法要不得。要搞清楚準備開搞的是一件什麼事。

自然語言自己不確定性會給問題帶來多解,從無窮多解中發現正確的解法是乙個體力活。有體力活就意味著有偏差。

再者,在多大程度上實現智慧型。圖紙是二維的,缺少第三維的資訊。意味著,處理平面圖的設計結果不具備普遍適用性。

最後,說下自然語言或者AI。CAD歸根結底是點和線,如果需要做,圖論技術方案會優於AI,圖論更傾向於幾何解答,而不是靠GPU拼出來的解答。而AI在影象領域最為成熟,意味著處理JPG可能存在著一些技術成熟的解決方案,就比如說,從一張整圖中切分出每個圖元,影象或許比較好。

(或許……)

2樓:

如果真要訓練的話,肯定不會用bmp之類的影象。

明明有向量影象資料啊,俺們程式設計師賊開心。

又準確,又切點。

我有個不成熟的思路:語言處理可能比較難做,但是可以嘗試一波GAN啊,根據不同需求,打好標籤,然後生成乙個設計圖?

自然語言處理NLP中,Attention機制和Memory機制的優缺點各是什麼?

哈啾路亞 attention本質還是選擇附近時序序列的資訊,window attention就是非常好的例子。長距離下attention也會失效,這個是由softmax函式的特性決定的。畢竟當需要 注意 的面積太廣的時候,也就沒有 注意 的必要了。memory,主要指外部記憶,一旦被controll...

自然語言處理的研究意義是什麼?

所追尋的風 讓機器理解自然語言是人類的夙願,而讓機器處理自然語言是生產力發展的必然要求。自然語言是什麼?從通訊的角度看,語義從乙個人的大腦到另乙個人的大腦也是經過了編碼解碼的過程。自然語言就是人類對大腦中的語義的編碼。這是人類所特有的。那麼能不能讓機器去處理甚至理解自然語言呢?自然語言處理的歷史可以...

如何看待自然語言處理未來的走向

atom Native 短回答 ACL系列 NeurIPS AAAI Tutorial Invited Talk Evaluation則是human out of loop,不過這是永恆的話題。至於昂貴的預訓練模型,其實只佔自然語言處理中的一小部分。當然坑是挖得不小了,一波引發各種魔改加可解釋。畢竟...