1樓:小馬甲
實在搞不明白為什麼會擔心這些問題android的設計都被設計成iphone了.回歸android的風格才是王道.這些設計都被提出來幾年了.
國內的還是tab tab 的.有意思嗎?開機側滑一開始有人教你嗎?
下拉重新整理有人教過你嗎?現在是個產品的人都叫你做下拉重新整理,這裡重新整理,那裡也要重新整理.重新整理你妹.
有多少元謀人直接用著諾基亞就直接用起來了iphone,除了整天說android這不行那不行還會什麼.這些人根本不配使用android手機.回答完畢.
2樓:
以「大部分使用者是小白/單手操作」為藉口而偷懶是更糟糕的選擇。
小白本來就是開發者慣出來的,他們熟悉的本應該是Holo味道的介面設計。這個債總是要還。
3樓:譚俊
1.由於android虛擬按鍵,所以請不要使用底部的Tab。
2.對於側滑欄,這是2023年的設計趨勢啊,以後這樣的應用肯定會越來越多,所以不必擔心使用者學習的成本,而且應用第一次使用做乙個簡單的操作引導介面也可以啊。
3.盡量考慮手勢操作的互動。最好能用一支手完成就行。
EVA中痞子是否過分強化了朗槍的能力(通殺使徒無使用次數限制)導致劇情上可能存在bug?
月巴DO 首先我不是EVA真粉,單純自己猜想。EVA的故事本身就是多方博弈,而朗基努斯之槍除了是儀式道具之外,還是對於EVA這種人形兵器的 保險 這一點我相信自己是理解沒錯的。其實是這把槍能不能見使徒就一插乙個死呢?對於這點我是有保守意見的,原因很簡單,使徒的AT力場和EVA雖然都是同一種,但是我相...
強化學習中的reward function為什麼要取期望?
首先明確三個不同的概念 reward,return 和 value。Reward的定義為 每個狀態下執行action後立即 從系統以外的環境 獲得的評價性響應,必須直接對應RL學習的最終目標。Return的定義為 累積的未來reward。式中含有衰減係數 Value的定義為 從狀態 開始,一直遵循p...
請問大家對深度強化學習中的Data Efficiency有什麼獨到理解或者提公升建議?
關於RL中的sample efficiency問題,Shane Gu過去幾年做了很多相關工作。這是去年他的乙個talk Deep Reinforcement Learning for Robotics Frontiers and Beyond 中的一頁slides,我覺得解釋得比較清楚。白色區域是對...