博客 / 列表

farfarcheng - PyTest@Notebook|新手視角下的 debug 單元測試

寫過代碼的同學對 debug 的痛苦應該深有體會,debug 的時間往往遠遠超過實際編寫代碼的時間,最終卻發現只是一個意料之外的微不足道的錯誤導致了 bug。過了一段時間,重新使用這段代碼的時候,又出現了新的 bug, 但偏偏還不能怪別人,畢竟是自己寫的代碼,血壓上來了.jpg。程序説變量未定義那就真的是未定義,説變量類型不對那就是真的不對,總不能砸電腦吧。 有沒有什麼辦法可以減少和規避 bug

bug , bug修復 , debugging , pytest , 程序員

farfarcheng - DPA-1 遇見指南|DP-SSE 固態電解質實戰

為了生產一個機器學習勢函數,你積累了大量的第一性原理數據,卻發現訓練模型的樣本效率不足,遷移性差。如此大的花費只能體驗“一次性”的機器學習分子動力學模擬 (MLMD)?這未免太貴了! ChatGPT 等大規模語言模型的成功讓我們看到了“預訓練模型+少量新數據微調”解決這一難題的可能,勢函數生產能否參考此訓練策略進行? 圖 1|預訓練模型+

函數 , 機器學習 , 算法 , 人工智能 , 深度學習

farfarcheng - JAX-FEM|當有限元遇上機器學習

近年來,機理與數據的融合計算正快速發展着。機器學習作為數據驅動的計算方法,以其解決高維複雜問題的能力而聞名於世。它在視覺理解、自然語言處理等領域取得了重大突破。與此同時,基於機理的計算方法,如有限元模擬,在現代工業中起着至關重要的作用,廣泛應用於飛機、汽車、材料和新能源等行業。 有限元方法簡介與挑戰 有限元法(FEM,Finite Element Method)是一種為求解偏微分方程邊值問題近似解

函數 , 機器學習 , 數學 , 人工智能 , 深度學習

farfarcheng - 邁入大模型時代的深度學習:使用 Flash Attention 技術讓 Transformer 起飛

Transformer 是 ChatGPT 等大語言模型的核心技術之一,而注意力機制是其的關鍵部分。但是,標準的注意力實現具有二次時間和內存複雜度,使其在長序列任務上變慢並消耗大量顯存。這限制了 Transformer 能夠建模的上下文長度,同時使得大尺度模型的訓練和推理時間延長。 FlashAttention: Fast and Memory-Efficient Exact Attention

機器學習 , Flash , 人工智能 , transformer , 深度學習