tag llama

標籤
貢獻23
88
07:19 PM · Oct 26 ,2025

@llama / 博客 RSS 訂閱

修己xj - 從“死記硬背”到“靈活應用”:詳解RAG如何讓AI真正理解並回答問題

當AI不再僅僅是“復讀機”,而是能夠結合最新信息提供準確回答的智能助手——這就是RAG技術帶來的變革。 在人工智能快速發展的今天,我們常常遇到這樣的困境:大型語言模型如GPT-4擁有海量知識,卻無法獲取最新的信息;它能寫出優美的文章,卻無法準確回答你公司內部文檔中的具體問題。這就是所謂的“知識截止日期”問題——模型只能基於訓練時的數據進行回答。 但有一項技術正在徹底

數據 , 搜索 , 語言模型 , aigc , llama

收藏 評論

yzy121403725 - 常見模型部署環節優化技術微調、剪枝、蒸餾、量化等

模型優化技術 —— 目的都是讓訓練好的模型更適配部署環境(如低算力設備、低延遲場景),同時儘可能保留模型性能(精度、效果) 一、微調(Fine-tuning):讓模型 “適配新場景” 1. 核心定義 微調是在預訓練模型(如 BERT、ResNet)的基礎上,用少量目標場景的數據集繼續訓練,調整模型參數以適配具體任務或環境的過程。可以理解為:預訓練模型已經 “學會

部署模型優化技術 , aigc , llama

收藏 評論

GpuMall智算雲 - 最強開源大模型Meta LIama3搶先在線體驗!

4月19日Facebook母公司Meta重磅推出了其迄今最強大的開源人工智能(AI)模型——Llama3。模型分為兩種規模:8B 和 70B 參數,每種規模都提供預訓練基礎版和指令調優版。最強開源大語言模型Meta LIama3可以在線體驗啦! https://gpumall.com/login?type=registersource=sifou 作為最強開源大模型,LIama3性能卓越,頗有亮點

Facebook , 人工智能 , 開源 , llama , 鏡像

收藏 評論

架構師李哲 - 讓智能家居“聽懂人話”:我用4B模型+萬條數據,教會了它理解複雜指令

在智能家居場景中,我們經常遇到這樣的尷尬: 你説:“把燈打開。” —— 它可以執行。 你説:“如果檢測到漏水,就把水閥關了併發個通知。” —— 它可能聽不懂了。 你説:“有點冷,把空調調高一點。” —— 它問你:“一點是多少?” 在物聯網(IoT)時代,我們希望智能家居不僅僅是“遙控器”,而是能聽懂人話的“管家”。 我們測試了市面上幾款主流大模型——

數據集 , 智能家居 , 大模型微調 , aigc , llama , Json

收藏 評論

歲月如歌甚好 - 設計模式C++學習筆記之七(AbstractFactory抽象工廠模式) - 星晨

1. Llama Factory 到底是什麼? 1.1 簡單比喻 想象你要定製一輛汽車: 傳統方式(沒有 Llama Factory): 你需要自己造發動機、設計車身、組裝零件 需要懂機械工程、電子技術、材料科學 整個過程複雜、容易出錯、耗時很長 使用 Llama Factory:

數據集 , 數據 , 人工智能 , llama , Css , 前端開發 , 工作原理 , HTML

收藏 評論

架構師李哲 - 告別深夜批改:用Qwen3-VL大模型打造會“理解”的作文閲卷助手

深夜十一點,李老師揉了揉發酸的眼睛,面前還有三十多篇作文等待批改。 這是無數語文教師的日常寫照——繁重的批改負擔、難以完全統一的標準、反饋到達學生手中時已失去時效性。 而在AI技術日新月異的今天,我們能否讓機器真正“理解”一篇作文的優劣? 答案是肯定的。基於Qwen3-VL-30B-A3B-Instruct大模型,我們成功打造了一款能夠深度理解中文作文的智能閲卷

數據集 , 模版 , 數據 , aigc , llama

收藏 評論

FlowyAIPC - FlowyAIPC 發佈全新 4.0:開啓端側 AI 的主動生產力時代

【2025年11月28日】 —— 端側 AI 生產力工具FlowyAIPC正式發佈全新4.0版本。本次更新圍繞 “主動生產力”“端側智能”“本地化大模型加速” 三個方向進行了深度演進,進一步推動 AI 從工具型能力向真正的智能操作系統層能力邁進。 FlowyAIPC 4.0 聚焦於讓一台普通電腦成為可主動協助用户處理任務的個人 AIPC(AI Personal Computer) ,支持本地大模

機器學習 , llm , 自然語言處理 , 人工智能 , llama

收藏 評論

KAI智習 - OpenAI ChatGPT功能大升級,NVIDIA斯坦福開源遊戲AI,通義千問Qwen Code生態擴展

一起來看今天的AI行業動態。OpenAI在ChatGPT功能增強方面的新進展、NVIDIA與斯坦福在遊戲AI領域的突破、通義千問Qwen Code的生態擴展,以及中國AI產業萬億級產值的里程碑。這些進展涵蓋了從基礎模型到應用場景的多個層面,對開發者和行業從業者都有重要意義。 1. OpenAI:ChatGPT迎來界面大升級,編程能力再提升 核心事件:OpenAI發佈了ChatGPT的重要功能更新,

資訊 , 人工智能 , llama

收藏 評論

架構師李哲 - 當 AI 落地到了“深水區”:到底是 Prompt 不行、RAG 不夠,還是該考慮微調了?

這兩年,大家對大模型已經不再停留在“技術演示多酷炫”,而是越來越現實地問一句: “為什麼模型看起來很強,但真要放進我們自己的業務裏,用起來總差點意思? 尤其是——明明接入了私域知識庫,效果還是不穩定?” 答案往往不在某一個“神技”,而是在你怎麼 同時使用 Prompt、RAG 和微調,以及它們和業務的“耦合深度”。 先釐清三個“槓

數據 , aigc , llama , 回滾 , 迭代

收藏 評論

yzy121403725 - gitlab+kubeflow+minio/oss對象存儲搭建MLOps

核心思路 我們將利用: • GitLab:作為代碼倉庫、CI/CD 流水線的編排者和觸發器。它負責監控代碼變更、運行自動化測試、構建鏡像並與 Kubeflow 交互。 • Kubeflow:作為運行在 Kubernetes 上的機器學習專用平台。它負責執行復雜的模型訓練(通過 Pipelines)和模型部署(通過 Serving)任務。 整個 MLOps

gitlab+kubeflow , MLOps , aigc , llama

收藏 評論

yzy121403725 - MLOps

1. 定義與本質 MLOps 是一套將機器學習模型從開發(實驗)落地到生產環境,並實現全生命週期自動化、可觀測、可追溯的工程實踐體系。 核心目標:解決 “模型訓練出來能用,但上線難、維護難、迭代慢” 的痛點(比如傳統 ML 流程中,數據科學家訓練的模型,運維人員難以部署,且上線後數據漂移、模型性能下降無法及時感知)。 與傳統運維的區別:傳統運維聚焦

數據 , MLOps , aigc , llama , ML

收藏 評論

架構師李哲 - 開源算法能在 2025 年擊敗 GPT-5 嗎?DeepSeek-V3.2 / Speciale 交出了一份答卷

在很多人心裏,“頂級推理能力”這幾個字,長期等於三個關鍵詞:閉源、大廠、昂貴。 GPT-5、Gemini 3.0-Pro 像是少數玩家才能摸到的天花板,開源模型更多還停留在“追趕者”的角色。 12月1日,DeepSeek發佈的新一代的“雙機組合”——V3.2 和 V3.2-Speciale,把這套共識擰了一下: 一邊是在綜合推理上對齊 GPT-5、並且 MIT

數據 , API , 權重 , aigc , llama

收藏 評論