tag llm

標籤
貢獻50
181
12:33 PM · Oct 26 ,2025

@llm / 博客 RSS 訂閱

deephub - 打造自己的 Claude Code:LangGraph + MCP 搭建一個極簡的 AI 編碼助手

實踐是最好的學習方式。為了深入理解 LangGraph 和模型上下文協議(MCP)服務器的生態,我們來從零開始構建一個 CLI 編碼代理。我們的目標是,拋開 Claude Code 那些花裏胡哨的功能,看看最基礎的編碼代理能做到什麼程度。 那些商業編碼代理往往會添加各種專有的"秘密配方"——特殊的上下文管理、精心設計的提示策略、優化過的工具選擇算法。這些技術細節被包裝得嚴嚴實實,很難

llm , 人工智能 , 深度學習 , claude , Python

收藏 評論

六邊形架構 - 我,一個AI技術小白,竟然用Dify+Ollama手搓出了自己的AI聊天助手!

文 / 勇哥 原創文章,轉載請聯繫授權 寫在前面:從AI小白到AI創造者的逆襲 大家好,我是勇哥!既上一篇《揭秘Deepseek:只用GPT-4成本的6%,卻做出更聰明的AI?》帶大家簡單地瞭解了一下AI智能助手的工作原理之後,今天我想要跟大家分享一個技能:作為一個連代碼都寫不利索的技術小白,也能在半天內成功搭建了一個屬於自己的AI聊天助手! 是的,你沒聽錯!不是用ChatGPT,不是

llm , 教程 , 人工智能

收藏 評論

deephub - 解決GRPO優勢歸因錯誤,Chunk-GRPO讓文生圖模型更懂"節奏"

文本到圖像(T2I)生成模型的發展速度超出很多人的預期。從SDXL到Midjourney,再到最近的FLUX.1,這些模型在短時間內就實現了從模糊抽象到逼真細膩的跨越。但問題也隨之而來——如何讓模型生成的不僅僅是"一張圖",而是"正確的那張圖"?這涉及到如何讓AI理解人類在審美、風格和構圖上的真實偏好。 強化學習(RL)成為解決這個問題的關鍵技術。通過將人類偏好分數作為獎勵信號,可以對這些大模型進

generative-ai , llm , 強化學習 , 知識 , 人工智能

收藏 評論

六邊形架構 - 真相!Dify和n8n這兩款LLM應用開發平台的最大區別,90%的人都不知道!

文 / 勇哥 原創文章,轉載請聯繫授權 一、前言 大家好,我是勇哥!繼上一篇《震驚!我,一個技術小白,竟然用Dify+Ollama手搓出了自己的AI聊天助手!》帶大家簡單地瞭解了一下普通人如何自己搭建一個屬於自己的AI智能助手之後,就有讀者問我,作為一名傳統的開發者,該怎樣進入AI的行業或者是學習AI的技能呢?我作為一名過來人,我給大家的建議是:好好地去學習AI應用開發的技能,然後通過

llm , 資訊 , 教程 , 知識 , 人工智能

收藏 評論

靦腆的青春逗 - 構建大模型的“服務網格”:從Cloud Foundry的Service Broker到AI時代的MCP演進

前序 作為資深諮詢規劃專家,我目睹過雲計算從混亂到標準化的演進歷程。如今,AI生態正面臨類似的十字路口。 在雲原生架構中,Service Broker機制通過標準化API,成功解決了PaaS平台上應用與服務之間的連接難題。這一經過實踐檢驗的設計,恰恰為當前大模型與外部數據和工具集成的挑戰提供了絕佳解決方案。 新興的Model Context Protocol正致力於解決類似問題,但作為202

觀點 , llm , 人工智能 , claude

收藏 評論

deephub - LangChain v1.0 中間件詳解:徹底搞定 AI Agent 上下文控制

用 LangChain 構建 AI Agent 的人應該都遇到過這種情況:測試階段一切正常,部署到生產環境就開始出各種問題。上下文管理混亂,Agent 的行為變得難以預測,最後不得不寫一堆自定義代碼來控制信息流向。 這是因為在v1.0 之前的 LangChain 對上下文工程的支持不夠系統化。上下文工程的本質其實就是信息管理——給 AI 多少信息、什麼時候給、以什麼方式給。信息過載會導致模型困惑,

llm , 資訊 , 人工智能 , 深度學習 , llama

收藏 評論

六邊形架構 - 不會AI編程?沒關係!這幾個框架也讓你也能開發AI聊天助手!

文 / 勇哥 原創文章,轉載請聯繫授權 一、前言 大家好,我是勇哥!上一篇文章我們聊了《[真相!Dify和n8n這兩款LLM應用開發平台的最大區別,90%的人都不知道! ](https://mp.weixin.qq.com/s/gKbeM2Er66OF5U_otKPyeQ)》,有不少讀者私信我説:"勇哥,雖然低代碼平台很方便,但我想自己動手實現一個真正屬於自己的AI助手,就像De

llm , 教程 , openai , 人工智能 , prompt

收藏 評論

deephub - FastMCP 入門:用 Python 快速搭建 MCP 服務器接入 LLM

Model Context Protocol (MCP) 這個協議簡單説就是給大語言模型接入外部數據和工具提供了一套標準化方案。MCP 統一了模型和各種數據源、工具服務之間的交互方式。 FastMCP 是目前用 Python 構建 MCP 服務器最順手的框架,把底層那些複雜的協議實現全都封裝好了,開發者只需要關注業務邏輯就行。 這篇文章會講清楚 MCP 的基本概念,FastMCP 的工作原理,以及

llm , mcp , 人工智能 , Python

收藏 評論

商湯萬象開發者 - LazyLLM 教程 | 第 13 講:RAG + 多模態:圖片、表格通吃的問答系統

在前面的課程中,我們探討了RAG(Retrieval-Augmented Generation)的基本原理及其在純文本處理中的應用。RAG 通過從外部知識庫檢索相關信息,結合上下文生成更準確、信息豐富的回答,從而提升基於文本的問答系統能力。 然而,現實世界中的信息並不侷限於文本,例如 PDF 文檔中的圖片、表格等多模態數據也承載着大量有價值的知識。在某些情況下,這些圖文並茂的內容比純文本更直觀、

llm , 算法 , 教程 , 人工智能 , 開源

收藏 評論

六邊形架構 - 大模型應用開發技術路線(中):大模型微調與定製從概念到落地

文 / 勇哥 原創文章,轉載請聯繫授權 關注公眾號「六邊形架構」,及時瞭解更多的技術分享和項目經驗 我是勇哥,一名在技術領域摸爬滾打10多年的技術老兵。繼上一篇《大模型應用開發技術路線(上):從概念到RAG實戰,這套方法論讓我從0到1落地企業級AI應用》之後,我想跟大家分享一下我在學習和應用大模型應用開發過程中對於大模型微調與定製的一些經驗和發現。 今天,讓我們深入剖析大模型微調

觀點 , llm , 算法 , 自然語言處理 , 人工智能

收藏 評論

SeaTunnel - LLM 時代,DataAgent × WhaleTunnel 如何將數據庫變更瞬時 “轉譯” 為洞察?

在軟件世界中,用户的形態正在發生變化。 過去,軟件的使用者是工程師、分析師或運維人員;而如今,他們正在被一羣“數字化身”——Agent 所取代。AI 不再只是一個算法模型,而是逐漸演變為能理解業務語境、自動執行任務、並進行協同決策的智能體。 隨着大模型技術的快速成熟,這場以 “Agent 化” 為核心的軟件革命,正推動企業數據系統從傳統的自動化,走向真正的智能化。 在這一趨勢中,數據基礎設施的智

llm , 數據同步 , 大數據 , 開源 , seatunnel

收藏 評論

六邊形架構 - 大模型應用開發技術路線(下):智能代理與多模態應用開發指南

文 / 勇哥 原創文章,轉載請聯繫授權 關注公眾號「六邊形架構」,及時瞭解更多的技術分享和項目經驗 在前兩篇文章中,我們探討了《大模型應用開發技術路線(上):從概念到RAG實戰指南》和《大模型應用開發技術路線(中):大模型微調與定製實戰指南》。今天,讓我們繼續探索大模型應用開發的前沿技術路線——智能代理(Agent)開發和多模態應用開發。 作為一名在AI領域"衝浪"多年的技術老兵

generative-ai , llm , 人工智能 , 深度學習 , llama

收藏 評論

六邊形架構 - 別再選錯!5分鐘掌握AI Agent框架選型的方法

文 / 勇哥 原創文章,轉載請聯繫授權 在前一篇文章中,我們探討了《大模型應用開發技術路線(下):智能代理與多模態應用指南》。今天,讓我們深入剖析AI Agent開發框架——這個被稱為AI應用開發的"樂高積木"的標準化工具集。 作為長期從事技術應用開發的"老司機",我見證了太多團隊因為選擇錯了開發框架,導致項目週期延長、開發效率低下、系統穩定性差的痛點。在AI時代,如何選擇一個合適的A

generative-ai , 觀點 , llm , 知識 , 人工智能

收藏 評論

Baihai_IDP - 並行智能體是否將重塑軟件開發模式?

編者按: 當AI不僅能寫代碼,還能同時處理多個開發任務,軟件工程師這一角色是否正面臨根本性的重塑? 我們今天為大家帶來的文章,作者的核心觀點是:並行智能體是將深刻改變軟件開發模式的革命性技術。 作者從 AI 編程工具的演進談起,揭示了從 Copilot 的代碼補全到“氛圍編程”的自然語言生成,再到當前的範式突破 —— 並行智能體。作者還坦誠分享了實際應用中的成功率分佈,指出了智能體擅長與不

觀點 , llm , 知識 , 人工智能 , 深度學習

收藏 評論

汀丶 - 前沿速覽:Cursor 2.0、Firefly Image5、Agent HQ 、Kimi-k2 Thinking

AI Compass前沿速覽:Cursor 2.0、Firefly Image5、Agent HQ 、LongCat-Video、Kimi-k2 Thinking AI-Compass 致力於構建最全面、最實用、最前沿的AI技術學習和實踐生態,通過六大核心模塊的系統化組織,為不同層次的學習者和開發者提供從完整學習路徑。 github地址:AI-Compass👈:https://github.

觀點 , llm , 資訊 , 人工智能

收藏 評論

六邊形架構 - Java程序員該如何快速上手LLM應用開發呢?

文 / 勇哥 原創文章,轉載請聯繫授權 作為一名在Java領域摸爬滾打快20年的"老碼農",我經常聽到身邊的Java開發者發出這樣的感嘆:"大模型時代來了,我們Java開發者該何去何從?"、"Python在AI領域這麼火,我們要不要轉語言?" 今天,我想告訴大家的是:完全沒必要!作為Java開發者,你完全可以利用自己已有的技能棧,快速上手LLM應用開發。 在過去的一年裏,我嘗試了把多種

generative-ai , llm , 知識 , 人工智能 , 深度學習

收藏 評論

六邊形架構 - Spring AI,一個讓Spring應用輕鬆擁抱AI的統一框架

文 / 勇哥 原創文章,轉載請聯繫授權 在前一篇文章中,我們探討了《Java程序員該如何快速上手LLM應用開發呢?》。今天,讓我們聚焦Spring AI——這個被稱為"Spring開發者的AI賦能工具包"的框架,它為Java開發者打開了一扇通往AI世界的便捷之門。 作為一名在Java領域摸爬滾打快20年的"老碼農",我見過太多團隊在集成AI能力時遇到的痛點:開發語言不一致、重複造輪子、

generative-ai , llm , 人工智能 , springboot , JAVA

收藏 評論

deephub - LightRAG 實戰: 基於 Ollama 搭建帶知識圖譜的可控 RAG 系統

LightRAG 是個開源的 RAG 框架,專門用來快速搭建模塊化的檢索增強生成管道。這個項目在 GitHub 上熱度不低,我們今天來看看他到底怎麼用 基礎安裝與環境配置 LightRAG 的安裝過程很簡單,幾行命令就能搞定: pip install "lightrag-hku[api]" cp env.example .env # ---這個有很多參數 非常豐富 lightra

llm , 知識圖譜 , 人工智能 , 檢索系統 , Python

收藏 評論

六邊形架構 - 想不到吧!68%做AI的Java開發者選擇了這個大模型框架!

文 / 勇哥 原創文章,轉載請聯繫授權 在前一篇文章中,我們探討了《Spring AI,一個讓 Spring 應用輕鬆擁抱 AI 的統一框架》。今天,讓我們深入剖析LangChain4j——這個被Java開發者親切稱為"大模型開發瑞士軍刀"的框架,它是在2023年年底由LangChain官方和社區貢獻者共同發起,旨在為Java生態提供專業、高效的大模型應用開發解決方案,它的出現填補了J

llm , openai , 人工智能 , JAVA , prompt

收藏 評論

deephub - 基於 LangGraph 的對話式 RAG 系統實現:多輪檢索與自適應查詢優化

RAG(Retrieval-Augmented Generation)在語言模型應用中已經相當成熟,但傳統實現往往只是簡單的"檢索-生成"流程。實際對話場景要複雜得多——用户的問題可能含糊不清,或者會頻繁追問,還經常提些不相關的內容。 這篇文章會展示怎麼用 LangGraph 構建一個具備實用價值的 RAG 系統,包括能夠處理後續追問、過濾無關請求、評估檢索結果的質量,同時保持完整的對話記憶。 傳

generative-ai , llm , 人工智能 , 深度學習 , langchain4j

收藏 評論

deephub - AI智能體落地:Agent-Assist vs 全自動化完整決策指南

今年開始LLM驅動的Agentic AI發展速度非常驚人。而我們現在面臨一個實際問題:到底是上全自主的AI智能體,還是讓人類繼續參與決策?從大量實際案例來看Agent-Assist(也就是Human-in-the-Loop系統)既能帶來自動化的效率提升,又能有效規避那些可能造成重大損失的錯誤。 而且如果系統設計得當的化,還可以從人類每次糾正中學習,持續積累組織自己的專業知識庫。 概念回顧

llm , agent , 人工智能 , 深度學習

收藏 評論

Baihai_IDP - 面向 LLM 的 GPU 系統工程方法論

編者按: 我們今天為大家帶來的文章,作者的觀點是:GPU 工程的核心不在於手寫內核的能力,而在於構建系統設計思維 —— 理解從模型定義到硬件層的完整技術棧如何協同工作。 作者提出了一個五層漸進式調試框架:從模型定義(Model Definition)入手,識別計算與內存瓶頸;進入並行化(Parallelization)階段,解決多卡同步問題;深入運行時編排(Runtime Orchestra

觀點 , llm , 知識 , 人工智能 , 深度學習

收藏 評論

Lab4AI - CBT-LLM 心理大模型微調,用 LLaMA Factory 微調框架就夠啦!| 附一鍵復現指南

01 | 引入 在人工智能快速發展的今天,通用大語言模型雖然具備強大的語言理解和生成能力,但在專業領域服務時往往顯得力不從心。以心理健康支持為例,普通預訓練模型無法理解"共情"深層含義,難以給出符合認知行為療法(CBT)原則的專業建議,導致回答要麼過於機械,要麼缺乏針對性。 僅靠通用模型無法實現"懂情感、會共情"的高質量心理支持,必須通過高質量數據集微調才能實現專業場景的精準適配,將通用語言能力

llm , 人工智能

收藏 評論

deephub - HaluMem:揭示當前AI記憶系統的系統性缺陷,系統失效率超50%

用過聊天機器人的人都遇到過這種情況:你剛説喜歡科幻小説,幾輪對話後它給你推薦言情小説。你告訴聊天機器人升職了,但是過會兒又他又問你職業。這種情況不只是健忘而是根本性的bug——AI不僅會丟上下文,還會憑空編造、記錯、甚至生成自相矛盾的內容。 這就是記憶幻覺(memory hallucination)。相比那些編造世界知識的"生成幻覺",記憶幻覺是更上游的問題。一旦AI的記憶庫被污染,後續所有的推理

generative-ai , llm , 知識 , 人工智能

收藏 評論