tag llm

標籤
貢獻50
189
12:33 PM · Oct 26 ,2025

@llm / 博客 RSS 訂閱

amc - AI 寫文章系列——Ubuntu 24.04 pipx install 解決 ModuleNotFoundError 問題

概述 自從轉 Go 之後,好久沒寫 Python 了。最近在 Ubuntu 24.04 中使用 pipx 安裝了一個工具之後,運行報依賴錯誤。把上下文餵給 DeepSeek 之後,最終解決了問題。 我讓 DeepSeek 回顧問答的上下文,整理了一篇文章出來——不過相比上一篇,這次我人工介入修改的內容多得多。 問題提出 最近需要扣一個圖,把我的證件照背景顏色換一換。搜了一下,在 Github 上

llm , python3.x , php , deepseek , Python

收藏 評論

amc - 騰訊 tRPC-Go 教學——(8)通過泛 HTTP 能力實現和觀測 MCP 服務

最近 MCP 大火,其實 tRPC 也可以提供泛 HTTP 接入的能力。內網其實已經對 mcp-go 進行了封裝並支持,但是相關代碼還沒有同步到開源版上。 不過實際上,在 tRPC 框架也是可以接入各種泛 HTTP 能力的。本文就以 mcp-go 和 tRPC 結合作為引子,也介紹一下在 Cursor 等 AI 生產力工具中如何開發和使用 MCP 能力吧。 系列文章 騰訊 tRPC-Go 教學

llm , 騰訊 , cursor , rpc , go

收藏 評論

PoloAPI - 谷歌正式推出 Gemini 2.5 系列模型,使 AI 推理性能提升30%。

谷歌於2025年6月正式推出‌Gemini 2.5系列模型‌,核心聚焦推理效率與多模態能力升級,具體解讀如下: 🚀 ‌一、三大模型定位與技術亮點‌ ‌Gemini 2.5 Pro‌ ‌角色定位‌:主攻複雜推理與多模態分析(“思考型模型”),在數學、編碼任務中刷新LMArena榜單記錄。 ‌上下文能力‌:支持100萬token輸入(計劃擴展至200萬),可解析代碼庫、大型數據集及混合媒

llm , 算法 , google , 人工智能 , 深度學習

收藏 評論

PoloAPI - Kimi K2 日調用量超100億 token,API 價格低於 Claude 系列模型

一、Kimi K2模型基本信息 Kimi K2是由北京月之暗面科技有限公司(Moonshot AI)於2025年7月11日發佈的開源大語言模型,具有以下核心特點: ‌架構創新‌:採用MoE(混合專家)架構,總參數規模達1萬億(1T),激活參數為320億(32B),包含384個專家模塊,每個token選擇8個專家進行計算 ‌性能表現‌:在SWE Bench Verified、Tau2、AceB

編程 , llm , 算法 , 人工智能 , 後端

收藏 評論

OpenBayes - OpenBayes 一週速覽丨Qwen-Image-Edit 實現圖片文字精準編輯;Nemotron 數據集含超 2K 萬條樣本

公共資源速遞This Weekly Snapshots ! 7 個公共數據集: Nemotron 多領域推理數據集 Trendyol 安全指令調優數據集 InteriorGS 3D 室內場景數據集 CSEMOTIONS 情緒音頻數據集 LongText-Bench 文本理解基準數據集 Document Haystack 多模態文檔基準數據集 CognitiveKernel-Pro-

llm , 數據集 , 阿里巴巴 , 圖像處理 , 數據分析

收藏 評論

OpenBayes - OpenBayes 在線教程彙總丨Qwen 連發 SOTA 級模型,覆蓋文本渲染/視頻創作/編程輔助

近期,阿里通義千問團隊以「卷王」速度持續刷新開源效率,兩週內發佈的開源模型覆蓋圖像生成、視頻創作、編程輔助三大核心領域,並推出非思考模式的新版本模型,不僅迭代速度領跑行業平均水平,更是多次刷新領域 SOTA。 舉例而言,Qwen-Image 作為其圖像生成基礎模型,實現了精準的中文渲染;「甜品級」編程模型 Qwen3-Coder-Flash 在提供輕量級模型部署效率的同時,實現了接近頂級閉源模型的

llm , 阿里巴巴 , 圖像處理 , 編程語言 , 開源

收藏 評論

超神經HyperAI - 【vLLM 學習】Mistral-small

vLLM 是一款專為大語言模型推理加速而設計的框架,實現了 KV 緩存內存幾乎零浪費,解決了內存管理瓶頸問題。 更多 vLLM 中文文檔及教程可訪問 →https://vllm.hyper.ai/ *在線運行 vLLM 入門教程:零基礎分步指南 源碼examples/offline_inference/mistral-small.py # SPDX-License-Identifier: Apac

llm , 內存管理 , 零基礎 , 源碼 , kv存儲

收藏 評論

愚人貓Idiomeo - 超簡單!教你用C語言手搓LLM模型

本文由 愚人貓(Idiomeo) 編寫 推薦閲讀我的博客原文 一.LLM 的數學基礎 大語言模型 (LLM) 的底層實現離不開紮實的數學基礎,這部分將系統梳理支撐 LLM 的核心數學理論,為後續的代碼實現奠定理論基礎。 線性代數:LLM 的基礎語言 線性代數是理解和實現 LLM 的基礎,特別是矩陣運算構成了神經網絡的核心操作。在 LLM 中,文本被表示為向量或矩陣形式,模型通過矩陣變換和運

llm , 人工智能 , c

收藏 評論

OpenBayes - OpenBayes 一週速覽丨公共模型一鍵部署功能上線!VibeVoice1.5B重新定義TTS技術邊界,多人長對話一鍵生成

新功能上線 平台公共模型界面現已推出「一鍵部署」功能,具體使用方式如下: 進入「公共模型」,點擊模型右側的「小火箭」標識,即可快速部署該模型。 也可以在點擊模型後,選擇右上角「部署當前版本」進行部署。 本週資源更新 4 個公共教程: 微軟 VibeVoice-1.5B 重新定義 TTS 技術邊界 vLLM+Open WebUl 部署 gemma-3-270m-it vLLM

code , llm , 文本處理 , 代碼生成 , nvidia

收藏 評論

da_miao_zi - Markdown算編程語言嗎?由SuperClaude的自定義工具引發的思考

沒有 if 或 while,只能用來寫文檔的 Markdown 算編程語言嗎? 先別急着回答。讓我們先來想象一下,當你在寫代碼時,身邊突然多了一羣虛擬隊友——她們不僅能幫你補全代碼、隨時完善文檔,還能化身為架構師、安全專家、前端工程師或火眼金睛的 QA,給出專業意見——會是怎樣一種體驗呢?説不定還能變身為虛擬的程序員鼓勵師呢。 這正是 SuperClaude Framework 想為開發者帶來的體

llm , 人工智能 , claude , Markdown

收藏 評論

deephub - LangGraph實戰:從零構建智能交易機器人,讓多個AI智能體像投資團隊一樣協作

現在的量化交易早就不是簡單的技術指標了。真正有效的交易系統需要像一個完整的投資團隊一樣工作——有專門的分析師收集各種數據,有研究員進行深度分析和辯論,有交易員制定具體策略,還有風險管理團隊把關。問題是傳統的程序很難模擬這種複雜的協作流程。 LangGraph的多智能體架構正好解決了這個問題。我們可以構建一個像真實投資公司一樣運作的系統,每個智能體負責特定的職能,它們之間可以進行辯論、協商,最終形成

llm , 代理 , 人工智能 , 深度學習

收藏 評論

百度Geek説 - BaikalDB MCP Server :鏈接數據庫和AI的直通橋

導讀 BaikalDB作為服務百度商業產品的分佈式存儲系統,支撐了整個廣告庫海量物料的存儲。在大語言模型LLM蓬勃發展的現在,想在大模型裏使用BaikalDB裏的數據進行分析,都需要複雜的定製開發。看BaikalDB如何藉助模型上下文協議(MCP),讓數據庫對話像聊天一樣簡單——無需編寫代碼,大語言模型即可完成複雜數據分析。 01 引言 在2025年以前,大語言模型(Large Language

llm , 人工智能 , 分佈式

收藏 評論

deephub - Google開源Tunix:JAX生態的LLM微調方案來了

JAX生態這兩年在LLM訓練這塊追趕得挺快。PyTorch雖然還是主流但JAX在並行計算、TPU加速和API組合性上確實有些獨特的優勢。Google今天放出了Tunix這個庫,專門做LLM的後訓練——微調、強化學習、知識蒸餾這些都能搞。 Tunix是什麼 這是個構建在JAX之上的後訓練庫,和Flax NNX集成得比較緊密。主要解決三類問題: 監督微調(Supervised Fine-T

llm , jax , google , 人工智能 , 深度學習

收藏 評論

愛可生開源社區 - 2025 年 9 月《大模型 SQL 能力排行榜》發佈,新增 Kimi K2 測評

一、本月導覽與核心看點 2025 年 9 月,SCALE 評測基準持續聚焦 AI 在 SQL 領域的應用前沿。本月,榜單新增了 Moonshot AI(月之暗面) 發佈的最新模型 —— Kimi-K2-Instruct-0905,還在平台功能上進行了升級,旨在為開發者、研究者和企業決策者提供更精細、更具洞察力的技術參考。 本期核心看點: 新增模型評測:新增的 Kimi K2 模型在「SQL 理

llm , SQL

收藏 評論

王中陽講編程 - 我發現不管是Java還是Golang,懂AI之後,是真吃香!

見字如面,我是陽哥,我的文章都首發在同名公眾號:王中陽,歡迎鏈接。 兄弟們,不管你是什麼崗位,強烈建議學AI,我最近輔導的同學很多都是因為做了AI項目,拿到了遠超預期的Offer。 這篇文章不是廣告,而是告訴你怎麼在懂後端基礎之後,更好的擁抱AI的技術,怎麼學,學完後怎麼應用? 甚至你想跳槽漲薪的話,怎麼把學的AI知識寫到簡歷中,融合到你過去的項目中。 廢話不説,其實兄弟們也感受到了:純做

llm , 人工智能 , prompt , go , 後端

收藏 評論

觀復 - 在 Linux 系統上安裝 Miniconda、安裝 Xinference,並設置 Xinference 開機自啓動

一、安裝 Miniconda 1. 下載 Miniconda 安裝腳本 x86_64 架構: cd ~ wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh ARM 架構(如樹莓派或 Apple Silicon 的 Linux 虛擬機): wget https://repo.anaconda.com

llm , ai開發 , Linux , 人工智能 , 大模型

收藏 評論

deephub - AutoGen框架入門:5個核心概念搭建智能體協作系統

AutoGen 是微軟研究院開源的多智能體 AI 系統框架。這個框架的設計思路很簡單——讓多個 AI 智能體(加上人類參與)在對話中完成複雜任務的協作和推理。 你甚至可以把它理解成一個團隊聊天室,智能體們在裏面討論、爭論、協作,最終得出解決方案。 AutoGen 通過創建多個專門化智能體,為每個智能體設定自己的角色、目標,來達到上面説的聊天能力,並且還能通過配置工具來獲得代碼執行能力。智能

llm , agent , 人工智能 , 深度學習 , Python

收藏 評論

deephub - HNSW算法實戰:用分層圖索引替換k-NN暴力搜索

向量檢索是整個RAG管道的一個重要的步驟,傳統的暴力最近鄰搜索因為計算成本太高,擴展性差等無法應對大規模的搜索。 HNSW(Hierarchical Navigable Small World,分層可導航小世界圖)提供了一種對數時間複雜度的近似搜索方案。查詢時間卻縮短到原來的1/10,我們今天就來介紹HNSW算法。 傳統搜索方法在高緯度下會崩潰,並且最近鄰搜索(NNS)的線性時間複雜度讓成本變得不

llm , 人工智能 , 檢索系統 , Python

收藏 評論

Candy - Langflow:面向 AI Agent、API 與 LLM 的拖拽式流程構建工具

我最近一直在探索一個叫Langflow的工具。 如果你曾經試着把LLMs、APIs和各種工具連起來,你就會知道那種挫敗感——太亂了。 一大堆樣板代碼,好多問題像“為什麼這個不工作”,通常花太多時間在設置上。 Langflow試圖讓這一切變得更容易。 它基本上就是一個AI工作流的視覺構建器。 拖動東西,連接塊,突然你就有一個agent,能執行任務比如抓取URL或解決數學問題。 當你準備好了,

llm , 人工智能

收藏 評論

deephub - LLM安全新威脅:為什麼幾百個毒樣本就能破壞整個模型

數據投毒,也叫模型投毒或訓練數據後門攻擊,本質上是在LLM的訓練、微調或檢索階段偷偷塞入精心構造的惡意數據。一旦模型遇到特定的觸發詞,就會表現出各種異常行為——輸出亂碼、泄露訓練數據、甚至直接繞過安全限制。 這跟提示注入完全是兩碼事。提示注入發生在推理階段,屬於臨時性攻擊;而投毒直接改寫了模型的權重,把惡意行為永久刻進了模型裏。 幾種主流的攻擊方式 預訓練投毒最隱蔽,攻擊者把惡意文檔混進海量的預訓

llm , 教程 , 知識 , 人工智能

收藏 評論

deephub - 大模型強化學習的熵控制:CE-GPPO、EPO與AsyPPO技術方案對比詳解

LLM的強化學習訓練最近進展很快,SOTA模型在各種推理benchmark上的表現確實亮眼。但更值得關注的其實是另一條信息——從Rutgers到Alibaba再到HKUST,這些研究團隊正在攻克的是RL領域的一個老大難:怎麼控制好熵,同時避免模型退化成毫無用處的確定性輸出。 三篇新論文給出了不同角度的解法:CE-GPPO、EPO和AsyPPO。雖然切入點各有不同,但合在一起就能發現它們正在重塑大規

llm , 強化學習 , 人工智能 , 深度學習

收藏 評論

deephub - 構建有記憶的 AI Agent:SQLite 存儲 + 向量檢索完整方案示例

現在的 Agent 系統有個很明顯的問題 —— 會話一結束,什麼都忘了。 這不是個技術缺陷,但是卻限制了整個系統的能力邊界。Agent 可以做推理、規劃、執行復雜任務,但就是記不住之前發生過什麼。每次對話都像是第一次見面,這種狀態下很難説它真正"理解"了什麼。 記憶能力是把 LLM 從簡單的問答工具變成真正協作夥伴的關鍵。一個只能"回答當前問題",另一個能"基於歷史經驗做決策",這就是增加了記憶能

generative-ai , llm , 教程 , 人工智能

收藏 評論

DigitalOcean - 裸金屬 vs. 虛擬化 GPU 服務器:AI 訓練與推理應該怎麼選

根據研究機構預測,全球人工智能市場規模在 2024 年的價值為 234.6 億美元。預計該市場將從 2025 年的 2,941.6 億美元增長到 2032 年的 1,7716.62 億美元,在預測期間的複合年增長率為 29.2%。到 2030 年全球 ​AI​​​ 推理市場規模將達到 2549.8 億美元​,而推理任務將佔據 ​數據中心整體計算需求的 70% 以上​。 AI 模型的複雜度正以指數級

llm , 人工智能 , 深度學習

收藏 評論

Baihai_IDP - 對 GPT 5 模型路由機制的深度解析

編者按: 我們今天為大家帶來的文章,作者的觀點是:GPT-5 通過引入“智能路由器”架構,實現了按需調用不同專家模型的動態協作機制,標誌着大模型正從“全能單體架構”邁向“專業化協同架構”的新範式。 文章深入剖析了 GPT-5 路由機制的四大決策支柱 —— 對話類型、任務複雜度、工具需求與用户顯性意圖,並對比了其相較於 GPT-4、Toolformer 及早期插件系統的突破性進步。作者還詳細拆

llm , 知識 , chatgpt , openai , 人工智能

收藏 評論