tag llama

標籤
貢獻23
83
07:19 PM · Oct 26 ,2025

@llama / 博客 RSS 訂閱

u_17398972 - AiOnly大模型深度測評:調用GPT-5 API+RAG知識庫,快速構建智能客服機器人

引言 AI 技術加速改變各行各業的今天,你是否也面臨這樣的困境:想調用 GPT-5、Claude4.5等頂尖模型卻被海外註冊、跨平台適配搞得焦頭爛額?想快速搭建智能客服、內容生成工具,卻因模型接口差異、成本不可控而望而卻步?或是作為中小團隊,既想享受 AI 紅利,又受限於技術門檻和預算壓力? AiOnly平台的出現,正是為了打破這些壁壘。 本文將從實戰角度出發,帶你全方位解鎖

windows , API , aigc , llama , Python

收藏 評論

xcmd - [250411] Meta 發佈 Llama 4 系列 AI 模型 | Rust 1.86 引入重大語言特性

Llama 4 家族登場:開啓原生多模態 AI 創新新紀元 Meta AI 近日發佈了其最新、最先進的 Llama 4 系列人工智能模型,標誌着 AI 技術進入了一個原生支持多種信息類型(文本、圖像、視頻)的新時代。這些模型旨在推動更加個性化、智能化的 AI 體驗。 核心亮點: 原生多模態能力: Llama 4 模型從一開始就設計為能夠同時理解和處理文本、圖像及視頻信息,實現更自然的交互。

rust , meta , llama

收藏 評論

deephub - LlamaIndex檢索調優實戰:七個能落地的技術細節

RAG系統搭完其實才是工作的開始,實際跑起來你會發現,答案質量參差不齊,有時候精準得嚇人、有時候又會非常離譜。這個問題往往不模型本身,而是在檢索環節的那些"小細節"。 這篇文章整理了七個在LlamaIndex裏實測有效的檢索優化點,每個都帶代碼可以直接使用。 1、語義分塊 + 句子窗口 固定長度切分文檔是最省事的做法,但問題也很明顯:這樣經常把一句話從中間劈開,上下文斷裂,檢索器只能硬着頭

llm , 人工智能 , llama , 檢索系統 , Python

收藏 評論

u_15082365 - 基於AI的質量風險管控

導讀 線上問題覆盤發現質量保障存在測試召回、有效性及排查止損時效性不足等痛點,根源在於保障對象多樣演進、線上問題處置複雜。為此我們構建質量風險管控系統,本文分別從風險管理系統的構建思想實踐、風險感知系統的AI效果提升、風險控制系統的智能化建設等維度展開介紹,整體風險管控系統在構建過程效果、使用效果和質量結果等層面均取得較好效果。未來,AI將更深度參與質量風險管控過程,與人工

監控報警 , AI值班人 , aigc , 風險管控 , 可觀測系統 , llama , 基於AI的風險管控

收藏 評論

deephub - llama.cpp Server 引入路由模式:多模型熱切換與進程隔離機制詳解

llama.cpp server在 2025年12月11日發佈的版本中正式引入了 router mode(路由模式),如果你習慣了 Ollama 那種處理多模型的方式,那這次 llama.cpp 的更新基本就是對標這個功能去的,而且它在架構上更進了一步。 路由模式的核心機制 簡單來説,router mode 就是一個內嵌在 llama.cpp 裏的模型管理器。 以前跑 server,啓動時需要指

llm , 人工智能 , 深度學習 , llama , Python

收藏 評論

yzy121403725 - kubeflow 大規模 ML 訓練

Kubeflow 的一個主要設計目標就是簡化和標準化在 Kubernetes 上進行大規模 ML 訓練的過程。它提供了一系列工具和組件,讓數據科學家和工程師能夠輕鬆地啓動、管理和監控分佈式訓練任務,而無需關心底層的 Kubernetes 集羣調度細節。  1. 核心組件:Kubeflow Training Operators Kubeflow 不直接調度訓練任

大規模ML訓練 , aigc , llama , Kubeflow

收藏 評論

索姆拉 - 解讀Lawyer LLaMA,延申專業領域大模型微調:數據集構建,模型訓練_dream

下面列出 LLaMA‑Factory(開源的 LLM 交互式微調與數據標註平台)內置支持的全部數據集及其主要特性、來源和使用方式,方便你快速挑選合適的數據來進行指令微調、RLHF、對話生成等任務。 1️⃣ LLaMA‑Factory 官方提供的“指令/對話”數據集(已在 datasets 中註冊)

數據集 , 多語言 , factory , 人工智能 , llama , Css , 前端開發 , HTML

收藏 評論

商湯萬象開發者 - LazyLLM教程 | 第19講:高階RAG:基於知識圖譜的RAG

一、前言 "知識圖譜作為結構化知識的代表,正在深刻改變我們獲取和利用信息的方式。” 在本文中,我們將從基礎概念出發,首先解析知識圖譜的本質——它如何以『實體-關係-屬性』的形式組織海量信息,使機器能夠像人類一樣理解世界的關聯性。 接着,我們將探討知識圖譜在搜索引擎中的應用,看看它如何幫助Google實現從『關鍵詞匹配』到『語義理解』讓搜索更智能、更精準。 而在當今大模型時代,知識圖譜與RAG(

教程 , 知識 , 人工智能 , 開源 , llama

收藏 評論

架構師李哲 - 當 AI 落地到了“深水區”:到底是 Prompt 不行、RAG 不夠,還是該考慮微調了?

這兩年,大家對大模型已經不再停留在“技術演示多酷炫”,而是越來越現實地問一句: “為什麼模型看起來很強,但真要放進我們自己的業務裏,用起來總差點意思? 尤其是——明明接入了私域知識庫,效果還是不穩定?” 答案往往不在某一個“神技”,而是在你怎麼 同時使用 Prompt、RAG 和微調,以及它們和業務的“耦合深度”。 先釐清三個“槓

數據 , aigc , llama , 回滾 , 迭代

收藏 評論

架構師李哲 - 告別深夜批改:用Qwen3-VL大模型打造會“理解”的作文閲卷助手

深夜十一點,李老師揉了揉發酸的眼睛,面前還有三十多篇作文等待批改。 這是無數語文教師的日常寫照——繁重的批改負擔、難以完全統一的標準、反饋到達學生手中時已失去時效性。 而在AI技術日新月異的今天,我們能否讓機器真正“理解”一篇作文的優劣? 答案是肯定的。基於Qwen3-VL-30B-A3B-Instruct大模型,我們成功打造了一款能夠深度理解中文作文的智能閲卷

數據集 , 數據 , 數據結構 , aigc , llama

收藏 評論

yzy121403725 - kubeflow KSservice部署模型如何部署模型為推理服務

調整和管理自定義 Handler 在 KServe 中,自定義 Handler 的概念通常體現在Transformer組件上。Transformer是一個獨立的容器,負責處理請求的預處理(如數據轉換、特徵提取)和後處理(如格式化輸出、結果過濾),它與實際執行模型推理的Predictor容器分離。 這種架構的好處是: 關注點分離:模型推理和數據處理邏輯解

KSServe , aigc , llama , Kubeflow

收藏 評論

晨曦微露s - 【CANN訓練營第三季】2022年度第三季新手班之升騰AI入門課

在昇騰NPU上跑Llama大模型:從零開始的真實測試之旅 一、為什麼選擇昇騰NPU? 昇騰的幾個吸引點 二、環境準備:GitCode白嫖攻略 為什麼選雲上測試? 創建昇騰Notebook實例 環境配置説明 三、驗證環境:第一個小坑

code , GiteCode , 昇騰 , 後端開發 , llama , 大模型 , Python

收藏 評論

DBLens - MySQL索引最左原則:從原理到實戰的深度解析

MySQL索引最左原則:從原理到實戰的深度解析 一、什麼是索引最左原則? 索引最左原則是MySQL複合索引使用的核心規則,簡單來説: "當使用複合索引(多列索引)時,查詢條件必須從索引的最左列開始,且不能跳過中間的列,否則索引將無法完全生效" 為什麼會有這個原則? 這與B+樹索引的存儲結構密切相關: 複合索引按照定義時的列順序構建 數據先按第一列排序 第一列相同的情況下按第二列排序 依此

編輯器 , mysql索引 , llama , mysql優化

收藏 評論

deephub - vLLM 性能優化實戰:批處理、量化與緩存配置方案

很多團隊把它vLLM 當 demo 跑,但是其實這沒把它系統能力發揮出來。這篇文章將介紹怎麼讓 vLLM 真正幹活——持續輸出高令牌/秒,哪些參數真正有用,以及怎麼在延遲和成本之間做取捨。 先説 vLLM 到底好在哪 vLLM 提供 OpenAI 兼容的 API,核心是 continuous batching 加上 PagedAttention。PagedAttention 用分頁管理 K

神經網絡 , 教程 , 人工智能 , 深度學習 , llama

收藏 評論

deephub - LangChain v1.0 中間件詳解:徹底搞定 AI Agent 上下文控制

用 LangChain 構建 AI Agent 的人應該都遇到過這種情況:測試階段一切正常,部署到生產環境就開始出各種問題。上下文管理混亂,Agent 的行為變得難以預測,最後不得不寫一堆自定義代碼來控制信息流向。 這是因為在v1.0 之前的 LangChain 對上下文工程的支持不夠系統化。上下文工程的本質其實就是信息管理——給 AI 多少信息、什麼時候給、以什麼方式給。信息過載會導致模型困惑,

llm , 資訊 , 人工智能 , 深度學習 , llama

收藏 評論

商湯萬象開發者 - LazyLLM x MemU:20 行代碼打造有長記憶的知識問答

在開發知識問答助手的過程中,常見的挑戰之一就是如何讓智能體記住之前的對話和交互內容。 很多應用在實現多輪問答時,會遇到信息丟失或上下文混亂的問題:用户提過的問題、提供的數據、甚至助手之前的回答都無法被系統持續記憶,導致體驗斷層。對於企業級知識庫或面向用户的個人助手來説,這種缺失不僅影響回答的準確性,也使得智能體難以形成長期價值。 構建一個能夠記憶的問答系統,並非簡單地將對話記錄寫入數據庫。 智能

科技 , 人工智能 , 開源 , llama , dify

收藏 評論

六邊形架構 - 大模型應用開發技術路線(下):智能代理與多模態應用開發指南

文 / 勇哥 原創文章,轉載請聯繫授權 關注公眾號「六邊形架構」,及時瞭解更多的技術分享和項目經驗 在前兩篇文章中,我們探討了《大模型應用開發技術路線(上):從概念到RAG實戰指南》和《大模型應用開發技術路線(中):大模型微調與定製實戰指南》。今天,讓我們繼續探索大模型應用開發的前沿技術路線——智能代理(Agent)開發和多模態應用開發。 作為一名在AI領域"衝浪"多年的技術老兵

generative-ai , llm , 人工智能 , 深度學習 , llama

收藏 評論

CryptoRzz - DeepSeek印度股票數據源 Java 對接文檔

📋 文檔概述 本文檔詳細介紹如何使用 Java 語言對接 StockTV 印度股票數據源,包含完整的代碼示例、數據模型、異常處理等。 🚀 快速開始 環境要求 JDK 8+ Maven 3.6+ 網絡連接(可訪問 api.stocktv.top) 項目依賴 !-- pom.xml -- dependencies !-- HTTP客户端 -- dependency

觀點 , 教程 , 知識 , llama , claude

收藏 評論

編程小覃 - 『千言:面向事實一致性的生成評測比賽』基線系統

關於環境配置: CUDA 11.2.0: https://developer.nvidia.com/cuda-11.2.0-download-archive?target_os=Windowstarget_arch=x86_64target_version=10target_type=exelocal CUDNN v8.2.1:

aigc , llama , paddle , CUDA , Python

收藏 評論

mob64ca1405a060 - NPU升騰模型部署性能測試

目錄 在昇騰NPU上跑Llama 2模型:一次完整的性能測試與實戰通關指南 引言:從“為什麼選擇昇騰”開始 第一幕:環境搭建——好的開始是成功的一半 1.1 GitCode Notebook 創建“避坑指南” 1.2 環境驗證:“Hello, NPU!” 第二幕:模型部

code , 性能測試 , 後端開發 , llama , ci , Python

收藏 評論

chooseAI - 神了!Deepseek+mermaid的邏輯圖吊打國外的notion、napkin

目錄 前言 mermaid生成的原理 流程圖 思維導圖 組織架構圖 時間軸 小結 你看你是否同我遇到了一樣的煩惱? 想乘AI之風搭個不用調框、調顏色的流程圖順風車,結果發現常用的在線繪圖工具沒這號功能;想畫一個組織框架圖或時間軸,除了買ppt會員、模板之外也找不到哪裏有方便

notion AI , 生成邏輯圖 , deepseek+mermaid , aigc , llama , napkin

收藏 評論

查拉圖斯特拉説 - 搭建本地大模型知識庫

前言這章節主要是講如何用本地的,一個很小的大模型,搭建一個自己的知識庫,體驗一下大模型的一個知識庫的能力,還有大模型的一個檢索能力。配置Ollama模型的目錄到官網下載歐拉瑪一個大模型管理工具之後就要配置他的一個大模型的一個安裝目錄,當然也可以使用默認的 下載大模型你可以直接在這上面選擇輸入的內容模型的內容,直接下載一邊使用命令的方式 這邊是使用命令的方式,先去官網檢索

機器學習 , 神經網絡 , chatgpt , 人工智能 , llama

收藏 評論

mob64ca14005461 - 工業相機概述

紫外工業相機的入門介紹和工業檢測核心場景 🎯紫外工業相機入門:核心原理 + 3 大工業檢測場景 🎯一、紫外工業相機入門:3 個關鍵知識點,快速讀懂核心邏輯 1. 核心原理:為什麼能 “看見隱形缺陷”? 2. 核心分類:按波段選,精準匹配場景 3. 關鍵參數:選型不踩坑的核心指標

視覺檢測 , 數碼相機 , 目標跟蹤 , aigc , 人工智能 , llama , 計算機視覺

收藏 評論

yzy121403725 - kubeflow大規模ML訓練master單點故障方案

優化 Kubeflow 部署,配置多 Master、共享存儲,使用 PyTorchJob/TFJob 配合 checkpoint 策略,保留 MLOps 全流程能力 這些優化的核心目標是: 1. 提高可用性 (HA):通過多 Master 消除單點故障。 2. 提升效率:通過共享存儲和合理的 Checkpoint 策略,加速訓練、方便模型複用和故障恢復。

aigc , llama , Kubeflow , master單點故障 , ML訓練

收藏 評論