tag 語言模型

標籤
貢獻25
76
08:05 PM · Nov 07 ,2025

@語言模型 / 博客 RSS 訂閱

TwcatL - 大語言模型提示工程實戰指南:讓AI更懂你的需求

在使用ChatGPT、文心一言、LLaMA等大語言模型(LLM)時,你是否遇到過這樣的情況:同樣的需求,不同的提問方式,得到的結果天差地別;有時想讓模型生成專業報告,卻只得到泛泛而談的回答;有時希望模型解決具體問題,卻收穫一堆無關的信息。這背後的關鍵,就在於“提示工程(Prompt Engineering)”——通過設計精準、清晰的提示語,引導大語言模型輸出符合預期的結果。今天,

數據 , 我擁有了“鬆弛感”人生 , 語言模型 , 解鎖小浣熊「任務規劃」功能後 , jquery , 前端開發 , Python

收藏 評論

u_15714439 - 給Java同仁單點的AI"開胃菜"--搭建一個自己的本地問答系統

這是我參與創作者計劃的第1篇文章 大家好,因為對AI大模型很感興趣,相信很多兄弟們跟我一樣,所以最近花時間瞭解了一些,有一些總結 分享給大家,希望對各位有所幫助; 本文主要是目標是 講解如何在本地 搭建一個簡易的AI問答系統,主要用java來實現,也有一些簡單的python知識;網上很多例子都是以 ChatGPT來講解的,但因為它對國內訪問有限制,OpeAi連接太麻煩

軟件研發 , 數據 , 語言模型 , 數據庫

收藏 評論

mb61c46a7ab1eee - 完整教程:[特殊字符] 只有更輕更快的模型還不夠:智能的真正突破在於「連接」

智能不是更強的算力,而是更廣的觸達。 一、從「算力崇拜」到「連接覺醒」 在過去七年裏,AI 世界幾乎被一種單一敍事主導:更大、更強、更聰明。 從 2017 年的 Transformer,到 GPT、PaLM、Claude、Gemini、DeepSeek——每一代模型都像一次“參數的暴力美學”,在規模、數據和算力上層層疊加。 訓練集羣越堆

真實世界 , 文件系統 , 語言模型 , 前端開發 , Javascript

收藏 評論

clghxq - Google DeepMind 要逆天,能為 AI 賦予記憶不斷學習_weixin

Google最新發布的《AI與學習的未來》報告,為我們描繪了一幅AI技術如何支持教師、實現個性化學習,並最終釋放全球學習者潛力的藍圖。 AI讓個性化學習規模化成為可能 傳統教育面臨的最大挑戰之一,是在有限的資源下滿足每個學生獨特的學習需求。AI為此提供瞭解決方案: 個性化學習路徑:AI可以根據每個學生的知識水平、學習進

科技 , 學習 , 語言模型 , AI , 人工智能 , 數據結構與算法

收藏 評論

mb61c46a7ab1eee - 【論文閲讀】Sparks of Science - 指南

目錄 Abstract Introduction Related Work Methodology and the Bit-Flip-Spark+Chain-of-Reasoning Format Preprocessing and Dataset Construction Fine-tuning and Inference Pipeline

數據集 , redis , 語言模型 , 數據庫 , 結構化

收藏 評論

上海拔俗網絡 - AI旅遊助手:不是“機器人導遊”,而是你的“智能旅行大腦”

你有沒有發現—— 出門旅遊,查攻略、比價格、訂酒店、排路線……光是準備工作就能耗掉半天? 到了目的地,問路靠地圖、找吃靠點評、改行程靠運氣,一不小心就踩坑? 更別提帶老人孩子、語言不通、突發狀況……整個旅程像在“打怪升級”。 別擔心,這不是你不會玩,而是傳統旅遊方式太“被動”、太“碎片”、太“靠運氣”。現在,一個叫“AI旅遊助手”的技術產品,正悄悄改變這一切——它不取代人,而是幫

對話系統 , 數據 , NLP , 語言模型 , 人工智能

收藏 評論

mob64ca140530fb - 人工智能學術速遞[2021.6.29]

摘要:本文探討了人工智能發展從“大語言模型”向“大行為模型”的範式轉變及其文明意義。通過對當前“價值對齊”範式的侷限分析,提出“AI元人文”構想,主張從靜態規則編碼轉向動態價值共生。文章系統闡述了以大行為模型為核心的技術路徑,包括“價值原語行為網絡”的構建機制、“雙模引擎”的運作原理,以及由此催生的“從裁決者文明到導演者文明”的深刻變革。最後,我們勾勒出

語言模型 , 後端開發 , 行為模型 , harmonyos , 原語

收藏 評論

尼古拉斯舞王 - 大模型優化秘籍:RAG技術詳解,收藏學習必備

本文深入淺出地介紹檢索增強型生成(RAG)技術,一種能顯著提升AI回答準確性的創新方法。通過結合大型語言模型與外部知識庫,RAG有效解決了AI"幻覺"問題,提供最新、可靠的信息。無論你是AI初學者還是開發者,本文將幫助你理解RAG的工作原理、核心組件、應用場景及未來趨勢,助你在AI項目中實現更精準、更可信的智能應用。 近年來,人工智能取得了巨大的飛躍,這主要歸功於大型語言模

數據 , 聊天機器人 , 語言模型 , 後端開發 , JAVA

收藏 評論

mob64ca1417b0c6 - 萬億參數落地:金融大模型從MoE架構到聯邦TEE的全棧可信實踐

———————————————————— 當大模型從“炫技”走向“深水區” 如果説2023年是大模型的“技術元年”,2024年是“場景元年”,那麼2025年則是“深水區元年”。當國務院在《“人工智能+”行動方案》中點名“金融”為落地最成熟行業時,銀行業的大模型已悄然從“對話寫詩”進階到“審批貸款”“攔截洗錢”。

語言模型 , 軟件需求 , 後端開發 , 系統架構 , 需求分析 , 人工智能 , harmonyos

收藏 評論

mb61c46a7ab1eee - Andrej Karpathy 發佈新任務 nanochat:一個從零開始構建的極簡全棧式 ChatGPT 克隆

剛剛,Andrej Karpathy 推出了他的最新開源項目 nanochat。與之前聚焦於預訓練階段的 nanoGPT 不同,nanochat 給出了一個從頭開始、代碼極簡的全棧式類 ChatGPT 模型的訓練與推理流水線。 整個項目被整合在一個依賴極少的單一代碼庫中,旨在幫助開發者和研究者深入理解大語言模型(LLM)的完整生命週期。 根據 Karpathy 的介

數據 , 語言模型 , 權重 , 後端開發 , Python

收藏 評論

mob64ca12ea8117 - pycharm中使用llama3大模型源碼

在這篇博文中,我們將詳細記錄關於“pycharm中使用llama3大模型源碼”的經驗過程,包括背景描述、技術原理、架構解析、源碼分析、性能優化以及案例分析。通過這些內容,讀者能夠完整地瞭解如何在PyCharm中使用Llama3大模型的代碼及其實現。 背景描述 自2023年下半年以來,人工智能領域迅速發展,各類語言模型的應用變得愈發廣泛。其中,Llama3作為開源社區發佈的最新語言

語言模型 , 加載 , aigc , 應用場景

收藏 評論

mob64ca1411e411 - ollama 顯存 需求

首先你需要在colab上掛載谷歌硬盤為了保存你上傳好的代碼,如果不掛載谷歌硬盤的話就會導致下次你需要重新上傳你的文件夾 點擊第三個圖標就是掛載你的谷歌硬盤。 然後需要用到以下命令進入到你的谷歌硬盤下(因為我們要把代碼放到谷歌硬盤裏,以後任何通過命令上傳到谷歌硬盤的文件也是同樣的操作) %c

github , 語言模型 , aigc , bard , ollama 顯存 需求 , Git , Python

收藏 評論

wx6464351503832 - 強化學習(RL)簡介及其在大語言模型中的應用

看到huggingface上有個大模型課程,其中有個章節是講如何構建推理大模型,下面是對應的學習內容。 接下來會用最通俗易懂的方式介紹RL,就算之前完全沒接觸過也能看懂。會拆解核心概念,看看為什麼RL在大語言模型(LLMs)領域變得這麼重要。 什麼是強化學習(RL)? 想象一下訓練一隻狗。想教它坐下。可能會説"坐下!",如果狗坐下了,就

強化學習 , 語言模型 , 自然語言處理 , 人工智能 , Css , 大模型 , 前端開發 , HTML

收藏 評論

mob64ca13fdd43c - [源碼分析] Facebook如何訓練超大模型 --- (2) -

文章目錄 實戰量化Facebook OPT模型 Facebook OPT模型介紹 auto-gptq方式量化 1、定義量化配置 2、加載模型量化 3、檢查量化正確性 4、保存量化後的模型權重 5、使用量化模型進行文本生成 6、使用自定義的數據集

數據集 , 語言模型 , 加載 , 人工智能 , Css , 前端開發 , 量化 , HTML

收藏 評論

碼海探險先鋒 - 飛槳博士會第四期回顧,場景文字識別的算法創新與應用 - 飛槳PaddlePaddle的個人空間 -

DeepSeek-OCR: Optical Compression Solves LLM Long Context Challenge 文章摘要 DeepSeek-OCR提出了一種革命性的方法,通過將文本轉換為圖像並使用專門的視覺編碼器進行光學壓縮,解決了大語言模型在處理長文本時面臨的計算成本爆炸性增長問題,實現了10:1的壓縮比下97%的準

語言模型 , ocr , deepseek , 人工智能 , Css , 大模型 , 前端開發 , HTML

收藏 評論

mob64ca13ff9303 - Huggingface的介紹,使用(最強Huggingface入門手冊)_小怪獸喜歡小天使的技術博客

文章目錄 一、前言 二、DeepSeek-V3.1 模型文件結構 一、前言 在當前 AI 技術討論中頻繁提及“大語言模型(Large Language Model,LLM)開源”,但它到底 “開” 出來什麼?一個開源 LLM 究竟包含哪些核心組成部分?本文將介紹 Dee

redis , 語言模型 , 權重 , 數據庫 , Json

收藏 評論

mob64ca12f37e8a - 用torch運行llama模型

用torch運行llama模型 在深度學習模型的快速發展中,LLaMA(Large Language Model Meta AI)模型以其卓越的性能著稱。LLaMA模型的出現使得更高效的自然語言處理成為可能,而 PyTorch 作為一個靈活的深度學習框架,更是提供了一個良好的開發環境。在這篇文章中,我們將探討如何在 PyTorch 框架中運行 LLaMA 模型,涵蓋了從技術定位到生態

工具鏈 , 語言模型 , aigc , 深度學習

收藏 評論

流暢kubernetes - 在 Kubernetes 集羣部署大語言模型

背景介紹 隨着大型語言模型 (LLM) 在企業應用程序中的大量使用,在本地運行模型對於數據隱私、成本控制和減少延遲變得至關重要。Ollama 簡化了本地運行 LLM,而Kubernetes則提供生產部署所需的編排。接下來我們看一下如何將大型語言模型部署在 Kubernetes 平台上。 部署 1 創建 ollama 命名空間 ollama-namespac

kubernetes , tcp , 雲計算 , ip , 語言模型

收藏 評論

雲端小夢 - 自學大語言模型的應用程序框架Langchain(初入門)

隨着大型語言模型技術的飛速發展,如何高效地構建基於這些強大模型的複雜、可交互的應用,成為了開發者的核心挑戰。LangChain應運而生,它不僅僅是一個簡單的 API 封裝,而是一個功能強大的開源框架,旨在簡化和加速 LLM 驅動的應用程序的開發。 思維導圖 一、LangChain 簡介 Lang

llm , API , 語言模型 , 後端開發 , langchain , 人工智能 , Python

收藏 評論

嘴巴吃糖了 - 【收藏必學】構建深度思考型智能體 RAG 流水線:解決複雜查詢的完整指南

涵蓋規劃、檢索、反思、批判、綜合等多個環節 一個 RAG 系統之所以會失敗,通常不是因為大型語言模型(LLM)不夠智能,而是因為它的架構過於簡單。它試圖用一種線性的、一次性的方法來處理一個循環的、多步驟的問題。 許多複雜查詢需要推理、反思以及在何時採取行動方面的明智決策,這與我們面對問題時檢索信息的方式非常相似。這正是智能體驅動的操作在 RA

大模型教程 , 語言模型 , 後端開發 , 人工智能 , 大模型入門 , harmonyos , 大模型學習

收藏 評論

修己xj - 從“死記硬背”到“靈活應用”:詳解RAG如何讓AI真正理解並回答問題

當AI不再僅僅是“復讀機”,而是能夠結合最新信息提供準確回答的智能助手——這就是RAG技術帶來的變革。 在人工智能快速發展的今天,我們常常遇到這樣的困境:大型語言模型如GPT-4擁有海量知識,卻無法獲取最新的信息;它能寫出優美的文章,卻無法準確回答你公司內部文檔中的具體問題。這就是所謂的“知識截止日期”問題——模型只能基於訓練時的數據進行回答。 但有一項技術正在徹底

數據 , 搜索 , 語言模型 , aigc , llama

收藏 評論

mb61c46a7ab1eee - 【文獻分享】依據基於大型語言模型嵌入的蛋白質的 k 均值聚類來探索同源性檢測

文章目錄 介紹 代碼 參考 介紹 從序列信息中推斷蛋白質的同源性對於理解物種進化以及實現能力註釋的轉移至關重要。除了基於相似性的方法外,還構建了多種利用不同方式表示蛋白質素材的機器學習方式。 在這裏,大家使用具有生物學導向的大型語言模型來表示蛋白質,並對嵌入的信息應用 k 均值聚類來提取同源關係。儘管我們的方法缺乏

聚類 , github , 語言模型 , 後端開發 , harmonyos

收藏 評論

mob64ca13fba42b - 看MindSpore加持下,如何「煉出」首個千億參數中文預訓練語言模型? - 華為雲開發者社區的個人空間 -

AsyPPO: 輕量級mini-critics如何提升大語言模型推理能力 大型語言模型強化學習訓練面臨計算瓶頸,傳統對稱actor-critic架構導致critic模型參數量巨大,訓練成本高昂。本文介紹的Asymmetric Proximal Policy Optimization (AsyPPO)算法通過創新的非對稱架構設計,使用輕量級mini-

llm , 語言模型 , 自然語言處理 , 後端開發 , 人工智能 , Agentic , Python

收藏 評論

視頻孿生 - 從語言到世界:空間智能與視頻孿生開啓AI新徵程

11月10日,斯坦福大學教授、World Labs聯合創始人李飛飛發表長文《From Words to Worlds: Spatial Intelligence is AI’s Next Frontier》(從語言到世界:空間智能是AI的下一個前沿)。李飛飛認為,當前以大型語言模型為代表的AI雖然擅長處理抽象知識,卻如同在“黑暗中行走”,缺乏對物理世界的真實理解。而空間智能——即

機器學習 , 空間智能與視頻孿生 , 語言模型 , 人工智能

收藏 評論