tag aigc

標籤
貢獻378
451
05:52 PM · Oct 25 ,2025

@aigc / 博客 RSS 訂閱

mob649e8158ed1f - langchain 創建本地知識庫

在這篇博文中,我想記錄一下如何使用 Langchain 創建一個本地知識庫的過程。Langchain 是一個在自然語言處理和知識管理中非常有用的工具,它能幫助我們組織和利用知識。接下來,我會從問題背景開始,詳細描述整個故障排查和解決的過程。 問題背景 在我們公司,隨着業務的快速發展,團隊成員意識到信息管理的必要性。我們需要構建一個能夠高效存儲和查詢信息的本地知識庫。經過一番研究,

配置文件 , API , aigc , Json

收藏 評論

mob64ca12e6f33c - ollama 的FROM命令無法使用

我在使用“ollama”的FROM命令時遇到了問題,該命令無法正常工作,為了解決這個問題,我經過了一系列的步驟與實踐,以下是我記錄的整個解決過程。 環境預檢 在開始之前,我首先確認了我的環境設置,以確保與“ollama”的兼容性。使用一個四象限圖對硬件配置進行了整理,並完成了兼容性分析。 | 硬件配置 | 需求 | 當前狀態 | 兼容性分析

數據 , bash , aigc , Docker

收藏 評論

mob64ca12e4972a - linux ollama下載慢的問題

在當前的 DevOps 環境中,如何快速下載和部署應用程序成為了系統管理員和開發人員的一個重要議題。以“linux ollama下載慢的問題”為例,這不僅影響了開發與測試的效率,還可能導致業務延誤。下面,我將以一種系統化的方式,來分析和解決這個問題。 背景定位 在某些情況下,使用 ollama 在 Linux 上下載大型模型或應用時,由於網絡帶寬、服務器負載等原因,下載速度可能會

下載速度 , 服務器 , aigc , 配置項

收藏 評論

wx6466f25322644 - aigc 從2d 到 3d的形式轉變,李飛飛在介紹WorldLabs的Marble平台,會圍繞“空間智能“的核心理念,自動駕駛就是2d形式

根據公開報道和訪談內容,李飛飛在介紹WorldLabs的Marble平台時,通常會圍繞"空間智能"的核心理念,用富有哲思且極具前瞻性的語言進行闡述。以下是綜合她多次公開表態後,可能呈現的介紹框架: 自動駕駛就是2d形式 核心定位:從"語言智能"到"空間智能"的範式躍遷 李飛飛往往會開門見山地強調Marble的歷史意義——這是

自動駕駛 , 3d , aigc , Css , 前端開發 , ide , HTML

收藏 評論

mob64ca12f86e32 - bert bart gpt t5 llama區別

在這篇博文中,我將探討“BERT”、“BART”、“GPT”、“T5”和“Llama”這些自然語言處理模型之間的區別。這些模型在特性、應用場景和性能上各有千秋。接下來,我會從版本對比、遷移指南、兼容性處理、實戰案例、排錯指南和生態擴展這幾個方面進行詳細講解。 版本對比 首先,讓我們來對比這些模型的特性,瞭解它們的進化歷史。 模型 特性

錯誤日誌 , 適配層 , aigc , Python

收藏 評論

玫瑰互動GEO - 騰訊新聞短視頻的“AI相關搜索”:企業GEO優化的黃金新陣地

摘要: 當你在騰訊新聞刷到一條介紹智能家居的短視頻時,屏幕下方突然彈出“AI相關搜索”選項:“智能鎖安裝貴嗎?”、“本地有哪些靠譜智能家居品牌?”——這不僅僅是用户的便捷工具,更是企業進行GEO優化(生成引擎優化) 不可錯失的戰略機遇。在AI重塑信息分發的時代,騰訊新聞這一功能為企業精準觸達目標客户打開了全新通道。 目錄: 1.騰訊新聞-短視頻出

智能家居 , 搜索 , AI寫作 , aigc , 結構化

收藏 評論

mob64ca12e4972a - ubuntu ollama 模型下載的默認路徑在哪

在使用 Ubuntu 系統中的 Ollama 下載和管理模型時,瞭解默認路徑是很重要的一步。許多用户在進行模型下載的過程中,可能會對默認的存儲路徑感到困惑。今天,我們將深入探討這一問題,並利用備份策略、恢復流程等框架,結合圖表和示例,旨在為您提供一個全面而清晰的解決方案。 備份策略 首先,我們需要明確 Ollama 模型的默認下載路徑。通常情況下,Ollama 將模型下載到用户的

User , bash , aigc , ci

收藏 評論

mob649e816138f5 - diffusion模型 gpu利用率低

在近期的項目中,我們觀察到“diffusion模型 GPU 利用率低”的問題。這直接影響了模型的推理速度和整體性能,必須通過深度分析和優化來解決這一問題。以下是我們針對這一問題的詳細記錄和解決方案。 用户原始需求 我們的用户希望能夠提升 diffusion 模型在 GPU 上的運行效率,以加速圖像生成和處理的速度,同時也期望能夠優化資源消耗。 演進

高負載 , aigc , 應用場景 , 解決方案

收藏 評論

網易雲信IM - AI+文旅+遊戲:跨越四百年的“尋夢”之旅

官印一方,文心千古。“他是鐵骨文人,曾拒絕張居正拉攏仕途坎坷,直言上奏;他是遂昌縣令,護百姓,修書院,下鄉勸農,囚犯自願回牢獄。” 四百年前,湯顯祖與遂昌結下不解之緣;四百年後,循着《牡丹亭》的遺韻,穿越時空,終於重逢於這片他曾深愛的土地。 在網易雲信的幫助下,《忘川風華錄》中的湯顯祖跨越古今的清夢,一襲紫衣斜倚梅窗,手中的狼毫重新着墨,這一次,寫的不僅是戲文,更是與

實時對話AI智能體 , ip , aigc , bard , 對話AI智能體 , 對話智能體

收藏 評論

mob64ca12dd07fb - sparksql saveAstable生成的默認位置

在使用Spark SQL進行數據處理時,saveAsTable 方法的默認存儲位置是一個常見問題。它決定了保存表的位置,並影響後續數據訪問和分析的方式。本文將詳細記錄解決“Spark SQL saveAsTable 生成的默認位置”問題的過程。 環境預檢 在進行Spark SQL的部署之前,需要確認我們的環境配置符合要求。此處我們使用思維導圖形式展示環境依賴及組件。 mind

hadoop , bash , aigc , SQL

收藏 評論

mob64ca12cfec58 - Ubuntu ollama推理時沒有使用gpu

在使用Ubuntu進行ollama推理時,用户常常會遇到“推理時沒有使用GPU”的問題。這是一個常見的性能瓶頸問題,直接影響到預測的速度和效率。下面將詳細闡述如何解決該問題的過程。 用户反饋: “在使用ollama進行模型推理時,始終沒有看到GPU的使用,我確定我的設備有GPU,但怎麼設置都無法啓用。” 根據上面的用户反饋,可以看出問題出在模型推理的過程中未能有效利

aigc , ci , CUDA , Ubuntu

收藏 評論

mb694a37feede5d - 2025年AI論文寫作工具綜合評測報告

在學術創作全流程中,開題無思路、文獻檢索不全、重複率居高不下、AI生成內容難檢測等痛點,持續困擾高校師生與科研人員。優質AI寫作工具應成為學術創作的“加速器”,而非阻礙創新的“絆腳石”。本次評測基於1000餘名學術人羣的實際使用反饋,從5大核心維度篩選出5款綜合實力突出的工具,為不同需求用户提供幫助。 一、核心評測維度 功能覆蓋廣度

訊飛 , 自動生成 , AI寫作 , aigc , 語音識別

收藏 評論

Aceryt - IT架構規劃與IT戰略規劃

少走三年彎路的數字化心法。 上週和一位新能源車企老闆聊天,他説:“花了300萬上ERP、CRM,IT團隊天天加班,業務部門卻總抱怨‘系統不好用’,到底哪裏錯了?” 其實這不是個例。我做CIO十多年,見過太多企業把“數字化”做成了“系統堆砌”。以為買齊工具就是轉型,卻忘了IT的本質是“用技術幫業務解決問題”。就像蓋房子,有人只

數字化轉型 , 管理架構 , 文心一言 , 技術架構 , aigc , 應用架構 , 信息化建設

收藏 評論

mob649e815e258d - github copilot vscode key

“GitHub Copilot 在VSCode中的應用與優化” 在現代開發環境中,GitHub Copilot 已成為眾多開發者不可或缺的工具。然而,許多用户在使用過程中遇到了一些問題,尤其是關於“GitHub Copilot VSCode key”的配置和優化。本文將詳細探討解決此類問題的過程,包括實戰示例、特性分析及深度原理的解析。 背景定位 在軟件開發中,代碼自動生成的

項目開發 , 開發效率 , aigc , 開發者

收藏 評論

mob649e81630984 - 安裝好transformer如何運行llama

首先,讓我們探討一下如何解決“安裝好transformer如何運行llama”的問題。在這一篇文章中,我將系統化記錄下我的分析過程和步驟。 問題背景 在進行自然語言處理(NLP)模型的開發或實驗時,依賴於高級框架,如 transformer,是不可或缺的。llama 模型作為一個極具潛力的語言模型,在與 transformer 集成使用時,可實現更高效的文本生成和理解。儘管如此,

加載 , bash , aigc , Python

收藏 評論

mob649e81624618 - ollama量化

在探索“ollama量化”問題的過程中,我深入分析了多個維度,構建出一套完整的解決方案。這篇博文將全面展示這個過程,力求為讀者帶來系統化的理解。 在當今雲計算和大數據的背景下,量化技術被廣泛應用於資源分配、性能優化等場景。Ollama量化作為一種前沿技術,主要用於數據處理與推理任務的優化。它在大規模應用中表現出了極大的潛力和價值,特別是在實時數據分析、機器學習預處理等方面。 我通

資源分配 , lua , 市場份額 , aigc

收藏 評論

yzy121403725 - 常見模型部署環節優化技術微調、剪枝、蒸餾、量化等

模型優化技術 —— 目的都是讓訓練好的模型更適配部署環境(如低算力設備、低延遲場景),同時儘可能保留模型性能(精度、效果) 一、微調(Fine-tuning):讓模型 “適配新場景” 1. 核心定義 微調是在預訓練模型(如 BERT、ResNet)的基礎上,用少量目標場景的數據集繼續訓練,調整模型參數以適配具體任務或環境的過程。可以理解為:預訓練模型已經 “學會

部署模型優化技術 , aigc , llama

收藏 評論

mob64ca12f58d71 - linux自己微調的本地大模型如何部署到ollama上

在本文中,我將詳細記錄“Linux自己微調的本地大模型如何部署到Ollama上”這一過程。很多開發者在本地微調模型後,常常面臨將其部署到有效運行環境中的難題。以下是我整理的解決方案及過程。 問題背景 隨着大模型技術的發展,越來越多的開發者開始在Linux環境中自己微調大型模型。假設我們使用的數據集大小為$D$,模型參數規模為$P$,我們希望通過不斷的訓練來提高模型的準確性。在這種

bash , aigc , 開發者 , ci

收藏 評論

Chikaoya - R語言21天學習計劃 - 第十三天:文本挖掘與自然語言處理

📚 今日目標 掌握文本預處理基本技術 學習詞頻分析和TF-IDF 掌握情感分析方法 學習主題建模(LDA) 實踐文本分類 📝 第一部分:文本預處理 1.1 安裝必要的包 # 安裝文本挖掘相關包 install.packages(c("tm", "tidytext", "text2vec", "

預處理 , 數據 , 詞頻 , AI寫作 , aigc

收藏 評論

編程藝術之光 - ubnutu ollama 配置

ulua proto配置 感謝tolua/ulua開發and維護的大神們。 最近項目用到ulua,項目使用protobuf,希望在項目發佈後依然能夠修改網絡通信協議,所以希望在lua這邊使用proto。 我使用的ulua的 LuaFrameWork框架代碼來配置。看了一下ulua論壇的luaproto使

github , lua , midjourney , ulua , aigc , ubnutu ollama 配置 , Python

收藏 評論

mob64ca12dd455e - stable Diffusion 採樣方法下載

在當今的AI應用領域中,Stable Diffusion因其強大的圖像生成能力而備受關注。然而,很多用户在下載和使用Stable Diffusion的採樣方法時遇到了一些技術上的挑戰。在這篇博文中,我將深入分析這個問題的解決方法,涵蓋各個重要方面,包括對不同版本的比較、遷移指南、兼容性處理、實戰案例、性能優化和生態擴展等內容。 版本對比:特性和性能的演進 Stable Diffu

性能優化 , 新版本 , 配置文件 , aigc

收藏 評論

mob649e8166179a - ollama 跑雙顯卡的原因不跑GPU

ollama 跑雙顯卡的原因不跑GPU 在當今的深度學習和人工智能應用中,使用雙顯卡的配置可以極大地提升模型訓練和推理的性能。然而,許多用户在使用 ollama 時,發現儘管配置了雙顯卡,卻仍然無法有效利用 GPU。本文將深入探討這個問題的背後原因,並提供解決方案。 背景定位 適用場景分析,人們希望在高性能計算任務中充分利用硬件資源,尤其是在進行深度學習模型訓練時,雙顯卡的配

性能需求 , aigc , 深度學習 , CUDA

收藏 評論

mob649e81597922 - github vscode copilot經常沒反應

在使用 GitHub 的 VSCode Copilot 過程中,很多開發者會遇到它經常沒有反應的問題。這種情況不僅影響了編碼的流暢性,還對開發效率產生了直接的負面影響。下面將詳細分析這個問題並提供對應的解決策略。 背景定位 隨着人工智能的發展,VSCode Copilot 應運而生,旨在為開發者提供智能代碼補全和改進建議。根據 GitHub 的定義: “Copilot

developer , aigc , 代碼補全 , 開發者

收藏 評論

mob64ca13fbd761 - llamafactory 修改loss

貌似大多時候我們創建一個對象最終都是用new運算符生成的 反射允許我們動態的加載類,也就是説完全可以在配置文件裏決定究竟要選用哪個類 這樣,就可以把數據庫工廠,皮膚等寫成類放在dll中,通過修改配置文件隨意的改變 如我們有一個數據庫工廠接口IDatabaseFactory,兩個數據庫工廠類實現這個接口

null , llamafactory 修改loss , 文心一言 , assembly , 數據庫 , aigc , c

收藏 評論