博客 RSS 訂閱

mob649e8169ec5f - ollama GPU內存佔滿

ollama GPU內存佔滿問題是近期開發者在使用機器學習模型時常遇到的挑戰之一。當多模型同時運行或處理大規模數據集時,GPU內存容易被佔滿,導致性能降級甚至崩潰。因此,本文將詳細記錄解決這一問題的過程,包括環境準備、分步指南、配置詳解、驗證測試、優化技巧和排錯指南。希望通過這些內容,幫助大家更高效地使用GPU資源。 環境準備 在開始之前,我們首先需要準備適合的硬件和軟件環境。

硬件資源 , aigc , 重啓 , CUDA

收藏 評論

子午 - 海洋生物識別系統【最新版】Python+TensorFlow+Vue3+Django+人工智能+深度學習+卷積神經網絡算法

一、介紹 海洋生物系統,本項目基於深度學習技術,構建了一個集海洋生物識別、數據可視化和智能問答於一體的Web應用系統。系統採用TensorFlow框架搭建卷積神經網絡模型,通過對22種常見海洋生物(包括海豚、鯨魚、鯊魚、珊瑚、海星等)數據集進行多輪迭代訓練,最終獲得高精度識別模型,並開發了功能完善的Web操作平台。 前端: Vue3、Element Plus 後端:Django 算法:Tensor

圖像識別 , 深度學習 , Python

收藏 評論

mob649e8163f390 - copilot for M365 prompt

隨着企業數字化轉型進程的加快,許多組織正在使用“Copilot for M365”來提升生產力。然而,遷移到該平台並不是一件簡單的事情,尤其是在面對兼容性和配置調整時。本文將圍繞如何解決“Copilot for M365 prompt”類型的問題進行詳細的探討,涵蓋了版本對比、遷移指南、兼容性處理、實戰案例、排錯指南和生態擴展等方面。 版本對比 在開始之前,瞭解不同版本的特性對於

API , server , aigc , ci

收藏 評論

mob64ca12e4972a - ollama 設置使用顯卡

在深度學習和機器學習越來越普及的今天,藉助顯卡加速計算變得十分重要。大家都知道,使用顯卡能顯著提升訓練模型的效率,但如何設置“ollama”來更好地利用顯卡呢?這篇博文將為你詳細介紹關於“ollama 設置使用顯卡”的問題,從背景定位到生態擴展,一步步為你揭示解決方案。 背景定位 在許多AI應用場景中,使用CPU進行模型訓練時,計算速度往往會成為瓶頸。例如,在處理大量數據和複雜計

基準測試 , 性能調優 , 配置文件 , aigc

收藏 評論

mob64ca12f86e32 - Linux ollama 下載模型命令

在我的探索過程中,我遇到了一個關於“Linux ollama 下載模型命令”的問題。在這個過程中,我採取了有效的備份策略以保證數據的安全,制定了詳細的恢復流程來應對潛在的災難場景,並整合了工具鏈以提高工作效率。此外,我還進行了日誌分析與驗證方法的研究,確保每個環節都能順暢進行。接下來,我將分享這個過程的詳細步驟。 備份策略至關重要,我的備份思路分為幾個層次。在這個基礎上,我設計了思維

System , Backup , aigc , ci

收藏 評論

mob64ca12f1c6f8 - idea copilot代理

在現代軟件開發中,IDEA Copilot作為一款便捷的開發輔助工具,其“代理”問題時常困擾開發者。這篇文章將帶你深入探討如何解決IDEA Copilot代理問題,包括環境準備、集成步驟、配置詳解、實戰應用、性能優化和生態擴展。 環境準備 在利用IDEA Copilot之前,確保你的開發環境滿足以下要求。請根據項目需求安裝依賴項。 依賴項

API , aigc , JAVA , 多環境

收藏 評論

愛跑步的香蕉_cKtiNz - AI重塑招聘生態:從效率革命到職能升級

AI重塑招聘生態:從效率革命到職能升級 當 HR 還在忙着追候選人時,AI 已經把招聘週期縮短了 40%。 人工智能技術正在逐步改變招聘行業的運作方式。有數據顯示,通過微表情分析與語義推理等技術手段,招聘週期可以實現40%的縮短;某大型銀行引入AI系統後,面試到場率提升至90.7%;輝瑞製藥在研發人才識別中採用AI技能圖譜,創新週期相應縮短22%。 這些變化表明,AI不僅釋放了人

人工智能

收藏 評論

openFuyao - openFuyao信息直升機 | 第5期:一文了解“高性能AI推理服務化框架”

業務痛點: AI推理是AI領域中將大模型轉化為應用效果與商業價值的核心技術,但在實際生產部署中仍然面臨着多樣化算力場景下的效率低與可部署性成本高,高併發、長上下文LLM推理場景中的性能和資源利用率瓶頸。 根因分析: 用户體驗與資源效率瓶頸:當前長上下文LLM推理的首Token延時普遍在數百毫秒至秒級,且長上下文場景下KV緩存顯存佔用呈線性增長,嚴重製約Agent的響應效率與部署規模;傳統靜態批

llm , 人工智能 , 開源項目介紹

收藏 評論

趙渝強老師 - 【趙渝強老師】阿里雲大數據集成開發平台DataWorks

DataWorks是阿里雲重要的PaaS(Platform as a Service)平台產品,為用户提供數據集成、數據開發、數據地圖、數據質量和數據服務等全方位的產品服務,一站式開發管理的界面,幫助企業專注於數據價值的挖掘和探索。 DataWorks支持多種計算和存儲引擎服務,包括離線計算MaxCompute、開源大數據引擎E-MapReduce、基於Flink的實時計算、機器學習PAI、圖計算

大數據 , 阿里雲

收藏 評論

馬哥天才3218 - 【技術分享】用python開發採集軟件,爬微博搜索關鍵詞下的帖子

今天給大家分享一款我用Python開發的實用工具——【爬微博搜索軟件】,專為需要批量獲取微博內容的用户打造,解決了常規採集的諸多痛點。 一、工具開發背景與核心優勢 1.1 開發初衷 微博作為國內頂流社交媒體平台,以實時性強、熱點傳播快、KOL影響力大著稱。無論是熱點事件追蹤、行業動態分析,還是用户輿論調研,微博上的海量文字、圖片內容都極具參考價值。但實際操作中,大家常會遇到採集頁數受限、多關鍵詞切

python3.x , 微博 , 微博採集 , 爬蟲

收藏 評論

mob64ca12f1c6f8 - ollama docker配置允許跨域

配置 Docker 容器以允許跨域請求對於許多現代 Web 應用來説是一個重要的步驟,特別是當你在使用 Ollama 作為 AI 部署平台時。本文將詳細介紹 Ollama Docker 配置允許跨域的全流程,從環境準備到擴展應用,確保你能夠順利完成這個配置。 環境準備 在開始之前,我們需要做好一些基礎環境準備。確保你係統上安裝了 Docker 和 Ollama,以下是相應的安裝命

User , aigc , Docker

收藏 評論

mob64ca12e0c608 - python二次開發stable diffusion

對“python二次開發stable diffusion”的覆盤記錄 在進行 "python二次開發stable diffusion" 的過程中,我們從環境配置開始,以確保一切能夠順利進行。以下是每一個步驟的詳細記錄: 環境配置 首先,確保安裝必要的依賴工具: 安裝Python及其包管理器pip 安裝CUDA和cuDNN(如果使用GPU加速) 克隆St

System , aigc , 環境配置 , Python

收藏 評論

mob64ca12e36a1d - docker集成ollama

將 Docker 集成 Ollama 是一個很有趣且有用的過程。通過這篇文章,我將展示完整的實現步驟,包括必要的環境準備、集成步驟、配置詳解、實戰應用、性能優化以及生態擴展。 環境準備 在開始之前,我們需要先準備好本地的開發環境,確保 Docker 和 Ollama 都能夠順利運行。 依賴安裝指南 以下是各平台的安裝命令: # Ubuntu sudo apt upda

aigc , Docker , Json

收藏 評論

mob64ca12e04e7a - 關於LangChain中的聊天提示詞模板

關於LangChain中的聊天提示詞模板,如何利用這一工具來搭建符合自己需求的應用是一項非常有趣的挑戰。接下來,我將手把手帶你走過整個過程,希望你能順利掌握這個概念,並能夠靈活運用。 環境準備 首先,確保你有合適的開發環境來運行LangChain。你的環境應當包括以下軟件和硬件要求: 軟件 版本要求

新版本 , aigc , Python

收藏 評論

SmalBox - 【URP】Unity[內置Shader]簡單光照SimpleLit

【從UnityURP開始探索遊戲渲染】專欄-直達 SimpleLit Shader的作用與原理 SimpleLit Shader是Unity通用渲染管線(URP)中的一種輕量級着色器,主要用於低端設備或需要高效渲染的場景。它採用簡化的Blinn-Phong光照模型,不計算物理正確性和能量守恆,從而實現了比標準Lit Shader更快的渲染速度。 核心原理 ‌簡化光照模型‌:使用Blinn

遊戲開發 , unity3d , 圖形學

收藏 評論

mob64ca12d68df5 - AIGC成功應用案例分析

AIGC成功應用案例分析的描述 在當今數字化轉型的浪潮中,生成性人工智能(AIGC)的成功應用案例不斷涌現,成為推動企業創新與效率提升的重要力量。本文將以一個具體的AIGC應用案例為基礎,通過從初始技術痛點到成果覆盤的全過程,詳盡剖析其背後的技術演進與架構設計,為相關從業者提供有價值的參考與借鑑。 初始技術痛點 在項目啓動階段,團隊發現原有的內容生成工具無法滿足快速增長的業務

技術選型 , 架構設計 , aigc , 迭代

收藏 評論

675173ff-65c2-413a-b556-576966012357 - MCP 爬蟲為什麼離不開B2Proxy?

對於任何爬蟲系統來説,IP 是最基本的身份標記。當一個進程持續從同一出口訪問網站,或當大量併發流量集中在同一個 IP 時,系統幾乎瞬間就能判斷出異常行為。尤其是國際電商網站、社媒平台、內容平台和廣告系統,它們的風控模型會基於 IP 地域、ISP 分類、IP 信譽度、頻率波動等因素進行判定。 這意味着 MCP 雖然能啓動大量進程,但若缺乏合適的代理 IP,就相當於讓幾十個“工人”共用一扇門進出

typescript , 前端 , Javascript

收藏 評論

mob649e81624618 - 國內如何用GitHub Copilot

在國內使用 GitHub Copilot 已經成為許多開發者日常工作中的一部分。然而,由於國內對外部服務的限制,我們需要經過一些配置才能順利使用 GitHub Copilot。接下來,我將詳細記錄這個過程,包括問題背景、錯誤現象、根因分析、解決方案、驗證測試和預防優化。 問題背景 許多開發者在國內使用 GitHub Copilot 時面臨諸多困難。以下是我進行配置的關鍵步驟:

API , aigc , JAVA , 解決方案

收藏 評論

文檔伴侶 - 打造專屬知識大腦:個人電腦上的本地私有知識庫全攻略

打造專屬知識大腦:個人電腦上的本地私有知識庫全攻略 為什麼你需要一個本地私有知識庫? 想象一下:當你突然需要查找半年前讀過的那篇精彩文章,或者在會議中急需某個重要數據,卻發現自己收藏的內容散落在微信、瀏覽器、筆記軟件等十幾個地方...這種場景是不是很熟悉? 在信息爆炸的時代,我們每天都在接收海量信息,但真正能內化為個人知識資產的卻少之又少。這就是為什麼你需要一個本地私有知識庫——它就像是為你的大腦

opensource

收藏 評論

sysin - Nessus 10.11 Auto Installer for Ubuntu 24.04 - 自動化安裝程序

Nessus Professional 10.11 Auto Installer for Ubuntu 24.04 - Nessus 自動化安裝程序 發佈 Nessus 試用版自動化安裝程序,支持 macOS Tahoe、RHEL 10、Ubuntu 24.04 和 Windows 請訪問原文鏈接:https://sysin.org/blog/nessus-auto-install-for-ubu

安全

收藏 評論

MT-Joer - uni-app - switchTab 跳轉到 頁面後不走onLoad,option無法更新

場景:tabbar頁面是展示一個列表,頁面中有一個搜索按鈕,點擊按鈕進入搜索頁面,輸入字段以後返回tabbar頁面展示相應的搜索結果,切換tabbar頁面後搜索條件置空 方案1:使用 navigateTo跳轉傳值 坑1:因為搜索頁要跳轉的是tabbar頁面,不能直接使用navigateTo 跳轉,只能使用switchTab,但是switchTab不支持傳參 方案2:使用reLaunch跳轉傳值 坑

前端

收藏 評論

mob64ca12eee07b - LlamaFactory二次開發案例

LlamaFactory二次開發案例是一項關於如何利用LlamaFactory平台進行高效且可定製化開發的探討。在這個案例中,我們面對的技術痛點是如何提升開發效率以及系統的靈活性。通過對Platform的二次開發,我們嘗試解決行業面臨的挑戰,使得我們的產品能夠更精準地符合用户需求。 用户原始需求: "我們需要一個靈活且高效的開發平台,以滿足不同客户的個性化需

性能優化 , 二次開發 , 模塊化 , aigc

收藏 評論

mob64ca12e77061 - 查詢ollama模型

查詢Ollama模型是一項技術任務,涉及到模型的獲取和數據交互。在這篇文章中,我們將深入探討如何實現對Ollama模型的查詢,涉及一系列技術細節,包括協議背景、抓包方法、報文結構等。通過這些信息,你將能夠更順利地進行相關操作。 協議背景 首先,我們需要理解Ollama模型在技術架構中的背景。Ollama模型通常使用HTTP協議進行數據交互。根據OSI模型的四層架構,我們可以將其分

抓包 , 數據 , HTTP , aigc

收藏 評論

小童童 - 申威架構SW64 KY10系統安裝tomcat-9.0.10-25.ky10.sw_64.rpm詳細步驟(附安裝包)

​申威是咱們國家自己搞的一種CPU架構,和常見的x86、ARM不一樣,所以裝軟件的時候得用專門給它編譯好的版本,這個RPM包就是給KY10系統(也就是基於申威的系統)準備的Tomcat 9,版本號是9.0.10。Tomcat呢,就是一個跑Java Web應用的服務器,很多Java網站或者後台服務都靠它來跑。 先看看有沒有裝Java環境​ Tomcat跑起來得有JDK,你先在終端裏敲j

tomcat

收藏 評論