博客 / 列表

mob64ca12f51824 - llama微調 CUDA_VISIBLE_DEVICES

在進行“llama微調 CUDA_VISIBLE_DEVICES”的相關問題解決之前,首先要了解環境的基本要求和預檢工作。以下是我記錄的整個解決過程。 環境預檢 要開始微調llama模型,需要確認系統環境滿足以下要求: 項目 要求 操作系統 Ubuntu 20.04及以上

System , bash , aigc , CUDA

mob64ca12f51824 - python 釋放Ollama佔用的顯存

在使用 Python 進行機器學習或深度學習任務時,有時會遇到 Ollama 這種工具佔用大量顯存的問題。為了有效釋放它所佔用的顯存,我將這篇博文詳細記錄了過程,包括環境準備、分步指南、配置詳解、驗證測試、優化技巧和排錯指南。 環境準備 在釋放 Ollama 佔用的顯存之前,需要確保軟件和硬件環境配置正確。 軟硬件要求 組件 要求

初始化 , 加載 , aigc , Python