博客 / 列表

老IT人 - 在 DGX Spark 上使用 Ollama 打開 WebUI

Open WebUI 是一個可擴展的、自託管的 AI 界面,完全離線運行。本期我們將展示如何在 DGX Spark 設備上部署集成 Ollama 服務器的 Open WebUI,然後通過本地瀏覽器訪問 Web 界面,同時模型在 DGX Spark 上運行。 1. 配置 Docker 權限 從 NVIDIA Sync 打開終端應用程序,啓動交互式 SSH 會話並測試 Docker 訪問權限,在終端

教程 , 知識 , 人工智能

老IT人 - NVIDIA RTX™ GPU 在 Houdini 中的渲染表現實測

近期我們的技術小夥伴對 NVIDIA RTX™ GPU 在 Houdini 中的渲染表現進行了詳細的測試,本次測試共選用 6 張 GPU,分別測試每張 GPU 在大、中、小三個場景中的性能表現,並將同級別的 NVIDIA Ada Lovelace 架構 GPU 與 NVIDIA Ampere 架構 GPU 進行對比分析,為大家更直觀地呈現 GPU 性能提升。 測試環境 測試場景 從左到右依次為

segmentfault

老IT人 - 加速 Siemens NX 工作流:NVIDIA RTX™ GPU 性能表現實測

近期評測組對 NVIDIA RTX™ GPU 在Siemens NX中的性能進行了詳細的測試,本次測試共選用6張 GPU,測試每張 GPU 在 Siemens NX 軟件中導入模型速度、有限元分析時長、渲染視口流暢度等應用環節的性能表現。 測試環境 測試項目 1. 數模導入的加載時間 在此測試項目中,我們選用一個643MB的總裝數模,從測試結果可以看出,在數模導入過程中,GPU 的利用率基本拉

segmentfault

老IT人 - NVIDIA RTX™ GPU 低成本啓動零售 AI 場景開發

零售行業正在探索應用 AI 升級客户體驗,同時優化內部流程。面對多重應用場景以及成本優化壓力,團隊可採用成本相對可控的方案,來應對多重場景的前期項目預演和落地,避免短期內大規模投入造成的資源浪費。 客户體驗 AI 場景的研究目前集中在AI 客服,內部流程主要是AI 營銷、合同生成、合規審查和供應鏈優化等。在項目研究和前期預演階段,採用NVIDIA RTX™ 系列的高性能GPU,進行本地化部署大模型

segmentfault

老IT人 - 多元場景需求下,遊戲開發的 GPU 選型攻略

遊戲市場正在不斷開發出新的場景需求,遊戲開發團隊在傳統業務之外也都在打磨新的工作流,來應對高質量的遊戲製作任務和短平快的 AI 遊戲。這不可避免地涉及到生產力工具 GPU 的升級,而團隊都希望“花小錢,辦大事”,用一套高性價比的方案支撐起多元的應用場景和不同的工作流。 但目前 GPU 架構正在迭代,AI 工具、VR/AR 工具又以百花齊放的姿態不斷涌現出來,對於遊戲開發團隊做 GPU 採購(一種中

segmentfault

老IT人 - 交通類 AI 項目預演階段,本地化部署的一些新思路

交通行業的 AI 應用場景目前主要涵蓋交通公共服務體驗優化、汽車等交通工具的智能化升級和物流的智能化轉型。大部分應用場景仍在項目實驗階段。此階段需要有效地平衡項目需求、成本和開發效率。 在項目預演階段中,通常小規模算力就可以滿足需求。此階段主要是對模型的可行性、架構設計的合理性以及算法的有效性進行初步驗證,此時模型規模相對較小,參數數量和複雜度都處於較低水平。 例如,在構建一個簡單的文本分類預演模

segmentfault

老IT人 - 錨定效能:能源行業可視化應用場景與 GPU 適配

能源產業智能化升級在加速,工程設計等應用場景中的工具、技術路徑等發生了一些改變,同時 GPU 也在更新迭代,從過去大家所熟知的 NVIDIA Turing™架構、NVIDIA RTX™Ampere 架構,已進階到 NVIDIA Ada Lovelace 架構,算力已不可同日而語。鑑於很多朋友在選型新架構 GPU 的時候經常有疑惑,我們這裏給大家整理了工程設計場景中的一些 GPU 適配建議。 1、3

segmentfault

老IT人 - Qwen3 震撼發佈,贊奇深度測評倒計時!

2025年4月29日凌晨,阿里巴巴正式發佈新一代大語言模型 Qwen3,以“混合推理”為核心,在性能、成本、靈活性三大維度實現跨越式突破。 贊奇也立刻着手使用8卡 H20 141GB 進行本地化部署,預計在五一節後發佈Qwen3的併發測試報告,看看其實際應用體驗究竟如何。 關注並私信即可優先獲取測試報告! Qwen3模型介紹: Qwen3-235B-A22B 是一個大型模型,總參數量達2350

segmentfault , 人工智能 , 程序員

老IT人 - 聯想 X 贊奇 | 共建 AI 生態,攜手發佈軟硬協同的AIKnow智能體工作站

5月8日,聯想在上海舉辦中國合作伙伴大會。贊奇科技作為聯想ISV核心生態夥伴之一,正式發佈“贊奇AIKnow智能體工作站”。該方案深度融合聯想工作站與贊奇AIKnow智能體開發平台,實現軟硬協同,為企業提供開箱即用的AI開發解決方案,大幅降低智能體部署門檻。 贊奇AIknow是由贊奇科技開發的一站式無代碼智能體開發平台,通過整合主流的大語言模型(如Qwen、DeepSeek、ChatGLM等)、

機器學習 , 算法 , segmentfault , 人工智能 , 深度學習

老IT人 - 本地部署 Dify,構建智能內容生成工作流

近期我們的技術小夥伴研究並部署了一個基於 Dify 工作流,融合 FLUX 生圖模型、多模態識別模塊以及語音合成與播放功能,構建了一個智能內容生成鏈路。 通過 Dify 工作流流程編排與低代碼擴展能力實現跨模態的任務(文本輸入-語義理解-圖像生成-語音輸出)。這個工作流同時可以本地化部署至贊奇AI一體機,形成一套安全可控、開箱即用的軟硬件一體交付方案。 完整工作流鏈路 下面我們會從硬件配置

segmentfault , dify , 程序員 , 前端

老IT人 - DGX Spark 實戰解析:模型選擇與效率優化全指南

自 DGX Spark 發佈以來,這段探索之路挑戰與收穫並存。在成功完成軟件移植的攻堅後,我們決定將這段時期的實戰經驗系統梳理,轉化為一份關於模型選擇與性能優化的實用指引,希望能助力更多團隊高效利用 DGX Spark。 模型選擇策略:效率與性能並重 經過充分測試,我們發現不同模型在 DGX Spark 平台上的表現存在明顯差異。 以下是我們的具體推薦: 文本生成模型首選: gpt-oss-20b

教程 , 知識 , 人工智能 , 深度學習

老IT人 - DGX Spark 雙機互連實測 Qwen3-235B 模型

前段時間我們使用單台 DGX Spark 測試了gpt-oss-120b模型性能。今天,我們通過一根 200 Gbps 帶寬的 QSFP 線纜連接兩台 DGX Spark,並測試了一個參數更大的模型:Qwen3-235B,看看性能如何。 整體測試下來,單用户生成速度為10 tokens/s,但預填充速度還不錯,單用户可達1000 tps,詳細測試數據如下: 生成速度 知識庫應用(輸入4K) 知

機器學習 , 教程 , 知識 , 人工智能 , 深度學習

老IT人 - DGX Spark 上部署 Isaac Sim 全流程

上期介紹了在 DGX Spark 上部署 AI 助手,本期我們將講解如何在該平台部署 Isaac Sim。開發者不僅可以在桌面端開展機器人開發,還能將項目攜帶至邊緣端場景,進行實地測試與調試。 安裝 Isaac Sim 1.下載鏈接:https://docs.isaacsim.omniverse.nvidia.com/latest/installatio... 點擊Linux (aarch64)

資訊 , 機器人 , 教程 , 知識 , 人工智能

老IT人 - DGX Spark+ComfyUI 安裝使用一步到位!

上期我們講解了如何在該平台部署 Isaac Sim,本期我們將着手搭建本地 ComfyUI 工作流。無需上雲,在本地即可完成所有圖像的編輯和生成。 1.驗證系統先決條件 預期輸出應顯示 Python 3.8+、可用的 pip、CUDA 工具包和 GPU 檢測。 2.創建 Python 虛擬環境 通過檢查命令提示符顯示來驗證虛擬環境是否處於活動狀態(comfyui-env)。 3.安裝支持 C

資訊 , segmentfault , 教程 , 知識 , 人工智能

老IT人 - NVIDIA RTX Ada 顯卡超高分辨率渲染時長測試

​UE 超高分辨率渲染 1.UE 8K 不分塊渲染 渲染5幀高面數帶霧效場景 渲染時間(秒): 在能夠完整渲染整張圖像時,推薦使用不分塊渲染。NVIDIA RTX™ 5880 Ada 相較 NVIDIA RTX™ A6000 提升53%。 2.UE 8K 分2塊渲染 渲染5幀高面數帶霧效場景 渲染時間(秒): 分塊渲染的優勢是在顯存較低時,能夠渲染高分辨率圖像。 我們同時比

渲染 , 顯卡 , nvidia , blender

老IT人 - 超全測試:32GB專業顯卡 vs 最強消費級顯卡

​近期 ComfyUI 社區小夥伴們用RTX 5000 Ada專業顯卡測試了Flux.1[dev]模型,並與最強消費級顯卡對比大場景實際應用中的性能表現。 測試項目: Flux.1文生圖 Flux.1-dev FP8訓練 Flux.1生成不同分辨率圖片 Flux.1生成人物大模型+Lora+高清分辨率修復 Flux.1測試ControlNet 使用 Tile 高清修復 文生圖 設置尺

generative-ai , 顯卡 , flux , 人工智能

老IT人 - 告別「文生圖」顯存焦慮

Flux 模型今年發佈之後,帶來了文生圖的一次升級,圖像生成的質量效果飛躍提升。 但 Flux 對顯存提出了要求。Flux.1 擁有高達12B的訓練參數。FLUX.1 [dev] 和 FLUX.1 [schnell]兩個版本官方原配模型大小為23.8GB,需要至少24GB的顯卡才能順利運行。不過得益於FP8的支持,經過優化之後模型體積可縮減至11.9GB,不過跑起來也至少需要16GB顯存的顯卡。

flux , 自然語言處理 , aigc , 人工智能 , stable-diffusion