博客 / 列表

Serverless - 探秘 AgentRun|通過無代碼創建的 Agent,如何用高代碼進行更新?

阿里雲函數計算 AgentRun 全新發布後,我們整理了“探秘 AgentRun”系列文章,本系列將梳理企業落地Agent 常見難題,給出具體解法,助力 Agentic AI 快速走進生產級環境。 當我們談論 AI Agent 的開發時,常常面臨一個兩難的選擇:低代碼平台上手快但缺乏靈活性,一旦需求複雜就束手無策;高代碼開發雖然靈活但門檻高,業務人員無法參與,驗證週期長。 能否魚與熊掌兼得? 函數

阿里雲 , 雲原生 , serverless

Serverless - 活動回顧 | 阿里雲AI原生應用開發實戰營——AI Agent 專場(上海站)回顧&PPT下載

AI Agent 正從技術概念快步走向生產應用。但是,開發者和企業從“原型”到“產品”的每一步,都充滿了基礎設施的挑戰。要跨越這道鴻溝,需要的不僅僅是更聰明的模型,而是能全面解決這些問題的基礎設施平台。 12月10日,阿里雲函數計算 AgentRun 正式發佈。這是一款以全球領先的函數計算 FC 為技術底座的一站式 Agentic AI 基礎設施平台。它將 Serverless 的極致彈性

阿里雲 , 雲原生 , serverless

Serverless - 阿里雲 Serverless 計算 11 月產品動態

精選文章 算力成本降低 33%,與光同塵用 Serverless AI 賦能影視商業內容生產 ModelScope 模型一鍵上線?FunModel 幫你 5 分鐘從零到生產 助力企業構建 AI 原生應用,函數計算 FunctionAI 重塑模型服務與 Agent 全棧生態 【本不該故障系列】從 runC 到 runD:SAE 如何化解安全泄露風險 從代碼到生產推理服務:DevPod 全流程部署 D

阿里雲 , 雲原生 , serverless

Serverless - 阿里雲新發的AgentRun 有哪些“大招”,一文詳解來了

AI Agent 正從技術概念快步走向生產應用。然而,當開發者試圖將原型推向生產環境時,一道巨大的“生產化鴻溝”隨之顯現:眾多開源框架雖提供了強大的“大腦”,卻缺失了企業級應用賴以為生的“基礎設施”。 開發者實現從“原型”到“產品”的每一步,都充滿了基礎設施的挑戰。要跨越這道鴻溝,需要的不僅僅是更聰明的模型,而是能全面解決這些問題的基礎設施平台。這正是我們開發函數計算 AgentRun 的

阿里雲 , 雲原生 , serverless

Serverless - AgentScope 擁抱函數計算 FC,為 Agent 應用提供 Serverless 運行底座

在 AI Agent 應用加速落地的今天,開發者和企業普遍面臨三大核心痛點:部署成本高、運維複雜度高、資源利用率低。為應對這些挑戰,AI Agent 與雲原生、Serverless 架構的深度融合正成為行業新趨勢。我們很高興地宣佈,AgentScope 正式集成基於阿里雲函數計算(Function Compute, FC)的全新 Serverless 運行時,為多智能體應用提供“按需啓動、毫秒彈性

阿里雲 , 雲原生 , serverless

Serverless - 【本不該故障系列】告別資源“不確定性”,SAE如何破解剛性交付核心困境

作者:娜米 資源的剛性交付,不是雲上天生就具備的能力。當選擇自建或自管理一個 Kubernetes/ECS 資源池時,就必須直面一個殘酷的現實:所依賴的底層 IaaS 資源本身就是非剛性的。 阿里雲上 ECS 有多代實例規格(如 g6、c7i、r8y 等),基於 Intel、AMD 及自研倚天 ARM 芯片,但這並不保證在任何時刻、任何地域、任何可用區,所需要的那款機型就一定有庫存。這種底層資源的

阿里雲 , 雲原生 , serverless

Serverless - 從代碼到生產推理服務:DevPod 全流程部署 DeepSeek-OCR 模型實戰指南

開發調試到生產上線,全流程僅需一個工作區——DevPod重新定義AI工程化標準,當開發與部署不再割裂,模型價值才真正釋放。 簡介 告別碎片化開發體驗,DevPod 打造從代碼到服務的一站式閉環。本文手把手演示在函數計算 Funmodel 上完成 DeepSeek-OCR 模型從雲端開發、本地調試到生產部署的完整工作流,讓模型真正走出實驗室,實現分鐘級服務化,重塑 AI 模型從開發到落地的高效路徑。

阿里雲 , 雲原生 , serverless

Serverless - 【本不該故障系列】從 runC 到 runD:SAE 如何化解安全泄露風險

對於大多數客户而言,使用 Serverless 容器服務時最核心的顧慮始終是安全性與租户隔離能力。確實,並非只要採用了容器技術、實現了資源共享,就天然具備穩定可靠的安全保障。容器本身只是隔離手段之一,其安全邊界高度依賴底層運行時模型。在非阿里雲 SAE 的環境中,客户在使用基於 runC 的「共享資源的產品」「且沒有使用安全容器的」的容器產品時,就曾因共享內核架構的固有侷限而遭遇嚴重故障。以下真實

阿里雲 , 雲原生 , serverless

Serverless - 助力企業構建 AI 原生應用,函數計算FunctionAI 重塑模型服務與 Agent 全棧生態

本文整理自 2025 雲棲大會,阿里雲智能集團產品專家,劉宇演講議題《函數計算髮布 FunctionAl:serverless Al 原生應用基礎設施》 在 AI 技術應用落地進程中,目前面臨着五大核心挑戰:開發/學習門檻過高,部署運維階段複雜,AI 應用安全備受挑戰,生態能力方面存在嚴重的割裂與鎖定現象,同時資源成本高昂且利用率低下。這些挑戰極大地阻礙了 AI 技術的廣泛普及以及應用效率的有效

阿里雲 , server , 雲原生

Serverless - ModelScope 模型一鍵上線?FunModel 讓你 5 分鐘從零到生產

下一個AI爆款應用,或許就從您點擊"立即部署"的那一刻開始! 一、前言:AI 浪潮下的模型訴求 在當今這個全民 AI 的時代,快速入門 AI,趕上時代的浪潮,成為了大家當下最熱切的追求和期盼。於是,模型作為 AI 場景的載體,隨着 AI 技術的不斷髮展,在持續的,如雨後春筍般出現在大家的視野中,可謂是種類繁雜,功能齊全,從不同方面滿足大家對 AI 的需求。例如在 AI 聊天場景,就有很多大語

阿里雲 , 雲原生 , serverless

Serverless - Serverless 應用引擎 SAE:為傳統應用託底,為 AI 創新加速

本文整理自 2025 雲棲大會, 阿里雲智能集團高級產品專家張鳳婷的演講 在容器技術持續演進與 AI 全面爆發的當下,企業既要穩健託管傳統業務,又要高效落地 AI 創新,如何在複雜的基礎設施與頻繁的版本變化中保持敏捷、穩定與低成本,成了所有技術團隊的共同挑戰。 阿里雲 Serverless 應用引擎(SAE)正是為應對這一時代挑戰而生的破局者,SAE 以“免運維、強穩定、極致降本”為核心,通過一

阿里雲 , 雲原生 , serverless

Serverless - 揭秘 MCP Streamable HTTP 協議親和性的技術內幕

作者:葉浩田 背景 傳統的 Serverless 平台一般都是面向無狀態應用的,通過將請求分發到不同的可以自動擴展的函數實例,從而為應用提供極致的彈性、按量付費等能力。然而,針對存在會話概念的應用,傳統的 Serverless 平台就不能夠在後端有多個副本的情況下,將屬於某個會話的請求轉發到服務該會話的函數實例,從而該類應用無法在不引入外部存儲同步會話狀態的情況下運行在 Serverless 平台

阿里雲 , 雲原生 , serverless

Serverless - 算力成本降低 33%,與光同塵用 Serverless AI 賦能影視商業內容生產

作者:趙世振、鄭健源、陳濤、孔德慧 一、十年積澱,AI破局:與光同塵的轉型之路 與光同塵成立於2015年,最初是一家專注於品牌商業廣告製作的傳統影視公司,服務客户包括阿里巴巴等頭部品牌。在AI技術尚未普及的年代,公司依賴“實拍+後期”兩種模式完成影像內容生產,一個百萬級項目動輒耗時2-3個月,70%以上的成本用於拍攝與製作,利潤率僅10%出頭。 轉折點出現在2023年。公司CEO陳發靈帶領團隊開始

阿里雲 , 雲原生 , serverless

Serverless - 吉利汽車攜手阿里雲函數計算,打造新一代 AI 座艙推理引擎

作者:蔣忠林,趙劍,謝東;洛浩、周華生 吉利汽車,是中國知名的自主汽車品牌,近年來通過技術創新和產品升級,在國內外市場取得了顯著成績。隨着 AI 浪潮的發展,吉利汽車也在不斷加強智能化的建設,尤其在新一代 AI 座艙的建設上,成為汽車主機廠的核心競爭力之一。當前吉利汽車研究院人工智能團隊承擔了吉利汽車座艙 AI 智能化的方案建設,在和阿里雲的合作中,基於星睿智算中心2.0的23.5EFLOPS強大

阿里雲 , 人工智能 , 雲原生 , serverless

Serverless - Serverless 工程實踐 | 零基礎上手 Knative 應用

Knative簡介 Knative是一款基於Kubernetes的Serverless框架。其目標是制定雲原生、跨平台的Serverless編排標準。Knative通過整合容器構建(或者函數)、工作負載管理(動態擴縮)以及事件模型這三者實現其Serverless標準。 在Knative體系架構下,各角色的協作關係如下圖所示。 開發者是指Serverless服務的開發人員可以直接使用原生K

server