在阿里雲,我們正站在一個技術轉折點上。

今天的大模型不再只是“聊天”——它開始查故障、做決策、自動修復系統。而這一切的前提是:AI 必須真正“看見”這個世界。不是通過攝像頭,而是通過千萬服務器、百萬容器、億級請求中持續涌出的日誌、指標、追蹤、eBPF 事件和 Agent 行為數據。這些數據,是系統最真實的脈搏,也是智能演進的原始燃料。

我們正在構建一條從數據到智能的閉環通路:把海量、異構、高速的數據匯聚成一條實時、高質量、可計算的“數據飛輪”,餵給 AI,訓練 Agent,驅動自動化決策。這就是“Data + AI”的新範式。我們不再被動告警,而是讓系統自己“診斷 + 治療”;不再靠人翻日誌,而是由 AI 實時推理根因;不再手工調參,而是讓 Agent 在持續反饋中越用越聰明。而支撐這一切的,是一個日增百 PB 級數據的實時處理平台。它必須扛住流量洪峯,支撐千億級數據的秒級查詢,為 AI 提供乾淨、結構化、低延遲的數據燃料,成為雲原生時代的“感知神經”。這不是簡單的數據管道,而是 AI 時代的操作系統級數據基座。

阿里雲日誌服務 SLS 團隊每天處理超百 PB 數據,覆蓋阿里集團全系業務與數百萬雲上客户。我們研發的 LoongCollector(原 iLogtail)作為國內廣泛使用的開源雲原生可觀測採集器,已在千萬級實例上穩定運行。我們深度服務於大模型訓練、RAG、Agent 反饋、智能運維等前沿場景。我們不只做旁路監控與觀測,我們做的是基礎設施本身。現在,我們正在尋找三位真正的系統建築師,加入這場超大規模系統的極限挑戰。如果你曾在 Linux 內核層優化內存與網絡,曾讓 SQL 在千億數據上毫秒響應,曾用向量檢索與倒排索引支撐 AI 的語義理解,或親手構建過一個會自我進化的 Agent 數據閉環——那麼這裏就是你的戰場。

崗位一:雲原生應用平台 - AI Infra 研發工程師(P6~P8)- 杭州

職責概述

負責阿里集團、阿里雲可觀測數據處理基礎設施建設,打造日增百 PB 級數據的實時數據分析平台。通過實時採集、索引、存儲、壓縮等技術,實時處理來自千萬設備的海量日誌數據,並針對 AI 應用場景進行特定優化,提供智能、自動化數據分析服務。

加入該崗位,您將有機會在國內超大規模的實時日誌平台上,構建各種面向各類 AI 應用場景的數據存儲和處理平台,打造新一代的 AI 基礎設施。

主要職責

  1. 參與阿里雲戰略級產品 SLS 研發,參與面向 AI 應用場景的數據採集、處理、查詢分析等功能開發與設計;
  2. 數據索引和查詢分析引擎優化,通過數據編碼、壓縮、向量、倒排索引、SQL 執行優化、CodeGen 等各類技術,實現百~千億數據實時查詢秒級延時,提供極致查詢體驗;
  3. 參與 Agent 數據飛輪的建設,研發穩定可靠的 Agent 運行時數據基礎設施;

職位要求

  1. 熟悉 AI 領域,對於 AI 應用數據特徵,數據存儲和查詢需求有深入理解;
  2. 深入理解 LLM 原理,瞭解上下文工程、KV Cache 機制及 Prompt 優化策略,熟悉 Agent Memory、RAG 相關技術,有實戰經驗更佳;
  3. 在高性能數據結構、數據編碼壓縮、向量(Vector Search)、倒排索引(Inverted Index)、混合檢索(Hybrid Search)算法上深入研究,熟悉分佈式 SQL 優先;
  4. 高性能網絡服務器編程經驗,熟悉異步 IO、內存管理、多線程同步等技術,有 Linux 內核研究經驗更佳;
  5. 對技術有強烈的進取心,有較強的學習能力,保持對前沿技術的關注和學習;
  6. 具有良好的溝通能力和團隊合作精神、優秀的問題分析和解決能力;
  7. 優先:對 Lucene、LevelDB、Influxdb、TokuDB、kudu、LanceDB 源代碼深入研究者;
  8. 優先:有 TB~PB 級數據 OLTP/OLAP 經驗者;大型系統自動化運維管理開發經驗。

投遞鏈接 A:https://careers.aliyun.com/off-campus/position-detail?lang=zh&positionId=100002183001&trace=qrcode_share

投遞鏈接 B:https://careers.aliyun.com/off-campus/position-detail?lang=zh&positionId=2009283001&trace=qrcode_share

崗位二:雲原生應用平台 - 可觀測基礎平台高級研發工程師 - 上海

職責概述

負責阿里集團、阿里雲可觀測數據處理基礎設施建設,打造日增百 PB 級數據的實時數據分析平台。通過實時採集、索引、存儲、壓縮等技術,實時處理來自千萬設備的海量日誌數據,並針對 AI 應用場景進行特定優化,提供智能、自動化數據分析服務。

加入該崗位,您將有機會在國內超大規模的實時日誌平台上,構建面向各類 AI 應用場景的數據存儲和處理平台,打造新一代的 AI 基礎設施。

主要職責

  1. 參與阿里雲戰略級產品 SLS 研發,參與面向 AI 應用場景的數據採集、處理、查詢分析等功能開發與設計。
  2. 參與千萬級實例、數百 PB 流量的雲原生可觀測採集器 LoongCollector/iLogtail 及管控系統開發,打造雲上統一的 OneAgent 能力,服務於日誌、指標、eBPF、主機監控、安全等多種場景;主導 LoongCollector 開源技術路線,推動採集行業標準建立。
  3. 深度參與並打造高性能、高可靠的數據採集與管控系統,深入底層優化,提升網絡、內存和 CPU 等關鍵資源的利用效率。
  4. 面向 AI 應用構建高性能、安全的多模態數據處理與數據集管理平台,參與上下游 AI 生態建設。

職位要求

  1. 紮實的算法基礎和良好的編碼習慣,精通 C++、Java、Go、Python 中任何一門語言。
  2. 在高性能數據結構、數據編碼壓縮、向量構建等有深入研究;熟悉異步 IO、內存管理、多線程同步等技術,有 Linux 內核研究經驗更佳。
  3. 理解分佈式系統,包括調度、分佈式鎖、負載均衡等。
  4. 對技術有強烈的進取心,有較強的學習能力,保持對前沿技術的關注和學習。
  5. 具有良好的溝通能力和團隊合作精神、優秀的問題分析和解決能力。
  6. 熟悉 LLM、Prompt 設計、Agent 框架(如 LangGraph、Dify、AutoGen、Google ADK、工具鏈集成等)者優先。
  7. 對 LoongCollector、OpenTelemetry、Fluentbit、Vector、Tetragon、Falco 源代碼有深入研究者優先。

投遞鏈接:https://careers.aliyun.com/off-campus/position-detail?lang=zh&positionId=100002203001&trace=qrcode_share

這不只是一份普通的技術工作。你寫的每一行代碼,都將運行在最複雜的真實場景中,影響整個阿里雲的穩定性,並通過雲計算輻射千行百業。你參與定義的技術路徑,可能成為下一代雲原生標準;你打磨的數據基座,將成為中國 AI 自動化能力的起點。我們在杭州、上海開放崗位。如果你準備好了,請加入我們,一起建造 AI 時代最重要的數據基礎設施。

點擊此處立即投遞~