tag hive

標籤
貢獻94
132
05:15 PM · Oct 25 ,2025

@hive / 博客 RSS 訂閱

碼海舵手 - hive ipv6地址轉換十進制

IPv6和IPv4的表示方式    在使用ip地址的時候,經常會聽到IPv6和IPv4   那麼他們的區別在哪裏?   一開始的時候,是隻有IPv4地址,IPv4地址只有32位,可以使用,使用的是二進制計數,但是在記錄的時候採用十進制點分法分為四段,比如127.0.0.1,他表示的就是00001111.00000000.00000000.00000001

hive ipv6地址轉換十進制 , 大數據 , ip , hive , 二進制數字 , 十六進制

收藏 評論

wx5d7321c78b265 - PHP 8.5 在性能、調試和運維方面的新特性

2025 年即將結束,這意味着 PHP 的新版本也已經發布了! 在本文中,我們將重點介紹那些你在上述文章中找不到的,關於 PHP 8.5 在性能、調試和運維方面的變化。 其中一些改動甚至是由 Tideways 的員工直接貢獻的。 你是不是最好奇 PHP 8.5 是否比舊版本性能更強?可以看看基準測試。 原文鏈接 PHP 8.5 在性能、調試和運維方面的新特性

大數據 , php , hive , INI

收藏 評論

南大通用GBase - 南大通用GBase 8c集中式場景下的遠程物理備份恢復

1 概述 數據庫備份是數據安全與業務連續性的生命線,它如同為珍貴數字資產撐起的一把保護傘。備份的意義不僅在於應對硬件故障、系統崩潰等常見風險,更在於防範人為誤操作、惡意攻擊、自然災害等意外威脅。定期可靠的備份策略能在災難發生時,將業務中斷時間縮至最短,做到數據不丟失。在實際應用情況下,備份需要拷貝到異地,保證數據冗餘,保證數據庫服務器宕機不能啓動時,也可以通過異地備份進行數

服務器 , MySQL , hive , 數據庫 , GBase 8c

收藏 評論

鏡舟科技 - 如何理解 Apache Iceberg 與湖倉一體(Lakehouse)?

一、什麼是湖倉一體(Lakehouse)? 湖倉一體是一種融合了數據湖的靈活存儲能力與數據倉庫的高效分析功能的現代數據架構。它通過整合兩者的優勢,解決了傳統架構的侷限性,為企業數據處理提供了更全面的解決方案。 數據湖的開放性:支持多格式數據存儲(如 Parquet、ORC),兼容開放生態(如Hive、Iceberg),存儲成本低。 數據倉庫的高性能:提供 ACID 事務、高效查詢和實時分析能

微信 , hive , 數據倉庫 , iceberg , 數據湖

收藏 評論

RestCloud - SQL Server到Hive:批處理ETL性能提升30%的實戰經驗

在企業數字化轉型進程中,將 SQL Server 的業務數據同步至 Hive 數據倉庫,是構建大數據分析平台的關鍵一步。然而,當數據量突破千萬級門檻,傳統同步方式往往陷入效率低下、穩定性差的困境。本文將分享使用ETLCLoud工具實現千萬級數據量下SQL Server到Hive高效同步的實戰經驗。 1.配置數據源 來到平台首頁進入數據源管理模塊。 在新建數據源中選擇SQLserver數據源模板

數據同步 , hive , 數據庫 , etl , sqlserver

收藏 評論

泊浮目 - 悶聲發大財,Spark&HiveSQL神器大更新

本文在綠泡泡“狗哥瑣話”首發於2025.9.23 -關注不走丟。 大家好這裏是狗哥。在23年11月,我向大家安利我自己寫的SparkHiveSQL VsCode插件,當時主要是這麼幾個功能: 語法檢測功能 format 重構 代碼補全 發現引用 時隔兩年,這個插件其實一直在迭代中。接下來我就向大家介紹一下後續迭代的新功能。 最值得一提的功能:SparkSQL語義檢測 眾所周知,在使用

spark , hive , SQL

收藏 評論

14224 - NLog中 maxArchiveDays的歸檔目錄怎麼設置

在所有的應用程序中,日誌功能是不可或缺的模塊,我們可以根據日誌信息進行調試、查看產生的錯誤信息,在ASP.NET Core中我們可以使用log4net或者NLog日誌組件來實現記錄日誌的功能,這裏講解如何在ASP.NET Core中使用NLog。 1、創建項目(這裏使用Core2.2)使用NLog 2、引用NLog動態庫 直接在N

code , 大數據 , 配置文件 , hive , xml

收藏 評論

mob64ca12ddcacc - spark saveAsTable 數據源拉了兩次數據

在使用 Apache Spark 進行數據處理時,我遇到了一個棘手的問題:使用 saveAsTable 方法將數據保存到 Hive 表時,數據源被拉取了兩次。這種情況不僅影響了處理效率,也浪費了計算資源。為了更好地記錄解決這個問題的過程,我着重從環境預檢、部署架構、安裝過程、依賴管理、配置調優和最佳實踐六個方面進行整理。 環境預檢 在進行解決方案之前,首先要確保我們的環境是配置正

spark , hive , aigc , apache

收藏 評論

lemon - linux hive 重定向到文件

1、數據流重定向:將某個命令執行後應該出現在屏幕上的數據,給它傳輸到其他地方去 2、(1)---標準輸入(stdin):代碼為0,使用 或 ; (2)標準輸出(stdout):代碼為1,使用或者 ; (3)標準錯誤輸出(stderr):代碼為2,使用 2或者 2. 説明:1:以覆蓋的方法將 [正確的數據]輸出到指定的文件或者設備上;    1:以累加的方法將

linux hive 重定向到文件 , 大數據 , 數據 , hive , 重定向 , 標準輸出

收藏 評論

雲端小仙童 - hadoo hive zk版本兼容 hadoop和hive版本

1 準備工作 1.1 軟件準備 Hive需要Hadoop的支持,在安裝Hive之前需要正確安裝Hadoop。目前Hive的最新版本為0.13.1,這個版本可在Hadoop 0.20.x, 0.23.x.y, 1.x.y, 2.x.y下使用。本文采用Hadoop 1.x中最新版本1.2.1。Hadoop使用環境中必須由JDK,本文下載JDK 7較新版本。同時,Hive將

大數據 , hadoo hive zk版本兼容 , hive , hadoop , JAVA

收藏 評論

架構領航博主 - 五年打磨 金山雲分佈式數據庫DragonBase為金融行業提供可靠服務

金山雲數據湖平台用的是Hive,可以添加數據源來連接關係型數據庫、MPP數據庫、對象存儲、Kafka,然後同步數據源的元數據,然後通過數據源來讀寫其中的數據(表、文件、消息topic),這些操作是如何實現的? 金山雲數據湖平台基於 Hive 構建,其實現“跨源連接、元數據同步、以及統一讀寫”的核心機制主要依賴於 Hive Storage Handlers(存儲處理器

hive , 元數據 , Css , 金山雲 , 前端開發 , HTML

收藏 評論

IT劍客行 - dolphinscheduler工作流hive kerberos

第1章 DolphinScheduler簡介 1.1 DolphinScheduler概述 Apache DolphinScheduler是一個分佈式、易擴展的可視化DAG工作流任務調度平台。致力於解決數據處理流程中錯綜複雜的依賴關係,使調度系統在數據處理流程中開箱即用。 1.2 DolphinScheduler核心架構 Dolp

大數據 , MySQL , hive , hadoop , apache

收藏 評論