tag Python

標籤
貢獻846
810
06:37 AM · Oct 27 ,2025

@Python / 博客 RSS 訂閱

Python技術大本營 - 推薦七個Python效率工具!

為了提高效率,我們在平時工作中常會用到一些Python的效率工具,Python作為比較老的編程語言,它可以實現日常工作的各種自動化。為了更便利的開發項目,這裏給大家推薦幾個Python的效率工具。 1、Pandas-用於數據分析 Pandas是一個強大的分析結構化數據的工具集;它的使用基礎是Numpy(提供高性能的矩陣運算);用於數據挖掘和數據分析,同時也提供數據清洗功能。 #1、安裝包 $p

flask , scrapy , pandas , requests , Python

收藏 評論

OpenHacker - Pyodide 中實現網絡請求的 3 種方法

原文:https://lwebapp.com/zh/post/p... 需求 小編之前提過一個在線 Python 工具,核心技術是用到了一個叫 Pyodide 的庫,能夠讓 Python 在網頁上運行,但是小編在學習過程中發現,並不是所有 Python 內置庫或者擴展庫都能運行,比如 requests是不支持的。 根據這個 issue 下的討論,requests依賴於 Lib/http.clien

工具 , HTTP , fetch , requests , Python

收藏 評論

劉悦的技術博客 - 日夕如是寒暑不間,基於Python3+Tornado6+APScheduler/Celery打造併發異步動態定時任務輪詢服務

原文轉載自「劉悦的技術博客」https://v3u.cn/a_id_220 定時任務的典型落地場景在各行業中都很普遍,比如支付系統中,支付過程中因為網絡或者其他因素導致出現掉單、卡單的情況,賬單變成了“單邊賬”,這種情況對於支付用户來説,毫無疑問是災難級別的體驗,明明自己付了錢,扣了款,但是訂單狀態卻未發生變化。所以,每一筆訂單的支付任務流程中都需要一個定時輪詢的備選方案,一旦支付中發生問題,定時

python3.x , 定時任務 , celery , tornado , Python

收藏 評論

劉悦的技術博客 - 運籌帷幄決勝千里,Python3.10原生協程asyncio工業級真實協程異步消費任務調度實踐

我們一直都相信這樣一種説法:協程是比多線程更高效的一種併發工作方式,它完全由程序本身所控制,也就是在用户態執行,協程避免了像線程切換那樣產生的上下文切換,在性能方面得到了很大的提升。毫無疑問,這是顛撲不破的業界共識,是放之四海而皆準的真理。 但事實上,協程遠比大多數人想象中的複雜,正因為協程的“用户態”特性,任務調度權掌握在撰寫協程任務的人手裏,而僅僅依賴async和await關鍵字遠遠達不到“調

調度器 , python3.x , async , 協程 , Python

收藏 評論

陳東民 - sublime 做一款翻譯變量名插件

sublime 做一個變量翻譯插件 目標 中文寫一個變量名, 鼠標移上去調用命令能將中文單詞翻譯成變量名,要求能選擇是大駝峯小駝峯還是下劃線 開始 Tools Developer New Plugin... import sublime import sublime_plugin class ExampleCommand(sublime_plugin.TextCommand): d

編輯器 , visual-studio-code , sublime-text , 前端 , Python

收藏 評論

小X學技術 - Y 分鐘速成 Python 2 (legacy)

源代碼下載: learnpythonlegacy-zh.py Python 由 Guido Van Rossum 在90年代初創建。 它現在是最流行的語言之一 我喜愛python是因為它有極為清晰的語法,甚至可以説,它就是可以執行的偽代碼 很歡迎來自您的反饋,你可以在@louiedinh 和 louiedinh [at] [google’s email service] 這裏找到我 注意: 這篇文

教程 , python2.7 , 入門 , python2.x , Python

收藏 評論

懷月 - Flask 0.1 源碼解讀

一、app.run() 在做什麼? 執行 app.run() 便啓動了 Flask 服務,這個服務為什麼能夠監聽 http 請求並做出響應?讓我們進入 run 函數內部一探究竟。 def run(self, host='localhost', port=5000, **options): from werkzeug import run_simple if 'debug' in o

源碼學習 , flask , 源碼分析 , Python

收藏 評論

Hunter - Django筆記三十二之session登錄驗證操作

本文首發於本人微信公眾號:Hunter後端。 原文鏈接:Django筆記三十二之session登錄驗證操作 這一篇筆記將介紹 session 相關的內容,包括如何在系統中使用 session,以及利用 session 實現登錄認證的功能。 這篇筆記將分為以下幾個內容: session 的使用流程 session 的配置和相關方法 users 模塊的準備 session 驗證的的實

登錄 , MySQL , django , Python , session

收藏 評論

NebulaGraph - 連接 AI,NebulaGraph Python ORM 項目 Carina 簡化 Web 開發

作者:Steam Hao 本文整理自社區第 7 期會議中 13‘21″ 到 44’11″ 的 Python ORM 的分享,視頻見 https://www.bilibili.com/video/BV1s8411N7Cw 在做業務開發時,NebulaGraph Python ORM 項目作者:Sword Elucidator(下文簡稱:Hao)發現圖數據庫在某些場景下有比較不錯的應用實踐,而 N

orm , 圖數據庫 , nebula , Python

收藏 評論

小小張説故事 - Python多線程編程入門指南

導語:在許多應用場景中,我們需要同時執行多個任務。Python 提供了多線程(multithreading)支持,可以讓我們更高效地完成任務。在本文中,我們將探討 Python 中的多線程編程基礎知識,並通過一個簡單示例演示如何使用它。 一、併發編程簡介 併發編程是一種編程範式,允許多個任務在同時執行。在多核處理器和多處理器系統中,這種方法可以顯著提高程序的執行效率。Python 提供了多種併發編

多線程 , 異步 , 併發編程 , Python

收藏 評論

京東雲開發者 - Python網絡爬蟲原理及實踐 | 京東雲技術團隊

作者:京東物流 田禹 1 網絡爬蟲 網絡爬蟲:是一種按照一定的規則,自動地抓取萬維網信息的程序或者腳本。 網絡爬蟲相關技術和框架繁多,針對場景的不同可以選擇不同的網絡爬蟲技術。 2 Scrapy框架(Python) 2.1. Scrapy架構 2.1.1. 系統架構 2.1.2. 執行流程 總結爬蟲開發過程,簡化爬蟲執行流程如下圖所示: 爬蟲運行主要流程如下: (1) Scrapy啓動Spid

webmagic , python爬蟲 , scrapy , Python

收藏 評論

小小張説故事 - 使用Python和Scrapy抓取網站數據

在本文中,我們將介紹如何使用Python的Scrapy庫進行網站數據抓取。Scrapy是一個功能強大的網絡爬蟲框架,允許開發者輕鬆地抓取和解析網站內容。 一、安裝Scrapy 首先,您需要安裝Scrapy。這可以通過以下命令完成: pip install scrapy 二、創建一個Scrapy項目 接下來,我們需要創建一個Scrapy項目。在命令行中運行以下命令: scrapy startproj

scrapy , 爬蟲 , Python

收藏 評論

小小張説故事 - 深入理解Python的Tornado Web框架

一、Tornado簡介 Tornado是一個使用Python編寫的高效、非阻塞的web服務器軟件和網絡庫。它被設計用於處理數以千計的併發連接,這是由於其非阻塞的I/O處理方式。Tornado最初是由FriendFeed開發的,這是一個社交聚合服務,後來被Facebook收購。Tornado通常被用於實時Web服務,需要處理大量長連接的情況。 二、安裝和Hello World示例 首先,我們需要在P

tornado , Python , Web

收藏 評論

互聯網小思悟 - 安裝wkhtmltopdf

服務器安裝wkhtmltopdf 下載rpm包至本地 https://github.com/wkhtmltopdf/packaging/releases/download/0.12.6-1/wkhtmltox-0.12.6-1.centos8.x86_64.rpm 上傳rpm包至服務器 scp -r w

Spring Boot , 服務器 , pdf , Css , 前端開發 , HTML , Python

收藏 評論

小小張説故事 - Python爬蟲基礎:使用Scrapy庫初步探索

Scrapy是Python中最流行的網頁爬蟲框架之一,強大且功能豐富。通過Scrapy,你可以快速創建一個爬蟲,高效地抓取和處理網絡數據。在這篇文章中,我們將介紹如何使用Scrapy構建一個基礎的爬蟲。 一、Scrapy簡介及安裝 Scrapy是一個用Python實現的開源網頁爬蟲框架,主要用於網頁數據抓取和分析。它提供了所有的基礎功能,包括解析HTML(或其他格式的數據)、處理HTTP請求、處理

scrapy , Python

收藏 評論

小小張説故事 - Python爬蟲進階:使用Scrapy庫進行數據提取和處理

在我們的初級教程中,我們介紹瞭如何使用Scrapy創建和運行一個簡單的爬蟲。在這篇文章中,我們將深入瞭解Scrapy的強大功能,學習如何使用Scrapy提取和處理數據。 一、數據提取:Selectors和Item 在Scrapy中,提取數據主要通過Selectors來完成。Selectors基於XPath或CSS表達式的查詢語言來選取HTML文檔中的元素。你可以在你的爬蟲中使用response對象

scrapy , 爬蟲 , Python

收藏 評論

小小張説故事 - Python爬蟲深度優化:Scrapy庫的高級使用和調優

在我們前面的文章中,我們探索瞭如何使用Scrapy庫創建一個基礎的爬蟲,瞭解瞭如何使用選擇器和Item提取數據,以及如何使用Pipelines處理數據。在本篇高級教程中,我們將深入探討如何優化和調整Scrapy爬蟲的性能,以及如何處理更復雜的抓取任務,如登錄,處理Cookies和會話,以及避免爬蟲被網站識別和封鎖。 一、併發和延遲 Scrapy使用異步網絡庫Twisted來處理網絡通信,可以實現高

scrapy , 爬蟲 , Python

收藏 評論

wayn - 五個很實用的IDEA使用技巧

日常開發中,相信廣大 Java 開發者都使用過 IntelliJ IDEA 作為開發工具,IntelliJ IDEA 是一款優秀的 Java 集成開發環境,它提供了許多強大的功能和快捷鍵,可以幫助開發者提高編碼效率和質量。除了一些常見的技巧,如自動導包、智能補全、重構工具等。IntelliJ IDEA 還有一些不為人知的技巧,可能很多開發者都沒有注意到或者使用過。本文就在為你介紹博主常用的五個 I

pycharm , phpstorm , intellij-idea , JAVA , Python

收藏 評論

TANKING - Python uiautomation獲取微信電腦版控件內容!聊天列表、聊天記錄全都可獲取

Python uiautomation Python uiautomation 是一個用於自動化 GUI 測試和操作的庫,它可以模擬用户操作來執行各種任務。通過這個庫,可以使用Python腳本模擬人工點擊,人工操作界面。本文使用 Python uiautomation 進行微信電腦版的操作。 微信電腦版 以下是本次實驗的版本號。 你需要安裝 uiautomation pip install u

gui , 微信開發 , 自動化 , uiautomation , Python

收藏 評論

亞馬遜雲開發者 - 使用 Amazon VPS 探索存儲選項:實用指南

文章作者:Libai 在這個數字化時代,雲計算已經成為了企業的必需品,它為我們帶來了可擴展性、靈活性和成本效益。作為一家領先的雲服務提供商,亞馬遜網絡服務(Amazon Web Services)提供了各種各樣的服務,以滿足不同的業務需求。其中,亞馬遜雲科技的一項關鍵服務就是虛擬專用服務器(VPS),它允許我們在雲端部署和管理虛擬服務器。本文將帶你一起探索Amazon VPS所提供的各種存儲選項,

sdk , 雲計算 , VPS , Python

收藏 評論

葉劍飛雪 - 程序的同步與異步

前言: 在計算機網絡通訊中有兩種傳輸方式。同步傳輸和異步傳輸。同步傳輸好比一座單行的高架橋, 異步傳輸好比一座雙通道的高架橋。同樣在程序代碼中也存在同步和異步的執行方式。先來了解一下程序的中幾個概念 進程和線程 線程與進程相比更輕量,而且線程之間是共享內存堆棧的,所以不同的線程之間交互非常容易實現。比如聊天室這樣的程序,客户端連接之間可以交互,比聊天室中的玩家可以任意的其他人發消息。用多線程

php , 異步編程 , go , 後端 , Python

收藏 評論

qbit - pyparsing 2.x 案例(qbit)

前言 技術棧 Python 3.11 pyparsing 2.4.7 loguru 0.7.2 xmltodict 0.13.0 案例 測試解析 與 或 測試代碼 # encoding: utf-8 # author: qbit # date: 2023-12-14 # summary: pyparsing 2.x 解析測試,測試 AND OR import json i

ast , Python

收藏 評論

universe_king - 解決 curl_cffi 和 nameko/eventlet 的兼容性

百度反扒上了 TLS 指紋反爬蟲: python爬蟲 - 猿人學第十九題突破ja3指紋驗證 我們可以使用 curl_cffi 輕鬆無腦突破 TLS 指紋反爬蟲:curl_cffi: 支持原生模擬瀏覽器 TLS/JA3 指紋的 Python 庫 但是我在使用 curl_cffi + nameko 的時候,發現請求代理等 http 操作的延時很恐怖且越來越恐怖 我直接懷疑就是 curl_cffi 和

curl , Python

收藏 評論

註銷 - 關於 Python 處理 PDF 的庫 pymupdf 介紹

pymupdf 是一個用於處理 PDF 文件的 Python 庫,提供了豐富的功能和靈活的接口,使得在 Python 環境中處理 PDF 文件變得簡單而強大。該庫建立在 MuPDF 渲染引擎的基礎上,MuPDF 是一款高性能的 PDF 渲染器,pymupdf 將其封裝成一個易於使用的 Python 模塊。 主要功能: 打開和查看 PDF 文件: 使用 fitz.open 方法

python3.x , python2.7 , Python

收藏 評論