python模擬TLS指紋實現(xiàn)反爬取
相信大家在做爬蟲的時候,都有過被反爬的經(jīng)歷,一旦網(wǎng)站識別是爬蟲,就會拒絕請求。反爬機制有很多,最常見的便是通過請求頭里的 User-Agent,舉個例子。
import requests
import httpx
response = requests.get("http://www.baidu.com")
print(response.request.headers["User-Agent"])
"""
python-requests/2.28.0
"""
response = httpx.get("http://www.baidu.com")
print(response.request.headers["User-Agent"])
"""
python-httpx/0.23.3
"""如果 User-Agent 不符合瀏覽器的格式,那么一定不是瀏覽器發(fā)出的,于是網(wǎng)站便可認定這屬于爬蟲。當然通過 User-Agent 識別屬于最低級的方式,因為爬蟲可以偽造自己的 User-Agent。
import requests
import httpx
response = requests.get("http://www.baidu.com",
headers={"User-Agent": "Chrome User-Agent"})
print(response.request.headers["User-Agent"])
"""
Chrome User-Agent
"""
response = httpx.get("http://www.baidu.com",
headers={"User-Agent": "IE User-Agent"})
print(response.request.headers["User-Agent"])
"""
IE User-Agent
"""除了 User-Agent 之外,還可以通過請求頭中的 Refer 字段判斷是否為爬蟲。比如你在 A 頁面點擊某個標簽跳轉到 B 頁面,那么 Refer 就是 A 頁面的地址。如果你直接訪問的 B 頁面,那么 Refer 就是空。
如果 B 頁面必須通過點擊 A 頁面的標簽才能跳轉,那么網(wǎng)站便可以通過 Refer 來判斷是否為爬蟲。
當然啦,反爬機制還有很多,不同網(wǎng)站使用的策略不一樣。但現(xiàn)在大部分的網(wǎng)站都使用了 HTTPS,在建立 HTTPS 連接的時候要先進行 TLS 握手,在握手的過程中會協(xié)商加密算法、交換密鑰和驗證雙方的身份。
而將 TLS 握手產(chǎn)生的信息收集起來,并使用 JA3 算法生成一個哈希值,便得到了 TLS 指紋,基于該指紋可以標識、分類和跟蹤使用特定 TLS 配置的客戶端。
因此通過 JA3 哈希生成指紋便可以確定哪些是惡意流量,從而將其拒絕掉。換句話說,通過 TLS 指紋可以識別哪些是瀏覽器發(fā)出的正常請求,哪些是爬蟲。
那么 TLS 指紋如何查看呢?可以通過以下幾個網(wǎng)站。
https://tls.browserleaks.com/json

這是我基于瀏覽器訪問的,它的字段都不是空,我們使用 Python 訪問一下。
import requests
import httpx
user_agent = "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) " \
"AppleWebKit/537.36 (KHTML, like Gecko) " \
"Chrome/118.0.0.0 Safari/537.36"
response = requests.get("https://tls.browserleaks.com/json",
headers={"User-Agent": user_agent})
print(response.json())
"""
{'ja3_hash': '8d9f7747675e24454cd9b7ed35c58707',
'ja3_text': '771,4866-4867-4865-49196-49200-49195...',
'ja3n_hash': 'a790a1e311289ac1543f411f6ffceddf',
'ja3n_text': '771,4866-4867-4865-49196-49200-49195...',
'akamai_hash': '',
'akamai_text': ''}
"""
response = httpx.get("https://tls.browserleaks.com/json",
headers={"User-Agent": user_agent})
print(response.json())
"""
{'ja3_hash': '76f01df912881a05228c70b7f61bcbaa',
'ja3_text': '771,4866-4867-4865-49196-49200-49195...',
'ja3n_hash': '80a9bea1db8ce3a18047816ba1ee07e5',
'ja3n_text': '771,4866-4867-4865-49196-49200-49195...',
'akamai_hash': '',
'akamai_text': ''}
"""如果使用爬蟲,那么多次請求時的 ja3_hash 是不變的,并且 akamai_hash 和 akamai_text 均是空,基于該特征很容易識別是不是爬蟲。即使我們更換代理,設置請求頭,也無法改變這一點。
于是為了完美模擬瀏覽器,國外大佬開發(fā)出了 curl-impersonate,將 curl 底層依賴的庫全部換成了瀏覽器使用的庫,并且版本也是一致的,這樣生成的指紋就和瀏覽器完全一樣了。
而 curl_cffi 正是 curl-impersonate 的 Python binding,我們直接使用 pip 安裝即可。
# 和 requests 接口是一致的
from curl_cffi import requests
# 但是多了一個 impersonate 參數(shù),用于指定模擬哪個瀏覽器
response = requests.get("https://tls.browserleaks.com/json",
impersonate="chrome101")
print(response.json())
"""
{'ja3_hash': 'cd08e31494f9531f560d64c695473da9',
'ja3_text': '771,4865-4866-4867-49195-49199-49196...',
'ja3n_hash': 'aa56c057ad164ec4fdcb7a5a283be9fc',
'ja3n_text': '771,4865-4866-4867-49195-49199-49196...',
'akamai_hash': '8a32ff5cb625ed4ae2d092e76beb6d99',
'akamai_text': '1:65536;3:1000;4:6291456;6:262144|15663105||m,a,s,p'}
"""
# 當然也可以先創(chuàng)建 session
session = requests.Session()
# 然后基于 session 發(fā)請求總共支持如下版本的瀏覽器:

我們選擇 chrome110 即可,然后 curl_cffi 還支持異步發(fā)請求,可以和 asyncio 輕松集成。
import asyncio
from curl_cffi import requests
async def send_req():
async with requests.AsyncSession() as session:
response = await session.get(
"https://tls.browserleaks.com/json",
impersonate="chrome101"
)
print(response.json())
asyncio.run(send_req())
"""
{'ja3_hash': 'cd08e31494f9531f560d64c695473da9',
'ja3_text': '771,4865-4866-4867-49195-49199-49196...',
'ja3n_hash': 'aa56c057ad164ec4fdcb7a5a283be9fc',
'ja3n_text': '771,4865-4866-4867-49195-49199-49196...',
'akamai_hash': '8a32ff5cb625ed4ae2d092e76beb6d99',
'akamai_text': '1:65536;3:1000;4:6291456;6:262144|15663105||m,a,s,p'}
"""由于指紋特征很難更改,因此通過指紋可以防御一大批爬蟲,而通過 curl_cffi 模擬指紋則可以繞過這道防線。
到此這篇關于python模擬TLS指紋實現(xiàn)反爬取的文章就介紹到這了,更多相關python模擬TLS指紋內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
關于sklearn包導入錯誤:ImportError:?cannot?import?name Type解
這篇文章主要介紹了關于sklearn包導入錯誤:ImportError:?cannot?import?name‘Type‘解決方案,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教2024-02-02
使用Python Flask實現(xiàn)簡易文件上傳功能
在平時工作中,文件上傳是一項常見的需求,例如將應用異常時通過腳本生成的dump文件收集起來進行分析,但實現(xiàn)起來卻可能相當復雜,在本文中,我們將探討如何使用Flask實現(xiàn)文件上傳功能,編寫Dockerfile將應用程序通過docker部署,需要的朋友可以參考下2024-05-05
Python pygame實現(xiàn)圖像基本變換的示例詳解
pygame的transform中封裝了一些基礎的圖像處理函數(shù),這篇文章主要為大家介紹了pygame實現(xiàn)圖像的基本變換,例如縮放、旋轉、鏡像等,感興趣的小伙伴可以了解一下2023-11-11

