Serwery proxy z modułem „Żądania” w języku Python


159

Krótka, prosta informacja o doskonałym module Requests dla Pythona.

Nie mogę znaleźć w dokumentacji, co powinna zawierać zmienna „proxy”. Kiedy wysyłam mu dyktando ze standardową wartością „IP: PORT”, odrzuca prośbę o podanie 2 wartości. Więc myślę (ponieważ nie wydaje się to być uwzględnione w dokumentacji), że pierwsza wartość to ip, a druga port?

Dokumenty wspominają tylko o tym:

proxy - (opcjonalne) Protokół mapowania słownika na adres URL serwera proxy.

Więc spróbowałem tego ... co powinienem robić?

proxy = { ip: port}

i czy powinienem przekonwertować je na jakiś typ przed umieszczeniem ich w dyktando?

r = requests.get(url,headers=headers,proxies=proxy)

Odpowiedzi:


280

proxies'Składni dict jest {"protocol":"ip:port", ...}. Dzięki niemu możesz określić różne (lub te same) proxy dla żądań korzystających z protokołów http , https i ftp :

http_proxy  = "http://10.10.1.10:3128"
https_proxy = "https://10.10.1.11:1080"
ftp_proxy   = "ftp://10.10.1.10:3128"

proxyDict = { 
              "http"  : http_proxy, 
              "https" : https_proxy, 
              "ftp"   : ftp_proxy
            }

r = requests.get(url, headers=headers, proxies=proxyDict)

Wyprowadzone z requestsdokumentacji :

Parametry:
method - metoda dla nowego obiektu Request.
url- adres URL nowego obiektu żądania.
...
proxies- (opcjonalne) Protokół mapowania słownikowego na adres URL serwera proxy . ...


Na linux można to zrobić także za pośrednictwem HTTP_PROXY, HTTPS_PROXYi FTP_PROXYśrodowiskowych czynników:

export HTTP_PROXY=10.10.1.10:3128
export HTTPS_PROXY=10.10.1.11:1080
export FTP_PROXY=10.10.1.10:3128

W systemie Windows:

set http_proxy=10.10.1.10:3128
set https_proxy=10.10.1.11:1080
set ftp_proxy=10.10.1.10:3128

Dzięki, Jay za wskazanie tego:
składnia zmieniła się wraz z żądaniami 2.0.0 .
Musisz dodać schemat do adresu URL: https://2.python-requests.org/en/latest/user/advanced/#proxies


@cigar Wiedziałem, ponieważ urllib2 używa dokładnie tego samego formatu dla swoich serwerów proxy, a kiedy zobaczyłem docs.python-requests.org/en/latest/api/#module-requests , napisano : „proxy - (opcjonalnie) protokół mapowania słownika na URL serwera proxy. ”, Wiedziałem od razu.
chown

1
ahhh widzę, nigdy nie korzystałem z proxy z urllib2 z powodu rady, jak się go pozbyć, otrzymałem stąd, zastąpiłem 2 strony kodu 8 liniami: / re: ramię :))) super zostań tutaj, zaoszczędziłeś mi już godziny w całkowity! Jeśli kiedykolwiek będziesz potrzebować pomocy przy muzyce, daj mi znać, w czym mogę doradzić, w przeciwnym razie nie mogę wymyślić innego sposobu na spłatę niż ogromne podziękowania lub filiżanki herbaty!

Wygląda na to, że żądania, a ponadto urllib3 nie może wykonać POŁĄCZENIA podczas korzystania z serwera proxy :(
dzen

@dzen jeszcze nie używałem, urllib3więc będę musiał się temu przyjrzeć. Dzięki za ostrzeżenie.
chown

3
@chown składnia zmieniła się wraz z żądaniami 2.0.0. Będziesz musiał dodać schemat do adresu URL: docs.python-requests.org/en/latest/user/advanced/#proxies Byłoby miło, gdybyś mógł dodać to do swojej odpowiedzi tutaj
Jay

28

Odkryłem, że urllib ma naprawdę dobry kod do wychwytywania ustawień proxy systemu i tak się składa, że ​​są w prawidłowej formie do bezpośredniego użycia. Możesz użyć tego jak:

import urllib

...
r = requests.get('http://example.org', proxies=urllib.request.getproxies())

Działa naprawdę dobrze, a urllib wie również o pobieraniu ustawień Mac OS X i Windows.


Czy to działa bez proxy? Niektórzy z naszych użytkowników nie mają serwera proxy, a niektórzy mają.
jonasl

1
Czy obejmuje no_proxy i czy żądania uwzględniają no_proxy? Nieważne, wydaje się, że są rozwiązania: github.com/kennethreitz/requests/issues/879
jrwren

4
uzyskiwanie błędu:module 'urllib' has no attribute 'getproxies'
Zahra

4
Zielonkawe: urllib.request.getproxies ()
oliche

1
@Zahra try urllib2.getproxies ()
rleelr

25

Możesz zapoznać się z dokumentacją proxy tutaj .

Jeśli potrzebujesz użyć proxy, możesz skonfigurować indywidualne żądania z argumentem proxy dla dowolnej metody żądania:

import requests

proxies = {
  "http": "http://10.10.1.10:3128",
  "https": "https://10.10.1.10:1080",
}

requests.get("http://example.org", proxies=proxies)

Aby używać podstawowego uwierzytelniania HTTP z serwerem proxy, użyj składni http: // użytkownik: hasło@host.com/:

proxies = {
    "http": "http://user:pass@10.10.1.10:3128/"
}

17

Przyjęta odpowiedź była dla mnie dobrym początkiem, ale ciągle otrzymywałem następujący błąd:

AssertionError: Not supported proxy scheme None

Rozwiązaniem tego problemu było określenie http: // w adresie URL serwera proxy, w ten sposób:

http_proxy  = "http://194.62.145.248:8080"
https_proxy  = "https://194.62.145.248:8080"
ftp_proxy   = "10.10.1.10:3128"

proxyDict = {
              "http"  : http_proxy,
              "https" : https_proxy,
              "ftp"   : ftp_proxy
            }

Byłbym ciekawy, dlaczego oryginał działa dla niektórych osób, ale nie dla mnie.

Edycja: widzę, że główna odpowiedź została zaktualizowana, aby to odzwierciedlić :)


4
zmieniono w wersji 2.0.0: adresy URL serwera proxy muszą teraz mieć wyraźny schemat. Jeśli tego nie zrobią, zostanie zgłoszony wyjątek MissingSchema.
Jay

4

Jeśli chcesz utrwalać pliki cookie i dane sesji, najlepiej zrób to w następujący sposób:

import requests

proxies = {
    'http': 'http://user:pass@10.10.1.0:3128',
    'https': 'https://user:pass@10.10.1.0:3128',
}

# Create the session and set the proxies.
s = requests.Session()
s.proxies = proxies

# Make the HTTP request through the session.
r = s.get('http://www.showmemyip.com/')

2

8 lat późno. Ale lubię:

import os
import requests

os.environ['HTTP_PROXY'] = os.environ['http_proxy'] = 'http://http-connect-proxy:3128/'
os.environ['HTTPS_PROXY'] = os.environ['https_proxy'] = 'http://http-connect-proxy:3128/'
os.environ['NO_PROXY'] = os.environ['no_proxy'] = '127.0.0.1,localhost,.local'

r = requests.get('https://example.com')  # , verify=False

1

oto moja podstawowa klasa w Pythonie dla modułu żądań z kilkoma konfiguracjami proxy i stoperem!

import requests
import time
class BaseCheck():
    def __init__(self, url):
        self.http_proxy  = "http://user:pw@proxy:8080"
        self.https_proxy = "http://user:pw@proxy:8080"
        self.ftp_proxy   = "http://user:pw@proxy:8080"
        self.proxyDict = {
                      "http"  : self.http_proxy,
                      "https" : self.https_proxy,
                      "ftp"   : self.ftp_proxy
                    }
        self.url = url
        def makearr(tsteps):
            global stemps
            global steps
            stemps = {}
            for step in tsteps:
                stemps[step] = { 'start': 0, 'end': 0 }
            steps = tsteps
        makearr(['init','check'])
        def starttime(typ = ""):
            for stemp in stemps:
                if typ == "":
                    stemps[stemp]['start'] = time.time()
                else:
                    stemps[stemp][typ] = time.time()
        starttime()
    def __str__(self):
        return str(self.url)
    def getrequests(self):
        g=requests.get(self.url,proxies=self.proxyDict)
        print g.status_code
        print g.content
        print self.url
        stemps['init']['end'] = time.time()
        #print stemps['init']['end'] - stemps['init']['start']
        x= stemps['init']['end'] - stemps['init']['start']
        print x


test=BaseCheck(url='http://google.com')
test.getrequests()

1

Właśnie utworzyłem proxy graber, a także mogę łączyć się z tym samym pobranym proxy bez żadnego wkładu tutaj:

#Import Modules

from termcolor import colored
from selenium import webdriver
import requests
import os
import sys
import time

#Proxy Grab

options = webdriver.ChromeOptions()
options.add_argument('headless')
driver = webdriver.Chrome(chrome_options=options)
driver.get("https://www.sslproxies.org/")
tbody = driver.find_element_by_tag_name("tbody")
cell = tbody.find_elements_by_tag_name("tr")
for column in cell:

        column = column.text.split(" ")
        print(colored(column[0]+":"+column[1],'yellow'))
driver.quit()
print("")

os.system('clear')
os.system('cls')

#Proxy Connection

print(colored('Getting Proxies from graber...','green'))
time.sleep(2)
os.system('clear')
os.system('cls')
proxy = {"http": "http://"+ column[0]+":"+column[1]}
url = 'https://mobile.facebook.com/login'
r = requests.get(url,  proxies=proxy)
print("")
print(colored('Connecting using proxy' ,'green'))
print("")
sts = r.status_code

0

Jest trochę za późno, ale oto klasa otoki, która upraszcza skrobanie serwerów proxy, a następnie tworzenie http POST lub GET:

ProxyRequests

https://github.com/rootVIII/proxy_requests

0

Udostępniam kod, jak pobrać serwery proxy ze strony „https://free-proxy-list.net” i przechowywać dane w pliku zgodnym z narzędziami typu „Elite Proxy Switcher” (format IP: PORT):

## PROXY_UPDATER - uzyskaj darmowe proxy z https://free-proxy-list.net/

from lxml.html import fromstring
import requests
from itertools import cycle
import traceback
import re

######################FIND PROXIES#########################################
def get_proxies():
    url = 'https://free-proxy-list.net/'
    response = requests.get(url)
    parser = fromstring(response.text)
    proxies = set()
    for i in parser.xpath('//tbody/tr')[:299]:   #299 proxies max
        proxy = ":".join([i.xpath('.//td[1]/text()') 
        [0],i.xpath('.//td[2]/text()')[0]])
        proxies.add(proxy)
    return proxies



######################write to file in format   IP:PORT######################
try:
    proxies = get_proxies()
    f=open('proxy_list.txt','w')
    for proxy in proxies:
        f.write(proxy+'\n')
    f.close()
    print ("DONE")
except:
    print ("MAJOR ERROR")
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.