Richieste Python e sessioni persistenti


119

Sto usando il modulo delle richieste (versione 0.10.0 con Python 2.5). Ho capito come inviare dati a un modulo di accesso su un sito Web e recuperare la chiave di sessione, ma non vedo un modo ovvio per utilizzare questa chiave di sessione nelle richieste successive. Qualcuno può compilare i puntini di sospensione nel codice sottostante o suggerire un altro approccio?

>>> import requests
>>> login_data =  {'formPosted':'1', 'login_email':'me@example.com', 'password':'pw'}
>>> r = requests.post('https://localhost/login.py', login_data)
>>> 
>>> r.text
u'You are being redirected <a href="profilePage?_ck=1349394964">here</a>'
>>> r.cookies
{'session_id_myapp': '127-0-0-1-825ff22a-6ed1-453b-aebc-5d3cf2987065'}
>>> 
>>> r2 = requests.get('https://localhost/profile_data.json', ...)

Risposte:


209

Puoi facilmente creare una sessione persistente utilizzando:

s = requests.Session()

Dopodiché, continua con le tue richieste come faresti:

s.post('https://localhost/login.py', login_data)
#logged in! cookies saved for future requests.
r2 = s.get('https://localhost/profile_data.json', ...)
#cookies sent automatically!
#do whatever, s will keep your cookies intact :)

Per ulteriori informazioni sulle sessioni: https://requests.kennethreitz.org/en/master/user/advanced/#session-objects


4
Qualche modo per salvare la sessione stessa tra le esecuzioni di script?
Gtx

10
Può pickle.dump i cookie di sessione in un file come pickle.dump (session.cookies._cookies, file) e pickle.load alla sessione come segue i cookie = pickle.load (file) cj = requests.cookies.RequestsCookieJar () cj._cookies = cookies e session.cookies = cj
Cyril

cosa succede se coinvolgo il proxy?
brainLoop

1
Per le richieste inviate a localhost, potrebbero esserci problemi con il login e altri cookie restituiti dal server web, se contengono un valore di proprietà del dominio errato. Infatti localhost, il server web dovrebbe restituire i cookie con la proprietà del dominio impostata su localhost.local, altrimenti il ​​cookie non verrà applicato alla sessione. In tal caso, utilizzare al 127.0.0.1posto dilocalhost
Sergey Nudnov il

@SergeyNudnov Mille grazie per il tuo commento Ho perso un sacco di tempo cercando di capire perché la sessione non gestisce correttamente i cookie. La modifica del dominio da localhost a localhost.local ha risolto il problema. Grazie ancora.
Pulkownik

25

le altre risposte aiutano a capire come mantenere tale sessione. Inoltre, voglio fornire una classe che mantenga la sessione mantenuta su diverse esecuzioni di uno script (con un file di cache). Ciò significa che un "login" appropriato viene eseguito solo quando richiesto (timeout o nessuna sessione esiste nella cache). Inoltre supporta le impostazioni proxy nelle chiamate successive a "get" o "post".

È testato con Python3.

Usalo come base per il tuo codice. I seguenti frammenti sono stati rilasciati con GPL v3

import pickle
import datetime
import os
from urllib.parse import urlparse
import requests    

class MyLoginSession:
    """
    a class which handles and saves login sessions. It also keeps track of proxy settings.
    It does also maintine a cache-file for restoring session data from earlier
    script executions.
    """
    def __init__(self,
                 loginUrl,
                 loginData,
                 loginTestUrl,
                 loginTestString,
                 sessionFileAppendix = '_session.dat',
                 maxSessionTimeSeconds = 30 * 60,
                 proxies = None,
                 userAgent = 'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:40.0) Gecko/20100101 Firefox/40.1',
                 debug = True,
                 forceLogin = False,
                 **kwargs):
        """
        save some information needed to login the session

        you'll have to provide 'loginTestString' which will be looked for in the
        responses html to make sure, you've properly been logged in

        'proxies' is of format { 'https' : 'https://user:pass@server:port', 'http' : ...
        'loginData' will be sent as post data (dictionary of id : value).
        'maxSessionTimeSeconds' will be used to determine when to re-login.
        """
        urlData = urlparse(loginUrl)

        self.proxies = proxies
        self.loginData = loginData
        self.loginUrl = loginUrl
        self.loginTestUrl = loginTestUrl
        self.maxSessionTime = maxSessionTimeSeconds
        self.sessionFile = urlData.netloc + sessionFileAppendix
        self.userAgent = userAgent
        self.loginTestString = loginTestString
        self.debug = debug

        self.login(forceLogin, **kwargs)

    def modification_date(self, filename):
        """
        return last file modification date as datetime object
        """
        t = os.path.getmtime(filename)
        return datetime.datetime.fromtimestamp(t)

    def login(self, forceLogin = False, **kwargs):
        """
        login to a session. Try to read last saved session from cache file. If this fails
        do proper login. If the last cache access was too old, also perform a proper login.
        Always updates session cache file.
        """
        wasReadFromCache = False
        if self.debug:
            print('loading or generating session...')
        if os.path.exists(self.sessionFile) and not forceLogin:
            time = self.modification_date(self.sessionFile)         

            # only load if file less than 30 minutes old
            lastModification = (datetime.datetime.now() - time).seconds
            if lastModification < self.maxSessionTime:
                with open(self.sessionFile, "rb") as f:
                    self.session = pickle.load(f)
                    wasReadFromCache = True
                    if self.debug:
                        print("loaded session from cache (last access %ds ago) "
                              % lastModification)
        if not wasReadFromCache:
            self.session = requests.Session()
            self.session.headers.update({'user-agent' : self.userAgent})
            res = self.session.post(self.loginUrl, data = self.loginData, 
                                    proxies = self.proxies, **kwargs)

            if self.debug:
                print('created new session with login' )
            self.saveSessionToCache()

        # test login
        res = self.session.get(self.loginTestUrl)
        if res.text.lower().find(self.loginTestString.lower()) < 0:
            raise Exception("could not log into provided site '%s'"
                            " (did not find successful login string)"
                            % self.loginUrl)

    def saveSessionToCache(self):
        """
        save session to a cache file
        """
        # always save (to update timeout)
        with open(self.sessionFile, "wb") as f:
            pickle.dump(self.session, f)
            if self.debug:
                print('updated session cache-file %s' % self.sessionFile)

    def retrieveContent(self, url, method = "get", postData = None, **kwargs):
        """
        return the content of the url with respect to the session.

        If 'method' is not 'get', the url will be called with 'postData'
        as a post request.
        """
        if method == 'get':
            res = self.session.get(url , proxies = self.proxies, **kwargs)
        else:
            res = self.session.post(url , data = postData, proxies = self.proxies, **kwargs)

        # the session has been updated on the server, so also update in cache
        self.saveSessionToCache()            

        return res

Uno snippet di codice per l'utilizzo della classe precedente potrebbe essere simile a questo:

if __name__ == "__main__":
    # proxies = {'https' : 'https://user:pass@server:port',
    #           'http' : 'http://user:pass@server:port'}

    loginData = {'user' : 'usr',
                 'password' :  'pwd'}

    loginUrl = 'https://...'
    loginTestUrl = 'https://...'
    successStr = 'Hello Tom'
    s = MyLoginSession(loginUrl, loginData, loginTestUrl, successStr, 
                       #proxies = proxies
                       )

    res = s.retrieveContent('https://....')
    print(res.text)

    # if, for instance, login via JSON values required try this:
    s = MyLoginSession(loginUrl, None, loginTestUrl, successStr, 
                       #proxies = proxies,
                       json = loginData)

6
Questa è un'ottima risposta, è stranamente difficile anche cercare questa soluzione.
dualità

Non dovrebbe essere implementato come parte del modulo di richiesta?
user1602

Usa il requestsmodulo. Come vorresti implementarlo come parte del modulo? o come intendi @ user1602?
DomTomCat

17

Controlla la mia risposta in questa domanda simile:

python: urllib2 come inviare cookie con richiesta urlopen

import urllib2
import urllib
from cookielib import CookieJar

cj = CookieJar()
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))
# input-type values from the html form
formdata = { "username" : username, "password": password, "form-id" : "1234" }
data_encoded = urllib.urlencode(formdata)
response = opener.open("https://page.com/login.php", data_encoded)
content = response.read()

MODIFICARE:

Vedo che ho ricevuto alcuni voti negativi per la mia risposta, ma nessun commento esplicativo. Immagino sia perché mi riferisco alle urllibbiblioteche invece che requests. Lo faccio perché l'OP chiede aiuto requestso qualcuno mi suggerisce un altro approccio.


2
Non sono uno dei tuoi meno votanti, ma come supposizione, molti lettori stanno probabilmente glossando l'ultima frase dell'OP come "Qualcuno può compilare i puntini di sospensione nel codice qui sotto o suggerire un altro approccio [con la libreria delle richieste che coinvolgerebbe più importanti intervento chirurgico al mio codice piuttosto che riempire i puntini di sospensione con qualcos'altro]. " - ma questa è solo un'ipotesi da parte mia.
Brandon Rhodes

7
Come OP, posso dire che la tua risposta fornisce un'alternativa utile. Se non altro per dimostrare che requestsoffre una soluzione semplice e di alto livello a un problema che altrimenti richiederebbe 3 librerie per l'implementazione.
ChrisGuest

7

La documentazione dice che getaccetta un cookiesargomento facoltativo che consente di specificare i cookie da utilizzare:

dai documenti:

>>> url = 'http://httpbin.org/cookies'
>>> cookies = dict(cookies_are='working')

>>> r = requests.get(url, cookies=cookies)
>>> r.text
'{"cookies": {"cookies_are": "working"}}'

http://docs.python-requests.org/en/latest/user/quickstart/#cookies


6

Dopo aver provato tutte le risposte sopra, ho scoperto che l'utilizzo di "RequestsCookieJar" invece del normale CookieJar per le richieste successive ha risolto il mio problema.

import requests
import json

# The Login URL
authUrl = 'https://whatever.com/login'

# The subsequent URL
testUrl = 'https://whatever.com/someEndpoint'

# Logout URL
testlogoutUrl = 'https://whatever.com/logout'

# Whatever you are posting
login_data =  {'formPosted':'1', 
               'login_email':'me@example.com', 
               'password':'pw'
               }

# The Authentication token or any other data that we will receive from the Authentication Request. 
token = ''

# Post the login Request
loginRequest = requests.post(authUrl, login_data)
print("{}".format(loginRequest.text))

# Save the request content to your variable. In this case I needed a field called token. 
token = str(json.loads(loginRequest.content)['token'])  # or ['access_token']
print("{}".format(token))

# Verify Successful login
print("{}".format(loginRequest.status_code))

# Create your Requests Cookie Jar for your subsequent requests and add the cookie
jar = requests.cookies.RequestsCookieJar()
jar.set('LWSSO_COOKIE_KEY', token)

# Execute your next request(s) with the Request Cookie Jar set
r = requests.get(testUrl, cookies=jar)
print("R.TEXT: {}".format(r.text))
print("R.STCD: {}".format(r.status_code))

# Execute your logout request(s) with the Request Cookie Jar set
r = requests.delete(testlogoutUrl, cookies=jar)
print("R.TEXT: {}".format(r.text))  # should show "Request Not Authorized"
print("R.STCD: {}".format(r.status_code))  # should show 401

1
Grazie @ jim-chertkov per questo! Ottima risposta anche anni dopo! Sono stato in grado di usarlo e capirlo.
JayRizzo

2

snippet per recuperare i dati JSON, protetto da password

import requests

username = "my_user_name"
password = "my_super_secret"
url = "https://www.my_base_url.com"
the_page_i_want = "/my_json_data_page"

session = requests.Session()
# retrieve cookie value
resp = session.get(url+'/login')
csrf_token = resp.cookies['csrftoken']
# login, add referer
resp = session.post(url+"/login",
                  data={
                      'username': username,
                      'password': password,
                      'csrfmiddlewaretoken': csrf_token,
                      'next': the_page_i_want,
                  },
                  headers=dict(Referer=url+"/login"))
print(resp.json())

1

Salva solo i cookie necessari e riutilizzali.

import os
import pickle
from urllib.parse import urljoin, urlparse

login = 'my@email.com'
password = 'secret'
# Assuming two cookies are used for persistent login.
# (Find it by tracing the login process)
persistentCookieNames = ['sessionId', 'profileId']
URL = 'http://example.com'
urlData = urlparse(URL)
cookieFile = urlData.netloc + '.cookie'
signinUrl = urljoin(URL, "/signin")
with requests.Session() as session:
    try:
        with open(cookieFile, 'rb') as f:
            print("Loading cookies...")
            session.cookies.update(pickle.load(f))
    except Exception:
        # If could not load cookies from file, get the new ones by login in
        print("Login in...")
        post = session.post(
            signinUrl,
            data={
                'email': login,
                'password': password,
            }
        )
        try:
            with open(cookieFile, 'wb') as f:
                jar = requests.cookies.RequestsCookieJar()
                for cookie in session.cookies:
                    if cookie.name in persistentCookieNames:
                        jar.set_cookie(cookie)
                pickle.dump(jar, f)
        except Exception as e:
            os.remove(cookieFile)
            raise(e)
    MyPage = urljoin(URL, "/mypage")
    page = session.get(MyPage)

0

Questo funzionerà per te in Python;

# Call JIRA API with HTTPBasicAuth
import json
import requests
from requests.auth import HTTPBasicAuth

JIRA_EMAIL = "****"
JIRA_TOKEN = "****"
BASE_URL = "https://****.atlassian.net"
API_URL = "/rest/api/3/serverInfo"

API_URL = BASE_URL+API_URL

BASIC_AUTH = HTTPBasicAuth(JIRA_EMAIL, JIRA_TOKEN)
HEADERS = {'Content-Type' : 'application/json;charset=iso-8859-1'}

response = requests.get(
    API_URL,
    headers=HEADERS,
    auth=BASIC_AUTH
)

print(json.dumps(json.loads(response.text), sort_keys=True, indent=4, separators=(",", ": ")))
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.