In particolare, vorrei poter scaricare alcune pagine dal mio profilo utente sui vari siti di Stack Exchange. Vorrei, tuttavia, farlo automaticamente (usando un cron
lavoro), dalla riga di comando e in un formato analizzabile. Preferisco di gran lunga usare Linux per questo, ma potrei accedere a un computer Mac o Windows se necessario.
Idealmente, vorrei utilizzare uno strumento come Wget o cURL per recuperare le pagine. Tuttavia, non so come superare il login. Ho visto suggerimenti che menzionano che è possibile accedere tramite Firefox, esportare i cookie pertinenti e importarli in Wget attraverso la sua --load-cookies
opzione. Ad esempio qui e qui . Anche se funziona se ho appena effettuato l'accesso, dopo un po 'non funziona. Suppongo che il token ID debba essere aggiornato.
Quindi, subito dopo aver effettuato l'accesso a SU ed esportato i miei cookie, posso fare:
wget --load-cookies cookies.txt \
https://superuser.com/users/151431/terdon?tab=responses
Dopo alcuni minuti, però, ricevo un errore 404:
wget -O ~/stack/$(date +%s) --load-cookies ~/cookies.txt \
https://superuser.com/users/151431/terdon?tab=responses
--2013-08-06 04:04:14-- https://superuser.com/users/151431/terdon?tab=responses
Resolving superuser.com (superuser.com)... 198.252.206.16
Connecting to superuser.com (superuser.com)|198.252.206.16|:80... connected.
HTTP request sent, awaiting response... 404 Not Found
2013-08-06 04:04:15 ERROR 404: Not Found.
Quindi, come posso accedere automaticamente a un sito Web abilitato per OpenID dalla riga di comando?
PS. Penso che questo sia più adatto qui che nelle applicazioni Web poiché la mia domanda riguarda davvero l'aspetto della riga di comando e non i dettagli effettivi della pagina Web in questione. Immagino che qualsiasi soluzione sarà applicabile a tutti i siti OpenID .