Python - Remote-Dateien

Inhaltsverzeichnis

Python ermöglicht es uns, mit entfernten Dateien zu arbeiten, vielleicht klingt das nicht logisch, aber entfernte Dateien sind in diesem Fall nichts anderes als Abfragen auf Webseiten von unserem Python-Programm, der Grund dafür kann die Abfrage an . sein REST-Webdienste die es uns ermöglichen, Werte zu erhalten von BEKOMMEN oder Seiten direkt abfragen und deren Inhalt manipulieren.

Um dies zu erreichen, werden wir einige der vielen Bibliotheken verwenden, die es bietet Python um mit Netzwerken zu arbeiten, technische Hindernisse zu beseitigen und uns nur darauf zu konzentrieren, wie wichtig es in unserer Programmierlogik ist.

urllib und urllib2
Diese beiden Buchhandlungen urllib Ja urllib2 Sie ermöglichen uns den Zugriff auf Dateien über das Netzwerk, als ob sie sich in unserer lokalen Umgebung befinden würden, durch einen einfachen Aufruf einer Funktion. Dies kann uns für viele Dinge dienen, zum Beispiel, dass wir ein Web und seinen Inhalt verwenden können in unserem Programm berichten, was wir darin finden können.

Diese beiden Bibliotheken sind ähnlich, ihr Unterschied besteht darin, dass urllib2 es kann etwas komplizierter sein, wenn wir einfach eine Abfrage ohne weitere Auswirkungen machen möchten, können wir verwenden urllib, aber wenn wir einen Authentifizierungsprozess durchführen oder Cookies verwenden möchten, dann urllib2 es könnte die richtige Wahl für unser Programm sein.

Da wir theoretisch wissen, was wir brauchen und warum wir es brauchen, sehen wir uns ein kleines Code-Beispiel an, damit uns klar wird, was wir tun können, im folgenden Beispiel werden wir ein Web aus unserem Programm und dann über reguläre Ausdrücke öffnen Wir werden einen Link zu seinem Inhalt extrahieren, den wir verwenden werden urllib:

 >>> from urllib import urlopen >>> webpage = urlopen ('http://www.python.org') >>> import re >>> text = webpage.read () >>> m = re.search ( 'Tutorial', Text, re.IGNORECASE) >>> m.group (1) 

Wir gehen Schritt für Schritt vor, zuerst aus der URL-Bibliothek, die wir importieren urlopen, dann erstellen wir eine Variable namens Website welches das Ergebnis von enthält urlopen Was machen wir mit der offiziellen Website von Python, damit importieren wir schon betreffend Um mit regulären Ausdrücken zu arbeiten, sagen wir, dass Text die Variable ist, die den Inhalt des Seitenlesens enthält, wir führen eine Suche mit einem regulären Ausdruck durch und gruppieren schließlich das Ergebnis, das Folgendes ausgeben sollte:

http://docs.python.org/

Das liegt an der Methode urlopenWas Sie tun, ist, dass wir mit der Webseite wie mit einem Dateiobjekt arbeiten können. Auf diese Weise können wir viele der Funktionen anwenden, die wir mit dieser Art von Objekten verwenden können, selbst wenn wir möchten, können wir die Seite herunterladen und bearbeiten Sie es von unserem lokalen auf sehr einfache Weise mit der Methode URL abrufen wie folgt:

 urlretrieve ('http://www.python.org', 'C: \ python_webpage.html')
Das einzige, was wir tun, ist als zweiten Parameter den Pfad in unserer lokalen Umgebung zu übergeben, in dem die Datei mit der Kopie der Seite ohne große Schwierigkeiten gespeichert werden soll.

Damit beenden wir dieses Tutorial, da wir sehen, dass komplexere Arbeiten wie die Verwendung von Seiten in unseren Programmen dank der Bibliotheken von . ziemlich einfach sind Python.

Hat dir dieses Tutorial gefallen und geholfen?Sie können den Autor belohnen, indem Sie diesen Knopf drücken, um ihm einen positiven Punkt zu geben
wave wave wave wave wave