8000 Complete library/urllib.robotparser.po · python/python-docs-fr@9335d59 · GitHub
[go: up one dir, main page]

Skip to content

Commit 9335d59

Browse files
entwanneJulienPalard
authored andcommitted
Complete library/urllib.robotparser.po
1 parent b2b9757 commit 9335d59

File tree

1 file changed

+35
-7
lines changed

library/urllib.robotparser.po

Lines changed: 35 additions & 7 deletions
Original file line numberDiff line numberDiff line change
@@ -3,27 +3,27 @@
33
# This file is distributed under the same license as the Python package.
44
# FIRST AUTHOR <EMAIL@ADDRESS>, YEAR.
55
#
6-
#, fuzzy
76
msgid ""
87
msgstr ""
98
"Project-Id-Version: Python 3.6\n"
109
"Report-Msgid-Bugs-To: \n"
1110
"POT-Creation-Date: 2017-04-02 22:11+0200\n"
12-
"PO-Revision-Date: YEAR-MO-DA HO:MI+ZONE\n"
13-
"Last-Translator: FULL NAME <EMAIL@ADDRESS>\n"
11+
"PO-Revision-Date: 2017-10-19 17:28+0100\n"
12+
"Last-Translator: \n"
1413
"Language-Team: LANGUAGE <LL@li.org>\n"
1514
"Language: fr\n"
1615
"MIME-Version: 1.0\n"
1716
"Content-Type: text/plain; charset=UTF-8\n"
1817
"Content-Transfer-Encoding: 8bit\n"
18+
"X-Generator: Poedit 1.6.10\n"
1919

2020
#: ../Doc/library/urllib.robotparser.rst:2
2121
msgid ":mod:`urllib.robotparser` --- Parser for robots.txt"
22-
msgstr ""
22+
msgstr ":mod:`urllib.robotparser` --- Analyseur de fichiers *robots.txt*"
2323

2424
#: ../Doc/library/urllib.robotparser.rst:10
2525
msgid "**Source code:** :source:`Lib/urllib/robotparser.py`"
26-
msgstr ""
26+
msgstr "**Code source :** :source:`Lib/urllib/robotparser.py`"
2727

2828
#: ../Doc/library/urllib.robotparser.rst:20
2929
msgid ""
@@ -33,42 +33,59 @@ msgid ""
3333
"on the structure of :file:`robots.txt` files, see http://www.robotstxt.org/"
3434
"orig.html."
3535
msgstr ""
36+
"Ce module fournit une simple classe, :class:`RobotFileParser`, qui permet de "
37+
"savoir si un *user-agent* particulier peut accéder à une URL du site web qui "
38+
"a publié ce fichier :file:`robots.txt`. Pour plus de détails sur la "
39+
"structure des fichiers :file:`robots.txt`, voir http://www.robotstxt.org/"
40+
"orig.html."
3641

3742
#: ../Doc/library/urllib.robotparser.rst:28
3843
msgid ""
3944
"This class provides methods to read, parse and answer questions about the :"
4045
"file:`robots.txt` file at *url*."
4146
msgstr ""
47+
"Cette classe fournit des méthodes pour lire, analyser et répondre aux "
48+
"questions à propos du fichier :file:`robots.txt` disponible à l'adresse "
49+
"*url*."
4250

4351
#: ../Doc/library/urllib.robotparser.rst:33
4452
msgid "Sets the URL referring to a :file:`robots.txt` file."
45-
msgstr ""
53+
msgstr "Modifie l'URL référençant le fichier :file:`robots.txt`."
4654

4755
#: ../Doc/library/urllib.robotparser.rst:37
4856
msgid "Reads the :file:`robots.txt` URL and feeds it to the parser."
4957
msgstr ""
58+
"Lit le fichier :file:`robots.txt` depuis son URL et envoie le contenu à "
59+
"l'analyseur."
5060

5161
#: ../Doc/library/urllib.robotparser.rst:41
5262
msgid "Parses the lines argument."
53-
msgstr ""
63+
msgstr "Analyse les lignes données en argument."
5464

5565
#: ../Doc/library/urllib.robotparser.rst:45
5666
msgid ""
5767
"Returns ``True`` if the *useragent* is allowed to fetch the *url* according "
5868
"to the rules contained in the parsed :file:`robots.txt` file."
5969
msgstr ""
70+
"Renvoie ``True`` si *useragent* est autorisé à accéder à *url* selon les "
71+
"règles contenues dans le fichier :file:`robots.txt` analysé."
6072

6173
#: ../Doc/library/urllib.robotparser.rst:51
6274
msgid ""
6375
"Returns the time the ``robots.txt`` file was last fetched. This is useful "
6476
"for long-running web spiders that need to check for new ``robots.txt`` files "
6577
"periodically."
6678
msgstr ""
79+
"Renvoie le temps auquel le fichier ``robots.txt`` a été téléchargé pour la "
80+
"dernière fois. Cela est utile pour des *web spiders* de longue durée qui "
81+
"doivent vérifier périodiquement si le fichier est mis à jour."
6782

6883
#: ../Doc/library/urllib.robotparser.rst:57
6984
msgid ""
7085
"Sets the time the ``robots.txt`` file was last fetched to the current time."
7186
msgstr ""
87+
"Indique que le fichier ``robots.txt`` a été téléchargé pour la dernière fois "
88+
"au temps courant."
7289

7390
#: ../Doc/library/urllib.robotparser.rst:62
7491
msgid ""
@@ -77,6 +94,10 @@ msgid ""
7794
"apply to the *useragent* specified or the ``robots.txt`` entry for this "
7895
"parameter has invalid syntax, return ``None``."
7996
msgstr ""
97+
"Renvoie la valeur du paramètre ``Crawl-delay`` du ``robots.txt`` pour le "
98+
"*useragent* en question. S'il n'y a pas de tel paramètre ou qu'il ne "
99+
"s'applique pas au *useragent* spécifié ou si l'entrée du ``robots.txt`` pour "
100+
"ce paramètre a une syntaxe invalide, renvoie ``None``."
80101

81102
#: ../Doc/library/urllib.robotparser.rst:71
82103
msgid ""
@@ -86,9 +107,16 @@ msgid ""
86107
"specified or the ``robots.txt`` entry for this parameter has invalid syntax, "
87108
"return ``None``."
88109
msgstr ""
110+
"Renvoie le contenu du paramètre ``Request-rate`` du ``robots.txt`` sous la "
111+
"forme d'un :func:`~collections.namedtuple` ``(requests, seconds)``. S'il "
112+
"n'y a pas de tel paramètre ou qu'il ne s'applique pas au *useragent* "
113+
"spécifié ou si l'entrée du ``robots.txt`` pour ce paramètre a une syntaxe "
114+
"invalide, renvoie ``None``."
89115

90116
#: ../Doc/library/urllib.robotparser.rst:80
91117
msgid ""
92118
"The following example demonstrates basic use of the :class:`RobotFileParser` "
93119
"class::"
94120
msgstr ""
121+
"L'exemple suivant présente une utilisation basique de la classe :class:"
122+
"`RobotFileParser` : ::"

0 commit comments

Comments
 (0)
0