Fichier de traduction française partie n°2

Aus YaCyWiki
Wechseln zu: Navigation, Suche

Instruction ici.

#File: IndexControl_p.html
#---------------------------
Index Control==Contrôle d'index
Index Administration==Administration d'index
The local index currently consists of \(at least\) \#\[wcount\]\# reverse word indexes and \#\[ucount\]\# URL references==Pour l'instant, l'index local consiste en #[wcount]# mots et #[ucount]# URLs.
"Show URL Entries for Word"=="Montrer les entrées URL pour les mots"
"Generate List"=="Créer une liste"
"Show URL Entries for Word-Hash"=="Montrer les entrées URL pour les Word-Hash"
"Transfer to other peer"=="Transférer à un autre pair" 
#URL:==URL:
"Show Details for URL"=="Montrer les détails pour l'URL"
#URL-Hash:==URL-Hash:
"Show Details for URL-Hash"=="Montrer les détails pour l'URL"
DHT Transmission control:==Contrôle de transmission DHT:
The transmission is necessary for the functionality of global search on other peers.==Le partage est nécessaire, pour que la recherche globale fonctionne avec les autres noeuds.
If you switch off distribution or receipt of RWIs you will be banned from global search.==Si vous désactivez la transmission ou la reception des RWIs, vous serez bannis de la recherche globale.
Index Distribution:==Partage d'index:
This enables automated, DHT-ruled Index Transmission to other peers.==Cela permet le partage automatique des index à base de DHT avec les autres noeuds.
If checked, DHT-Transmission is enabled even during crawling.==Si activé, le partage des DHT est autorisé pendant les crawls.
Index Receive:==Réception d'index:
Accept remote Index Transmissions. This works only if you are a senior peer.==Accepte la transmission d'index distant. Cela ne fonctionne que si vous êtes un noeud senior.
The DHT-rules do not work without this function.==Les règles DHT ne fonctionnent pas sans l'activation de cette fonction. 
If checked, your peer silently ignores transmitted URLs that match your blacklist==Si activé, votre noeud ignore silencieusement les URLs qui correspondent à votre blacklist.
#Noeud Tags:==Noeud Tags:
If your peer runs in \'Robinson Mode\' \(Distribution and Receive off\), you probably run YaCy as a search engine==Si votre noeud fonctionne en \'Robinson Mode'\ (émission et reception déactivées), alors vous l'utilisez peut-être comme moteur de recherche
for your own search portal. Please describe your search portal with some keywords \(comma-separated\).==Pour votre propre portail de recherche. Prière de décrire votre portail par quelques mots-clés (séparés par des virgules).
This will help to use your peer as search target even if you do not distribute your web index by==Cela aidera à utiliser votre noeud comme cible de recherche même si vous ne partagez pas votre index web  
DHT distribution.==par distribution de DHT.
"set"=="Enregistrer"
Changes will take effect immediately==Les changements prendrons effet immédiatement
#Let this translation here to avoid errors.
Word:</td>==Mot:</td>
Word-Hash:</td>==Mot-Hash:</td>
#-----------------------------

#File: IndexCreate_p.html
#---------------------------
Index Creation==Créer un index
Start Crawling Job:==Tâche de démarrage du crawl:
You can define URLs as start points for Web page crawling and start crawling here. \"Crawling\" means that YaCy will download the given website, extract all links in it and then download the content behind these links. This is repeated as long as specified under \"Crawling Depth\".==Vous pouvez  définir les URLs de départ et démarrer le crawl ici. Crawler signifie que YaCy téléchargera les sites de départ et extraira tous leurs liens ainsi que leur contenu. Cela sera répété jusqu'a ce que la "profondeur de crawl" soit atteinte.  
#Attribut==Attribut
Value==Valeur
Description==Descriprion
Crawling Depth:==Profondeur de crawl:
This defines how often the Crawler will follow links embedded in websites.==Cela définit combien de fois de suite le crawler suivra les liens des pages.
A minimum of 1 is recommended and means that the page you enter under \"Starting Point\" will be added to the index, but no linked content is indexed. 2-4 is good for normal indexing.==Un minimum de 1 est recommandé et signifie que la page de départ sera ajoutée à l'index, mais qu'aucun de ses liens ne sera indexé. 2-4 est une bonne valeur pour une indexation normale.
Be careful with the depth. Consider a branching factor of average 20;==Soyer prudent avec la profondeur, considérez un facteur d'embranchement de 20 en moyenne;
A prefetch-depth of 8 would index 25.600.000.000 pages, maybe this is the whole WWW.==Une profondeur de crawl de 8 indexera 25 milliards de pages, peut-être la totalité du web.
Crawling Filter:==Filtre de crawl:
This is an emacs-like regular expression that must match with the URLs which are used to be crawled.==C'est une expression régulière emacs qui doit correspondre avec les URLs parcourues par le crawleur.
Use this i.e. to crawl a single domain. If you set this filter it makes sense to increase==Utilisez la par exemple pour crawler un seul domaine. Si vous paramétrez ce filtre, cela a un sens 
the crawling depth.==d'augmenter la profondeur de crawl.
#Re-Crawl Option:==Re-Crawl Option:
Use:==Utilisation:
Interval:==intervalle:
Year\(s\)==Année(s)
Month\(s\)==Mois
Day\(s\)==Jour(s)
Hour\(s\)==Heure(s)
Minute\(s\)==Minute(s)
If you use this option, web pages that are already existent in your database are crawled and indexed again.==Si vous utilisez cette option, les qui sont déja indexées seront parcourues et indexées ujne nouvelle fois/
It depends on the age of the last crawl if this is done or not: if the last crawl is older than the given==Cela dépend de l'age du dernier crawl, si il  a été fait ou non: si le dernier crawl est plus ancien que la date actuelle 
date, the page is crawled again, otherwise it is treated as 'double' and not loaded or indexed again.==, la page est analysée une nouvelle fois, autrement elle est traitée comme un doublon et ne sera plus ni chargée ni indexée.
Auto-Dom-Filter:==Filtre Auto-Dom:
Depth:==Profondeur:
This option will automatically create a domain-filter which limits the crawl on domains the crawler==Cette option créera automatiqueùent un filtre de domaine qui limite le crawl au domaines que le crawler
will find on the given depth. You can use this option i.e. to crawl a page with bookmarks while==trouvera à la profondeur donnée. On peut par exemple utiliser cette option pour crawler une page avec des marques-pages 
restricting the crawl on only those domains that appear on the bookmark-page. The adequate depth==tout en limitant la recherche au domaines de cette page. La profondeur adequate
for this example would be 1.==pour cet exemple sera 1.
The default value 0 gives no restrictions.==La valeur par défaut 0 n'applique aucune limitations.
Maximum Pages per Domain:==Maximum de pages par domaine:
Page-Count:==Nombre de page:
You can limit the maxmimum number of pages that are fetched and indexed from a single domain with this option.==Par cette option, vous pouvez limiter le nombre maximal de pages par domaine qui seront recherchées et indexées.
You can combine this limitation with the 'Auto-Dom-Filter', so that the limit is applied to all the domains within==Vous pouvez combiner cette option avec le filtre auto-dom, ainsi la limite est appliquée à tous les domaines à une 
the given depth. Domains outside the given depth are then sorted-out anyway.==profondeur donnée. Les domaines au delà d'une certaine profondeur seront simplement exclus.
Accept URLs with '\?' / dynamic URLs:==Accepte les URLs avec '\?' / URLs dynamiques:
A questionmark is usually a hint for a dynamic page. URLs pointing to dynamic content should usually not be crawled. However, there are sometimes web pages with static content that==Un point d'intérogation est habituellement le signe d'un page dynamique. Les URLs pointant un contenu dynamique ne doivent habituellement pas être explorés. Comme toujours, il existe parfois des pages statiques qui
is accessed with URLs containing question marks. If you are unsure, do not check this to avoid crawl loops.==qui sont accédées par des URLs contenant des points d'interogation. Si vous avez un doute, n'activez pas cette fonction pour éviter les cral qui bouclent.
Store to Proxy Cache:==Stocké dans le proxy-cache:
This option is used by default for proxy prefetch, but is not needed for explicit crawling.==Cette option est utilisée par défaut par le proxy, mais n'est pas nécessaire pour un crawl pur.
We recommend to leave this switched off unless you want to control the crawl results with the==Nous recommandons de la laisser désactivée a moins que souhaitiez controler les resultats du crawl avec
Cache Monitor==le moniteur de cache.
Do Local Indexing:==Indexation locale:
index text:==Index texte:
index media:==Index Media:
This enables indexing of the wepages the crawler will download. This should be switched on by default, unless you want to crawl only to fill the==Cela active l'activation des pages web que le crawler téléchargera. Cela doit être activé par défaut, a moins que vous vouliez seulement crawler pour remplir
Proxy Cache</a> without indexing.==le proxy-cache</a> sans indexer.
Do Remote Indexing:==Indexation distante:
Describe your intention to start this global crawl \(optional\):==Décrivez pourquoi vous avez lancé ce crawlglobal (optionel):
This message will appear in the 'Other Noeud Crawl Start' table of other peers.==Ce message apparaitra dans la table 'Autre noeud crawl start' des autres noeuds.
If checked, the crawler will contact other peers and use them as remote indexers for your crawl.==Si activé, le crawler contactera les autres noeuds et les utilisera comme indexeurs distants pour votre crawl.
If you need your crawling results locally, you should switch this off.==Si vous avez besoin de vos résultats de crawl localement, vous devez désactiver cette fonction.
Only senior and principal peers can initiate or receive remote crawls.==Seuls les noeuds senior et principal peuvent emettre ou recevoir des crawls distants.
<strong>A YaCyNews message will be created to inform all peers about a global crawl</strong>, so they can omit starting a crawl with the same start point.==
<strong>Un message sera envoyé à YaCyNews, pour informer les autres noeuds de ces crawls globaux</strong>, ainsi ils peuvent éviter de lancer un crawl avec le même point de départ.
Exclude <em>static</em> Stop-Words==Exclure les mots-stops <em>statiques</em>
This can be useful to circumvent that extremely common words are added to the database, i.e. \"the\", \"he\", \"she\", \"it\"... To exclude all words given in the file <tt>yacy.stopwords</tt> from indexing,==Cela peut être utile, pour éviter que les mots très communs soient ajoutés à la base de données, par exemple "le", "la", "les", "et", "il", "elle", ... Pour exclure tous les mots donnés dans le fichier <tt>yacy.stopwords</tt> de l'indexation,
check this box.==activez cette coche.
Starting Point:==Point de départ:
From File:==Du fichier:
From URL:==De l'URL:
Existing start URLs are re-crawled.==Le URLs de départ existantes seront recrawlées. 
Other already visited URLs are sorted out as \"double\".==Les autres URLs déjà visitées seront classées en doublons.
A complete re-crawl will be available soon.==Un recrawl complet sera bientôt disponible.
"Start New Crawl"=="Démarrer un nouvaux crawl"
Distributed Indexing:==Indexation distribuée:
Crawling and indexing can be done by remote peers.==Crawl et indexation peuvent être executés par les autres noeuds.
Your peer can search and index for other peers and they can search for you.==Votre noeud peut chercher et indexer pour d'autres noeuds et ceux-ci peuvent le faire pour vous.
Accept remote crawling requests and perform crawl at maximum load==Accepter les demandes de crawl distants et les exécuter au niveau de charge maximal
Accept remote crawling requests and perform crawl at maximum of==Accepter les demandes de crawl distants et les exécuter jusqu'a un maximum de
Pages Per Minute \(minimum is 1, low system load usually at PPM ≥ 30\)==pages par minute (le minimum est 1, un système lent charge habituellement moins de 30 pages par minute)
Do not accept remote crawling requests \(please set this only if you cannot accept to crawl only one page per minute; see option above\)==Ne pas accepter les demande de crawls distants (n'activez cela que si vous ne pas accepter de crawler seulement une page par minute; voir ci-dessus)
"set"=="Enregistrer"
Error:==Erreur:
Application not yet initialized. Sorry. Please wait some seconds and repeat the request.==L'application n'est pas encore initialisée. Désolé. Attendez quelques secondes et répétez votre requète.
Crawling of "\#\[crawlingURL\]\#" failed. Reason:==Crawl de "#[crawlingURL]#" failed. Raison:
Error with file input==Erreur de fichier en entrée
Set new prefetch depth to==Paramètrer une nouvelle profondeur de crawl de
Crawling of "\#\[crawlingURL\]\#" started.==Crawl de "#[crawlingURL]#" démarré.
You can monitor the crawling progress either by watching the URL queues==Vous pouvez surveiller l'avancement du crawl soit en regardant les URLs suivantes
local queue</a>==queue locale</a>
global queue</a>==queue globale</a>
loader queue</a>==queue du chargeur</a>
indexing queue</a>==queue d'indexation</a>
or see the fill/process count of all queues on the==soit en regardant le remplissage des files d'attente sur la
>performance page</a>.==>page de performance</a>.
Please wait some seconds, because the request is enqueued and delayed until the proxy/HTTP-server is idle for a certain time.==Attentez quelques secondes, la requête est en attente et retardée  jusqu'à ce que le proxy/serveur-http devienne inoccupé un instant.
The indexing results are presented on the==Les résultats d'indexation sont présentés sur la
Index Monitor</a>-page.==page de surveillance d'index</a>.
It will take at least 30 seconds until the first result appears there. Please be patient, the crawling will pause each time you use the proxy or web server to ensure maximum availability.==Il se passera au moins 30 secondes avant que le premier résultat n'apparaisse ici. Soyez patient, le crawl se suspend chaque fois que vous utilisez le proxy ou le server web pour assurer une disponibilité maximal. 
If you crawl any un-wanted pages, you can delete them==Si vous crawler des pages non souhaitées, vous pouvez les supprimer
here</a>.==ici</a>.
Removed \#\[numEntries\]\# entries from crawl queue. This queue may fill again if the loading and indexing queue is not empty==#[numEntries]# entrées supprimées du file d'attente de crawl. Cette file sera réalimentée si le file de chargement et d'indexation n'est pas vide.
Crawling paused successfully.==Le crawl suspendu avec succés (pause).
Continue crawling.==Poursuivre le crawl.
"refresh"=="actualiser"
"continue crawling"=="Le crawl se poursuit"
"pause crawling"=="suspendre le crawl"
Crawl Profile List:==Liste de profils de crawl:
Crawl Thread==Type de crawl
Start URL==Start URL
Depth</strong>==Profondeur</strong>
Filter</strong>==Filtre</strong>
MaxAge</strong>==Age Maxi.</strong>
Auto Filter Depth</strong>==Profondeur de filtrage auto</strong>
Auto Filter Content</strong>==Contenu de filtrage auto</strong>
Max Page Per Domain</strong>==Max. de pages par domain</strong>
Accept \'?\' URLs</strong>==Accepter les URL avec "?"</strong>
Fill Proxy Cache==Remplir le proxy cache
Local Indexing</strong>==Indexation locale</strong>
Remote Indexing</strong>==Indexation distante</strong>
Recently started remote crawls in progress:==Avancement des crawls distants récemment démarrés:
Start Time==Temps de démarrage
Noeud Name==Nom du noeud
Start URL==URL de départ
Intention/Description==Intention/Description
Recently started remote crawls, finished:==Crawls distants récemments démarrés, terminés:
Remote Crawling Noeuds:==Noeuds de crawl distants:
No remote crawl peers availible.==Aucun noeud accessible aux crawls distants.
peers available for remote crawling.==Noeuds accessible aux crawls distants.
Idle Noeuds==Noeuds oisifs
Busy Noeuds==Noeuds occupés
\#\(withQuery\)\#no::yes\#\(/withQuery\)\#==#(withQuery)#non::oui#(/withQuery)#
\#\(storeCache\)\#no::yes\#\(/storeCache\)\#==#(storeCache)#non::oui#(/storeCache)#
\#\(localIndexing\)\#no::yes\#\(/localIndexing\)\#==#(localIndexing)#non::oui#(/localIndexing)#
\#\(remoteIndexing\)\#no::yes\#\(/remoteIndexing\)\#==#(remoteIndexing)#non::oui#(/remoteIndexing)#
\#\(crawlingQ\)\#no::yes\#\(/crawlingQ\)\#==#(crawlingQ)#non::oui#(/crawlingQ)#
\#\{available\}\#\#\[name\]\# \(\#\[due\]\# seconds due\)   \#\{/available\}\#==#{available}##[name]# (#[due]# secondes)   #{/available}#
\#\{busy\}\#\#\[name\]\# \(\#\[due\]\# seconds due\)  \#\{/busy\}\#==#{busy}##[name]# (#[due]# secondes)  #{/busy}#
#-----------------------------

#File: IndexCreateIndexingQueue_p.html
#---------------------------
Index Creation/Indexing Queue==Création d'index/File d'indexation
Index Creation: Indexing Queue==Création d'index: File d'indexation
The indexing queue is empty==La file d'indexatoin est vide.
"clear indexing queue"=="Effacer la file d'indexation"
There are <strong>\#\[num\]\#</strong> entries in the indexing queue. Showing <strong>\#\[show\]\#</strong> entries with a total size of <strong>\#\[totalSize\]\#</strong>.==Il y a <strong>#[num]#</strong> entrées dans la file d'indexation. <strong>#[show]#</strong> entrées d'une taille totale de <strong>#[totalSize]#</strong>.
Show last==Montrer la dernière.
</a> entries.==</a> entrée.
Initiator==Initiateur
Depth==Profondeur
Modified Date==Date de modfication
Anchor Name==Nom de l'ancre
#URL==URL
Size</th>==Taille</th>
Delete==Supprimer
Rejected URL List:</strong> There are \#\[num\]\# entries in the rejected-urls list.==Liste des URLs rejetées:</strong> Il y a #[num]# entrées dans la liste des URLs rejetées. 
Showing latest \#\[num\]\# entries.==Voir les #[num]# dernières entrées.
"show more"=="En voir plus"
"clear list"=="Effacer la liste"
There are \#\[num\]\# entries in the rejected-queue:==Il y a #[num]# entrées dans la file des URLs rejetées:
Executor==Exécuteur
Fail-Reason==Raison de l'échec
#-----------------------------

#File: IndexCreateLoaderQueue_p.html
#---------------------------
Index Creation / Loader Queue==Création d'index / file de chargement
Index Creation: Loader Queue==Création d'index: file de chargelent
The loader set is empty==La file de chargement est vide.
There are \#\[num\]\# entries in the loader set:==Il y a #[num]# entrées dans la file de chargement:
Initiator==Initiateur
Depth==Profondeur
#URL==URL
#-----------------------------

#File: IndexCreateWWWGlobalQueue_p.html
#---------------------------
Index Creation: WWW Global Crawl Queue==Création d'index: file de crawl WWW globale
This queue stores the urls that shall be sent to other peers to perform a remote crawl.==Cette file stocke les URLs qui doivent être envoyées aux autre noeuds pour être crawlées à distance.
If there is no peer for remote crawling available, the links are crawled locally.==Si aucun noeud distant n'est disponible pour crawler le lien, alors il est crawlé localement.
The global crawler queue is empty==La file de crawl globale est vide.
"clear global crawl queue"=="Effacer la file de crawl globale"
There are <strong>\#\[num\]\#</strong> entries in the global crawler queue. Showing <strong>\#\[show-num\]\#</strong> most recent entries.==Il y a <strong>#[num]#</strong> entrées dans la file de crawl globale. Voir les <strong>#[show-num]#</strong> nouvelles entrées. 
Show last==Voir les dernières
</a> entries.==</a> entrées.
Initiator==Initiateur
Profile==Profil
Depth==Profondeur
Modified Date==Date de modification
Anchor Name==Nom d'ancre
#URL==URL
#-----------------------------

#File: IndexCreateWWWLocalQueue_p.html
#---------------------------
YaCy '\#\[clientname\]\#': Index Creation / WWW Local Crawl Queue==YaCy '#[clientname]#': Création d'index / file de crawl WWW local
Index Creation: WWW Local Crawl Queue==Création d'index: file de crawl WWW local
This queue stores the urls that shall be crawled localy by this peer.==Cette file stocke les URLs qui seront crawlées localement par ce noeud.
It may also contain urls that are computed by the proxy-prefetch.==Elle stocke aussi les URLs qui sont traitées par le proxy.
The local crawler queue is empty==La file de crawl local est vide.
There are <strong>\#\[num\]\#</strong> entries in the local crawler queue. Showing <strong>\#\[show-num\]\#</strong> most recent entries.==Il y a <strong>#[num]#</strong> entrées dans la file de crawl local. Voir les <strong>#[show-num]#</strong> nouvelles entrées.
Show last==Voir les dernières
</a> entries.==</a> Entrées.
Initiator==Initiateur
Profile==Profil
Depth==Profondeur
Modified Date==Date de modification
Anchor Name==Nom d'ancre
URL==URL
\[Delete\]==[Supprimer]
Delete Entries:==Entrées supprimées:
"Delete"=="Supprimer"
This may take a quite long time.==Cela peut prendre un peu de temps.
#-----------------------------

#File: IndexImport_p.html
#---------------------------
YaCy \'\#\[clientname\]\#\': Index Import==YaCy '#[clientname]#': Importation d'index
Index DB Import==Importation base d'index
The local index currently consists of \(at least\) \#\[wcount\]\# reverse word indexes and \#\[ucount\]\# URL references.==L'index local est constitués (au moins) de #[wcount]# index de mots inversés et de #[ucount]# URLs.
Import Job with the same path already started.==Une importation avec le même chemin est déjà lancée.
Starting new Job==Démarrer une nouvelle importation
Import Type:==Type d'importation:
Cache Size==Taille du cache
Usage Examples==Exemples d'utilisation
"Path to the PLASMADB directory of the foreign peer"=="Chemin du dossier PLASMADB du Verzeichnis des fremden Noeud"
Import Path:==Import-Pfad:
"Start Import"=="Demarrer l'importation"
Attention:==Attention:
Always do a backup of your source and destination database before starting to use this import function.==Toujours faire une sauvegarde de vos bases source et destination avant de lancer cette fonction d'importation.
Currently running jobs==Tâches actuellement en cours
Job Type==Type de tâche
>Path==>Chemin
Status==Etat
Elapsed<br />Time==Temps<br />écoulé
Time<br />Left==Temps<br />restant
Abort Import==Importation intérompue
Pause Import==Importation suspendue
Finished::Running::Paused==Terminé::En cours::Suspendu
"Abort"=="Intérompre"
#"Pause"=="Pause"
"Continue"=="Reprendre"
Finished jobs==Importations terminées
"Clear List"=="Effacer la liste"
Last Refresh:==Dernière actualisation:
Example Path:==Exemple de chemin:
Requirements:==Prérequis:
You need to have at least the following directories and files in this path:==Vous devez avoir au moins les dossiers et fichiers suivants dans ce chemin:
>Type==>Type
>Writeable==>Inscriptible
>Description==>Decription
>File==>Fichier
>Directory==>Dossier
>Yes<==>Oui<
>No<==>Non<
The LoadedURL Database containing all loaded and indexed URLs==La base de données des URLs chargés contient toutes les URLs chargées et indexées.
The assortment directory containing parts of the word index.==Le dossier assortiment contient des parties de l'index de mots.
The words directory containing parts of the word index.==Le dossier mots contient des parties de l'index de mots. 
The assortment file that should be imported.==Le fichier des assortiment qui doit être importé.
The assortment file must have the postfix==Le dossier assortiment doit avoir le suffixe
.db".==.db"
If you would like to import an assortment file from the <tt>PLASMADB\\ACLUSTER\\ABKP</tt>==Si vous voulez importer un fichier d'assortiment depuis <tt>PLASMADB\\ACLUSTER\\ABKP</tt>
you have to rename it first.==vous devez d'abord le renommer .
>Notes:==>Remarques:
Please note that the imported words are useless if the destination peer doesn't know==Notez que les mots importés sont inutiles si le noeud destination ne connait pas
the URLs the imported words belongs to.==à quelles URLs ils appartiennent.
Crawling Queue Import:==Importation de file de crawl:
Contains data about the crawljob an URL belongs to==Contient des données à propos des crawls auxquels une URL appartient
The crawling queue==La file de crawl
Various stack files that belong to the crawling queue==Divers fichiers de pile qui appartiennent à la file de crawl
#-----------------------------

#File: IndexMonitor.html
#---------------------------
#YaCy '#[clientname]#': Index Monitor
Index Monitor Menu==Menu moniteur d'index;
Index Monitor Overview==Aperçu moniteur d'index
Receipts</a>==Réception</a>
Queries</a>==Requête</a>
DHT Transfer==partage de DHT
Proxy Use==Utilisaton du Proxy
Local Crawling==Crawl local
Global Crawling==Crawl global
Indexing Queues Monitor Overview==Aperçu du moniteur des files d'indexation
These are monitoring pages for the different indexing queues.==Ce sont les pages de monitoring des différentes files d'indexation.
YaCy knows 5 different ways to acquire web indexes. The details of these processes \(1-5\) are described within the submenu's listed==YaCy connait cinq différentes manières pour acquérir des index web. Les détails de ces processus (1-5) sont déscrits dans le sous-menu
above which also will show you a table with indexing results so far. The information in these tables is considered as private,==ci-dessus qui vous montreront aussi une table des résultats d'indxation. Les informations de ces tables sont considérées comme privées,
so you need to log-in with your administration password.==vous devez donc vous authentifier avec votre mot de passe.
Case \(6\) is a monitor of the local receipt-generator, the opposed case of \(1\). It contains also an indexing result monitor but is not considered private==Le cas (6) est un moniteur du générateur des réceptions locales, le cas opposé du (1). Il contient aussi un moniteur des résultats d'indexation mais n'est pas considéré comme privé  
since it shows crawl requests from other peers.==puisqu'il montre les requêtes de crawl des autres noeuds.
The image above illustrates the data flow initiated by web index acquisition.==L'image ci-dessus illustre le flux de données initié par l'acquisition des index web.
Some processes occur double to document the complex index migration structure.==Certains processus apparaissent en double, pour expliquer la complexité de la structure des index partagés.
\(1\) Index Monitor of Remote Crawl Receipts==(1) Moniteur d'index pour les retours de crawl distants
This is the list of web pages that this peer initiated to crawl,==C'est une liste de pages internet dont le crawl a été initié par votre noeud,
but had been crawled by <em>other</em> peers.==mais a été crawlé par d'<em>autre</em> noeuds.
This is the 'mirror'-case of process \(6\).==C'est le processus opposé du (6)
<em>Use Case:</em> You get entries here, if you start a local crawl on the 'Index Creation'-Page and check the==<em>Cas d'utilisation:</em> Vous obtenez des entrées ici, si vous démarrez un crawl local sur la page 'Création d'index' et activez  
'Do Remote Indexing'-flag. Every page that a remote peer indexes upon this peer's request==
l'indexation à distance. Chaque page, qui sera indexée par un noeud distant à votre demande,  
is reported back and can be monitored here.==sera rapportée et peut être monitorée ici.
\(2\) Index Monitor for Result of Search Queries==(2) Moniteur d'index des résultats de requêtes de recherche.
This index transfer was initiated by your peer by doing a search query.==Ce transfert d'index a été initié par votre noeud en lançant une  requête de recherche.
The index was crawled and contributed by other peers.==Cet index a été crawlé par d'autres noeud qui y ont contribué.
<em>Use Case:</em> This list fills up if you do a search query on the 'Search Page'==<em>Cas d'utilisation:</em> Cette liste se remplit si vous lancez une requête sur la 'page de recherche'
\(3\) Index Monitor for Index Transfer.==(3) Moniteur d'index pour le partage de DHT.
The url fetch was initiated and executed by other peers.==L'indexation d'URL a été initiée et effectuée par d'autres noeuds.
These links here have been transmitted to you because your peer is the most appropriate for storage according to==Ces liens vous ont été transmis car votre noeud est le plus approprié pour le stockage selon  
the logic of the Global Distributed Hash Table.==la logique de la table de hachage distribuée globale
<em>Use Case:</em> This list may fill if you check the 'Index Receive'-flag on the 'Index Control' page==<em>Cas d'utilisation:</em> Cette liste se remplira si l'option 'Reception d'index' de la page 'Contrôle d'index'
\(4\) Index Monitor for Proxy Indexing==(4) Moniteur d'index pour le proxy d'indexation
These web pages had been indexed as result of your proxy usage.==Ces pages web ont été indexées lors de l'utilisation de votre proxy d'indexation.
No personal or protected page is indexed==Aucune page personelle ou protégée n'est indexée
such pages are detected by Cookie-Use or POST-Parameters \(either in URL or as HTTP protocol\)==De telles pages sont détectées par l'usage des cookies ou des paramètres POST (dans l'URL ou le protocole HTTP)
and automatically excluded from indexing.==et exclus automatiquement de l'indexation.
<em>Use Case:</em> You must use YaCy as proxy to fill up this table.==<em>Cas d'utilisation:</em> Vous devez utiliser YaCy comme proxy pour remplir cette table.
Set the proxy settings of your browser to the same port as given==Configurez les paramètres de proxy de votre brower avec le même port que celui
on the 'Settings'-page in the 'Proxy and Administration Port' field.==du champ 'Port de proxy et d'administration' de la page de 'Configuration'. 
\(5\) Index Monitor for Local Crawling.==(5) Moniteur d'index pour le crawl local
These web pages had been crawled by your own crawl task.==Cette page web a été crawlée par votre propre tâche de crawl. 
<em>Use Case:</em> start a crawl by setting a crawl start point on the 'Index Create' page.==<em>Cas d'utilisation:</em> Lancer un crawl en paramètrant un point de départ sur la page 'Création d'index'.
\(6\) Index Monitor for Global Crawling==(6) Moniteur d'index pour le crawl global
These pages had been indexed by your peer, but the crawl was initiated by a remote peer.==Ces pages ont été indexées par votre noeud, mais le crawl était initié par un noeud distant.
This is the 'mirror'-case of process \(1\).==C'est le processus opposé du cas (1).
<em>Use Case:</em> This list may fill if you check the 'Accept remote crawling requests'-flag on the 'Index Crate' page==<em>Cas d'application:</em> Cette liste se remplira si vous cochez l'option 'Accepter les requêtes de crawl distantes' sur la page 'créarion d'index'
The stack is empty.==La liste est vide.
Showing all \#\[all\]\# entries in this stack.==Voir les #[all]# entrées de cette pile.
Showing latest \#\[count\]\# lines from a stack of \#\[all\]\# entries.==Voir les #[count]# dernières lignes d'une pile de #[all]# entrées.
"clear list"=="Vider la liste"
Initiator==Initiateur
Executor==Executeur
Modified Date==Date de modification
Words==Mots
Title==Titre
#URL==URL
"delete"=="Supprimer"
#-----------------------------