Vikidia:Demandes aux robots

Aller à : navigation, rechercher
Achille rouge.png

Certaines choses peuvent être utiles, mais pénibles et longues à faire. On peut alors parfois demander de l'aide aux robots ! Cette page permet de faire des demandes aux utilisateurs qui disposent de robots sur Vikidia.

Article à lire Article à lire : Vikidia:Robot
Comment faire une demande ?

Appuyer sur le bouton Requête :

Que peut-on demander aux robots ?[modifier | modifier le wikitexte]

  • Wikifier (s'est fait fréquement quand un robot était disponible pour cela)
  • ...
À compléter Cette section est vide, pas assez détaillée ou incomplète. N'hésite pas à l'améliorer  !


Achives/anciennes pages de demande 

Vikidia:Achille/demandes, Vikidia:Achille/demandes robot/001, Vikidia:Vikidia:Demandes aux robots/2011


Repérer les images de Commons non catégorisées sur Vikidia[modifier | modifier le wikitexte]

Voilà, ça fait un certain temps qu'on ne demande rien aux robots, et la situation n'est peut-être pas parfaitement claire pour ce qui est de différencier les robots Achille d'autres robots. J'ai donc une demande, dont je ne sais pas si elle est possible ou accessible :

On s’efforce de catégoriser dans la banque d'image l'ensemble des images utilisées par les articles, c'est à dire qu'on les crée à un certain niveau dans la base de Vikidia tandis qu'elles étaient utilisées en inclusion directement depuis Commons (techniquement, je suppose que ça n'empêche pas qu'il y ai quelque-chose comme un cache de l'image du côté du serveurs de Vikidia...)

Mais la question n'est pas de déterminer le fonctionnement de Mediawiki, mais de permettre de repérer les images de Commons non catégorisées sur Vikidia, certainement par l'ajout d'une Catégorie:Image Commons non catégorisée, permettant d'aller y piocher pour faire de la catégorisation d'image le jour où on a le loisir de le faire. C'est faisable ? Astirmays (d · c · b) 27 avril 2012 à 22:59 (CEST)

Je ne sais pas si c'est faisable, mais en tous cas ce serait très utile ; à défaut d'organiser les images dans la base de donnée (cela doit rester le travail d'un humain, afin de garantir une certaine pertinence), cela donne une existence à ces fichiers sur VD, qui peuvent du coup être utilisés sur certains modèles, comme {{ImageDuJour}}, par exemple...
Eh oui, {{ImageDuJour}} ne permet pas d'utiliser des images non présentes dans la base, par exemple, {{ImageDuJour|Brooklyn Museum 35.679 Elephant Tusk Carved with Figures in Relief (2).jpg}} donne :
Brooklyn Museum 35.679 Elephant Tusk Carved with Figures in Relief (2).jpg


Pourtant, si l'on va sur Fichier:Brooklyn Museum 35.679 Elephant Tusk Carved with Figures in Relief (2).jpg, on tombe sur l'image, ou, plutôt, le lien InstantCommons vers l'image sur Commons... Il est bon parfois de se rappeler qu'InstantCommons ne fait pas tout... -Fraf (discussion) 20 mai 2013 à 12:22 (CEST)
Bonjour. Cette catégorisation serait la bienvenue. Mais on pourrait peut être aussi demander au contributeur qui inclut dans un article une image tirée de Commons, de faire un léger effort pour créer cette image dans la banque de données (afin qu'elle puisse servir à d'autres usages). C'est un effort minime à faire depuis l'onglet créer apparaissant quand on clique sur l'image incluse dans l'article. Ajouter au moins une catégorie n'est pas le bout du monde.--Alexandrin pour discuter avec moi 20 mai 2013 à 13:55 (CEST)

Liens interwikis (ou interlangues)[modifier | modifier le wikitexte]

Les articles de Vikidia en Français peuvent avoir des liens interwiki (aussi appelés interlangues) vers principalement 4 wikis : Wikipédia en français ; Simple English Wikipedia ; WikiKids.nl et Vikidia en espagnol. Il y a aussi Grundschulwiki.

De plus, WikiKids.nl et Vikidia en espagnol peuvent faire la réciproque (le faire dans l'autre sens : des liens sur leurs articles vers Vikidia en français et vers Wikipédia en Simple English Wikipedia)

Article à lire Article à lire : Aide:Liens interwiki

Les codes interwikis nécessaires sur chaque article sont en partie apposés, mais pas du tout systématiquement, et souvent uniquement celui vers Wikipédia en français.


La demande, c'est d'ajouter tout ces liens interwiki (ou interlangues) vers wp: ; simple: ; nl:; es: et de: quand il y a lieu.

Mais aussi :

  • sur WikiKids.nl, faire de même vers fr, en et es ;
  • sur es.vikidia.org vers wp, fr, en et nl.

Le schéma/algorithme (a priori et en gros), ce serait pour chaque article de Vikidia en français :

  • rechercher l'article homonyme sur Wikipédia (être éventuellement redirigé vers un intitulé différent),
  • pour simple.wp l'interwiki sur l'article Wikipédia est juste à reprendre - si ces articles existent,
  • rechercher les intitulés des interwikis sur cet article Wikipédia dans les langues qui nous concernent (nl, es et de),
  • vérifier l'existence d'articles à ces intitulés sur Wikikids es.vikidia, et Grundschulwiki (éventuellement être redirigé),
  • apposer le ou les interwikis sur l'article Vikidia.

Et combiner ou faire pareil sur es.vikidia et Wikikids.nl

Concernant l'acceptation de l'initiative et l'obtention des bot flags :

  • sur fr.vikidia, les interwikis sont là depuis longtemps et font consensus,
  • sur es.vikidia, il n'y a pas de communauté consistante pour une approbation, il s'agira de faire un message d'annonce,
  • sur Wikikids.nl, le principe a été accepté il y a un moment, il faudra retrouver les échanges et redemander le flag pour un nouveau bot avant de lancer le tout Les interwikis sont activés vers en, fr, es, et de (voir nl:Hond, sous la fenêtre de recherche).

À ce stade on ne demande pas de réciprocité à Simple English Wikipedia et Grundschulwiki.

L'opération peut être uniquement sur fr.vikidia dans un premier temps, ou bien la totale directement (fr, es et nl)

Voilà, des volontaires ? Je suis cool Astirmays (d · c · b) 19 mai 2013 à 19:43 (CEST)

Je viens de me pencher sur le script et voici mes premières observations. Pour ce qui est de la récupération des pages sur les wiki distants, aucune difficulté, ça fonctionne. En revanche, pour récupérer la liste des interwikis sur le wiki local, on se heurte à un problème. En effet, la fonction (incluse dans le framework) retournant la liste des liens interwiki ne reconnait comme interwiki que les liens situés sur d'autres vikidia (donc sur le même domaine que le wiki local) et ne reconnait pas les liens vers simple.wiki ou fr.wiki comme tels. Pour avoir un exemple concret: L'article France par exemple n'a comme lien interwiki reconnu que celui vers es.vikidia (vu que c'est une vikidia), tous les autres sont reconnus (du point de vue du script) comme des liens internes. Donc tant que je ne trouve pas de solution viable (autre que de parser tous les liens internes de chaque page pour déterminer si oui ou non c'est un lien interwiki) je ne bosserai que sur une version du script gérant les liens vers les autres vikidia (donc es, it, ru). J'espère trouver une solution pour les autres, Linedwell [discuter] 12 août 2013 à 15:53 (CEST)
C'est étonnant cet écueil, pour moi formellement dans le Mediawiki de Vikidia, les liens interwiki sont reconnus quand le code interwiki fait partie du fichier "names.php" (de mémoire) qui rassemble tout les codes de langue, liste à laquelle on ajoute manuellement "wp" pour Wikipédia (qui en est régulièrement expulsé lors des mises à jour...) Bonne chance pour trouver un moyen ! Astirmays (d · c · b) 12 août 2013 à 21:07 (CEST)
Bonne nouvelle, le script récupère désormais les liens vers nl:, de:, wp: en plus des liens "normaux" pour mettre à jour les interwikis. Seul bémol concernant le dernier, les articles sur WP et sur VD n'ayant pas forcément les mêmes noms, on peut se heurter à des erreurs (typiquement un mot qui n'a qu'un seul article sur VD, mais qui taperait sur une page d'homonymie sur WP). Linedwell [discuter] 20 décembre 2013 à 09:54 (CET)
(longtemps après) Une chose dont je ne suis pas sûr : tu récupères les liens vers nl, de, etc. des versions de Vikidia elle-même ? Ou bien ton bot va consulter les interwikis sur WP ? (pour établir un lien vers un article de wikikids.nl par exemple, quand il existe après avoir testé l'intitulé correspondant de nl.wikipedia). Et si je me souviens bien, il manque un accès à API de Wikikids.nl et tu n'es jamais intervenu en écriture chez eux pour des interwikis ? Merci des infos (et des taches accomplies par le bot surtout ! Clin d'œil Astirmays (d · c · b) 12 octobre 2014 à 18:04 (CEST)
Pour répondre à la question d'Astirmays sur ma PdD, les interwikis sont actuellement en standby suite à un problème avec les faux interwikis (à comprendre ceux qui ne font pas partie de **.vikidia.org) qui comportent parfois des doublons de liens, rendant le résultat inopérant. C'est aussi dans ma liste de choses à corriger, qui commence à s'allonger. En ce qui concerne leur récupération, elle est faite depuis la version de Vikidia où est lancé le bot, avec donc les "problèmes" de doublons insérés par des humains que ça implique. Pour ce qui est d'éditer chez eux, c'est en effet pas à l'ordre du jour, le script ne navigant qu'entre les wikis d'une même "famille". Linedwell [discuter] 12 octobre 2014 à 18:11 (CEST)
"En ce qui concerne leur récupération, elle est faite depuis la version de Vikidia où est lancé le bot" Tu veux dire que depuis fr, quand il y a un interwiki vers es, le robot met le lien réciproque, de es vers fr ? C'est une bonne chose. Et est-ce que c'est vraisemblable qu'un jour le bot mettra les interwikis quand il n'y en a encore aucun en se basant sur ceux de Wikipédia ? Astirmays (d · c · b) 13 octobre 2014 à 19:55 (CEST)
C'est à peu près ça, au détail près que je lançais pas toujours le script depuis la même "source", donc une fois fr, une fois es, etc. Et en fait, le script fonctionne sur la base de la propagation. Je m'explique. Si sur la page du wiki "source" je trouve des liens vers les langues xx, yy et zz, je vais sur les pages dans ces langues ajouter (si besoin) tous les interliens présents sur le wiki source et absents sur celui de destination. En ce qui concerne la récupération des wikiliens depuis Wikipedia c'est déjà partiellement le cas pour les liens vers simple: et "la wikipédia dans la même langue que le wiki source" (donc si je suis sur de.vikidia.org, le script cherchera une page sur de.wikipedia.org portant le même titre, et si elle existe, ajoutera le lien vers cette page. La seule faille de cette option étant que si des articles sont homonymes sur WP et VD mais traitent de sujets différents ils seront quand même liés. Prenons un exemple fictif pour illustrer mon propos: Pellicule (dermatologie) qui s'appellerait sur Vikidia Pellicule, si l'article Pellicule (traitant du support argentique pour les photos / les films) existe sur WP, nous aurions « Pellicule » (du cuir chevelu, sur VD) qui pointerait sur « Pellicule » (photographique, sur WP) alors que les deux sujets n'ont rien à voir. Il n'existe pour ce type de faux positif absolument aucun moyen de les détecter de manière automatique, vu que le contenu des 2 articles n'a de sens que pour un lecteur humain.
tl;drPrécision: En l'état le script propage les interwikis de la page d'un wiki "source" vers toutes les pages liées sur des wikis "distants". En ce qui concerne les liens WP, le script cherche l'existence ou non d'une page sur la Wikipédia dans la même langue que le wiki "source" et dans le cas où elle existe, l'ajoute à la liste des interliens, avec les erreurs liés aux homonymies que cela implique. Linedwell [discuter] 13 octobre 2014 à 20:17 (CEST)
Je reviens sur le sujet, peut-on faire tourner le bot à partir de en.vikidia.org ? (On a importé/relu un certain nombre d'articles). Malheureusement, j'ai compris que si on a "fait le tour" des interwikis pour un article sur en: , c'est à dire qu'on a ajouté les liens vers es: fr: nl: et it quand ils existent, ça n'ajoutera que le lien vers en: dans l'article de Vikidia en français...
Tiens justement ceux de Klexikon pensent qu'il ne faudra pas s'embêter à faire dans leurs articles une catégorisation précise (comme celle de Wikipédia ou la nôtre) et ils comptent pour ce genre de tâche sur des outils automatiques de type wp:wikidata. Peut-être y aura-t-il des trucs à prendre, ou des collaboration à engager, pour utiliser ce genre d'outil au moins pour les interwikis. Astirmays (d · c · b) 11 janvier 2015 à 12:30 (CET)
Je réponds en vrac: en fait, si le lien vers fr. existe sur en., le script viendra effectivement sur fr. pour y propager / mettre à jour les liens interwiki qu'il a trouvé sur en. D'une certaine façon, le bot fonctionne actuellement comme un "achèvement automatisé du travail humain", si un humain a mis quelques interwikis sur une page donnée, le bot propagera la liste complète d'interwikis à toutes les autres versions linguistiques. En ce qui concerne Wikidata, dont l'intérêt est de rendre désuet ce script (ce qui est bien, mon script ayant encore quelques petits "bugs" par moment) il nécessite que le Wiki soit configuré pour accepter le SUL (Single User Login), c'est à dire que toute la configuration soit migrée en objet, qu'un wiki "central" soit créé (équivalent de meta.wikimedia.org) et surtout que l'on parvienne à installer et configurer mw:Extension:Wikibase, le "cœur" de Wikidata. Comme tu le sais peut-être, celui qui s'occupait de la migration objet (et accessoirement le seul à avoir réussi à comprendre plus ou moins comment faire vu le manque cruel de documentation) était Vivi-1 (d · c · b), maintenant qu'il est parti, la migration de la conf demandera plus ou moins de repartir du tout début (et donc nécessitera un temps d'apprentissage, de test, de debug que nous ne sommes pas certains d'avoir) et de toute façon, dans l'état actuel des choses (quota quasiment saturé sur TuxFamily) nous ne pouvons pas prendre le risque d'installer de nouvelles extensions sans craindre de tout casser (raison pour laquelle je n'ai toujours pas installé mw:Extension:Echo pour disposer des "notifications" et "remerciements" comme sur WP).
Concernant ta demande de lancer le bot interwiki sur en, je vais le lancer immédiatement en espérant qu'il ne commette pas trop de "bévues". Cordialement, Linedwell [discuter] 11 janvier 2015 à 12:45 (CET)
J'ai regardé, il doit y avoir un petit bug, pour l'instant LinedBot n'ajoute aux articles de en.vikidia que l'interwiki vers Wikipédia en anglais (pas simple), et ne répercute pas cela sur fr.vikidia par exemple, exemple. C'est possible de lui faire réviser le numéro ? La la lèreuh ! Merci ! Astirmays (d · c · b) 15 janvier 2015 à 22:00 (CET)
Concernant simple c'était voulu, en.vikidia étant supposé se substituer à simple, le lien wikipedia associé à en est bien celui de wp et non pas celui de simple (par souci de cohérences avec les autres langues qui lient aussi à Wikipedia. En ce qui concerne la non propagation des autres liens vers les autres wikis, est arrivé ce que je soupçonnais, notre système d'interwikis étant devenu obsolète (insérés "en dur" dans les pages au lieu d'utiliser wikidata) les liens ne sont plus reconnus comme tels par le Framework de Pywikibot, je ne suis pas spécialement convaincu de l'intérêt de réécrire tout le script pour si peu. Linedwell [discuter] 16 janvier 2015 à 11:32 (CET)
Ok pour Simple, par contre, je ne sais pas quelle est la solutions technique la plus judicieuse (script propre à Vikidia, en se référant au Wikidata de Wikimedia, en recréant un wikidata pour les Vikidia et équivalent...), mais je suis bien convaincu de l'intérêt de faire faire les interwikis par un robot, y compris vers et sur Wikikids.nl et même probablement bientôt Klexikon...
Ce sera peut-être une occasion de collaborer avec ces autres équipes. Astirmays (d · c · b) 17 janvier 2015 à 12:08 (CET)
La solution la plus "propre" et surtout la plus pérenne serait bien évidement de disposer de notre "propre" Wikidata, les interwikis seraient donc centralisés et plus faciles à maintenir (le bot ne servirait alors qu'à convertir les liens interwiki "traditionnels" en entrée dans le tableau du wikidata. Malheureusement, comme expliqué le 11, l'installation de Wikibase nécessite que la configuration des wikis soit "convertie" pour être compatible avec le SUL (vu qu'il faut que tous les wikis (au moins ceux de vikidia) soient unifiés pour pouvoir installer et utiliser cette extension. Concrètement cela demande: 1) de revoir la plupart des fichiers de configuration de chacun des wikis; 2) de procéder à la fusion des bases de données en une seule, ce qui implique de fusionner les comptes utilisateurs portant le même nom (en s'assurant qu'ils appartiennent à la même personne); 3) puis enfin si le reste s'est bien déroulé, d'installer et de configurer wikibase sur un wiki "fait pour ça"; 4) repasser sur chacun des wikis pour "activer" ce mode d'interwiki et lancer un bot pour migrer tous les liens "dans le code" vers Wikidata. Concernant le script actuel, qui utilise des fonctions considérées "désuettes" par Pywikibot, je vais être obligé de tout reprendre de zéro et de coder ça "à la main", les liens interwiki ne pouvant plus être aussi bien détectés qu'avant (c'est pour cette raison que lors de son passage sur en.vd mon script n'a détecté que les liens vers nl et ceux vers wp, parce que j'avais spécifiquement codé la détection de ces liens (ne faisant pas partie de notre "ferme" de wikis, Pywikibot refusait déjà à l'époque de les reconnaitre comme des interwikis (pour lui il ne s'agissait que de liens externes). Je me mettrai probablement au travail pour écrire une nouvelle version de ce script dans la semaine qui vient, en espérant ne pas rencontrer trop d'imprévus en route. Linedwell [discuter] 17 janvier 2015 à 12:28 (CET)
Ok, en tout cas les changements de configuration de chaque version de Vikidia sont possible dans un délai pas trop long (après changement d'hébergement) mais par contre Wikikids.nl et Klexikon seront toujours en dehors de cette configuration, et pourtant c'est intéressant de les lier... Astirmays (d · c · b) 17 janvier 2015 à 13:45 (CET)
Notification Linedwell : Eh bien, LinedBot (d · c · b) a l'air d'avoir bien tourné sur les interwikis ! Y compris sur les autres versions de Vikidia ! J'ai relevé juste une erreur : l'enlèvement d'un lien interwiki (juste) vers nl. Pourtant dans d'autres cas, il n'a pas été enlevé... Et puis c'est dommage qu'on ne puisse pas intervenir aussi sur Wikikids.nl; mais peut-être qu'on trouvera le moyen un jour ! Astirmays (d · c · b) 3 mai 2015 à 12:57 (CEST)

Articles à corriger - orthographe[modifier | modifier le wikitexte]

Une autre demande, un peu moins essentielle, et peut-être pas facile : ‎Abracadabra (d · c · b) est toujours actif, et on l'en remercie, pour corriger l'orthographe et la grammaire des articles. Une chose qu'il avait demandé il y a longtemps je crois, ce serait de repérer et faire la liste de tout les articles sur lesquels il y a eu au moins disons 1000 octets d'ajoutés depuis la dernière fois où il l'a modifié.

C'est schématique, on peut mettre d'autres conditions, ou peut-être qu'il y a des moyens de repérer automatiquement un article qui a des chances de contenir des fautes...

Si on n'était pas trop dispersés géographiquement, on devrait faire des ateliers programmation de robots dans un lieu et avec une organisation qui aillent bien pour ça. Astirmays (d · c · b) 17 janvier 2015 à 12:29 (CET)

Je pense que pour cette proposition, un bot sera superflu. Je m'explique: Special:AbuseFilter permet de détecter certains « motifs » dans les contributions à savoir le nombre de mots ajoutés, l'ancienneté de l'utilisateur qui l'a fait, repérer certains mots spécifiques, etc. et de réagir automatiquement à ces détections que ça soit en empêchant la modification, en avertissant celui qui l'a fait de la possible "erreur" commise ou dans le cas qui nous intéresse, simplement en "balisant" la modification. Concrètement cela veut dire qu'on pourrait très bien écrire un filtre qui détecte, comme tu le proposes, les ajouts de plus de 1000 octets et qui balise les pages.
Symbole vote pour.png Les points positifs
  • Facilement réalisable et modifiable (pour peu qu'on soit abusefilter)
  • Peu coûteux en ressources (la détection se fait au moment où l'article est sauvegardé il n'y a donc pas à analyser de grands lots de pages en même temps)
Symbole vote contre.png Les points négatifs
  • La détection ne sera faite que sur les modifications survenues après la création (et activation) du filtre (cela suppose donc que les "vieilles modifications" ont déjà été relues et corrigées)
  • Une modification balisée le reste indéfiniment (c'est à dire qu'une fois corrigé, on ne peut pas retirer un article de la liste de détection du filtre, il faut donc se "souvenir" de là où l'on a arrêté de relire (les balisages sont classés en ordre antichronologique, donc du plus récent au plus ancien)
Il existe éventuellement d'autres solutions mais qui demandent généralement plus de ressources, qu'il s'agisse de ressource en terme de temps de calcul/exécution pour un bot ou plus problématique en temps de relecture par un humain. J'attends déjà de voir ce que tu penses de cette "solution" avant de détailler davantage les autres options que j'ai en tête. Linedwell [discuter] 17 janvier 2015 à 12:50 (CET)
Tu réponds vite ! Je suis cool Pourtant je crains que ça ne réponde pas tout-à-fait au besoin, d'une part parce-que ça n'analyse pas les ajouts ayant déjà eu lieu, d'autre-part parce-que l'idée serait plus de repérer les articles sur lesquels a été rajouté un contenu significatif, même en plusieurs fois. Et puis par ex une révocation qui rétabli plus de 1000 octets (par exemple) sera dans ce cas balisée non ? Alors que l'article n'aura en fin de compte pas bougé...
C'est une demande qui n'est pas un besoin complètement vital hein ! Ça peut être aussi bien un exercice intéressant, dans l'idéal une occasion de susciter de nouvelles vocations de dresseur de robot, plus qu'une commande à remplir rapidement ! Miam miam miam, ché bon cha ! Astirmays (d · c · b) 17 janvier 2015 à 13:45 (CET)
Je vois. Du coup, afin d'être certain de comprendre, on doit mesurer la différence de 1000 octets "depuis quand" ?, j'entends par là que si la modification n'a pas été faite en une seule fois on considère quoi, 1000 octets depuis "x" temps ? Sinon effectivement, la plupart des solutions que j'avais en stock (autant AbuseFilter que FlaggedRevisions) supposent que "le système" est déjà "propre" au moment où l'on souhaite activer cette "détection". Ceci dit, cela n'est pas incompatible, on peut voir ça en deux temps. Dans un premier temps activer l'une de ces solutions de "marquage en temps réel" (avec ou sans l'aide d'un bot pour "écrémer les listes") et dans un second temps, procéder à la détection de tous les "vieux contenus" nécessitant peut-être une relecture. Ceci dit si quelqu'un a une proposition plus ou moins détaillée (un plan d'action ou un scénario, même sans avoir le code en tête) ça pourrait donner matière à réflexion (que ça soit à moi, comme aux autres potentiels dresseurs de bots). Linedwell [discuter] 17 janvier 2015 à 13:59 (CET)
Eh bien ce serait une différence de 1000 octets... depuis la dernière fois qu'‎Abracadabra est intervenu sur l'article ! Ou même produire une liste d'article classés par quantité de texte ajoutée depuis le dernier passage d'‎Abracadabra... C'est très spécifique, hein ! Je pense qu'il est à peu près le seul à faire de la pure correction de texte, par contre il lui arrive ou il lui est arrivé de contribuer avec d'autres pseudos, si on veut en tenir compte, ça complique encore un peu la chose ! Miam miam miam, ché bon cha ! Peut-être que c'est plus une question d'analyse des « dump » (que d'ailleurs on ne sort pas je crois), qu'un travail de robot à proprement parler, mais c'est aux techniciens de le dire... La la lèreuh ! Astirmays (d · c · b) 17 janvier 2015 à 19:34 (CET)
Travailler sur les dumps ou directement sur le serveur "live" n'aura de conséquence que le temps d'exécution du travail par le bot qui s'en occupera (il est plus rapide d'explorer un fichier XML géant stocké localement que de faire des milliers de petites requêtes au serveur). Dans un cas comme dans l'autre il faudra effectivement écrire un script qui "comptera" pour chaque article le nombre d'octets ajoutés depuis la dernière intervention d'Abracadabra ou un de ses autres comptes sur la page. Mes prévisions sur un tel script sont un temps d'exécution d'environ une demie journée (vu que pour chaque article de l'encyclopédie il est nécessaire de 1) charger la page; 2) charger l'historique; 3) le parcourir à la recherche de la dernière intervention d'Abracadabra; 4) comparer la version courante avec la "dernière version relue". En comparaison, le script mensuel que je lance pour mettre à jour {{maintenance}} sur toutes les pages met dans les 9h à finir son boulot, celui ci mettrait donc au moins autant de temps (et au pire dans les 13 à 15h). Bref, faisable (comme toujours) mais assez "gourmand". Linedwell [discuter] 19 janvier 2015 à 12:33 (CET)

articles à illustrer[modifier | modifier le wikitexte]

Il y a une centaine d'articles à illustrer et environ 130 articles longs à illustrer, pourtant je fais beaucoup d'articles au hasard et je tombe sur Mer de Kara ou d'autres non repérés. On peut faire passer le robot partout? Merci.--Macassardiscuter 19 mai 2015 à 10:16 (CEST)

Je vois un article illustré en 2013 Audrey Tautou, pourtant dans la catégorie à illustrer? Le robot n'enlève pas la catégorie obsolète?--Macassardiscuter 19 mai 2015 à 15:47 (CEST)