<div dir="ltr">Méthode couteuse: les requêtes ici sont des GET mais ça récupère tout (même si tu filtres ensuite par un head -n 1). Un HEAD serait plus approprié (pour ne récupérer d'abord que les entêtes et pas les pages entières) : c'est suffisant pour obtenir un statut 404.<div><br></div><div>Note: certains sites retournent une page 200 même quand l'URL est invalide (un "wildcard" récupère ce qui n'est pas trouvé et affiche une autre page): pratique courante sur les sites commerciaux qui veulent afficher mlalgré tout leur portail et font à l aplace des recherches plus ou moins liées aux termes demandés dans la requête, ce qui n'est pas toujours en grand rapport avec ce qu'on cherchait. Idem pour les sites hébergeurs de blogues ou "pages perso" des FAI: une URL disparait, l'herbergeur affiche autre chose, comme il lui plait...</div></div><div class="gmail_extra"><br><div class="gmail_quote">Le 20 janvier 2017 à 20:34,  <span dir="ltr"><<a href="mailto:osm.sanspourriel@spamgourmet.com" target="_blank">osm.sanspourriel@spamgourmet.com</a>></span> a écrit :<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
  
    
  
  <div bgcolor="transparent" text="#000000">
    <span class="m_-8231865960275657139comment-copy"><code>Le plus simple c'est sans doute de
        demander à curl depuis un overpass turbo pour récupérer les url
        :<br>
      </code></span>
    <p><span class="m_-8231865960275657139comment-copy"><code>curl -L -I
          <a class="m_-8231865960275657139moz-txt-link-freetext" href="http://www.example.org" target="_blank">http://www.example.org</a> 2>/dev/null | head -n 1 | cut -d$' '
          -f2</code>. <br>
      </span></p>
    <p><span class="m_-8231865960275657139comment-copy">rend 200 et </span><br>
      <span class="m_-8231865960275657139comment-copy"><code>curl -L -I
          <a class="m_-8231865960275657139moz-txt-link-freetext" href="http://www.example.org/pageAbsente" target="_blank">http://www.example.org/<wbr>pageAbsente</a> 2>/dev/null | head -n 1
          | cut -d$' ' -f2</code>. </span></p>
    rend 404.<br>
    <br>
    Le test Keep-right  semble rechercher s'il y a le nom de l'objet
    dans la page au prétexte que l'url doit être spécifique.<br>
    Un peu tordu et sans doute facile à faire taire (ajouter un
    #ParnasseNoura par exemple).<br>
    Si on peut déclarer faux positif, pourquoi pas.<br>
    <br>
    Mais ce n'est clairement pas ce que tu cherches.<br>
    Jean-Yvon<br>
    <br>
    <br>
    <div class="m_-8231865960275657139moz-cite-prefix">Le 20/01/2017 à 11:54, Florian LAINEZ -
      <a class="m_-8231865960275657139moz-txt-link-abbreviated" href="mailto:winnerflo@free.fr" target="_blank">winnerflo@free.fr</a> a écrit :<br>
    </div>
    <blockquote type="cite">Fred, j'ai testé Keep-right et j'ai été très déçu.
      L'outil fait des contrôles sur les URLs mais je ne comprends pas
      le fonctionnement. Et puis, ce que je cherche, c'est un outil qui
      fasse une requête pour trouver des 404.<br>
      <br>
      Exemple d'erreur que je ne comprends pas sur le node <a href="http://www.openstreetmap.org/node/1427978197" target="_blank">http://www.openstreetmap.org/<wbr>node/1427978197</a>
      :<br>
      <div style="margin-left:40px">Content of the URL (<a href="http://www.mk2.com/salle/parnasse" target="_blank">http://www.mk2.com/salle/<wbr>parnasse</a>)
        did not contain these keywords:
        (Mk2Parnasse;Noura✔Parnasse;<wbr>Noura✔ParnasseNoura)</div>
    </blockquote>
    <br>
  </div>

<br>______________________________<wbr>_________________<br>
Talk-fr mailing list<br>
<a href="mailto:Talk-fr@openstreetmap.org">Talk-fr@openstreetmap.org</a><br>
<a href="https://lists.openstreetmap.org/listinfo/talk-fr" rel="noreferrer" target="_blank">https://lists.openstreetmap.<wbr>org/listinfo/talk-fr</a><br>
<br></blockquote></div><br></div>