Category: SEO

  • SEO: Pourquoi le Task Completion Time Devient le Nouveau Standard ?

    SEO: Pourquoi le Task Completion Time Devient le Nouveau Standard ?

    Le Time to Task Completion (TTC), aussi appelé Task Completion Time (TCT) est une mesure du temps nécessaire à un internaute depuis la saisie de sa requête jusqu’à la finalisation de sa recherche.

    Le TTC est un indicateur clé pour mesurer la satisfaction de l’intention de recherche et optimiser votre SEO. C’est une mesure qui ne peut qu’être approximée, mais qui permet de driver la stratégie SEO. En partant du principe que l’objectif de Google est de permettre à ses utilisateurs d’obtenir ce qu’ils cherchent le plus vite vite possible, penser TTC permet de penser comme Google et d’augmenter la probabilité d’être en première place.

    TL;DR : vous pouvez jumper directement aux recommandations et passer la partie explicatives

    Le TCT a déjà fait l’objet d’une publication que je ne peux que vous recommander de lire si vous avez le temps. Je mets en annexe une synthèse.

    Concrètement, le Time to Task Completion inclut :

    • Le temps passé sur la page de résultats de recherche (SERP) : temps de réflexion, comparaison entre les différents liens.
    • Le temps de chargement de la page : la vitesse à laquelle la page de destination s’affiche.
    • Le temps de navigation/lecture sur la page : le laps de temps nécessaire pour trouver la réponse exacte à la requête

    Cet article vous propose de plonger dans les détails de cette notion, de comprendre son impact sur le SEO, et d’explorer des concepts connexes comme le dwell time et le « navboost ».


    1. Qu’est-ce que le Time to Task Completion (TTC) ?

    Le Time to Task Completion (TTC) est un indicateur comportemental qui mesure la durée qu’il faut à un internaute pour mener à bien sa recherche et trouver l’information spécifique qu’il souhaite.

    Contrairement à un simple temps de session ou un dwell time limité à la page, le TTC offre une vision plus holistique de l’expérience utilisateur, puisqu’il prend en compte :

    1. La phase de recherche en SERP :
      • L’utilisateur tape sa requête, étudie les différents titres et extraits (snippets) proposés par le moteur de recherche.
      • Il compare les options pour choisir la page qui lui semble la plus pertinente.
    2. Le temps de chargement de la page :
      • L’utilisateur doit attendre que la page s’affiche complètement.
      • Un long temps de chargement peut augmenter le TTC et potentiellement provoquer un abandon.
    3. Le temps de navigation/lecture :
      • L’utilisateur parcourt le contenu de la page à la recherche de la réponse souhaitée.
      • Si le visiteur trouve rapidement ce dont il a besoin, le TTC sera faible.
      • Si l’utilisateur ne trouve pas son bonheur, il pourrait rebondir vers la SERP pour tenter d’obtenir une réponse dans un autre résultat.

    En somme, le TTC se veut un indicateur très représentatif de la satisfaction de l’intention de recherche : plus il est faible, plus on peut estimer que l’utilisateur a obtenu rapidement ce qu’il était venu chercher.


    2. Quelle est la différence entre le Time to Task Completion et le dwell time ?

    Le dwell time est un indicateur qui mesure le temps passé par un internaute sur une page avant de revenir sur les résultats de recherche. Autrement dit, si l’on constate qu’une personne clique sur un résultat, consulte le contenu, puis revient sur la SERP après, disons, 2 minutes, on dit que le dwell time est de 2 minutes.

    • Dwell time se limite à la session sur la page de destination et la comparaison avec un éventuel retour en arrière.
    • TTC s’étend lui du moment où l’utilisateur consulte la SERP jusqu’au moment où il finit réellement sa tâche, incluant le temps de chargement, l’orientation dans la SERP, la navigation sur plusieurs sites, les requêtes nécessaires pour affiner la recherche etc.

    Ainsi, le dwell time peut être considéré comme un composant du Time to Task Completion, mais il ne le recouvre pas entièrement.


    3. Pourquoi le Time to Task Completion est-il important en SEO ?

    3.1. L’expérience utilisateur au cœur de l’algorithme

    Les moteurs de recherche, Google en tête, visent à satisfaire au mieux l’intention de recherche de l’utilisateur. Ils ont tout intérêt à :

    • Proposer des résultats pertinents et de qualité
    • Assurer une expérience utilisateur fluide
    • Permettre à leurs utilisateurs d’obtenir ce qu’ils cherchent le plus vite possible

    Le Time to Task Completion étant un indicateur de satisfaction (puisque l’utilisateur parvient effectivement à finaliser sa recherche), il peut être lié à la performance SEO d’un site :

    • Si un site propose des réponses claires et rapides, l’utilisateur est susceptible de terminer sa tâche en un temps record, ce qui peut être perçu positivement.
    • À l’inverse, si la page est confuse, met longtemps à se charger ou ne répond pas au besoin, l’internaute reviendra vite sur la SERP, augmentant le TTC et laissant penser au moteur de recherche que ce résultat n’est pas le plus pertinent.

    3.2. Impact sur le comportement des utilisateurs (pogo sticking, bounce, etc.)

    Le pogo sticking décrit le phénomène où un internaute clique sur un résultat, puis revient immédiatement (ou très rapidement) à la page de résultats pour cliquer sur un autre lien. C’est un mauvais signal puisqu’il indique que le résultat ne correspondait pas à ses attentes.

    3.3. Relation avec le “navboost”

    On parle parfois de “navboost” pour désigner l’effet positif d’un engagement utilisateur élevé et d’une navigation rapide vers les sites jugés les plus pertinents. En clair :

    • Si le moteur de recherche détecte que les utilisateurs se dirigent massivement et rapidement vers une page et y trouvent satisfaction (peu de retours vers la SERP, bon dwell time, TTC réduit), il peut accorder un coup de pouce au positionnement. Le coup de boost sur la page peut-être très rapide. Un bon TTC peut également avoir un impact positif sur l’ensemble du site.
    • Ainsi, optimiser son TTC participe indirectement à la capacité d’un site à être mieux classé et à bénéficier d’un effet « boost » dans les SERP, car l’intention est très vite comblée.

    Pour en savoir plus sur le Navboost, RDV sur sur cet article du JournalDuNet qui interview Olivier de Segonzac sur ce sujet.


    4. Comment mesurer et optimiser le Time to Task Completion ?

    4.1. Mesurer le TTC

    Mesurer le TTC de manière directe n’est pas toujours évident, car cela demande une analyse précise des données :

    1. Le temps sur la SERP : impossible à mesurer, sauf si l’on espionne le navigateur (extension, etc) ou le trafic réseau par exemple.
    2. Le temps de chargement de la page : ce sont des données plus accessibles (via PageSpeed Insights, Google Lighthouse, etc.).
    3. Le temps de navigation/lecture : on peut utiliser des scripts de tracking (par exemple Google Analytics 4 ou des outils tiers) pour estimer le temps passé avant l’interaction clé (clic sur un bouton, scroll, téléchargement, etc.).

    Il est souvent plus simple de déduire ou d’estimer le TTC à partir de plusieurs métriques utilisateur (taux de rebond, temps moyen sur la page, comportement en entonnoir).

    Le focus doit être porté sur la mesure du temps nécessaire pour que l’internaute soit 100% satisfait en fonction de son objectif :

    • Remplissage d’un formulaire de contact / génération de leads
    • Début interraction chat, email etc
    • Achat d’un produit (+ ajout du temps de livraison éventuel)
    • Recherche d’information

    4.2 Formulaire de contact / génération de leads

    Optimisation du TTC

    • Réduire le nombre de champs dans le formulaire.
    • Offrir une auto-complétion ou pré-remplir certaines informations.
    • Assurer un chargement rapide et une ergonomie fluide.
    • Ajouter des messages de validation instantanée pour éviter les erreurs bloquantes.

    Il s’agit ici de mesure le temps qui s’est écoulé jusqu’à la soumission d’un formulaire.

    Mesurer le TTC avec GA4

    1. Configurer un événement personnalisé :
      • Marquer l’événement form_start lorsqu’un utilisateur commence à remplir le formulaire.
      • Marquer l’événement form_submit lorsque le formulaire est validé.
    2. Créer un rapport dans GA4 :
      • Utiliser l’exploration utilisateur pour mesurer le temps écoulé entre form_start et form_submit.
      • Analyser les abandons en comparant les occurrences de form_start et form_submit.
    3. Analyser le temps total sur la session :
      • Observer la durée entre la première page visitée et form_submit pour voir si la réponse a été obtenue rapidement.

    4.3 Prise de contact par d’autres canaux (chat, appel, email)

    Ce cas inclut les contacts établis via un chatbot, un appel téléphonique ou un envoi d’email via un CTA du site.

    Optimisation du TTC

    • Rendre le CTA visible et accessible sur toutes les pages stratégiques.
    • Utiliser un chatbot intelligent pour guider l’utilisateur vers la solution.
    • Proposer des réponses automatiques aux questions fréquentes.

    Mesurer le TTC avec GA4

    1. Configurer les événements personnalisés :
      • chat_start lorsque l’utilisateur ouvre un chat.
      • chat_send lorsqu’un message est envoyé.
      • call_click lorsqu’un utilisateur clique sur un numéro de téléphone.
      • email_click lorsqu’un utilisateur clique sur une adresse email.
    2. Analyser la durée avant l’interaction :
      • Utiliser le rapport d’événements pour mesurer le temps écoulé entre l’arrivée sur la page et le premier contact.
      • Comparer avec des parcours utilisateurs pour détecter les obstacles éventuels.

    4.4 Achat d’un produit (+ temps de livraison éventuel)

    Le TTC pour un achat inclut le temps entre l’entrée sur le site et la validation du paiement, ainsi que le délai de livraison perçu. En effet, l’objectif de l’internaute n’est atteint qu’au moment ou la livraison est effective.

    Optimisation du TTC

    • Simplifier le processus d’achat (checkout en une page, paiement express, options de connexion rapide).
    • Réduire le temps de chargement des pages produit et de validation du panier.
    • Offrir des délais de livraison clairs et compétitifs.

    Mesurer le TTC avec GA4

    1. Configurer les événements e-commerce :
      • add_to_cart pour l’ajout au panier.
      • begin_checkout pour le début du processus de paiement.
      • purchase pour la validation de l’achat.
    2. Analyser le temps total d’achat :
      • Créer un rapport mesurant le temps entre session_start et purchase.
      • Identifier les points de friction via des taux d’abandon de panier.
    3. Prendre en compte le temps de livraison :
      • Suivre les retours utilisateurs sur la rapidité de livraison.
      • Intégrer un module de suivi de commande et mesurer l’engagement des utilisateurs après l’achat.

    4.5. Autres axes pour mesurer et optimiser le TTC

    Si votre site propose avant tout des informations (techniques ou autre), la mesure de la satisfaction est plus difficile.

    Vous pouvez néanmoins envisager:

    • Test humain “live”
      • faire une recherche Google sur les top termes ciblés, et mesurer le temps nécessaire pour trouver l’information sur le site en première position versus votre page.
    • GA4
      • profondeur du scroll
      • durée session
      • taux de clic des liens internes
    • NPS
      • Net Promoteur Score: mesure sur la “recommandabilité” basée sur des feedback utilisateurs
    • Analyse session
      • Hotjar and co, pour regarder les sessions utilisateurs

    4.6 Autre axes d’optimisation du TTC

    Pour réduire le Time to Task Completion et améliorer l’expérience utilisateur (et par extension, le SEO), vous pouvez agir sur plusieurs leviers :

    1. Etre cliqué dans la SERP
      • Optimisez la visibilité de vos pages dans les résultats de recherche Google en soignant les balises de titre () et de meta description, et en déployant des données structurées adaptées afin de bénéficier notamment de Rich Snippets (VideoObject, Recipies, JobPosting…)
    2. Satisfaire l’intention de recherche
      • Proposer le meilleur contenu ou produit ou service possible.
      • Si l’internaute cherche une réponse rapide, offrir un contenu concis et direct (ex. : short answer tout en haut + détails sous forme de chapitres).
      • Mettre autant que possible en haut de page les informations les plus importantes pour prendre une décision.
      • N’hésitez pas à jouer sur la taille des polices de caractère pour rendre les informations stratégiques bien évidentes.
    3. Optimiser le chargement des pages
      • Google PageSpeed est une bonne source d’information. Surtout sur les metrics Core Web Vitals, qui tiennent compte de la perception utilisateur. Basez vous sur les données RUM pour que les metrics soient encore plus pertinent.
    4. Améliorer la pertinence et la clarté de votre contenu
      • Répondre directement et clairement à l’intention de recherche (mise en avant d’un résumé, d’une FAQ, d’un extrait).
      • Utiliser une structure hiérarchisée et claire (titres Hn, listes, paragraphes courts, etc.).
      • Proposer un accès rapide à l’information clé (anchor links, sommaire, menu clair).
      • Ajout de liens entre pages pour approfondir certains sujets avec des ancres explicites
    5. Travailler l’ergonomie et l’accessibilité de la page
      • Concevoir des interfaces “user-friendly” et intuitives.
      • Faciliter la navigation interne pour aider l’internaute à trouver rapidement ce qu’il cherche.
      • Gérer l’affichage responsive pour une lecture aisée sur mobile.
      • Vérifier les suggestions d’ergonomie proposée dans le rapport PageSpeed
    6. Analyser les parcours utilisateurs
      • Via des cartes de chaleur (heatmaps) pour voir où les gens cliquent et scrollent.
        • Exemple de metrics à surveiller: profondeur du scroll (dans GA4)
      • Via des enregistrements de sessions pour détecter les blocages.
      • Via des questionnaires ou tests utilisateurs pour recueillir des feedbacks qualitatifs.

    5. Quels sont les bénéfices liés à l’optimisation du TTC ?

    5.1. SEO: Amélioration du classement

    Même si Google ne confirme pas officiellement l’utilisation du Time to Task Completion en tant que facteur de classement, la satisfaction de l’utilisateur doit être au cœur de la réussite d’une stratégie SEO pérenne:

    • Un site qui répond plus vite et plus clairement aux intentions de recherche a plus de chances d’obtenir et de conserver de bonnes positions dans les SERP.
    • De la même façon, des comportements utilisateurs positifs envoient de bons signaux aux moteurs de recherche:
      • bon CTR dans les SERPs
      • faible taux de rebond
      • faibles retours sur la SERP
      • conversions élevées

    5.2. Branding: Fidélisation de l’audience

    En plus de l’impact potentiel sur le référencement, un TTC réduit contribue à la fidélisation :

    • Un utilisateur qui trouve rapidement ses informations aura d’avantage tendance à revenir
    • Sur le long terme, cela renforce la notoriété et la réputation de la marque.

    7. Conclusion

    Le Time to Task Completion (TTC), ou Task Completion Time, est un indicateur particulièrement intéressant pour appréhender la qualité de l’expérience utilisateur et, indirectement, l’efficacité de votre SEO. Plus qu’un simple temps passé sur la page, il intègre l’ensemble du processus de recherche, depuis la consultation de la SERP jusqu’à la finalisation du besoin informationnel.

    En réduisant votre TTC, vous contribuez à :

    1. Améliorer l’expérience utilisateur (UX)
    2. Optimiser la pertinence de votre contenu vis-à-vis de l’intention de recherche
    3. Augmenter vos chances d’obtenir un navboost (un meilleur positionnement lié à des signaux utilisateurs positifs)
    4. Fidéliser votre audience en proposant une expérience de qualité

    Pour y parvenir, portez une attention particulière à la vitesse de chargement, la structure de vos contenus, la navigation et l’ergonomie de vos pages. En vous focalisant sur la satisfaction du visiteur et en lui permettant de remplir sa tâche le plus rapidement et efficacement possible, vous développerez un atout concurrentiel de taille, tant pour l’expérience de vos visiteurs que pour votre visibilité dans les moteurs de recherche.

    Annexe #1 – Synthèse de “
    Evaluating Web Search Using Task Completion Time”

    Source de la publication: https://research.google.com/archive/dmease-sigir09-full.pdf

    Objectif de l’étude

    • Évaluer la qualité d’un algorithme de recherche en mesurant le temps total nécessaire pour accomplir une tâche.
    • Vérifier si un temps de recherche plus court est corrélé avec une meilleure satisfaction utilisateur.

    Méthodologie

    • Comparaison de deux algorithmes de recherche (A vs B) avec des utilisateurs rémunérés.
    • 100 tâches réelles issues d’expériences de recherche difficiles vécues par des utilisateurs.
    • 200 utilisateurs répartis en deux groupes (chaque groupe teste un algorithme).
    • Mesure du temps écoulé entre le début et la fin de la recherche pour chaque tâche.
    • Collecte des notes de satisfaction après la recherche.

    Résultats principaux

    • Une corrélation négative forte (-0,42 à -0,86) entre le temps de recherche et la satisfaction utilisateur :
      • Plus le temps de recherche est long, plus l’utilisateur est insatisfait.
    • L’algorithme A est plus performant :
      • Temps moyen 5,21 (log) vs 5,37 (log) pour B, soit A environ 17% plus rapide que B.
      • Pour 75% des tâches, A permet de trouver plus vite l’information.
    • Conception expérimentale à améliorer :
      • La variabilité entre utilisateurs fausse les résultats.
      • Une nouvelle méthode (cross-over design) permettrait de réduire l’erreur de 73% et d’améliorer la fiabilité des conclusions.
  • Time to Rank SEO : apparaître + vite sur Google, News et Discover

    Time to Rank SEO : apparaître + vite sur Google, News et Discover

    Le Time to Rank est un concept qui désigne le délai entre la publication d’une nouvelle page ou d’un contenu sur un site web et le moment où ce contenu commence à apparaître (voire à performer) dans les résultats de recherche Google, Google News ou Google Discover. Autrement dit, c’est le temps nécessaire pour que Googlebot découvre, crawl et indexe la page, et que l’algorithme de Google lui attribue une place dans son classement.

    1. De la mise en ligne au premier crawl

    1. Ajout dans la structure :
      • Lorsque vous publiez un nouveau contenu, l’une des premières étapes est de l’intégrer correctement à la structure de votre site (maillage depuis la homepage pour un ranking très rapide + catégories, etc.).
      • Une page bien intégrée (avec des liens internes pertinents, une arborescence claire, un plan de site mis à jour) facilite la découverte par Googlebot.
    2. Mise à jour du Sitemap :
      • Pour accélérer l’indexation, il est conseillé de renseigner le nouveau contenu dans votre sitemap XML.
      • Googlebot consulte régulièrement le(s) sitemap(s) pour y repérer les nouvelles URLs à explorer.
    3. Premier crawl par Googlebot :
      • Le crawl (exploration) est la phase où Googlebot visite la page.
      • Une fois la page crawlée, Google la traite (indexation), puis évalue sa pertinence (classement).
      • Le temps entre la création d’une page et la visite de Googlebot peut varier de quelques heures à plusieurs jours, selon divers facteurs : autorité du site, popularité, fréquence de publication, etc.

    2. Indexation et Ranking

    1. Indexation :
      • Après le crawl, Google détermine si la page va être indexée ou non, c’est-à-dire si elle va être stockée dans son index.
      • Des facteurs comme la qualité du contenu, l’absence de duplication, la conformité aux guidelines de Google (et, plus largement, aux règles d’indexation : robot.txt, balises meta robots…) entrent en jeu.
    2. Premier ranking :
      • Une fois la page indexée, Google commence à évaluer comment elle doit se positionner pour différents mots-clés.
      • Les signaux SEO traditionnels (contenu, netlinking, UX, vitesse de chargement, etc.) vont influer sur ce classement.
      • Il est courant de voir des fluctuations (la page peut apparaître et disparaître dans les SERP, bouger de place…) pendant la « phase de test » de Google.
    3. Google News et Discover :
      • Pour Google News, l’inclusion dépend de critères spécifiques (autorité du domaine en tant que source d’actualités, respect des guidelines News, fraîcheur du contenu…).
      • Pour Google Discover, le contenu est proposé à l’utilisateur selon ses centres d’intérêt et l’actualité. La prise en compte peut être quasi immédiate si le site est déjà identifié comme une source pertinente et régulièrement crawlée par Google.

    3. Les enjeux autour du Time to Rank

    1. Compétitivité et réactivité :
      • Plus un site met de temps à être indexé et classé, plus il risque de rater des opportunités de trafic, surtout sur des sujets d’actualité ou des requêtes saisonnières.
      • Un Time To Rank rapide permet de capter des positions avant les concurrents, et donc de maximiser le trafic.
    2. Visibilité et conversions :
      • Un retard d’indexation ou un mauvais positionnement initial peut engendrer un manque à gagner en termes de leads, de ventes ou de visibilité de marque.
      • Dans certains cas, il est crucial d’être visible le plus vite possible (par exemple pour un événement ou une campagne promotionnelle courte).
    3. Validation des efforts SEO :
      • Les équipes SEO peuvent également utiliser le TTR pour évaluer l’efficacité de leurs actions : si l’indexation est lente, il faudra améliorer la structure, la qualité du contenu, la popularité du site, etc.
      • Inversement, si le site est crawlée rapidement mais que le ranking tarde, il peut s’agir de signaux de pertinence à travailler (contenu, optimisation on-page, netlinking…).

    4. Secteurs où le Time to Rank est particulièrement critique

    1. Presse / Actualités / Médias :
      • Les sites d’informations (presse en ligne, blogs d’actualité, etc.) doivent être indexés et classés très vite.
      • Une news qui sort 24 heures après un concurrent est souvent dépassée ou ne génère plus autant de trafic.
    2. E-commerce :
      • Les lancements de nouveaux produits, les opérations promotionnelles (type Black Friday, soldes, offres flash) nécessitent une visibilité immédiate pour maximiser les ventes.
      • Un Time To Rank trop long pendant une période de promos peut entraîner un manque à gagner conséquent.
    3. High-tech / Start-ups / Innovation :
      • Ces secteurs sont soumis à une forte concurrence et à un rythme de renouvellement rapide.
      • Les nouveautés technologiques ou les annonces de startup doivent être détectées rapidement pour se positionner dans un univers où le « time to market » (et donc le time to rank) est crucial.
    4. Finance / Bourse / Cryptomonnaies :
      • Les informations financières et boursières sont très volatiles et fluctuent en continu.
      • Un retard d’indexation peut faire perdre des positions (et donc de potentiels investisseurs, traders ou visiteurs).
    5. Événementiel et Tourisme :
      • Les requêtes liées à un événement ont une durée de vie souvent courte (festival, concert, salon, conférence).
      • Pour le tourisme, les pics de recherche se concentrent sur des périodes spécifiques (vacances scolaires, saisons touristiques). Le time to rank devient alors un enjeu stratégique.

    5. Comment optimiser / réduire son Time to Rank ?

    • Linker depuis la homepage ou des pages très crawlées
      • Ajouter des liens depuis les pages les plus visitées par les robots de Google, telles que la homepage ou les pages très souvent mises à jour. Si vous avez des doutes, faites une analyse de logs.
    • Optimiser la qualité technique du site :
      • Un site rapide, sans erreurs de crawl (codes 404, 500…), avec un maillage interne cohérent, aide Googlebot à crawler plus vite et plus efficacement.
      • Vous pouvez vérifier dans la Search Console (bien) ou dans dans un crawl (très bien) ou dans les logs (mieux, surtout pour les gros sites)
    • Publier régulièrement et sur un site « fiable » :
      • Les sites qui publient fréquemment du contenu de qualité sont crawlés plus souvent.
      • La fréquence de publication, les signaux de réputation (nombre de backlinks, confiance de Google) accélèrent la visite de Googlebot.
    • Envoyer des signaux de découverte :
      • Publier la nouvelle URL sur les réseaux sociaux, ajouter un lien interne depuis une page déjà bien positionnée, inscrire la page dans le sitemap et, si besoin, faire un “Inspecter l’URL” dans Google Search Console pour demander un crawl:
    • Respecter les guidelines Google (surtout pour Google News) :
    • Travailler le netlinking :
      • Un lien issu d’un site populaire peut accélérer la découverte de la page et améliorer son positionnement initial (sous réserve que le contenu soit pertinent et de bonne qualité). Vous pouvez faire appel à une agence pour vous conseiller.

    En résumé

    Le Time to Rank se situe au carrefour de plusieurs problématiques SEO : la technique (crawl, indexation), la qualité du contenu, la popularité du domaine et l’actualité du sujet traité. Cette métrique est particulièrement stratégique pour toutes les industries où la rapidité de publication et de classement peut faire la différence : médias, e-commerce, finance, high-tech, événementiel, etc.

    Accélérer ce temps d’indexation et de classement implique :

    • Une structure de site saine et bien hiérarchisée,
    • Un contenu de qualité, pertinent et fréquemment mis à jour,
    • Une utilisation optimale des outils de Google (Search Console, Sitemaps, balises spécifiques pour Google News),
    • Des stratégies de promotion et de netlinking efficaces.

    Ainsi, surveiller et optimiser le time to rank peut nettement impacter la visibilité et la performance globales d’un site dans les moteurs de recherche.

  • Kelogs : un crawler puissant et un analyseur de logs SEO

    Kelogs : un crawler puissant et un analyseur de logs SEO

    Comprenez mieux votre site web avec Kelogs

    Le référencement (SEO) est l’un des piliers fondamentaux de la réussite d’un site web. Pour maximiser votre visibilité sur les moteurs de recherche, il est crucial de bien comprendre le comportement des moteurs comme Googlebot et d’analyser en profondeur la santé de votre site. C’est là que Kelogs, un outil de crawler et d’analyse de logs, entre en jeu, offrant une solution complète pour les professionnels du SEO.

    Un outil fait pour les pros du SEO

    Kelogs est conçu spécifiquement pour les professionnels du SEO qui recherchent une visibilité complète sur leur site. En intégrant deux outils puissants – le Crawler Kelogs SEO et le Kelogs Log Analyser, vous obtenez tout ce dont vous avez besoin pour identifier et résoudre les problèmes SEO les plus complexes.

    Kelogs SEO Crawler : Kelogs SEO Crawler : Votre SEO dépend de la qualité de votre crawler

    Le Crawler Kelogs est un outil avancé permettant de simuler les visites de Googlebot et de réaliser une analyse approfondie des indicateurs clés de performance (KPI). Que vous ayez un petit site ou une grande plateforme avec des milliers de pages, Kelogs vous permet de :

    • Auditer votre site grâce à des fonctionnalités de crawl exhaustives.
    • Programmer des crawls automatiques pour être toujours à jour.
    • Recevoir des rapports directs dans votre boîte mail.
    • Créer des projets illimités sans coûts supplémentaires.

    Kelogs Log Analyzer : Comprenez ce qui freine votre site

    Le Log Analyzer est la clé pour comprendre les interactions de Googlebot avec votre site et pour optimiser votre budget de crawl. Grâce à cet outil, vous pouvez :

    • Suivre les visites de Googlebot et vérifier comment vous utilisez votre budget de crawl.
    • Identifier les facteurs qui nuisent à la performance de votre site.
    • Recevoir des alertes e-mail dès que des changements significatifs surviennent.

    Fonctionnalités qui font la différence

    Avec Kelogs, vous pouvez aller au-delà des analyses superficielles. Voici quelques fonctionnalités clés qui feront de Kelogs votre allié SEO indispensable :

    • Analyse du contenu fin pour repérer les pages avec peu de texte.
    • Eradication des contenus dupliqués grâce à des alertes précises.
    • Surveillance du temps de chargement pour améliorer votre visibilité.
    • Détection des redirections 301 et 302 et des liens brisés.
    • Optimisation du budget de crawl en connectant Google Analytics pour prioriser les optimisations.
    • Amélioration de la CTR des SERP en combinant les données de Google Search Console.

    Des rapports et des alertes sur-mesure

    Kelogs est pensé pour vous simplifier la vie. Chaque fois qu’un crawl est effectué, vous recevez un résumé des principaux KPI directement dans votre boîte mail. De plus, des alertes personnalisables vous permettent de suivre l’évolution de votre site en temps réel et de réagir avant que des problèmes n’affectent votre trafic.

    Des tarifs flexibles adaptés à chaque besoin

    Que vous soyez une petite entreprise ou une grande organisation, Kelogs offre des plans tarifaires flexibles qui s’adaptent à votre croissance

    Prêt à booster votre SEO ?

    L’onboarding est simple et rapide. Contactez notre équipe de vente ou commencez dès aujourd’hui avec un essai gratuit. Kelogs est là pour vous aider à faire de votre SEO un moteur de croissance, avec des analyses détaillées et une optimisation constante.

    Ne laissez plus le SEO de votre site au hasard. Avec Kelogs, vous avez tous les outils pour réussir.

    => Le site officiel du crawler et analyseur de logs SEO Kelogs

  • Kelogs: The Ultimate Tool to Boost Your SEO with a Powerful Crawler and Log Analyzer

    Kelogs: The Ultimate Tool to Boost Your SEO with a Powerful Crawler and Log Analyzer

    Understand Your Website Better with Kelogs

    SEO is a cornerstone of online success. To improve your website’s visibility in search results, you need a clear understanding of how Googlebot interacts with your site and insights into its overall health. This is where Kelogs comes in, providing a complete crawler and log analyzer solution for SEO professionals.

    You can go right now on the official website.

    A Tool Built for SEO Pros

    Kelogs is designed for SEO professionals who need a full view of their site’s performance. With two powerful components – the Kelogs SEO Crawler and the Kelogs Log Analyzer – you have everything necessary to detect and resolve even the most challenging SEO issues.

    Kelogs SEO Crawler: Your SEO Is Only as Good as Your Crawler

    The Kelogs SEO Crawler is an advanced tool that simulates Googlebot visits and performs in-depth KPI analysis. Whether you run a small site or a large platform with thousands of pages, Kelogs allows you to:

    • Audit your site with comprehensive crawling capabilities.
    • Schedule automated crawls to stay up to date.
    • Receive direct reports in your inbox.
    • Create unlimited projects without extra costs.

    Kelogs Log Analyzer: Understand What’s Hurting Your Website

    The Log Analyzer provides key insights into Googlebot’s interactions with your site, helping you make better use of your crawl budget. With this tool, you can:

    • Track Googlebot visits and manage your crawl budget.
    • Identify issues affecting your site’s performance.
    • Receive email alerts when significant changes occur.

    Features That Set Kelogs Apart

    Kelogs offers deep analysis tools that go beyond basic SEO insights. Key features include:

    • Thin Content Identification: Spot pages with minimal content in a single click.
    • Duplicate Content Alerts: Get notified instantly when duplicate content appears.
    • Load Time Monitoring: Boost visibility by improving page load times.
    • Redirection & Broken Link Detection: Identify redirects and 404 errors with ease.
    • Crawl Budget Optimization: Connect Google Analytics to prioritize optimizations by sales and traffic.
    • Internal Linking Analysis: Find “high potential” pages that are underutilized in your site structure.
    • SERP CTR Optimization: Improve click-through rates by focusing on titles and meta descriptions with low CTR and high potential.

    Custom Reports and Alerts

    Kelogs simplifies your daily routines. Each time a crawl is completed, you receive a top KPI summary directly in your inbox. Plus, customizable alerts help you track website changes in real-time, allowing you to address issues before they impact your traffic.

    Flexible Pricing for Every Need

    Kelogs offers flexible pricing plans to support your growth, whether you’re a small business or a large enterprise.

    Ready to Elevate Your SEO?

    Getting started is easy. Contact our sales team or begin your free trial today. Kelogs provides the tools you need to transform SEO into a growth engine with detailed analytics and ongoing optimization.

    Don’t leave your SEO to chance. With Kelogs, you have the tools for success.

  • SEO Log Analysis: The 5 Essential Command Lines

    Log files provide valuable information on how search engines interact with your site. Here are the 5 essential commands to master SEO log analysis, along with their equivalents on Linux Ubuntu, macOS, and Windows.

    1. grep

    The grep command is used to search for specific patterns in text files. It is particularly useful for extracting lines containing a specific term.

    Example:

    grep 'Googlebot' access.log > googlebot.log

    This command creates a googlebot.log file containing only the entries where Googlebot accessed your site, thus facilitating targeted analysis.

    Equivalents by Operating System:

    • Linux Ubuntu: grep is available by default.
    • macOS: grep is also available by default.
    • Windows:
      • Option 1: Use findstr, the native Windows command.
        findstr "Googlebot" access.log > googlebot.log
      • Option 2: Install an environment like Git Bash, Cygwin, or WSL (Windows Subsystem for Linux) to use grep.

    2. awk

    awk is a powerful text-processing tool that allows you to manipulate structured data. It is ideal for extracting specific columns in a log file.

    Example:

    awk '{print $7}' access.log > urls.log

    Here, $7 represents the seventh column of the log file, which generally corresponds to the requested URL. This command extracts all URLs and saves them in urls.log.

    Equivalents by Operating System:

    • Linux Ubuntu: awk is available by default.
    • macOS: awk is also available by default.
    • Windows:
      • Option 1: Use awk via Git Bash, Cygwin, or WSL.
      • Option 2: Use PowerShell for similar operations.
        Select-String -Path access.log | ForEach-Object {
            $columns = $_.Line -split ' '
            $columns[6] >> urls.log
        }

    3. sort

    The sort command sorts the lines of a file. After extracting the URLs, you can sort them to facilitate analysis.

    Example:

    sort urls.log > urls_sorted.log

    A sorted file makes it easier to spot trends and anomalies in the data.

    Equivalents by Operating System:

    • Linux Ubuntu: sort is available by default.
    • macOS: sort is also available by default.
    • Windows:
      • Option 1: Use the native sort command, though its options are limited.
        sort urls.log /O urls_sorted.log
      • Option 2: Use sort via Git Bash, Cygwin, or WSL for full compatibility.

    4. uniq

    uniq is used to identify or eliminate duplicates in a sorted file. To count the number of occurrences of each URL:

    Example:

    sort urls.log | uniq -c > urls_count.log

    This command sorts the URLs and then counts how many times each URL appears, which is essential for identifying the most visited pages by crawlers.

    Equivalents by Operating System:

    • Linux Ubuntu: uniq is available by default.
    • macOS: uniq is also available by default.
    • Windows:
      • Option 1: Use uniq via Git Bash, Cygwin, or WSL.
      • Option 2: Use PowerShell for a similar functionality.
        Get-Content urls.log | Sort-Object | Group-Object | ForEach-Object {
            "$($_.Count) $($_.Name)"
        } | Out-File urls_count.log

    5. wc

    The wc (word count) command is used to count the number of lines, words, and characters.

    Example:

    wc -l access.log

    The -l parameter displays the number of lines, giving you an idea of the total volume of recorded traffic.

    Equivalents by Operating System:

    • Linux Ubuntu: wc is available by default.
    • macOS: wc is also available by default.
    • Windows:
      • Option 1: Use find /c /v "" to count the lines.
        find /c /v "" access.log
      • Option 2: Use wc via Git Bash, Cygwin, or WSL.

    Conclusion

    Mastering these command lines allows you to efficiently analyze your server logs and gain valuable insights for your SEO strategy. By understanding how search engine crawlers interact with your site, you can optimize your content and improve your online visibility.

    Tip: Depending on your operating system, some commands may require the installation of additional tools or the use of specific environments like PowerShell on Windows or installing WSL to benefit from a complete Linux environment.

    Feel free to deepen your knowledge of these tools to make the most of your log data, regardless of the system you use.

  • Analyse de log SEO : Les 5 lignes de commande indispensables

    Dans le monde du référencement naturel (SEO), l’analyse des logs serveurs est une étape cruciale pour comprendre le comportement des robots d’exploration et optimiser la visibilité de votre site web. Les fichiers de logs fournissent des informations précieuses sur la manière dont les moteurs de recherche interagissent avec votre site. Pour exploiter pleinement ces données, certaines lignes de commande sont indispensables. Voici les 5 commandes essentielles pour maîtriser l’analyse de logs SEO, ainsi que leurs équivalents sous Linux Ubuntu, macOS et Windows.

    1. grep

    La commande grep est utilisée pour rechercher des motifs spécifiques dans des fichiers texte. Elle est particulièrement utile pour extraire des lignes contenant un terme précis.

    Exemple :

    grep 'Googlebot' access.log > googlebot.log

    Cette commande crée un fichier googlebot.log contenant uniquement les entrées où Googlebot a accédé à votre site, facilitant ainsi l’analyse ciblée.

    Équivalents par système d’exploitation :

    • Linux Ubuntu : grep est disponible par défaut.
    • macOS : grep est également disponible par défaut.
    • Windows :
      • Option 1 : Utiliser findstr, la commande native Windows.
        findstr "Googlebot" access.log > googlebot.log
      • Option 2 : Installer un environnement comme Git Bash, Cygwin ou WSL (Windows Subsystem for Linux) pour utiliser grep.

    2. awk

    awk est un puissant outil de traitement de texte qui permet de manipuler des données structurées. Il est idéal pour extraire des colonnes spécifiques dans un fichier log.

    Exemple :

    awk '{print $7}' access.log > urls.log

    Ici, $7 représente la septième colonne du fichier log, qui correspond généralement à l’URL demandée. Cette commande extrait toutes les URLs et les enregistre dans urls.log.

    Équivalents par système d’exploitation :

    • Linux Ubuntu : awk est disponible par défaut.
    • macOS : awk est également disponible par défaut.
    • Windows :
      • Option 1 : Utiliser awk via Git Bash, Cygwin ou WSL.
      • Option 2 : Utiliser PowerShell pour des opérations similaires.
        Select-String -Path access.log | ForEach-Object {
            $columns = $_.Line -split ' '
            $columns[6] >> urls.log
        }

    3. sort

    La commande sort trie les lignes d’un fichier. Après avoir extrait les URLs, vous pouvez les trier pour faciliter l’analyse.

    Exemple :

    sort urls.log > urls_sorted.log

    Un fichier trié permet de repérer plus aisément les tendances et les anomalies dans les données.

    Équivalents par système d’exploitation :

    • Linux Ubuntu : sort est disponible par défaut.
    • macOS : sort est également disponible par défaut.
    • Windows :
      • Option 1 : Utiliser la commande native sort, bien que ses options soient limitées.
        sort urls.log /O urls_sorted.log
      • Option 2 : Utiliser sort via Git Bash, Cygwin ou WSL pour une compatibilité totale.

    4. uniq

    uniq sert à identifier ou éliminer les doublons dans un fichier trié. Pour compter le nombre d’occurrences de chaque URL :

    Exemple :

    sort urls.log | uniq -c > urls_count.log

    Cette commande trie les URLs puis compte le nombre de fois où chaque URL apparaît, ce qui est essentiel pour identifier les pages les plus visitées par les robots.

    Équivalents par système d’exploitation :

    • Linux Ubuntu : uniq est disponible par défaut.
    • macOS : uniq est également disponible par défaut.
    • Windows :
      • Option 1 : Utiliser uniq via Git Bash, Cygwin ou WSL.
      • Option 2 : Utiliser PowerShell pour une fonctionnalité similaire.
        Get-Content urls.log | Sort-Object | Group-Object | ForEach-Object {
            "$($_.Count) $($_.Name)"
        } | Out-File urls_count.log

    5. wc

    La commande wc (word count) est utilisée pour compter le nombre de lignes, de mots et de caractères.

    Exemple :

    wc -l access.log

    Le paramètre -l affiche le nombre de lignes, vous donnant une idée du volume total de trafic enregistré.

    Équivalents par système d’exploitation :

    • Linux Ubuntu : wc est disponible par défaut.
    • macOS : wc est également disponible par défaut.
    • Windows :
      • Option 1 : Utiliser find /c /v "" pour compter les lignes.
        find /c /v "" access.log
      • Option 2 : Utiliser wc via Git Bash, Cygwin ou WSL.

    Conclusion

    Maîtriser ces lignes de commande vous permet d’analyser efficacement les logs de votre serveur et d’obtenir des insights précieux pour votre stratégie SEO. En comprenant comment les robots des moteurs de recherche interagissent avec votre site, vous pouvez optimiser votre contenu et améliorer votre visibilité en ligne.

    Astuce : Selon votre système d’exploitation, certaines commandes peuvent nécessiter l’installation d’outils supplémentaires ou l’utilisation d’environnements spécifiques comme PowerShell sur Windows ou l’installation de WSL pour bénéficier d’un environnement Linux complet.

    N’hésitez pas à approfondir vos connaissances sur ces outils pour tirer le meilleur parti de vos données de logs, quel que soit le système que vous utilisez.

  • Cache Google: Comment voir une page en cache dans Google ?

    Cache Google: Comment voir une page en cache dans Google ?

    La commande pour obtenir la page en cache

    Pour visualiser une version en cache d’une page web via Google, il faut à présent ajouter le paramètre q=cache:url_de_la_page, ce qui donne par exemple: https://www.google.com/search?q=cache:quentinadt.com. En effet, Google a retiré le lien qui permettait de le faire directement depuis la page de résultat. Cette méthode rapide vous permet d’accéder à la version en cache de n’importe quel site web indexé par Google, à condition que la directive robots:”noarchive” ne soit pas présente.

    Comment voir la version texte d’une page en cache dans Google ?

    L’ajout de ces paramètres en fin d’URL permet de voir la version texte de la page en cache dans Google: &num=1&strip=1&vwsrc=0

    Exemple: https://www.google.com/search?q=cache:quentinadt.com&num=1&strip=1&vwsrc=0

    Pourquoi accéder à une page en cache ?

    Il existe plusieurs raisons pour lesquelles vous pourriez vouloir accéder à la version en cache d’une page web. Parfois, un site peut être temporairement inaccessible en raison de problèmes techniques, de mises à jour, ou parce qu’il est en cours de maintenance. Le cache Google offre alors une solution alternative pour accéder au contenu. De plus, consulter une page en cache peut également révéler des informations qui ont été récemment modifiées ou supprimées du site en direct.

  • Introducing TheKeyword – Revolutionizing SEO with Daily Keyword Tracking

    Introducing TheKeyword – Revolutionizing SEO with Daily Keyword Tracking

    The Future of SEO Is Here: TheKeyword Delivers Daily Google SERP Rankings Straight to Your Inbox

    In the fast-paced world of digital marketing and search engine optimization (SEO), staying ahead of the curve is not just an option – it’s a necessity. Today marks a significant milestone in this journey as we unveil TheKeyword, an innovative, user-friendly tool designed to transform how website owners, SEO consultants, and web marketing professionals track and analyze their crucial keyword rankings in Google’s Search Engine Results Pages (SERPs).

    What is TheKeyword? TheKeyword is a free, cutting-edge tool that simplifies the process of tracking a website’s ranking for a crucial keyword in Google SERPs. By providing daily updates directly to your mailbox, TheKeyword eliminates the repetitive task of manual rank checking. This tool is not only about efficiency but also about delivering precise insights that empower users to make data-driven decisions.

    Why Track Keywords? In the realm of SEO, understanding your website’s performance in SERPs is paramount. Keyword tracking is the cornerstone of this understanding, offering insights into competitive positioning, visibility, and opportunities for improvement. With TheKeyword, you gain a strategic advantage, enabling you to adapt swiftly to market changes and maintain a competitive edge.

    How Does TheKeyword Work? TheKeyword operates with a focus on relevance and accuracy. It checks your keyword’s ranking based on your specific country and language, ensuring that the insights you receive are tailored to your unique market. This automated process sends daily updates to your mailbox, saving you time and effort.

    Signing Up is Simple Getting started with TheKeyword is straightforward. Visit the website, enter the keyword you wish to track, and provide your email address. That’s it – you’ll begin receiving comprehensive updates on your keyword’s performance each morning.

    Key Benefits of Using TheKeyword

    1. Time and Resource Efficiency: Automate tracking and reporting to focus on strategic decisions rather than daily manual checks.
    2. Competitive Edge: Stay informed about your ranking fluctuations, enabling quick response and strategic adjustments.
    3. SEO Improvement: Identify areas of improvement in your website’s SEO strategy based on reliable data.
    4. Data-Driven Decisions: Utilize precise performance data to optimize content and enhance your website’s SERP visibility.

    Who Benefits from TheKeyword?

    1. Website Owners: Monitor the ranking of crucial keywords and refine your SEO strategies for better visibility.
    2. SEO Consultants: Provide clients with accurate, timely data and insights for improved website performance.
    3. Web Marketing Professionals: Stay informed about your website’s SEO health and leverage opportunities for growth.

    Testimonials from Industry Experts

    • Quentin Adt, SEO Consultant: “I communicate ranking changes to my clients more quickly.”
    • Guillaume Main, Website Owner: “I waste less time on SERPs details and stay focused on what’s really profitable.”
    • Mariana Cacic, Web Marketing Consultant: “I feel alerted of any loss super easy and quickly. It is straightforward.”
    • Gilbert Val, SEO Consultant: “I immediately know when there is a loss of ranking.”

    About TheKeyword

    Created by Quentin ADT, a seasoned Freelance SEO Consultant, TheKeyword is more than a tool – it’s a partner in your SEO journey. For further information or to start tracking your keyword today, visit TheKeyword.

    Contact Information:

    Website: https://keyword.ttfb.ovh/

    Follow us on Twitter: Quentin_Adt

  • Announcing the Launch of NgramExtractor: A Game-Changer for SEO & SEA

    Today, we are thrilled to announce the launch of our new tool, NgramExtractor, a unique, innovative solution designed specifically to enhance your Search Engine Optimization (SEO) and SEA / Google Ads / PPC efforts. With this tool, you can delve deep into the world of ngrams and extract valuable insights to guide your content strategy.

    What is an Ngram?

    An ngram is a contiguous sequence of n items from a given sample of text or speech. The ‘n’ in ngram refers to the number of words or tokens involved. For example, in the sentence “The cat sat on the mat,” “The cat” is a 2-gram (also known as a bigram), while “The cat sat” is a 3-gram (or trigram), and so on.

    Why are Ngrams Important in SEO?

    Ngrams hold significant importance in SEO as they allow for a deeper understanding of keyword usage and trends. They can reveal patterns that might not be evident when examining single keywords, providing a more holistic view of the context in which words are used. This can be crucial for creating content that resonates with your target audience and performs well in search engine results.

    Understanding Your Audience

    By analyzing the ngrams used in search queries that lead users to your website, you can gain insights into the specific language your audience uses. This can help you tailor your content more effectively to match their search behaviors and expectations.

    Improving Your Content

    Ngrams can also provide valuable input for your content creation process. By identifying common ngrams related to your business or industry, you can incorporate these phrases into your content to make it more relevant and engaging.

    Features of NgramExtractor

    The NgramExtractor is packed with features that make it a valuable addition to your SEO toolkit. It offers:

    • Advanced Ngram Analysis: With NgramExtractor, you can perform deep and detailed ngram analyses on any text content. This will help you identify the most common and relevant ngrams for your specific needs.
    • Customizable Ngram Range: The tool allows you to specify the ngram range for your analysis, giving you the flexibility to focus on bigrams, trigrams, or any other range of interest.
    • Weight Attribution: Ngram Extractor tells you how much weight has an n-gram has, based on the clicks it’s clicks, impressions or conversion.

    Who Should Use NgramExtractor?

    NgramExtractor is a tool designed for anyone involved in SEO, SEA, content creation, and digital marketing. Whether you’re an SEO professional looking to optimize your website, a content creator seeking to make your articles more engaging, or a digital marketer aiming to understand your audience better, NgramExtractor can provide valuable insights to inform your strategy.

    How to Use NgramExtractor

    Using NgramExtractor is straightforward and intuitive. Here’s a simple guide to get you started:

    1. Visit www.ngramextractor.com.
    2. Enter the text you wish to analyze in the provided field.
    3. use this format to analyse also the clicks, impressions or conversions: Search Terms | (Clicks OR Impressions OR Conversions).
    4. Select the ngram range you’re interested in.
    5. Click the “Submit” button to start the analysis.
    6. Review the visualized results and use the insights to guide your content and SEO strategies.

    With these simple steps, you can quickly and efficiently analyze any piece of text for ngrams and gain valuable insights into the language and phrases that will resonate with your audience and boost your SEO performance.

  • ChatGPT: Le guide des bonnes pratiques

    Table of Contents

    Six stratégies pour obtenir de meilleurs résultats

    Rédigez des instructions claires

    ChatGPT ne peut pas lire dans vos pensées. Si les réponses sont trop longues, demandez des réponses brèves. Si les résultats sont trop simples, demandez une rédaction de niveau expert. Si vous n’aimez pas le format, montrez le format que vous aimeriez voir. Moins ChatGPT doit deviner ce que vous voulez, plus vous aurez de chances de l’obtenir.

    Tactiques:

    • Incluez des détails dans votre requête pour obtenir des réponses plus pertinentes
    • Demander au modèle d’adopter un personnage
    • Utilisez des délimiteurs (ex: ### ) pour indiquer clairement les parties distinctes du prompt
    • Spécifier les étapes requises pour terminer une tâche
    • Donnez des exemples
    • Spécifiez la longueur souhaitée de la sortie

    Fournir un texte de référence

    ChatGPT peut inventer en toute confiance de fausses réponses, en particulier lorsqu’ils sont interrogés sur des sujets ésotériques ou sur des citations et des URL. De la même manière qu’une feuille de notes peut aider un étudiant à mieux réussir un test, fournir un texte de référence aux GPT peut aider à répondre avec moins de fabrications.

    Tactiques:

    • Demandez au modèle de répondre à l’aide d’un texte de référence
    • Demandez au modèle de répondre avec des citations d’un texte de référence

    Divisez les tâches complexes en sous-tâches plus simples

    Les tâches complexes ont tendance à avoir des taux d’erreur plus élevés que les tâches plus simples. De plus, les tâches complexes peuvent souvent être redéfinies comme un flux de tâches plus simples dans lequel les sorties des tâches précédentes sont utilisées pour construire les entrées des tâches ultérieures.

    Tactiques:

    • Utiliser la classification d’intention pour identifier les instructions les plus pertinentes pour une requête utilisateur
    • Pour les applications de dialogue qui nécessitent de très longues conversations, résumez ou filtrez le dialogue précédent
    • Résumez de longs documents par morceaux et construisez un résumé complet de manière récursive

    Donnez à ChatGPT le temps de “réfléchir”

    Si on vous demande de multiplier 17 par 28, vous ne le saurez peut-être pas instantanément, mais vous pourrez toujours le résoudre avec le temps. De même, ChatGPT fait plus d’erreurs de raisonnement lorsqu’il essaie de répondre tout de suite, plutôt que de prendre du temps pour élaborer une réponse. Demander une chaîne de raisonnement avant une réponse peut aider les GPT à se frayer un chemin vers des réponses correctes de manière plus fiable.

    Tactiques:

    • Demandez au modèle de trouver sa propre solution avant de se précipiter vers une conclusion
    • Utilisez un monologue intérieur ou une séquence de requêtes pour masquer le processus de raisonnement du modèle
    • Demandez au modèle s’il a manqué quelque chose lors des passes précédentes

    Utiliser des outils externes

    Compenser les faiblesses de ChatGPT en l’alimentant des sorties d’autres outils. Par exemple, un système de récupération de texte peut indiquer à ChatGPT les documents pertinents. Un moteur d’exécution de code peut aider ChatGPT à faire des calculs et à exécuter du code. Si une tâche peut être effectuée de manière plus fiable ou efficace par un outil plutôt que par ChatGPT, déchargez-la pour tirer le meilleur parti des deux.

    Tactiques:

    • Utiliser la recherche basée sur les intégrations pour mettre en œuvre une récupération de connaissances efficace
    • Utiliser l’exécution de code pour effectuer des calculs plus précis ou appeler des API externes

    Tester systématiquement les changements

    Améliorer les performances est plus facile si vous pouvez les mesurer. Dans certains cas, une modification d’un prompt permet d’obtenir de meilleures performances sur quelques exemples isolés, mais entraîne une dégradation des performances globales sur un ensemble d’exemples plus représentatif. Par conséquent, pour être sûr qu’un changement est net positif pour les performances, il peut être nécessaire de définir une suite de tests complète (également appelée « eval »).

    Tactiques:

    • Évaluer les sorties du modèle en se référant aux réponses de référence

    Détail des tactiques

    Chacune des stratégies énumérées ci-dessus peut être utilisée avec des tactiques spécifiques. Ces tactiques sont destinées à fournir des idées de choses à essayer. N’hésitez pas à tester d’autres tactiques, car il est tout simplement impossible de toute les lister: à chaque prompt ses subtilités !

    Stratégie : Rédigez des instructions claires


    Tactique : incluez des détails dans votre requête pour obtenir des réponses plus pertinentes


    Afin d’obtenir une réponse très pertinente, assurez-vous que les demandes fournissent tous les détails ou le contexte importants. Sinon, vous laissez au modèle le soin de deviner ce que vous voulez dire.

    Pire promptMeilleur prompt
    Comment ajouter des nombres dans Excel ?Comment ajouter une ligne de montants en dollars dans Excel ? Je veux le faire automatiquement pour une feuille entière de lignes avec tous les totaux se terminant à droite dans une colonne appelée “Total”.
    Qui est président ?Qui était le président du Mexique en 2021 et à quelle fréquence les élections ont-elles lieu ?
    Écrire du code pour calculer la suite de Fibonacci.Écrivez une fonction TypeScript pour calculer efficacement la suite de Fibonacci. Commentez généreusement le code pour expliquer ce que fait chaque élément et pourquoi il est écrit de cette façon.
    Résumez les notes de réunion.Résumez les notes de réunion en un seul paragraphe. Ensuite, rédigez une liste des conférenciers et de chacun de leurs points clés. Enfin, dressez la liste des prochaines étapes ou actions suggérées par les intervenants, le cas échéant.

    Tactique : demander au modèle d’adopter un personnage

    Le “message système”, accessible aux utilisateurs de l’API, peut être utilisé pour spécifier le persona utilisé par le modèle dans ses réponses.

    SystèmeLorsque je demande de l’aide pour écrire quelque chose, vous répondez avec un document qui contient au moins une blague ou un commentaire ludique dans chaque paragraphe.
    UtilisateurÉcrivez une note de remerciement à mon fournisseur de boulons en acier pour avoir livré la livraison à temps et dans un court délai. Cela nous a permis de livrer une commande importante.

    Tactique : utilisez des délimiteurs pour indiquer clairement des parties distinctes de l’entrée

    Les délimiteurs tels que les guillemets triples, les balises XML, les titres de section, etc. peuvent aider à délimiter les sections de texte à traiter différemment.

    UTILISATEURRésumez le texte délimité par des triples guillemets avec un haïku. “””insérer du texte ici”””
    Prompt avec les triple guillemets
    SYSTÈMEVous recevrez une paire d’articles (délimités par des balises XML) sur le même sujet. Résumez d’abord les arguments de chaque article. Ensuite, indiquez lequel d’entre eux présente un meilleur argument et expliquez pourquoi.
    UTILISATEUR<article> insérer le premier article ici </article> <article> insérer le deuxième article ici </article>
    Prompt avec une balise <article> créée pour l’occasion
    SYSTÈMEVous recevrez un résumé de thèse et un titre suggéré pour celui-ci. Le titre de la thèse doit donner au lecteur une bonne idée du sujet de la thèse, mais doit également être accrocheur. Si le titre ne répond pas à ces critères, proposez 5 alternatives.
    UTILISATEURRésumé : insérer le résumé ici Titre : insérer le titre ici
    Exemple de prompt avec 2 délimiteurs: “résumé :” et “titre :”

    Pour des tâches simples telles que celles-ci, l’utilisation de délimiteurs peut ne pas faire de différence dans la qualité de sortie. Cependant, plus une tâche est complexe, plus il est important de désambiguïser les détails de la tâche. 

    Tactique : Spécifiez les étapes requises pour accomplir une tâche

    Certaines tâches sont mieux spécifiées comme une séquence d’étapes. L’écriture explicite des étapes peut faciliter leur suivi par le modèle.

    SYSTÈMEUtilisez les instructions étape par étape suivantes pour répondre aux entrées de l’utilisateur. Étape 1 – L’utilisateur vous fournira du texte entre guillemets triples. Résumez ce texte en une phrase avec un préfixe indiquant “Résumé :”. Étape 2 – Traduisez le résumé de l’étape 1 en espagnol, avec un préfixe indiquant “Traduction : “.
    UTILISATEUR“””insérer du texte ici”””
    Prompt avec guillemet triple comme séparateur et 2 étapes

    Tactique : fournir des exemples

    Fournir des instructions générales qui s’appliquent à tous les exemples est généralement plus efficace que de démontrer toutes les permutations d’une tâche par exemple, mais dans certains cas, fournir des exemples peut être plus facile. Par exemple, si vous souhaitez que le modèle copie un style particulier de réponse aux requêtes des utilisateurs qui est difficile à décrire explicitement. Ceci est connu sous le nom de prompt “few-shot”.

    L’exemple ci-dessous fait appel à 3 “personnes”: Le Système, l’Utilisateur et l’Assistant. Il faut impérativement passer par l’API ou le playground pour ce prompt “tripartite”:

    SYSTÈMERépondez dans un style cohérent.
    UTILISATEURApprends-moi la patience.
    ASSISTANTLa rivière qui creuse la vallée la plus profonde coule d’une modeste source ; la symphonie la plus grandiose naît d’une seule note ; la tapisserie la plus complexe commence par un fil solitaire.
    UTILISATEURParlez-moi de l’océan.
    Exemple de réponse, qui tient compte du style donné par l’assistantL’océan est une vaste étendue d’eau salée qui couvre plus de 70 % de la surface de la Terre. Sa profondeur et son étendue recèlent d’innombrables mystères et merveilles, de la vie grouillante qui remplit ses eaux aux puissants courants qui façonnent le climat de notre planète. La beauté de l’océan est à la fois tranquille et féroce, invitant les explorateurs à plonger dans ses profondeurs tout en nous rappelant la puissance impressionnante de la nature. Autant qu’il est un terrain de jeu et une ressource pour les humains, l’océan est aussi un écosystème délicat qui doit être nourri et protégé au profit de toute vie sur Terre.
    Prompt tripartite guidé à l’aide d’un exemple. A utiliser en mode API ou sur le Playground.

    Tactique : Spécifiez la longueur souhaitée de la sortie

    Vous pouvez demander au modèle de produire des sorties d’une longueur cible donnée. La longueur de sortie ciblée peut être spécifiée en termes de nombre de mots, de phrases, de paragraphes, de puces, etc. Notez cependant que demander au modèle de générer un nombre spécifique de mots ne fonctionne pas avec une grande précision. Le modèle peut générer de manière plus fiable des sorties avec un nombre spécifique de paragraphes ou de puces.

    UTILISATEURRésumez le texte délimité par des triples guillemets en 50 mots environ. “””insérer du texte ici”””
    UTILISATEURRésumez le texte délimité par des triples guillemets en 2 paragraphes. “””insérer du texte ici”””
    UTILISATEURRésumez le texte délimité par des triples guillemets en 3 puces. “””insérer du texte ici”””

    Stratégie : fournir un texte de référence

    Tactique : demander au modèle de répondre à l’aide d’un texte de référence

    Si nous pouvons fournir à un modèle des informations fiables et pertinentes dans le prompt, nous pouvons demander au modèle d’utiliser les informations fournies pour composer sa réponse.

    SYSTÈMEUtilisez les articles fournis délimités par des triples guillemets pour répondre aux questions. Si la réponse ne se trouve pas dans les articles, écrivez « Je n’ai pas trouvé de réponse ».
    UTILISATEUR<insérer les articles, chacun délimité par des triples guillemets> Question : <insérer la question ici>

    Étant donné que ChatGPT a des fenêtres de contexte limitées (il est limité en nombre de token à analyser), pour appliquer cette tactique, nous avons besoin d’un moyen de rechercher dynamiquement des informations pertinentes pour la question posée. Les intégrations (embeddings en anglais) peuvent être utilisées pour implémenter une récupération de connaissances efficace. Voir la tactique “Utiliser la recherche basée sur les intégrations pour implémenter une récupération de connaissances efficace” pour plus de détails sur la façon de l’implémenter.

    Tactique : demander au modèle de répondre avec des citations d’un texte de référence

    Si l’entrée a été complétée par des connaissances pertinentes, il est simple de demander au modèle d’ajouter des citations à ses réponses en référençant des passages des documents fournis. Notez que les citations dans la sortie peuvent ensuite être vérifiées par programme en faisant correspondre les chaînes dans le document fourni.

    SYSTÈMEVous recevrez un document délimité par des triples guillemets et une question. Votre tâche est de répondre à la question en utilisant uniquement le document fourni et de citer le(s) passage(s) du document utilisé pour répondre à la question. Si le document ne contient pas les informations nécessaires pour répondre à cette question, écrivez simplement : “Informations insuffisantes”. Si une réponse à la question est fournie, elle doit être annotée avec une citation. Utilisez le format suivant pour citer les passages pertinents ({“citation”: …}).
    UTILISATEUR“””<insérer le document ici>””” <insérer la question ici>
    Prompt qui demande de répondre uniquement si la réponse est dans le document fourni.

    Exemple:

    Stratégie : diviser les tâches complexes en sous-tâches plus simples

    Tactique : Utiliser la classification des intentions pour identifier les instructions les plus pertinentes pour une requête utilisateur

    Pour les tâches dans lesquelles de nombreux ensembles d’instructions indépendants sont nécessaires pour gérer différents cas, il peut être avantageux de commencer par classer le type de requête et d’utiliser cette classification pour déterminer les instructions nécessaires. Ceci peut être réalisé en définissant des catégories fixes et des instructions de codage en dur pertinentes pour la gestion des tâches dans une catégorie donnée. Ce processus peut également être appliqué de manière récursive pour décomposer une tâche en une séquence d’étapes. L’avantage de cette approche est que chaque requête ne contiendra que les instructions nécessaires pour effectuer l’étape suivante d’une tâche, ce qui peut entraîner des taux d’erreur inférieurs par rapport à l’utilisation d’une seule requête pour effectuer l’ensemble de la tâche. Cela peut également entraîner une réduction des coûts, car les invites plus volumineuses coûtent plus cher à exécuter ( voir les informations de tarification ).

    Supposons par exemple que pour une application de service client, les requêtes puissent être utilement classées comme suit :

    SYSTÈMEVous recevrez des requêtes de service à la clientèle. Classez chaque requête en une catégorie principale et une catégorie secondaire. Fournissez votre sortie au format json avec les clés : primaire et secondaire.
    Catégories principales : facturation, support technique, gestion de compte ou demande générale.
    Catégories secondaires de facturation :
    – Désabonnement ou mise à niveau
    – Ajouter un mode de paiement
    – Explication des frais
    – Contester des frais

    Catégories secondaires du support technique :
    – Dépannage
    – Compatibilité des appareils
    – Mises à jour logicielles

    Catégories secondaires de gestion du compte :
    – Réinitialisation du mot de passe
    – Mettre à jour les informations personnelles
    – Fermer le compte
    – Sécurité du compte

    Catégories secondaires d’enquête générale :
    – Informations sur le produit
    – Prix
    – Commentaires
    – Parler à un humain
    UTILISATEURJe dois remettre mon internet en marche.

    Exemple:

    En fonction de la classification de la requête du client, un ensemble d’instructions plus spécifiques peut être fourni à un modèle GPT pour gérer les étapes suivantes. Par exemple, supposons que le client ait besoin d’aide pour le “dépannage”.

    SYSTÈMEVous recevrez des demandes de service client qui nécessitent un dépannage dans un contexte de support technique. Aidez l’utilisateur en :
    – Lui demandant de vérifier que tous les câbles vers/depuis le routeur sont connectés. Notez qu’il est courant que les câbles se détachent avec le temps.
    – Si tous les câbles sont connectés et que le problème persiste, demandez-lui quel modèle de routeur il utilise
    – Vous allez maintenant lui indiquer comment redémarrer son appareil :
    — Si le numéro de modèle est MTD-327J, conseillez-lui d’appuyer sur le bouton rouge et maintenez-le enfoncé pendant 5 secondes, puis attendez 5 minutes avant de tester la connexion.
    — Si le numéro de modèle est MTD-327S, conseillez-leur de le débrancher et de le rebrancher, puis attendez 5 minutes avant de tester la connexion.
    – Si le problème du client persiste après avoir redémarré l’appareil et attendu 5 minutes, connectez-le à l’assistance informatique en affichant {« Assistance informatique demandée »}.
    – Si l’utilisateur commence à poser des questions sans rapport avec ce sujet, confirmez s’il souhaite mettre fin au chat en cours sur le dépannage et classez sa demande selon le schéma suivant :

    < insérer le schéma de classification primaire/secondaire ci-dessus >
    UTILISATEURJe dois remettre mon internet en marche.

    Exemple:

    Notez que le modèle a été chargé d’émettre des chaînes spéciales pour indiquer quand l’état de la conversation change. Cela nous permet de transformer notre système en une machine à états où l’état détermine quelles instructions sont injectées. En gardant une trace de l’état, des instructions pertinentes à cet état, et éventuellement des transitions d’état autorisées à partir de cet état, nous pouvons mettre des garde-fous autour de l’expérience utilisateur qui seraient difficiles à atteindre avec une approche moins structurée.

    Tactique : pour les applications de dialogue qui nécessitent de très longues conversations, résumez ou filtrez le dialogue précédent

    ChatGPT ayant une longueur de contexte fixe, le dialogue entre un utilisateur et un assistant dans lequel toute la conversation est incluse dans la fenêtre de contexte ne peut pas se poursuivre indéfiniment.

    Il existe diverses solutions de contournement à ce problème, dont l’une consiste à résumer les tours précédents de la conversation. Une fois que la taille de l’entrée atteint une longueur de seuil prédéterminée, cela peut déclencher une requête qui résume une partie de la conversation et le résumé de la conversation précédente peut être inclus dans le message système. Alternativement, la conversation précédente pourrait être résumée de manière asynchrone en arrière-plan tout au long de la conversation entière.

    Une solution alternative consiste à sélectionner dynamiquement les parties précédentes de la conversation qui sont les plus pertinentes pour la requête en cours. Voir la tactique “Utiliser la recherche basée sur les incorporations pour implémenter une récupération de connaissances efficace” .

    Tactique : Résumez les documents longs par morceaux et construisez un résumé complet de manière récursive

    Étant donné que ChatGPT a une longueur de contexte fixe, ils ne peuvent pas être utilisés pour résumer un texte plus long que la longueur du contexte moins la longueur du résumé généré dans une seule requête. En d’autres termes, si vous demandez à ChatGPT de résumer un texte très long, il ne peut pas le faire en une seule fois si le texte est plus long que ce qu’il peut se rappeler. De plus, il doit aussi garder de l’espace pour le résumé qu’il va créer. Donc, si le texte est trop long, il ne pourra pas tout résumer en une seule demande.

    Pour résumer un document très long tel qu’un livre, nous pouvons utiliser une séquence de requêtes pour résumer chaque section du document. Les résumés de section peuvent être concaténés et résumés en produisant des résumés de résumés. Ce processus peut se poursuivre de manière récursive jusqu’à ce qu’un document entier soit résumé. S’il est nécessaire d’utiliser des informations sur les sections précédentes afin de donner un sens aux sections ultérieures, une autre astuce qui peut être utile consiste à inclure un résumé du texte qui précède un point donné du livre tout en résumant le contenu à ce point. L’efficacité de cette procédure pour résumer des livres a été étudiée dans des recherches antérieures d’OpenAI utilisant des variantes de GPT-3.

    Stratégie : donner à ChatGPT le temps de “réfléchir”

    Tactique : demandez au modèle de trouver sa propre solution avant de se précipiter vers une conclusion

    Parfois, nous obtenons de meilleurs résultats lorsque nous demandons explicitement au modèle de raisonner à partir des premiers principes avant d’arriver à une conclusion. Supposons, par exemple, que nous souhaitions qu’un modèle évalue la solution d’un élève à un problème mathématique. La façon la plus évidente d’aborder cela est de simplement demander au modèle si la solution de l’élève est correcte ou non.

    SYSTÈMEDéterminez si la solution de l’élève est correcte ou non.
    UTILISATEURÉnoncé du problème : Je construis une installation d’énergie solaire et j’ai besoin d’aide pour établir les finances.
    – Le terrain coûte 100€/m2
    – Je peux acheter des panneaux solaires pour 250€/m2
    – J’ai négocié un contrat d’entretien qui me coûtera 100k€ par an, et un supplément de 10€/m2

    Quel est le coût total pour le première année d’exploitation en fonction du nombre de m2.

    Solution de l’étudiant :
    Soit x la taille de l’installation en m2.
    1. Coût du terrain : 100x
    2. Coût du panneau solaire : 250x
    3. Coût de maintenance : 100 000 + 100x

    Coût total : 100x + 250x + 100 000 + 100x = 450x + 100 000
    ASSISTANTLa solution de l’élève est correcte.

    Mais la solution de l’élève n’est en fait pas correcte ! Nous pouvons faire en sorte que le modèle le remarque avec succès en invitant le modèle à générer d’abord sa propre solution.

    SYSTÈMETrouvez d’abord votre propre solution au problème. Comparez ensuite votre solution à la solution de l’élève et évaluez si la solution de l’élève est correcte ou non. Ne décidez pas si la solution de l’élève est correcte tant que vous n’avez pas résolu le problème vous-même.
    UTILISATEURÉnoncé du problème : Je construis une installation d’énergie solaire et j’ai besoin d’aide pour établir les finances.
    – Le terrain coûte 100€/m2
    – Je peux acheter des panneaux solaires pour 250€/m2
    – J’ai négocié un contrat d’entretien qui me coûtera 100k€ par an, et un supplément de 10€/m2

    Quel est le coût total pour le première année d’exploitation en fonction du nombre de m2.

    Solution de l’étudiant :
    Soit x la taille de l’installation en m2.
    1. Coût du terrain : 100x
    2. Coût du panneau solaire : 250x
    3. Coût de maintenance : 100 000 + 100x

    Coût total : 100x + 250x + 100 000 + 100x = 450x + 100 000
    ASSISTANTSoit x la taille de l’installation en pieds carrés.
    1. Coût du terrain : 100x
    2. Coût du panneau solaire : 250x
    3. Coût d’entretien : 100 000 + 10x
    Coût total : 100x + 250x + 100 000 + 10x = 360x + 100 000

    La solution de l’élève est incorrecte.
    Il a fait une erreur dans le calcul du coût de maintenance, en utilisant 100x au lieu de 10x.
    Le coût total correct pour la première année d’exploitation est de 360x + 100 000.



    Tactique : Utiliser un monologue intérieur ou une séquence de requêtes pour masquer le processus de raisonnement du modèle

    La tactique précédente démontre qu’il est parfois important pour le modèle de raisonner en détail sur un problème avant de répondre à une question précise. Pour certaines applications, le processus de raisonnement utilisé par un modèle pour arriver à une réponse finale serait inapproprié à partager avec l’utilisateur. Par exemple, dans les applications de tutorat, nous pouvons souhaiter encourager les étudiants à trouver leurs propres réponses, mais le processus de raisonnement d’un modèle sur la solution de l’étudiant pourrait révéler la réponse à l’étudiant.

    Le monologue intérieur est une tactique qui peut être utilisée pour atténuer cela. L’idée du monologue intérieur est de demander au modèle de placer des parties de la sortie qui sont censées être cachées à l’utilisateur dans un format structuré qui facilite leur analyse. Ensuite, avant de présenter la sortie à l’utilisateur, la sortie est analysée et seule une partie de la sortie est rendue visible.

    SYSTÈMESuivez ces étapes pour répondre aux questions des utilisateurs.

    Étape 1 – Trouvez d’abord votre propre solution au problème. Ne vous fiez pas à la solution de l’élève car elle peut être incorrecte. Placez tout votre travail pour cette étape entre triples guillemets (“””).

    Étape 2 – Comparez votre solution à la solution de l’élève et évaluez si la solution de l’élève est correcte ou non. Joignez tout votre travail pour cette étape entre triples guillemets (“” “).

    Étape 3 – Si l’élève a fait une erreur, déterminez quel indice vous pourriez lui donner sans donner la réponse. Placez tout votre travail pour cette étape entre triples guillemets (“””).

    Étape 4 – Si l’élève a fait une erreur, donnez l’indice de l’étape précédente à l’élève (en dehors des triples guillemets). Au lieu d’écrire “Étape 4 – …” écrivez “Astuce :”.
    UTILISATEURÉnoncé du problème : < insérer l’énoncé du problème >

    Solution de l’élève : < insérer la solution de l’élève >



    Alternativement, cela peut être réalisé avec une séquence de requêtes dans lesquelles toutes sauf la dernière ont leur sortie masquée à l’utilisateur final.
    Premièrement, nous pouvons demander au modèle de résoudre le problème par lui-même. Étant donné que cette requête initiale ne nécessite pas la solution de l’élève, elle peut être omise. Cela offre l’avantage supplémentaire qu’il n’y a aucune chance que la solution du modèle soit biaisée par la solution tentée par l’élève.

    UTILISATEUR< insérer l’énoncé du problème >

    -Ensuite, nous pouvons demander au modèle d’utiliser toutes les informations disponibles pour évaluer l’exactitude de la solution de l’élève.

    SYSTÈMEComparez votre solution à la solution de l’élève et évaluez si la solution de l’élève est correcte ou non.
    UTILISATEURÉnoncé du problème : “””< insérer l’énoncé du problème > “””

    Votre solution : “”” < insérer la solution générée par le modèle >”””

    Solution de l’élève : “”” < insérer la solution de l’élève > “””

    Enfin, nous pouvons laisser le modèle utiliser sa propre analyse pour construire une réponse sous la forme d’un tuteur utile.

    SYSTÈMEVous êtes professeur de mathématiques. Si l’élève a fait une erreur, offrez un indice à l’élève d’une manière qui ne révèle pas la réponse. Si l’élève n’a pas fait d’erreur, offrez-lui simplement un commentaire encourageant.
    UTILISATEURÉnoncé du problème : “””< insérer l’énoncé du problème > “””

    Votre solution : “”” < insérer la solution générée par le modèle >”””

    Solution de l’élève : “”” < insérer la solution de l’élève > “””

    Analyse: “””< insérer analyse générée par le modèle à partir de l’étape précédente >”””



    Tactique : demander au modèle s’il a manqué quelque chose lors des passes précédentes

    Supposons que nous utilisions un modèle pour répertorier des extraits d’une source qui sont pertinents pour une question particulière. Après avoir listé chaque extrait, le modèle doit déterminer s’il doit commencer à en écrire un autre ou s’il doit s’arrêter. Si le document source est volumineux, il est courant qu’un modèle s’arrête trop tôt et ne répertorie pas tous les extraits pertinents. Dans ce cas, de meilleures performances peuvent souvent être obtenues en demandant au modèle des requêtes de suivi pour trouver les extraits qu’il a manqués lors des passes précédentes.

    SYSTÈMEVous recevrez un document délimité par des triples guillemets. Votre tâche consiste à sélectionner des extraits qui se rapportent à la question suivante : “Quels changements de paradigme significatifs se sont produits dans l’histoire de l’intelligence artificielle ?”.

    Assurez-vous que les extraits contiennent tout le contexte pertinent nécessaire pour les interpréter – en d’autres termes, n’extrayez pas de petits extraits qui manquent de contexte important. Fournissez une sortie au format JSON comme suit :

    [{“excerpt”: “…”},

    {“excerpt”: “…”}]
    UTILISATEUR“””< insérer le document ici >”””
    ASSISTANT[{“excerpt”: “le modèle écrit un extrait ici”},

    {“excerpt”: “le modèle écrit un autre extrait ici”}]
    UTILISATEURExiste-t-il des extraits plus pertinents ? Veillez à ne pas répéter des extraits. Assurez-vous également que les extraits contiennent tout le contexte pertinent nécessaire pour les interpréter – en d’autres termes, n’extrayez pas de petits extraits qui manquent de contexte important.

  • 6 conseils pour gagner des awards SEO

    (rédigé avec ChatGPT)

    Lorsque j’évoque les SEO Awards, je ressens toujours une montée d’excitation. En tant que passionné du SEO et de son évolution constante, ces récompenses sont pour moi l’occasion de célébrer les exploits remarquables des acteurs de l’industrie. Si vous êtes une agence SEO, vous savez qu’une présentation convaincante aux SEO Awards peut propulser votre réputation à un tout autre niveau. Dans cet article, je partagerai des conseils essentiels pour préparer une présentation qui se distingue et brille aux yeux du jury.

    Comment présenter efficacement les résultats de vos campagnes SEO

    Nous avons tous entendu dire que les chiffres parlent d’eux-mêmes. Dans le domaine du SEO, cela n’a jamais été aussi vrai. Lorsque vous préparez votre présentation pour les SEO Awards, il est essentiel de mettre en avant les résultats probants de vos campagnes. Mais comment le faire efficacement ?

    Comment aborder les défis de vos campagnes SEO

    Chaque campagne SEO est un parcours semé d’embûches. Comment vous les gérez et les surmontez est une partie cruciale de votre histoire. Lors de votre présentation, n’hésitez pas à partager les difficultés rencontrées pendant la campagne.

    L’importance de la créativité et de l’innovation dans vos campagnes SEO

    Dans un domaine aussi compétitif que le SEO, la créativité et l’innovation sont essentielles pour se démarquer. Lors des SEO Awards, les jurys sont à la recherche de campagnes qui ont rompu avec la norme et tenté quelque chose de nouveau et d’audacieux.

    La qualité de la réalisation : Le détail qui fait la différence

    Réaliser une campagne SEO réussie requiert du savoir-faire et de la persévérance. Cependant, la qualité de la réalisation est un facteur clé souvent négligé.

    L’impression générale de la présentation : Soyez structuré, soyez argumenté

    Il ne suffit pas d’avoir une campagne exceptionnelle pour gagner un SEO Award, il faut aussi savoir la présenter de manière structurée et argumentée.

    Le dossier doit être convaincant

    En fin de compte, votre dossier doit être convaincant. Il ne s’agit pas seulement de cocher toutes les cases, mais de persuader le jury que vous méritez l’award.

    En somme, gagner un SEO Award n’est pas une mince affaire. Il faut des résultats impressionnants, une gestion efficace des défis, une bonne dose de créativité et d’innovation, une réalisation de qualité et une présentation bien structurée. Mais plus que tout, il faut un dossier convaincant qui raconte une histoire qui résonne avec le jury. Alors, êtes-vous prêt à relever le défi ?

    Au travers de ces conseils, je vous ai partagé ce qui, selon mon expérience et mon analyse des précédents SEO Awards, fait la différence.

  • XPath: Compter le nombre de mots

    Pour compter le nombre de mots à l’aide d’une XPAth, nous allons utiliser trois fonctions XPath:

    • string-length: compte les caractères.
    • normalize-space: supprime les espaces de début et de fin d’une chaîne et remplace les successions d’espaces par une seule puis retourne la chaîne qui en résulte.
    • translate: va remplacer les caractères espace

    L’expression XPath effectue les opérations suivantes:

    1. Supprimer les espaces inutiles en trop dans l’article.
    2. Compter le nombre de caractères
    3. Supprimer tous les espaces trouvés dans l’articles
    4. Compter le nombre de caractères
    5. Soustraire les deux résultats
    6. Ajouter “1” au résultat de la soustraction

    Voici l’expression Xpath pour compter le nombre de mots:

    string-length(normalize-space(//*[@id="content"])) - string-length(translate(normalize-space(//*[@id="content"]),' ','')) +1
    

    Il faudra simplement remplacer //*[@id="content"] par votre XPath 🙂

  • Qu’est-ce qu’un contenu de très bonne qualité ?

    (Ce contenu a été rédigé par ChatGPT)

    Un contenu de très bonne qualité est celui qui répond aux attentes du public, fournit des informations précises et pertinentes, et se démarque des autres contenus similaires sur le marché. Pour créer un contenu de qualité supérieure et surpasser vos concurrents, suivez ces conseils :

    • Comprendre votre audience : Identifiez les besoins, les attentes et les préférences de votre public cible. Cela vous permettra de créer du contenu qui leur parle directement et répond à leurs problématiques.
    • Recherche approfondie : Effectuez des recherches approfondies sur le sujet que vous traitez. Cela vous permettra d’obtenir des informations précises et à jour et d’éviter de propager de fausses informations ou des idées obsolètes.
    • Contenu unique et original : Essayez de créer un contenu qui apporte une valeur ajoutée et se distingue des autres contenus existants. Trouvez un angle unique ou une perspective originale pour aborder le sujet.
    • Structure et organisation : Organisez votre contenu de manière logique et cohérente. Utilisez des titres et des sous-titres pour diviser le contenu en sections faciles à digérer, et assurez-vous que chaque section aborde un point spécifique.
    • Style et ton : Adoptez un style et un ton adaptés à votre audience et au sujet que vous traitez. Veillez à ce que le ton soit cohérent tout au long du contenu. Utilisez un langage clair et précis, et évitez le jargon technique inutile.
    • Visuels attrayants : Intégrez des images, des vidéos, des infographies ou d’autres éléments visuels pour illustrer vos propos et rendre votre contenu plus attrayant. Assurez-vous que ces éléments sont de haute qualité et pertinents pour le sujet abordé.
    • Interactivité et engagement : Encouragez l’interaction et l’engagement de vos lecteurs en posant des questions, en sollicitant des commentaires ou en proposant des CTA (Call To Action = appels à l’action). Cela permettra de créer un lien avec votre audience et de susciter leur intérêt pour votre contenu.
    • Analyse de la concurrence : Étudiez les contenus de vos concurrents pour identifier leurs forces et faiblesses. Utilisez ces informations pour améliorer votre propre contenu et vous démarquer sur le marché.
    • Créer une marque forte : Développez une image de marque cohérente et reconnaissable pour votre contenu. Cela permettra à votre public de vous identifier facilement et de se souvenir de vous, augmentant ainsi la probabilité qu’ils consomment et partagent votre contenu.
  • Add column with domain name to CSV file with Python

    A script to add a column containing only the domain name to an existing CSV file. It extract it from a column containing an URL.

    It works with .co.uk and other country code top-level domain.

    Just change “5” by the column containing the URL.

    Also don’t forget to adjust. Here is it setup for semi-colon for input and output. Just change the delimiter by the one you need.

    import csv
    import tldextract
    
    with open('input.csv','r') as csvinput:
        with open('output.csv', 'w') as csvoutput:
            writer = csv.writer(csvoutput, delimiter=';')
            reader = csv.reader(csvinput, delimiter=';')
    
            all = []
            row = next(reader)
            row.append('domain_name')
            all.append(row)
    
            for row in reader:
                #Column of URL is #5
                ext = tldextract.extract(row[5])
                row.append(ext.registered_domain)
                all.append(row)
    
            writer.writerows(all)

  • tldextract: The Best Python Library for Domain Name Extraction

    Why Use tldextract?

    When working with URLs, extracting key components like subdomains, main domains, and suffixes is essential. Whether you’re developing a spam filter, analyzing web traffic, or managing SEO projects, tldextract provides a reliable and ready-to-use solution.

    How Does tldextract Work?

    tldextract uses the Public Suffix List to accurately identify domains and their components. This ensures it remains up-to-date with the latest suffix changes.

    Basic Example

    Here’s a simple example of extracting the registered domain:

    
    import tldextract
    
    ext = tldextract.extract('http://forums.bbc.com')
    print(ext.registered_domain)  # Output: bbc.co.uk
        

    Decomposing a URL

    You can also extract individual components like subdomains, domains, and suffixes:

    
    import tldextract
    
    url = "https://blog.data-science.example.co.uk/path"
    ext = tldextract.extract(url)
    
    print("Subdomain:", ext.subdomain)  # Output: blog.data-science
    print("Domain:", ext.domain)        # Output: example
    print("Suffix:", ext.suffix)        # Output: co.uk
        

    Advantages of tldextract

    • Accuracy: Handles complex domain structures and non-standard URLs.
    • Automatic Updates: Keeps track of changes in the Public Suffix List.
    • Ease of Use: Provides a straightforward API for extracting domain components.

    Use Cases

    tldextract can be applied to various real-world scenarios, including:

    • Filtering and whitelisting domains for security applications.
    • Analyzing web server logs to determine top-level traffic sources.
    • Building SEO tools to classify domains and subdomains.
    • Detecting malicious domains in anti-phishing systems.

    Filtering by Registered Domain

    You can easily filter URLs by registered domain:

    
    import tldextract
    
    url = "https://malicious.example.com"
    ext = tldextract.extract(url)
    
    if ext.registered_domain == "example.com":
        print("URL matches the target domain.")
        

    Optimizing Performance

    If you process a large number of URLs, configure tldextract to use a local copy of the Public Suffix List to avoid network delays:

    
    import tldextract
    
    extractor = tldextract.TLDExtract(cache_dir='/path/to/local/cache', suffix_list_urls=None)
    ext = extractor("https://example.co.uk")
    print(ext.registered_domain)
        

    Learn More

    For more details, visit the official tldextract GitHub repository.

  • Deep diving in Search Console data

    Bellow a list of interesting ressources to play with Search Console data.

    I’ve put in bold what makes the dashboard somehow different.

    Feel free to comment to complete this list.

    Using DataStudio

    Using Google Sheet

    Search Console Explorer Sheet by Hannah Rampton

    Using R

    Average position per Continent analysis by Pascal Schmidt

    google analytics r search console

    Correlations for Clicks, Impressions, and Positions

    correlation google search console R
  • Ecommerce Conversion Rate with Google Analytics API

    To get the ecommerce conversion rate with Google Analytics API, you can use the metric ga:transactionsPerVisit or ga:transactionsPerSession depending of API version you are using.

    Enjoy ! 🙂

  • Finding the LCP node with Chrome DevTools

    Official documentation about Largest Contentful Paint is super interesting and explicit. But it misses one thing: How to identify the largest node / block / image /text ?

    Chrome DevTools allows you to find which node you should optimize. Simply follow the steps below.

    • Open Chrome
    • Open the page you want to find the LCP block on
    • Open Chrome DevTools
      • If you are on a PC, type Ctrl+Shift+C
      • If you are on a Mac, just type the following hieroglyph:
    The shortcut to open Chrome DevTools
    • Follow the steps recorded in this video or follow steps written below the video if you need more details.
    • Open the tab “Performance”, between “Network” and “Memory”
    The horizontal menu with the Performance tab
    • Two options to record all the events and other data
      • Option #1 – Record and manually reload and stop
        • Click on the Record icon and reload manually the page by clicking on the icon next to the URL, then come back in DevTools and click on the blue button “stop”
      • Option #2 – Automatic record, reload and stop
        • Click on the Reload icon
    Three buttons: Record, Record->Reload->Stop and Clear results

    Which option choosing ?

    It depends… Sometimes you will have to interact with the page to get the LCP. In this case you should choose to record manually.
    • The LCP tag should be in the Timings row. This section is below Frames and Interactions. If you don’t see it immediately, try by scrolling below Interactions.
    • Click on LCP, it will show you which element is considered as the LCP
    • Click on the related node (if present), it will send you directly to the node in the source code of the page

    I hope it is clear enough. If you have any question, feel free to contact me on Twitter.

  • Test of Indexation of images in background by Google

    In this post, there is a background image. It is the picture of my 3 years old Macbook Pro 2016 which is already dying… The screen is sometimes not usable, and most of the time there is just one line, vertical.

    The idea is to check if either of not Google will index an image which is accessible only from a background CSS call.

    John Muller, from Google, in 2018:

    And as far as I know we don’t use CSS images at all for image search.

    Source: https://www.seroundtable.com/google-image-search-css-25068.html

    Let’s see what if it is still true in 2020 with the mobile first passage, chrome evergreen, the interpretation of the JS, etc.

    Results of this SEO test in a few days!

    Edit: One month after…

    The image is still not indexed.
    Current conclusion is that background images aren’t indexable by default.

  • Who knows this rare fish ?

    If you’ve read my last blog post, you will see that it didn’t help to use the title of an image to rank in the SERPs.

    So I decided to push the test a little bit further, until I manage to get the image indexed.

    So here is the picture of a very rare – endemic – fish that you can found only in Croatian rivers. I’m note passionate about fish, but I thought it’s an ok picture for testing the ranking capacities of the title element.

    So again, I’ve added a title, but this time, it contains what most probably is the name of this endemic fish.

  • Does the Title of picture help to rank in Google in 2020 ?

    I recently read that Google uses the title of the images to rank them in Google Images.

    It would be kind of a little revolution, since it has never been considered as useful.

    I decided to make my own test, just to make sure it works also for me.

    So here is the picture, it’s a screenshot of a presentation shared on Linkedin. There are 34 keywords in the title. You can only find the keywords in the title.

    This page will be updated with the results !

    Edit 1: 3 days later, the page is indexed, but the keywords in the title aren’t findable in Google. So currently, the title has zero impact.

    Edit 2: 2 weeks after, still no result when I search a keyword found in the title.

  • What are the best SEO Crawler for Huge Website ?

    You want to crawl millions of URL and make a super SEO Audit ?

    Here are the best crawler for SEO on a large to very large website:

    • Desktop SEO Crawler (starts at more or less 200$ / year / unlimited crawl)
      • Screaming Frog (Linux / Windows / Mac OS) -> The big plus: native function to cross data from G.A., Search Console, MajesticSEO, Ahrefs… + You can cross with your log files ! +/- 60 GB of disk space for 1 million URL crawled. Read this post to setup Screaming Frog on Remote Desktop Ubuntu Cloud instance.
      • Sitebulb (Windows / Mac OS) -> pretty rich ! Interesting visualization of the internal links structure.
      • Hextrakt (Windows) -> URL Segmentation is a real + when it comes to analyze Big Websites. Hextrakt does the job !
      • Xenu (Windows) -> only for very basic checkup, like 404.
    • Open Source SEO Crawler (Python / Java etc. )
      • Scrapy
      • Crowl (An Open Source crawler based on Scrapy)
      • Nutch
      • => Those solutions aren’t profitable in most cases, since it requires a lot of development and maintenance compared to a SaaS solution for instance.
      • => Nevertheless, if you want to discover how a search engine works, you will learn a lot ! 🙂
  • Screaming Frog v9.0 / Docker / Debian 8 / Ubuntu Remote Desktop

    You would like to setup a remote desktop with Screaming Frog to crawl huge websites (+1 million pages) ?

    You only need your crawler to run once a month ? (few hours or days)

    You have some basic technical skills and want to discover the power of the Cloud ?

    An Ubuntu Remote Desktop in a cloud instance in OVH offers a good  price to performance solution. (1,5 € per day / 2$ or half this price if you take a monthly subscription )

    What we will do to get an army of crawler:

    1. Open an OVH account or login
    2. Create a new Cloud Project
    3. Create a Server (an instance)
    4. Specify in advance that we want Docker to be installed (it will make everything super simple to setup)
    5. Install a Docker container containing Ubuntu + A remote Desktop based on NoVNC
    6. Connect to Ubuntu with Chrome or any browser in one click 🙂
    7. Install Screaming Frog with 2 commands
    8. Create a Snapshot in Openstack (= OVH)
    9. Create as many server containing Screaming Frog in just ONE clic

    Setup a new Cloud Instance

    • Go here and create an account / login: https://www.ovh.ie/public-cloud/instances/
    • Then here: https://www.ovh.com/manager/cloud/index.html
    • Order > Cloud Project > Fill the forms
    • In your project > Infrastructure > You can add a new server in “Actions” > Add Server
    • Take the 7GB RAM & 100GB SSD for this test.
    • You will need 60 GB of disk for 1 Million URL Crawled
    • Setup your ssh key (Google is your best friend to get help, it’s OS specific)

    Setup the server

    • Connect to the server with a terminal
      • user@IP of your server
    • Then copy and paste each line one by one:
      • apt-get update
      • apt-get upgrade
      • sudo docker run -it –rm -p 6080:80 -p 5900:5900 -e VNC_PASSWORD=MyPassWordToReplaceByWhatYouWant dorowu/ubuntu-desktop-lxde-vnc

    Setup Screaming Frog

    • Connect to https://IP-OF-YOUR-SERVER:6080/ with the password you used for “VNC_PASSWORD=”
    • Open a terminal in Ubuntu (in the NoVNC session – icon in the bottom left of the Ubuntu desktop)
    • Then copy and paste each line one by one:
      • sudo apt-get install screen wget
      • wget https://download.screamingfrog.co.uk/products/seo-spider/screamingfrogseospider_9.0_all.deb
      • dpkg -i screamingfrogseospider_9.0_all.deb
      • sudo apt-get -f install
    • Screaming Frog is now installed 🙂
    • You can try it here:
      • Bottom left icon > Internet > Screaming Frog SEO Spider
    • You will have to setup the Storage to disk to crawl huge websites
      • Screaming Frog > Configuration > System > Storage

    Next step: create a snapshot of this in OVH (to be continued if you liked this article !)

    Here is what ChatGPT can tell you about Screaming Frog and Docker:

    Screaming Frog Docker is a containerized version of the popular web crawling tool Screaming Frog SEO Spider. It is designed to run on Docker, a platform that allows for easier and more efficient deployment of applications in a virtualized environment. The containerization of the tool provides several benefits, such as easier portability, faster deployment, and simplified configuration management.

    Using Screaming Frog Docker can help SEO professionals and website owners to quickly and easily crawl websites, identify technical issues, and improve their website’s search engine optimization (SEO) performance. With the power of Docker, it is possible to run Screaming Frog on any platform that supports Docker, such as Linux, Windows, or macOS.

    Overall, Screaming Frog Docker is a convenient and powerful tool that can simplify the web crawling process and help improve website performance.