Dans le monde du référencement naturel (SEO), l’analyse des logs serveurs est une étape cruciale pour comprendre le comportement des robots d’exploration et optimiser la visibilité de votre site web. Les fichiers de logs fournissent des informations précieuses sur la manière dont les moteurs de recherche interagissent avec votre site. Pour exploiter pleinement ces données, certaines lignes de commande sont indispensables. Voici les 5 commandes essentielles pour maîtriser l’analyse de logs SEO, ainsi que leurs équivalents sous Linux Ubuntu, macOS et Windows.
1. grep
La commande grep
est utilisée pour rechercher des motifs spécifiques dans des fichiers texte. Elle est particulièrement utile pour extraire des lignes contenant un terme précis.
Exemple :
grep 'Googlebot' access.log > googlebot.log
Cette commande crée un fichier googlebot.log
contenant uniquement les entrées où Googlebot a accédé à votre site, facilitant ainsi l’analyse ciblée.
Équivalents par système d’exploitation :
- Linux Ubuntu :
grep
est disponible par défaut. - macOS :
grep
est également disponible par défaut. - Windows :
- Option 1 : Utiliser
findstr
, la commande native Windows.findstr "Googlebot" access.log > googlebot.log
- Option 2 : Installer un environnement comme Git Bash, Cygwin ou WSL (Windows Subsystem for Linux) pour utiliser
grep
.
- Option 1 : Utiliser
2. awk
awk
est un puissant outil de traitement de texte qui permet de manipuler des données structurées. Il est idéal pour extraire des colonnes spécifiques dans un fichier log.
Exemple :
awk '{print $7}' access.log > urls.log
Ici, $7
représente la septième colonne du fichier log, qui correspond généralement à l’URL demandée. Cette commande extrait toutes les URLs et les enregistre dans urls.log
.
Équivalents par système d’exploitation :
- Linux Ubuntu :
awk
est disponible par défaut. - macOS :
awk
est également disponible par défaut. - Windows :
- Option 1 : Utiliser
awk
via Git Bash, Cygwin ou WSL. - Option 2 : Utiliser PowerShell pour des opérations similaires.
Select-String -Path access.log | ForEach-Object { $columns = $_.Line -split ' ' $columns[6] >> urls.log }
- Option 1 : Utiliser
3. sort
La commande sort
trie les lignes d’un fichier. Après avoir extrait les URLs, vous pouvez les trier pour faciliter l’analyse.
Exemple :
sort urls.log > urls_sorted.log
Un fichier trié permet de repérer plus aisément les tendances et les anomalies dans les données.
Équivalents par système d’exploitation :
- Linux Ubuntu :
sort
est disponible par défaut. - macOS :
sort
est également disponible par défaut. - Windows :
- Option 1 : Utiliser la commande native
sort
, bien que ses options soient limitées.sort urls.log /O urls_sorted.log
- Option 2 : Utiliser
sort
via Git Bash, Cygwin ou WSL pour une compatibilité totale.
- Option 1 : Utiliser la commande native
4. uniq
uniq
sert à identifier ou éliminer les doublons dans un fichier trié. Pour compter le nombre d’occurrences de chaque URL :
Exemple :
sort urls.log | uniq -c > urls_count.log
Cette commande trie les URLs puis compte le nombre de fois où chaque URL apparaît, ce qui est essentiel pour identifier les pages les plus visitées par les robots.
Équivalents par système d’exploitation :
- Linux Ubuntu :
uniq
est disponible par défaut. - macOS :
uniq
est également disponible par défaut. - Windows :
- Option 1 : Utiliser
uniq
via Git Bash, Cygwin ou WSL. - Option 2 : Utiliser PowerShell pour une fonctionnalité similaire.
Get-Content urls.log | Sort-Object | Group-Object | ForEach-Object { "$($_.Count) $($_.Name)" } | Out-File urls_count.log
- Option 1 : Utiliser
5. wc
La commande wc
(word count) est utilisée pour compter le nombre de lignes, de mots et de caractères.
Exemple :
wc -l access.log
Le paramètre -l
affiche le nombre de lignes, vous donnant une idée du volume total de trafic enregistré.
Équivalents par système d’exploitation :
- Linux Ubuntu :
wc
est disponible par défaut. - macOS :
wc
est également disponible par défaut. - Windows :
- Option 1 : Utiliser
find /c /v ""
pour compter les lignes.find /c /v "" access.log
- Option 2 : Utiliser
wc
via Git Bash, Cygwin ou WSL.
- Option 1 : Utiliser
Conclusion
Maîtriser ces lignes de commande vous permet d’analyser efficacement les logs de votre serveur et d’obtenir des insights précieux pour votre stratégie SEO. En comprenant comment les robots des moteurs de recherche interagissent avec votre site, vous pouvez optimiser votre contenu et améliorer votre visibilité en ligne.
Astuce : Selon votre système d’exploitation, certaines commandes peuvent nécessiter l’installation d’outils supplémentaires ou l’utilisation d’environnements spécifiques comme PowerShell sur Windows ou l’installation de WSL pour bénéficier d’un environnement Linux complet.
N’hésitez pas à approfondir vos connaissances sur ces outils pour tirer le meilleur parti de vos données de logs, quel que soit le système que vous utilisez.

International SEO Consultant (Freelance)
Founder of Kelogs, a SaaS SEO Crawler & Log Analyzer
Over 15 years of SEO experience
Read more about me, myself and I.