Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Translation of SEO chapter #742

Merged
merged 22 commits into from
Apr 22, 2020
Merged
Changes from 1 commit
Commits
Show all changes
22 commits
Select commit Hold shift + click to select a range
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
Prev Previous commit
Next Next commit
Typofix
  • Loading branch information
borisschapira committed Apr 22, 2020
commit 999f48dc09b96b8a49e6c8201b1aa8e4e440877f
2 changes: 1 addition & 1 deletion src/content/fr/2019/seo.md
Original file line number Diff line number Diff line change
Expand Up @@ -155,7 +155,7 @@ Les balises canoniques sont utilisées pour spécifier les pages en double et le

L'une des méthodes les plus efficaces pour contrôler l'exploration des moteurs de recherche est le fichier [robots.txt]. Il s'agit d'un fichier qui se trouve sur le domaine racine d'un site web et spécifie quelles URL et chemins d'URL doivent être interdits à l'exploration par les moteurs de recherche.

Il était intéressant de constater que seulement 72,16 % des sites mobiles ont un `robots.txt` valide, [selon Lighthouse](https://developers.google.com/web/tools/lighthouse/audits/robots). Les principaux problèmes que nous avons constatés sont répartis entre 22 % des sites n'ayant aucun fichier `robots.txt` et ~ 6 % servant un fichier` robots.txt` non valide, et échouent ainsi à l'audit. Bien qu'il existe de nombreuses raisons valables de ne pas avoir de fichier `robots.txt`, comme avoir un petit site web qui n'a pas [de soucis de budget de crawl](https://webmasters.googleblog.com/2017/01/what-crawl-budget-means-for-googlebot.html), avoir un `robots.txt` invalide peut être problématique surtout avec le Mobile First Index.
Il était intéressant de constater que seulement 72,16 % des sites mobiles ont un `robots.txt` valide, [selon Lighthouse](https://developers.google.com/web/tools/lighthouse/audits/robots). Les principaux problèmes que nous avons constatés sont répartis entre 22 % des sites n'ayant aucun fichier `robots.txt` et ~ 6 % servant un fichier `robots.txt` non valide, et échouent ainsi à l'audit. Bien qu'il existe de nombreuses raisons valables de ne pas avoir de fichier `robots.txt`, comme avoir un petit site web qui n'a pas [de soucis de budget de crawl](https://webmasters.googleblog.com/2017/01/what-crawl-budget-means-for-googlebot.html), avoir un `robots.txt` invalide peut être problématique surtout avec le Mobile First Index.

### Liens

Expand Down