Martin Splitt, de Google, a été interrogé sur l’adaptation de l’exploration et du rendu de Googlebot à l’augmentation du contenu généré par l’IA.

La réponse de Martin a permis de comprendre comment Google gère le contenu généré par l’IA et le rôle du contrôle de la qualité.

Rendu des pages web par Googlebot :

Le rendu d’une page web est le processus de création d’une page web dans un navigateur en téléchargeant les fichiers HTML, images, CSS et JavaScript, puis en les assemblant pour former une page web.

Le robot d’exploration de Google, Googlebot, télécharge également les fichiers HTML, images, CSS et JavaScript pour rendre la page web.

Comment Google traite le contenu généré par l’IA :

Les commentaires de Martin ont été formulés dans le cadre d’un webinaire intitulé “Exploring the Art of Rendering with Google’s Martin Splitt” (Explorer l’art du rendu avec Martin Splitt de Google), produit par Duda.

L’un des membres de l’auditoire a posé la question de savoir si la grande quantité de contenu généré par l’IA avait un effet sur la capacité de Google à rendre les pages au moment de l’exploration.

Martin a fourni une explication, mais il a également ajouté des informations sur la manière dont Google décide, au moment du crawl, si une page web est de mauvaise qualité et sur ce que Google fait après avoir déterminé cette qualité.

Ammon Johns pose la question, qui est lue par Ulrika Viberg.

Martin Splitt, de Google, a été interrogé sur l’adaptation de l’exploration et du rendu de Googlebot à l’augmentation du contenu généré par l’IA.

La réponse de Martin a permis de comprendre comment Google gère le contenu généré par l’IA et le rôle du contrôle de la qualité.

Rendu des pages web par Googlebot :

Le rendu d’une page web est le processus de création d’une page web dans un navigateur en téléchargeant les fichiers HTML, images, CSS et JavaScript, puis en les assemblant pour former une page web.

Le robot d’exploration de Google, Googlebot, télécharge également les fichiers HTML, images, CSS et JavaScript pour rendre la page web.

Comment Google traite le contenu généré par l’IA :

Les commentaires de Martin ont été formulés dans le cadre d’un webinaire intitulé “Exploring the Art of Rendering with Google’s Martin Splitt” (Explorer l’art du rendu avec Martin Splitt de Google), produit par Duda.

L’un des membres de l’auditoire a posé la question de savoir si la grande quantité de contenu généré par l’IA avait un effet sur la capacité de Google à rendre les pages au moment de l’exploration.

Martin a fourni une explication, mais il a également ajouté des informations sur la manière dont Google décide, au moment du crawl, si une page web est de mauvaise qualité et sur ce que Google fait après avoir déterminé cette qualité.

Ammon Johns pose la question, qui est lue par Ulrika Viberg.

Voici la question :

  • “Nous avons aussi une question d’Ammon, et c’est quelque chose dont on parle beaucoup.
  • Je le vois souvent.
  • Ils disent que la production de contenu augmente en raison de l’IA, ce qui augmente la charge sur le crawling et le rendu.
  • Est-il probable que les processus de rendu doivent être simplifiés ?”

Ce qu’Ammon veut apparemment savoir, c’est s’il existe des processus spéciaux en réponse au contenu de l’IA afin de gérer l’augmentation de la charge d’exploration et de rendu.

Martin Splitt a répondu :

  • “Non, je ne pense pas, parce que mon hypothèse la plus plausible est…”

Martin aborde ensuite le problème évident du contenu d’IA que les référenceurs se posent, à savoir la détection de ce contenu.

La détection de la qualité s’applique à l’IA :

Martin Splitt n’a pas dit que Google appliquait la détection de l’IA au contenu.

Il a dit que Google utilisait la détection de la qualité à plusieurs stades.

C’est très intéressant car le Search Engine Journal a publié un article sur un algorithme de détection de la qualité qui détecte également les contenus de faible qualité générés par l’IA.

L’algorithme n’a pas été créé pour détecter les contenus générés par des machines de faible qualité. Mais ils ont découvert que l’algorithme le découvrait automatiquement.

Cet algorithme correspond en grande partie à ce que Google a annoncé au sujet de son système Helpful Content, conçu pour identifier les contenus rédigés par des personnes.

Il ne s’est pas contenté de mentionner une seule fois le contenu écrit par des personnes. Son article annonçant le système Helpful Content le mentionne trois fois.

L’algorithme a été conçu pour détecter les contenus générés par des machines, mais aussi les contenus de mauvaise qualité en général.

L’article de recherche est intitulé “Generative Models are Unsupervised Predictors of Page Quality : A Colossal-Scale Study.

Les chercheurs y observent :

  • “Cet article postule que les détecteurs formés pour distinguer les textes écrits par des humains de ceux écrits par des machines sont des prédicteurs efficaces de la qualité linguistique des pages web, surpassant un classificateur de spam supervisé de base.”

Revenons à ce qu’a dit Martin Splitt :

  • “…nous procédons à la détection ou au contrôle de la qualité à plusieurs stades…”.
  • C’est donc déjà le cas. Ce n’est pas quelque chose de nouveau.
  • L’IA peut augmenter l’échelle, mais ne change pas grand-chose.”

Ce que Martin semble dire, c’est que

  • Il n’y a rien de nouveau à appliquer au contenu de l’IA
  • Google utilise la détection de la qualité pour le contenu humain et le contenu d’IA.

👉🏼 Lecture complémentaire :

Sébastian Magni est un Spécialiste du SEO et Inbound Marketing chez @LCM

0 0 votes
Évaluation de l'article
S’abonner
Notification pour
guest

0 Commentaires
Commentaires en ligne
Afficher tous les commentaires