Optimisation d'image: comment utiliser Vision AI de Google pour comprendre les principes de classement des images

Optimisation d'image: comment Vision AI de Google comprend les principes de classement des images


Il semblerait que vous enregistrez Alt et Title pour les images sur le site - et vous êtes déjà en avance sur les concurrents paresseux. Mais non, ce n'est peut-être pas suffisant. En plus du support textuel, l'image elle-même joue un rôle - ou plutôt, les entités que Google intelligent détectera sur elle. Et il s'est avéré que beaucoup de choses intéressantes sont révélées.


Ils ont traduit une étude intéressante: comment Google analyse les images et comment comprendre ce qui devrait être présent dans l'image pour un classement plus élevé.


En 2013, l'option Afficher l'image est apparue dans les résultats de recherche d'images Google. Les utilisateurs pouvaient ouvrir l'image sans se rendre sur le site sur lequel elle se trouvait. L'innovation a réduit le trafic organique des résultats de recherche d'images de 63%.


En février 2018, Google a décidé de supprimer le bouton Afficher l'image. Maintenant, pour ouvrir l'image en taille réelle, l'utilisateur doit se rendre sur le site. Les «images» sont donc redevenues une source importante de trafic de recherche.


Une étude récente a montré comment, après ces changements, le trafic organique vers le site dans les images a augmenté de 37%.


Le potentiel de recherche d'images est revenu, mais comment l'utiliser au mieux? Comment optimiser les images pour un meilleur classement? Vision AI de Google peut -il comprendre les principes de classement des images?


En particulier, les chercheurs étaient intéressés par le fait que c'était la modélisation thématique de Google qui pouvait révéler des images classées par des requêtes de recherche spécifiques et des groupes de mots clés thématiques.


Remarque: Il s'agit d'une traduction de l'étude en anglais de Google. Tous les mots clés sont donnés dans l'orthographe originale (plus la traduction entre parenthèses).


Nous analysons le thème de "l'équipement de chasse" (équipement de chasse)


Au début, 10 à 15 requêtes principales dans le sujet ont été sélectionnées. Pour cet article, la catégorie thématique «engins de chasse» a été sélectionnée. Pour elle, nous avons sélectionné des requêtes clés de trois types: à haute intention (requêtes à forte intention), à haute valeur (requêtes à forte conversion), à volume élevé (à haute fréquence).


Ce sont les demandes:


  • Équipement de chasse à l'arc (équipement de chasse à l'arc)
  • Équipement de chasse bon marché
  • Équipement de chasse au coyote (équipement de chasse au coyote)
  • Dans l'équipement de chasse (dans l'équipement de chasse - env.: Dan's - nom de marque)
  • Équipement de chasse au cerf (équipement de chasse au cerf)
  • Équipement de chasse à prix réduit
  • Équipement de chasse au canard (équipement de chasse au canard)
  • Équipement de chasse
  • Vêtements de pluie de chasse
  • Équipement de chasse Sitka (équipement de chasse Sitka - env.: Sitka - nom de marque)
  • Équipement de chasse à la dinde (équipement de chasse à la dinde)
  • Équipement de chasse des hautes terres (équipement de chasse en montagne)
  • Équipement de chasse pour femmes (équipement de chasse pour femmes)

Ensuite, pour chaque demande, les 50 premières images des résultats de recherche de Google ont été sélectionnées. Au total, 650 images ont été analysées à l'aide de l'API Google Vision.


Pour chaque image, une position dans la sortie a été fixée (ceci est important pour une analyse plus approfondie).


Ce que vous pouvez apprendre des étiquettes


La première et, peut-être, la principale chose pour laquelle il vaut la peine d'utiliser l'API est l'étiquetage des images . Les modèles de reconnaissance d'image modernes analysent chaque image et distribuent des étiquettes (étiquettes) pour les objets qui peuvent être identifiés sur l'image.


C'est important. Ensuite, nous montrons des fragments de graphiques avec traduction. En utilisant le lien, vous pouvez accéder au graphique interactif d'origine, qui est beaucoup plus volumineux, et y regarder les tendances et les moments individuels. Pour traduire d'énormes toiles entières, nous avons jugé inapproprié.


Vous pouvez travailler avec des graphiques - des clics sur des étiquettes, des catégories et des mots individuels mettent en évidence des fragments du graphique. Et il existe de nombreux onglets. (Nous avons aimé l'outil, et vous?)


Sur la plupart des images, 4 à 10 objets peuvent être reconnus. Par exemple, pour les mots clés liés à «équipement de chasse», nous avons obtenu la distribution d'étiquettes suivante:


Optimisation d'image: comment Vision AI de Google comprend les principes de classement des images

Meilleures étiquettes pour "équipement de chasse" ( graphique interactif )


À partir de ces données, vous pouvez comprendre beaucoup de choses qui, du point de vue de Google, devraient être présentes sur l'image concernée.


Quelques conclusions:


  • Pour les meilleures images des 13 mots-clés, une distribution assez uniforme entre les étiquettes est notée.
  • Environ 5% des images représentaient des vêtements, le plus souvent du camouflage. Si des images avec de l'équipement de camouflage sont publiées sur le blog de la tenue de chasse, les chances qu'une image apparaisse en haut augmentent.
  • Il existe souvent des étiquettes associées à la nature: faune, arbres, plantes, animaux, etc. Les photos de chasseurs en tenue de camouflage en plein air à proximité d'animaux sont activement représentées dans la question des clés à l'étude.

Si vous examinez de plus près la répartition des libellés par catégorie de mots clés, vous pouvez mieux comprendre en quoi les principes de classement des différentes requêtes diffèrent:


Optimisation d'image: comment Vision AI de Google comprend les principes de classement des images

Distribution des étiquettes d'image dans la catégorie engin de chasse ( graphique interactif )


Ici, vous pouvez noter:


  • Pour les demandes «équipement de chasse à la dinde» et «équipement de chasse au canard», les oiseaux doivent être présents dans les images, tandis que pour d'autres demandes liées à la chasse, les photos d'oiseaux entrent rarement en haut de la recherche d'images.
  • Sur le tableau de bord interactif, vous pouvez voir comment les images sont distribuées par un mot clé spécifique et comparer avec la distribution par d'autres mots. Une catégorie distincte est sélectionnée ci-dessous - «équipement de chasse au canard», et vous pouvez voir la répartition des étiquettes les plus populaires par mots-clés. Les étiquettes "oiseau d'eau" "canard" "oiseau" "échassier" "chien de chasse" "leurre de chasse" etc. sont extrêmement largement représentées. Ces informations sont un excellent indice pour sélectionner des images pour la page.

Optimisation d'image: comment Vision AI de Google comprend les principes de classement des images

Distribution d'étiquettes d'images dans la catégorie des engins de chasse au canard ( graphique interactif )


Le système PromoPult est un complexe publicitaire destiné à attirer des clients sur Internet. SEO, PPC, SMM dans un seul compte. Automatisation complète, listes de contrôle prêtes, paramètres précis. Rapports clients en un clic, garanties de résultats, solutions industrielles. Conçu pour ceux qui veulent libérer du temps pour un travail vraiment sérieux.

Comparaison: images classées haut et bas


Pour une compréhension plus approfondie des algorithmes, vous devez faire attention aux différences entre les images de haut rang (top 10 dans la recherche d'images) et de bas rang (de 41 à 50 positions).


Optimisation d'image: comment Vision AI de Google comprend les principes de classement des images

Étiquettes pour les images dans le top 10 et le top 41-50 pour le "matériel de chasse" ( carte interactive )


Vous remarquerez peut-être que certains labels sont mieux classés que d'autres . Par exemple:


  • Les étiquettes associées aux vêtements sont beaucoup plus susceptibles d'être dans les meilleurs SERP.
  • Les étiquettes avec des animaux sont moins susceptibles d'atteindre le sommet, mais il y en a beaucoup au cours des dix derniers (41-50).
  • Les armes apparaissent souvent en haut des images.

En explorant les étiquettes d'images populaires pour vos mots clés, vous pouvez trouver de nombreux modèles liés au classement des images dans votre sujet. Les résultats varieront en fonction des mots clés, mais une analyse minutieuse fera des conclusions très utiles.


En utilisant d'autres API d'intelligence artificielle, vous pouvez plonger encore plus profondément dans l'analyse du classement des images.


Une analyse encore plus approfondie


Deepai.org dispose d'un excellent ensemble d'API avec lesquelles vous pouvez obtenir plus d'informations sur les images de votre sujet.


L'une de ces API est le «sous-titrage d'image», qui est similaire à l'étiquetage d'images sur Google, mais au lieu d'étiquettes individuelles, des balises de description sont utilisées ici, par exemple «l'homme tient une arme à feu».


Nous avons exécuté des images via cette API avec laquelle nous avons travaillé via les API Google et collecté des informations supplémentaires pour chaque image.


Optimisation d'image: comment Vision AI de Google comprend les principes de classement des images

Distribution des descriptions d'images dans la catégorie des engins de chasse ( graphique interactif )


Comme pour les libellés, nous avons analysé la distribution des descriptions par mot-clé et la fréquence globale de tous les mots-clés. Ensuite, nous avons comparé les descriptions des images du top 10 et du top 41-50 (voir tableaux comparatifs dans le graphique interactif).


Une autre découverte intéressante


Parfois, vous pouvez trouver un aperçu d'une vidéo sur YouTube dans les résultats de recherche de Google en images. Voici un exemple de délivrance de matériel de chasse:


Optimisation d'image: comment Vision AI de Google comprend les principes de classement des images

On peut supposer que lors du classement de la vidéo d'aperçu, Google s'appuie en partie sur la reconnaissance des étiquettes d'image. Malgré le fait que dans ce cas, il existe d'autres facteurs importants (la clé «équipement de chasse» dans le titre de la vidéo et la source est une chaîne populaire dans le sujet), la présence des mêmes éléments d'étiquette que dans les images du haut semble jouer un rôle.


Le bon choix d'aperçus vidéo peut contribuer à un bon classement, de sorte que les informations que vous obtenez de l'analyse d'images doivent également être utilisées pour promouvoir la vidéo.

Constatations évidentes (et non évidentes)


Nous avons vu à quel point Google analyse les images. Dans le même temps, l'optimisation d'image en SEO est encore à ses balbutiements. On peut supposer que cela est également dû au manque de ressources pour la production d'images pertinentes de haute qualité.


Par conséquent, dire que de telles études doivent être effectuées et mettre immédiatement en œuvre les résultats obtenus sera quelque peu prématuré. Cependant, dans un domaine hautement concurrentiel, il peut être crucial de comprendre pourquoi des illustrations pratiquement similaires sont classées différemment. Et si tout le succès de la promotion dépend du classement dans la recherche d'images, nous devons comprendre plus profondément. À peu près la même chose que ci-dessus.


L'original .

Source: https://habr.com/ru/post/fr473778/


All Articles