Google : gardien de l’éthique par rapport à l’IA ?

Tout le monde ou presque utilise ChatGPT et Midjourney. Internet en est bouleversé. Google de son côté doit à la fois composer avec les produits de l’IA sur le web et rester dans la course à l’innovation de l’intelligence artificielle. 

Pour défendre la justesse de son algorithme de recherche, Google doit aussi prendre position par rapport à l’IA : quant à la qualité des contenus, mais aussi quant à une certaine éthique du web, et se montrer exemplaire dans ses propres outils IA. Bard, SGE, Imagen : où en sont les outils Google face à l’éthique ?

Google Bard : le concurrent prometteur mais à la traîne de ChatGPT

Après un premier lancement un peu raté en février, Google annonçait le 13 juillet la sortie d’une version améliorée de son Chatbot. Google Bard est désormais un chatbot complet, équivalent de Chat GPT, qui peut être utilisé seul, mais aussi associé aux applications Google

Le nouveau Bard fonctionne avec PaLM 2, un modèle de langage créé par Google, qui lui permettrait de répondre aux questions avec plus de justesse que la première version.

Bard est aussi désormais capable de produire des images à partir de requêtes textuelles. Bard utilise pour ce faire l’intelligence artificielle générative Firefly d’Adobe, entraînée uniquement sur des images libres de droits, et donc en principe plus éthique – à la base -, que d’autres IA. 

Un outil à relier aux applications Google avec Bard Extensions

Le 19 septembre, Google a présenté Bard Extensions : des extensions du chatbot permettant à la fois : 

  •  d’extraire et analyser des données des outils Google ;
  • d’utiliser les applications Google workplace dans une version “augmentée” par l’IA.

Par exemple : Google Slides pourra générer des images pour illustrer les présentations. Google Sheets pourrait créer des tableaux à partir d’explications des besoins. La réponse automatique dans Gmail pourrait faire la synthèse d’une conversation pour organiser un planning de voyage. 

Quant à l’éthique : Google s’engagerait à protéger les données personnelles dans le cadre de l’utilisation des extensions Workplace. Les contenus Gmail, Docs et Drive ne seront en principe pas vus par les réviseurs humains, ni utilisés pour entraîner l’IA. Les extensions seront activables et désactivables à tout moment par l’utilisateur.

Google Bard et Google helpful content

Google est donc désormais à la fois juge des contenus du web et producteur indirect de contenus par IA. Comment Google échappe-t-il à la schizophrénie ? En gardant le cap sur l’utilisateur.

Près de quinze jours après la Core Update du 22 août, Google a procédé à sa dernière Helpful Content Update.

Son objectif, peut-on lire sur Google Search Central  : “récompenser les contenus de haute qualité”. Google précise toutefois: “quelle que soit la façon dont ils sont produits”.

Selon Google en effet,  l’IA bien utilisée peut contribuer à un contenu de qualité :

“Nous nous concentrons sur la qualité du contenu plutôt que sur la façon dont il est produit. Cela nous permet de fournir des résultats fiables et de haute qualité aux utilisateurs depuis des années.  L’IA peut permettre de développer de nouveaux niveaux d’expression et de créativité et d’aider les utilisateurs à créer des contenus de qualité pour le Web.” (…)

Vers une rédaction hybride

Google serait donc favorable à une rédaction hybride humaine-IA, dans la mesure où l’IA peut aider à enrichir les contenus pour atteindre le seul but poursuivi : servir l’utilisateur. 

Pour lutter contre les effets délétères de l’IA, Google se concentre sur la finalité : la qualité du contenu produit et son adéquation au besoin utilisateur. 

L’éthique de Google quant au contenu se résume en deux mots ici : User first. Les développements annoncés de SGE, Google Search Generative Experience, vont dans ce sens…

SGE : Google Search Generative Experience chamboule la recherche

Présentée lors de la conférence I/O de mai, SGE, Google Search Generative Experience, propose une nouvelle expérience de recherche en ligne.

SGE : la recherche renouvelée

SGE est une nouvelle fonctionnalité d’IA générative disponible directement dans les résultats de recherche Google.

Le contenu produit par SGE consiste en une réponse précise et condensée à la requête de l’internaute, documentée par les résultats de recherche Google : les sources sont indiquées. Et l’internaute peut interagir avec l’IA pour approfondir sa recherche en s’appuyant sur le mode conversationnel. 

Pour le moment, SGE n’est disponible qu’en anglais et que pour des utilisateurs américains.

Que va changer SGE dans les SERP ?

Les résultats générés par le SGE vont apparaître en position 0 et seront parfois imposants. Difficile d’en faire abstraction. 

Le but des résultats SGE serait de proposer une réponse aboutie avec possibilité d’approfondissements du sujet.

Mais les internautes prendront-ils vraiment la peine d’aller plus loin dans la recherche ? Cela nuira-t-il au trafic organique des sites

La fonction “Google it” : pour approfondir les résultats de SGE

La fonction Google It de SGE, matérialisée par une icône G devrait permettre de vérifier le contenu justifiant les réponses et d’aller plus loin dans la recherche. 

Même au sein de l’écosystème Google, cela invite les utilisateurs à ne pas se reposer uniquement sur la réponse de l’IA, mais à garder un esprit critique, même si la référence reste ici la réponse du moteur de recherche.

Imagen : la génération d’image selon Google

Google s’attaque aussi à la génération d’image… de plusieurs façons.

Imagen : un générateur d’images de qualité supérieure ?

Le projet Imagen, créé par l’équipe de Google Brain, est présenté comme “un modèle de diffusion texte-image avec un degré de photoréalisme sans précédent et un niveau profond de compréhension du langage”.

Le principe : écrivez ce que vous voulez voir.  Imagen est arrivé en tête des tests d’évaluation humaine Google, égalant la qualité perçue avec le DALL-E 2 d’OpenAI. Saura t’il rivaliser avec DALL-E 3 ?

Un projet qui vise à repousser les limites du genre

Imagen n’est cependant pas prêt à être mis à la disposition du grand public d’après Google, pour deux grandes raisons.

Un projet qui vise à repousser les limites du genre

Les limites inhérentes au modèle

On retrouve dans la génération d’images les mêmes biais que pour la génération de textes : le système intègre tous les préjugés sociaux, racistes, sexistes visibles… et les recycle (ce que font peut-être encore les concurrents).

Le problème est dû en grande partie à la façon dont ces systèmes sont programmés et entraînés : ils brassent d’énormes quantités de données qu’il serait extrêmement onéreux de filtrer de manière exhaustive en amont.

Google semble néanmoins chercher à nettoyer et préserver son IA de tout risque de préjugés sociaux et culturels pour proposer une version aussi “éthique” que possible.

Les problèmes liés à l’usage

Malgré le potentiel créatif du modèle texte-image, il ouvre également la porte à des applications dérangeantes (auxquelles nous assistons déjà avec les modèles en libre accès), à commencer par la production de deepfakes.

Pour espérer tester Imagen il faut pour l’instant s’inscrire sur liste d’attente de la AI Test kitchen Google : le labo pour utilisateurs.

SynthID et l’engagement de Google contre les deepfakes

Fin juillet, la presse évoquait l’engagement de Google et six autres géants de la Tech (parmi lesquels OpenAI, Meta et Microsoft) contre les deepfakes.
Pour rendre l’intelligence artificielle plus sûre et transparente, ils auraient notamment pris l’engagement de distinguer les contenus générés par IA par un système de marquage en filigrane.

Fin août, Google présentait SynthID, un outil permettant de marquer par tatouage numérique les images créées avec Google Imagen et de les identifier.

À quoi sert SynthID ?

SynthID permet en effet à la fois :

  1. de placer un watermark, une forme de signature, directement dans les pixels de l’image ;
  2. de lire ce système de marquage, celui-ci étant invisible à l’œil nu.

La force de SynthID

SynthID ne dégrade pas la qualité des images et reste détectable, même après modifications, ajouts de filtre ou compression.

Les limites de SynthID

L’outil n’est pas encore parfaitement infaillible. Lorsqu’on lui demande de scanner une image, SynthID peut donner trois réponses :

  • watermark détecté,
  • watermark non-détecté,
  • watermark possiblement détecté.

SynthID ne concerne pour l’instant que les images produits par Imagen. Google envisage des améliorations futures comme son utilisation pour les contenus audio et vidéos, ou l’extension aux concurrents comme DALL-E, Midjourney, Stable Diffusion. Conçu par l’équipe Google DeepMind, l’outil est accessible via la plateforme payante Vertex AI.

Google semble vouloir appliquer à ses outils IA le même filtre de qualité qu’à son algorithme de recherche. Pour défendre la légitimité de celui-ci, Google se doit de viser la qualité et la fiabilité du résultat. Et cela passe par une certaine éthique. On lit beaucoup de choses sur le retard de Google en matière d’IA, mais peut-être les expériences, erreurs ou maladresses des autres seront-elles profitables à sa recherche…

Un nouvel outil Google devrait voir le jour incessamment sous peu : Gemini. Cet outil reposerait sur une intelligence artificielle associerait trois grands types de capacités : des capacités semblables à celles de GPT-4 ; des techniques d’apprentissage, par renforcement notamment ; et enfin la recherche arborescente. De quoi – peut-être – rivaliser avec la dernière version de ChatGPT, qui peut désormais analyser les images, les décrire et même proposer des idées d’après un visuel.

On attend la date de sortie officielle… Et le positionnement quant à l’éthique, notamment quant à la protection des données.