Suite à ChatGPT d'OpenAI et à Bing Chat de Microsoft, Google a réagi en lançant à l'échelle mondiale son propre chatbot expérimental d'IA : Bard.

 

Lancé en mars 2023 et ayant atteint jusqu'à présent plus de 180 pays, Bard a rencontré quelques défis en cours de route – le plus récent étant le report du lancement européen en raison de préoccupations concernant la confidentialité. Nous y reviendrons sous peu.


Mais comment fonctionne exactement Bard ? Qu'est-ce qui le différencie du ChatGPT que nous connaissons déjà ? Quels défis de confidentialité et de sécurité doit-il relever ? Comment est-il censé évoluer à l'avenir ? Ce sont les questions auxquelles nous répondrons tout au long de cet article.

 

Comment fonctionne Google Bard ?

Il fonctionne de manière similaire à ChatGPT, en ce sens qu'il s'agit d'une IA générative qui accepte des invites et réalise des tâches basées sur du texte, telles que l'écriture de code, la fourniture de réponses, de résumés et d'autres formes de contenu écrit.


La version initiale de Google Bard était alimentée par une version légère du modèle de langage LaMDA (Language Model for Dialogue Applications), mais il utilise récemment le modèle de langage le plus avancé de Google, PaLM 2 (Pathway Language Model) – il est dit qu'il performe mieux dans les tâches de raisonnement, y compris la logique, le code et les mathématiques.

 

En quoi est-il différent de ChatGPT?

Il y a quelques différences clés entre les deux chatbots d'IA, à savoir :

  • Modèle de langage étendu (LLM)
    Alors que Google Bard repose sur PaLM 2, ChatGPT utilise le Generative Pre-trained
    Transformer 4 (GPT-4). Les deux technologies sont conçues pour détecter et reproduire les schémas de la parole humaine, mais elles fonctionnent différemment et leurs performances sont étudiées pour des comparaisons.

  • Source de données
    ChatGPT a été conçu pour fournir des réponses publiées en ligne jusqu'en 2021, tandis que
    Bard est capable de tirer des informations en temps réel directement d'internet. Cela donne à Bard un avantage en termes de mise à jour des connaissances.

  • Production de contenu
    ChatGPT est plus sensible aux styles de langage demandés par les utilisateurs, ce qui
    signifie qu'il peut générer de longues réponses dans un style spécifique qui répond aux exigences de l'utilisateur. Bard, quant à lui, fournit principalement des déclarations courtes et des liens vers d'autres sources en ligne où les utilisateurs peuvent trouver plus d'informations – il aide essentiellement à naviguer sur Google Search de manière plus efficace. De plus, il a récemment été mis à jour pour inclure des images dans ses réponses.

 

Sera-t-il utilisé pour soutenir Google Search?

C'est bien le plan, oui. Lorsque Google a annoncé le lancement de Bard, ils ont déclaré que l'objectif était d'intégrer cette innovation en matière d'IA dans leurs produits, en commençant par la recherche.


L'idée est d'implémenter les fonctionnalités de Bard dans la recherche, de manière à aider les utilisateurs à consommer l'information dans des formats plus faciles à digérer, plutôt que de la recevoir de manière complexe à partir de multiples sources.


Cependant, il est clair que Bard n'est pas destiné à remplacer la recherche, mais à être une fonctionnalité qui la complète.

 

Préoccupations en matière de confidentialité

Google n'a pas encore lancé Bard dans l'Union européenne (UE), car la Commission de protection des données a bloqué son lancement en raison de préoccupations concernant la vie privée. Selon le régulateur des données basé à Dublin, qui est l'autorité de surveillance du Règlement général sur la protection des données (RGPD), l'entreprise technologique n'a pas fourni, jusqu'à présent, suffisamment d'informations sur la manière dont Bard protège la vie privée des Européens.


Google a déclaré qu'ils sont en train de traiter cette question. "Nous avons dit que nous voulions rendre Bard plus largement disponible, y compris dans l'Union européenne, et que nous le ferions de manière responsable, après avoir consulté des experts, des régulateurs et des décideurs politiques. Dans le cadre de ce processus, nous avons entamé des discussions avec les régulateurs de la vie privée pour répondre à leurs questions et recueillir des commentaires", a assuré un porteparole.


Selon le délégué à la protection des données (DPO) d'Alter Solutions, Inés Chenouf, "la protectiondes données personnelles reste une préoccupation à laquelle les entreprises numériques accordent peu d'attention". "La protection des données personnelles est un élément fondamental à prendre en compte lorsqu'il s'agit d'intelligence artificielle. Dans le cas spécifique de Bard, l'invasion de la vie privée pourrait être une conséquence de l'apprentissage automatique. En d'autres termes, cet outil a la capacité d'apprendre à partir de données, en utilisant des algorithmes, de sorte que son application pourrait signifier l'utilisation abusive de données personnelles. Cela crée une friction collante avec le RGPD, en particulier avec les principes de confidentialité et de transparence. De plus, l'utilisation intensive des données peut conduire à des biais qui pourraient affecter négativement les utilisateurs", déclare-t-elle.


Face à ce scénario, Google devra garantir la transparence en ce qui concerne la collecte et
l'utilisation des données des personnes, si elle souhaite que Bard soit lancé dans l'UE. "Cela signifie minimiser les données, mettre en place des comités d'éthique et rapprocher le géant américain des autorités de surveillance locales pour limiter les risques et établir une relation de confiance avec les utilisateurs européens", explique Inés Chenouf. "C'est d'autant plus important suite à la décision de la Commission européenne, le 10 juillet 2023, d'adopter une nouvelle décision d'adéquation concernant les transferts de données de l'UE vers les États-Unis. Il est fort probable que les données utilisées par Bard puissent être transférées aux filiales américaines. C'est pourquoi la protection des données personnelles et, par extension, la conformité au RGPD, est un enjeu si crucial".

 

Les questions de cybersécurité sont importantes.

D'un point de vue de la cybersécurité, les chatbots comme Google Bard sont très sécurisés, car ils n'utilisent pas de technologies traditionnelles telles que SQL, et la plupart des vulnérabilités viennent de ce domaine. Cela signifie que chaque préoccupation en matière de sécurité découlera des questions de confidentialité.


Pour les entreprises, plus précisément, la meilleure solution pour les problèmes de confidentialité est d'exécuter votre IA sur site, sur vos propres serveurs, en utilisant un modèle de langage étendu comme celui-ci.

 

Par curiosité... pourquoi le nom "Bard" ?

Le mot signifie "poète" et fait référence spécifiquement à William Shakespeare, connu sous le nom de "le Barde d'Avon". L'objectif est de mettre en avant les compétences linguistiques du chatbot d'IA

 

 

D'autres informations supplémentaires :

L'Union européenne (UE) a récemment adopté le règlement sur l'intelligence artificielle , la première loi globale sur l'IA au monde. Il classe toutes les IA selon différents niveaux de risque :

  • Risque inacceptable
    Les IA qui violent les droits fondamentaux seront interdites (par exemple : l'identification biométrique en temps réel dans les espaces publics ; la manipulation de personnes vulnérables, comme les enfants).

 

  • Risque élevé
    Les IA qui ont un impact négatif sur la sécurité des personnes ou sur leurs droits
    fondamentaux seront soigneusement évaluées avant d'être mises sur le marché (par exemple : les systèmes d'IA utilisés dans des domaines tels que la gestion et l'exploitation des infrastructures critiques, l'application de la loi, la gestion des frontières, entre autres).

  • Risque limité
    Les IA qui doivent se conformer à des exigences de transparence spécifiques, de sorte que les utilisateurs soient totalement conscients qu'ils interagissent avec une machine (par exemple : les chatbots comme ChatGPT et Google Bard).

  • Risque minimal ou inexistant
    Presque tous les systèmes d'IA utilisés dans l'UE relèvent de cette catégorie (par exemple : les filtres anti-spam).
Partager cet article