Maison  >  Article  >  Périphériques technologiques  >  Bloomberg : les initiés de Google remettent en question l’utilité du chatbot Bard

Bloomberg : les initiés de Google remettent en question l’utilité du chatbot Bard

WBOY
WBOYavant
2023-10-12 11:49:01801parcourir

IT House News le 12 octobre, Bloomberg a rapporté hier soir que Google et Discord avaient invité conjointement les utilisateurs fidèles de leur propre chatbot IA Bard à créer un salon de discussion. Parmi eux, les chefs de produit, les concepteurs et les ingénieurs de Bard ont discuté de l’efficacité et de l’aspect pratique de l’IA dans le salon de discussion, mais certaines personnes ont commencé à la remettre en question.

Bloomberg : les initiés de Google remettent en question l’utilité du chatbot Bard

Deux participants de la communauté Bard sur Discord ont partagé à Bloomberg les détails des discussions dans le salon de discussion entre juillet et octobre. Le chef de produit senior de Bard, Dominik Rabiej, a déclaré lors de la discussion qu'il "ne faisait pas confiance" aux réponses générées par les grands modèles de langage et a recommandé aux gens d'utiliser Bard uniquement à des fins "créatives" et de "brainstorming". Rabiej a également déclaré qu'utiliser Bard pour la programmation "est également un bon choix" - car les gens veulent inévitablement vérifier que le code fonctionne.

Ce mois-ci également, Rabiej a souligné l'importance du nouveau bouton « Vérifier les réponses » dans Bard. La fonctionnalité mettrait en évidence le contenu « potentiellement incorrect » en orange. Il a également réitéré que Bard ne comprend pas vraiment le texte qu'il reçoit et répond simplement avec plus de texte en fonction des invites de l'utilisateur. « N'oubliez pas que Bard est génératif comme n'importe quel grand mannequin : il ne recherche pas d'informations ni ne résume pour vous, il génère du texte.

 »

Ce chef de produit a dit un jour sans ambages lors d'une conversation en juillet : Ne faites pas confiance aux résultats de sortie des grands modèles de langage à moins que (les utilisateurs eux-mêmes) puissent les vérifier de manière indépendante. "Nous voulons aussi qu'il réponde à vos attentes, mais ce n'est pas encore là

Un autre chef de produit, Warkentin, a également écrit dans la discussion : « Les améliorations humaines sont cruciales, ce n'est qu'ainsi que Bard pourra devenir un produit adapté à tout le monde. Sinon, les utilisateurs n'auront pas la possibilité de juger la fonction du produit, je pense que ce serait le cas. être une énorme erreur. « Nous n'avons pas besoin de produits dans des tours d'ivoire, mais de produits que tout le monde peut utiliser ! »

IT House a précédemment signalé que lorsque Google a étendu le déploiement des outils Bard AI en juillet de cette année, il a ajouté la fonction « partager le lien de conversation ». L'utilisateur peut exporter la conversation entre lui et Bard sous forme de lien Web et la partager avec d'autres, afin que d'autres puissent continuer la conversation avec Bard.

Un consultant en analyse Gagan Ghotra a découvert une vulnérabilité sur le

Gagan Ghotra a donc averti les utilisateurs de ne partager aucun « contenu privé » lorsqu'ils parlent à Bard, sinon les informations pertinentes pourraient être divulguées.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer