Maison  >  Article  >  Périphériques technologiques  >  GPT-4 fonctionne mal en inférence graphique ? Même après « libération de l'eau », le taux de précision n'est que de 33 %

GPT-4 fonctionne mal en inférence graphique ? Même après « libération de l'eau », le taux de précision n'est que de 33 %

王林
王林avant
2023-11-21 08:38:56727parcourir

La capacité de raisonnement graphique du GPT-4 est inférieure de moitié à celle des humains ?

Une étude du Santa Fe Research Institute aux États-Unis montre que la précision du GPT-4 pour les questions de raisonnement graphique n'est que de 33%.

GPT-4v a des capacités multimodales, mais ses performances sont relativement médiocres et ne peuvent répondre correctement qu'à 25 % des questions

GPT-4 fonctionne mal en inférence graphique ? Même après « libération de leau », le taux de précision nest que de 33 %

△La ligne pointillée représente la performance moyenne de 16 tâches

Dès que les résultats de cette expérience ont été publiés, a immédiatement provoqué de larges discussions sur YC

Certains internautes qui ont soutenu ce résultat ont déclaré que GPT ne fonctionnait pas bien dans le traitement des graphiques abstraits et qu'il était plus difficile de comprendre des concepts tels que "position" et "rotation"

GPT-4 fonctionne mal en inférence graphique ? Même après « libération de leau », le taux de précision nest que de 33 %

Cependant, certains internautes ont exprimé des doutes sur cette conclusion. Leurs opinions peuvent être simplement résumées comme suit :

Bien que cette opinion ne puisse pas être considérée comme fausse, elle n'est pas complètement convaincante

GPT-4 fonctionne mal en inférence graphique ? Même après « libération de leau », le taux de précision nest que de 33 %

En ce qui concerne les détails. raisons, nous continuons à lire.

La précision de GPT-4 n'est que de 33%

Afin d'évaluer les performances des humains et de GPT-4 sur ces problèmes graphiques, les chercheurs ont utilisé l'ensemble de données ConceptARC lancé en mai de cette année

ConceptARC comprend un total de 16 sous-catégories Questions de raisonnement graphique, 30 questions par catégorie, 480 questions au total.

GPT-4 fonctionne mal en inférence graphique ? Même après « libération de leau », le taux de précision nest que de 33 %

Ces 16 sous-catégories incluent les relations de position, les formes, les opérations, les comparaisons, etc.

Plus précisément, ces questions sont composées de blocs de pixels. Les humains et GPT doivent trouver des modèles basés sur des exemples donnés et analyser les résultats des images traitées de la même manière.

L'auteur montre spécifiquement des exemples de ces 16 sous-catégories dans l'article, une pour chaque catégorie.

GPT-4 fonctionne mal en inférence graphique ? Même après « libération de leau », le taux de précision nest que de 33 %
GPT-4 fonctionne mal en inférence graphique ? Même après « libération de leau », le taux de précision nest que de 33 %
GPT-4 fonctionne mal en inférence graphique ? Même après « libération de leau », le taux de précision nest que de 33 %

Les résultats ont montré que le taux de précision moyen de 451 sujets humains n'était pas inférieur à 83 % dans chaque sous-élément, et que la moyenne de 16 tâches atteignait 91 %.

Dans le cas où vous pouvez essayer une question trois fois (si vous réussissez une fois), la précision la plus élevée du GPT-4 (échantillon unique) ne dépasse pas 60 %, et la moyenne n'est que de 33 %

GPT-4 fonctionne mal en inférence graphique ? Même après « libération de leau », le taux de précision nest que de 33 %

Matin Il y a quelque temps, l'auteur de ConceptARC Benchmark impliqué dans cette expérience a également mené une expérience similaire, mais le test sur échantillon zéro a été réalisé dans GPT-4. En conséquence, le taux de précision moyen de 16 tâches était. seulement 19 %.

GPT-4 fonctionne mal en inférence graphique ? Même après « libération de leau », le taux de précision nest que de 33 %

GPT-4v est un modèle multimodal, mais sa précision est faible. Sur un ensemble de données ConceptARC à petite échelle composé de 48 questions, les taux de précision des tests sur échantillon nul et des tests sur échantillon unique n'étaient respectivement que de 25 % et 23 %

GPT-4 fonctionne mal en inférence graphique ? Même après « libération de leau », le taux de précision nest que de 33 %

Après une analyse plus approfondie des mauvaises réponses, les chercheurs ont découvert Certaines erreurs humaines semblent susceptibles d'être causées par une "négligence", alors que GPT ne comprend pas du tout les règles de la question.

GPT-4 fonctionne mal en inférence graphique ? Même après « libération de leau », le taux de précision nest que de 33 %

La plupart des internautes n'ont aucun doute sur ces données, mais ce qui a remis en question cette expérience, c'est le groupe de sujets recrutés et la méthode de saisie fournie à GPT

La méthode de sélection des sujets a été remise en question

Au début, les participants à la recherche recrutés sujets sur une plateforme de crowdsourcing Amazon.

Le chercheur a extrait quelques questions simples de l'ensemble de données en guise de test d'introduction. Les sujets doivent répondre correctement à au moins deux des trois questions aléatoires avant de passer le test formel.

Les résultats trouvés par les chercheurs montrent que certaines personnes ne passent le test d'entrée que dans le but d'être avides d'argent et ne répondent pas du tout aux questions comme requis

En dernier recours, le chercheuraugmente le seuil d'admission le testau point qu'il peut être réalisé sur la plateforme. Réussissez pas moins de 2 000 tâches, et le taux de réussite doit atteindre 99 %.

Cependant, bien que l'auteur utilise le taux de réussite pour sélectionner les personnes, en termes de capacités spécifiques, outre la nécessité pour les sujets de connaître l'anglais, il n'y a « aucune exigence particulière » pour d'autres capacités professionnelles telles que le graphisme.

Pour parvenir à la diversité des données, les chercheurs ont déplacé leurs efforts de recrutement vers une autre plateforme de crowdsourcing plus tard dans l'expérience. Au final, un total de 415 sujets ont participé à cette expérience

Cependant, certaines personnes se demandaient encore si les échantillons de l'expérience n'étaient "pas assez aléatoires".

GPT-4 fonctionne mal en inférence graphique ? Même après « libération de leau », le taux de précision nest que de 33 %

Certains internautes ont souligné que sur la plateforme de crowdsourcing Amazon utilisée par les chercheurs pour recruter des sujets, il y a de grands modèles se faisant passer pour des humains.

GPT-4 fonctionne mal en inférence graphique ? Même après « libération de leau », le taux de précision nest que de 33 %

Le fonctionnement de la version multimodale de GPT est relativement simple, il suffit de transmettre directement l'image et d'utiliser le mot d'invite correspondant

GPT-4 fonctionne mal en inférence graphique ? Même après « libération de leau », le taux de précision nest que de 33 %

Dans le test à échantillon zéro, supprimez simplement la partie EXEMPLE correspondante

Mais pour la version en texte brut de GPT-4 (0613) sans multimodalité, l'image doit être convertie en points de grille et utiliser des nombres au lieu de couleurs.

GPT-4 fonctionne mal en inférence graphique ? Même après « libération de leau », le taux de précision nest que de 33 %

Certaines personnes ne sont pas d'accord avec cette opération :

Après avoir converti l'image en matrice numérique, le concept a complètement changé Même les humains, en regardant des "graphiques" représentés par des nombres, puis-je ne pas le faire. comprenez-le non plus

GPT-4 fonctionne mal en inférence graphique ? Même après « libération de leau », le taux de précision nest que de 33 %

Encore une chose

Par coïncidence, Joy Hsu, une doctorante chinoise à l'Université de Stanford, a également testé la capacité de compréhension graphique de GPT-4v sur un ensemble de données géométriques

L'année dernière, un ensemble de données a été publié visant à tester votre compréhension de la géométrie euclidienne avec de grands modèles. Après l'ouverture de GPT-4v, Hsu a utilisé l'ensemble de données pour le tester à nouveau

et a découvert que la façon dont GPT-4v comprend les graphiques semble être "complètement différente de celle des humains".

GPT-4 fonctionne mal en inférence graphique ? Même après « libération de leau », le taux de précision nest que de 33 %

En termes de données, GPT-4v est évidemment inférieur aux humains pour répondre à ces questions géométriques

GPT-4 fonctionne mal en inférence graphique ? Même après « libération de leau », le taux de précision nest que de 33 %

Adresse papier :
[1]https://arxiv.org/abs/2305.07141
[2 ]https://arxiv.org/abs/2311.09247

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer