Maison > Article > Périphériques technologiques > Est-ce que GPT sera cool ? Buffett, Musk et d'autres grands noms appellent à la suspension
ChatGPT est rapidement devenu « populaire » dans le monde entier et est sans aucun doute devenu un « produit star » de premier plan dans le domaine de l’intelligence artificielle. Cependant, à mesure que ChatGPT devient de plus en plus largement utilisé, il a été rapporté qu’il était utilisé pour. fraude académique, fabrication d'armes de piratage et fuite d'informations sensibles sur les discussions des utilisateurs et d'une série de nouvelles négatives. À ce stade, la société a commencé à réexaminer les technologies d’intelligence artificielle comme ChatGPT.
Par rapport aux robots intelligents qui ont servi le domaine industriel dans le passé, ils ne peuvent remplacer les humains que dans des travaux manuels complexes, mécaniques et dangereux. La technologie d'intelligence artificielle comme ChatGPT est plus conversationnelle, flexible et peu pratique. La « capacité de réflexion indépendante » populaire a remodelé la compréhension que la société a du domaine de l'intelligence artificielle. À l'heure actuelle, les produits d'intelligence artificielle lancés par les géants de la technologie ont été intégrés dans divers types d'industries telles que l'écriture, la programmation et la peinture, déclenchant une nouvelle série de changements technologiques.
Il est incontestable qu'une fois que la technologie d'intelligence artificielle comme Chat GPT sera pleinement développée, elle sera en mesure de bien servir la société et de bénéficier à l'humanité. Dans le même temps, la technologie d'intelligence artificielle Chat GPT est également une « arme à double tranchant ». Ses problèmes de sécurité, de conformité et son impact sur la répartition du travail du personnel social ont attiré l'attention de nombreux leaders de l'industrie et de nombreux pays.
Lorsque la société entière est plongée dans le « fantasme » selon lequel une technologie d'intelligence artificielle comme ChatGPT déclenchera la quatrième révolution industrielle, de nombreux grands noms du monde L'industrie technologique a émis des opinions contradictoires, et même le développement rapide de la technologie d'intelligence artificielle de type ChatGPT suscite une légère inquiétude.
Récemment, Buffett, le parrain du secteur de l'investissement, a fait part de ses réflexions sur le développement rapide de l'intelligence artificielle de type ChatGPT dans une interview avec les médias. Buffett a déclaré aux journalistes qu'il ne fait aucun doute que la technologie de l'intelligence artificielle a effectivement fait des progrès incroyables en termes de capacités techniques, mais sur la base de son impact sur la société dans son ensemble, il n'existe actuellement aucun résultat expérimental à grande échelle pour soutenir que le développement de l'intelligence artificielle L'intelligence est bénéfique à l'humanité. De ce point de vue, le développement de l'intelligence artificielle doit être prudent et rationnel.
Les inquiétudes de Buffett ne sont pas déraisonnables. La popularité rapide de ChatGPT a dissimulé les problèmes de sécurité, de conformité et autres qui se cachent derrière. L'expérience directe des êtres humains de ce type de technologie est simplement qu'elle est avancée et efficace, et ils n'en ont pas. une compréhension approfondie de ses menaces potentielles.
À en juger par les informations actuellement divulguées par les médias, il existe déjà des preuves que certains pirates utilisent des produits d'intelligence artificielle similaires à ChatGPT pour écrire du code malveillant et des e-mails d'attaque de phishing, sans parler des problèmes de sécurité de ChatGPT lui-même. . (Auparavant, Samsung avait eu des fuites d'informations en raison de données de formation des employés sur ChatGPT ; fuite de la liste d'informations de discussion des utilisateurs de ChatGPT, etc.).
Avant que Buffett n'exprime ses inquiétudes concernant le développement de la technologie d'intelligence artificielle, le fondateur de Tesla, Musk, a publié conjointement une lettre ouverte avec des milliers de professionnels de la technologie appelant à la suspension de la formation de systèmes d'intelligence artificielle plus puissants que GPT-4 Système d'intelligence artificielle plus puissant.
Le 29 mars, Musk a agi et a signé une lettre ouverte signée par des milliers de célébrités industrielles et universitaires, appelant tous les laboratoires d'intelligence artificielle à suspendre la formation de systèmes d'intelligence artificielle plus puissants que GPT-4 pendant au moins 6 mois. afin de développer et de mettre en œuvre des protocoles de sécurité.
Concernant cette décision, Musk a déclaré que compte tenu des fortes capacités techniques démontrées par ChatGPT, ses problèmes de sécurité doivent être surveillés. En outre, Elon Musk a souligné à plusieurs reprises que l’intelligence artificielle possède des capacités puissantes mais comporte également d’énormes risques. Il estime même avec pessimisme que la technologie de l’intelligence artificielle constitue l’un des plus grands risques auxquels la civilisation humaine sera confrontée à l’avenir. .
Il convient de mentionner que contrairement à Buffett, Musk et d'autres ont une attitude « négative » à l'égard du développement de la technologie de l'intelligence artificielle, Bill Gates, l'ancien homme le plus riche du monde, est relativement optimiste à ce sujet et a déclaré que la suspension. Le développement ne peut pas résoudre complètement le problème. La meilleure solution est de déterminer quelles méthodes utiliser et d'utiliser rationnellement le développement de la technologie de l'intelligence artificielle.
De nombreux films, séries télévisées et romans ont imaginé des robots à intelligence artificielle au service de la société et bénéficiant à l'humanité. Ils se posent également des questions sur la sécurité, la fiabilité, la fidélité et la fiabilité. L'intelligence artificielle peut remplacer la domination humaine. Le monde a mené des discussions approfondies, et des produits comme ChatGPT concrétisent lentement cette idée. Lorsque les humains commencent réellement à faire face à « l'épée à double tranchant » du développement de l'intelligence artificielle, ils doivent le faire sérieusement. prendre en compte sa sécurité, sa conformité et d’autres problèmes.
Il y a une douzaine de jours, le gouvernement italien a interdit le fonctionnement de Chat GPT en Italie au motif qu'OpenAI collectait illégalement une grande quantité de données personnelles d'utilisateurs italiens et n'avait pas réussi à établir un mécanisme de vérification de l'âge des utilisateurs de ChatGPT pour empêcher les mineurs d'accéder à des documents illégaux. Après quelques jours de mise en mémoire tampon, l'agence italienne de protection des données a fait de légères concessions et a proposé une série d'exigences à OpenAI. Si elles peuvent être respectées, l'Italie permettra à ChatGPT de continuer à opérer dans le pays.
À ce stade, l'Italie a tiré le « premier coup » sur les problèmes de conformité de sécurité de ChatGPT.
Les mesures de sécurité prises par l'Italie sur ChatGPT ont attiré l'attention des pays européens. Actuellement, les pays européens étudient si des restrictions strictes sur les technologies d'intelligence artificielle similaires à ChatGPT sont nécessaires. Parmi eux, l'agence espagnole de protection des données a demandé au régulateur européen de la confidentialité d'évaluer les problèmes de conformité en matière de confidentialité entourant l'utilisation de ChatGPT.
Immédiatement après, les agences de régulation allemandes ont également annoncé une interdiction de l'utilisation de ChatGPT, et des pays européens comme la France, l'Irlande et l'Espagne ont également commencé à envisager une surveillance plus stricte des chatbots IA.
D'une pierre, l'Italie renforce sa surveillance de ChatGPT, ce qui non seulement suscite des inquiétudes concernant l'intelligence artificielle dans les pays de l'UE, mais affecte également les personnes de l'autre côté de l'Union européenne. océan.
Le 11 avril, heure locale des États-Unis, le « Wall Street Journal » a soudainement annoncé que, parce que la société américaine est préoccupée par les menaces de sécurité que peuvent apporter les technologies d'intelligence artificielle telles que ChatGPT, l'administration Biden a commencé à étudier s'il est nécessaire de restreindre ces outils.
À la suite de cela, le 11 avril, le ministère américain du Commerce a officiellement sollicité l'opinion du public sur les mesures de responsabilisation associées (le délai de sollicitation d'opinions est de 60 jours, y compris si les nouveaux modèles d'intelligence artificielle présentant des risques potentiels doivent être approuvés avant leur publication. Processus de certification) Cette décision est considérée comme la première étape d’une éventuelle réglementation de la technologie de l’intelligence artificielle aux États-Unis.
Concernant le besoin urgent d'établir des règles pour réglementer le développement des technologies d'intelligence artificielle comme ChatGPT, Alan Davidson, directeur de la National Telecommunications and Information Administration, une agence relevant du ministère américain du Commerce, a souligné qu'étant donné que la technologie d'intelligence artificielle n'en est qu'à ses débuts et est déjà si « avancé ». Le gouvernement doit prendre en compte les criminels potentiels qui utilisent cette technologie pour mener des activités criminelles et doit donc fixer certaines limites nécessaires.
Non seulement les États-Unis, mais aussi la Chine ont commencé à resserrer la recherche et le développement dans le domaine de l'intelligence humaine. Le 11 avril, l'Administration du cyberespace de Chine a publié les « Mesures de gestion pour les services d'intelligence artificielle générative (projet pour commentaires) » (ci-après dénommés les « Mesures de gestion ») dans le but de promouvoir le développement sain et l'application standardisée des services d'intelligence artificielle générative. technologie du renseignement. Il est rapporté que les « mesures de gestion » comprennent 21 éléments au total, parmi lesquels « l'intelligence artificielle générative » comprend une technologie qui génère du texte, des images, des sons, des vidéos, des codes et d'autres contenus basés sur des algorithmes, des modèles et des règles.
Les « Mesures de gestion » restreignent la division des responsabilités pour les informations générées par l'application de la technologie de l'intelligence artificielle et désignent clairement les organisations et les individus qui utilisent des produits d'intelligence artificielle générative pour fournir des services tels que le chat et la génération de textes, d'images et de sons. , y compris en fournissant des interfaces programmables, etc. Le procédé aide d'autres personnes à générer eux-mêmes du texte, des images, des sons, etc., et assume la responsabilité du producteur de contenu du produit si des informations personnelles sont impliquées, il assume la responsabilité légale de ; le sous-traitant des informations personnelles et remplit les obligations de protection des informations personnelles.
De plus, il existe également des exigences pour les fabricants de produits d'intelligence artificielle. Les « Mesures administratives » stipulent qu'avant le lancement des produits sur le marché, ils doivent se présenter au service national de cybersécurité et d'informatisation conformément au « Règlement sur l'évaluation de la sécurité ». des services d'information Internet dotés d'attributs d'opinion publique ou de capacités de mobilisation sociale" évaluation de la sécurité, et effectuer des procédures de dépôt d'algorithmes et de modification et d'annulation conformément au "Règlement de gestion des recommandations d'algorithmes de services d'information Internet".
Lorsqu'on parle de produits d'intelligence artificielle comme ChatGPT au niveau social, ils sont plus préoccupés par les données utilisées par les fabricants pour former les produits d'intelligence artificielle. Ceci est également souligné dans les « Mesures de gestion », qui soulignent clairement que la prédiction de. les produits d'intelligence artificielle générative sont La formation et l'optimisation des données de formation doivent répondre aux exigences suivantes :
À l'heure actuelle, après un grand nombre d'itérations de formation, les technologies d'intelligence artificielle comme ChatGPT se développent rapidement. Au contraire, les systèmes juridiques existants dans divers pays ne sont évidemment pas assez complets pour encadrer les technologies d'intelligence artificielle comme ChatGPT. L'adoption de réglementations pour réglementer le développement de la technologie de l'intelligence artificielle est devenue un problème majeur pour divers pays. Le premier problème à résoudre.
Avec le développement rapide de la technologie informatique, la vague de révolution technologique de l'intelligence artificielle est inévitable, et une certaine « intelligence artificielle » sera inévitablement remplacée à l'avenir. De plus, le grand nombre d'applications de la technologie de l'intelligence artificielle comme ChatGPT entraînera certainement des problèmes de sécurité tels que des fuites de données, l'optimisation des outils de piratage de réseau, des fraudes à grande échelle et des images fictives de l'IA.
Mais aucun des facteurs ci-dessus ne peut être une excuse pour suspendre la recherche et le développement de la technologie de l'intelligence artificielle. Les êtres humains ne devraient pas faire face à l'arrivée de l'intelligence artificielle avec crainte. Nous devons toujours nous rappeler que les « personnes » sont le fondement du développement. de la technologie de l'intelligence artificielle. Je crois qu'à l'avenir, grâce à l'optimisation continue de la technologie et à la formulation de réglementations, nous pourrons minimiser les dommages causés par les « dérivés ».
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!