Maison  >  Article  >  Périphériques technologiques  >  La « fraude à l'IA » est devenue un sujet de recherche brûlant. Comment l'IA peut-elle « faire le bien » après sa « sortie » ? |Commentaires chauds sur le diplôme en titane

La « fraude à l'IA » est devenue un sujet de recherche brûlant. Comment l'IA peut-elle « faire le bien » après sa « sortie » ? |Commentaires chauds sur le diplôme en titane

WBOY
WBOYavant
2023-06-07 10:01:261079parcourir

La « fraude à lIA » est devenue un sujet de recherche brûlant. Comment lIA peut-elle « faire le bien » après sa « sortie » ? |Commentaires chauds sur le diplôme en titane

Récemment, le Bureau d'enquête sur la cybercriminalité dans les télécommunications du Bureau de la sécurité publique de la ville de Baotou a publié un cas de fraude télécom utilisant la technologie intelligente de l'IA. La victime a été escroquée de 4,3 millions de yuans en 10 minutes. Le sujet de la « fraude à l'IA » est devenu un sujet de recherche brûlant.

À mesure que la technologie de l'IA devient plus mature, le degré de réalisme et de tromperie devient de plus en plus fort. Les chanteurs d'IA, les présentateurs qui ressemblent à des célébrités, etc. peuvent être truqués. Lorsque l'apparence et la voix peuvent être « hautement imitées », que devraient faire les gens. faire ?

Quels sont les progrès actuels dans la construction de spécifications pour l’IA générative ? Comment l’application de la technologie de l’IA peut-elle éviter les risques juridiques ?

Les fréquents incidents d'infraction et de fraude actuels limiteront-ils le développement de l'industrie ?

Ce numéro de « Tidu Hot Review » invite spécialement les hauts responsables des médias à discuter du sujet brûlant « la fraude à l'IA ». Comment l'IA peut-elle « faire le bien » après sa « sortie » ? Une discussion a eu lieu et voici quelques faits saillants.

Sur la manière dont les gens doivent prendre des précautions lorsque leur apparence et leur voix peuvent être copiées.

Jia Xiaojun, directeur de Bedo Finance, a déclaré que les outils sont neutres et que la clé réside dans la manière de les utiliser. La « fraude à l'IA » est un exemple typique. Pour le commun des mortels, la fraude générée par ce type de technologie d’IA est très difficile à identifier, surtout lorsque le son et la vidéo sont simulés.

La raison pour laquelle la fraude à l'IA peut se produire est essentiellement un problème causé par la fuite d'informations personnelles. L'autre partie peut maîtriser les informations sensibles des parties concernées, fournir avec précision des comptes, des adresses et d'autres informations, et peut également obtenir des carnets d'adresses, ainsi frauder les utilisateurs de fonds.

Pour les gens ordinaires, lorsqu'il s'agit de fonds, ils doivent rester sensibles et vérifier soigneusement s'il y a des problèmes. Il est préférable de procéder à une vérification croisée et de garder un œil attentif sur leur portefeuille.

D'un point de vue réglementaire, l'introduction de personnel scientifique et technologique doit être renforcée et les technologies de contre-mesures pertinentes doivent être innovées pour fournir des rappels et une prévention rapides et efficaces. Dans le même temps, nous renforcerons les seuils d’accès aux plateformes et prendrons des mesures d’interception raisonnables.

Guo Shiliang, expert du groupe de réflexion « Whale Platform », a déclaré que tout le monde parle de l'IA, mais que les gens voient davantage les avantages de l'IA, mais voient rarement les impacts négatifs de l'IA. Quelqu'un a été escroqué de 4,3 millions en 10 minutes. La clé est que l'escroc a utilisé la technologie de changement de visage de l'IA et que la victime a réussi la vérification vidéo avant de transférer l'argent. De manière inattendue, cela s'est avéré être une arnaque, et c'était un montant élevé. -fin d'arnaque. Il semblait agir parfaitement.

Plus tard, avec l'aide totale de la banque, il a fallu 10 minutes pour réussir à intercepter les fonds frauduleux de 3,3684 millions de yuans sur le compte frauduleux, mais 931 600 yuans de fonds sont toujours en cours de récupération. La fraude par l'IA est très intelligente, utilisant à la fois la technologie de synthèse vocale et la technologie de changement de visage de l'IA. Elle peut même envahir les coordonnées des amis de l'autre partie et réussir à voler son argent.

L'arrivée de l'ère de l'IA apporte des opportunités ainsi que des tests. À l’heure actuelle, les fraudeurs utilisent les nouvelles technologies pour frauder, et les méthodes antifraude doivent s’adapter à leur époque. La sensibilisation de chacun à la lutte contre la fraude doit également être améliorée. Chaque fois qu’un contenu sensible tel que des transferts est impliqué, tout le monde doit être vigilant. L'ère de l'IA est arrivée et les lois et réglementations associées doivent être suivies à mesure que la technologie progresse, les capacités d'application de la réglementation et la technologie antifraude doivent également suivre le rythme.

Jiang Han, chercheur principal au Pangu Think Tank, a déclaré qu'avec le développement de la technologie de l'intelligence artificielle, la fraude à l'IA a également commencé à apparaître. La fraude par IA est un type de fraude qui utilise la technologie de l'intelligence artificielle. L'avantage de cette méthode de fraude est qu'elle peut réaliser des attaques à plus haute fréquence, un ciblage plus précis et des effets de tromperie plus efficaces. C'est également une arme à double tranchant dans le processus technologique. développement. Comment devrions-nous considérer et réagir à ce type de fraude ?

Tout d’abord, les incidents de fraude fréquents obligent chacun à améliorer continuellement sa capacité d’apprentissage et à identifier les risques de fraude potentiels. La technologie de l'IA a renforcé les méthodes d'attaque des criminels en termes d'analyse des données de base, de formation de modèles et de prise de décision en matière d'intelligence artificielle. Pour prévenir une telle fraude, les consommateurs doivent améliorer leur connaissance technique et leurs capacités d'identification des risques. Vous devez essayer de ne pas donner aux appels inconnus une chance de répondre, de ne pas être crédule ou trompé et de protéger votre vie privée et la sécurité de vos biens.

Deuxièmement, les entreprises doivent renforcer leur autodiscipline, la supervision doit guider les normes du marché et les individus doivent renforcer davantage leur sensibilisation à la prévention et au contrôle des risques. La technologie de l'IA peut apporter efficacité et avantages concurrentiels aux entreprises, mais elles doivent également prêter attention à l'équilibre entre innovation et conformité. Surtout lorsqu'il s'agit de domaines sensibles tels que les informations sur les utilisateurs et la confidentialité, les entreprises doivent renforcer leur autodiscipline et leur contrôle de conformité. Pour les agences de régulation, il est nécessaire d’orienter l’élaboration de normes de marché et de prévenir de telles activités illégales et criminelles. Les individus doivent participer activement à la gestion de la sécurité publique, acquérir de nouvelles connaissances sur la prévention de la fraude et améliorer leur capacité à identifier les fraudes potentielles.

À long terme, la tendance de l'IA vers les grands modèles génératifs se poursuivra, mais comment utiliser l'IA comme un outil pour l'améliorer nécessite que tout le monde travaille ensemble. Dans le processus de développement de l'IA, il est nécessaire de prêter attention à la conformité et à la sécurité de la technologie, et de promouvoir la réalisation de la technologie de l'IA et des lois, de la morale et de l'éthique traditionnelles. Le développement de l'IA ne peut pas simplement rechercher la rapidité et l'efficacité. En même temps, il doit également se baser sur l'étude de la nature humaine, garder à l'esprit l'intention initiale d'utiliser l'intelligence artificielle pour mieux servir la société, explorer et optimiser le paradigme de l'IA, et prévenir. les abus et les dommages potentiels, et aider au développement d'AI Sound.

Bi Xiaojuan, rédacteur en chef du New Economic Observer Group, a déclaré que, comme le dit le proverbe, la technologie a toujours été une arme à double tranchant. Au cours des dernières années, nous avons pu constater que le développement du Big Data et de l'économie du partage a apporté des avantages économiques et sociaux considérables, mais il en a résulté un grand nombre de fuites d'informations personnelles et de fraude et de harcèlement sur les réseaux de télécommunications. les SMS sont apparus les uns après les autres. Cependant, grâce à l'inspection et à la correction des déficiences réglementaires, au suivi en temps opportun des politiques et réglementations et à l'amélioration de la sensibilisation du public à la prévention, des incidents de fraude similaires ont été atténués dans une certaine mesure.

Maintenant, le même processus se déroule également dans le domaine de l’IA. La valeur commerciale de la technologie de l'IA continue d'être révélée, mais elle fait également des fraudeurs de l'IA « comme un tigre volant dans le ciel » : en se faisant passer pour les parents et amis de l'utilisateur en changeant de visage, en simulant la voix et d'autres moyens, c'est presque Il est possible d'escroquer les gens avec de faux, ce qui rend difficile la distinction pour les utilisateurs et extrêmement facile de tomber dans le piège. De plus, grâce à la technologie de l’IA, les criminels peuvent frauder un grand nombre d’utilisateurs en même temps, causant ainsi un plus grand nombre de préjudices et des pertes matérielles plus importantes pour les victimes.

Mais en tant qu'utilisateur ordinaire, il n'est certainement pas impuissant face à l'IA. Tout d’abord, nous devons accroître notre sensibilisation à la prévention des risques liés aux biens personnels et nous méfier de ce nouveau type de fraude ; deuxièmement, renforcer la protection des informations personnelles et ne pas enregistrer un grand nombre d’applications non officielles et de rencontres ; une partie demande d'emprunter de l'argent ou de transférer de l'argent par des moyens audio ou vidéo. Peu importe à quel point l'autre partie est anxieuse, essayez d'utiliser plusieurs méthodes et effectuez une vérification hors ligne avant de transférer de l'argent si possible. S'il s'agit de transferts de montants importants, vous pouvez même y aller. au guichet de la banque pour le gérer ; enfin, si vous êtes malheureusement dupé, appelez la police au plus vite. Traitez-le et contactez la banque compétente pour stopper au maximum la perte.

En termes de lois, de réglementations et de contrôle, nous devons assurer un suivi en temps opportun, fixer des seuils et des pare-feu pour le développement et l'application de la technologie de l'IA, et promouvoir l'IA pour de bon. La bonne nouvelle est que début avril, l'Administration chinoise du cyberespace a rédigé les « Mesures pour la gestion des services d'intelligence artificielle générative (projet pour commentaires) » et a publiquement sollicité l'opinion du public. développement sain et standardisé de l'industrie chinoise de l'IA et prévenir les violations et les violations du chaos.

Pour les praticiens de l'IA, ils doivent suivre l'orientation des politiques réglementaires nationales, rester sensibles à l'éthique de l'IA et parvenir à l'unification du développement technologique et de la responsabilité d'entreprise.

L'observateur de l'industrie Wenzi a déclaré que les recherches sur la sécurité de l'IA remontent à 2008. Jusqu’à présent, il a couvert de nombreux domaines. Dans une enquête réalisée en 2022 auprès de la communauté du traitement du langage naturel (NLP), 37 % étaient d’accord ou plutôt d’accord avec l’idée que la prise de décision par l’IA pourrait conduire à un désastre « au moins aussi grave qu’une guerre nucléaire totale ». Cependant, il y a des voix dissidentes, comme Andrew Ng, professeur adjoint à l'Université de Stanford, qui compare cela à « s'inquiéter de la surpopulation sur Mars avant même de mettre les pieds sur Terre

».

Le point de vue du Dr Samuel Bowman est une compréhension plus pertinente de cette question : au lieu d’arrêter la recherche sur l’IA/ML dans le monde, les gens devraient s’assurer que tous les systèmes d’intelligence artificielle suffisamment puissants sont construits et déployés de manière responsable.

Zhang Jingke, fondateur d'Internet Beijing Diary, a déclaré qu'avec la quantité massive d'informations produites à grande vitesse par l'IA, l'humanité sera inévitablement à nouveau confrontée au problème des fausses informations, cent fois plus élevé qu'à l'ère de l'information sur Internet. explosion.

Si vous souhaitez protéger la plupart des gens contre tout préjudice, vous pouvez vous référer au modèle traditionnel de protection des informations et des droits d'auteur des œuvres. Autrement dit, la diffusion de l'information doit être marquée avec la source. S'il s'agit d'un écrit d'IA, l'auteur doit être marqué. C’est aussi le prix nécessaire à payer par les internautes et le capital pour éliminer les intermédiaires de diffusion de l’information. À long terme, une information gratuite et dépourvue de contrôle ne sera plus juste et efficace.

Quels sont les progrès actuels dans la construction d’un cahier des charges pour l’IA générative ? Comment l’application de la technologie de l’IA peut-elle éviter les risques juridiques ?

Chu Shaojun, directeur de How Much Talk, a déclaré que tout d'abord, dans le domaine de la communication et de l'opinion publique, "les bonnes choses ne sortent pas et les mauvaises se propagent sur des milliers de kilomètres". Ce n’est fondamentalement rien de nouveau, et ce n’est qu’une méthode de fraude parmi des milliers. Cependant, parce qu’elle est liée à la technologie et aux applications populaires de l’IA, elle peut facilement devenir un sujet brûlant, attirant l’attention de toutes les parties, et même former une croisade. contre les nouvelles technologies et les nouveaux domaines dans une certaine mesure. Des appels à l'encadrement des nouvelles technologies surgiront à nouveau. Mais pour l'instant, il n'est pas nécessaire d'accorder trop d'attention aux nouvelles technologies et aux nouveaux domaines et de les superviser prématurément. Après tout, le développement de toute nouvelle technologie et de tout nouveau domaine nécessite du temps et de la tolérance, et nécessite parfois même un certain " Croissance sauvage »dans le temps et l’espace.

Deuxièmement, dans les nouveaux domaines et les nouvelles technologies, la supervision et la législation sont souvent à la traîne. Cette question exige plus d'autodiscipline de la part des entreprises et des industries. Tout en développant les affaires et la technologie, les entreprises doivent prendre davantage en compte leurs propres responsabilités sociales. , une meilleure prédiction et prévention lors des étapes de R&D et de conception. Dans le même temps, l’éducation des utilisateurs et la vulgarisation scientifique doivent être renforcées afin que les utilisateurs et le grand public puissent comprendre les nouvelles technologies et les nouveaux domaines et étouffer les problèmes dans l’œuf. Dans le même temps, les utilisateurs et le public eux-mêmes doivent en apprendre davantage et y prêter plus d'attention. En même temps, ils doivent être plus prudents et vérifier plusieurs façons de gagner de l'argent, d'emprunter de l'argent et de transférer de l'argent en même temps. croyez que « la tarte tombera du ciel ».

Troisièmement, les nouvelles technologies peuvent être utilisées à des fins de fraude, mais d'un autre point de vue, l'émergence de nouvelles technologies peut également être utilisée pour la prévention et la lutte contre la fraude. Souvent, la technologie est neutre ou neutre, la clé dépend de la manière dont elle est appliquée et standardisée. Les fréquents incidents actuels de contrefaçon et de fraude ne limiteront pas le développement de l'industrie, mais favoriseront le développement standardisé de l'industrie. Après tout, après la croissance barbare, la fréquence des incidents négatifs déclenchera d'une part la surveillance de l'opinion publique. et incite naturellement les entreprises et les industries à devenir plus autodisciplinées, d'autre part, la surveillance et la législation vont certainement s'accélérer et, à terme, l'industrie sera poussée vers un développement plus standardisé.

Enfin, nous devons éviter les réflexions extrêmes et les réflexions excessives sur la réglementation. Même si des événements négatifs se produisent, d'une part, une surveillance et une législation sont nécessaires, d'autre part, la surveillance et la législation doivent également tenir compte de la tolérance et du temps nécessaire pour y parvenir. donner à l’industrie suffisamment de temps pour se développer. Après tout, dans l'ensemble, le développement futur de l'IA, en particulier de l'AIGC et d'autres domaines, pourrait non seulement affecter le secteur des entreprises, mais aussi le droit du pays à s'exprimer dans le domaine technologique. Toutes les parties ont la responsabilité de créer de nouvelles technologies. se développer mieux et de manière plus stable.

Le blogueur sur les technologies Internet Pipitui a déclaré que la technologie de l'intelligence artificielle est de plus en plus mature. Y a-t-il des risques et comment les éviter ? La réponse donnée par Tongyi Qianwen est la suivante : le développement de la technologie de l'intelligence artificielle a en effet apporté de nombreuses commodités et opportunités aux gens, mais il a également apporté certains risques et défis.

Éviter les risques liés à l'IA peut commencer par les points suivants. Le premier est la confidentialité des données : lors de la collecte et de l'utilisation de données personnelles, des règles strictes en matière de confidentialité et de protection doivent être respectées pour garantir que les données ne soient pas utilisées de manière abusive ou divulguées. Deuxièmement, la transparence et l’explicabilité : les systèmes d’IA doivent être transparents et explicables afin que les gens puissent comprendre leurs décisions et leurs comportements. Troisièmement, la sécurité : assurer la sécurité du système d'IA, notamment en empêchant les attaques malveillantes, la sauvegarde et la récupération des données, la correction des erreurs, etc. Quatrièmement, conformité légale : garantir que le système d'IA est conforme aux lois, réglementations et normes éthiques pertinentes, et évite les conflits avec la loi. Cinquièmement, niveau technique : assurer le niveau technique du système d'IA pour éviter les abus ou les utilisations abusives de la technologie. Enfin, coopération et collaboration : coopérer et collaborer avec d'autres parties prenantes pour garantir que le développement et l'application de systèmes d'IA sont dans l'intérêt public et la responsabilité sociale.

En bref, pour éviter les risques liés à l'IA, nous devons veiller à ce que le développement, l'utilisation et la gestion des systèmes d'IA soient conformes aux normes éthiques, juridiques et de sécurité. Nous devons également renforcer l'éducation et la participation du public pour promouvoir le développement sain de l'IA. Technologie IA.

Zheng Yang, directeur du département de développement stratégique de Zhonghuo International, a déclaré que les types actuels de fraude par l'IA incluent principalement la synthèse vocale, le changement de visage de l'IA et l'utilisation du Big Data et de la technologie de l'IA pour filtrer et filtrer les informations afin de cibler des groupes cibles. La technologie est une arme à double tranchant. Des expériences historiques telles que la fraude téléphonique par SMS, le vol de compte et le p2p ont vérifié la vérité à maintes reprises, c'est-à-dire que chaque itération de nouvelle technologie entraînera une fraude technologique sans fin.

Utilisez la pensée inversée pour penser. Tout d'abord, le cœur de la fraude par l'IA est qu'elle peut être fausse et réelle. L'objectif de la prévention et de la supervision est de savoir comment identifier plus facilement le contenu généré par l'IA et comment laisser les gens ordinaires. avoir une compréhension approfondie des risques possibles de la technologie de l’IA (bon sens populaire). Deuxièmement, le fondement de la technologie antifraude basée sur l’IA réside dans les données, et la prévention et la surveillance se concentrent sur la manière de prévenir la fuite et l’abus d’informations personnelles.

En outre, d'un point de vue réglementaire, d'une part, une éducation précise, une prévention et un contrôle des groupes vulnérables, tels que les nids vides et les chasseurs d'étoiles fanatiques, doivent être menés à l'avance. En revanche, les rencontres en ligne, les rencontres, les prêts, les jeux en ligne et autres canaux peuvent être strictement supervisés.

Dans le processus de commercialisation de toute technologie, sa valeur sociale et sa valeur économique doivent être équilibrées. En ce qui concerne le développement actuel de la technologie de l’IA, les problèmes sociaux les plus importants comprennent les risques liés à la vie privée et à la protection des données, les risques de violation de la propriété intellectuelle, les risques moraux et éthiques, etc. Ces problèmes affecteront inévitablement la vitesse de commercialisation de la technologie de l’IA, mais il s’agit en soi d’un processus nécessaire à la mise en œuvre de la technologie.

Si la technologie de l'IA veut réduire fondamentalement les risques juridiques, d'une part, elle a besoin que les sociétés de production de la technologie de l'IA et de ses outils autorégulent la plateforme. Par exemple, Google marquera chaque image générée par l'IA et créée par. ses outils comme un bon comportement au début. D'un autre côté, les départements concernés doivent établir dès que possible les lois réglementaires, les réglementations et les systèmes de normes pertinents pour clarifier les limites juridiques et les entités responsables. Par exemple, les réglementations publiées par l'Administration du cyberespace de Chine en avril exigent que les organisations et les individus fournissent des services. Les services d'IA doivent assumer la responsabilité des producteurs de contenu.

Wei Li, fondateur de Dali Finance, a déclaré qu'à en juger par les informations actuellement publiées sur les cas de fraude à l'IA, les technologies impliquées dans la fraude à l'IA sont principalement des technologies de synthèse profonde, y compris la technologie de changement de visage de l'IA, la technologie de synthèse vocale (son) et la génération de texte. modèles. Les criminels peuvent utiliser la technologie de changement de visage de l’IA pour créer de fausses vidéos ou photos afin de tromper les autres en se faisant passer pour d’autres.

Au niveau technique, de nombreuses entreprises technologiques et chercheurs s'entraînent activement à identifier ce type de contenu de synthèse profonde d'IA grâce à des « contre-mesures techniques ». Ces produits de « contre-mesures techniques » sont généralement basés sur la technologie d'apprentissage en profondeur, par exemple par l'analyse. Les caractéristiques de la vidéo, les traces de traitement et les « incohérences » dans les traits du visage sont détectées pour identifier les vidéos générées par l'IA.

En termes de prévention et de contrôle juridiques, les agences publiques, les plateformes et les particuliers travaillent ensemble. Alors que les plateformes continuent d'améliorer leurs capacités d'audit et de surveillance conformément aux diverses exigences réglementaires, les individus doivent également être vigilants à tout moment. Il peut également être nécessaire d'établir des bases de données de collaboration et de partage, de collecter et de stocker des échantillons vidéo confirmés, ou d'établir des alliances anti-fraude contre l'IA et d'autres pratiques d'application de la loi.

Comment faire de la technologie de l'intelligence artificielle une « technologie pour le bien » est devenu un problème urgent à résoudre. Premièrement, la confidentialité et la sécurité des données sont très importantes. Il est nécessaire de renforcer la supervision et la gestion de la technologie de l’intelligence artificielle pour prévenir l’abus et l’utilisation abusive des informations personnelles. Deuxièmement, la sécurité, la fiabilité, la transparence et l’équité de la technologie de l’intelligence artificielle doivent être renforcées. Enfin, il est nécessaire de renforcer l'éducation et la vulgarisation de la technologie de l'intelligence artificielle, d'améliorer les connaissances scientifiques et technologiques et la sensibilisation à la sécurité du public, et d'éviter d'être trompé et victimisé.

À proposLes fréquents incidents d'infraction et de fraude actuels limiteront-ils le développement de l'industrie ?

Zu Tengfei, un haut responsable des médias, a déclaré : « La technologie elle-même est innocente. » La clé dépend de qui l'utilise. Les nouvelles technologies comme l’IA ne sont pas nouvelles aujourd’hui, pas plus que les « méchants » qui cherchent à gagner de l’argent grâce à la fraude. Nous ne devrions pas arrêter de manger à cause de l’étouffement. D’un point de vue mondial, l’IA est une direction que presque tous les pays développent vigoureusement. Elle peut être appliquée dans de nombreux domaines et peut libérer la productivité et améliorer l’efficacité de la production.

En remontant à la racine, la source de la fraude à l’IA est la fuite d’informations personnelles. Auparavant, en raison de la fuite d'informations personnelles, tout le monde était harcelé par des appels téléphoniques et bombardé de messages texte. Couplée à la fraude actuelle à l'IA, la protection des informations personnelles a atteint le point où elle doit être assurée. Diverses applications nécessitent l'accès à des numéros de téléphone, des photos, des emplacements géographiques, etc. lors du téléchargement. Ces informations sont-elles efficacement protégées par les éditeurs de logiciels concernés ? Ou est-il revendu et exploité par des personnes ayant des arrière-pensées ?

Pour faire face à ce nouveau type de fraude à l'IA, il faut encore suivre les points de connaissance popularisés par divers blogueurs anti-fraude, comme protéger les informations personnelles, vérifier les messages, ne pas transférer d'argent, ne pas payer, etc. Dans le même temps, les entreprises concernées doivent respecter strictement les politiques pertinentes, améliorer l'éthique de la technologie de l'IA et renforcer les mesures de supervision de la sécurité.

Tang Chen, responsable de l'AIGC, a déclaré que les cas négatifs sont inévitables lors du développement de l'AIGC. La fraude à l'IA, les personnes numériques, le changement de visage, etc. sont autant de manifestations des capacités des outils d'intelligence artificielle. Comment éviter les effets négatifs provoqués par le développement de l’intelligence artificielle nécessite fondamentalement de réglementer qui peut utiliser l’intelligence artificielle. Il y a deux jours, Stefanie Sun a répondu à la controverse sur le droit d'auteur provoquée par "AI Stefanie" et a déclaré : "Tout est possible et tout n'a pas d'importance. Je pense qu'il suffit d'avoir des pensées pures et d'être soi-même. La réponse de Stefanie Sun a été très appréciée." par le public, sauf En plus du simple éloge du bon talent littéraire et de la grande mise en page, le sens le plus profond est qu'elle montre la confiance des êtres humains. C'est aussi la confiance des êtres humains que l'intelligence artificielle ne pourra pas remplacer. les humains en peu de temps. Sa mentalité devrait aussi devenir une référence pour le public.

De même, cette logique s’applique à toute industrie que l’intelligence artificielle est en train de transformer. Comme l'a déclaré Sam Altman, PDG d'OpenAI, la technologie de l'intelligence artificielle va remodeler la société telle que nous la connaissons. Elle pourrait être « la plus grande technologie développée par l'humanité à ce jour » et améliorera considérablement la vie humaine. Mais il existe de réels dangers à y faire face, et les gens devraient être heureux d’en avoir un peu peur. Ce n'est qu'avec respect que nous pouvons utiliser la technologie de l'intelligence artificielle à des fins humaines dans le développement de la science et de la technologie. Dans ce processus, ce qui inquiète les gens n'est pas la technologie elle-même, tout comme Stefanie Sun elle-même ne s'inquiète pas trop de l'IA Stefanie Sun, mais de la motivation des êtres humains à utiliser la technologie. Tout le monde devrait prêter plus d’attention, vers quoi voulez-vous que la technologie évolue ? Et en quoi la non-technologie transformera-t-elle les humains ? C’est peut-être là l’essence du problème.

"Titanium Hot Review" est une chronique d'observation d'événements d'actualité lancée par Titanium Media. Elle invite principalement les médias et les praticiens de l'industrie qui ont des idées uniques et des observations approfondies sur le développement de différentes industries et de différents modèles commerciaux à afficher de manière exhaustive les événements à travers plusieurs. -interprétation des angles.

Si vous vous souciez des dernières tendances, avez vos propres opinions et souhaitez partager et échanger des points de vue avec d'autres personnes partageant les mêmes idées, n'hésitez pas à rejoindre l'assistant communautaire "Tiado Hot Review" WeChat : taiduzhushou et rejoignez le " Groupe communautaire Tiado Hot Review", rejoignez-nous pour créer une communauté de penseurs, afin que les réflexions précieuses puissent être vues par plus de personnes !

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer