Heim >Technologie-Peripheriegeräte >KI >Der ChatGPT-Trend breitet sich im ganzen Land aus. Kann die KI-Überwachung gleichzeitig zunehmen?
Der neue Chat-Roboter ChatGPT, der vom amerikanischen Unternehmen für künstliche Intelligenz OpenAI eingeführt wurde, ist im Internet populär geworden. Seine leistungsstarken Funktionen haben in der Gesellschaft breite Aufmerksamkeit erregt und werden als KI-„Meilenstein“-Anwendungen bezeichnet. Große Unternehmen haben in die Entwicklungswelle von ChatGPT-ähnlichen Anwendungen investiert, aber die „Popularität“ von ChatGPT hat auch Diskussionen über Fragen der Überwachung künstlicher Intelligenz ausgelöst.
ChatGPT ist erst seit zwei Monaten verfügbar und seine monatlich aktiven Nutzer haben 100 Millionen erreicht, was es zur am schnellsten wachsenden Verbraucheranwendung in der Geschichte macht. Viele Internet-Technologieunternehmen wie Microsoft, Tencent, Baidu und Alibaba haben seit einiger Zeit nacheinander ihre Errungenschaften und technischen Layouts im Bereich ChatGPT veröffentlicht, die man als „Zusammenschluss“ bezeichnen kann. Die schnellen Antworten und einfachen Bedienungen von ChatGPT haben dazu geführt, dass viele Benutzer es nicht nur als Chat-Tool, sondern auch zum Überprüfen von Informationen und zum Verfassen von Dokumenten verwenden.
Da jedoch der Anwendungsbereich von ChatGPT immer größer wird, geraten seine verborgenen Risiken zunehmend in den Fokus der Öffentlichkeit. Auch wenn ChatGPT heute nicht perfekt ist, aktualisiert es dennoch unser Verständnis darüber, dass die Entwicklung künstlicher Intelligenz eine gesetzliche Aufsicht erfordert. ChatGPT hat unglaubliche Fortschritte in der künstlichen Intelligenz gezeigt, aber auch rechtliche und ethische Probleme aufgeworfen.
In Bezug auf geistige Eigentumsrechte kann ChatGPT zur Generierung von Dokumenten und Codes verwendet werden, was zu Verletzungen des geistigen Eigentums und Eigentumsstreitigkeiten führen kann. Im Hinblick auf den Schutz personenbezogener Daten kann ChatGPT keine Faktenprüfung der Informations- und Datenquellen durchführen und es können versteckte Gefahren wie der Verlust personenbezogener Daten und die Verbreitung falscher Informationen bestehen. Was die Datensicherheit betrifft, kann ChatGPT, da es die menschliche Sprache erlernen kann, hinsichtlich Grammatik und Ausdrucksgewohnheiten beim Schreiben von „Phishing-E-Mails“ verwirrender sein. Bei unsachgemäßer Verwendung sind die schädlichen Folgen unkalkulierbar.
Aus globaler Sicht haben Regierungen auf der ganzen Welt begonnen, sich mit verschiedenen Fragen im Zusammenhang mit der Entwicklung künstlicher Intelligenz zu befassen, und auch die Formulierung und Umsetzung von Gesetzen und Vorschriften im Bereich künstlicher Intelligenz wurde auf die Tagesordnung gesetzt. Generative Systeme der künstlichen Intelligenz schaffen Chancen, bringen uns aber auch an einen historischen „Kreuzweg“ – ob künstliche Intelligenz den Menschen kontrolliert oder ob der Mensch die künstliche Intelligenz kontrolliert.
Im Dezember 2022 haben die Cyberspace Administration of China, das Ministerium für Industrie und Informationstechnologie und das Ministerium für öffentliche Sicherheit gemeinsam die „Vorschriften zum detaillierten Synthesemanagement von Internetinformationsdiensten“ herausgegeben, die im Januar in Kraft treten 10. 2023. Die „Vorschriften“ stellen eine Reihe von Anforderungen an Anwendungsdienstanbieter und technische Unterstützer, die künstliche Intelligenz zur Generierung von Inhalten nutzen, wie beispielsweise ChatGPT.
Die EU plant außerdem kürzlich, ihre noch zu veröffentlichenden Vorschriften zur künstlichen Intelligenz zu aktualisieren – den „Artificial Intelligence Act“, der voraussichtlich im Jahr 2025 in Kraft treten wird. Die von der britischen Regierung herausgegebene National Artificial Intelligence Strategy weist darauf hin, dass die von der Regierung formulierten Governance- und Regulierungssysteme mit der sich schnell ändernden Situation der künstlichen Intelligenz Schritt halten müssen.
Aufgrund der Dualität dieser künstlichen Intelligenztechnologie müssen wir nicht nur den Algorithmus regulieren, sondern ihn auch mit der Datenregulierung kombinieren. Wie man die Genauigkeit und Vertraulichkeit generativer KI-Datenquellen gewährleistet, wie man geistige Eigentumsrechte schützt und wie man die unethische Sprachorientierung der KI umgehend korrigiert, sind alles Fragen, die im Bereich der künstlichen Intelligenz dringend gelöst werden müssen.
Derzeit muss die Sicherheitsassistenzfunktion der künstlichen Intelligenz noch von den zuständigen Abteilungen überprüft und genehmigt werden, und auch der Anwendungsbereich von ChatGPT sollte begrenzt sein. Der Staat sollte die ethische Regulierung künstlicher Intelligenz stärken, das ethische Bewusstsein und das Verhaltensbewusstsein künstlicher Intelligenz in der gesamten Gesellschaft stärken und dafür sorgen, dass künstliche Intelligenz mit moralischen Gesetzen, der öffentlichen Ordnung und guten Sitten in Einklang steht. Auf dieser Grundlage werden wir die Anwendungsbereiche und Anwendungstiefe schrittweise liberalisieren, um die gesunde Entwicklung künstlicher Intelligenz zu erkunden.
Wie Pat Gelsinger, CEO von Intel, sagte, hat künstliche Intelligenz zu globalen Veränderungen geführt und uns leistungsstarke Werkzeuge zur Verfügung gestellt. Die Technologie selbst ist neutral und wir müssen sie weiterhin zu einer Kraft des Guten formen.
Das obige ist der detaillierte Inhalt vonDer ChatGPT-Trend breitet sich im ganzen Land aus. Kann die KI-Überwachung gleichzeitig zunehmen?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!