Heim >Technologie-Peripheriegeräte >KI >Wenn Sie ChatGPT gut spielen, müssen Sie früher oder später im Gefängnis essen?
Zu sagen, dass die beliebteste Online-Plattform Anfang 2023 zweifellos der neue Favorit im Bereich der künstlichen Intelligenz ist – das intelligente Chat-Robotermodell ChatGPT, das unzählige Internetnutzer dazu gebracht hat, auf „menschliche“ Weise mit ihm zu kommunizieren und zu interagieren. Er kann die von Menschen aufgeworfenen Fragen vollständig verstehen und Antworten geben, die nicht mehr „künstlich zurückgeblieben“ sind. Er wird auch in der Lage sein, sich effektiv auf viele Produktivitätspraktiken wie Programmieren, Zeichnen und Schreiben einzulassen Schreiben und sogar poetisches Verfassen von Gedichten und anderem Texten.
Eine Zeit lang begannen die Leute zu diskutieren: Wird die künstliche Intelligenz, repräsentiert durch ChatGPT, in naher Zukunft eine große Anzahl menschlicher Berufe ersetzen? Bevor wir dieses Thema diskutieren, müssen wir tatsächlich wachsamer sein, denn es entsteht in der Online-Welt und birgt große Sicherheitsrisiken und sogar rechtliche Risiken. Genauso wie der Witz, der im Kreis kursiert: Wenn man bei ChatGPT gut spielt, muss man früher oder später unweigerlich im Gefängnis essen?
Jede neue Technologie birgt oft Nachteile und Risiken. Während ChatGPT Menschen dabei hilft, Sicherheitsprodukte intelligenter zu machen und auf Sicherheitsbedrohungen zu reagieren, basiert es doch auf dem Prinzip der Informationssammlung und -wiederverwendung Überschreiten Sie die Sicherheitsgrenze und erzeugen Sie verschiedene Sicherheitsrisiken? Obwohl die Nutzungsbedingungen von ChatGPT die Generierung von Malware, einschließlich Ransomware, Keyloggern, Viren oder „anderer Software, die darauf ausgelegt ist, einen gewissen Schaden anzurichten“, in den Händen von Hackern eindeutig verbieten, wird ChatGPT dennoch zu einer „Teufelskralle“ werden? Sind Netzwerkangriffe weiter verbreitet und komplexer?
Da ChatGPT Informationen aus dem Internet sammeln und Informationen aus Gesprächen mit Personen erhalten muss, um das Modell zu trainieren, weist dies darauf hin, dass es auch dazu in der Lage ist Laut Medienberichten aus dem Silicon Valley sagten Amazon-Anwälte, sie hätten in den von ChatGPT generierten Inhalten Text gefunden, der den internen Unternehmensgeheimnissen sehr ähnlich sei ChatGPT soll Code und Text generieren, sagte der Anwalt. Sie befürchten, dass diese Daten zu Trainingsdaten werden, die von ChatGPT für die Iteration verwendet werden, und Ingenieure bei Microsoft warnten die Mitarbeiter auch davor, während der täglichen Arbeit vertrauliche Daten an das OpenAI-Terminal zu senden, da OpenAI dies tun könnte Verwenden Sie es für zukünftige Modellschulungen.
Dabei stellt sich auch eine weitere Frage: Ist es legal, große Datenmengen aus dem Internet zu sammeln? Alexander Hanff, Mitglied des Europäischen Datenschutzausschusses, stellte in Frage, dass es sich bei ChatGPT um ein kommerzielles Produkt handelt. Obwohl im Internet auf viele Informationen zugegriffen werden kann, können Websites mit Klauseln, die das Crawlen von Daten durch Dritte verbieten, unter Verstoß gegen einschlägige Vorschriften große Datenmengen sammeln und gelten nicht als faire Nutzung. Darüber hinaus sind personenbezogene Daten geschützt Das Crawlen dieser Informationen ist ebenfalls nicht konform und verwendet möglicherweise große Mengen an Rohdaten. Es kann auch zu einem Verstoß gegen das „Minimumdaten“-Prinzip der DSGVO kommen Daten effektiv gelöscht werden? Laut der auf der offiziellen Website von OpenAI veröffentlichten Datenschutzrichtlinie erwähnt OpenAI keine ähnlichen EU-Vorschriften wie die DSGVO. In der Klausel „Nutzung von Daten“ gibt OpenAI zu, dass es Daten sammeln wird von Benutzern bei der Nutzung des Dienstes eingegeben werden, der Zweck der Daten jedoch nicht näher erläutert wird. Gemäß Artikel 17 der DSGVO haben Einzelpersonen das Recht, die Löschung personenbezogener Daten, das „Recht auf Vergessenwerden“ oder das „Recht auf Vergessenwerden“ zu verlangen. Recht auf Löschung“ Aber können große Sprachmodelle wie ChatGPT die zum Training verwendeten Daten „vergessen“? Die Branche ist besorgt darüber, ob OpenAI Daten vollständig aus dem Modell löschen kann, wenn eine Person dies anfordert. Die Leute glauben, dass es für solche Modelle schwierig ist Darüber hinaus ist es kostspielig, solche Modelle zu trainieren, und es ist unwahrscheinlich, dass KI-Unternehmen das gesamte Modell jedes Mal neu trainieren, wenn eine Person die Löschung bestimmter sensibler Daten anfordert Mit der Popularität von ChatGPT sind in China viele öffentliche WeChat-Konten und damit verbundene Miniprogramme entstanden. Da ChatGPT auf dem chinesischen Festland keine Dienste offiziell eröffnet hat, ist es unmöglich, sich über eine Festland-Mobiltelefonnummer zu registrieren und mit ihm zu interagieren. Um zu chatten, begannen diese kleinen Programme zu behaupten, dass sie Paketdienste für das Chatten mit ChatGPT anbieten könnten, z. B. 9,99 Yuan für 20 Gespräche bis 999,99 Yuan für unbegrenzte Gespräche usw. Mit anderen Worten: Diese kleinen Programme fungieren als Vermittler zwischen inländischen Nutzern und ChatGPT. Aber selbst für Vermittler ist es oft schwierig, die Wahrheit von der Fälschung zu unterscheiden. Obwohl einige Konten behaupten, den ChatGPT-Port anzurufen, schließen sie nicht aus, dass sie tatsächlich andere Robotermodelle verwenden, und die Qualität des Dialogs ist weitaus schlechter zu ChatGPT.Ebenso bieten einige Verkäufer auch Dienste für den Verkauf von ChatGPT-Konten und die Agentenregistrierung auf E-Commerce-Plattformen an dass einige Verkäufer ChatGPT-Konten von ausländischen Websites kaufen. Die Kosten für den Massenkauf von vorgefertigten Konten, die mit Passwörtern geändert werden können, betragen etwa 8 Yuan, und der externe Verkaufspreis kann 30 Yuan erreichen so niedrig wie 1,2 Yuan sein.
Ganz zu schweigen von der Gefahr, dass über diese Kanäle die Privatsphäre verloren geht, verstößt auch die private Einrichtung internationaler Kanäle und die öffentliche Bereitstellung grenzüberschreitender Geschäftsdienstleistungen gegen die einschlägigen Bestimmungen des Cybersicherheitsgesetzes. Derzeit sind die meisten dieser öffentlichen Konten oder kleinen Programme mit der Aufschrift ChatGPT von WeChat-Beamten verboten, und relevante Plattformen blockieren auch den Kauf und Verkauf solcher Konten.
Wie oben erwähnt, kann ChatGPT dem Sicherheitspersonal dabei helfen, anfälligen Code zu erkennen, der auch von Hackern verwendet werden kann etwas Ähnliches. Forscher des digitalen Sicherheitsforschungsmediums Cybernews fanden heraus, dass ChatGPT von Hackern verwendet werden kann, um Sicherheitslücken in Websites zu finden. Mit seiner Hilfe führten die Forscher einen Penetrationstest auf einer gewöhnlichen Website durch und kombinierten die von ChatGPT bereitgestellten Vorschläge und änderten sie Das Beispiel vervollständigt den Hack.
Darüber hinaus lässt sich ChatGPT zum Programmieren nutzen und dementsprechend auch zum Schreiben von Schadcode. Wenn Sie beispielsweise VBA-Code über ChatGPT schreiben, können Sie einfach eine schädliche URL in diesen Code einfügen, und wenn der Benutzer eine Datei wie eine Excel-Datei öffnet, beginnt er automatisch mit dem Herunterladen der Malware-Payload. Daher ermöglicht ChatGPT Hackern ohne große technische Fähigkeiten, in nur wenigen Minuten waffenfähige E-Mails mit Anhängen zu erstellen, um Cyberangriffe auf Ziele durchzuführen.
Im Dezember letzten Jahres haben Hacker mit ChatGPT geschriebenen Python-Stealer-Code in Untergrundforen geteilt. Der Stealer kann nach gängigen Dateitypen (wie MS Office-Dokumenten, PDFs und Bilddateien) suchen und diese kopieren in einen zufälligen Unterordner im Temp-Ordner kopieren, komprimieren und auf einen fest codierten FTP-Server hochladen.
Hacker demonstrierten im Forum, wie man mit ChatGPT Programme zum Informationsdiebstahl erstellt
Da ChatGPT menschlich lernen kann Sprache ist es einfacher, Phishing-Verhalten zu schreiben. Sozialarbeitsverhalten wie E-Mails kann in Bezug auf Grammatik und Ausdrucksgewohnheiten verwirrender sein. Forscher fanden heraus, dass ChatGPT es Hackern ermöglicht, verschiedene soziale Umgebungen realistisch zu simulieren, wodurch gezielte Angriffe effektiver werden. Selbst Hacker aus Nicht-Heimatländern können Code schreiben, der der Grammatik und Logik des Ziellandes entspricht, ohne dass Phishing-E-Mails mit Rechtschreibfehlern stark simuliert werden oder Formatierungsfehler.
Mit ChatGPT generierte Phishing-E-Mails
Nach einer vorläufigen Bestandsaufnahme der oben genannten Vorteile und Risiken der ChatGPT-Netzwerksicherheit, Es ist offensichtlich, dass die beiden fast völlig gegensätzliche Seiten bilden, das heißt, wenn Hacker Schwachstellen und Angriffsflächen finden können, kann dies auch dem Sicherheitspersonal helfen, Lücken zu erkennen und zu schließen und die Lücken für Angriffe zu schließen. Allerdings bedarf die Sicherheitsunterstützungsfunktion von ChatGPT zum jetzigen Zeitpunkt noch einer professionellen Überprüfung und Genehmigung, und es kann zu Verzögerungen im Prozess kommen. Diese kriminellen Hacker mit finanziellen Motiven nutzen künstliche Intelligenz meist direkt, um Angriffe zu starten, und die Bedrohung ist schwer einzuschätzen.
Es besteht kein Zweifel daran, dass die durch ChatGPT repräsentierte künstliche Intelligenz die Verkörperung einer herausragenden Technologie der letzten Jahre ist, aber das liegt auch an der Dualität dieser neuen Technologie, nämlich Netzwerksicherheit und IT Profis Es gibt definitiv gemischte Gefühle gegenüber ChatGPT. Laut einer aktuellen BlackBerry-Studie sagen zwar 80 % der Unternehmen, dass sie planen, bis 2025 in KI-gestützte Cybersicherheit zu investieren, 75 % glauben jedoch immer noch, dass KI eine ernsthafte Bedrohung für die Sicherheit darstellt.
Bedeutet das, dass wir dringend eine neue Reihe von Vorschriften brauchen, um die Entwicklung der Branche der künstlichen Intelligenz gezielt zu regulieren? Einige Experten und Wissenschaftler in unserem Land haben darauf hingewiesen, dass die sensationelle Wirkung, die ChatGPT jetzt erzielt hat, und die Versuche mehrerer Hauptstädte, ins Spiel zu kommen, nicht bedeuten, dass die Branche der künstlichen Intelligenz eine bahnbrechende Entwicklung bei den Aufgaben erreicht hat, die ChatGPT derzeit bewältigen kann Daher besteht für die Regulierungsbehörden in dieser Phase keine Notwendigkeit, die technische Überwachung von ChatGPT sofort als Kernaufgabe der Cyberspace-Governance zu betrachten und eine neue Regelung wird formuliert.“ Derzeit hat mein Land Gesetze und Vorschriften erlassen, wie das Cybersicherheitsgesetz, die Vorschriften zur ökologischen Governance von Netzwerkinformationsinhalten und die Vorschriften zur Verwaltung von Algorithmenempfehlungen für Internetinformationsdienste, die detaillierte rechtliche Bestimmungen für den Missbrauch von festlegen Die Technologien der künstlichen Intelligenz und der Algorithmen reichen aus, um mit den Netzwerksicherheitsrisiken umzugehen, die ChatGPT kurzfristig verursachen kann. Zum jetzigen Zeitpunkt können die Regulierungsbehörden meines Landes das bestehende Rechtssystem in vollem Umfang nutzen, um die Aufsicht über ChatGPT-bezogene Branchen zu stärken. Wenn die Erfahrung ausgereift ist, können sie die Einführung von Gesetzen im Bereich der Anwendungen der künstlichen Intelligenztechnologie in Betracht ziehen mit verschiedenen potenziellen Sicherheitsrisiken.
Im Ausland plant die Europäische Union die Einführung des Gesetzes über künstliche Intelligenz im Jahr 2024 und schlägt vor, dass die Mitgliedstaaten mindestens eine Aufsichtsbehörde ernennen oder einrichten müssen, die dafür verantwortlich ist, sicherzustellen, dass „die erforderlichen Verfahren eingehalten werden“. Es wird erwartet, dass der Gesetzentwurf in allen Bereichen weit verbreitet sein wird, von selbstfahrenden Autos über Chatbots bis hin zu automatisierten Fabriken.
Tatsächlich könnte die Diskussion über die Sicherheit von ChatGPT und darüber, ob menschliche Arbeitsplätze durch künstliche Intelligenz ersetzt werden, letztendlich auf einen Vorschlag hinauslaufen: Sollte künstliche Intelligenz Menschen kontrollieren, oder sollten Menschen künstliche Intelligenz kontrollieren? Wenn sich künstliche Intelligenz auf gesunde Weise entwickelt und den Menschen hilft, die Arbeitseffizienz zu verbessern und den sozialen Fortschritt zu beschleunigen, wird auch unser Netzwerk sicher sein. Wenn Menschen jedoch die künstliche Intelligenz nicht kontrollieren können und sie sich in eine ungeordnete Richtung entwickeln können, wird es unweigerlich eine Welt voller sein Chaos. In der Netzwerkumgebung von Angriffen und Bedrohungen ist Netzwerksicherheit zu diesem Zeitpunkt möglicherweise kein „kleiner Kampf zwischen Rot und Blau“ mehr, sondern wird die gesamte menschliche Gesellschaftsordnung untergraben.
Das obige ist der detaillierte Inhalt vonWenn Sie ChatGPT gut spielen, müssen Sie früher oder später im Gefängnis essen?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!