Heim > Artikel > Technologie-Peripheriegeräte > Wie reguliert man generative KI-Bots wie ChatGPT und Bard?
Untersuchungen zeigen, dass der weit verbreitete Einsatz allgemeiner Tools der künstlichen Intelligenz die Regulierungsbehörden vor neue Herausforderungen stellt, mit denen sie möglicherweise nur schwer umgehen können. Tatsächlich ist die Regulierung generativer KI-Tools wie des Chatbots ChatGPT von OpenAI zu einem Problem geworden, das politische Entscheidungsträger auf der ganzen Welt beschäftigt.
ChatGPT kann mithilfe von Schlüsselwörtern jede Art von Inhalt generieren und ist darauf trainiert, eine große Menge an Wissen einzugeben. Die Lösung liegt in der Bewertung von Risiken, die insbesondere zum Teil engmaschig überwacht werden sollten.
Zwei Monate nach der Einführung von ChatGPT hat sich dieser KI-Chatbot mit mehr als 100 Millionen aktiven Nutzern allein im Januar dieses Jahres zum am schnellsten wachsenden Verbraucherprodukt der Geschichte entwickelt. Dies hat große Technologieunternehmen auf der ganzen Welt dazu veranlasst, der Einführung von KI-Systemen Aufmerksamkeit zu schenken oder deren Einführung zu beschleunigen, und hat dem Bereich der Konversations-KI neue Dynamik verliehen.
Microsoft integriert Konversations-KI in seinen Browser, seine Suchmaschine und seine breitere Produktpalette; Google plant, dasselbe mit seinem Chatbot Bard zu tun, und andere Technologiegiganten wie Baidu folgen ebenfalls der Einführung ihrer eigenen Chatbots ; Startups wie Jasper und Quora bringen generative und dialogorientierte KI auch in den Mainstream-Verbraucher- und Unternehmensmarkt ...
Generative KI beschleunigt regulatorische Anforderungen
Große Bandbreite an Fehlinformationen und Schwierigkeiten Die entdeckten Phishing-E-Mails stellen ein echtes Risiko für die Anwendung dar von KI, die bei der Verwendung für medizinische Informationen zu Fehldiagnosen und medizinischen Fehlern führen kann. Es besteht auch ein hohes Risiko einer Verzerrung, wenn die zur Befüllung des Modells verwendeten Daten nicht vielfältig sind.
Während Microsoft bereits über ein genaueres Umschulungsmodell verfügt und Anbieter wie AI21 Inc. daran arbeiten, generierte Inhalte anhand von Live-Daten zu validieren, besteht immer noch ein hohes Risiko, KI-Antworten zu generieren, die „echt aussehen, aber völlig ungenau sind“.
Der Binnenmarktkommissar der Europäischen Union, Thierry Breton, erklärte kürzlich, dass der kommende EU-KI-Gesetzentwurf Bestimmungen für generative KI-Systeme wie ChatGPT und Bard enthalten wird.
„Wie ChatGPT zeigt, können KI-Lösungen Unternehmen und Bürgern große Chancen bieten, aber auch Risiken mit sich bringen. Deshalb brauchen wir einen soliden Regulierungsrahmen, um vertrauenswürdige Lösungen auf der Grundlage hochwertiger Daten-KI zu gewährleisten“, sagte er.
KI-Entwicklung muss ethisch sein
Der Anbieter von Analysesoftware SAS hat in einem Bericht mit dem Titel „KI und verantwortungsvolle Innovation“ einige der von KI ausgehenden Risiken dargelegt. Dr. Kirk Borne, Autor des Berichts, sagte: „KI ist so mächtig und allgegenwärtig geworden, dass es immer schwieriger wird zu sagen, ob die von ihr generierten Inhalte wahr oder falsch, gut oder schlecht sind deutlich schneller als das Tempo der Regulierung.“
Dr. Iain Brown, Leiter der Datenwissenschaft bei SAS UK und Irland, sagte, dass sowohl die Regierung als auch die Industrie dafür verantwortlich sind, dass KI zum Guten und nicht zum Schaden eingesetzt wird. Dazu gehört die Verwendung eines ethischen Rahmens als Leitfaden für die Entwicklung von KI-Modellen und eine strikte Governance, um sicherzustellen, dass diese Modelle faire, transparente und gerechte Entscheidungen treffen. Wir können das KI-Modell mit dem Challenger-Modell vergleichen und es optimieren, sobald neue Daten verfügbar werden.
Andere Experten glauben, dass Softwareentwickler verpflichtet sein werden, das von der Software ausgehende Risiko zu reduzieren, und dass nur die riskantesten Aktivitäten strengeren Regulierungsmaßnahmen unterliegen werden
Edward Machin, Assistent für Daten, Datenschutz und Netzwerksicherheit von Ropes & Gray, sagte, dass dies der Fall sei Es ist unvermeidlich, dass Technologien wie ChatGPT, die scheinbar über Nacht auftauchen, schneller angewendet werden als regulatorische Vorschriften, insbesondere in Bereichen wie KI, die bereits schwer zu regulieren sind: „Obwohl regulatorische Richtlinien für diese Technologien eingeführt werden, wird der regulatorische Ansatz und.“ Der Zeitpunkt bleibt abzuwarten. Lieferanten von KI-Systemen werden die Hauptlast tragen, aber auch Importeure und Händler (zumindest in der EU) müssen potenzielle Verpflichtungen tragen. Dies könnte einige Open-Source-Softwareentwickler in Schwierigkeiten bringen. Wie mit der Verantwortung von Open-Source-Entwicklern und anderen nachgelagerten Parteien umgegangen wird, könnte sich negativ auf die Bereitschaft dieser Personen zur Innovation und Forschung auswirken.
Urheberrechts-, Datenschutz- und DSGVO-BestimmungenDarüber hinaus ist Machin der Ansicht, dass es neben der allgemeinen Regulierung von KI auch Probleme hinsichtlich des Urheberrechts und des Datenschutzes der von ihr generierten Inhalte gibt. Es ist beispielsweise nicht klar, ob Entwickler kann den Antrag einer Person auf Löschung oder Korrektur problemlos bearbeiten (falls vorhanden), und es ist unklar, wie sie große Datenmengen von der Website eines Drittanbieters auf eine Weise entfernen könnten, die gegen ihre Nutzungsbedingungen verstoßen könnte
In Alan Turing Research. Lilian Edwards, Professorin für Recht, Innovation und Gesellschaft an der Newcastle University, die sich mit der KI-Regulierung beschäftigt, sagte, dass einige dieser Modelle den DSGVO-Vorschriften unterliegen würden, was dazu führen könnte, dass der Eigentümer der Website angeordnet wird, Trainingsdaten oder sogar die Algorithmen selbst zu löschen Der Datenverkehr durch KI-Suchen könnte auch das Ende der groß angelegten Datensammlung aus dem Internet bedeuten, die derzeit Suchmaschinen wie Google antreibt
Er wies darauf hin, dass das größte Problem die allgemeine Natur dieser KI-Modelle sei. Dies macht es schwierig, sie im Rahmen des EU-KI-Gesetzes zu regulieren, das auf der Grundlage der bestehenden Risiken entworfen wird, da schwer vorherzusagen ist, was Endbenutzer mit der Technologie machen werden. Die Europäische Kommission versucht, Regeln zur Regelung dieser Art von Technologie einzuführen.
Eine Verbesserung der Algorithmustransparenz könnte eine Lösung sein. „Big Tech wird damit beginnen, bei den Regulierungsbehörden Lobbyarbeit zu betreiben und zu sagen: ‚Sie können uns diese Verpflichtungen nicht auferlegen, weil wir uns nicht jedes Risiko oder jeden Nutzen in der Zukunft vorstellen können‘“, sagte Edwards. „Es gibt Möglichkeiten, mit diesem Problem umzugehen.“ Für große Technologieunternehmen ist dies mehr oder weniger hilfreich, auch indem sie die zugrunde liegenden Algorithmen transparenter machen. Wir befinden uns in einer schwierigen Zeit und brauchen Anreize für mehr Offenheit und Transparenz, um besser zu verstehen, wie KI Entscheidungen trifft und Inhalte generiert Sie sagte auch: „Das ist das gleiche Problem, das Menschen haben, wenn sie langweiligere Technologien verwenden, weil die Technologie global ist und Menschen mit schlechten Absichten überall sind, daher ist es sehr schwierig, allgemeine KI-Vorschriften zu regulieren.“
Adam Leon Smith, Chief Technology Officer von DragonFly, einem KI-Beratungsdienstleister, sagte: „Globale Regulierungsbehörden sind sich zunehmend bewusst, dass es schwierig ist, die KI-Technologie genau zu regulieren, ohne den tatsächlichen Einsatzgrad und die Voreingenommenheitsanforderungen zu berücksichtigen.“ „Regulierungsbehörden können Transparenz und Protokollierung von KI-Technologieanbietern verlangen, die im Kontext der Nutzung tätig sind und große Sprachmodelle (LLM) betreiben und einsetzen.“ „Systeme für bestimmte Zwecke können die Risiken verstehen und Minderungsmaßnahmen durch manuelle Überwachung oder kontinuierliche Überwachung umsetzen“, fügte er hinzu.
KI-Regulierung steht unmittelbar bevorIn der Europäischen Kommission gab es eine umfassende Debatte über die KI-Regulierung, und die Datenregulierungsbehörden müssen sich ernsthaft damit befassen. Smith geht davon aus, dass KI-Anbieter schließlich damit beginnen werden, die Zwecke aufzulisten, für die die Technologie „nicht verwendet werden darf“, wenn die Regulierungsbehörden dem Thema mehr Aufmerksamkeit schenken. Dazu gehört auch die Ausgabe rechtlicher Haftungsausschlüsse, bevor sich Benutzer anmelden, wodurch sie in eine risikobasierte Lage versetzt werden . außerhalb des ordnungspolitischen Handlungsspielraums. Leon Smith sagte, dass die aktuellen Best Practices für die Verwaltung von KI-Systemen fast keine groß angelegten Sprachmodelle beinhalten, was ein aufstrebendes Feld ist, das sich extrem schnell entwickelt. Obwohl es in diesem Bereich noch viel zu tun gibt, bieten viele Unternehmen diese Technologien an und helfen nicht bei deren Definition.
Mira Muratti, Chief Technology Officer von OpenAI, sagte auch, dass generative KI-Tools reguliert werden müssen: „Für Unternehmen wie uns ist es wichtig, die Öffentlichkeit auf kontrollierte und verantwortungsvolle Weise darauf aufmerksam zu machen.“ Neben der Überwachung von KI-Lieferanten sind auch mehr Investitionen in KI-Systeme erforderlich, einschließlich Investitionen von Regulierungsbehörden und Regierungen.
Das obige ist der detaillierte Inhalt vonWie reguliert man generative KI-Bots wie ChatGPT und Bard?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!