Heim > Artikel > Technologie-Peripheriegeräte > In Italien wieder online, aber die regulatorischen Probleme von OpenAI fangen gerade erst an
Nachrichten vom 7. Mai: In der vergangenen Woche hat OpenAI die italienischen Regulierungsbehörden erfolgreich beschwichtigt und sie dazu veranlasst, das vorübergehende Verbot des Chatbots ChatGPT aufzuheben, aber der Kampf des Forschungsunternehmens für künstliche Intelligenz mit den europäischen Regulierungsbehörden ist noch nicht vorbei, es sind noch weitere Herausforderungen hinzugekommen gerade erst begonnen.
OpenAIs beliebter, aber umstrittener Chatbot ChatGPT stieß Anfang des Jahres in Italien auf eine große rechtliche Hürde, als die italienische Datenschutzbehörde (GPDP) OpenAI beschuldigte, gegen EU-Datenschutzvorschriften verstoßen zu haben. Um das Problem zu lösen, stimmte das Unternehmen zu, die Nutzung des Dienstes in Italien einzuschränken.
Am 28. April wurde ChatGPT in Italien neu gestartet und OpenAI ging problemlos auf die Bedenken der italienischen Datenschutzbehörde ein, ohne größere Änderungen an seinem Dienst vorzunehmen. Dies ist ein klarer Sieg für OpenAI.
Während die italienische Datenschutzbehörde die an ChatGPT vorgenommenen Änderungen „begrüßt“, haben die rechtlichen Herausforderungen für OpenAI und andere Unternehmen, die Chatbots entwickeln, möglicherweise gerade erst begonnen. Regulierungsbehörden in mehreren Ländern untersuchen die Art und Weise, wie diese KI-Tools Daten sammeln und Informationen generieren. Als Gründe hierfür werden die Erfassung nicht genehmigter Trainingsdaten bis hin zur Tendenz von Chatbots zur Übermittlung falscher Nachrichten angeführt.
Die Europäische Union hat mit der Durchsetzung der Datenschutz-Grundverordnung (DSGVO) begonnen, einem der weltweit wirksamsten Rechtsrahmen zum Schutz der Privatsphäre, dessen Auswirkungen weit über Europa hinausreichen könnten. Gleichzeitig arbeiten die EU-Gesetzgeber an einem Gesetz, das speziell auf künstliche Intelligenz abzielt und voraussichtlich auch eine neue Ära der Regulierung von Systemen wie ChatGPT einläuten wird.
ChatGPT ist zum Ziel vieler Parteien geworden.
ChatGPT ist eine der meistgesehenen Anwendungen im Bereich der generativen künstlichen Intelligenz (AIGC) und umfasst eine Vielzahl von Tools zum Generieren von Text, Bildern, Videos und Audios basierend auf Benutzereingaben . Berichten zufolge erreichte ChatGPT nur zwei Monate nach seiner Einführung im November 2022 100 Millionen aktive Nutzer pro Monat und ist damit eine der am schnellsten wachsenden Verbraucheranwendungen in der Geschichte.
Mit ChatGPT können Menschen Texte in verschiedene Sprachen übersetzen, Studienarbeiten schreiben und sogar Code generieren. Einige Kritiker, darunter auch Aufsichtsbehörden, verweisen jedoch auf die unzuverlässigen Informationen, die ChatGPT ausgibt, Urheberrechtsprobleme und Mängel beim Datenschutz.
Italien ist das erste Land, das gegen ChatGPT vorgeht. Am 31. März beschuldigte die italienische Datenschutzbehörde OpenAI, gegen die Datenschutz-Grundverordnung verstoßen zu haben, indem es ChatGPT erlaubt habe, ungenaue oder irreführende Informationen bereitzustellen, Benutzer nicht über Datenerfassungspraktiken zu informieren und Vorschriften zur Verarbeitung personenbezogener Daten nicht einzuhalten Verhindern Sie angemessen, dass Kinder unter 13 Jahren den Dienst nutzen. Die italienische Datenschutzbehörde hat OpenAI angewiesen, die Verwendung personenbezogener Daten italienischer Staatsbürger in den Trainingsdaten von ChatGPT sofort einzustellen.
Andere Länder haben derzeit keine ähnlich großen Maßnahmen ergriffen. Doch seit März haben mindestens drei EU-Länder – Deutschland, Frankreich und Spanien – eigene Untersuchungen zu ChatGPT eingeleitet. Unterdessen prüft Kanada auf der anderen Seite des Atlantiks die Datenschutzbedenken von ChatGPT im Rahmen seines Personal Information Protection and Electronic Documents Act (PIPEDA). Der Europäische Datenschutzausschuss (EDPB) hat sogar eine eigene Arbeitsgruppe zur Koordinierung von Untersuchungen eingerichtet. Wenn diese Agenturen Änderungen von OpenAI verlangen, könnte sich dies auf die Art und Weise auswirken, wie das Unternehmen Benutzer auf der ganzen Welt bedient.
Regulierungsbehörden haben zwei große Bedenken
Die größten Bedenken der Regulierungsbehörden in Bezug auf ChatGPT lassen sich hauptsächlich in zwei Kategorien einteilen: Woher kommen die Trainingsdaten? Wie liefert OpenAI Informationen an Benutzer?
Um ChatGPT zu unterstützen, erfordert OpenAI die Verwendung von GPT-3.5 und GPT-4 Large Language Models (LLM), die auf großen Mengen von Menschen generierten Texten trainiert werden. OpenAI bleibt vorsichtig, was den genauen Trainingstext angeht, den es verwendet, sagt aber, dass es sich auf „eine Vielzahl autorisierter, öffentlich zugänglicher Datenquellen, die öffentlich zugängliche persönliche Informationen umfassen können“, stützt.
Dies kann im Rahmen der Datenschutz-Grundverordnung zu großen Problemen führen. Das 2018 in Kraft getretene Gesetz gilt für alle Dienste, die Daten von EU-Bürgern sammeln oder verarbeiten, unabhängig davon, wo die Organisation, die den Dienst bereitstellt, ihren Sitz hat. Die Datenschutz-Grundverordnung verlangt von Unternehmen, dass sie vor der Erhebung personenbezogener Daten eine ausdrückliche Einwilligung der Nutzer einholen, einen rechtsgültigen Grund für die Datenerhebung haben und transparent darüber sein müssen, wie die Daten verwendet und gespeichert werden.
Europäische Regulierungsbehörden behaupten, dass die Vertraulichkeit der Trainingsdaten von OpenAI bedeutet, dass sie nicht bestätigen können, ob die verwendeten persönlichen Informationen ursprünglich die Zustimmung der Benutzer hatten. Die italienische Datenschutzbehörde argumentierte, dass OpenAI überhaupt keine „Rechtsgrundlage“ für die Erhebung der Informationen habe. Bisher wurden OpenAI und andere Unternehmen kaum untersucht.
Ein weiteres Problem ist das „Recht auf Vergessenwerden“ der Datenschutz-Grundverordnung, das es Nutzern ermöglicht, Unternehmen aufzufordern, ihre persönlichen Daten zu korrigieren oder vollständig zu löschen. OpenAI hat seine Datenschutzrichtlinie im Voraus aktualisiert, um die Beantwortung dieser Anfragen zu erleichtern. Aber wenn man bedenkt, wie komplex die Trennung sein kann, sobald bestimmte Daten in diese großen Sprachmodelle eingespeist werden, ist es immer fraglich, ob sie technisch machbar ist.
OpenAI sammelt Informationen auch direkt von Benutzern. Wie andere Internetplattformen werden auch hier standardmäßig eine Reihe von Nutzerdaten wie Name, Kontaktdaten und Kreditkartendaten erfasst. Aber was noch wichtiger ist: OpenAI zeichnet Benutzerinteraktionen mit ChatGPT auf. Wie auf der offiziellen Website angegeben, können OpenAI-Mitarbeiter diese Daten einsehen und zum Trainieren ihrer Modelle verwenden. In Anbetracht der persönlichen Fragen, die die Leute ChatGPT gestellt haben, wie zum Beispiel, dass sie sich den Bot als Therapeuten oder Arzt vorstellen, bedeutet dies, dass das Unternehmen alle Arten sensibler Daten sammelt.
Diese Daten können Informationen über Minderjährige enthalten. Obwohl es in der Richtlinie von OpenAI heißt, dass es „wissentlich keine personenbezogenen Daten von Kindern unter 13 Jahren sammelt“, gibt es keinen strengen Schwellenwert für die Altersüberprüfung. Dies steht im Widerspruch zu den EU-Vorschriften, die die Erfassung von Daten von Minderjährigen unter 13 Jahren verbieten und in einigen Ländern die Zustimmung der Eltern zur Erfassung von Daten von Minderjährigen unter 16 Jahren erfordern. Auf der Ausgabeseite behauptete die italienische Datenschutzbehörde, dass das Fehlen eines Altersfilters bei ChatGPT es Minderjährigen ermöglicht habe, „Antworten zu erhalten, die im Hinblick auf ihren Entwicklungsstand und ihr Selbstbewusstsein absolut unangemessen sind“.
OpenAI verfügt über einen großen Spielraum bei der Verwendung dieser Daten, was viele Regulierungsbehörden beunruhigt, und es bestehen Sicherheitsrisiken bei der Speicherung dieser Daten. Unternehmen wie Samsung und JPMorgan Chase haben ihren Mitarbeitern die Verwendung von AIGC-Tools verboten, weil sie befürchten, dass sie sensible Daten hochladen würden. Tatsächlich erlitt ChatGPT vor der Verhängung des Verbots durch Italien ein schwerwiegendes Datenleck, das zur Offenlegung der Chatverläufe und E-Mail-Adressen einer großen Anzahl von Benutzern führte.
Darüber hinaus kann die Tendenz von ChatGPT, falsche Informationen bereitzustellen, ebenfalls zu Problemen führen. Die Datenschutz-Grundverordnung schreibt vor, dass alle personenbezogenen Daten korrekt sein müssen, ein Punkt, den die italienische Datenschutzbehörde in ihrer Ankündigung betont. Dies kann bei den meisten KI-Textgeneratoren zu Problemen führen, da diese Tools anfällig für „Halluzinationen“ sind, also sachlich falsche oder irrelevante Antworten auf Anfragen geben. Dies hat anderswo zu realen Problemen geführt, beispielsweise als ein australischer Bürgermeister damit drohte, OpenAI wegen Verleumdung zu verklagen, nachdem ChatGPT fälschlicherweise behauptet hatte, er sei wegen Bestechung ins Gefängnis gekommen.
Besondere Regulierungsregeln stehen kurz vor der Einführung
ChatGPT ist aufgrund seiner Popularität und Dominanz auf dem Markt für künstliche Intelligenz besonders anfällig für Regulierungsziele . Aber wie bei Konkurrenten und Partnern wie Googles Bard und Microsofts OpenAI-basierter Azure AI gibt es keinen Grund, warum es nicht unter die Lupe genommen werden sollte. Vor ChatGPT hatte Italien der Chatbot-Plattform Replika verboten, Informationen über Minderjährige zu sammeln. Derzeit ist die Plattform weiterhin verboten.
Obwohl es sich bei der Datenschutz-Grundverordnung um eine Reihe wirkungsvoller Gesetze handelt, wurde sie nicht geschaffen, um Probleme zu lösen, die nur mit künstlicher Intelligenz zu tun haben. Möglicherweise werden jedoch spezielle Regulierungsvorschriften eingeführt. Im Jahr 2021 hat die Europäische Union einen Entwurf für die erste Fassung ihres Künstliche-Intelligenz-Gesetz (KI-Gesetz) vorgelegt, das zusammen mit der Datenschutz-Grundverordnung umgesetzt wird. Das KI-Gesetz würde KI-Tools auf der Grundlage ihres Risikoniveaus regulieren, von „minimalem Risiko“ (z. B. Spam-Filter) über „hohes Risiko“ (KI-Tools, die für die Strafverfolgung oder Bildung verwendet werden) bis hin zu „unbrauchbarem Risiko“. (z. B. Sozialkreditsystem).
Nach der Explosion groß angelegter Sprachmodelle wie ChatGPT bemühen sich die Gesetzgeber nun darum, Regeln für „Basismodelle“ und „allgemeine künstliche Intelligenzsysteme (GPAI)“ hinzuzufügen. Beide Begriffe beziehen sich auf große KI-Systeme, einschließlich LLMs, und können diese als „Hochrisiko“-Dienste einstufen.
Die Bestimmungen des Künstliche-Intelligence-Gesetzes gehen über den Datenschutz hinaus. Eine kürzlich vorgeschlagene Änderung würde Unternehmen dazu zwingen, urheberrechtlich geschütztes Material offenzulegen, das zur Entwicklung von AIGC-Tools verwendet wird. Dies könnte einst geheime Datensätze offenlegen und mehr Unternehmen anfällig für Vertragsverletzungsklagen machen, die sich bereits auf einige Dienste ausgewirkt haben.
Spezielle KI-Gesetze könnten bis Ende 2024 verabschiedet werden
Derzeit kann es einige Zeit dauern, diesen Gesetzentwurf umzusetzen. Die EU-Gesetzgeber haben am 27. April eine Einigung über einen vorläufigen Gesetzentwurf zur künstlichen Intelligenz erzielt, ein Ausschuss muss jedoch noch am 11. Mai über den Entwurf abstimmen, wobei der endgültige Vorschlag voraussichtlich Mitte Juni veröffentlicht wird. Der Europäische Rat, das EU-Parlament und die Europäische Kommission müssen dann alle verbleibenden Streitigkeiten klären, bevor das Gesetz umgesetzt werden kann. Wenn alles gut geht, könnte es in der zweiten Hälfte des Jahres 2024 verabschiedet werden.
Der Streit zwischen Italien und OpenAI gibt uns vorerst einen ersten Einblick in die Art und Weise, wie Regulierungsbehörden und KI-Unternehmen verhandeln könnten. Die italienische Datenschutzbehörde sagte, sie werde das Verbot aufheben, wenn OpenAI bis zum 30. April mehreren vorgeschlagenen Resolutionen nachkommt.
Zu den Beschlüssen gehört die Information der Benutzer darüber, wie ChatGPT ihre Daten speichert und verwendet, die Anforderung der ausdrücklichen Zustimmung der Benutzer zur Verwendung dieser Daten, die Erleichterung der Korrektur oder Löschung falscher personenbezogener Daten, die von ChatGPT generiert wurden, und die Verpflichtung italienischer Benutzer zur Bestätigung dass Sie bei der Registrierung eines Kontos über 18 Jahre alt sind. Obwohl OpenAI diese Vorschriften nicht eingehalten hat, hat es die italienischen Regulierungsbehörden zufrieden gestellt und den Zugang in Italien wiederhergestellt.
OpenAI muss noch andere Bedingungen erfüllen, darunter die Festlegung einer strengeren Altersgrenze bis zum 30. September, das Herausfiltern von Minderjährigen unter 13 Jahren und die Verpflichtung älterer Minderjähriger, die Zustimmung der Eltern einzuholen. Wenn dies fehlschlägt, kann OpenAI erneut gesperrt werden. Allerdings scheint OpenAI ein Zeichen dafür gesetzt zu haben, dass Europa das Verhalten von KI-Unternehmen zumindest bis zur Einführung neuer Gesetze für akzeptabel hält. (Xiao Xiao)
Das obige ist der detaillierte Inhalt vonIn Italien wieder online, aber die regulatorischen Probleme von OpenAI fangen gerade erst an. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!