Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  EU-Gesetzentwurf zur künstlichen Intelligenz: Wird die Regulierung Innovationen behindern?

EU-Gesetzentwurf zur künstlichen Intelligenz: Wird die Regulierung Innovationen behindern?

王林
王林nach vorne
2023-04-12 10:22:031278Durchsuche

EU-Gesetzentwurf zur künstlichen Intelligenz: Wird die Regulierung Innovationen behindern?

  • Open-Source-KI-Vorschriften werden im Artificial Intelligence Act (AIA) erwähnt, der derzeit in der EU diskutiert wird.
  • Eine starke Einschränkung der Nutzung, Weitergabe und Verbreitung von General Open Source AI (GPAI) könnte jedoch als Rückschritt angesehen werden.
  • Der kostenlose Austausch von Open-Source-Informationslizenzen, wie z. B. der MIT-Lizenz, dient der Weitergabe von Wissen und Konzepten und nicht dem Verkauf fertiger, bewährter Waren.
  • Die Ausweitung der rechtlichen Verpflichtungen für Open-Source-GPAI-Forscher und -Entwickler wird die technologische Innovation und Entwicklung nur behindern.

Das derzeit diskutierte EU-Gesetz über künstliche Intelligenz (AIA) erwähnt die Regulierung von Open-Source-künstlicher Intelligenz. Allerdings kann die Einführung strenger Beschränkungen für die Nutzung, den Austausch und die Verbreitung von Open-Source-Allgemeiner Künstlicher Intelligenz (GPAI) als Rückschritt angesehen werden.

Ziele des EU-Gesetzes zur künstlichen Intelligenz

Die einzige Möglichkeit, wie Menschen die Technologie so schnell vorantreiben können, ist die Open-Source-Kultur. Bis vor kurzem war es für KI-Forscher akzeptabel, ihren Quellcode zu veröffentlichen, um die Offenheit und Überprüfbarkeit zu erhöhen. Eine Einschränkung dieses Trends könnte jedoch den kulturellen Fortschritt der wissenschaftlichen Gemeinschaft zunichte machen.

Zwei Ziele des KI-Gesetzes werden in der vorgeschlagenen Regulierungsstruktur besonders hervorgehoben:

  • „Rechtssicherheit gewährleisten, um Investitionen und Innovation in KI zu fördern“
  • „Förderung eines legalen, sicheren und vertrauenswürdigen Binnenmarkts für KI-Anwendungen“ Entwicklung, Verhinderung der Marktfragmentierung“

Die GPAI-Vorschriften im Gesetzentwurf zur künstlichen Intelligenz scheinen diesen Behauptungen zu widersprechen. GPAI fördert Innovation und den Informationsaustausch ohne Angst vor kostspieligen und negativen rechtlichen Konsequenzen. Anstatt also einen Sicherheitsmarkt aufzubauen, der einer Fragmentierung standhält, könnte es tatsächlich zu schwerwiegenden regulatorischen Einschränkungen kommen, die gleichzeitig die Open-Source-Entwicklung behindern und die KI-Entwicklung durch die großen Technologiegiganten weiter monopolisieren.

Sollte die Open-Source-Entwicklung von KI strenger reguliert werden?

Dies führt eher zu weniger Transparenz auf dem Markt und macht es schwieriger zu bestimmen, ob eine KI-Anwendung „legal, sicher und vertrauenswürdig“ ist. Natürlich ist nichts davon gut für GPAI. Stattdessen wächst die besorgniserregende Befürchtung, dass die Ungleichheit, die durch diese Auferlegung entstehen könnte, Großkonzernen mehr Macht verschaffen würde.

Es ist auch wichtig zu erkennen, dass einige diesen Widerstand gegen die Änderungen möglicherweise als Versuch der Unternehmen interpretieren, die Regeln zu umgehen. Es besteht kein Zweifel, dass Regelungen wie das Künstliche-Intelligence-Gesetz notwendig sind, um riskantes Fehlverhalten einzudämmen. Wird KI ohne Vorschriften in die falschen Hände geraten?

Es sollte beachtet werden, dass Vorschriften wie der KI-Gesetzentwurf zweifellos notwendig sind, um riskantes Fehlverhalten abzuschrecken ...

Das ist ein berechtigtes Anliegen. Natürlich sind es Regeln notwendig. Anstatt dieses Gesetz jedoch auf alle Modelle gleichzeitig anzuwenden, ist es besser, es einzeln anzuwenden. Anstatt Open Source an der Quelle zu regulieren und Innovationen einzuschränken, sollte jedes Modell auf mögliche Schäden untersucht und entsprechend verwaltet werden.

Die Umsetzung des Gesetzes ist differenziert, komplex und vielschichtig. Sogar diejenigen, die allgemein zustimmten, unterschieden sich in anderer Hinsicht. Allerdings ist die Tatsache, dass GPAI für die Öffentlichkeit zugänglich ist, ein großer Knackpunkt. Dieser offene, kollaborative Ansatz ist der Hauptantrieb für Fortschritt, Transparenz und technologische Entwicklung, für kollektiven und individuellen gesellschaftlichen Nutzen und nicht für kommerziellen Gewinn.

Informationen frei teilen

Open-Source-Lizenzen wie die MIT-Lizenz dienen dem Informations- und Ideenaustausch und nicht dem Verkauf eines ausgefeilten, bewährten Produkts. Daher sollten sie nicht auf ähnliche Weise gehandhabt werden. Es besteht ein echter Bedarf an einem idealen Regulierungsmix. Dies soll die Zuverlässigkeit und Offenheit darüber erhöhen, wie diese KI-Modelle entwickelt werden, welche Datentypen zu ihrem Training verwendet werden und ob es bekannte Einschränkungen gibt. Dies darf jedoch nicht zu Lasten der Freiheit des Informationsaustausches gehen.

Die Form des Gesetzes über künstliche Intelligenz muss angepasst werden, um vorsichtigere Benutzer von Open-Source-Software anzulocken.

Das Gesetz über künstliche Intelligenz sollte so strukturiert sein, dass Benutzer von Open-Source-Software dazu ermutigt werden, vorsichtiger zu sein und eigene Recherchen und Tests durchzuführen, bevor sie sie einem großen Publikum zugänglich machen. Dadurch können böswillige Akteure erwischt werden, die versuchen, das Werk eines Urhebers kommerziell zu verwerten, ohne weitere Untersuchungen durchzuführen oder Qualitätsstandards anzuwenden.

Tatsächlich sollte es in der Verantwortung und Pflicht des Endentwicklers liegen, alles gründlich zu prüfen, bevor es an Verbraucher versendet wird. Diese Menschen werden letztendlich finanziell von Open-Source-Initiativen profitieren. Allerdings strebt das Rahmenwerk in seinem jetzigen Zustand nicht ausdrücklich danach, dies zu erreichen. Ein Kernprinzip von Open Source ist der freie Austausch von Informationen und Fachwissen für persönliche und nichtkommerzielle Zwecke.

Die Ausweitung der rechtlichen Haftung von Open-Source-GPAI-Entwicklern und -Forschern wird den technologischen Fortschritt und die Innovation nur ersticken. Dies wird Entwickler daran hindern, Wissen und Ideen auszutauschen, was es für neue Unternehmen oder aufstrebende Einzelpersonen schwieriger macht, Zugang zu Spitzentechnologie zu erhalten. Sie werden nicht in der Lage sein, auf ihrem eigenen Wissen aufzubauen oder sich von dem, was andere gewonnen haben, motivieren zu lassen.

Künstliche Intelligenz wird heutzutage häufig in intelligenten Gebäuden eingesetzt, was auch Sicherheitsaspekte mit sich bringt. Kürzlich wurde der 23. China International Building Intelligence Summit im Jahr 2022, veranstaltet von Qianjia.com, offiziell eröffnet. Das Thema dieses Gipfels lautet „Digital Intelligence Empowerment, Carbon Solving a New Future“, in dem es darum geht, sicherere intelligente Gebäude zu schaffen Es ist zu einem der Hauptthemen dieses Gipfels geworden.

Der Gipfel findet vom 8. November bis 8. Dezember 2022 im großen Stil in den fünf Großstädten Xi'an, Chengdu, Peking, Shanghai und Guangzhou statt. Zu diesem Zeitpunkt werden wir mit weltbekannten Building-Intelligence-Marken und -Experten zusammenarbeiten, um aktuelle Themen und die neuesten Technologieanwendungen wie KI, Cloud Computing, Big Data, IoT, Smart Cities, Smart Homes und Smart Security auszutauschen und zu diskutieren Wie man ein „kohlenstoffärmeres“ Ziel schafft. Ein sichereres, stabileres und offeneres Industrieökosystem wird dazu beitragen, das „doppelte Kohlenstoff“-Ziel zu erreichen.

Das obige ist der detaillierte Inhalt vonEU-Gesetzentwurf zur künstlichen Intelligenz: Wird die Regulierung Innovationen behindern?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen