Heim > Artikel > Technologie-Peripheriegeräte > Die Ära der großen Models ist da! Wie gehe ich mit Datensicherheitsrisiken um? Tipps von Experten beim Xiaomanyao AI Summit
Was ist der Grund für die Beliebtheit großer Sprachmodelle wie ChatGPT? Für welche Branchen wird es gute Nachrichten bringen? Wo liegen die potenziellen Blasenrisiken? Vom 25. bis 26. Mai diskutierten mehr als 20 Forscher und Praktiker im Bereich KI auf dem AIGC-Sondergipfel „Auf dem Weg zum intelligenten Zeitalter und zur Verwirklichung des Zivilisationssprungs“ AIGC-Anwendungen und neue Geschäftsparadigmen. neue Entwicklungspfade in verschiedenen Branchen und Bereichen sowie potenzielle Datensicherheitsrisiken und ethische Fragen.
Bei der feierlichen Veröffentlichung des neuen Buches auf dem Gipfel am 26. sagte Long Zhiyong, Autor von „The Age of Big Models“, ehemaliger leitender Produktexperte und stellvertretender General Manager der Geschäftseinheit von Alibaba sowie Mitbegründer und Chief Operating Officer des KI-Startup-Unternehmens aus dem Silicon Valley sagte in einem Interview mit Nandu offen, dass generative KI zuerst dem Modell der Standardisierung und später der Entwicklung folgen sollte. Um mit den potenziellen Blasenrisiken großer Modelle umzugehen, gibt es sowohl technische Mittel, wie z B. die Selbstbewertung großer Modelle, die Überprüfung von Compliance-Algorithmen usw. sowie manuelle Prozesse. Noch wichtiger ist, dass die Branche angemessene Erwartungen an die Schwierigkeit und den Zyklus der Problemlösung haben muss, um die durch übermäßigen Optimismus verursachten Risiken zu vermeiden.
Große Modelle leiten eine neue Runde intellektueller Revolution und industrieller Umstrukturierung ein
Das wirklich intelligente „Gehirn“ hinter generativer künstlicher Intelligenz wie ChatGPT ist das große Sprachmodell! Technologische Durchbrüche, die auf großen generativen Pre-Training-Modellen basieren, haben vielfältige Anwendungen für Einzelpersonen und Branchen eröffnet, eine neue Runde der intellektuellen Revolution und des industriellen Wiederaufbaus ausgelöst und eine neue Beziehung zwischen Gehirn und Computer für die Zusammenarbeit aufgebaut.
Die Ära der großen Modelle ist angebrochen! Long Zhiyong enthüllte, dass „The Era of Big Models“ eine tiefgreifende Analyse und Ausarbeitung von Technologie, Anwendungen und industriellen Veränderungen bietet, die Prinzipien hinter dem ChatGPT-Großmodell anschaulich erklärt und zeigt, wie große Modelle die Gesellschaft in das Zeitalter der intelligenten Revolution führen werden Gehirn-Computer-Zusammenarbeit und Zusammenfassung der Vorsichtsmaßnahmen und Methoden für Unternehmen zur Anwendung großer Modelle in ihrem eigenen Unternehmen sowie Bereitstellung von Vorschlägen für Einzelpersonen und Unternehmen zur Bewältigung von Änderungen. Seiner Meinung nach wurden große Modelle speziell in Bereichen wie Wissensarbeit, Handelsunternehmen und kreativer Unterhaltung angewendet und führten hauptsächlich zu zwei Arten von Innovationen: inkrementelle Innovation und disruptive Innovation.
In der Grundsatzrede auf dem Gipfel erwähnte der Wissenschaftler für künstliche Intelligenz Liu Zhiyi auch, dass künstliche Intelligenz verschiedene Bereiche der wirtschaftlichen und sozialen Entwicklung stärkt und die Nachfrage nach großen Modellen für die industrielle Modernisierung in verschiedenen nachgelagerten Bereichen weiter steigt. Schätzungen zufolge wird die Marktgröße der chinesischen Industrie für künstliche Intelligenz im Jahr 2022 370 Millionen Yuan betragen und im Jahr 2027 voraussichtlich 1,537 Milliarden Yuan erreichen. Es wird erwartet, dass sie weiterhin in viele Bereiche wie nachgelagerte Fertigung, Transport, Finanzen, und medizinische Versorgung zu verbessern und eine groß angelegte Umsetzung zu erreichen.
„The Era of Big Models“ wurde am 26. Mai auf dem AIGC-Sondergipfel 2023 „Toward the Intelligent Era and Achieving a Civilization Leap“ veröffentlicht.
Generative künstliche Intelligenz birgt Risiken wie Vertrauenserosion
Mit der weit verbreiteten Anwendung großer Modelle sind jedoch auch potenzielle Blasen entstanden. Weniger als 20 Tage nach der Einführung von ChatGPT durch Samsung wurde bekannt, dass vertrauliche Daten durchgesickert waren. Die Menschen achten zunehmend auf die rechtlichen Risiken, ethischen Probleme und Datensicherheitsprobleme, die durch Technologien wie KI-Gesichtsveränderung und KI-Malerei entstehen.
Als er über „KI-technologische Innovation und ethische Governance im Zeitalter der großen Modelle“ sprach, sagte Liu Zhiyi, dass generative künstliche Intelligenz bestimmte Risiken birgt, wenn diese Risiken bei der Ausweitung nicht berücksichtigt und gemindert werden die Transformationsgeschwindigkeit. Kontinuierliche Aktualisierungen trainierter Modelle zur Verbesserung der Leistung können Bedenken hinsichtlich sensibler Daten, Datenschutz und Sicherheit aufwerfen. Jeder, der an der Entwicklung, Nutzung, Diskussion und Regulierung generativer KI beteiligt ist, sollte daran arbeiten, Risiken wie Vertrauensverlust, langfristiges Risiko der Arbeitslosigkeit von Mitarbeitern, Voreingenommenheit und Diskriminierung, Datenschutz und Schutz des geistigen Eigentums zu bewältigen.
Liu Zhiyi äußerte in einem Interview mit Nandu drei Ansichten. Er sagte, dass die KI-Technologie zunächst natürlich in verschiedene Bereiche der Volkswirtschaft und der sozialen Systeme eindringen wird und die Risiken zunehmen werden, da die Technologie selbst eine Black Box ist, beispielsweise ein tiefes neuronales Netzwerk. Durch die Berechnung von Technologie und Algorithmen. Niemand kennt jeden Schritt davon, ist undurchsichtig und unerklärlich, daher gibt es Risiken. Zweitens wird KI-Technologie oft mit der Schaffung der digitalen Welt in Verbindung gebracht. Beispielsweise sollen durch tiefgreifende Fälschungen, einschließlich der Fälschung von Ton und Bildern, physische Identitäten in digitale Identitäten umgewandelt werden. Je weiter entwickelt die digitale Wirtschaft ist, desto stärker sind sie auf diese technischen Unterstützungsmaßnahmen angewiesen, desto größer sind aber auch die Risiken, die sie mit sich bringen. Drittens legt mein Land großen Wert auf Anwendungsszenarien und die Ökologie. Die Umsetzung dieser Anwendungsszenarien muss zwangsläufig mit Risiken verbunden sein, sodass beispielsweise eine präventive Überwachung erfolgt. Die Cyberspace Administration of China veröffentlichte „Die „Maßnahmen für das Management generativer künstlicher Intelligenzdienste (Entwurf zur Kommentierung)“ und die „Stellungnahmen zur Stärkung der ethischen Governance von Wissenschaft und Technologie“, herausgegeben vom Ministerium für Wissenschaft und Technologie, sind allesamt präventive Überlegungen von einige Risiken.
Long Zhiyong, Autor von „The Age of Big Models“, ehemaliger leitender Produktexperte und stellvertretender General Manager der Geschäftseinheit von Alibaba sowie Mitbegründer und Chief Operating Officer des KI-Startup-Unternehmens aus dem Silicon Valley, sprach bei der Zeremonie zur Veröffentlichung des neuen Buches.
Anforderungen an die Zuverlässigkeit und Transparenz großer Modellalgorithmen vorlegen
„Datenschutz ist in der Tat ein wichtiges Thema für das GPT-Großmodell.“ Long Zhiyong sagte in einem Interview mit Nandu, dass OpenAI kürzlich als Reaktion auf Anfragen in den USA Vorbereitungen getroffen habe, beispielsweise die Bereitstellung einer persönlichen Option zum Deaktivieren des Chats Durch die Aufzeichnungen in ChatGPT können Benutzer großen Modellen die Verwendung ihrer eigenen privaten Daten für das Training verweigern. OpenAI stellt privat bereitgestellte Modelle zur Verfügung, um zu vermeiden, dass Unternehmen sich Sorgen machen müssen, dass ihre fein abgestimmten Trainingsdaten von großen Modellen an Wettbewerber weitergegeben werden Wird höchstwahrscheinlich von inländischen Großmodellen übernommen.
In Bezug auf den Umgang mit den potenziellen Blasenrisiken großer Modelle und die Frage, wie das Verhältnis zwischen starker Regulierung und der Entwicklung generativer künstlicher Intelligenz in Einklang gebracht werden kann, sagte Long Zhiyong offen, dass generative KI zuerst dem Modell der Standardisierung und später der Entwicklung folgen sollte. Als Hauptträger der rechtlichen Verantwortung für KI-generierte Produkte sind Dienstleister großer Modelle für die Richtigkeit und Wertorientierung von AIGC-Inhalten verantwortlich, und ihr Compliance-Druck ist immer noch erheblich“, heißt es in der „Beijing Förderung In dem Dokument „Mehrere Maßnahmen zur innovativen Entwicklung allgemeiner künstlicher Intelligenz“ wird erwähnt, dass generative KI gefördert werden sollte, um positive Anwendungen in nicht-öffentlichen Dienstleistungsbereichen wie der wissenschaftlichen Forschung zu erzielen, und im Kernbereich von erprobt werden sollte Ich halte es für ein positives Signal, ein Gleichgewicht zwischen Normen und Entwicklung herzustellen.“
Er erwähnte, dass die Denkweise der Regulierungsbehörde umfangreiche Algorithmen erfordert, um die Zuverlässigkeit und Transparenz zu verbessern. In „Das Zeitalter der großen Models“ wurde vor möglichen Blasenrisiken in der Branche gewarnt, und einer der Schlüsselfaktoren war die Zuverlässigkeit und Transparenz großer Models. Ilya, Chefwissenschaftler von OpenAI, glaubt, dass die Illusion großer Modelle und die Verfälschung von Informationen die Haupthindernisse sind, die die Anwendung von GPT in verschiedenen Branchen behindern. Der Grund, warum das Halluzinationsproblem schwer zu beseitigen ist, liegt zum einen in den Trainingszielen und -methoden großer Modelle. Zweitens ist die Black-Box-Eigenschaft der KI seit der Ära des Deep Learning undurchsichtig und kann keine spezifischen Probleme im Modell lokalisieren. Angesichts der Tatsache, dass der Entstehungsmechanismus neuer Fähigkeiten großer Modelle ebenfalls transparent und unvorhersehbar ist, muss die große Modellindustrie trotz Kontrollverlusts nach Kontrolle suchen und eine Entwicklung im Rahmen von Vorschriften anstreben. Dies ist die größte Herausforderung.
Produziert von: Nandu Big Data Research Institute
Forscher: Yuan Jiongxian
Das obige ist der detaillierte Inhalt vonDie Ära der großen Models ist da! Wie gehe ich mit Datensicherheitsrisiken um? Tipps von Experten beim Xiaomanyao AI Summit. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!