


Die Sicherheitsfragen der künstlichen Intelligenz (KI) werden weltweit mit beispielloser Aufmerksamkeit diskutiert.
Bevor der OpenAI-Gründer und Chefwissenschaftler Ilya Sutskever und der Co-Leiter des OpenAI Super Alignment-Teams, Jan Leike, nacheinander OpenAI verließen, veröffentlichte Leike sogar eine Reihe von Beiträgen auf X, in denen er sagte, dass OpenAI und seine Führung die Sicherheit zugunsten des Glamours ignorierten . Brillantes Produkt. Dies hat in der Branche große Aufmerksamkeit erregt und die Ernsthaftigkeit der aktuellen KI-Sicherheitsprobleme in gewissem Maße verdeutlicht.
Am 21. Mai forderte ein im Science-Magazin veröffentlichter Artikel die Staats- und Regierungschefs der Welt auf, stärker gegen die Risiken künstlicher Intelligenz (KI) vorzugehen. In dem Artikel wurde darauf hingewiesen, dass maßgebliche Wissenschaftler und Gelehrte, darunter die Turing-Preisträger Yoshua Bengio, Geoffrey Hinton und Yao Qizhi, der Meinung sind, dass die in den letzten Monaten erzielten Fortschritte nicht ausreichen. Ihrer Ansicht nach entwickelt sich die Technologie der künstlichen Intelligenz rasant weiter, die Entwicklung und Anwendung von KI birgt jedoch viele potenzielle Risiken, darunter Datenschutz, Missbrauch von Waffen der künstlichen Intelligenz und die Auswirkungen künstlicher Intelligenz auf den Arbeitsmarkt. Daher müssen Regierungen die Aufsicht und Gesetzgebung stärken und geeignete Richtlinien formulieren, um die Entwicklung künstlicher Intelligenz zu steuern und zu steuern. Darüber hinaus enthält der Artikel auch
Wir glauben, dass die unkontrollierte Entwicklung der KI letztendlich wahrscheinlich zu einem großen Verlust an Leben und der Biosphäre sowie zur Marginalisierung oder Ausrottung von Menschen führen wird.
Aus ihrer Sicht sind die Sicherheitsprobleme von KI-Modellen auf ein Niveau gestiegen, das ausreicht, um das zukünftige Überleben der Menschheit zu gefährden.
Ebenso ist das Sicherheitsproblem von KI-Modellen zu einem Thema geworden, das jeden betreffen kann und über das sich jeder Sorgen machen muss.
Der 22. Mai wird ein wichtiger Moment in der Geschichte der künstlichen Intelligenz sein: OpenAI, Google, Microsoft und Zhipu AI sowie andere Unternehmen aus verschiedenen Ländern und Regionen haben gemeinsam die Frontier AI Safety Commitments unterzeichnet hat das Gesetz über künstliche Intelligenz (KI-Gesetz) verabschiedet und die weltweit ersten umfassenden KI-Regulierungsvorschriften stehen kurz vor dem Inkrafttreten.
Wieder einmal wird das Sicherheitsproblem der KI auf politischer Ebene erwähnt.
Künstliche Intelligenz Seoul Summit „Erklärung“
Auf dem „AI Seoul Summit“ mit dem Thema „Sicherheit, Innovation und Inklusion“ versammelten sich Menschen aus Nordamerika, Asien, Europa und dem Nahen Osten 16 Unternehmen in der Region einigten sich auf Sicherheitsverpflichtungen für die KI-Entwicklung und unterzeichneten gemeinsam das Frontier Artificial Intelligence Security Commitment, das die folgenden Punkte umfasst:
- Gewährleistung einer verantwortungsvollen Governance-Struktur und Transparenz für modernste KI-Sicherheit
- Basierend auf KI-Sicherheit Rahmen zur verantwortungsvollen Erläuterung, wie die Risiken modernster KI-Modelle gemessen werden;
- Einen klaren Prozess für Risikominderungsmechanismen für modernste KI-Sicherheitsmodelle etablieren.
Turing-Award-Gewinner Yoshua Bengio glaubt, dass die Unterzeichnung des Frontier Artificial Intelligence Safety Commitment „einen wichtigen Schritt bei der Einrichtung eines internationalen Governance-Systems zur Förderung der Sicherheit künstlicher Intelligenz darstellt.“
Als großes Modellunternehmen aus China hat auch Zhipu AI diese neue Verpflichtung zur Sicherheit im Bereich der künstlichen Intelligenz unterzeichnet. Die vollständige Liste der Unterzeichner lautet wie folgt:
In diesem Zusammenhang OpenAI Vizepräsidentin für globale Angelegenheiten „Die Frontier AI Security Commitments sind ein wichtiger Schritt zur Förderung einer breiteren Implementierung fortschrittlicher KI-Systemsicherheitspraktiken“, sagte Präsidentin Anna Makanju. „Diese Verpflichtungen werden führenden Entwicklern dabei helfen, wichtige, hochmoderne Best Practices für die KI-Sicherheit zu etablieren.“ Zhang Peng, CEO von Zhipu AI, sagte: „Mit fortschrittlicher Technologie geht eine wichtige Verantwortung für die Gewährleistung der KI-Sicherheit einher.“ Kürzlich wurden Zhipu AI auch zur ICLR 2024, der führenden KI-Konferenz, eingeladen und stellten ihre spezifischen Ansätze für KI vor Sicherheit in einer Grundsatzrede mit dem Titel „The ChatGLM's Road to AGI“.
Sie glauben, dass die Superalignment-Technologie dazu beitragen wird, die Sicherheit großer Modelle zu verbessern, und haben einen Superalignment-Plan ähnlich wie OpenAI ins Leben gerufen, in der Hoffnung, dass Maschinen lernen, selbst zu lernen und zu urteilen, um sichere Inhalte zu lernen.
Sie enthüllten, dass in GLM-4V diese Sicherheitsmaßnahmen integriert sind, um schädliches oder unethisches Verhalten zu verhindern und gleichzeitig die Privatsphäre und Datensicherheit der Benutzer zu schützen; und die nachfolgende aktualisierte Version von GLM-4 ist GLM-4.5 und seine Verbesserte Modelle sollten auch auf Superintelligenz und Superausrichtungstechnologie basieren.
Wir haben außerdem herausgefunden, dass die Teams von Zhipu AI und Tsinghua in einem kürzlich veröffentlichten Artikel eine rückkopplungsfreie Methode zur Ausrichtung großer Sprachmodelle eingeführt haben, die eine große Anzahl selbst generierter negativer Wörter verwendet – Selbstkontrast.
Laut Papierbeschreibung kann Self-Contrast nur mit dem überwachten Feinabstimmungsziel (SFT) LLM selbst verwenden, um eine große Anzahl verschiedener Kandidatenwörter zu generieren, und das vorab trainierte Einbettungsmodell verwenden, um mehrere negative Wörter zu filtern Wörter basierend auf Textähnlichkeit.
Link zum Papier: https://arxiv.org/abs/2404.00604
Experimente zur direkten Präferenzoptimierung (DPO) an drei Datensätzen zeigen, dass Selbstkontrast nachhaltig über SFT und Standard-DPO hinausgehen kann Ausbildung. Darüber hinaus verbessert sich die Leistung von Self-Contrast weiter, wenn die Anzahl der selbst generierten negativen Proben zunimmt.
Insgesamt liefert diese Studie eine neue Methode zur Ausrichtung (z. B. die RLHF-Methode) bei fehlenden Präferenzdaten. Wenn die Annotation von Präferenzdaten teuer und schwer zu erhalten ist, können unbeschriftete SFT-Daten zur Erstellung grammatikalischer Präferenzdaten verwendet werden, um den durch unzureichende positive Stichproben verursachten Leistungsverlust durch Erhöhen der Anzahl negativer Stichproben auszugleichen.
Der Rat der Europäischen Union hat das Gesetz über künstliche Intelligenz offiziell verabschiedet
Am selben Tag hat der Rat der Europäischen Union auch das Gesetz über künstliche Intelligenz (KI-Gesetz) offiziell verabschiedet, die weltweit erste umfassende Verordnung Die bahnbrechenden Vorschriften zur künstlichen Intelligenz, die nächsten Monat in Kraft treten und derzeit nur für Bereiche innerhalb des EU-Rechts gelten, könnten einen potenziellen globalen Maßstab für die in der Wirtschaft und im Alltag eingesetzte Technologie setzen.
„Diese wegweisende Verordnung, die erste ihrer Art weltweit, geht auf eine globale technologische Herausforderung ein und schafft gleichzeitig Chancen für unsere Gesellschaft und Wirtschaft“, sagte Mathieu Michel, Minister für Digitalisierung Belgiens, in einer Erklärung.
Diese umfassende KI-Gesetzgebung verfolgt einen „risikobasierten“ Ansatz, d. h. je höher das Risiko eines Schadens für die Gesellschaft, desto strenger die Regeln. Beispielsweise unterliegen allgemeine KI-Modelle, die keine systemischen Risiken bergen, einigen eingeschränkten Anforderungen, wohingegen Modelle, bei denen dies der Fall ist, strengeren Vorschriften unterliegen.
Bußgelder für Verstöße gegen das Gesetz über künstliche Intelligenz, die als Prozentsatz des weltweiten Jahresumsatzes des betreffenden Unternehmens im vorangegangenen Geschäftsjahr oder als vorher festgelegter Betrag festgesetzt werden, je nachdem, welcher Betrag höher ist.
Ob es sich nun um ein kleines Technologieunternehmen oder eine große Regierungsbehörde handelt, steht die Prävention und Lösung von KI-Sicherheitsproblemen auf der Tagesordnung. Wie Philip Torr, Professor für Ingenieurwissenschaften an der Universität Oxford, sagte:
„Auf dem letzten KI-Gipfel war sich die Welt einig, dass wir Maßnahmen ergreifen müssen, aber jetzt ist es an der Zeit, von vagen Empfehlungen zu konkreten Verpflichtungen überzugehen.“ ."
Das obige ist der detaillierte Inhalt vonOpenAI, Microsoft, Zhipu AI und weitere 16 Unternehmen auf der ganzen Welt haben das Frontier Artificial Intelligence Security Commitment unterzeichnet. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Nutzen Sie die Kraft von AI On-Device: Bauen eines persönlichen Chatbot-Cli In der jüngeren Vergangenheit schien das Konzept eines persönlichen KI -Assistenten wie Science -Fiction zu sein. Stellen Sie sich Alex vor, ein Technik -Enthusiast, der von einem klugen, lokalen KI -Begleiter träumt - einer, der nicht angewiesen ist

Ihre Eröffnungseinführung von AI4MH fand am 15. April 2025 statt, und Luminary Dr. Tom Insel, M. D., berühmter Psychiater und Neurowissenschaftler, diente als Kick-off-Sprecher. Dr. Insel ist bekannt für seine herausragende Arbeit in der psychischen Gesundheitsforschung und für Techno

"Wir möchten sicherstellen, dass die WNBA ein Raum bleibt, in dem sich alle, Spieler, Fans und Unternehmenspartner sicher fühlen, geschätzt und gestärkt sind", erklärte Engelbert und befasste sich mit dem, was zu einer der schädlichsten Herausforderungen des Frauensports geworden ist. Die Anno

Einführung Python zeichnet sich als Programmiersprache aus, insbesondere in der Datenwissenschaft und der generativen KI. Eine effiziente Datenmanipulation (Speicherung, Verwaltung und Zugriff) ist bei der Behandlung großer Datensätze von entscheidender Bedeutung. Wir haben zuvor Zahlen und ST abgedeckt

Vor dem Eintauchen ist eine wichtige Einschränkung: KI-Leistung ist nicht deterministisch und sehr nutzungsgewohnt. In einfacherer Weise kann Ihre Kilometerleistung variieren. Nehmen Sie diesen (oder einen anderen) Artikel nicht als endgültiges Wort - testen Sie diese Modelle in Ihrem eigenen Szenario

Erstellen eines herausragenden KI/ML -Portfolios: Ein Leitfaden für Anfänger und Profis Das Erstellen eines überzeugenden Portfolios ist entscheidend für die Sicherung von Rollen in der künstlichen Intelligenz (KI) und des maschinellen Lernens (ML). Dieser Leitfaden bietet Rat zum Erstellen eines Portfolios

Das Ergebnis? Burnout, Ineffizienz und eine Erweiterung zwischen Erkennung und Wirkung. Nichts davon sollte für jeden, der in Cybersicherheit arbeitet, einen Schock erfolgen. Das Versprechen der Agenten -KI hat sich jedoch als potenzieller Wendepunkt herausgestellt. Diese neue Klasse

Sofortige Auswirkungen gegen langfristige Partnerschaft? Vor zwei Wochen hat Openai ein leistungsstarkes kurzfristiges Angebot vorangetrieben und bis Ende Mai 2025 den kostenlosen Zugang zu Chatgpt und Ende Mai 2025 gewährt. Dieses Tool enthält GPT-4O, A A A.


Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

WebStorm-Mac-Version
Nützliche JavaScript-Entwicklungstools

Herunterladen der Mac-Version des Atom-Editors
Der beliebteste Open-Source-Editor

DVWA
Damn Vulnerable Web App (DVWA) ist eine PHP/MySQL-Webanwendung, die sehr anfällig ist. Seine Hauptziele bestehen darin, Sicherheitsexperten dabei zu helfen, ihre Fähigkeiten und Tools in einem rechtlichen Umfeld zu testen, Webentwicklern dabei zu helfen, den Prozess der Sicherung von Webanwendungen besser zu verstehen, und Lehrern/Schülern dabei zu helfen, in einer Unterrichtsumgebung Webanwendungen zu lehren/lernen Sicherheit. Das Ziel von DVWA besteht darin, einige der häufigsten Web-Schwachstellen über eine einfache und unkomplizierte Benutzeroberfläche mit unterschiedlichen Schwierigkeitsgraden zu üben. Bitte beachten Sie, dass diese Software

SublimeText3 Englische Version
Empfohlen: Win-Version, unterstützt Code-Eingabeaufforderungen!

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)