Heim > Artikel > Technologie-Peripheriegeräte > Drei OpenAI-Führungskräfte haben diesen Artikel persönlich geschrieben: Wie sollen wir Superintelligenz regieren?
KI hat das menschliche Leben noch nie so umfassend beeinflusst und den Menschen so viele Sorgen und Nöte beschert wie heute.
Wie alle anderen großen technologischen Innovationen in der Vergangenheit hat auch die Entwicklung der KI zwei Seiten: die eine ist dem Guten und die andere dem Bösen zugewandt. Dies ist auch einer der wichtigen Gründe, warum Regulierungsbehörden auf der ganzen Welt damit begonnen haben aktiv einzugreifen.
Auf jeden Fall scheint die Entwicklung der KI-Technologie ein allgemeiner und unaufhaltsamer Trend zu sein Wie man die Entwicklung und den Einsatz von KI unter Einhaltung menschlicher Werte und Ethik sicherer gestalten kann Frage an alle derzeitigen KI-Praktiker. Fragen, die einer sorgfältigen Prüfung bedürfen.
Heute haben Die drei Mitbegründer von OpenAI – CEO Sam Altman, Präsident Greg Brockman und Chefwissenschaftler Ilya Sutskever gemeinsam einen Artikel geschrieben, um zu diskutieren, wie Superintelligenz gesteuert werden kann. Sie argumentieren, dass jetzt ein guter Zeitpunkt sei, über superintelligente Governance nachzudenken – zukünftige künstliche Intelligenzsysteme, die noch leistungsfähiger sind als AGI.
Basierend auf dem, was wir bisher gesehen haben, ist es denkbar, dass künstliche Intelligenz (KI) innerhalb des nächsten Jahrzehnts Fähigkeiten erreichen wird, die menschliche Experten in den meisten Bereichen übertreffen und in der Lage sein wird, vergleichbare Aufgaben auszuführen den größten Unternehmen von heute so viele produktive Aktivitäten wie eine.
Unabhängig von den potenziellen Vor- und Nachteilen wird Superintelligenz leistungsfähiger sein als andere Technologien, mit denen sich Menschen in der Vergangenheit auseinandersetzen mussten. Wir können eine unglaublich erfolgreiche Zukunft haben; aber wir müssen die Risiken bewältigen, um dorthin zu gelangen. Angesichts der Möglichkeit eines existenziellen Risikos können wir nicht einfach passiv reagieren. Ein Beispiel für eine Technologie mit dieser Eigenschaft ist die Kernenergie; ein anderes ist die synthetische Biologie.
Ebenso müssen wir die Risiken der aktuellen KI-Technologie mindern, aber Superintelligenz erfordert eine besondere Verarbeitung und Koordination.
Es gibt viele wichtige Ideen, mit denen wir diese Entwicklung erfolgreich vorantreiben können. Hier bieten wir unsere ersten Gedanken zu drei davon an.
Zuerst brauchen wir eine gewisse Koordination zwischen den führenden Entwicklungsbemühungen, um sicherzustellen, dass die Superintelligenz so entwickelt wird, dass sie uns schützt und gleichzeitig dazu beiträgt, dass sich diese Systeme reibungslos in die Gesellschaft integrieren. Es gibt viele Möglichkeiten, dies zu erreichen; Die großen Regierungen der Welt können zusammenkommen, um ein Projekt zu gründen, in das viele aktuelle Bemühungen einfließen, oder wir können es durch „kollektive Zustimmung“ (mit der Unterstützung eines neuen) tun Organisation wie folgt (wie oben vorgeschlagen) und begrenzt das Wachstum modernster KI-Fähigkeiten jedes Jahr auf eine bestimmte Rate.
Natürlich sollten auch einzelne Unternehmen an extrem hohe Standards gehalten werden, um sich verantwortungsvoll zu entwickeln.
Zweitens brauchen wir möglicherweise etwas Ähnliches wie die Internationale Atomenergiebehörde (IAEA), um die Entwicklung der Superintelligenz zu regulieren; dieser Aufsicht einer internationalen Agentur zu unterliegen, die Systeme inspizieren, Audits verlangen, die Einhaltung von Sicherheitsstandards testen, Grenzen für Bereitstellungs- und Sicherheitsniveaus festlegen kann usw. Die Verfolgung des Computer- und Energieverbrauchs würde sehr helfen und uns Hoffnung geben, dass diese Idee tatsächlich realisierbar ist. In einem ersten Schritt könnten Unternehmen freiwillig vereinbaren, mit der Umsetzung von Elementen zu beginnen, die ein solches Gremium eines Tages möglicherweise erfordern würde, während in einem zweiten Schritt einzelne Länder dies umsetzen könnten. Wichtig ist, dass sich eine solche Agentur auf die Reduzierung „existenzieller Risiken“ konzentrieren sollte und nicht auf Themen, die einzelnen Ländern überlassen werden sollten, wie etwa die Festlegung, was KI sagen darf. Drittens: Wir müssen über genügend technische Fähigkeiten verfügen, um Superintelligenz sicher zu machen. Dies ist eine offene Forschungsfrage, in die wir und andere viel Mühe investieren. Wir glauben, dass es wichtig ist, Unternehmen und Open-Source-Projekten die Entwicklung von Modellen unterhalb erheblicher Fähigkeitsschwellen zu ermöglichen, ohne dass die Art von Regulierung erforderlich ist, die wir hier beschreiben (einschließlich belastender Mechanismen wie Lizenzierung oder Prüfung). . Die heutigen Systeme werden einen enormen Mehrwert für die Welt schaffen, und obwohl sie Risiken bergen, scheinen diese Risikoniveaus mit anderen Internettechnologien vergleichbar zu sein, und die Reaktion der Gesellschaft erscheint angemessen. Im Gegensatz dazu werden die Systeme, auf die wir uns konzentrieren, über eine Leistung verfügen, die jede bisherige Technologie übersteigt, und wir sollten darauf achten, den Fokus auf sie nicht zu verwässern, indem wir ähnliche Standards auf Technologien anwenden, die deutlich unterhalb dieser Schwelle liegen. Aber für die Verwaltung der robustesten Systeme und Entscheidungen über deren Einsatz bedarf es einer starken öffentlichen Aufsicht. Wir glauben, dass Menschen auf der ganzen Welt demokratisch über die Grenzen und Vorgaben von KI-Systemen entscheiden sollten. Wir wissen noch nicht, wie wir einen solchen Mechanismus entwerfen sollen, aber wir planen, einige Experimente durchzuführen. Wir sind weiterhin davon überzeugt, dass einzelne Benutzer innerhalb dieser weiten Grenzen eine erhebliche Kontrolle darüber haben sollten, wie sie sich mit KI verhalten. Angesichts der Risiken und Schwierigkeiten lohnt es sich, darüber nachzudenken, warum wir diese Technologie entwickeln. Bei OpenAI haben wir zwei grundlegende Gründe. Erstens glauben wir, dass es zu einer besseren Welt führen wird, als wir uns heute vorstellen können (wir sehen bereits erste Beispiele dafür in Bereichen wie Bildung, kreative Arbeit und persönliche Produktivität). Die Welt steht vor vielen Problemen, und wir brauchen mehr Hilfe bei deren Lösung. Diese Technologie kann unsere Gesellschaft verbessern, und wir werden mit Sicherheit von der Kreativität aller, die diese neuen Tools nutzen, überrascht sein. Das Wirtschaftswachstum und die Verbesserung der Lebensqualität werden atemberaubend sein. Zweitens glauben wir, dass der Stopp des Aufbaus von Superintelligenz eine unintuitiv riskante und schwierige Entscheidung wäre. Aufgrund seiner enormen Vorteile sinken die Kosten für den Bau von Superintelligenz jedes Jahr, die Zahl der Bauherren nimmt rapide zu und es ist im Wesentlichen Teil des technologischen Weges, auf dem wir uns befinden. Um ihn zu stoppen, ist so etwas wie eine globale Überwachung erforderlich Es gibt ein Regime, und selbst ein solches System garantiert keinen Erfolg. Also müssen wir es richtig machen. Was nicht im Geltungsbereich liegt
Öffentliche Beteiligung und Potenzial
Das obige ist der detaillierte Inhalt vonDrei OpenAI-Führungskräfte haben diesen Artikel persönlich geschrieben: Wie sollen wir Superintelligenz regieren?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!