Heim > Artikel > Technologie-Peripheriegeräte > OpenAI kündigt neues Team zur Steuerung „superintelligenter“ künstlicher Intelligenz an
Nachrichten vom 6. Juli, am Mittwoch Ortszeit in den Vereinigten Staaten, gab das Startup für künstliche Intelligenz OpenAI bekannt, dass es ein neues Team bildet, um Methoden zur Führung und Steuerung „superintelligenter“ Systeme der künstlichen Intelligenz zu entwickeln. Das Team wird von Ilya Sutskever, Chefwissenschaftler und Mitbegründer von OpenAI, geleitet.
In einem Blogbeitrag sagen Suskwell und Jan Leike, Leiter des OpenAI-Koordinationsteams, voraus, dass innerhalb eines Jahrzehnts künstliche Intelligenz mit größerer Intelligenz als Menschen entstehen wird. Sie warnen davor, dass eine solche künstliche Intelligenz dem Menschen gegenüber nicht unbedingt wohlwollend sein wird, weshalb es notwendig sein wird, nach Möglichkeiten zu suchen, sie zu kontrollieren und einzuschränken.
Suskwell und Lake schrieben: „Derzeit haben wir keine Lösungen, mit denen wir eine potenziell superintelligente KI manipulieren oder kontrollieren und verhindern können, dass sie außer Kontrolle gerät, etwa durch Verstärkung durch menschliches Feedback.“ Lernen hängt von der Fähigkeit des Menschen ab, künstliche Intelligenz zu überwachen. Aber Menschen werden nicht in der Lage sein, Systeme mit künstlicher Intelligenz, die viel intelligenter sind als wir, zuverlässig zu überwachen. Das neue Super Alignment-Team unter der gemeinsamen Leitung von Susqueville und Lake wird Zugriff auf bis zu 20 % der Rechenressourcen von OpenAI haben. Dieses Team wird in den nächsten vier Jahren gemeinsam mit Wissenschaftlern und Ingenieuren der ehemaligen Alignment Division von OpenAI sowie Forschern aus anderen Teilen des Unternehmens an der Lösung der zentralen technischen Herausforderungen der Steuerung superintelligenter künstlicher Intelligenz arbeiten.
Wie stellen wir also sicher, dass KI-Systeme, die viel intelligenter sind als Menschen, menschlichen Absichten folgen? Dies erfordert die Hilfe dessen, was Suskwell und Lake als „automatisierte Ausrichtungsforscher auf menschlicher Ebene“ bezeichnen. Die übergeordneten Ziele bestehen darin, menschliches Feedback zu nutzen, um KI-Systeme zu trainieren, KI zu trainieren, um bei der Bewertung anderer KI-Systeme zu helfen, und letztendlich eine KI aufzubauen, die Ausrichtungsstudien durchführen kann. Unter „Ausrichtungsforschung“ versteht man hier die Sicherstellung, dass das System der künstlichen Intelligenz die erwarteten Ergebnisse erzielt oder nicht vom Forschungspfad abweicht.
Die Hypothese von OpenAI ist, dass künstliche Intelligenz Ausrichtungsforschung schneller und besser durchführen kann als Menschen.
„Während wir diesbezüglich Fortschritte machen, können unsere KI-Systeme mehr und mehr der Ausrichtungsarbeit übernehmen und letztendlich bessere Ausrichtungstechnologien konzipieren, implementieren, erforschen und entwickeln, als wir es jetzt haben“, sagten Lake und seine Kollegen John Schulman und Jeffrey Wu in einem früheren Blogbeitrag vermutet. „Sie werden mit Menschen zusammenarbeiten, um sicherzustellen, dass ihre eigenen Nachfolger immer mit Menschen übereinstimmen. Menschliche Forscher werden sich zunehmend auf die Überprüfung von Ausrichtungsstudien konzentrieren, die von KI-Systemen durchgeführt wurden, anstatt solche Studien selbst durchzuführen.“
Natürlich ist keine Methode narrensicher , und Lake, Schulman und Jeffrey Wu erkennen in ihrem Artikel an, dass der Ansatz von OpenAI viele Einschränkungen aufweist. Sie sagen, dass der Einsatz von KI zur Bewertung das Potenzial hat, Inkonsistenzen, Vorurteile oder Schwachstellen in der KI zu verstärken. Es könnte sich herausstellen, dass der schwierigste Teil des Ausrichtungsproblems überhaupt nichts mit der Technik zu tun hat.
Aber Suskville und Lake dachten, es sei einen Versuch wert. Sie schreiben: „Superintelligente Ausrichtung ist im Grunde ein Problem des maschinellen Lernens, und wir glauben, dass gute Experten für maschinelles Lernen (auch wenn sie noch nicht mit der Arbeit an der Ausrichtung begonnen haben) für die Lösung dieses Problems von entscheidender Bedeutung sein werden. Wir planen, die Ergebnisse von weithin zu teilen.“ unsere Bemühungen und fördern die Konsistenz und Sicherheit von Nicht-OpenAI-Modellen als wichtigen Teil unserer Arbeit.“
Das obige ist der detaillierte Inhalt vonOpenAI kündigt neues Team zur Steuerung „superintelligenter“ künstlicher Intelligenz an. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!