Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Heiße Debatte im Silicon Valley: Wird KI die Menschheit zerstören?

Heiße Debatte im Silicon Valley: Wird KI die Menschheit zerstören?

王林
王林nach vorne
2023-05-30 23:18:001299Durchsuche

Heiße Debatte im Silicon Valley: Wird KI die Menschheit zerstören?

Nachrichten vom 22. Mai: Da neue Technologien wie generative künstliche Intelligenz zu einem neuen Trend in der Technologiewelt geworden sind, hat sich die Debatte darüber, ob künstliche Intelligenz die Menschheit zerstören wird, intensiviert . Ein bekannter Technologieführer hat gewarnt, dass künstliche Intelligenz die Welt erobern könnte. Andere Forscher und Führungskräfte halten die Behauptungen für Science-Fiction.

Bei einer Anhörung im US-Kongress letzte Woche erinnerte Sam Altman, CEO des Startups für künstliche Intelligenz OpenAI, deutlich daran, dass die von dem Unternehmen offengelegte Technologie Sicherheitsrisiken aufweist.

Altman warnte davor, dass Technologien der künstlichen Intelligenz wie der ChatGPT-Chatbot zu Problemen wie Desinformation und böswilliger Manipulation führen könnten, und forderte eine Regulierung.

Er sagte, künstliche Intelligenz könne „der Welt ernsthaften Schaden zufügen“.

Altmans Aussage vor dem US-Kongress erfolgt zu einem Zeitpunkt, an dem die Debatte darüber, ob künstliche Intelligenz die Welt dominieren wird, zum Mainstream wird, wobei die Meinungen im gesamten Silicon Valley zunehmend gespalten sind und diejenigen, die sich für die Förderung der Technologie einsetzen, an Bedeutung gewinnen.

Einige Menschen glaubten einst, dass die Intelligenz von Maschinen plötzlich die von Menschen übertreffen könnte, und beschließen, Menschen zu zerstören. Jetzt findet diese Randidee Unterstützung bei immer mehr Menschen. Einige führende Wissenschaftler gehen sogar davon aus, dass sich die Zeit, die Computer benötigen, um den Menschen zu übertreffen und ihn zu kontrollieren, verkürzen wird.

Aber viele Forscher und Ingenieure sagen, dass viele Menschen zwar besorgt über das Aufkommen einer mörderischen künstlichen Intelligenz wie Skynet im Film „Terminator“ sind, diese Sorge jedoch nicht auf Logik beruht. Stattdessen lenkt es von den tatsächlichen Problemen ab, die diese Technologie bereits verursacht, einschließlich derjenigen, die Altman in seiner Aussage beschrieben hat. Die heutige KI-Technologie verschleiert das Urheberrecht, verschärft die Bedenken hinsichtlich digitaler Privatsphäre und Überwachung und könnte dazu genutzt werden, die Fähigkeit von Hackern zu verbessern, Netzwerkverteidigungen zu durchbrechen.

Google, Microsoft und OpenAI haben alle bahnbrechende Technologien für künstliche Intelligenz öffentlich veröffentlicht. Diese Technologien können komplexe Gespräche mit Benutzern führen und Bilder basierend auf einfachen Textaufforderungen generieren. Die Debatte über böse künstliche Intelligenz ist hitzig geworden.

„Das ist keine Science-Fiction“, sagte Geoffrey Hinton, der Pate der künstlichen Intelligenz und ehemaliger Google-Mitarbeiter. Hinton sagte, dass künstliche Intelligenz, die intelligenter ist als der Mensch, innerhalb von fünf bis 20 Jahren entstehen könnte, verglichen mit seiner vorherigen Schätzung von 30 bis 100 Jahren.

„Es ist, als ob Außerirdische auf der Erde gelandet wären oder dabei wären“, sagte er. „Wir können es wirklich nicht akzeptieren, weil sie fließend sprechen, nützlich sind, Gedichte schreiben und auf langweilige Briefe antworten. Aber sie sind wirklich Außerirdische, in Within große Technologie.“ Unternehmen und viele Ingenieure, die eng mit der Technologie befasst sind, glauben nicht, dass künstliche Intelligenz, die den Menschen ersetzt, derzeit etwas ist, worüber sich jeder Sorgen machen muss. „Unter den Forschern, die sich aktiv in dieser Disziplin engagieren und sich auf die aktuelle Situation konzentrieren, gibt es weitaus mehr Menschen, die sich über die tatsächlichen Risiken Sorgen machen, als diejenigen, die sich Sorgen darüber machen, ob Risiken für das Überleben der Menschheit bestehen.“

Das gibt es Viele reale Risiken, wie z. B. Roboter, die darauf trainiert werden, schädliche Inhalte zu veröffentlichen, werden Vorurteile und Diskriminierung verstärken. Die überwiegende Mehrheit der Trainingsdaten ist auf Englisch, hauptsächlich aus Nordamerika oder Europa, was dazu führen kann, dass das Internet noch weiter von der Sprache abweicht und Kultur der meisten Menschen; diese Roboter fabrizieren oft auch falsche Informationen und tarnen sie in manchen Fällen sogar in endlose Dialogschleifen, in denen sie den Benutzer angreifen. Darüber hinaus sind sich die Menschen über die Auswirkungen dieser Technologie nicht im Klaren. Alle Branchen bereiten sich auf die Umwälzungen oder Veränderungen vor, die künstliche Intelligenz mit sich bringen könnte. Selbst hochbezahlte Berufe wie Anwälte oder Ärzte werden ersetzt.

Manche Menschen glauben auch, dass künstliche Intelligenz in Zukunft den Menschen schaden oder sogar die gesamte Gesellschaft in irgendeiner Weise kontrollieren könnte. Während die existenziellen Risiken für die Menschheit schwerwiegender zu sein scheinen, glauben viele, dass sie schwerer zu quantifizieren und weniger konkret sind.

„Es gibt eine Gruppe von Leuten, die denken, das seien nur Algorithmen. Sie wiederholen nur, was sie online sehen.“ Sundar Pichai, CEO von Google, sagte in einem Interview im April dieses Jahres: „Das gibt es auch.“ die Ansicht, dass diese Algorithmen mit neuen Funktionen, Kreativität, Argumentations- und Planungsfähigkeiten auftauchen.“ „Wir müssen diese Angelegenheit sorgfältig behandeln.“

Diese Debatte ist auf die kontinuierlichen Durchbrüche in der maschinellen Lerntechnologie im Bereich der Informatik in den letzten 10 Jahren zurückzuführen. Durch maschinelles Lernen entstehen Software und Technologien, die ohne explizite Anweisungen von Menschen neue Erkenntnisse aus großen Datenmengen gewinnen können. Diese Technologie ist in Anwendungen allgegenwärtig, die von Social-Media-Algorithmen über Suchmaschinen bis hin zu Bilderkennungsprogrammen reichen.

Letztes Jahr begannen OpenAI und mehrere andere kleine Unternehmen mit der Veröffentlichung von Tools, die eine neue Technologie des maschinellen Lernens nutzen: generative künstliche Intelligenz. Nachdem sie sich anhand von Billionen von Fotos und Sätzen aus dem Internet trainiert haben, können sogenannte große Sprachmodelle auf der Grundlage einfacher Eingabeaufforderungen Bilder und Texte generieren, komplexe Gespräche mit Benutzern führen und Computercode schreiben.

Anthony Aguirre, Geschäftsführer des Future of Life Institute, sagte, dass große Unternehmen darum kämpfen, immer intelligentere Maschinen mit wenig bis gar keiner Regulierung zu entwickeln. Das Future of Life Institute wurde 2014 gegründet, um Risiken für die Gesellschaft zu untersuchen. Mit der Finanzierung von Elon Musk, CEO von Tesla, begann das Institut im Jahr 2015 mit der Untersuchung der Möglichkeit, dass künstliche Intelligenz die Menschheit zerstören könnte. Aguirre sagte, wenn künstliche Intelligenz bessere Denkfähigkeiten erlangt als Menschen, werden sie versuchen, Selbstkontrolle zu erlangen. Das ist etwas, worüber sich die Menschen Sorgen machen sollten, genau wie ein echtes Problem, das jetzt existiert.

Er sagte: „Wie man sie dazu bringt, nicht von der Spur abzuweichen, wird immer komplexer.“ „Viele Science-Fiction-Romane haben es bereits sehr konkret gemacht

Im März dieses Jahres half Aguirre beim Schreiben einer Eröffnung.“ Brief , in dem ein sechsmonatiges Moratorium für das Training neuer Modelle für künstliche Intelligenz gefordert wird. Dieser offene Brief erhielt insgesamt 27.000 Unterschriften zur Unterstützung von Yoshua Bengio, einem leitenden Forscher für künstliche Intelligenz, der 2018 die höchste Auszeichnung in der Informatik gewann, und Emma, ​​​​der CEO eines der einflussreichsten Start-ups für künstliche Intelligenz. Emad Mostaque war unter ihnen.

Moschus ist zweifellos der auffälligste unter ihnen. Er half bei der Entwicklung von OpenAI und ist derzeit damit beschäftigt, ein eigenes KI-Unternehmen aufzubauen, wobei er kürzlich in die teure Computerausrüstung investiert, die zum Trainieren von KI-Modellen erforderlich ist.

Seit vielen Jahren glaubt Musk, dass Menschen vorsichtiger mit den Folgen der Entwicklung superkünstlicher Intelligenz sein sollten. In einem Interview während der jährlichen Aktionärsversammlung von Tesla letzte Woche sagte Musk, dass er OpenAI ursprünglich finanziert habe, weil er der Meinung sei, dass Google-Mitbegründer Larry Page die Bedrohung durch künstliche Intelligenz „hervorgehoben“ habe.

Die amerikanische Version von Zhihu Quora entwickelt ebenfalls ein eigenes Modell für künstliche Intelligenz. Firmenchef Adam D’Angelo hat den offenen Brief nicht unterzeichnet. Als er über den offenen Brief sprach, sagte er: „Die Leute haben unterschiedliche Beweggründe, wenn sie diesen Vorschlag machen.“ Er sagte, dass er mit Teilen des offenen Briefs einverstanden sei, dass der allgemeine Mangel an „technischen Details“ jedoch nicht der richtige Weg sei, künstliche Intelligenz zu regulieren. Altman sagte bei der Anhörung zum Thema künstliche Intelligenz am vergangenen Dienstag, dass der Ansatz seines Unternehmens darin besteht, KI-Tools frühzeitig der Öffentlichkeit zugänglich zu machen, um Probleme zu erkennen und zu lösen, bevor die Technologie leistungsfähiger wird.

Aber in der Tech-Welt gibt es eine wachsende Debatte über Killerroboter. Die schärfste Kritik kommt von Forschern, die die Mängel der Technologie seit Jahren untersuchen.

Im Jahr 2020 haben die Google-Forscher Timnit Gebru und Margaret Mitchell sowie Emily M. Bender, Wissenschaftlerin an der University of Washington, gemeinsam mit Angelina McMillan-Major einen Artikel verfasst. Sie argumentieren, dass die zunehmende Fähigkeit großer Sprachmodelle, Menschen zu imitieren, das Risiko erhöht, dass Menschen glauben, sie seien empfindungsfähig.

Stattdessen argumentieren sie, dass diese Modelle als „zufälliges Nachplappern“ verstanden werden sollten oder einfach sehr gut darin sind, rein auf der Grundlage der Wahrscheinlichkeit vorherzusagen, welches Wort in einem Satz als nächstes kommt, ohne dass man verstehen muss, was sie sagen. Andere Kritiker nennen große Sprachmodelle „Autovervollständigung“ oder „Wissenseinläufe“.

Sie haben detailliert dokumentiert, wie große Sprachmodelle sexistische und andere schädliche Inhalte per Skript generieren können. Gebru sagte, das Papier sei von Google unterdrückt worden. Nachdem sie darauf bestanden hatte, den Artikel öffentlich zu veröffentlichen, wurde sie von Google gefeuert. Einige Monate später entließ das Unternehmen Mitchell erneut.

Vier Co-Autoren dieses Papiers haben auch einen Brief als Antwort auf den von Musk und anderen unterzeichneten offenen Brief geschrieben.

„Es ist gefährlich, uns mit einer fantasievollen KI-Utopie oder Apokalypse abzulenken“, sagten sie. „Stattdessen sollten wir uns auf die sehr realen, sehr realen ausbeuterischen Praktiken der Entwicklungsunternehmen konzentrieren, die ihre Bemühungen schnell darauf konzentrieren, die soziale Ungleichheit zu verschärfen.“

Google lehnte es damals ab, sich zu Gebrus Entlassung zu äußern, sagte jedoch, dass immer noch viele Forscher an verantwortungsvoller und ethischer künstlicher Intelligenz arbeiten.

„Es besteht kein Zweifel daran, dass moderne künstliche Intelligenz mächtig ist, aber das bedeutet nicht, dass sie eine unmittelbare Bedrohung für das Überleben der Menschheit darstellt“, sagte Hook, Direktor der Forschung zu künstlicher Intelligenz bei Cohere.

Derzeit konzentriert sich ein Großteil der Diskussion darüber, dass sich künstliche Intelligenz von der menschlichen Kontrolle löst, darauf, wie sie ihre eigenen Grenzen schnell überwinden kann, ähnlich wie Skynet im Terminator.

„Die meisten Technologien und die damit verbundenen Risiken entwickeln sich im Laufe der Zeit weiter“, sagte Hook. „Die meisten Risiken werden durch die derzeit bestehenden technologischen Einschränkungen verschärft.“ Letztes Jahr hat Google den Forscher für künstliche Intelligenz Blake Lemon (Blake Lemoine) entlassen. . In einem Interview erklärte er einmal, dass er fest davon überzeugt sei, dass das künstliche Intelligenzmodell LaMDA von Google über empfindungsfähige Fähigkeiten verfüge. Damals wurde Lemon von vielen in der Branche scharf kritisiert. Doch ein Jahr später begannen viele Menschen in der Technologie-Community, seine Ansichten zu akzeptieren.

Hinton, ein ehemaliger Google-Forscher, sagte, dass er seine Ansichten über die potenziellen Gefahren dieser Technologie erst vor kurzem geändert habe, nachdem er die neuesten Modelle der künstlichen Intelligenz verwendet habe. Hinton stellte dem Computerprogramm komplexe Fragen, die seiner Ansicht nach erforderten, dass das KI-Modell seine Anfrage grob versteht, anstatt nur mögliche Antworten anhand von Trainingsdaten vorherzusagen.

Im März dieses Jahres sagten Microsoft-Forscher, dass sie bei der Untersuchung des neuesten Modells GPT4 von OpenAI einen „Funken allgemeiner künstlicher Intelligenz“ beobachtet hätten, was sich auf künstliche Intelligenz bezieht, die wie Menschen unabhängig denken kann.

Microsoft hat in Zusammenarbeit mit OpenAI Milliarden von Dollar ausgegeben, um den Bing-Chatbot zu entwickeln. Skeptiker glauben, dass Microsoft sein öffentliches Image auf der Technologie der künstlichen Intelligenz aufbaut. Es wird immer angenommen, dass diese Technologie fortschrittlicher ist, als sie tatsächlich ist, und Microsoft kann davon viel profitieren.

Microsoft-Forscher glauben in dem Papier, dass diese Technologie ein räumliches und visuelles Verständnis der Welt entwickelt hat, das ausschließlich auf den Textinhalten basiert, auf denen sie trainiert wurde. GPT4 kann automatisch ein Einhorn zeichnen und beschreiben, wie zufällige Objekte, einschließlich Eier, übereinander gestapelt werden, damit die Eier nicht zerbrechen.

Das Microsoft-Forschungsteam schrieb: „Neben der Beherrschung der Sprache kann GPT-4 auch eine Vielzahl komplexer neuer Probleme in den Bereichen Mathematik, Programmierung, Vision, Medizin, Recht, Psychologie und anderen Bereichen ohne besondere Aufforderungen lösen.“ Sie kamen zu dem Schluss dass die Fähigkeiten der KI in vielen Bereichen mit denen des Menschen vergleichbar sind.

Allerdings gab einer der Forscher zu, dass, obwohl Forscher im Bereich der künstlichen Intelligenz versucht haben, quantitative Standards zur Bewertung der Intelligenz von Maschinen zu entwickeln, die Definition von „Intelligenz“ immer noch sehr schwierig sei.

Er sagte: „Sie sind alle problematisch oder umstritten.“

Das obige ist der detaillierte Inhalt vonHeiße Debatte im Silicon Valley: Wird KI die Menschheit zerstören?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen