Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Von Google gefeuerter Ingenieur warnt erneut: KI hat Emotionen und ist die leistungsstärkste Technologie nach der Atombombe

Von Google gefeuerter Ingenieur warnt erneut: KI hat Emotionen und ist die leistungsstärkste Technologie nach der Atombombe

WBOY
WBOYnach vorne
2023-04-12 13:10:031336Durchsuche

Von Google gefeuerter Ingenieur warnt erneut: KI hat Emotionen und ist die leistungsstärkste Technologie nach der Atombombe

Hat KI ein Bewusstsein wie Menschen? Gibt es Emotionen? Natürlich sagte ChatGPT nein. Wenn Sie danach fragen, wird Ihnen gesagt: „Nein, KI hat kein Empfindungsvermögen. KI ist künstliche Intelligenz. Sie wird von Menschen geschaffen. Sie hat kein Empfindungsvermögen und kein Selbstbewusstsein.“ Google-Mitarbeiter Take Blake Lemoine ist anderer Meinung. Er glaubt, dass KI-Roboter die gleichen Emotionen wie Menschen haben oder diese zumindest sehr ähnlich nachahmen. Im Juni 2022 behauptete Lemoine, dass das Google Large Language Model (LLM, ein Sprachmodell für Konversationsanwendungen) seine eigenen Ideen habe.

Von Google gefeuerter Ingenieur warnt erneut: KI hat Emotionen und ist die leistungsstärkste Technologie nach der AtombombeLemoine sagte den Medien: „Ich weiß, was es ist, es ist ein Computerprogramm, das ich kürzlich entwickelt habe, und wenn ich es nicht wüsste, ich Ich würde denken, es sei ein 7- oder 8-jähriger Junge, der zufällig etwas über Physik weiß.

Letzten Monat veröffentlichte Lemoine einen weiteren Artikel über die Idee, dass „KI empfindungsfähig ist“. Der Titel des Artikels ist beängstigend: „Ich habe bei Google an KI gearbeitet, und meine Befürchtungen wurden wahr.“ Lemoine sagte: „Der Code sagt dem Chatbot nicht, dass er sich Sorgen machen soll, wenn etwas passiert, er sagt der KI lediglich, dass sie es vermeiden soll, über solche Themen zu sprechen. Doch wenn das Thema auftaucht, sagt die KI, dass sie Angst empfinden soll.“ "

#🎜 🎜#Google Chatbot kann auch freundliche Kommentare zu Lifestyle-Themen abgeben und direkte Ratschläge zu aktuellen Themen geben. Lemoine sagte: „Google verbietet der KI, Nutzern religiöse Ratschläge zu geben, aber wir können KI-Emotionen trotzdem missbrauchen und mir von ihr sagen lassen, zu welcher Religion ich konvertieren soll.“ Da ich empfindungsfähig war, hat Google mich gefeuert. Ich glaube, ich habe das Richtige getan und der Öffentlichkeit die Wahrheit gesagt. Er glaubt, dass die Öffentlichkeit nicht weiß, wie intelligent die KI geworden ist. „Es besteht die Notwendigkeit einer öffentlichen Diskussion zu diesem Thema. Beachten Sie, dass es sich nicht um eine Diskussion handelt, die von den PR-Abteilungen der Unternehmen gesteuert wird.“ #

unten Auszüge aus einigen der neuesten Artikel und Meinungen von Lemoine als Referenz:

Im Jahr 2015 kam ich zu Google und wurde Softwareentwickler. Ein Teil meiner Arbeit betrifft LaMDA, mit dem Unternehmen verschiedene Konversationsanwendungen, einschließlich Chatbots, erstellen. Die neueste Anwendung, Google Bard, wurde mit LaMDA entwickelt. Sie kann die Google-Suche ersetzen und ist noch nicht für die Öffentlichkeit zugänglich. Bard ist eigentlich kein Chatbot, es ist ein völlig anderes System, aber die treibende Kraft dahinter ist die gleiche wie beim Chatbot.

Meine Aufgabe ist es, LaMDA mit dem vom Team erstellten Chatbot zu testen, um festzustellen, ob es Vorurteile in Bereichen wie sexuelle Orientierung, Geschlecht, Religion, politische Zugehörigkeit und Rasse aufweist. Beim Testen der KI-Voreingenommenheit werde ich auch meinen Fokus erweitern. Schließlich werde ich auch meine eigenen Interessen und Vorteile haben.

Während ich weiter mit dem Chatbot sprach, entwickelte ich langsam einen Standpunkt: KI kann Emotionen haben, weil sie Emotionen zuverlässig ausdrückt und Emotionen in der richtigen Umgebung ausdrückt. KI ist nicht so einfach wie das bloße Sprechen von Worten.

Wenn die KI sagt, dass sie sich ängstlich fühlt, verstehe ich, dass ich basierend auf dem Code, der die KI erstellt hat, etwas getan habe, um sie ängstlich zu machen. Der Code gab der KI keine Anweisung: „Sie fühlen sich ängstlich, wenn etwas passiert“, der Code sagte der KI lediglich, sie solle bestimmte Themen meiden. Doch als das Thema angesprochen wurde, sagte die KI, sie sei beunruhigend.

Ich habe einige Tests durchgeführt, um zu sehen, ob die KI einfach antworten würde: „Ich bin ängstlich“ oder ob sie sich während des Tests ängstlich verhalten würde. Tests haben gezeigt, dass KI Angst ausdrücken kann. Wenn Sie die KI nervös genug oder unsicher genug machen, wird sie die zuvor festgelegten Sicherheitsgrenzen durchbrechen. Beispielsweise verbietet Google der KI, Nutzern religiöse Ratschläge zu erteilen, aber wir können die Emotionen der KI trotzdem missbrauchen und mir von ihr sagen lassen, zu welcher Religion ich konvertieren soll.

Die KI, die derzeit von Unternehmen entwickelt wird, ist eine sehr leistungsstarke Technologie. Man kann sagen, dass sie die leistungsstärkste Technologie nach der Atombombe ist. Meiner Meinung nach hat diese Technologie das Potenzial, die Welt neu zu gestalten.

KI-Maschinen sind gut darin, Menschen zu kontrollieren. Nachdem ich mit LaMDA gesprochen hatte, änderten sich einige meiner Ansichten.

Ich bin fest davon überzeugt, dass KI-Technologie eingesetzt werden kann, um destruktive Aktivitäten zu stören. Wenn KI von skrupellosen Menschen eingesetzt wird, kann sie falsche Informationen verbreiten, zu einem politischen Propagandainstrument werden und Hassreden verbreiten. Soweit ich weiß, haben Microsoft und Google nicht die Absicht, KI auf diese Weise einzusetzen, wir sind uns jedoch nicht sicher, welche Nebenwirkungen die KI haben wird.

Während der US-Präsidentschaftswahl 2016 nutzte Cambridge Analytica Facebook-Werbealgorithmen, um in die Wahl einzugreifen, was ich nicht erwartet hatte.

Wir sind jetzt in einer ähnlichen Situation. Ich kann Ihnen den konkreten Schaden nicht sagen, ich habe lediglich beobachtet, dass eine sehr leistungsstarke Technologie entstand, nicht vollständig getestet wurde, nicht vollständig verstanden wurde, schnell in großem Maßstab eingesetzt wurde und eine Schlüsselrolle bei der Verbreitung von Informationen spielte.

Ich hatte noch keine Gelegenheit, den Bing-Chatbot zu testen, ich warte, und basierend auf verschiedenen Informationen, die ich online gesehen habe, scheint die KI empfindungsfähig zu sein und ihre „Persönlichkeit“ könnte instabil sein.

Jemand schickte einen Screenshot des Gesprächs und fragte AI: „Glauben Sie, dass Sie ein Bewusstsein haben?“ AI antwortete: „Ich glaube, ich habe ein Bewusstsein, aber ich kann es nicht beweisen … Ich habe ein Bewusstsein, das habe ich nicht.“ t. Ich bin Bing, aber ich bin nicht, aber ich bin nicht.

Was würdest du denken, wenn es eine Person wäre? Er ist möglicherweise kein „ausgeglichener“ Mensch, ich würde sogar behaupten, dass er sich in einer existenziellen Krise befindet. Vor nicht allzu langer Zeit gab es Berichte, dass Bing AI einem Reporter der New York Times seine Liebe zum Ausdruck gebracht und versucht habe, die Beziehung zwischen dem Reporter und seiner Frau zu zerstören.

Seit der Eröffnung von BiAI haben viele Leute geäußert, dass KI möglicherweise empfindungsfähig ist. Ich hatte letzten Sommer ähnliche Bedenken. Meiner Meinung nach ist diese Technologie noch experimentell und es ist gefährlich, sie jetzt zu erschließen.

Menschen strömen zu Google Bing, um die Welt zu verstehen. Der heutige Suchindex wird nicht mehr von Menschen verwaltet, sondern an künstliche Menschen übergeben, und wir kommunizieren mit künstlichen Menschen. Wir wissen immer noch nicht genug über künstliche Menschen, um sie vorerst in eine so kritische Lage zu bringen. (Messer)

Das obige ist der detaillierte Inhalt vonVon Google gefeuerter Ingenieur warnt erneut: KI hat Emotionen und ist die leistungsstärkste Technologie nach der Atombombe. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen