Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Offenbar hat Microsoft sein gesamtes KI-Risikobewertungsteam aufgelöst

Offenbar hat Microsoft sein gesamtes KI-Risikobewertungsteam aufgelöst

王林
王林nach vorne
2023-04-19 12:40:031350Durchsuche

Offenbar hat Microsoft sein gesamtes KI-Risikobewertungsteam aufgelöst

Nachrichten vom 14. März, am Montag Ortszeit in den Vereinigten Staaten, wurde bekannt, dass Microsoft sein gesamtes KI-Risikobewertungsteam aufgelöst hat. Es wird berichtet, dass dieses Team offiziell AI-Ethik- und Sozialteam heißt und seine Hauptaufgabe darin besteht, Microsofts KI-Innovation so zu steuern, dass ethische, verantwortungsvolle und nachhaltige Ergebnisse erzielt werden. In letzter Zeit hat das Team intensiv daran gearbeitet, die möglichen Risiken der Integration der OpenAI-Technologie in seine Produkte durch Microsoft abzuschätzen.

Viele ehemalige und aktuelle Microsoft-Mitarbeiter gaben an, dass Microsoft aufgrund dieses Schritts kein eigenes Team mehr haben wird, um sicherzustellen, dass seine KI-Prinzipien eng mit dem Produktdesign verknüpft sind. Derzeit ist das Unternehmen führend im Trend und arbeitet hart KI-Tools zum Mainstream zu machen. Microsoft unterhält jedoch weiterhin ein Team namens Office of Responsible AI (ORA), dessen Aufgabe darin besteht, Regeln für die KI-Initiativen des Unternehmens festzulegen. Microsoft sagte, dass trotz der jüngsten Entlassungen seine Gesamtinvestitionen in verantwortungsvolles Arbeiten gestiegen seien.

Microsoft sagte in einer Erklärung: „Microsoft setzt sich für die sichere und verantwortungsvolle Entwicklung von KI-Produkten und -Erfahrungen ein und erreicht dieses Ziel durch Investitionen in Menschen, Prozesse und Partner, die diesen Faktoren Priorität einräumen. In den vergangenen sechs Jahren haben wir das getan.“ Die Zahl der Mitarbeiter in unseren Produktteams und bei ORA ist gestiegen, die zusammen mit allen anderen bei Microsoft dafür verantwortlich sind, dass wir unsere KI-Prinzipien in die Praxis umsetzen. Wir sind dankbar für die bahnbrechende Arbeit, die das Ethik- und Gesellschaftsteam geleistet hat, um uns dabei zu helfen, weiterzumachen „Die Reise zu verantwortungsvoller KI.“ Ein ehemaliger Mitarbeiter sagte: „Die Leute sehen die von ORA vorgeschlagenen Prinzipien, wissen aber nicht, wie sie sie anwenden sollen, und unsere Aufgabe ist es, sie zu zeigen und Regeln in Bereichen aufzustellen, in denen es keine Regeln gibt.“

In den letzten Jahren hat das Team hat ein neues System namens „Judgement Call“ entwickelt. Das Rollenspiel „Judgement Call“ hilft Designern dabei, sich den potenziellen Schaden vorzustellen, den KI mit sich bringen könnte, und sie während des Produktentwicklungsprozesses zu diskutieren. Mit rund 30 Mitarbeitern, darunter Ingenieure, Designer und Philosophen, erreichte das Team „Ethik und Gesellschaft“ im Jahr 2020 seine größte Größe. Doch im Zuge einer Umstrukturierung im vergangenen Jahr wurde das Team auf nur noch sieben Personen verkleinert.

In einer Teambesprechung nach der Umstrukturierung sagte John Montgomery, Vizepräsident des KI-Geschäfts von Microsoft, dass die Unternehmensleitung sie angewiesen habe, schnell zu handeln. Es wird berichtet, dass Montgomery damals sagte: „Es gibt großen Druck von CTO Kevin Scott und CEO Satya Nadella, die Integration des OpenAI-Modells zu beschleunigen und nachfolgende Modelle an Kunden weiterzugeben.“ Aufgrund des Drucks wird das Sozial- und Sozialteam in andere Bereiche des Unternehmens verlagert. Damals sagte Montgomery, das Team werde nicht eliminiert und müsse sich „mehr auf die einzelnen Produktteams konzentrieren, die Dienstleistungen und Software entwickeln“. Anschließend wurden die meisten Teammitglieder in andere Abteilungen versetzt und das verbleibende Personal war unterbesetzt, was die Umsetzung vieler ehrgeiziger Pläne unmöglich machte.

Nach etwa fünf Monaten wurde den verbliebenen Mitarbeitern mitgeteilt, dass das gesamte Team endgültig aufgelöst werde. Ein Mitarbeiter sagte, dass dieser Schritt eine große Lücke im Benutzererlebnis und im Gesamtdesign von KI-Produkten hinterlassen habe. „Das Schlimmste ist, dass wir dadurch Unternehmen und die Menschheit gefährden“, erklärten sie, dass sie normalerweise daran arbeiten, die Produktentwicklung zu unterstützen. Doch als Microsoft begann, sich darauf zu konzentrieren, KI-Tools schneller als seine Konkurrenten einzuführen, interessierte sich die Unternehmensleitung weniger für die Art des langfristigen Denkens, auf das sich das Team konzentrierte.

Auch wenn das Ethik- und Gesellschaftsteam aufgelöst wird, konzentrieren sich andere darauf, die Auswirkungen vorherzusagen, die Microsoft haben wird, wenn es OpenAI-basierte KI-Tools einem globalen Publikum zugänglich macht. In einem Memo im letzten Jahr erläuterte das Ethics & Society-Team die Risiken, die mit Bings Image Creator verbunden sind, einem Tool, das das Dall-E-System von OpenAI nutzt, um Bilder auf der Grundlage von Textaufforderungen zu erstellen. Das Imaging-Tool wurde im Oktober in mehreren Ländern eingeführt und ist damit eine der ersten öffentlichen Kooperationen zwischen Microsoft und OpenAI.

Während sich die Text-to-Image-Technologie als äußerst beliebt erwiesen hat, haben Microsoft-Forscher genau vorhergesagt, dass sie auch die Existenz von Künstlern gefährden könnte, da sie es jedem ermöglicht, den kreativen Stil eines Künstlers einfach zu kopieren. Darüber hinaus hat OpenAI seine Nutzungsbedingungen aktualisiert, um Benutzern „das volle Eigentum an mit Dall-E erstellten Bildern“ zu geben, was das Ethik- und Gesellschaftsteam von Microsoft beunruhigt. (Xiao Xiao)

Das obige ist der detaillierte Inhalt vonOffenbar hat Microsoft sein gesamtes KI-Risikobewertungsteam aufgelöst. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen