Heim > Artikel > Technologie-Peripheriegeräte > Was sind die Defizite der „KI-Welt“? Professor Michael Wooldridge von der Universität Oxford: Die reale Welt
Das Theorem des unendlichen Affen besagt, dass ein Affe, wenn er zufällig Tasten auf einer Schreibmaschine drückt und die Tastendruckzeit unendlich ist, mit ziemlicher Sicherheit in der Lage sein wird, jeden beliebigen Text zu tippen, beispielsweise das Gesamtwerk von Shakespeare.
In diesem Satz ist „mit ziemlicher Sicherheit“ ein mathematischer Begriff mit einer bestimmten Bedeutung. „Affe“ bezieht sich nicht auf einen echten Affen, sondern wird als Metapher für eine Maschine verwendet, die ein abstraktes Gerät produzieren kann einer unendlichen zufälligen Buchstabenfolge.
Diese Theorie zeigt, dass es falsch ist, eine große, aber endliche Zahl als unendliche Folgerung zu betrachten, selbst wenn das beobachtbare Universum voller sich ständig ändernder Zahlen ist . Für Affen, die mit dem Tippen aufhören, beträgt die Wahrscheinlichkeit, eine Kopie von „Hamlet“ tippen zu können, immer noch weniger als 1/10^183800.
Selbst wenn unzähligen Affen unbegrenzte Zeit gegeben würde, wüssten sie nicht, wie sie die poetische Ausdrucksweise des Barden zu schätzen wissen.
„Das Gleiche gilt für künstliche Intelligenz (KI)“, sagt Michael Wooldridge, Professor für Informatik an der Universität Oxford.
Nach Ansicht von Wooldridge liegt ihr Problem nicht in der Größe der Rechenleistung, sondern in deren Mangel, obwohl KI-Modelle wie GPT-3 überraschende Fähigkeiten mit Dutzenden oder Hunderten von Milliarden Parametern gezeigt haben Erfahrung aus der realen Welt.
Zum Beispiel könnte ein Sprachmodell sehr gut „Regen ist nass“ lernen, und wenn es gefragt wird, ob Regen nass oder trocken ist, wird es wahrscheinlich antworten, dass Regen nass ist, aber Im Gegensatz zu Menschen ist dieses Sprachmodell hat noch nie das Gefühl von „nass“ erlebt. Für sie ist „nass“ nichts anderes als ein Symbol, das oft mit Wörtern wie „Regen“ kombiniert wird.
Allerdings betonte Wooldridge auch, dass mangelndes Wissen über die reale physische Welt weder bedeutet, dass das KI-Modell nutzlos ist, noch es verhindert, dass ein bestimmtes KI-Modell ein empirischer Experte in einem wird In einem bestimmten Bereich ist es jedoch in der Tat zweifelhaft, ob es für ein KI-Modell möglich ist, die gleichen Fähigkeiten wie ein Mensch zu haben, wenn es um Fragen wie das Verständnis geht.
Die entsprechende Forschungsarbeit trägt den Titel „What Is Missing from Contemporary AI? The World“ und wurde in der Zeitschrift „Intelligent Computing“ veröffentlicht.
In der aktuellen Welle der KI-Innovation sind Daten und Rechenleistung zur Grundlage für den Erfolg von KI-Systemen geworden: Die Fähigkeiten eines KI-Modells sind direkt proportional zu ihrer Größe, den Ressourcen, die für ihr Training verwendet werden und der Umfang der Trainingsdaten.
In Bezug auf dieses Phänomen hat der DeepMind-Forscher Richard S. Sutton zuvor erklärt, dass die „schmerzhafte Lektion“ der KI darin besteht, dass ihr Fortschritt hauptsächlich auf der Verwendung immer größerer Datensätze und immer größerer Datensätze beruht. Viele Rechenressourcen.
Als er über die Gesamtentwicklung der KI-Branche sprach, gab Wooldridge eine Bestätigung. „In den letzten 15 Jahren hat mich die Geschwindigkeit der Entwicklung in der KI-Branche und insbesondere im Bereich des maschinellen Lernens (ML) immer wieder überrascht: Wir müssen unsere Erwartungen ständig anpassen, um festzustellen, was möglich ist und wann möglich.“ .“
Wooldridge wies jedoch auch auf die aktuellen Probleme in der KI-Branche hin: „Während ihre Leistungen lobenswert sind, denke ich, dass die meisten aktuellen groß angelegten ML-Modelle durch einen Schlüsselfaktor begrenzt sind: KI.“ Modelle haben die reale Welt noch nicht wirklich erlebt
Nach Ansicht von Wooldridge werden die meisten ML-Modelle in virtuellen Welten wie Videospielen erstellt und können bei Anwendung auf riesige Datensätze trainiert werden In der physischen Welt verlieren sie nur körperlose KI-Systeme, die selbstfahrende Autos unterstützen. Aus diesem und anderen Gründen. „Forscher entscheiden sich oft dafür, ihre Modelle in virtuellen Welten zu erstellen“, sagte Wooldridge Anfang dieses Jahres machte ein ehemaliger Google-Ingenieur Schlagzeilen, als er behauptete, dass das künstliche Intelligenzprogramm LAMDA empfindungsfähig sei: „Was auch immer die Schlussfolgerung dieses Ingenieurs sein mag, es ist klar, dass ihm die Konversationsfähigkeiten von LAMDA verliehen wurden.“ „Ich bin beeindruckt – und das aus gutem Grund“, sagte Wooldridge, aber er glaubt nicht, dass LAMDA empfindungsfähig ist und die KI noch nicht annähernd einen solchen Meilenstein erreicht hat Die Sprachgenerierung kann relativ natürliche Textfragmente erzeugen und scheint einige Fähigkeiten zum gesunden Menschenverstand erworben zu haben. Dies ist eines der wichtigsten Ereignisse in der KI-Forschung der letzten 60 Jahre. „
Diese KI-Modelle erfordern die Eingabe massiver Parameter und werden darauf trainiert, diese zu verstehen. Beispielsweise verwendet GPT-3 Hunderte Milliarden englischer Texte im Internet für das Training und leistungsstarkes Computing. Die Kombination von Fähigkeiten ermöglicht es diesen KI-Modellen, sich ähnlich wie das menschliche Gehirn zu verhalten und über begrenzte Aufgaben hinauszugehen und damit zu beginnen, Muster zu erkennen und Verbindungen herzustellen, die möglicherweise nichts mit der Hauptaufgabe zu tun zu haben scheinen.
Allerdings ist das Grundmodell eine Wette: „Training auf der Grundlage umfangreicher Daten macht sie in einer Reihe von Bereichen nützlich und kann auf bestimmte Anwendungen spezialisiert werden.“ basiert auf der Annahme, dass „Intelligenz hauptsächlich ein Wissensproblem ist“, während das Grundmodell auf der Annahme basiert, dass „Intelligenz hauptsächlich ein Datenproblem ist“. Wenn genügend Trainingsdaten in das große Modell eingegeben werden, wird dies berücksichtigt hoffte, dass die Fähigkeiten des Modells verbessert werden. Aber es ignoriert das Wissen über die reale Welt, das nötig ist, um die KI wirklich voranzubringen.
„Um fair zu sein, gibt es einige Anzeichen dafür, dass sich dies ändert“, sagte Wooldridge. Im Mai kündigte DeepMind Gato an, ein grundlegendes Modell, das auf einem großen Sprachsatz und Robotikdaten basiert und in einfachen physischen Umgebungen ausgeführt werden kann.
„Es ist großartig zu sehen, wie das zugrunde liegende Modell seine ersten Schritte in die physische Welt macht, aber nur ein kleiner Schritt: Damit KI in unserer Welt funktioniert, müssen mindestens ebenso viele Herausforderungen bewältigt werden.“ hoch, um KI zu schaffen. Die Herausforderungen bei der Arbeit in einer simulierten Umgebung sind genauso groß, vielleicht sogar noch größer.“
Am Ende des Papiers schrieb Wooldridge: „Wir streben nicht nach dem Ende von der Weg in der KI, aber wir haben vielleicht das Ende des Ausgangspunkts des Weges erreicht.“
.Das obige ist der detaillierte Inhalt vonWas sind die Defizite der „KI-Welt“? Professor Michael Wooldridge von der Universität Oxford: Die reale Welt. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!