Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Solange das Modell groß genug und die Stichproben groß genug sind, kann KI intelligenter werden!

Solange das Modell groß genug und die Stichproben groß genug sind, kann KI intelligenter werden!

王林
王林nach vorne
2023-04-29 15:25:061474Durchsuche

​Es gibt keinen Unterschied im mathematischen Mechanismus zwischen dem KI-Modell und dem menschlichen Gehirn.

Solange das Modell groß genug und die Proben groß genug sind, kann KI intelligenter werden! Das Aufkommen von

chatGPT hat dies tatsächlich bewiesen.

1. Die zugrunde liegenden Details der KI und des menschlichen Gehirns basieren auf if else-Anweisungen

logischen Operationen, die die grundlegenden Operationen sind, die Intelligenz erzeugen.

Die grundlegende Logik der Programmiersprache ist if else, die den Code basierend auf bedingten Ausdrücken in zwei Zweige unterteilt.

Auf dieser Basis können Programmierer sehr komplexe Codes schreiben und verschiedene Geschäftslogiken implementieren.

Die Grundlogik des menschlichen Gehirns ist auch if else. Die beiden Wörter if else stammen aus dem Englischen, und das entsprechende chinesische Vokabular lautet if...else...

#🎜🎜 #menschliches Gehirn Dies ist der gleiche logische Gedankengang beim Nachdenken über Probleme. In dieser Hinsicht unterscheidet es sich nicht von Computern.

Solange das Modell groß genug und die Stichproben groß genug sind, kann KI intelligenter werden!

if else-Anweisung, der Kern der Logik

Die „if else-Anweisung“ des KI-Modells ist die Aktivierungsfunktion!

Ein Rechenknoten des KI-Modells, wir können ihn auch „Neuron“ nennen.

Es verfügt über einen Eingabevektor X, eine Gewichtsmatrix W, einen Bias-Vektor b und eine Aktivierungsfunktion.

Die Aktivierungsfunktion ist eigentlich eine if else-Anweisung, und die lineare Operation WX + b ist ein bedingter Ausdruck.

Nach der Aktivierung entspricht der Code des KI-Modells der Ausführung im if-Zweig, und wenn er nicht aktiviert ist, entspricht er der Ausführung im else-Zweig.

Die verschiedenen Aktivierungszustände mehrschichtiger neuronaler Netze sind eigentlich binäre Kodierungen von Beispielinformationen.

Solange das Modell groß genug und die Stichproben groß genug sind, kann KI intelligenter werden!

Deep Learning ist auch eine binäre Kodierung von Beispielinformationen.

Die Kodierung von Beispielinformationen durch das KI-Modell ist dynamisch und parallel, anstatt statisch und seriell wie CPU-Code zu sein, aber ihre zugrunde liegende Grundlage ist if else.

Es ist nicht schwierig, es auf Schaltungsebene zu implementieren. Es kann mit einer Triode implementiert werden.

2. Das menschliche Gehirn ist schlauer als Computer, weil der Mensch jeden Moment mehr Informationen von der Außenwelt erhält ", aber der Programmcode kann sich nicht selbst aktualisieren. Aus diesem Grund können es viele Menschen, Computer jedoch nicht.

Der Code des menschlichen Gehirns lebt, aber der Code des Computers ist tot.

Natürlich kann „toter Code“ nicht intelligenter sein als „Live-Code“, denn „Live-Code“ kann aktiv die Fehler von „totem Code“ finden.

Entsprechend der Kontinuität reeller Zahlen gibt es immer Fehlerpunkte, die nicht codiert werden können, solange die durch „toten Code“ codierten Informationen zählbar sind.

Dies kann mathematisch durch den dritten Satz von Cantor unterstützt werden.

Egal wie viele ternäre Dezimalstellen wir zur Kodierung reeller Zahlen im Intervall [0, 1] verwenden, es gibt immer mindestens einen Punkt, der nicht kodiert werden kann.

Wenn also zwei Leute streiten, können sie immer Argumente finden, mit denen sie streiten können.

Aber sobald der Computercode geschrieben ist, kann er nicht mehr aktiv aktualisiert werden, also können Programmierer darüber nachdenken Es gibt verschiedene Möglichkeiten, die CPU auszutricksen.

Zum Beispiel erforderte Intels CPU ursprünglich das Wechseln von Task-Gates beim Wechseln von Prozessen, aber Linux hat sich eine Möglichkeit ausgedacht, nur das Seitenverzeichnis und das RSP-Register zu wechseln

Es scheint dem Intel-CPU, dass das Linux-System den gleichen Prozess ausgeführt hat, aber tatsächlich ist dies nicht der Fall. Dies wird als Prozess-Soft-Switching bezeichnet.

Solange also die Schaltung der CPU fest ist, sind auch die von der CPU kodierten Informationen fest.

Die von der CPU codierten Informationen sind fest, die Informationen, die sie nicht codieren kann, sind unbegrenzt und können von Programmierern verwendet werden.

Der Grund, warum Programmierer diese Informationen nutzen können, liegt darin, dass das Gehirn des Programmierers lebendig ist und Beispiele dynamisch aktualisieren kann.

3, Das Aufkommen neuronaler Netze hat diese Situation verändert.

Neuronale Netze sind wirklich eine großartige Erfindung, sie realisieren dynamische Informationsaktualisierungen auf festen Schaltkreisen.

Die Informationen, die alle geschriebenen Programme verarbeiten können, sind festgelegt, einschließlich CPU-Schaltkreisen und Codes verschiedener Systeme.

Bei neuronalen Netzen ist dies jedoch nicht der Fall. Obwohl der Code geschrieben ist, müssen nur die Gewichtsdaten aktualisiert werden, um den logischen Kontext des Modells zu ändern.

Solange kontinuierlich neue Proben eingegeben werden, kann das KI-Modell die Gewichtsdaten mithilfe des BP-Algorithmus (Gradientenabstiegsalgorithmus) kontinuierlich aktualisieren, um sich an neue Geschäftsszenarien anzupassen.

Das Aktualisieren des KI-Modells erfordert keine Änderung des Codes, sondern nur eine Änderung der Daten, sodass dasselbe CNN-Modell unterschiedliche Objekte erkennen kann, wenn es mit unterschiedlichen Proben trainiert wird.

In diesem Prozess bleiben sowohl der Code des Tensorflow-Frameworks als auch die Netzwerkstruktur des KI-Modells unverändert. Was sich ändert, sind die Gewichtsdaten jedes Knotens.

Theoretisch kann ein KI-Modell intelligenter werden, solange es Daten durch das Netzwerk crawlen kann.

Unterscheidet sich das grundlegend davon, dass Menschen Dinge über einen Browser ansehen (und dadurch intelligenter werden)? Es scheint nicht.

4. Solange das Modell groß genug ist und die Proben groß genug sind, kann ChatGPT das menschliche Gehirn vielleicht wirklich herausfordern

Das menschliche Gehirn hat 15 Milliarden Neuronen und menschliche Augen und Ohren versorgen es jeden Moment mit neuen Daten KI-Modelle können dies sicherlich auch.

Vielleicht besteht der Vorteil des Menschen im Vergleich zur KI darin, dass die „Industriekette“ kürzer ist

Für die Geburt eines Babys sind nur seine Eltern erforderlich, aber die Geburt eines KI-Modells ist offensichtlich nicht etwas, das ein oder zwei Programmierer tun können .

Allein die Herstellung von GPUs erfordert mehr als Zehntausende Menschen.

Cuda-Programme auf GPUs sind nicht schwer zu schreiben, aber die Industriekette der GPU-Herstellung ist zu lang und der Geburt und dem Wachstum von Menschen weit unterlegen.

Das könnte der wahre Nachteil der KI im Vergleich zum Menschen sein.

Das obige ist der detaillierte Inhalt vonSolange das Modell groß genug und die Stichproben groß genug sind, kann KI intelligenter werden!. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen