Heim >Technologie-Peripheriegeräte >KI >ChatGPT wurde der Zutritt zu Schulen verboten. LeCun: Wie wäre es, wenn auch kleine Models verboten würden?
Wenn Sie fragen möchten, welches Modell in der KI-Branche in letzter Zeit am beliebtesten ist, werden neun von zehn Menschen auf keinen Fall für ChatGPT stimmen, dieses Modell ist einfach zu beliebt, nur weil es das auch kann viele Dinge. Viele Leute beschreiben es als einen echten „sechseckigen Krieger“: Es kann nicht nur zum Chatten, Suchen und Übersetzen verwendet werden, sondern auch zum Schreiben von Geschichten, zum Programmieren, zum Debuggen und sogar zum Entwickeln kleiner Spiele und zum Belegen des amerikanischen Colleges Aufnahmeprüfung... Manche Leute sagen das scherzhaft Von da an wird es in Zukunft nur noch zwei Arten von Modellen für künstliche Intelligenz geben – ChatGPT und andere.
Einerseits sind die Fähigkeiten von ChatGPT so erstaunlich, dass es von der Öffentlichkeit geliebt wird. Andererseits ist es auch ständig in Schwierigkeiten und wurde von verschiedenen Organisationen verboten. Vor einiger Zeit gab es Nachrichten, dass Stack Overflow ChatGPT aus keinem anderen Grund gesperrt hatte. Der Beamte gab an, dass ChatGPT vorübergehend gesperrt wurde, weil die Genauigkeit der von ChatGPT erstellten Antworten zu gering sei Benutzer, die nach richtigen Antworten gesucht haben.
Nicht lange nach diesem Vorfall begannen führende Konferenzen für künstliche Intelligenz auch, wissenschaftliche Arbeiten zu verbieten, die mit ChatGPT und KI-Tools verfasst wurden. Mal sehen, was konkret los ist.
Vor einigen Tagen gab die Internationale Konferenz für maschinelles Lernen ICML bekannt, dass es verboten ist, Beiträge mit großen Sprachmodellen (LLM, wie z. B. ChatGPT) anzufordern, es sei denn, die Der generierte Text wird als experimenteller Analyseteil der Präsentation verwendet.
Dateiadresse: https://icml.cc/Conferences/2023/llm-policy
Laut ICML stellen Sprachmodelle wie ChatGPT einen zukünftigen Entwicklungstrend dar, aber damit einhergehend Es kommen einige unbeabsichtigte Konsequenzen und Probleme vor, die schwer zu lösen sind. Laut ICML wurde ChatGPT auf öffentliche Daten geschult, die oft ohne Zustimmung gesammelt werden, und darauf, wer dafür verantwortlich ist, wenn etwas schief geht.
Außerdem stellt sich die Frage der Urheberschaft: Wer hat die Arbeit „geschrieben“: Maschine oder Mensch? Dies ist besonders wichtig, wenn man bedenkt, dass ICML nur Texte verbietet, die vollständig von KI generiert wurden. Konferenzorganisatoren geben an, dass sie die Verwendung von Tools wie ChatGPT zum Bearbeiten oder Polieren von von Autoren verfassten Texten nicht verbieten, und weisen darauf hin, dass viele Autoren bereits halbautomatische Bearbeitungstools wie die Grammatikkorrektursoftware Grammarly verwenden, um ihre Artikel zu verbessern.
Sobald diese Nachricht jedoch bekannt wurde, löste sie dennoch eine große Diskussion in den sozialen Medien aus und kommentierte: „Große Sprachmodelle können nicht verwendet werden, mittlere und kleine Sprachmodelle können jedoch weiterhin verwendet werden.“
Sebastian Bubeck, Leiter des ML Foundation-Teams bei Microsoft Research, nannte die Regel „kurzsichtig“ und schrieb auf Twitter: „ChatGPT und seine Varianten sind Teil der zukünftigen Technologieentwicklung. Ein Verbot ist definitiv nicht.“ die beste Option. Hervorragende Antwort.“
Es gab schon immer unterschiedliche Bedenken hinsichtlich der schädlichen Auswirkungen von durch künstliche Intelligenz generierten Texten. Eines der häufigsten Probleme besteht darin, dass die Ausgabe dieser Systeme einfach unzuverlässig ist.
KI-Modelle sind darauf trainiert, das nächste Wort in einem bestimmten Satz vorherzusagen, verfügen jedoch nicht über eine fest codierte Datenbank mit „Fakten“, aus der sie schöpfen könnten, sodass die von den Modellen generierten Ergebnisse oft fadenscheinig sind. Oftmals entsprechen die generierten Sätze der grammatikalischen Logik, aber nicht der objektiven Realität.
Es gibt noch ein weiteres Problem, das ebenfalls sehr schwierig ist – es ist für uns schwierig zu unterscheiden, ob der Text von KI „poliert und bearbeitet“ oder vollständig von KI generiert wurde. Dieses Problem ist bei Arbeiten sehr schwerwiegend. Wenn der Autor ein KI-Modell verwendet, um eine prägnante Zusammenfassung auf der Grundlage der Arbeit zu erstellen, wird dies in Betracht gezogen, den Text zu bearbeiten oder den Text von Grund auf neu zu erstellen?
Natürlich ist die Verwendung von KI-Tools wie ChatGPT nicht der einzige Nachteil. Beispielsweise werden im Peer-Review fließende englische Ausdrücke tendenziell höher bewertet, und KI-Modelle können nicht-englischsprachigen Papierautoren dabei helfen, flüssigere englische Texte zu erstellen. Dadurch sparen Forscher Zeit und schaffen gleiche Wettbewerbsbedingungen im akademischen Bereich.
Aber es sollte beachtet werden, dass ChatGPT ein großes Sprachmodell (LLM) ist, das sich stark von einfacher Grammatikkorrektursoftware wie Grammarly unterscheidet. Die Hauptfunktion von LLM selbst besteht nicht darin, die Struktur und Sprache bereits geschriebener Texte anzupassen, sondern darin, einige neue Texte zu generieren.
Tatsächlich werden fast keine Papierautoren tatsächlich KI-Sprachmodelle verwenden, um wissenschaftliche Arbeiten zu erstellen. Da die Anforderungen an wissenschaftliche Arbeiten sehr streng sind, überprüfen Autoren in der Regel den Inhalt der Arbeit vor der Veröffentlichung immer wieder. Wenn eine KI-generierte Arbeit Fehler enthält, wird der Ruf aller genannten Autoren der Arbeit stark beeinträchtigt, was sich auf ihre gesamte Karriere auswirkt.
Aus Sicht der Papierprüfung benötigen Menschen ein schnelles und effektives Erkennungstool, um zu unterscheiden, ob ein Artikel von KI generiert oder von Menschen geschrieben wurde. Kürzlich hat ein Entwickler eine neue Anwendung namens GPTZero veröffentlicht, die über diese Erkennungsfunktion verfügt.
GPTZero wurde vom Informatikstudenten Edward Tian von der Princeton University entwickelt und verwendet zwei verschiedene Metriken, um zu bewerten, ob Text von einem KI-Modell geschrieben wird: Ratlosigkeit und Burstiness. Möglicherweise wird „Modell“ verwendet, um „Modell“ zu besiegen.
Fast gleichzeitig wurde ChatGPT von der Schule verboten. Das New Yorker Bildungsministerium hat den Zugriff auf ChatGPT in seinem Netzwerk und auf seinen Geräten gesperrt, weil es befürchtet, dass KI-Tools die Bildung stören könnten.
Jenna Lyle, eine Sprecherin der Abteilung, sagte: Dieses Verbot ist hauptsächlich auf Bedenken hinsichtlich der möglichen negativen Auswirkungen von ChatGPT auf das Lernen von Schülern sowie auf Bedenken hinsichtlich der Sicherheit und Genauigkeit der von ChatGPT generierten Inhalte zurückzuführen. Obwohl dieses Tool schnelle und einfache Antworten liefern kann, gelingt es ihm nicht, das kritische Denken und die Fähigkeiten zur Problemlösung zu entwickeln, die für den akademischen und lebenslangen Erfolg der Schüler von entscheidender Bedeutung sind.
Darüber hinaus weist ChatGPT auch Probleme auf, die andere Sprachmodelle haben. Da die Trainingsdaten aus dem Internet stammen, wiederholt und verstärkt es in seinen Antworten häufig Dinge wie Sexismus und Rassenvoreingenommenheit. Diese Art von Sprachmodell neigt auch dazu, Informationen zu fabrizieren, von historischen Daten bis hin zu wissenschaftlichen Gesetzen, andere können jedoch im Allgemeinen nicht erkennen, dass es sich um die Fälschung von Informationen handelt.
Es sind diese sachlichen Fehler, die Pädagogen bei diesem Tool besonders Sorgen bereiten. Viele Lehrer sagen, dass es mit Software wie ChatGPT grundsätzlich unmöglich ist, die Fähigkeit von Schülern zu testen, Aufsätze zu schreiben. Wenn ChatGPT Schülern helfen könnte, in Sekundenschnelle zu schreiben, würden sie sich nicht die Mühe machen wollen, zu schreiben.
Andere argumentieren jedoch, dass sich das Bildungssystem an das Aufkommen dieser Technologie anpassen muss – genauso wie es sich an frühere disruptive Technologien wie die Google-Suche und Wikipedia angepasst hat. Aber es dauert natürlich einige Zeit, bis sich jeder an ChatGPT gewöhnt hat.
Ob es um die manuelle Formulierung und Durchsetzung von Textschreibspezifikationen geht oder um die Verwendung einiger Methoden, um festzustellen, ob Text von KI generiert wird, zeigt es, dass sich die Menschen der dringenden Notwendigkeit bewusst sind, die Verwendung von Textgenerierungsmodellen wie ChatGPT zu standardisieren. Die Anwendungsfälle und der Wert von ChatGPT müssen noch definiert werden.
Das obige ist der detaillierte Inhalt vonChatGPT wurde der Zutritt zu Schulen verboten. LeCun: Wie wäre es, wenn auch kleine Models verboten würden?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!