Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Ist es zuverlässig, ChatGPT zum Schreiben von Arbeiten zu verwenden? Einige Gelehrte haben es versucht: voller Schlupflöcher, aber ein „gutes“ Werkzeug für die Wasserinjektion

Ist es zuverlässig, ChatGPT zum Schreiben von Arbeiten zu verwenden? Einige Gelehrte haben es versucht: voller Schlupflöcher, aber ein „gutes“ Werkzeug für die Wasserinjektion

PHPz
PHPznach vorne
2023-04-08 11:41:161985Durchsuche

​ChatGPT strebt mit seinen leistungsstarken Funktionen zur Texterstellung direkt danach, das stärkste Frage- und Antwortmodell der Welt zu sein.

Aber leistungsstarke KI wird auch einige negative Auswirkungen haben, wie zum Beispiel das Schreiben ernsthaft falscher Antworten in Q&A-Communitys, das Helfen von Studenten beim Verfassen von Arbeiten usw.

Ein aktueller Artikel über arXiv hat die Aufmerksamkeit der Branche auf sich gezogen: „Herausforderungen, Chancen und Strategien der künstlichen Intelligenz in der Arzneimittelforschung“. dass der Autor ChatGPT verwendet, um beim Schreiben des Artikels zu helfen.

Ist es zuverlässig, ChatGPT zum Schreiben von Arbeiten zu verwenden? Einige Gelehrte haben es versucht: voller Schlupflöcher, aber ein „gutes“ Werkzeug für die Wasserinjektion

Link zum Papier: https://arxiv.org/abs/2212.08104

Das Autorenteam gab im letzten Absatz der Zusammenfassung „Anmerkung von menschlichen Autoren“ an, dass dieses Papier erstellt wurde Testen Sie, ob die Schreibfunktionen von ChatGPT, einem Chatbot basierend auf dem GPT-3.5-Sprachmodell, menschlichen Autoren beim Schreiben von Rezensionsartikeln helfen können.

Der Autor hat eine Anleitung als erste Anregung zur Textgenerierung entworfen und anschließend den automatisch generierten Inhalt ausgewertet. Nach einer gründlichen Prüfung haben die menschlichen Autoren das Manuskript tatsächlich umgeschrieben, um ein Gleichgewicht zwischen dem ursprünglichen Vorschlag und wissenschaftlichen Standards zu wahren. Der Artikel schließt mit einer Diskussion der Vorteile und Grenzen des Einsatzes künstlicher Intelligenz zur Erreichung dieses Ziels.

Aber es gibt noch eine andere Frage: Warum gibt es kein ChatGPT in der Autorenliste? (Manueller Hundekopf)

Methode zum Schreiben von Abschlussarbeiten

Dieser Artikel wurde mit Hilfe von ChatGPT erstellt, einem System zur Verarbeitung natürlicher Sprache, das am 30. November 2022 veröffentlicht wurde. Es wurde von OpenAI mithilfe einer großen Anzahl von Textkorpora trainiert . Kann auf der Grundlage der eingegebenen Eingaben Text generieren, der der menschlichen Schrift ähnelt.

Für diesen Artikel umfassten die Eingaben der menschlichen Autoren das Thema des Artikels (Anwendungen künstlicher Intelligenz in der Arzneimittelforschung), die Anzahl der zu berücksichtigenden Kapitel sowie spezifische Tipps und Anweisungen für jedes Kapitel.

Ist es zuverlässig, ChatGPT zum Schreiben von Arbeiten zu verwenden? Einige Gelehrte haben es versucht: voller Schlupflöcher, aber ein „gutes“ Werkzeug für die Wasserinjektion

Der von ChatGPT generierte Text muss manuell bearbeitet werden, bevor er fertiggestellt werden kann, um den Inhalt zu korrigieren und zu bereichern und Duplikate und Inkonsistenzen zu vermeiden. Außerdem müssen alle von der künstlichen Intelligenz vorgeschlagenen Verweise bearbeitet werden.

Die endgültige Version dieser Arbeit ist das Ergebnis wiederholter Überarbeitungen durch menschliche Autoren mit Hilfe künstlicher Intelligenz. Die Gesamtähnlichkeit zwischen dem direkt von ChatGPT erhaltenen vorläufigen Text und der aktuellen Version des Manuskripts beträgt: identische 4,3 %. Kleine Änderungen 13,3 %, relevante Signifikanz 16,3 %. Im direkt von ChatGPT bezogenen Vortext betrug der Anteil korrekter Referenzen nur 6 %.

Die von ChatGPT generierte Originalversion und die zur Erstellung dieser Version verwendeten Eingabeinformationen werden als unterstützende Informationen behandelt.

Die Abbildung in der Zusammenfassung des Papiers wurde von DALL-E erstellt.

Inhalt des Papiers

Das Papier umfasst insgesamt 10 Abschnitte und 56 Referenzen, von denen die Abschnitte 1–9 nur 1–2 Absätze enthalten und hauptsächlich das Thema des Papiers „Herausforderungen, Chancen und Herausforderungen der künstlichen Intelligenz“ beschreiben in der Arzneimittelforschung“ „Strategie“-bezogene Inhalte; im zehnten Abschnitt geht es hauptsächlich um „Expertenmeinungen menschlicher Autoren zu wissenschaftlichen Schreibwerkzeugen auf Basis von ChatGPT und KI“; nur der abstrakte Teil des Artikels enthält eine Illustration.

Abstract

Künstliche Intelligenz hat das Potenzial, den Prozess der Arzneimittelentwicklung zu revolutionieren und für mehr Effizienz, Genauigkeit und Geschwindigkeit zu sorgen. Der erfolgreiche Einsatz von KI hängt jedoch von der Verfügbarkeit qualitativ hochwertiger Daten, dem Umgang mit ethischen Fragen und einem Bewusstsein für die Grenzen KI-basierter Methoden ab.

Dieser Artikel geht auf die Vorteile, Herausforderungen und Mängel der künstlichen Intelligenz in diesem Bereich ein und schlägt mögliche Strategien und Methoden zur Überwindung aktueller Hindernisse vor.

Der Artikel diskutiert auch den Einsatz von Datenerweiterung, erklärbarer künstlicher Intelligenz, die Integration künstlicher Intelligenz mit traditionellen experimentellen Methoden und die potenziellen Vorteile künstlicher Intelligenz in der medizinischen Forschung.

Insgesamt unterstreicht diese Rezension das Potenzial künstlicher Intelligenz in der Arzneimittelforschung und bietet eine eingehende Untersuchung der Herausforderungen und Möglichkeiten, ihr Potenzial in diesem Bereich auszuschöpfen.

Expertenmeinungen von menschlichen Autoren zu wissenschaftlichen Schreibtools auf Basis von ChatGPT und KI

ChatGPT ist ein Chatbot, der auf dem GPT-3.5-Sprachmodell basiert. Er ist nicht als Assistent für das Schreiben wissenschaftlicher Arbeiten konzipiert, sondern mit der Fähigkeit der Menschheit vereinbar ist, zusammenhängende Gespräche zu führen und neue Informationen zu einem breiten Themenspektrum bereitzustellen, sowie mit ihrer Fähigkeit, Computercode zu korrigieren oder sogar zu generieren, hat die wissenschaftliche Gemeinschaft in Erstaunen versetzt.

Deshalb haben wir uns entschieden, sein Potenzial zu testen und einen Beitrag zum Verfassen einer kurzen Rezension über die Rolle von Algorithmen der künstlichen Intelligenz bei der Arzneimittelentwicklung zu leisten.

Als Assistent zum Verfassen wissenschaftlicher Arbeiten bietet ChatGPT mehrere Vorteile, darunter die Möglichkeit, Texte schnell zu generieren und zu optimieren sowie Benutzer bei der Erledigung verschiedener Aufgaben zu unterstützen, darunter das Organisieren von Informationen und in einigen Fällen sogar das Verknüpfen von Ideen.

Allerdings ist dieses Tool keineswegs ideal für die Generierung neuer Inhalte.

Ist es zuverlässig, ChatGPT zum Schreiben von Arbeiten zu verwenden? Einige Gelehrte haben es versucht: voller Schlupflöcher, aber ein „gutes“ Werkzeug für die Wasserinjektion

Nach der Eingabe von Anweisungen muss der Mensch den durch künstliche Intelligenz generierten Text noch ändern, und es handelt sich um eine umfangreiche Bearbeitung und Korrektur, einschließlich des Ersetzens fast aller Referenzen, da die von ChatGPT bereitgestellten Referenzen offensichtlich falsch sind.

Dies ist derzeit auch ein großes Problem bei ChatGPT. Es weist einen wesentlichen Unterschied zu anderen Computertools (z. B. Suchmaschinen) auf, die hauptsächlich zuverlässige Referenzen für die erforderlichen Informationen liefern.

Es gibt ein weiteres wichtiges Problem bei der Verwendung von auf künstlicher Intelligenz basierenden Tools zur Schreibunterstützung: Es wurde im Jahr 2021 trainiert und enthält daher nicht die neuesten Informationen.

Die Ergebnisse dieses Schreibexperiments sind: Wir können sagen, dass ChatGPT kein nützliches Werkzeug zum Schreiben zuverlässiger wissenschaftlicher Texte ohne starken menschlichen Eingriff ist.

ChatGPT mangelt es an Wissen und Fachwissen, um komplexe wissenschaftliche Konzepte und Informationen genau und angemessen zu kommunizieren.

Darüber hinaus sind die von ChatGPT verwendete Sprache und der Stil möglicherweise nicht für akademisches Schreiben geeignet, und um qualitativ hochwertige wissenschaftliche Texte zu erstellen, sind menschliche Eingaben und Überprüfungen unerlässlich.

Einer der Hauptgründe, warum diese Art von künstlicher Intelligenz noch nicht zur Erstellung wissenschaftlicher Artikel eingesetzt werden kann, ist, dass ihr die Fähigkeit fehlt, die Authentizität und Zuverlässigkeit verarbeiteter Informationen zu bewerten. Daher werden von ChatGPT generierte wissenschaftliche Texte definitiv falsche Inhalte enthalten oder irreführende Informationen.

Beachten Sie außerdem, dass es für Rezensenten möglicherweise schwierig ist, zwischen Artikeln zu unterscheiden, die von Menschen oder dieser künstlichen Intelligenz verfasst wurden.

Daher muss der Überprüfungsprozess gründlich sein, um die Veröffentlichung falscher oder irreführender Informationen zu verhindern.

Ist es zuverlässig, ChatGPT zum Schreiben von Arbeiten zu verwenden? Einige Gelehrte haben es versucht: voller Schlupflöcher, aber ein „gutes“ Werkzeug für die Wasserinjektion

Ein echtes Risiko besteht darin, dass räuberische Zeitschriften die schnelle Produktion wissenschaftlicher Artikel ausnutzen, um große Mengen an Inhalten von geringer Qualität zu produzieren Künstliche Intelligenz kann zur schnellen Erstellung von Artikeln eingesetzt werden, wodurch der Markt mit minderwertiger Forschung überschwemmt und die Glaubwürdigkeit der wissenschaftlichen Gemeinschaft untergraben wird.

Eine der größten Gefahren ist die potenzielle Verbreitung falscher Informationen in wissenschaftlichen Artikeln, die zur Entwertung des wissenschaftlichen Unternehmens selbst, zu einem Vertrauensverlust in die Genauigkeit und Integrität der wissenschaftlichen Forschung führen und sich negativ auf den Fortschritt auswirken können der Wissenschaft.

Es gibt mehrere mögliche Lösungen, um die Risiken zu mindern, die mit der Verwendung künstlicher Intelligenz zur Erstellung wissenschaftlicher Artikel verbunden sind.

Eine Lösung besteht darin, Algorithmen der künstlichen Intelligenz speziell für die Erstellung wissenschaftlicher Artikel zu entwickeln. Diese Algorithmen können auf großen Datensätzen hochwertiger, von Experten überprüfter Forschung trainiert werden, was dazu beiträgt, die Authentizität der von ihnen generierten Informationen sicherzustellen.

Darüber hinaus können diese Algorithmen so programmiert werden, dass sie potenziell problematische Informationen kennzeichnen, z. B. das Zitieren unzuverlässiger Quellen, wodurch Forscher auf die Notwendigkeit einer weiteren Überprüfung und Verifizierung aufmerksam gemacht werden.

Ein anderer Ansatz besteht darin, künstliche Intelligenzsysteme zu entwickeln, die die Richtigkeit und Zuverlässigkeit der von ihnen verarbeiteten Informationen besser beurteilen können. Dies kann das Training der KI anhand großer Datensätze hochwertiger wissenschaftlicher Artikel sowie den Einsatz von Techniken wie Kreuzvalidierung und Peer-Review umfassen, um sicherzustellen, dass die KI genaue und vertrauenswürdige Ergebnisse liefert.

Eine weitere mögliche Lösung besteht darin, strengere Richtlinien und Vorschriften für den Einsatz künstlicher Intelligenz in der wissenschaftlichen Forschung zu entwickeln, einschließlich der Verpflichtung von Forschern, ihren Einsatz künstlicher Intelligenz bei der Erstellung von Artikeln offenzulegen, und der Einführung von Überprüfungsverfahren, um sicherzustellen, dass KI-generierte Inhalte einer bestimmten Qualität entsprechen und Genauigkeitsstandards.

Darüber hinaus könnte die Verpflichtung von Forschern, die Richtigkeit aller von KI generierten Informationen vor der Veröffentlichung gründlich zu überprüfen und zu verifizieren, sowie Strafen für diejenigen, die dies nicht tun, die Aufklärung der Öffentlichkeit über die Grenzen von KI und das Potenzial umfassen Die Gefahren, die sich daraus ergeben, dass man sich bei der wissenschaftlichen Forschung auf KI verlässt, können auch dazu beitragen, die Verbreitung von Fehlinformationen zu verhindern und sicherzustellen, dass die Öffentlichkeit besser zwischen zuverlässigen und unzuverlässigen Quellen wissenschaftlicher Informationen unterscheiden kann.

Finanzierungsagenturen und akademische Institutionen können eine Rolle bei der Förderung des verantwortungsvollen Einsatzes von KI in der wissenschaftlichen Forschung spielen, indem sie Schulungen und Ressourcen bereitstellen, um Forschern zu helfen, die Grenzen der Technologie zu verstehen.

Insgesamt erfordert die Bewältigung der Risiken, die mit dem Einsatz künstlicher Intelligenz bei der Produktion wissenschaftlicher Artikel verbunden sind, eine Kombination aus technischen Lösungen, regulatorischen Rahmenbedingungen und öffentlicher Aufklärung.

Durch die Umsetzung dieser Maßnahmen können wir sicherstellen, dass der Einsatz künstlicher Intelligenz in der wissenschaftlichen Gemeinschaft verantwortungsvoll und effektiv ist. Forscher und politische Entscheidungsträger müssen die potenziellen Gefahren des Einsatzes künstlicher Intelligenz in der wissenschaftlichen Forschung sorgfältig abwägen und Maßnahmen ergreifen, um diese Risiken zu reduzieren.

Bis man darauf vertrauen kann, dass KI zuverlässige und genaue Informationen liefert, sollte ihr Einsatz in der wissenschaftlichen Gemeinschaft vorsichtig sein und die von KI-Tools bereitgestellten Informationen müssen sorgfältig ausgewertet und anhand zuverlässiger Quellen überprüft werden.

Referenz: https://arxiv.org/abs/2212.08104

Das obige ist der detaillierte Inhalt vonIst es zuverlässig, ChatGPT zum Schreiben von Arbeiten zu verwenden? Einige Gelehrte haben es versucht: voller Schlupflöcher, aber ein „gutes“ Werkzeug für die Wasserinjektion. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen