Heim > Artikel > Technologie-Peripheriegeräte > Wann ist ein Autor eines Artikels beliebt? Wann können große Sprachmodelle wie ChatGPT Co-Autor des Artikels werden?
ChatGPT hat seit seiner Veröffentlichung große Aufmerksamkeit erregt und gilt als eines der leistungsstärksten derzeit verfügbaren Sprachmodelle. Seine Fähigkeiten zur Texterstellung sind nicht geringer als die von Menschen, und einige Experten für maschinelles Lernen haben Forschern sogar verboten, ChatGPT zum Verfassen von Arbeiten zu verwenden.
Aber kürzlich wurde in der Autorenspalte ein Artikel deutlich unterschrieben. Was ist los?
Dieses Papier ist „Performance of ChatGPT on USMLE: Potential for AI-Assisted Medical Education Using Large Language Models“, veröffentlicht auf der Plattform für medizinische Forschungspapiere. medRxiv ist der dritte Autor des Papiers.
Wie aus dem Titel des Papiers hervorgeht, besteht der Hauptinhalt dieses Papiers darin, die Leistung von ChatGPT bei der United States Medical Licensing Examination (USMLE) zu untersuchen. Experimentelle Ergebnisse zeigen, dass die Ergebnisse von ChatGPT in allen Prüfungen ohne besondere Schulung oder Verstärkung die Bestehensschwelle erreichten oder nahe daran lagen. Darüber hinaus weisen die von ChatGPT generierten Antworten ein hohes Maß an Konsistenz und Einsicht auf. Die Studie legt nahe, dass große Sprachmodelle in der medizinischen Ausbildung nützlich sein und die klinische Entscheidungsfindung unterstützen können.
Den Inhalten der Forschung nach zu urteilen, scheint ChatGPT eher ein Forschungsobjekt zu sein, wie ein Twitter-Nutzer sagte: „Wenn menschliche Forscher zu den experimentellen Ergebnissen beitragen, dann sind sie natürlich Mitautoren des Papiers.“ Aber das Modell und Es gibt keinen Präzedenzfall für diese Art von Algorithmus.“ -geschulte Transformer-Perspektive“ Das Papier wurde nicht nur unterzeichnet, ChatGPT war sogar der Erstautor.
Dieser Artikel ist in Oncoscience der National Institutes of Health (NIH) enthalten. Aus den Beiträgen der Autoren des Papiers haben wir jedoch herausgefunden, dass der Großteil des Inhalts dieses Papiers tatsächlich von ChatGPT generiert wurde – Alex Zhavoronkov, der zweite Autor des Papiers, stellte ChatGPT Fragen zum Forschungsthema, und ChatGPT generierte automatisch eine große Anzahl von Meinungen und Erklärungen, und dann werden die von ChatGPT generierten Inhalte von Alex Zhavoronkov moderiert. Darüber hinaus unterstützt ChatGPT auch bei der Formatierung des Papiers.
Screenshot des Artikels „Rapamycin im Kontext von Pascals Wette: generative vortrainierte Transformatorperspektive“.
Als Alex Zhavoronkov über die Unterzeichnung des Papiers entschied, kontaktierte er OpenAI-Mitbegründer und CEO Sam Altman zur Bestätigung und veröffentlichte das Papier schließlich mit ChatGPT als Erstautor. Dies deutet darauf hin, dass leistungsstarke KI-Systeme wie große Sprachmodelle in Zukunft sinnvolle Beiträge zur akademischen Arbeit leisten und sogar die Fähigkeit haben werden, Mitautoren von Arbeiten zu werden. Es gibt jedoch auch einige Nachteile, große Sprachmodelle wissenschaftliche Arbeiten schreiben zu lassen. Beispielsweise sagte die Top-Konferenz für maschinelles Lernen ICML: „ChatGPT basiert auf öffentlichen Daten, die häufig ohne Zustimmung gesammelt werden.“ „
In einer aktuellen Studie von Catherine Gao von der Northwestern University und anderen wählten die Forscher einige Artikel aus, die im Journal of the American Medical Association (JAMA), dem New England Journal of Medicine (NEJM ), Für manuell recherchierte Artikel im British Medical Journal (BMJ), The Lancet und Nature Medicine wurde ChatGPT verwendet, um Abstracts für die Artikel zu generieren, und dann wurde getestet, ob Gutachter erkennen konnten, dass die Abstracts von KI erstellt wurden.
Experimentelle Ergebnisse zeigen, dass Gutachter nur 68 % der generierten Abstracts und 86 % der Original-Abstracts korrekt identifizierten. Sie identifizierten fälschlicherweise 32 % der generierten Zusammenfassungen als Originalzusammenfassungen und 14 % der Originalzusammenfassungen als KI-generiert. Der Rezensent sagte: „Es ist überraschend schwierig, zwischen den beiden zu unterscheiden, und die generierte Zusammenfassung ist vage und vermittelt den Menschen ein formelhaftes Gefühl.“ Forscher haben Schwierigkeiten zu unterscheiden, ob Text von KI generiert oder von Menschen geschrieben wurde. Dies ist kein gutes Phänomen. KI scheint zu „täuschen“.
Allerdings kann die Korrektheit der von Sprachmodellen generierten Inhalte bisher nicht vollständig garantiert werden und selbst die Fehlerquote ist in manchen Berufsfeldern sehr hoch. Wenn es unmöglich ist, zwischen von Menschen geschriebenen Inhalten und von KI-Modellen generierten Inhalten zu unterscheiden, stehen Menschen vor einem ernsthaften Problem der Irreführung durch KI.
Das obige ist der detaillierte Inhalt vonWann ist ein Autor eines Artikels beliebt? Wann können große Sprachmodelle wie ChatGPT Co-Autor des Artikels werden?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!