Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Selbst hochrangige Experten waren nicht in der Lage, von ChatGPT verfasste wissenschaftliche Arbeiten genau zu identifizieren

Selbst hochrangige Experten waren nicht in der Lage, von ChatGPT verfasste wissenschaftliche Arbeiten genau zu identifizieren

WBOY
WBOYnach vorne
2023-04-13 11:40:021051Durchsuche

Selbst hochrangige Experten waren nicht in der Lage, von ChatGPT verfasste wissenschaftliche Arbeiten genau zu identifizieren

News vom 14. Januar veröffentlichte das amerikanische populärwissenschaftliche Magazin „Scientific American“ heute einen ​Artikel​, in dem es heißt, dass von ChatGPT verfasste wissenschaftliche Arbeiten von so hoher akademischer Qualität sind, dass erfahrene Wissenschaftler das nicht beurteilen können Unterschied auch.

schrieb Ende Dezember in einem Preprint-Artikel, der auf dem bioRxiv-Server veröffentlicht wurde, dass Chatbots mit künstlicher Intelligenz (KI) in der Lage sind, gefälschte Forschungsarbeiten so überzeugend zu verfassen, dass Wissenschaftler dies ohne sorgfältige Prüfung nicht erkennen können.

Sandra Wachter, die Technologie und Regulierung an der Universität Oxford im Vereinigten Königreich studiert, sagte: „Ich mache mir darüber große Sorgen. Wenn selbst Experten nicht unterscheiden können, ob das Papier wahr oder falsch ist, wird es den Eckpfeiler unserer Forschung beeinträchtigen.“ ."

IT Home Classroom: Chatbot ChatGPT erstellt realistische und intelligent klingende Texte basierend auf Benutzereingaben. Es handelt sich um ein „großes Sprachmodell“, ein auf einem neuronalen Netzwerk basierendes System, das lernt, Aufgaben auszuführen, indem es große Mengen vorhandener, von Menschen erstellter Texte verarbeitet. OpenAI, ein Softwareunternehmen mit Sitz in San Francisco, Kalifornien, hat das Tool am 30. November veröffentlicht und kann kostenlos verwendet werden.

Ein Team unter der Leitung von Catherine Gao von der Northwestern University in Chicago, IL, nutzte ChatGPT, um künstliche Forschungspapierzusammenfassungen zu erstellen, um zu testen, ob Wissenschaftler sie entdecken könnten. Die Forscher baten den Chatbot, Recherchen auf der Grundlage von Forschungsergebnissen durchzuführen, die in JAMA, The New England Journal of Medicine, The BMJ und The Lancet veröffentlicht wurden. Schreiben Sie 50 medizinische Forschungszusammenfassungen für Anthologien in The Lancet und Nature Medicine.

Anschließend verglichen sie diese Zusammenfassungen mithilfe eines Plagiatsdetektors und eines KI-Ausgabedetektors mit den Originalzusammenfassungen und baten ein Team medizinischer Forscher, die gefälschten Zusammenfassungen zu erkennen.

Die von ChatGPT generierten Zusammenfassungen haben die Plagiatsprüfung mit Bravour bestanden: Der mittlere Originalitätswert lag bei 100 %, was darauf hinweist, dass kein Plagiat entdeckt wurde.

Der KI-Ausgabedetektor fand 66 % der generierten Zusammenfassungen, während die menschliche Überprüfung nur 68 % der generierten Zusammenfassungen und 86 % der echten Zusammenfassungen korrekt identifizierte. Experten identifizierten fälschlicherweise 32 % der generierten Zusammenfassungen als echte Zusammenfassungen und 14 % der echten Zusammenfassungen als generierte.

Das obige ist der detaillierte Inhalt vonSelbst hochrangige Experten waren nicht in der Lage, von ChatGPT verfasste wissenschaftliche Arbeiten genau zu identifizieren. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen