ホームページ >テクノロジー周辺機器 >AI >ChatGPT を使用して論文を書くのは信頼できますか?何人かの学者がそれを試した:抜け穴だらけだが、注水には「良い」ツールだった

ChatGPT を使用して論文を書くのは信頼できますか?何人かの学者がそれを試した:抜け穴だらけだが、注水には「良い」ツールだった

PHPz
PHPz転載
2023-04-08 11:41:162017ブラウズ

ChatGPT は、その強力なテキスト作成機能により、地球上で最も強力な質問と回答のモデルになることを直接目指しています。

しかし、強力な AI は、Q&A コミュニティに深刻な間違った回答を書き込んだり、学生の論文執筆を支援したりするなど、いくつかの悪影響ももたらします。

arXiv に関する最近の論文が業界の注目を集めています。スペインのサンティアゴ デ コンポステーラ大学の研究者は、「創薬における人工知能の課題」、機会と戦略について言及しました。 」とありますが、この論文の特徴は、著者がChatGPTを使って論文執筆を支援していることです。

ChatGPT を使用して論文を書くのは信頼できますか?何人かの学者がそれを試した:抜け穴だらけだが、注水には「良い」ツールだった

論文リンク: https://arxiv.org/abs/2212.08104

著者チーム要約の最後の段落「人間の著者からのメモ」では、この論文は ChatGPT (GPT-3.5 言語モデルに基づくチャットボット) の執筆機能が人間の著者を助けることができるかどうかをテストするために作成されたと述べられています。意見記事。

作成者は、テキスト生成の最初のプロンプトとして命令を設計し、自動生成されたコンテンツを評価しました。徹底的なレビューの後、人間の著者が実際に原稿を書き直して、元の提案と科学的基準とのバランスを保つように努めました。記事は、この目標を達成するために人工知能を使用する利点と限界についての議論で締めくくられています。

しかし、別の疑問があります。なぜ著者リストに ChatGPT がないのでしょうか? (手動犬頭)

論文作成方法

この記事は、2022 年 11 月 30 日にリリースされた ChatGPT の支援を受けて作成されました。大規模なテキスト コーパスを使用して OpenAI によってトレーニングされた自然言語処理システムは、与えられた入力に基づいて人間の書き込みに似たテキストを生成できます。

この記事では、人間の著者によって提供された入力には、論文のテーマ (創薬における人工知能の応用)、考慮すべき章の数、および具体的なヒントが含まれています。各章と説明書に記載されています。

ChatGPT を使用して論文を書くのは信頼できますか?何人かの学者がそれを試した:抜け穴だらけだが、注水には「良い」ツールだった

ChatGPT によって生成されたテキストは、内容を修正して内容を充実させて最終的に完成させる前に手動で編集する必要があります。重複と不一致、そして人工知能によって提案されたすべての参照を人間が修正する必要もあります。

この作業の最終バージョンは、人工知能の支援を受けて、人間の作成者による反復改訂の結果です。ChatGPT から直接取得した予備テキストと現在のバージョンの完全な類似性は、原稿 まったく同じ 4.3%、小さな変更 13.3%、関連する重要性 16.3%。 ChatGPT から直接取得した予備テキストでは、正しい参照の割合はわずか 6% でした。

ChatGPT によって生成された元のバージョン、およびそのバージョンの作成に使用された入力情報は、サポート情報として取り上げられます

概要の中で紙のイラストは DALL-E によって作成されました。

論文の内容

この論文には合計 10 セクションと 56 の参考文献が含まれています。セクション 1 ~ 9 には 1 ~ 2 段落のみが含まれており、主に論文のトピックについて説明しています。論文。「創薬における人工知能の課題、機会、戦略」に関連する内容。第 10 セクションは主に「ChatGPT と AI に基づく科学的執筆ツールに関する人間の著者の専門家の意見」について議論します。記事の要約部分のみが含まれます。絵のイラスト。

要約

人工知能は、創薬プロセスに革命をもたらし、効率、精度、速度を向上させる可能性を秘めています。ただし、AI の適用が成功するかどうかは、高品質のデータの利用可能性、倫理的問題の処理、および AI ベースの手法の限界の認識にかかっています。

この記事では、この分野における人工知能の利点、課題、欠点を検討し、現在の障害を克服するための可能な戦略とアプローチを提案します。

この記事では、データ拡張の使用、説明可能な人工知能、人工知能と従来の実験手法との統合、および医学研究における人工知能の潜在的な利点についても説明します。

全体として、このレビューは創薬における人工知能の可能性に焦点を当て、この分野での人工知能の可能性を実現するための課題と機会を徹底的に探求します。

ChatGPT と AI に基づく科学執筆ツールに関する人間の著者の専門家の意見

ChatGPT は、GPT-3.5 言語モデルに基づくチャットボットです。科学論文を書くためのアシスタントとして設計されたものではありませんでしたが、人間と一貫した会話を行い、幅広いトピックに関する新しい情報を提供する能力、さらには計算コードを修正したり生成したりする能力は、研究者を驚かせました。科学界。

したがって、私たちはその可能性をテストし、創薬における人工知能アルゴリズムの役割に関する短いレビューの執筆に貢献することにしました。

科学論文執筆のアシスタントとして、ChatGPT には、テキストを迅速に生成して最適化する機能や、情報の整理や状況の整理など、ユーザーがいくつかのタスクを完了するのに役立つ機能など、いくつかの利点があります。アイデアを結びつける。

ただし、このツールは新しいコンテンツの生成には決して最適ではありません。

ChatGPT を使用して論文を書くのは信頼できますか?何人かの学者がそれを試した:抜け穴だらけだが、注水には「良い」ツールだった

#指示を入力した後も、人工知能が生成したテキストを人間が修正する必要があり、大規模な編集と修正が必要になります。 ChatGPT によって提供される参照が明らかに間違っているため、ほぼすべての参照を置き換えることが含まれます。

これは、ChatGPT に関する現在の大きな問題でもあります。主に必要な情報を提供する他のコンピューティング ツール (検索エンジンなど) と比較すると、重要な違いがあります。信頼できるリファレンスです。

人工知能ベースのツールを執筆支援に使用する場合には、もう 1 つの重要な問題があります。それは、このツールが 2021 年にトレーニングされたため、最新の情報が含まれていないということです。

この執筆実験によって得られた結果は次のとおりです。ChatGPT は、人間の強力な介入なしに信頼性の高い科学文書を作成するのに有用なツールではないと言えます。

ChatGPT には、複雑な科学概念や情報を正確かつ適切に伝達するために必要な知識や専門知識が不足しています。

さらに、ChatGPT で使用される言語とスタイルは学術文書には適していない可能性があり、高品質の科学文書を作成するには人間による入力とレビューが不可欠です。

この種の人工知能をまだ科学論文の作成に使用できない主な理由の 1 つは、処理された情報の信頼性と信頼性を評価する機能が欠けていることです。 ChatGPT によって生成されたテキストには、間違いなく虚偽または誤解を招く情報が含まれています。

また、査読者は人間が書いた記事とこの人工知能が書いた記事を区別するのが難しい場合があることにも注意してください。

そのため、虚偽の情報や誤解を招く情報の公開を防ぐために、レビュープロセスを徹底する必要があります。

ChatGPT を使用して論文を書くのは信頼できますか?何人かの学者がそれを試した:抜け穴だらけだが、注水には「良い」ツールだった

ハゲタカジャーナルが科学論文の迅速な作成を悪用して、低品質のコンテンツを大量に作成する可能性があるという現実的なリスクがあります。彼らは科学の進歩への取り組みではなく利益を追求しており、人工知能を使用して論文を迅速に作成し、標準以下の研究を市場に氾濫させ、科学界の信頼を損なう可能性があります。

最大の危険の 1 つは、科学論文に虚偽の情報が拡散する可能性であり、これは科学事業そのものの価値を低下させ、論文の正確性と完全性に対する信頼の喪失につながる可能性があります。科学の進歩に悪影響を与える可能性のある科学研究。

人工知能を使用して科学論文を作成することに伴うリスクを軽減するには、いくつかの解決策が考えられます。

解決策の 1 つは、科学論文を作成するために特別に設計された人工知能アルゴリズムを開発することです。これらのアルゴリズムは、査読済みの高品質な研究の大規模なデータセットでトレーニングできるため、生成される情報の信頼性を確保できます。

さらに、これらのアルゴリズムは、信頼できない情報源の引用など、潜在的に問題のある情報にフラグを立てるようにプログラムすることができ、研究者にさらなる検討と検証の必要性を警告します。

もう 1 つのアプローチは、処理する情報の真実性と信頼性をより適切に評価できる人工知能システムを開発することです。これには、高品質の科学論文の大規模なデータセットで AI をトレーニングすることや、AI が正確で信頼できる結果を生成することを保証するために相互検証やピアレビューなどの技術を使用することが含まれる場合があります。

もう 1 つの考えられる解決策は、論文作成における人工知能の使用を開示することを研究者に義務付けるなど、科学研究における人工知能の使用に関するより厳格なガイドラインと規制を策定することです。 AI によって生成されたコンテンツが特定の品質と精度の基準を満たしていることを確認するためのレビュー手順を実装します。

さらに、研究者に対し、AI によって生成された情報の正確性を公表前に徹底的にレビューおよび検証することを義務付けることや、これを怠った場合の罰則も含まれる可能性があります。 AI の限界と科学研究に AI に依存する潜在的な危険性について理解することも役立つ可能性があり、これは誤った情報の拡散を防ぎ、一般の人々が科学情報の信頼できる情報源と信頼できない情報源をよりよく区別できるようにするのに役立ちます。

資金提供機関や学術機関は、研究者がテクノロジーの限界を理解するのに役立つトレーニングやリソースを提供することで、科学研究における人工知能の責任ある使用を促進する役割を果たすことができます。

全体として、科学論文の作成における人工知能の使用に関連するリスクに対処するには、技術的ソリューション、規制の枠組み、一般教育を組み合わせる必要があります。

これらの対策を実施することで、科学コミュニティにおける人工知能の使用が責任を持って効果的に行われるようにすることができます。研究者や政策立案者は、科学研究における人工知能の使用の潜在的な危険性を慎重に検討し、これらのリスクを軽減するための措置を講じる必要があります。

人工知能が信頼できる正確な情報を生成すると信頼できるようになるまでは、科学コミュニティでの人工知能の使用には慎重である必要があり、人工知能ツールによって提供される情報は、信頼できる情報源を使用して慎重に評価および検証される必要があります。

参考: https://arxiv.org/abs/2212.08104

以上がChatGPT を使用して論文を書くのは信頼できますか?何人かの学者がそれを試した:抜け穴だらけだが、注水には「良い」ツールだったの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。