首页  >  文章  >  科技周边  >  GPT-4等大模型自己制作工具,识别ChatGPT造假

GPT-4等大模型自己制作工具,识别ChatGPT造假

WBOY
WBOY转载
2023-06-05 16:03:401688浏览

目录:

  1. Multiscale Positive-Unlabeled Detection of AI-Generated Texts
  2. Towards Revealing the Mystery behind Chain of Thought: a Theoretical Perspective
  3. Large Language Models as Tool Makers
  4. SpecInfer: Accelerating Generative LLM Serving with Speculative Inference and Token Tree Verification
  5. Cheap and Quick: Efficient Vision-Language Instruction Tuning for Large Language Models
  6. mPLUG-2: A Modularized Multi-modal Foundation Model Across Text, Image and Video
  7. Where to Go Next for Recommender Systems? ID- vs. Modality-based Recommender Models Revisited

论文 1:Multiscale Positive-Unlabeled Detection of AI-Generated Texts

  • 作者:Yuchuan Tian, Hanting Chen 等
  • 论文地址:https://arxiv.org/abs/2305.18149

摘要:AI 造假的成功率很高,前几天「10 分钟骗 430 万」还上了热搜。在最热门的大语言模型上,北大、华为的研究者们最近探索了一种识别方法。如下列举了几个人和 AI 分别对同一问题做出回答的例子:

GPT-4等大模型自己制作工具,识别ChatGPT造假

推荐:识别「ChatGPT 造假」,效果超越 OpenAI:北大、华为的 AI 生成检测器来了

论文 2:Towards Revealing the Mystery behind Chain of Thought: a Theoretical Perspective

  • 作者:Guhao Feng、Bohang Zhang 等
  • 论文地址:https://arxiv.org/abs/2305.15408

摘要:思维链提示(CoT)是大模型涌现中最神秘的现象之一,尤其在解决数学推理和决策问题中取得了惊艳效果。CoT 到底有多重要呢?它背后成功的机制是什么?本文中,北大的几位研究者证明了 CoT 在实现大语言模型(LLM)推理中是不可或缺的,并从理论和实验角度揭示了 CoT 如何释放 LLM 的巨大潜力。

本文选取了两个非常基础但核心的数学任务:算术和方程(下图给出了这两个任务的输入输出示例)

GPT-4等大模型自己制作工具,识别ChatGPT造假

推荐:思维链如何释放语言模型的隐藏能力?最新理论研究揭示其背后奥秘

论文 3:Large Language Models as Tool Makers

  • 作者:Tianle Cai、 Xuezhi Wang 等
  • 论文地址:https://arxiv.org/pdf/2305.17126.pdf

摘要:受到制造工具对人类重要性的启发,在本文中,Google Deepmind、普林斯顿和斯坦福大学的研究者将这种「进化」的概念应用于 LLM 领域,进行了初步探索。他们提出了一个闭环框架,在这个框架中 LLM 作为工具制作者(LLMs As Tool Makers ,LATM),使其能够生成自己的可重新使用的工具来处理新任务。

GPT-4等大模型自己制作工具,识别ChatGPT造假

推荐:GPT-4 等大模型迎来进化转折点:不只是使用,还会自己制作工具了

论文 4:SpecInfer: Accelerating Generative LLM Serving with Speculative Inference and Token Tree Verification

  • 作者:Xupeng Miao、Gabriele Oliaro 等
  • 论文地址:https://arxiv.org/abs/2305.09781

摘要:近日,来自卡耐基梅隆大学(CMU)的 Catalyst Group 团队发布了一款「投机式推理」引擎 SpecInfer,可以借助轻量化的小模型来帮助大模型,在完全不影响生成内容准确度的情况下,实现两到三倍的推理加速。

GPT-4等大模型自己制作工具,识别ChatGPT造假

推荐:LLM 推理提速 2.8 倍,CMU 清华姚班校友提出「投机式推理」引擎 SpecInfer,小模型撬动大模型高效推理

论文 5:Cheap and Quick: Efficient Vision-Language Instruction Tuning for Large Language Models

  • 作者:Gen Luo、 Yiyi Zhou 等
  • 论文地址:https://arxiv.org/pdf/2305.15023.pdf

摘要:本文提出了一种新颖且经济实惠的解决方案,用于有效地将 LLMs 适应到 VL(视觉语言)任务中,称为 MMA。MMA 不使用大型神经网络来连接图像编码器和 LLM,而是采用轻量级模块,即适配器,来弥合 LLMs 和 VL 任务之间的差距,同时也实现了图像模型和语言模型的联合优化。同时,MMA 还配备了一种路由算法,可以帮助 LLM 在不损害其自然语言理解能力的情况下,在单模态和多模态指令之间实现自动切换。

GPT-4等大模型自己制作工具,识别ChatGPT造假

推荐:训练时间减少 71.4%,存储成本节省 99.9%,厦大指令调优新方案 MMA 让羊驼模型实现多模态

论文 6:mPLUG-2: A Modularized Multi-modal Foundation Model Across Text, Image and Video

  • 作者:Haiyang Xu、 Qinghao Ye 等
  • 论文地址:https://arxiv.org/pdf/2302.00402.pdf

摘要:对于多模态基础模型,我们希望其不仅可以处理特定的多模态相关任务,还希望其处理单模态任务时也具有优异的性能。阿⾥达摩院团队发现现有的模型往往不能很好的平衡模态协作和模态纠缠的问题,这限制了模型在各种单模态和跨模态下游任务的性能。

基于此,达摩院的研究者提出了 mPLUG-2,其通过模块化的⽹络结构设计来平衡多模态之间的协作和纠缠问题,mPLUG-2 在 30 + 多 / 单模态任务,取得同等数据量和模型规模 SOTA 或者 Comparable 效果,在 VideoQA 和 VideoCaption 上超越 Flamingo、VideoCoca、GITv2 等超⼤模型取得绝对 SOTA。此外,mPLUG-Owl 是阿⾥巴巴达摩院 mPLUG 系列的最新工作,延续了 mPLUG 系列的模块化训练思想,把 LLM 升级为⼀个多模态⼤模型。mPLUG-2 的研究论文已被 ICML 2023 接收。

GPT-4等大模型自己制作工具,识别ChatGPT造假

推荐:ICML 2023 | 基于模块化思想,阿里达摩院提出多模态基础模型 mPLUG-2

论文 7:Where to Go Next for Recommender Systems? ID- vs. Modality-based Recommender Models Revisited

  • 作者:Zheng Yuan、Fajie Yuan 等
  • 论文地址:https://arxiv.org/abs/2303.13835

摘要:本文调查了一个富有潜力的问题,即多模态推荐系统 MoRec 是否有望终结 IDRec 在推荐系统领域长达 10 年的主导地位,基于此,论文进行了深入研究。相关成果已被 SIGIR 2023 接收。下图为网络架构。

GPT-4等大模型自己制作工具,识别ChatGPT造假

推荐:SIGIR 2023 | 推荐系统何去何从,经典 ID 范式要被颠覆?

以上是GPT-4等大模型自己制作工具,识别ChatGPT造假的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:51cto.com。如有侵权,请联系admin@php.cn删除