首页 >科技周边 >人工智能 >苹果展示 AI 新模型 MGIE,可一句话精修图片

苹果展示 AI 新模型 MGIE,可一句话精修图片

PHPz
PHPz转载
2024-02-08 11:33:251251浏览

苹果展示 AI 新模型 MGIE,可一句话精修图片

2 月 8 日消息,相比较微软的风生水起,苹果公司在 AI 领域的布局显得低调很多,但这并不意味着苹果在该领域就没有丝毫建树。苹果公司近日发布了名为“MGIE”的新型开源人工智能模型,它可以根据自然语言指令编辑图像。

苹果展示 AI 新模型 MGIE,可一句话精修图片

图源:VentureBeat 与 Midjourney 合作制作

MGIE(MLLM-Guided Image Editing)是一种利用多模态大型语言模型(MLLM)解释用户指令并执行像素级操作的技术。它能够理解用户的自然语言命令,并进行类似于Photoshop的修改、全局照片优化和局部编辑等操作。通过MGIE,用户可以轻松地对图片进行各种编辑,而无需熟悉复杂的图像处理软件。这项技术在简化图像编辑流程的同时,也提供了更直观和高效的编辑方式。

苹果展示 AI 新模型 MGIE,可一句话精修图片

苹果公司与加州大学圣巴巴拉分校的研究人员合作,在2024年国际学习表征会议(ICLR)上公布了与MGIE相关的研究成果。ICLR是人工智能研究领域中最重要的会议之一。

在介绍 MGIE 之前,本站先来简要介绍一下 MLLM(Multimodal Language Learning Model)。MLLM 是一种强大的人工智能模型,其独特之处在于可以同时处理文本和图像,从而增强了基于指令的图像编辑能力。MLLM 在跨模态理解和视觉感知响应生成方面表现出卓越的能力,然而,目前尚未广泛应用于图像编辑任务。

苹果展示 AI 新模型 MGIE,可一句话精修图片

MGIE 通过两种方式将 MLLMs 集成到图像编辑过程中:其一,利用 MLLMs 从用户输入中推导出精确而富有表现力的指令。这些指令既简洁又明了,为编辑过程提供了清晰的指引。

例如,当输入“让天空更蓝”时,MGIE 可以生成“将天空区域的饱和度提高 20%”的指令。

其次,它使用 MLLM 生成视觉想象力,即所需编辑的潜在表征。这一表征捕捉了编辑的本质,可用于指导像素级操作。MGIE 采用了一种新颖的端到端训练方案,可联合优化指令推导、视觉想象和图像编辑模块。

苹果展示 AI 新模型 MGIE,可一句话精修图片

MGIE 可以处理各种编辑情况,从简单的颜色调整到复杂的对象操作。该模型还可以根据用户的偏好执行全局和局部编辑。MGIE 的部分特性和功能包括:

  • 基于指令的表达式编辑:MGIE 可以生成简洁明了的说明,有效指导编辑过程。这不仅能提高编辑质量,还能增强用户的整体体验。
  • Photoshop 风格修改:MGIE 可以执行常见的 Photoshop 风格编辑,如裁剪、调整大小、旋转、翻转和添加滤镜。该模型还可以应用更高级的编辑,如更改背景、添加或删除对象以及混合图像。
  • 全局照片优化:MGIE 可以优化照片的整体质量,如亮度、对比度、清晰度和色彩平衡。该模型还能应用素描、绘画和漫画等艺术效果。
  • 局部编辑:MGIE 可以编辑图像中的特定区域或对象,如脸部、眼睛、头发、衣服和配饰。模型还可以修改这些区域或对象的属性,如形状、大小、颜色、纹理和风格。

苹果展示 AI 新模型 MGIE,可一句话精修图片

MGIE 是 GitHub 上的一个开源项目,用户可以点击这里找到代码、数据和预训练模型。该项目还提供了一个演示笔记本,展示如何使用 MGIE 完成各种编辑任务。

以上是苹果展示 AI 新模型 MGIE,可一句话精修图片的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:51cto.com。如有侵权,请联系admin@php.cn删除