要重新写内容而不改变原意,需要将语言改写为中文,不需要出现原句
审校 | 重楼的内容需要进行改写
近几个月来,生成式人工智能凭借其创造独特的文本、声音和图像的能力引起了人们的极大兴趣。然而,生成式人工智能的潜力并不仅限于创造新的数据
生成式人工智能的底层技术(如Transformer和扩散模型)可以为许多其他应用提供动力,包括信息的搜索和发现。特别是,生成式人工智能可以彻底改变图像搜索,使人们能够以以前不可能的方式浏览视觉信息
以下是人们需要知道的关于生成式人工智能如何重新定义图像搜索体验的内容。
传统的图像搜索方法依赖于图像附带的文本描述、标记和其他元数据,这将用户的搜索选项限制为已经明确附加到图像中的信息。上传图像的人必须认真考虑输入的搜索查询类型,以确保他们的图像能够被他人发现。而在搜索图像时,查询信息的用户必须尝试想象图像上传者可能在图像中添加了什么样的描述
俗话说,“一图胜千言”。然而对于图像的描述来说,可以编写的内容是有限的。当然,根据人们查看图像的方式,可以采用很多方式进行描述。而人们有时根据图中的物体进行搜索,有时根据风格、光线、位置等特征搜索图像。不幸的是,图像很少伴随着如此丰富的信息。很多人上传的许多图像几乎没有附带任何信息,这使得它们很难在搜索中被发现。
人工智能图像搜索在这方面发挥了重要作用。人工智能图像搜索有多种方法,不同的公司都拥有自己的专有技术。然而,也有一些技术是这些公司共同拥有的
人工智能图像搜索和许多其他深度学习系统的核心是嵌入。嵌入是对不同数据类型进行数值表示的方法。例如,512×512分辨率的图像包含大约26万个像素(或特征)。嵌入模型通过对数百万张图像进行训练,学习视觉数据的低维表示。图像嵌入可以应用于许多有用的领域,包括图像压缩、生成新图像或比较不同图像的视觉属性
同样的机制适用于文本等其他形式。文本嵌入模型是文本摘录内容的低维表示。文本嵌入有许多应用,包括用于大型语言模型(LLM)的相似性搜索和检索增强。
但是,当图像和文本嵌入一起训练时,事情变得更加有趣。像LAION这样的开源数据集包含数以百万计的图像及其相应的文本描述。当文本和图像嵌入在这些图像/标题对进行联合训练或微调时,它们会学习视觉和文本信息之间的关联。这就是深度学习技术背后的思想,例如对比图像语言预训练(CLIP)。
对比图像语言预训练(CLIP)模型学习文本和图像的联合嵌入
现在,我们有了可以将文本转换为视觉嵌入的工具。当我们为这个联合模型提供文本描述时,它会生成文本嵌入和相应的图像嵌入。然后,我们可以将图像嵌入与数据库中的图像进行比较,并检索与之最相关的图像。这就是人工智能图像搜索的基本原理
这种机制的美妙之处在于,用户将能够基于图像视觉特征的文本描述检索图像,即使这一描述没有在其元数据中注册。你可以使用丰富的搜索词,这在以前是不可能实现的,例如“郁郁葱葱的森林笼罩着晨雾,灿烂的阳光透过高大的松林,草地上生长着一些蘑菇。”
在上面的例子中,人工智能搜索返回了一组图像,其视觉特征与这个查询相匹配。其中很多的文字描述都没有包含查询的关键词。但它们的嵌入与查询的嵌入相似。如果没有人工智能图像搜索,要找到合适的图像就会困难得多。
有时,人们寻找的图像并不存在,甚至通过人工智能搜索也无法找到它。在这种情况下,生成式人工智能可以通过两种方式之一帮助用户实现预期的结果。
首先,我们可以根据用户的查询从头开始创建一个新的图像。这种方法涉及到使用文本到图像生成模型(例如Stable Diffusion或DALL-E),为用户的查询创建一个嵌入,并利用该嵌入生成图像。生成模型会利用对比图像语言预训练(CLIP)等联合嵌入模型和其他架构(例如Transformer或扩散模型),将嵌入的数值转换为令人惊叹的图像
DALL-E使用对比图像语言预训练(CLIP)和扩散从文本生成图像
第二种方法是利用现有的图像,并根据个人喜好使用生成模型进行编辑。例如,在一张展示松林的图片中,草地上缺少了蘑菇。用户可以选择一张合适的图像作为起点,并通过生成模型将蘑菇添加进去
生成式人工智能创造了一个全新的范例,模糊了发现和创造力之间的界限。而在单一界面中,用户可以查找图像、编辑图像或创建全新的图像。
原文标题:How generative AI is redefining image search,作者:Ben Dickson
以上是生成式人工智能如何重新定义图像搜索的详细内容。更多信息请关注PHP中文网其他相关文章!