Nvidia的开创性Llama-Mesh模型弥合了文本和3D网格生成之间的差距。 这种创新模型允许用户从简单的文本描述中创建3D网格,并相反,从其3D网格数据中识别对象。这代表了机器学习的重大飞跃,通过增强3D空间理解,使我们更接近实现人工通用智能(AGI)。 专业人士和业余爱好者都会发现骆驼 - 网格是一项宝贵的资产,简化了诸如Blender之类的应用程序中的3D建模工作流程。
。
本指南通过实践示例探讨了骆驼 - 网格的能力,既强调其潜力和局限性。 >什么是Llama-mesh?
由NVIDIA开发的
>访问Llama-Mesh
llama-mesh可以通过三种方式访问:
>
本地执行(拥抱面):设置Llama-mesh
以及使用标准的拥抱面部工作流进行推理。 下面的代码片段说明了该过程:
默认的超参数用于与在线演示的公平比较。pad_token
> llama-mesh示例
from transformers import AutoModelForCausalLM, AutoTokenizer model_path = "Zhengyi/LLaMA-Mesh" tokenizer = AutoTokenizer.from_pretrained(model_path) model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto").cuda() if tokenizer.pad_token_id is None: tokenizer.pad_token_id = tokenizer.eos_token_id prompt = "Create a 3D model of an original designer chair." inputs = tokenizer(prompt, return_tensors="pt", padding=True) input_ids = inputs.input_ids.cuda() output = model.generate( input_ids, attention_mask=inputs['attention_mask'], max_length=8000, )
>增加复杂性的三个示例说明了Llama-Mesh的表现:
>>示例1:椅子:
>
>>示例2:一个圆环:该模型即使有增加的上下文也很难准确地表示圆环的中心孔。
>示例3:klein瓶:
以上是NVIDIA的LLAMA-MESH:带有示例的指南的详细内容。更多信息请关注PHP中文网其他相关文章!