首页 >web3.0 >研究人员对大型语言模型 (LLM) 中的意识形态偏见表示担忧

研究人员对大型语言模型 (LLM) 中的意识形态偏见表示担忧

DDD
DDD原创
2024-10-29 04:00:10340浏览

这些模型广泛用于摘要和问答等任务,反映了其创建者的世界观。根特大学的一项新研究表明,法学硕士如何根据语言、地区和培训数据拥有不同的意识形态立场。

研究人员对大型语言模型 (LLM) 中的意识形态偏见表示担忧

大型语言模型 (LLM) 是强大的工具,可用于从总结文本到回答问题等各种任务。然而,根特大学最近的一项研究表明,法学硕士也可能存在偏见,反映了其创建者的意识形态世界观。

该研究考察了英语和汉语法学硕士回答中的意识形态差异。研究人员要求模型描述历史人物,然后分析每个回答中的道德判断。他们发现法学硕士根据语言和地理培训的不同做出了不同的反应。这在西方和非西方法学硕士如何处理全球冲突和政治人物的描述中显而易见。

Tether 首席执行官 Paolo Ardoino 在最近的一篇文章中提出了对此问题的担忧。他强调了用户对人工智能模型的控制的重要性,并对大型科技公司的影响力表示警惕,他说这些影响力可能会被用来塑造公众的思想。

在卢加诺 Plan B 活动中,Ardoinoを绍介绍了 Tether 的本地 AI 开发套件作为解决方案。该套件注重隐私,利用点对点 (P2P) 技术为大型技术控制的人工智能模型提供替代方案。

我们需要控制我们执行和依赖的模型。

不要让科技巨头强迫和控制我们的思想。

解决方案 https://t.co/1MyRIUXwit

Tether AI SDK 具有高度模块化和适应性,允许开发人员在各种设备上使用它,从廉价手机到高级计算机。该开源套件支持不同的模型,例如 Marian 和 LLaMA,并允许用户以 P2P 结构存储数据以增强隐私。这种去中心化的方法提供了执行人工智能应用程序的本地和私有方法。

根特大学的研究还发现法学硕士处理历史和政治事件的方式存在差异。西方模型在描述中倾向于与西方意识形态保持一致,而非西方模型则以不同的方式处理这些主题,凸显了叙事视角的分歧。这些发现强调了构建“中立”人工智能系统的挑战。

Ardoino 的去中心化人工智能平台倡议符合科技行业追求更大隐私的更广泛趋势。随着 Tether 的本地人工智能套件正在接受测试,它展示了一种由用户控制的模块化人工智能的新兴途径。这种方法可能会解决隐私问题并减少对人工智能需求的大型技术的依赖。

本文本质上是教育性和信息性的。它不构成财务建议或任何类型的建议。 Coin Edition 对因使用所提及的内容、产品或服务而造成的任何损失不承担任何责任。在做出任何财务或其他决定之前,请咨询有执照的专业人士。

以上是研究人员对大型语言模型 (LLM) 中的意识形态偏见表示担忧的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn