加速主义者的愿景:全速前进
有效的加速主义,即短期内被称为E/ACC,大约在2022年左右作为技术优先主义运动,在硅谷及其他地区获得了巨大的吸引力,其核心是E/ACC提倡的快速,不受限制的技术进步。
是什么加速加速主义者?
如果您曾经听说过有人说“进步是不可避免的”或“监管只是减慢了创新”,那么您会听到E/ACC思维的回声。这种哲学基于几种关键信念:
作为命运的技术:E/ACC支持者将技术进步视为不可阻挡的力量 - 例如重力 - 不应阻碍。他们认为试图减慢发展的尝试不仅徒劳无功,而且可能有害。
市场最了解:他们拥护自由市场的创新,将法规视为高速公路进步的速度。
E/ACC认为,通过创新丰富:而不是重新分配现有资源,而是认为创建强大的新技术将为每个人带来前所未有的丰富。
机会,而不是风险:在其他人看到高级AI的危险的地方,E/ACC看到了人类最大的机会,这是解决我们最大的问题并超越当前局限性的机会。
科技投资者马克·安德森(Marc Andreessen)在他的“技术优先宣言”中宣称:“我们相信技术是我们创造更好的未来,丰富的未来,一个奇迹的未来,一个充分实现人类潜力的未来的方式。”
亲社会视野:人类价值观首先
对比的是P Rosocial AI ,这是一个将人类和行星福利置于技术发展中心的框架。根据定义,亲社会AI系统是“量身定制,训练,测试和针对性的,可以为人物和星球带来最好的选择。”他们的实施是我们所属于的人类,我们所属的社区,我们所属于的国家以及我们所依赖的星球的双赢。
是什么使AI真正亲社会?
想象一下,如果我们正在构建的AI系统的设计不仅是为了聪明,而且是明智的,可以反映我们的最高价值,而不仅仅是我们的技术能力。亲社会AI通过几个核心原则体现了这一野心:
人类代理事务:亲社会AI始于人类代理 - 我们做出有意义的技术选择的能力。这种方法重视意识(了解正在发生的事情),欣赏(认识不同的观点),接受(在努力改善时承认现实)和问责制(对结果负责)。
我们塑造我们的工具。然后他们塑造了我们:这一简单的真理可能总结了亲社会方法中最深刻的见解:“我们不能指望明天的技术比今天的人类更好。”换句话说,AI将反映我们的价值观 - 无论好坏。
进行演讲:亲社会的AI要求“双重对齐” - 我们所说的我们珍视与实际行为的和谐,以及我们的人类愿望与我们创造的算法之间的和谐。您不能在没有自己练习的情况下将同情心编程为AI。
速度前的安全:亲社会的拥护者优先考虑彻底的测试和鲁棒的安全机制,而不是赶上强大的AI系统上市。
餐桌上的每个人:无社会AI并没有让一小部分技术人员或投资者做出影响数十亿美元的决定,而是支持具有多种声音的包容性治理。
人类行星意识的设计:在此框架中,AI应该使人类和我们依赖的更广泛的生态系统受益。
这些愿景冲突的地方
这些相互竞争的框架为AI开发提供了根本不同的方法:
谁在驾驶员座位上?
E/ACC倾向于将技术视为具有自己动力的自主力量 - 几乎就像人类应该有助于促进而不是直接的现象一样。相比之下,亲社会AI强调人类对我们创造的技术仍然负责。正如我们不会责怪锤子的使用方式一样,我们不能将道德责任委托给AI系统。古老的俗话“垃圾,垃圾”仍然持有。它可以颠倒为 - 值,值。 Gigo与Vivo。这种转变需要人类的选择。
权衡风险
这些方法之间的风险计算截然不同。 E/ACC支持者经常认为,最大的危险在于发展太慢 - 可能失去经济优势或缺少可能解决紧急问题的技术突破。
亲社会的拥护者反驳说,在没有足够的保障措施的情况下向前冲,可能会导致破坏隐私,扩大不平等甚至构成存在风险的系统。正如AI研究人员斯图尔特·罗素(Stuart Russell)所说:“一个对目标函数进行优化的系统,该目标函数无法完全捕获我们的价值会导致任意不良结果。”
道路规则
这些差异扩展到治理方法:
E/ACC剧本:最小的前期规则,让市场竞争推动创新并在出现后解决问题。
亲社会剧本:在部署前建立的周到的护栏,并进行了包括各种利益相关者的监督。
人类元素:技术缺失的作品
使亲社会方法特别独特的原因是它认识到仅技术解决方案还不够。我们AI的质量最终将反映我们人类的质量。
这样考虑:您是否希望根据人们在X上的互动或我们对人类行为的最高愿望做出道德决定的AI系统?我们所说的我们珍视与我们经常行动之间的差距为AI开发带来了根本的挑战。
这种洞察力翻转了有关AI伦理的通常对话。而不是问:“我们如何使AI与人类价值观保持一致?”我们必须问:“我们如何使自己的行为与声称拥有的价值观保持一致?”它表明,开发有益的AI需要更好的算法和更好的人类 - 那些始终如一地展示他们希望看到的智慧,同情和责任的人,他们希望看到他们的技术创造。
寻找共同点
尽管它们有所不同,但这些框架具有一些重要的领域:
技术的变革力量:两者都承认AI的前所未有的重塑社会的潜力。
卓越技术:价值创新和尖端功能。
人类蓬勃发展:两者都声称要追求有利于人类的技术发展,即使他们以不同的方式定义了这一发展。
这对我们的AI未来意味着什么
这些方法之间的张力在今天做出的实际决定中发挥了作用:
公司优先事项:科技公司在最大化开发速度和对安全研究的投资之间进行选择。
人才决策:工程师和研究人员正在决定在哪里集中精力 - 突破界限或确保有益的结果。
政策选择:立法者正在确定是优先考虑创新激励措施还是保护性护栏。
教育重点:大学和培训计划平衡技术技能与道德理解。黄金路径是对双重扫盲的投资,以利用对自然和人工智能的整体理解。
前进的路
有效的加速度和亲社会AI之间的辩论不仅是学术,而且在我们开发越来越强大的技术时,它代表了道路上的叉子。最有前途的道路可能从这两个角度融合了见解:保持技术动态,同时确保这一进步真正地为人类和行星福利服务。
越来越清楚的是,技术发展不能与人类发展分开。随着我们构建越来越强大的工具,我们必须同时培养将这些工具引导到有益目的所需的智慧,价值和责任。
明天AI的质量最终将反映当今人类的质量。伦理不是抽象的意图,而是一种野心,在我们浏览未经宪章的领土时,具有真实而紧迫的含义。人类必须设计混合的未来 - 对于具有人道视野的人类。有效的加速度和亲社会AI之间的张力提醒我们,最重要的一致性问题可能是我们内部的一个问题。这不是对人类深处的技术挑战。
以上是有效的加速主义或亲社会AI。 AI的未来是什么?的详细内容。更多信息请关注PHP中文网其他相关文章!

利用“设备” AI的力量:建立个人聊天机器人CLI 在最近的过去,个人AI助手的概念似乎是科幻小说。 想象一下科技爱好者亚历克斯(Alex)梦见一个聪明的本地AI同伴 - 不依赖

他们的首届AI4MH发射于2025年4月15日举行,著名的精神科医生兼神经科学家汤姆·因斯尔(Tom Insel)博士曾担任开幕式演讲者。 Insel博士因其在心理健康研究和技术方面的杰出工作而闻名

恩格伯特说:“我们要确保WNBA仍然是每个人,球员,粉丝和公司合作伙伴,感到安全,重视和授权的空间。” anno

介绍 Python擅长使用编程语言,尤其是在数据科学和生成AI中。 在处理大型数据集时,有效的数据操作(存储,管理和访问)至关重要。 我们以前涵盖了数字和ST

潜水之前,一个重要的警告:AI性能是非确定性的,并且特定于高度用法。简而言之,您的里程可能会有所不同。不要将此文章(或任何其他)文章作为最后一句话 - 目的是在您自己的情况下测试这些模型

建立杰出的AI/ML投资组合:初学者和专业人士指南 创建引人注目的投资组合对于确保在人工智能(AI)和机器学习(ML)中的角色至关重要。 本指南为建立投资组合提供了建议

结果?倦怠,效率低下以及检测和作用之间的差距扩大。这一切都不应该令任何从事网络安全工作的人感到震惊。 不过,代理AI的承诺已成为一个潜在的转折点。这个新课

直接影响与长期伙伴关系? 两周前,Openai提出了强大的短期优惠,在2025年5月底之前授予美国和加拿大大学生免费访问Chatgpt Plus。此工具包括GPT-4O,A A A A A


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

DVWA
Damn Vulnerable Web App (DVWA) 是一个PHP/MySQL的Web应用程序,非常容易受到攻击。它的主要目标是成为安全专业人员在合法环境中测试自己的技能和工具的辅助工具,帮助Web开发人员更好地理解保护Web应用程序的过程,并帮助教师/学生在课堂环境中教授/学习Web应用程序安全。DVWA的目标是通过简单直接的界面练习一些最常见的Web漏洞,难度各不相同。请注意,该软件中

PhpStorm Mac 版本
最新(2018.2.1 )专业的PHP集成开发工具

SublimeText3 英文版
推荐:为Win版本,支持代码提示!

SecLists
SecLists是最终安全测试人员的伙伴。它是一个包含各种类型列表的集合,这些列表在安全评估过程中经常使用,都在一个地方。SecLists通过方便地提供安全测试人员可能需要的所有列表,帮助提高安全测试的效率和生产力。列表类型包括用户名、密码、URL、模糊测试有效载荷、敏感数据模式、Web shell等等。测试人员只需将此存储库拉到新的测试机上,他就可以访问到所需的每种类型的列表。

ZendStudio 13.5.1 Mac
功能强大的PHP集成开发环境