찾다
기술 주변기기일체 포함Li Feifei는 개인적으로 기사를 썼고 수십 명의 과학자들이 캘리포니아의 AI 제한 법안에 반대하는 공동 서한에 서명했습니다.

AI真的已经危险到要如此监管的地步了吗? 


在创新的热土硅谷,李飞飞、吴恩达等 AI 科学家正在与监管部门展开一场关于安全与创新的拉锯战。
Li Feifei는 개인적으로 기사를 썼고 수십 명의 과학자들이 캘리포니아의 AI 제한 법안에 반대하는 공동 서한에 서명했습니다.
Li Feifei는 개인적으로 기사를 썼고 수십 명의 과학자들이 캘리포니아의 AI 제한 법안에 반대하는 공동 서한에 서명했습니다.
这场拉锯战的核心是一个名叫 SB-1047 的法案。该法案的全称是「Safe and Secure Innovation for Frontier Artificial Intelligence Act(《前沿人工智能模型安全创新法案》)」,试图为高风险的 AI 模型建立明确的安全标准,以防止其被滥用或引发灾难性后果。 

该法案于今年 2 月份在参议院被提出,随后引起了很大的争议。很多科学家认为,法案的条款过于不合理,将对科技创新造成毁灭性的影响。
Li Feifei는 개인적으로 기사를 썼고 수십 명의 과학자들이 캘리포니아의 AI 제한 법안에 반대하는 공동 서한에 서명했습니다.
法案链接:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047

具体来说,该法案旨在从模型层面对人工智能进行监管,适用于在特定计算和成本阈值之上训练的模型。

模型覆盖范围如下:

1、使用超过 10^26 次整数或浮点运算的计算能力进行训练的人工智能模型,其成本超过一亿美元(100,000,000 美元),该成本是根据开发者合理评估的训练开始时云计算的平均市场价格计算得出的。

2、利用等于或大于 10^25 次整数或浮点运算三倍的计算能力,对范围内的模型进行微调而创建的人工智能模型。

这一范围基本覆盖了现在市面上所有主流的大型模型。如果法案通过,这些模型都将被定义为存在「潜在危险」或需要额外监督。

法案还要求模型开发者对其模型的下游使用或修改承担法律责任。在训练开始之前,开发人员需要证明他们的模型不会启用或提供「危险功能」,并实施一系列保护措施来防止此类使用。这将阻碍开源社区的发展。

监督新法律执行的将是一个「前沿模型部门(frontier model division)」,这是一个新成立的监督和监管机构。该机构将制定安全标准并就人工智能法律提供建议,向该机构歪曲模型的功能可能会使开发人员因伪证而入狱。

法案中还加入了吹哨人保护条款,保护和鼓励 AI 开发实体内部的举报者,确保员工可以在不受报复的情况下报告企业的不合规情况。 

如果法案获得通过,州长 Gavin Newsom 的一个签名就可以将其纳入加州法律。a16z 普通合伙人 Anjney Midha 表示,如果这项法案在加州获得通过,将为其他州树立先例,并在美国国内外产生连锁反应 —— 本质上对创新状况带来巨大的蝴蝶效应。

在太平洋夏令时间 8 月 7 日早晨,相关部门将举行关于该法案的听证会。留给科学家们的抗议时间已经不多了。因此,李飞飞亲自撰文,陈明法案利害。还有些科学家正在签署一封联名信,以阻止法案通过。
Li Feifei는 개인적으로 기사를 썼고 수십 명의 과학자들이 캘리포니아의 AI 제한 법안에 반대하는 공동 서한에 서명했습니다.
                               李飞飞的文章发表在《财富》(Fortune)网站上。

李飞飞撰文抨击 SB-1047

李飞飞在文章中表示:「加州的 SB-1047 将产生重大而意想不到的后果。如果通过成为法律,SB-1047 将损害正在萌芽的人工智能生态系统。SB-1047 将不必要地惩罚开发人员,扼杀开源社区,并阻碍人工智能学术研究,同时无法解决其旨在解决的真正问题。」

她写道:

首先,SB-1047 将过度惩罚开发者并扼杀创新。如果人工智能模型被滥用,SB-1047 要求责任方和该模型的原始开发者承担责任。每个人工智能开发人员(尤其是崭露头角的程序员和企业家)不可能预测到其模型的每种可能用途。SB-1047 将迫使开发人员退步并采取防御行动 —— 这正是我们试图避免的。 

其次,SB-1047 将束缚开源开发。SB-1047 要求所有超过特定阈值的模型都包含「终止开关」,这是一种可以随时关闭程序的机制。如果开发人员担心他们下载和构建的程序会被删除,他们在编写代码和协作方面就会更加犹豫。这个终止开关将摧毁开源社区,这是无数创新的源泉。其影响不限于人工智能领域,而是在从 GPS 到 MRI 到互联网本身的各个领域。

第三,SB-1047 将削弱公共部门和学术人工智能研究。开源开发对于私营部门很重要,但对于学术界也至关重要。如果没有协作和对模型数据的访问,学术界就无法进步。如果我们的机构无法获得适当的模型和数据,我们将如何培训下一代人工智能领导者?终止开关甚至会进一步削弱学生和研究人员的努力,与大型科技公司相比,他们在数据和计算方面已经处于劣势。当我们应该加倍加大公共部门人工智能投资时,SB-1047 将为学术人工智能敲响丧钟。

最令人担忧的是,该法案并未解决人工智能进步的潜在危害,包括偏见和深度伪造(deepfake)等等。相反,SB-1047 设置了一个任意阈值,调节使用一定计算能力或花费 1 亿美元训练的模型。这项措施远非提供保障,只会限制包括学术界在内的跨部门创新。如今,学术人工智能模型低于这一门槛,但如果我们要重新平衡私营和公共部门人工智能的投资,学术界将受到 SB-1047 的监管。我们的人工智能生态系统将会因此而变得更糟。

SB-1047 的限制过于武断,我们必须采取相反的做法。

我并不反对人工智能治理。立法对于人工智能的安全有效发展至关重要。但人工智能政策必须赋能开源开发,提出统一且合理的规则,并建立消费者信心。SB-1047 未达到这些标准。

数十位科学家联名反对

针对 SB-1047,除了李飞飞,由加州大学 7 个校区的师生以及来自其他 20 多个机构的研究人员组成的团体也在积极行动。他们共同起草并签署了一封反对 SB-1047 的公开信,从研究者的角度出发,陈述该法案对加州人工智能研究和教育目标的损害。
Li Feifei는 개인적으로 기사를 썼고 수십 명의 과학자들이 캘리포니아의 AI 제한 법안에 반대하는 공동 서한에 서명했습니다.
联名信从以下几方面展开论述 SB-1047 的不合理性:

1、法案会给开源模型的发布带来「寒蝉效应」,从而损害研究

法案中要求对「前沿模型」进行「安全审核」和具备「完全关闭」能力,可能会严重阻碍开源和开放权重模型的发布。这些严格的规定对于私有实体控制的专有模型来说可能更易于实现,而对于非营利组织或大学联盟使用的开放模型则较为困难。法案中关于安全展示和审核的条款表述不够具体,依赖于可能尚未存在且可能缺乏科学严谨性的测试。这种审计的潜在成本对于有盈利产品的商业实体来说可能容易承担,但对于像 Meta 的 LLaMA 系列这样的商业实体的科学性开放发布,或是由非营利组织或大学联盟训练的开放模型,情况可能并非如此。

由于这些繁琐的限制,开源模型的开发者可能选择在加州或美国之外构建系统,并在避免责任的前提下发布其模型。在这种情况下,不顾合规的私人行为者可能会秘密使用这些模型,而受到公共工作性质约束的学术研究人员将被排除在外,这促使他们更改研究主题或转移到不侵犯其学术自由的司法管辖区。开源模型的可获取性对于现代学术 AI 研究至关重要,因为它们使学术界能够探索模型的工作原理、训练过程中的能力提升以及如何进行改进和破解。 

2、人工智能风险预测与「能力」评估存在不科学性

作为人工智能、机器学习和自然语言处理领域的专家,这些研究者强调:SB-1047 中提到的评估模型风险的建议方法非常值得怀疑。科学界就语言模型或其他前沿人工智能系统是否以及如何对公众构成威胁尚未达成共识。

3、对开源模型的保护不足

 尽管法案提到未来可能对开源模型提供特例,但由于参数数量的快速增长和计算成本的降低,现有的保护措施可能难以持续。在没有强有力的保护措施的情况下,这些模型面临的后果可能很快就会显现。此外,性能相当的小型模型相比大型模型需要更高的计算成本。因此,法案中的修正案预计无法缓解对开源模型发布的负面影响,而严格的报告和审核要求还将不必要地影响研究活动。

4、对学生的就业安置和职业成果的担忧

SB-1047 未来可能会阻碍对人工智能感兴趣的学生进一步学习相关知识,甚至可能会阻止新人才进入计算机科学等关键领域。此外,随着科技行业从大公司向初创公司的转变,额外的监管障碍可能会通过支持更大、更好的企业来削弱新兴创新者。这种转变可能会缩窄学生的职业道路。
Li Feifei는 개인적으로 기사를 썼고 수십 명의 과학자들이 캘리포니아의 AI 제한 법안에 반대하는 공동 서한에 서명했습니다.
                                                         联名信部分学者签名。

除了公开信,还有一些研究者选择在社交媒体发声。其中,一位系统生物学家指出,SB-1047 就像在我们还不知道病原体是什么、何时会感染我们以及感染会发生在哪里之前就激活了炎症反应。
Li Feifei는 개인적으로 기사를 썼고 수십 명의 과학자들이 캘리포니아의 AI 제한 법안에 반대하는 공동 서한에 서명했습니다.
此前,吴恩达也多次就此事发声。他认为,监管机构应该监管应用而不是技术。例如,电动机就是一项技术。믹서기, 전기 자동차, 투석기 또는 유도 폭탄에 넣으면 애플리케이션이 됩니다. 누구든지 모터를 유해한 방식으로 사용한 경우 법률이 모터 제조업체에 책임을 묻는다고 상상해 보십시오. 해당 모터 제조업체는 생산을 중단하거나 모터를 너무 작게 만들어 대부분의 응용 분야에 쓸모가 없게 만듭니다. 우리가 이와 같은 법을 통과시키면 사람들이 폭탄을 만드는 것을 막을 수 있지만 믹서기, 전기 자동차, 투석 기계도 잃게 될 것입니다. 대신 특정 앱에 집중하면 위험을 더 합리적으로 평가하고 안전하게 유지하는 방법을 판단하거나 특정 유형의 앱을 금지할 수도 있습니다.
Li Feifei는 개인적으로 기사를 썼고 수십 명의 과학자들이 캘리포니아의 AI 제한 법안에 반대하는 공동 서한에 서명했습니다.
AI는 그러한 규제를 정당화할 만큼 정말 위험한가요? 그거에 대해서 어떻게 생각해?

참조링크: https://a16z.com/sb-1047-what-you-need-to-know-with-anjney-midha/
https://drive. google.com/file/d/1E2yDGXryPhhlwS4OdkzMpNeaG5r6_Jxa/view
https://fortune.com/2024/08/06/godmother-of-ai-says-californias-ai-bill-will-harm-us -생태계-기술-정치/?abc123

위 내용은 Li Feifei는 개인적으로 기사를 썼고 수십 명의 과학자들이 캘리포니아의 AI 제한 법안에 반대하는 공동 서한에 서명했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
LLM에서 도구 호출LLM에서 도구 호출Apr 14, 2025 am 11:28 AM

대형 언어 모델 (LLM)은 인기가 높아졌으며, 도구 전달 기능은 단순한 텍스트 생성을 넘어 기능을 극적으로 확장했습니다. 이제 LLM은 동적 UI 생성 및 자율적 인 A와 같은 복잡한 자동화 작업을 처리 할 수 ​​있습니다.

ADHD 게임, 건강 도구 및 AI 챗봇이 글로벌 건강을 변화시키는 방법ADHD 게임, 건강 도구 및 AI 챗봇이 글로벌 건강을 변화시키는 방법Apr 14, 2025 am 11:27 AM

비디오 게임이 불안을 완화하거나 집중하거나 ADHD를 가진 어린이를 지원할 수 있습니까? 건강 관리 도전이 전 세계적으로 급증함에 따라, 특히 청소년들 사이에서 혁신가들은 비디오 게임 인 가능성이없는 도구로 전환하고 있습니다. 이제 세계 최대의 엔터테인먼트 인더스 중 하나입니다

AI에 대한 UN 입력 : 우승자, 패자 및 기회AI에 대한 UN 입력 : 우승자, 패자 및 기회Apr 14, 2025 am 11:25 AM

UNCTAD의 사무 총장 인 Rebeca Grynspan은“역사는 기술 진보가 경제 성장을 유발하거나 공평한 소득 분배를 보장하거나 포용적인 인간 발전을 촉진하지는 않습니다.

생성 AI를 통한 협상 기술 ​​학습생성 AI를 통한 협상 기술 ​​학습Apr 14, 2025 am 11:23 AM

쉽게 생성 AI를 협상 교사 및 스파링 파트너로 사용하십시오. 그것에 대해 이야기합시다. 혁신적인 AI 혁신에 대한이 분석은 AI의 최신 Forbes 열 범위의 일부입니다.

Ted는 Openai, Google, 메타가 법정으로 공개됩니다.Ted는 Openai, Google, 메타가 법정으로 공개됩니다.Apr 14, 2025 am 11:22 AM

밴쿠버에서 개최 된 TED2025 컨퍼런스는 어제 4 월 11 일 36 번째 판을 마무리했습니다. Sam Altman, Eric Schmidt 및 Palmer Luckey를 포함한 60 개 이상의 국가에서 80 명의 스피커를 선보였습니다. 테드의 주제 인“인류를 다시 상상했다”는 재단사가 만들어졌다

Joseph Stiglitz는 AI 독점권 속에서 임시 불평등을 경고합니다.Joseph Stiglitz는 AI 독점권 속에서 임시 불평등을 경고합니다.Apr 14, 2025 am 11:21 AM

Joseph Stiglitz는 2001 년에 유명한 경제학자이자 노벨 경제학상을 수상했습니다. Stiglitz는 AI가 기존의 불평등과 통합 된 권력을 몇몇 지배적 인 기업의 손에 악화시킬 수 있으며 궁극적으로 경제를 훼손 할 수 있다고 주장합니다.

그래프 데이터베이스 란 무엇입니까?그래프 데이터베이스 란 무엇입니까?Apr 14, 2025 am 11:19 AM

그래프 데이터베이스 : 관계를 통한 데이터 관리 혁명 데이터가 확장되고 그 특성이 다양한 필드에서 발전함에 따라 그래프 데이터베이스는 상호 연결된 데이터를 관리하기위한 변환 솔루션으로 떠오르고 있습니다. 전통적인 것과는 달리

LLM 라우팅 : 전략, 기술 및 파이썬 구현LLM 라우팅 : 전략, 기술 및 파이썬 구현Apr 14, 2025 am 11:14 AM

대형 언어 모델 (LLM) 라우팅 : 지능형 작업 분포를 통한 성능 최적화 LLM의 빠르게 진화하는 환경은 각각 독특한 강점과 약점을 가진 다양한 모델을 제시합니다. 일부는 Creative Content Gen에서 탁월합니다

See all articles

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
4 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
4 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
4 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
WWE 2K25 : Myrise에서 모든 것을 잠금 해제하는 방법
1 몇 달 전By尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

SecList

SecList

SecLists는 최고의 보안 테스터의 동반자입니다. 보안 평가 시 자주 사용되는 다양한 유형의 목록을 한 곳에 모아 놓은 것입니다. SecLists는 보안 테스터에게 필요할 수 있는 모든 목록을 편리하게 제공하여 보안 테스트를 더욱 효율적이고 생산적으로 만드는 데 도움이 됩니다. 목록 유형에는 사용자 이름, 비밀번호, URL, 퍼징 페이로드, 민감한 데이터 패턴, 웹 셸 등이 포함됩니다. 테스터는 이 저장소를 새로운 테스트 시스템으로 간단히 가져올 수 있으며 필요한 모든 유형의 목록에 액세스할 수 있습니다.

Dreamweaver Mac版

Dreamweaver Mac版

시각적 웹 개발 도구

PhpStorm 맥 버전

PhpStorm 맥 버전

최신(2018.2.1) 전문 PHP 통합 개발 도구