>  기사  >  기술 주변기기  >  Stanford HAI, 최신 백서 발표: 미국은 2년 동안 AI 국가 전략에서 느린 진전을 보이고 있습니다.

Stanford HAI, 최신 백서 발표: 미국은 2년 동안 AI 국가 전략에서 느린 진전을 보이고 있습니다.

WBOY
WBOY앞으로
2023-04-20 15:55:091199검색

최근 스탠포드 HAI 연구소와 스탠포드 규제평가거버넌스연구소는 미국 내 인공지능 발전 상황을 체계적으로 평가한 '미국 인공지능 전략의 세 가지 기둥 구현 과제' 백서를 공동으로 발표했습니다.

백서는 주로 AI 혁신과 신뢰할 수 있는 AI의 세 가지 기둥에 중점을 둡니다.

1 2020년 정부법

2.

3. "정부의 인공 지능"에 대한 행정 명령.

전반적으로 이러한 행정 명령과 정부 내 인공 지능법은 단순히 "향후 10년 동안 전 세계에 대한 경쟁 우위"인 인공 지능에 대한 미국의 국가 전략을 보장하는 데 중요합니다.

200개 이상의 연방 기관에서 각 요구 사항의 구현 상태를 종합적으로 조사한 결과 저자는 미국이 인공 지능 혁신에 많은 진전을 이루었음에도 불구하고 몇 가지 문제에 직면해 있음을 발견했습니다.

  • Less 모든 요구 사항 중 40% 이상이 구현되고 있음을 공개적으로 확인할 수 있습니다.
  • 조사 대상 기관의 88%가 AI 관련 규제 기관을 식별하는 AI 계획을 제공하지 못했습니다.
  • 약 절반 이상의 기관이 정부 명령의 인공 지능에서 요구하는 AI 사용 사례 목록을 제출하지 않았습니다.

Stanford HAI, 최신 백서 발표: 미국은 2년 동안 AI 국가 전략에서 느린 진전을 보이고 있습니다.

요약

인공지능(AI)의 변화 가능성은 부인할 수 없는 사실입니다.

국가들은 '4차 산업혁명' 또는 '3차 디지털 혁명'을 활용하기 위해 공공 및 민간 부문을 재편하고 연구 개발(R&D)에 자금을 지원하며 AI 혁신을 촉진하기 위한 인프라 구축에 우선순위를 두고 있습니다. 구조와 정책.

미국에서는 백악관과 의회가 R&D에 대한 투자를 늘리고, 국가 AI 연구 자원을 통해 AI 관련 리소스에 대한 공평한 접근을 늘리는 메커니즘을 모색하고, 국가 인공 지능에 자금을 지원함으로써 AI 혁신과 신뢰할 수 있는 배포를 촉진하고 있습니다. CHIPS와 과학법을 통해 국내 반도체 제조와 '미래 산업'에 2,800억 달러를 지원하는 인텔리전스 연구소(Intelligence Institute)는 백악관 국가인공지능이니셔티브(National Artificial Intelligence Initiative)실에서 AI 정책을 조정합니다.

1. 인공 지능을 위한 국가 전략: 행정 명령 및 입법

인공 지능 리더십 명령은 미국 전체 부문에서 기술 혁신을 추진하는 반면, 나머지 두 가지 노력은 연방 정부의 AI 사용에 중점을 둡니다.

행정 명령 13859

인공 지능 리더십 명령(Artificial Intelligence Leadership Order)은 "미국의 번영을 증대하고, 미국의 국가 및 경제 안보를 강화하며, 구체적으로는 AI 연구개발, AI 관련 데이터 및 자원, 규제 지침 및 기술 표준, AI 인력, 인공지능에 대한 대중의 이해를 강조해 연방 차원의 노력을 가속화하고자 한다. 정보 및 국제 참여에 대한 신뢰를 포함한 장기적인 접근 방식은 AI 분야에서 미국의 리더십에 필요한 인프라, 정책 기반 및 인재를 구축합니다.

또한 "조정된 연방 정부 전략"이 필요하며 AI는 "거의 모든 행정부 및 기관의 임무에 영향을 미칠 것입니다." AI 리더십 명령은 기관이 "홍보 및 인공 지능 분야에서 미국의 진보를 보호합니다."

Stanford HAI, 최신 백서 발표: 미국은 2년 동안 AI 국가 전략에서 느린 진전을 보이고 있습니다.행정명령 13960

정부 명령의 인공 지능은 연방 기관에 "정부 운영 개선을 위한 인공 지능의 잠재력"을 활용하도록 지시합니다. “AI의 지속적인 채택과 수용은 대중의 신뢰에 크게 좌우된다”는 점을 인식한 AI 정부 명령은 AI를 설계, 개발, 획득 및 사용할 때 연방 기관이 구현해야 하는 9가지 원칙을 명시합니다.

이러한 원칙은 인공 지능이 (a) 합법적이고, (b) 성능 중심이고, (c) 정확하고 신뢰할 수 있으며 효과적이며, (d) 안전하고 신뢰할 수 있으며 복원력이 있고, (e) 이해할 수 있어야 하며, (f) ) 책임 있고 추적 가능하며, (g) 정기적으로 모니터링되고, (h) 투명하며, (i) 책임이 있습니다.

Stanford HAI, 최신 백서 발표: 미국은 2년 동안 AI 국가 전략에서 느린 진전을 보이고 있습니다.

2020년 정부법 인공지능

이 법은 “연방 기관에 자원과 지침을 제공함으로써 연방 정부 전반에 걸쳐 인공 지능의 사용이 효과적이고 윤리적임을 보장”하는 것을 추구합니다." 여기에는 AI 경력 시리즈 구축, 기관 사용, 조달, 편견 평가 및 AI 완화에 대한 공식적인 지침을 요구하고, 정부의 인공 지능 채택을 지원하기 위해 총무청(GSA) 내에 우수 센터를 설립하는 것이 포함됩니다.

Stanford HAI, 최신 백서 발표: 미국은 2년 동안 AI 국가 전략에서 느린 진전을 보이고 있습니다.

2. 전반적인 구현

저자는 두 가지 행정명령과 인공지능 정부법에서 각 부서의 조항의 구현을 연구했습니다.

위의 두 가지 행정 명령과 2020년 정부 인공 지능법에서 저자는 45개 요구 사항 중 11개, 즉 약 27%가 구현되었음을 확인했습니다.

그러나 요구사항 45개 중 7개(16%)가 기한 내에 구현되지 않았고, 나머지 26개(58%) 요구사항은 완전히 구현되었는지 여부를 확인할 수 없었습니다.

이미 구현된 요구사항 중 구체적인 구현 상태도 불확실합니다. 여기에는 AI R&D를 위해 데이터 및 소스 코드에 더 쉽게 접근할 수 있도록 하고, 새로운 AI 관련 교육 및 인력 개발 프로그램을 더 잘 활용하고 생성하며, 신뢰할 수 있는 AI를 더욱 구현하기 위해 기관의 완전한 참여를 보장하려는 노력이 포함됩니다.

Stanford HAI, 최신 백서 발표: 미국은 2년 동안 AI 국가 전략에서 느린 진전을 보이고 있습니다.

정부법의 인공 지능의 4가지 기한 기반 요구 사항이 구현되지 않았습니다.

  • 인사 관리국(OPM)은 2021년 5월까지 의회에 설립 문서를 제출해야 합니다. Intelligence Career 시리즈;
  • OMB는 2021년 10월까지 차별적 영향이나 편견을 줄이기 위한 메모를 게시해야 합니다.
  • 기관은 2022년 4월까지 이에 맞는 메모를 공개해야 합니다.
  • OPM은 AI 경력을 창출해야 합니다. 2022년 7월까지 시리즈를 작성하고 각 연방 기관의 AI 관련 인력 수요를 추정합니다.

이행된 조치 중 상당수가 예정보다 늦어지고 있습니다. 예를 들어, 국가과학기술위원회(NSTC) 인공지능 특별위원회는 마감일로부터 16개월 후에 클라우드 컴퓨팅 기술 활용 개선에 관한 보고서를 대통령에게 제출했습니다.

3. 기관 AI 계획

위에서 언급했듯이 이러한 행정 명령과 법안의 중요한 초점은 시민의 자유, 개인 정보 보호, 미국의 자유, 가치와 미국 경제, 국가 안보.

따라서 이러한 법령은 "인공 지능의 혁신과 성장을 불필요하게 방해하는 규제 또는 비규제 조치를 피하기 위해" 인공 지능 규제의 적절한 역할을 검토하는 것을 강조합니다. 이 목표를 달성하려면 두 가지 요구 사항이 중요합니다.

1. 기관이 인공 지능을 규제하는 방법에 대한 지침을 제공하는 각서를 기관장에게 발행하도록 OMB에 요청합니다.

2. OMB가 제공하는 지침에 따라 "일관성을 달성"하기 위한 계획("기관 인공 지능 계획")을 개발하고 공개하도록 "규제 권한"이 있는 기관을 요구합니다.

2020년 11월 17일, OMB는 행정부처 및 기관장에게 인공 지능 응용 프로그램에 대한 규제 지침에 관한 각서(OMB M-21-06)를 발행하여 각 기관에 "혁신과 성장을 촉진하기 위한 규제 접근 방식"을 채택할 것을 촉구했습니다. " , 미국의 핵심 가치를 보호하면서 신뢰를 창출합니다."

Stanford HAI, 최신 백서 발표: 미국은 2년 동안 AI 국가 전략에서 느린 진전을 보이고 있습니다.

각서는 기관의 인공 지능에 대한 규제 및 비규제 접근 방식을 안내하기 위해 인공 지능 애플리케이션 관리에 대한 10가지 원칙을 설명하고, 규제가 부적절한 경우 비규제 접근 방식을 식별하며, 다양한 기관에서 취하는 조치를 권장합니다. AI 배포 및 사용에 대한 장벽을 낮추기 위한 기관입니다.

기관은 2021년 5월(인공지능 리더십 명령 준수 기한)까지 계획을 제출하고 기관 웹사이트에 계획을 공개적으로 게시해야 합니다.

현재 평가 대상 41개 기관 중 5개(13%)만 OMB AI 규정 각서에서 제공하는 템플릿을 사용하여 AI 계획을 게시했습니다. 이러한 기관에는 에너지부(DOE), 보건 복지부(HHS), 재향 군인회(VA), 환경 보호국(EPA) 및 미국 국제 개발처(USAID)가 있습니다.

나머지 36개 기관은 자체 인공지능 계획을 발표하지 않았습니다.

IV. AI 사용 사례 목록

정부 권한의 인공 지능은 연방 정부 내에서 신뢰할 수 있는 인공 지능의 개발, 채택 및 획득을 촉진하는 데 중점을 둡니다.

이를 위해 기관은 "인공 지능에 대한 비기밀 및 민감하지 않은 사용 사례 목록을 준비"하고 이를 연방 최고 정보 책임자 위원회(CIO 위원회), 기타 기관 및 공공의.

그러나 AI 활용 사례 목록을 공개하는 것은 항상 문제가 되었습니다.

이 요구 사항이 잠재적으로 적용되는 것으로 확인된 220개 기관 중 168개 기관은 AI 사용 사례에 대한 독립적인 인벤토리를 보유하지 않거나 모기관의 인벤토리에 AI 사용 사례를 포함하지 않습니다. 조사된 78개 모 기관 중 17개 기관만이 AI 사용 사례 목록을 발표했습니다.

즉, 전체 220개 상하위 기관 중 76%의 기관이 목록을 공개하지 않았고, 78%의 기관이 상위평가에서 목록을 공개하지 않았습니다.

또한 인공지능 활용 사례가 있는 것으로 알려진 49개 상하위 기관 중 47%의 기관이 인공지능 활용 사례 목록을 공개하지 않았습니다(23개 상하위 기관). 수준의 기관). 가장 좁은 기관 그룹인 모회사 수준에서 AI 사용 사례가 알려진 23개 대규모 기관 중에서 AI 인벤토리를 게시한 기관은 11개뿐입니다.

Stanford HAI, 최신 백서 발표: 미국은 2년 동안 AI 국가 전략에서 느린 진전을 보이고 있습니다.

목록 자체에는 구현 중에 직면한 문제가 반영되어 있습니다.

첫째, AI 사용 사례가 공개적으로 문서화되었음에도 기관에서는 AI 사용 사례를 공개하지 않습니다.

둘째, AI 사용 사례 체크리스트 구현에 있어 기관의 불일치는 아직 명확하지 않은 세 가지 핵심 사항을 지적합니다.

  • 응답 없음:

목록을 게시하지 않은 기관의 경우 인공 지능을 사용하지 않는다고 주장하는지 아니면 단순히 이 요구 사항을 충족하지 않는다고 주장하는지 확실하지 않습니다.

  • 기관 구조:

NIST 목록을 제외하고 게시된 모든 목록은 NOAA 또는 전력청 목록이 아닌 상위 기관 수준(예: 상무부 또는 에너지부)에서 게시됩니다. 그러나 목록에 나열되지 않은 하위 기관이 관련 사용 사례를 가지고 있지 않은지, 또는 상위 기관의 보고 요구 사항에 응답하지 않는지는 확실하지 않습니다.

  • AI의 정의:

FY 2019 NDAA에 제공되고 인공 지능에 관한 정부 지침에 통합된 인공 지능의 정의는 상당히 광범위할 가능성이 높으며, 이로 인해 기관이 인벤토리 목적으로 AI를 사용하기 어려울 수 있습니다. 특정 기술이 '인공지능'으로 분류되면 준수하기가 더 어렵다.

셋째, 대행사 목록에는 기존 투명성 이니셔티브가 포함되는 경우가 많지만 매우 다양합니다.

5. 요약

전반적으로 저자는 미국 인공지능 전략의 세 기둥인 인공지능 리더십 명령, 정부 인공지능 명령, 정부 인공지능법이 실제 운영에서는 이상적이지 않다고 생각한다.

현재 요구 사항은 많은 조직에서 "자금이 지원되지 않는 작업"으로 간주됩니다. 이에 대응하여 의회는 기관에 전략적 AI 계획을 개발하기 위해 직원을 배치하고 기술 전문 지식을 개발할 수 있는 자원을 제공해야 합니다.

적절한 자원을 제공하지 못하고 고위 인사에게 이러한 책임을 수행할 권한을 부여하지 못하면 AI 분야에서 미국의 리더십이 약화될 가능성이 높습니다.

저자 소개

Stanford HAI, 최신 백서 발표: 미국은 2년 동안 AI 국가 전략에서 느린 진전을 보이고 있습니다.

Christie Lawrence는 스탠포드 로스쿨과 하버드 케네디 스쿨의 JD/MPP 후보자이자 스탠포드 규제, 평가 및 거버넌스 연구소(RegLab)의 회원입니다. 국가인공지능안전보장회의(NSCAI) 연구분석국장을 역임했으며, 스탠포드 인간중심인공지능연구소, 하버드 벨퍼센터 사이버 프로그램, 국무부, 경영컨설턴트 등을 역임했다. . 그녀는 듀크 대학교에서 공공 정책 학사 학위를 취득했습니다.

Stanford HAI, 최신 백서 발표: 미국은 2년 동안 AI 국가 전략에서 느린 진전을 보이고 있습니다.

Isaac Cui는 스탠포드 로스쿨 법학박사 1학년 학생이자 RegLab 회원이자 스탠포드 대학의 Knight-Hennessy 장학생입니다. 그는 Pomona College에서 물리학 및 정치학 학사 학위를 취득했고, Marshall 장학생으로 재직하던 London School of Economics and Political Science에서 응용 사회 데이터 과학 석사 학위와 규제 석사 학위를 취득했습니다.

Stanford HAI, 최신 백서 발표: 미국은 2년 동안 AI 국가 전략에서 느린 진전을 보이고 있습니다.

Daniel E. Ho는 스탠포드 대학의 William Benjamin Scott 및 Luna M. Scott 법학과 교수이자 정치학 교수이며 스탠포드 경제 정책 연구소의 선임 연구원입니다. 그는 국립 인공지능 자문위원회(NAIAC)의 지명 회원, 스탠포드 대학교 인간 중심 인공 지능 연구소(HAI)의 부소장, 행동 과학 고급 연구 센터의 교수 펠로우 및 이사입니다. 감독 연구실의. 그는 예일 로스쿨에서 법학박사 학위를, 하버드 대학교에서 박사 학위를 받았습니다.

위 내용은 Stanford HAI, 최신 백서 발표: 미국은 2년 동안 AI 국가 전략에서 느린 진전을 보이고 있습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제