AI : 올바른 이유에 대한 무서운

인공 지능 AI는 우리가 펼치고있는 짐승에게 헤드 라인, 과대 광고, 심지어 욕구를 앗아 갔다. 모든 강력한 기술은 핵이나 생명 공학이든 좋고 나쁘 든 사용할 수 있으며 AI에서도 마찬가지입니다. 엘론 머스크와 스티븐 호킹 등의 많은 공개 담론은 대 군주 AI가 잘못되었다는 확실한 디스토피아 적 비전과 같은 공상 과학에 반영되어 있지만 (실제로 논의할만한 가치가있는 시나리오) AI에 관한 한 훨씬 더 즉각적인 위협이 있습니다. 인공 지능을 통제 할 수 없거나 직업을 인수하기 훨씬 전에는 훨씬 더 큰 위험이있다. 정부 나 나쁜 행위자들의 손에 AI는 더 큰 이익에 대한 자기 이익의 의제를 밀어 붙이는 데 사용된다.

배경을 위해, 기술 낙관론자 및 추가 개발의 비지지 론적 지지자로서, 2014 년에 나는 AI의 거대한 탈구에 대해 썼으며, GDP, 성장 및 생산성과 같은 우리의 경제 지표는 대단해 보이지만 악화 될 수 있습니다. 눈에 잘 띄지 않지만 내 의견으로는 소득 불균형과 사회 이동성에 대한 훨씬 더 중요한 지표. 더 중요한 것은,이 시간이 일반 경제학자와 달리 생산성 도구가 항상 고용을 늘리는 것을 삼가는 이유에 대해 논쟁했습니다. AI를 사용하면 현재 직업의 대다수가 기술이나 교육 수준에 관계없이 탈 직할 수 있습니다. 이전 산업 혁명에서 우리는 1900 년에서 2000 년 사이의 농업에서 미국 고용의 대다수에서 2 % 미만으로, 그리고 오늘날 미국 고용의 20 % 미만인 산업 일자리에서 이것을 보았습니다. 이번에는 변위가 기술 직무를 낮추기 위해 발생하지 않을 수도 있습니다. 트럭 운전사, 농장 노동자 및 식당 음식 준비 담당자는 방사선 전문의 및 종양 전문의보다 위험이 적을 수 있습니다. 의사 나 기계 엔지니어와 같은 숙련 된 직업이 대체되는 경우, 교육은 고용 성장을위한 솔루션이 아닐 수 있습니다 (이유는 다른 이유 때문에 유익 함). 이유를 이해하지 못한 채 과거를 외삽 한 단순한 경제학자가 종종 제안합니다. 이 혁명에서 기계는 지적 추론과 세분화 된 운동 기술이 필요한 이전의 작업과는 다른 작업을 복제 할 수 있습니다. 이 때문에 정서적 노동은 기계가 인간 수준에서 복제 할 수없는 기술의 마지막 요새로 남을 가능성이 있으며 의과 대학이 히포크라테스 대신 대인 관계 및 정서적 기술을 강조하고 가르치는 것으로 전환해야한다고 주장한 이유 중 하나입니다 추리.

우리는 우리가해야 할 것처럼 핵전쟁에 대해 걱정하지만 더 위협적인 국가들 사이에서 경제 전쟁이 벌어지고 있습니다. 골드만 삭스 (Goldman Sachs)와 같은 전문가들은 국제주의를 옹호합니다. 국제주의는 그들의 이익에 잘 기여하고 공정하게 행동한다면 옳은 일이기 때문입니다. 제가보기에 틀린 답은 경제 민족주의이지만, 정답은 단순한 수준의 운동장을 넘어선 것입니다. 트럼프-마니아는 중국의 불균형 운동장 느낌에서 다소 올바로 나올 수 있지만 AI가 이러한 경제 전쟁의 한 요인 인 경우 문제는 기하 급수적으로 악화 될 수 있습니다. 이러한 경제 전쟁 문제는 AI에 의해 기하 급수적으로 증폭 될 것입니다. 중국과 미국, 브라질, 르완다, 요르단과 같은 국가에서는이 기술에 투자 할 수있는 자본과 추진력에 따라이 경제 전쟁에 참여할 수있는 능력이 매우 다르다. 인공 지능 기술은 자체 장치를 제외하고는 가장 가벼운 영향을 미치므로 전 세계 부를 몇 국가에 집중시키고 개발, 부 및 불균형에 대한 매우 다른 국제적 접근의 필요성을“원인”으로 만들 것입니다.

나는 이러한 불일치 문제를 해결해야 할 필요성에 대해 썼다. 특히 이러한 변화는 AI를 개발하는 회사들에게 막대한 이익을 가져다 줄 것이며, 노동력은 자본에 비해 평가 절하 될 것이기 때문이다. 다행스럽게도 이처럼 풍요로워지면 불균형과 다른 사회적 문제를 해결할 수있는 수단이 생길 것입니다. 불행히도, 우리는 인간 동기 부여와 같은 모든 사회적 문제를 해결하지 못할 것입니다. 자본주의는 민주주의의 허락에 의한 것이며, 민주주의는 시차를 바로 잡을 수있는 도구를 가져야합니다. 티 파티를 조심하십시오. 허리케인이 발전하는 것을 보지 못했습니다. 나는이 AI 주도 소득 불균형 효과가 10 년 이상 물질이되어서 우리가 그것을 준비 할 시간을 가졌다 고 생각합니다. 따라서 이러한 필요한 대화가 시작되어 로봇 세금 및 보편적 기본 소득과 같은 해결책이 떠오르면서 귀중한 도구가 될 수 있지만, 불일치는 AI가 야기 할 수있는 최악의 문제와는 거리가 멀고보다 즉각적인 위협에 대해 논의해야합니다.

작년 한 해 동안, 세계는 기술을 사용하는 나쁜 행위자의 간섭으로 인해 현대 사회의 일부 토대가 흔들리는 것을 보았습니다. 우리는 러시아의 간섭에 의해 위협받는 우리의 정치 시스템과 Equifax 핵 및 방글라데시 은행 강탈자 (범죄자가 $ 100m를 훔친 방글라데시 은행 강탈)와 같은 사건에 의해 위협받는 우리의 글로벌 금융 시스템의 무결성을 직접 보았습니다. AI는 악의 국가 및 범죄 조직이 특히 자사의 평가 또는 검증 능력을 벗어난 상황에서이를 사용하여 사이버 전쟁에 대한 사건을 극적으로 확대 할 것입니다. 이 전환은 바람이 허리케인이되거나 파멸이 해일이 될 때 보이는 것과 비슷합니다. AI 에이전트가 OpenAI의 Universe 플랫폼과 같은 교육을 받았으며 수천 개의 온라인 웹 환경을 탐색하는 방법을 배우고 의제를 누르도록 조정되었다고 상상해보십시오. 이것은 여론의 개념을 파괴 할 수있는 방법으로 웹에 지능적인 봇 트롤의 메뚜기를 풀어줄 수 있습니다. 또는 다음 세대의 Lyrebird.ai 진화에서 봇 군대가 해로운 정책 변경에 대한 요청으로 국회의원과 상원의 전화선을 괴롭히는 독특한 목소리로 상상해보십시오. 이 위험은 로봇의 아이디어와는 달리 향후 10 년 동안 현실이 될 가능성이 높습니다.

이 기술은 이미 오늘날 권위주의 국가들의 레이더에 있습니다. 예를 들어 푸틴 대통령은 AI 지도자들이 세상을 어떻게 지배 할 것인지에 대해 이야기했습니다. 또한 한 국가로서 중국은이 강력한 새로운 AI 기술을 획기적으로 획득하는 데 중점을 두었습니다. 일반적인 비즈니스 경쟁을 넘어 전문 지식을 축적하고 여기에 지정된 대규모 자금이 주요 관심사입니다. 이것은 히로시마 공격이 수행되었을 때 미국이 핵 능력을 갖춘 유일한 국가 인 미국과 동등하거나 더 나쁩니다. 우리의 일본인 상대가 대답 할 것이 거의 없었습니다. 이 경제 전쟁 무기가 핵폭탄처럼 이진법이라고 말할 수는 없지만, 규모가 크고 몇 손에 집중되어 있으며 검증 가능성이 거의 없습니다. 큰 증폭 잠재력을 감안할 때 돌발적인 노력은 큰 힘의 불평등을 초래할 수 있습니다.

구글, 페이스 북, 대학교와 같은 서구 AI 개발의 주요 행위자가이 기술을보다 광범위하게 공유하기 위해 기술 접근 ​​방식과 과학 저널에 결과를 게시하는 일반적으로 공개 된 정책을 채택했다는 사실을 깨닫게되면 문제는 더욱 악화됩니다. 개별 주정부 행위자들이 그렇게하지 않는다면, 그렇게 할 것으로 의심된다면, 미국으로부터 일방 통행 기술 흐름을 갖게 될 것입니다. 전 세계 특정 지역의 AI 개발은 데이터에 대한 정책에 대한 정책으로 인해 큰 이점이 있습니다. 앤드류 응 (Andrew Ng) (대기업 인 바이두 (Baidu)에 의해 스탠포드 교수가 고용해 자신의 아이디어를 배양 할 때까지 AI 노력을 이끌고있다)은“데이터는 AI 엔진의 로켓 연료”라고 말했다. 따라서 AI의 진보는 최근 열광적이지만“국가 안보”를 위해 데이터 프라이버시와 가끔 사고가 덜 중요 할 때 훨씬 빨라질 것입니다. 데이터 프라이버시와 기술의 일방적 인 전송에 대한 무시는 중국과 같은 민족주의 국가에 도움이 될 것입니다. 러시아는이 세대의 우주 경주에서 큰 이점을 가지고 있습니다.

AI는 오늘날 논의되는 경제, 비즈니스 또는 경쟁 문제 그 이상일 것입니다. 우리는 효율성이 덜 중요하거나 최소한 불균형이 더 중요 할 것이기 때문에 자본주의를 경제 효율성을위한 도구로 다시 생각할 필요가 있지만, 그 고려는 수십 년이 걸릴 수 있습니다. 향후 10 년 동안 가장 큰 관심사는 AI가 오늘날의 사이버 보안 문제를 극적으로 악화시키고 핵 기술보다 검증 할 수 없다는 것입니다. 중국과 같은 민족주의 국가들과 푸틴과 같은 혹독한 독재자들은 비밀스러운 힘을 크게 증폭시킬 것입니다. 저는 우리 사회가 다른 나라들과“지속적으로”열린 진보와 사생활 보호와 같은 우리 사회의 보호 수단을 기꺼이 포기할 것이라고 믿지 않습니다. 우리가 여기서 무엇을 할 수 있을지에 대한 생각이 있지만 이것은 명백한 해결책이없는 복잡한 문제입니다. 미국 AI 회사에서 비 NATO 투자자의 자금 지원을 제한 할 수 있습니까? 아마도 미국 정부 나 NATO가 국가 안보를위한 자체 AI 기술에 투자하도록했을까요? 인공 지능 백색 모자? 양자 컴퓨팅과 같은 Black Swan 개발 노력이 증가 했습니까? 사회와 정부에서 새로운 AI 기술이 성장함에 따라 발생하는 위험, 편견 및 단점에 대한 위험 회피, 인내 및 반발이 줄어 듭니까? 우리가하는 일에 관계없이, 더 많은 대화, 토론 및 대책 자금 지원이 필요하다는 것이 분명합니다. 불확실성과 어떤 경우에 빠질 정도의 디스토피아 적 가능성에 대한 히스테리를 생성하는 대신, 우리는 위험에 부딪히기 전에 즉각적인 위험의 파동에 집중해야합니다. 여기서 위험을 감수하지 않으면 우연히 가장 큰 위험이 될 수 있습니다.