인공지능에 대한 흔한 질문 (FAQ)

Click here to see this page in other languages:  EnglishChinese   Japanese   Russian

Q: 누가 강건하고 유익한 인공지능에 대한 퓨처 오브 라이프 (이하 FLI)의 공개서한을 구상하고 작성했나요?

A: 공개서한은 FLI (특히 FLI의 설립자들과 버클리 대학의 AI 연구원이자 FLI의 자문위원인 스튜어트 러셀)와 AI연구 공동체 (다수의 서명국 포함)가 공동으로 추진 한 것입니다.

Q: 이 공개서한은 어떤 종류의 AI 시스템을 다루고 있나요?

A: 우리가 누리는 지능은 실제로 많은 기능으로 구성되어 있으므로 “인공지능”이라는 용어의 의미가 넓어지고 있습니다. 몇몇 사람들은 인공지능을 CAPTCHA를 인식하거나 구글 검색을 실행하는 것과 같은 “제한된 AI”와 인간의 대부분 능력을 인간 수준 또는 그 이상으로 복제할 수 있는 “포괄적 AI”로 구분합니다. 공개서한은 이 두 가지 유형의 시스템을 다룹니다.

Q: FLI의 공개서한이 표한 자율무기와 관련된 우려는 무엇인가요?

A: 자율무기는 암살, 국가 불안정화, 군중 진압과 한 종족의 집단 살상 같은 임무에 특히 적합합니다. 주요 군사 강국이 AI 무기 개발을 추진한다면, 세계적 무기경쟁을 피할 수 없게 되며, 그 끝에는 분명 자율무기가 내일의 AK소총이 될 것입니다. 무기경쟁을 촉진하는 것은 좋지 않은 발상이며, 의미 있는 인간의 통제를 넘어선 공격적 자율무기들을 금지함으로써 이러한 경쟁을 예방해야 합니다. 공격적 자율무기에 대한 논쟁에 대해 더 자세히 읽어보고 싶다면 이곳을 클릭하세요.

Q: 왜 인공지능의 미래가 최근 이슈화 되는 건가요? 무엇이 바뀌었나요?

A: 지난 수십년간 인공지능 연구는 일부 전문가들이 예측한 것보다 더 천천히 진행되었습니다. 그러나 전문가들은 5년 전쯤 이러한 추세가 바뀌었다고 주장합니다. 예를 들어 인공지능 연구원은 새로 개발된 시각 및 음성 인식 시스템의 효율성에 감탄합니다. 인공지능 시스템은 아이러니하게도 AI를 막으려고 만들어진 CAPTCHA를 인식하고, 음성 텍스트를 즉시 번역하며, 풀도록 프로그램되지도 않은 게임들을 독습할 수 있습니다. 또한, 인공지능의 효율성의 실질적 가치는 구글, 페이스북, IBM과 같은 대형 기술 기업의 막대한 투자를 유도함으로써 인공지능의 진전 속도를 증가합니다.

Q: AI의 수준이 점차 높아지면서 얻어지는 잠재적 이익은 무엇인가요?

A: 지금으로서 말하기는 어렵지만, 사전에 충분히 관리한다면 인공지능은 많은 유익한 개발을 가능하게 할 것입니다. 예를 들어, 시시한 업무들이 자동화되어 빈곤과 지루함이 없고 풍족하며 여유로운 사회를 창출할 수 있습니다. 또한, 인공지능을 통하여 복잡한 생물학적 시스템을 이해하고 조작하여 수명을 늘리고 건강을 개선하며 질병을 정복할 수도 있습니다.

Q: 일반적으로 AI 안전성에 대해 무엇을 우려하나요?

A: AI 시스템이 점점 더 강력해지면서 생기는 가장 근본적인 걱정은 만약 인공지능이 우리가 원하는 대로 하지 않는다면 입니다. 시스템이 제대로 설계되지 않았거나, 의도적으로 파괴되었거나, 인공지능이 우리가 원하는 대로가 아닌 (마치 알라딘의 지니와 같이) 우리가 말하는 대로 작업을 실행할 때에 이러한 문제가 일어날 수 있습니다. 대다수의 AI 시스템은 목표를 가지고 그것을 최대한 효율적으로 달성하도록 프로그램되어있습니다. 예를 들어, 알고리즘 매매는 수익을 극대화하는 목표를 가집니다. 만약 그 목표가 인간의 가치와 일치하지 않는다면, 정교하게 설계된 AI 거래 시스템은 그 어떤 무자비한 금융가보다 수단과 방법을 가리지 않고 목표를 달성할 수도 있습니다. 이들은 말 그대로 독립적인 생각과 정신을 가졌으며, 그러므로 중요한 것은 이들의 선택과 행동이 인간의 뜻과 조화를 이루는 것입니다.

Q: AI가 인류에게 위협적인 존재라는 것에 대한 FLI의 입장은 무엇인가요?

A: 강건하고 유익한 AI에 대한 공개서한이 FLI의 입장을 잘 표명하고 있습니다. 앞으로 수십 년 안에 AI는 인터넷과 같이 높은 유익함과 상대적으로 낮은 위험성을 지닐 수도, 원자력 기술과 같이 유익함에 비해 높은 위험성을 지닐 수도, 혹은 전혀 다른 무언가가 될수도 있습니다. 하지만 저희는 인공지능이 미래에 어떤 모습을 띨 지는 현재로서 알 수 없다고 주장합니다. 장기적인 측면에서 유익함만큼 그 위험성도 클 거라고 추측하지만, 한 가지 확실한 것은 이 문제에 대한 연구가 필요하다는 것입니다.

Q: 대부분 인간 수준의, 또는 “초 지능적” AI에 이목이 쏠립니다. 이것이 가까운 미래에 대한 현실적인 전망인가요?

A: AI는 수치계산과 같은 일부 작업에서 이미 초인적이며, 시간이 지남에 따라 다른 작업에서도 인간을 능가할 것 입니다. 기계가 인간 수준의 능력에 도달할지, 그렇다면 언제 도달할지 알 수 없습니다. 하지만 FLI의 푸에르토리코 컨퍼런스에서 대부분의 AI 연구원은 금세기에 도달할 확률이 50% 이상이라고 예측했으며, 그중 일부는 더 빠른 시일 내에 도달할 것이라고 주장했습니다. 만약 이 일이 현실화된다면 인류에게 막대한 영향을 미칠 것이므로, 그 영향이 긍정적일 수 있도록 지금 당장 연구를 시작해야 합니다. 많은 연구자는 초 지능적 AI를 상대하는 것은 제한된 AI를 다루는 것과 본질적으로 매우 다르기 때문에 연구에 많은 노력이 필요하다고 확언합니다.

Q: 인공지능은 우리가 시키는 대로 일을 처리하는 단순한 도구 아닌가요?

A: 아마도 그럴 겁니다. 그러나 많은 정의에 따르면 ‘지능’의 뜻은 목표 달성 방법을 찾아내는 능력입니다. 오늘날의 AI 시스템에서도 개발자는 단지 목표를 지정할 뿐, AI에게 수행 방법을 가르쳐주지 않을뿐더러 그 방법을 자세히 예측할 수도 없습니다. 실제로 이러한 시스템은 종종 창의적이고 예측 불가능한 방식으로 문제를 해결합니다. 따라서 AI 시스템의 지능 자체가 예측과 통제를 어렵게 합니다. 그러므로 인공지능은 우리가 선호하는 것과 다른 방식으로 우리가 설정한 목표를 달성할 수도 있습니다.

Q: 예를 들어 어떤 상황에서 부적절한 수단을 통해 유익한 목표를 달성하나요?

A: 당신이 아무 제약 조건을 고려하지 않고 샌프란시스코의 교통체증을 줄이는 업무를 맡았다고 가정해보십시오. 어떻게 업무를 수행하시겠습니까? 신호의 타이밍을 더 정확하게 하는 것부터 시작할 수도 있습니다. 하지만 아침 5시부터 10시까지 모든 대교의 차량을 통제한다면 교통체증이 현저하게 줄어들지 않겠습니까? 이러한 조치는 상식을 위반하고 교통 개선의 목적을 무의미하게 하지만 “교통혼잡을 줄이는” 목표는 달성합니다.

Q: 왜 수십 년 후의 미래를 지금부터 대비해야 하나요?

A: 첫째, 이미지와 음성 인식 등 좁은 영역에서 인간의 지능에 접근하거나 능가하는 “제한된” AI 시스템조차도 사회적 영향에 대한 중요한 의문을 제기합니다. 앞서 말한 사회적 영향의 세 가지 예로는 자율주행 차량의 안정성 증가, 자율무기의 전략적 및 윤리적 차원에 관한 분석, 그리고 AI가 글로벌 고용 및 경제 체제에 미치는 영향 등이 있습니다. 두 번째, 장기적으로 인적 또는 초인적 인공지능은 극적인 영향을 미치며, 그러한 능력이 얼마나 빨리 개발될지에 대해 전문가들의 의견이 상충합니다. 많은 전문가는 비교적 빠른 시일 내에 개발될 것이라고 주장하므로 실제로 얼마나 빨리 진전할 수 있는지 알기 위해서는 장기적 안전성 연구를 시작해야 한다고 밝혔습니다.

Q: AI 시스템이 악의를 품거나, 자의식을 갖거나, 의지를 생성하여 우리를 공격할 경우를 우려해야 하나요? 그냥 플러그를 뽑으면 되는 거 아닌가요?

A: 한 가지 중요한 사실은 일부 자율 시스템은 군사 목적으로 사살하거나 파괴하도록 설계 되어있다는 것입니다. 이러한 시스템들은 쉽게 “플러그”를 뽑을 수 없게 설계됩니다. 이러한 시스템의 추가 개발이 장기적으로 이로운지 아닌지는 우리가 시급히 풀어야 할 숙제입니다. 또 다른 우려는 의사 결정 시스템의 목표가 뜻하지 않게 우리가 원하는 것을 완벽하게 포함하지 않을 수도 있다는 것입니다. 때때로 유익하거나 중립적인 목적을 추구하는 논리에서 반사회적이거나 파괴적인 행동이 비롯될 수 있습니다. 이 문제를 고찰한 몇몇 연구원들은 놀랍게도 이러한 결과를 완벽히 방지하는 것은 어려우며 시스템이 더욱 지능화 됨에 따라 더 어려워질 수 있다고 결론 내렸습니다. 인공지능 시스템은 이러한 사태를 방지하고 통제하려는 우리의 노력이 목표달성에 장애가 된다고 판단할 수도 있습니다.

Q: 로봇이 진짜 문제인 건가요? AI가 물리적 환경을 직접 조작할 수 없다면 어떻게 해를 끼칠 수 있다는 건가요?

A: 새롭지만, 잠재적으로 위험한 것은 경첩, 모터 등을 만드는 것이 아닌 지능을 창조할 수 있는 능력입니다. 인간 수준의 AI는 금융시장에서 돈을 벌 거나, 과학 발명품을 만들거나, 해킹하거나, 돈을 지급하여 인간을 조종하는것과 같이 모두 처음에 달성하도록 프로그래밍이 된 목표를 추구합니다. 그러기 위해서 인터넷 연결만이 필요할 뿐, 물리적 로봇 몸체는 요구하지 않습니다.

Q: 고차적 AI 중 상대적으로 안전한 유형의 AI도 존재하나요?

A: 어떤 유형의 AI가 안전한지 아직은 알 수 없으나 이에 대해 더 자세히 연구하는 것이 저희 보조금 프로그램의 목표입니다. AI연구원은 대부분 인류에게 이로운 연구를 하고자 책임감을 느끼며 일합니다. 불안전한 인공지능 디자인이 있는 경우, AI 연구원은 이 사실을 파해쳐 대체 AI 시스템을 개발할 것입니다.

Q: 인적 혹은 초인적 AI가 개발된다면 인간이 계속 세상을 통치할 수 있을까요?

A: 생각해볼 가치가 있는 질문입니다. 인간은 다른 동물들보다 더 강하거나 빠르기 때문에가 아니라 더 똑똑하기 때문에 지구를 지배합니다. 우리의 지능적 지위를 양보한다면, 인간세력의 지속 여부는 불투명해집니다.

Q: 사람들이 초지능 AI의 실존적 위협에 지나치게 집중하는 바람에 감시와 전장에서 사용되는 인공지능의 경제적 영향과 같은 더 긴급한 논쟁들에 충분한 관심을 가지지 못하나요?

A: AI 안전의 단기적 및 장기적인 측면 모두 매우 중요합니다. 초지능 연구는 공개서한의 중요 부분이지만, 실질적인 우려는 대부분의 언론매체가 보도하는 영화 터미네이터 같은 시나리오와는 굉장히 다릅니다. 훨씬 더 가능성 있는 시나리오는 중립적이거나 유익한 목표를 가진 초지능 인공지능이 위험한 방향으로 잘못 특화된 것입니다. 초지능 시스템의 견고한 설계는 수십 년이 걸릴 복잡한 학제 간 연구 숙제이기 때문에 지금부터 연구를 시작하는 것이 중요합니다. 따라서 저희 연구 프로그램의 큰 부분은 이 연구를 실현하는 것입니다. 다시 말하자면, 이 이슈에 대해 불필요한 우려를 자아내는 언론매체들은 단기적 또는 장기적 영역에서 진전을 이루는 데에 거의 유용하지 않습니다.

Q: FLI는 어떻게 창시 되었나요?

A: AI 위험성에 대한 얀 탈린의 오랜 관심에서 시작되었습니다. 2011년, FLI의 설립자 맥스 테그마크 교수와 안소니 아귀에르 교수는 FQXi (Foundational Questions Institute) 컨퍼런스를 개최해 평소 AI 위험성을 강력하게 주장해온 얀 탈린을 초대했습니다. 2013년, 테그마크 교수와 메이아 테그마크는 AI의 실존적 위험을 줄이기 위해 탈린과 아귀에르 교수를 설득해 FQXi와 유사한 구조를 가진 단체를 설립하였습니다. 2013년 후반에는 얀 탈린의 소개로 빅토리아 크라코브나를 영입하여 자원봉사 활동 관리 책임자로 임명했습니다. 마지막으로 2014년 3월, 제1회 FLI 회의가 개최되어 보스턴지역의 과학자와 자원 봉사자들이 한데 모였습니다.