티스토리 뷰

반응형

안녕하십니까 Hun!입니다!!


현재 인공지능(AI)은 세상을 바꾸어 줄 기술중 하나로 주목받고 있습니다. 앞으로 머나먼 세상이 아니라 아이폰의 '시리(Siri)'나 갤럭시의 빅스비나 아마존의 알렉사 스피커 같은 자연어를 이해하여 처리해주는 인공지능이 저희들 곁에 이미 존재합니다. 이제 인공지능은 점점 세상에 스며들어 다양한 분야에서 사용되어 보다 사람들을 행복하게 해 줄 것입니다. 저도 요즘 인공지능의 심연을 알고 이해하여 활용하기 위하여 공부를 하고있는 중입니다. 하지만 인공지능에 대한 부작용은 배제할 수 없는 부분입니다. 마침 인공지능의 부작용(악의적인 사용)에 대한 내용이 담긴 'TechRepublic' 사이트의 보안관련 기사인 〈"The malicious uses of AI: Why it's urgent to prepare now" by Michael Kassner〉를 찾아서 읽어보고 소개드릴려고 합니다. 아래의 글은 해당 기사를 번역하고 저의 생각을 담아 정리한 글임을 미리 공지합니다. 저작권 관련 문제가 생기게 될 경우 삭제 및 수정을 하도록 하겠습니다.


광범위한 보고서에서, 26명의 전문가들은 인공 지능 보안 분석과 예측, 예방 및 완화에 대한 조언을 제공합니다. 그들은 인공지능-보안 접점이 또한 긍정적인 응용 분야를 가지고 있다고 주목합니다.


모순 어법으로 여겨지는 인공지능(AI)과 기계학습(ML)이 우리 생활의 많은 면들을 바꾸고 있습니다. "저는 2018년이 인공지능이 주류가 되기 시작하여 진정한 ‘유비쿼터스(Ubiquitous)’와 의미있는 방법으로 우리 삶의 많은 측면에 영향을 주기 시작하는 해가 될 것으로 믿습니다."라고 CNBC 포스트에서 마이크로소프트 아시아 포스트 회장인 랄프 하우터(Ralph Haupter)는 말했습니다.


하지만 인공지능(AI)과 기계학습(ML)를 동원하여 얻어낸 모든 좋은 점은 기술 그 자체로 AI와 ML 조차도 선과 악을 구별할 수 없다는 것은 부정하지 않는다. 이는 피해와 범죄이익에 관심이 있는 개인이나 조직들이 그들의 사용으로부터 이익을 얻을 것임을 의미합니다.



그 사실은 간과되지 않았습니다. 비즈니스 지도자는 물론 학계에서도 우려의 목소리를 내고 있습니다. 예를 들면 작년에 100명의 로봇과 AI 관련 사업가들이 자율 살인 로봇의 금지를 요청하는 공개서한을 유엔(UN)에 보내었습니다.


최근에는 옥스포드 대학교의 ‘휴머니티 미래 연구소’와 ‘Open AI’, ‘뉴 아메리카 안보 센터’, ‘전자 프런티어 재단’ 등을 비롯한 광범위한 분야와 조직의 전문가 26명은 불량국가와 테러리스트들과 범죄자들이 더욱 그들의 의도(Agendas)를 위하여 곧 AI와 ML을 사용하게 될 것 대해 논의한 “인공지능의 악의적인 사용 : 예측, 예방, 완화(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation)”라는 제목인 광범위한 보고서를 발표하였습니다.


"AI는 일반적으로 지능을 필요하다고 생각되는 작업을 수행할 수 있는 시스템을 구축하기 위해 디지털 기술을 사용하는 것을 말합니다. ML은 AI의 하위 필드 또는 별도의 필드로써 다양하게 특징지어지며 경험을 통해 시간이 지남에 따라 주어진 작업에 대한 성과를 개선하는 디지털 시스템들의 개발을 일컫습니다.”


"악의적 사용"을 느슨하게 정의하여 개인, 그룹 또는 사회의 보안을 손상시키려고 생각되는 모든 관행을 포함합니다. 우리가 논의하는 개입과 구조적 문제는 상당히 일반적인 것이기 때문에, 무엇이 악의적인 사용을 구성하는지에 대해 가능한 다양한 관점에서 우리의 문서 대부분을 읽을 수 있습니다.


3개의 보안 도메인으로 고려되어야 합니다.

연구원들은 그들이 위협으로 여기는 것들을 다음의 세 영역으로 분류했습니다.


•디지털 보안 : 여기서 큰 문제는 AI가 공격의 크기나 그것의 효과에 초점을 맞추었던 것이든지 수년 동안 디지털 악당들을 괴롭혀왔던 고려사항이든지  제거한다는 것이다. 예를 들어, 스피어 피싱은 AI가 공격의 지휘와 통제뿐만 아니라 디자인에서 역할을 할 때 훨씬 더 쉬워집니다. 이 보고서의 저자들은 덧붙여서, "우리는 또한 인간의 취약성(예를 들어, 인격화를 위한 음성 합성의 사용을 통하여), 현존하는 소프트웨어의 취약성(예를 들어, 자동화된 해킹을 통하여), AI 시스템의 취약성(예를 들어, 적대적인 예들과 데이터 포이즈닝을 통하여)을 이용한 새로운 공격들을 예상합니다."라고 말하였습니다. 


•물리적 보안 : AI는 자동화된 물리적 시스템에 의한 공격을 허용하여 위협 영역(threat area)과 성공 가능성(success potential)을 높입니다. 게다가 이 보고서의 저자들은 "우리는 또한 사이버-물리적 시스템을 전복시키거나(예를 들어, 자율 차량이 충돌하게 하는) 원격으로 통제가 불가능한 물리적 시스템(예를 들어, 수 천개의 마이크로 드론 무리들)을 포함하는 새로운 공격들을 예상합니다."라고 말했습니다.


•정치적 안전 : 감시와 설득, 기만에 관련된 작업들을 자동화시키기 위하여 AI를 사용하는 것은 이미 진행 중이며 앞으로 더 증가할 것 같습니다. 이 보고서의 저자들은 "우리는 이용 가능한 데이터를 바탕으로 우리 인간의 행동 기분, 믿음을 분석하는 향상된 능력을 활용하는 새로운 공격도 예상합니다."라고 적었습니다.


간단히 말하자면 AI와 ML은 어두운 면에서의 작업을 훨씬 쉽게 만들어 줍니다.


AI는 더욱 저렴해지고 있습니다.

뉴욕 타임스의 캐드 메츠(Cade Metz) 기자는 2018년 2월에 “Good News : A.I. is Getting Cheaper. That's Also Bad News.”라는 기사에서 AI와 기술을 기반으로 한 ML이 점점 싸지고 있다는 사례를 만들었습니다. 메츠는 스카이디오(Skydio)사에서 제작된 드론은 누구나 이용할 수 있는 부품을 사용하고 있고 이 드론의 성능을 감안하면 비교적 저렴하다(3000달러 보다 적다)고 설명했다. 스마트폰의 앱을 이용하면 공중에 떠 있는 드론에게 누군가를 따라가라고 지시할 수 있다고 합니다. 메츠는 덧붙여서 “드론이 추적하기 시작하면 대상이 바뀌기가 힘들어진다고 합니다.”


AI는 또한 최고의 방어가 될 것입니다.

이 보고서의 저자들은 AI와 ML이 피해를 입히고자 하는 사람들에게 향상된 방어와 범죄완화 조사를 제공하는 것과 동일한 이익들을 제안합니다.

“전반적인 평가에서 고려할만한 가치가 있는 이용 가능한 AI 방어의 한 범주는 범죄수사와 대테러에서의 AI의 사용입니다. AI는 이미 감시 카메라에 의한 안면 인식과 소셜 네트워크 분석과 같은 광범위한 법적 목적에 더 많이 채택되기 시작하였습니다.”


마지막 생각


보고서의 결론에서 저자들은 직접적인 단어를 쓰지 않았습니다.

"아직 불확실한 점이 많지만 AI는 미래 보안환경에서 중요한 위치를 차지할 것이 분명하고, 악의적인 사용에 대한 기회가 많아질 것이며, 이것은 더 많이 수행될 것입니다.“


그럼에도 저자들은 희망을 제시합니다.

"비록 디지털, 물리적, 정치적 영역에 걸쳐 악의적 사용의 특정한 위험은 무수히 많지만, 우리는 대규모의 노력을 가능하게 하고 더욱 많은 공격에 있어서 AI의 역할을 포함한 배경을 가로지른 공통된 이해를 믿어야하고 이는 앞으로의 세상을 조명하고 더 나은 예방 및 완화 노력을 알리는 데 도움이 됩니다.” 

"우리는 독자들이 AI 보안연계의 집단적인 이해를 향상시킬 수 있는 방법을 생각해 보고 AI 프로세스의 빠른 발전이 안전하고 공정하게 진행될 뿐만 아니라 보안을 중요시하면서 진행되도록 하는데 동참하기를 촉구합니다.“


우리 앞에 놓인 어려운 과제의 한 예는 스티븐 호킹(Stephen Hawking) 박사입니다. 그 신사는 만약 인공지능이 그에게 의사소통 능력을 주지 않았다면 우리가 가질 수 없었을 우주에 대한 많은 통찰력을 우리에게 주었습니다. 요점을 말하자면 드폴(Depaul) 대학교 Jaharis의 학부 동료인 애나 산토스 루츠먼(Ana Santos Rutschman)은 ‘The Conversation’이라는 제목의 "스티븐 호킹은 인공지능이 미칠 위험에 대해 경고했으나 AI는 그에게 목소리를 주었다"라는 내용의 기사를 썼습니다.



인공지능이 사람에게 이익이 줄 수도 있지만 거꾸로 양날의 검이 될 수도 있겠다는 생각이듭니다. 위의 기사에서 주장처럼 테러리스트 단체와 같은 반 사회적인 성향을 띈 사람의 손에 인공지능 기술이 들어가면 매우 큰 사회적 문제를 일으킬 것이기 때문입니다. 다행히도 아직까지는 그런 일이 일어나지 않았지만 언제든지 일어날 수도 있다고 주의하여야 할 것입니다. 안 그러면은 이 기술을 이용한 각종 사기, 범죄 그리고 폭발물 테러사건까지 번질 것입니다. 또 사람의 일자리 문제도 화두가 될 것입니다. 저의 개인적인 생각으로는 반복적인 작업을 수행하는 일자리만 위협을 받게 될 것이라고 생각됩니다. 왜냐하면 기계적인 작업은 대체할 수 있지만 사람의 생각이 담긴 작업들은 대체 불가결 할 것이고 사람의 요청에는 사람의 머리로 이해하고 대응하여 작업을 수행하여야 하기 때문입니다. 


지금까지 읽어주셔서 감사하고 이상으로 "인공지능(AI)의 부작용, 악의적인 사용"을 마치도록 하겠습니다.

반응형
댓글
반응형
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2024/05   »
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31
글 보관함