컨텐츠 바로가기


board


현재 위치

  1. 게시판
  2. 뉴스/이벤트

뉴스/이벤트

뉴스와 이벤트입니다.

챗GPT는 시작에 불과... 수면 위로 드러나는 ‘AI 챗봇’의 안보 위협
제목 챗GPT는 시작에 불과... 수면 위로 드러나는 ‘AI 챗봇’의 안보 위협
작성자 운영자 (ip:)
  • 작성일 2023-04-05 22:08:30
  • 추천 추천 하기
  • 조회수 70
  • 평점 0점

챗GPT는 시작에 불과... 수면 위로 드러나는 ‘AI 챗봇’의 안보 위협

Christopher Burgess | CSO
2023.04.27
챗GPT 그리고 AI 챗봇이 그 이점만큼이나 위험성을 내포하고 있다는 것이 속속 드러나고 있다. 전 세계는 AI 챗봇이 초래할 위험을 고려하는 동시에 앞으로 다가올 미래를 걱정하기 시작했다.

최근 영국 국가사이버보안센터(NCSC)는 AI가 국가 안보에 미치는 위협을 경고했다. 곧이어 미국 국가안보국(NSA)의 사이버보안 책임자 롭 조이스도 비슷한 경고를 했다. 여러 국가에서 AI가 야기할 난제와 위협을 심각하게 우려하고 있다. NCSC는 쿼리가 보관된다는 점에서, AI 챗봇과 상호작용한 내용이 챗GPT 같은 AI 챗봇의 기반이 되는 대규모언어모델(LLM)의 일부가 될 수 있다고 지적했다. 이런 쿼리는 사용자의 관심 분야는 물론이고, 더 나아가 해당 사용자가 속한 조직까지 드러낼 수 있다. 조이스는 챗GPT 같은 챗봇이 특히 피싱에서 사용되는 장황하고 어색한 문구를 더 진짜 같고 그럴듯하게 보이도록 개선할 수 있기 때문에 사이버 범죄자의 범죄 능력을 향상시킬 수 있다고 주장했다.
 
ⓒGetty Images Bank
 

쿼리를 통한 기밀 유출

때마침 삼성전자 반도체 부문에서 챗GPT 사용이 허가된 지 불과 20일 만에 정보 유출 사고가 발생했고, 삼성은 챗GPT 사용으로 기밀 정보가 불특정 다수에게 노출될 수 있다며 주의를 당부했다. 엔지니어들이 ▲ 소스코드 오류 확인, ▲ 불량 설비 파악에 사용되는 코드 최적화, ▲ 녹취 전사본을 기반으로 한 회의록 작성을 위해 챗GPT를 사용했고, 이 과정에서 민감한 기업 정보가 사실상 제3자에게 넘겨져 회사의 통제를 벗어났다. 현재 삼성은 챗GPT 기밀 유출을 원천적으로 막기 위해 자체 AI 서비스 개발을 검토 중이다.

코드42(CODE42)의 CISO 자디 한슨은 이번 삼성 사건을 언급하면서, “유망한 기술이지만 챗GPT가 폭발적으로 사용되면서 잠재적인 위험에 관한 우려가 촉발됐다. 기업에서 직원들이 챗GPT에 데이터를 제공하면 이런 위험은 더욱 커진다”라고 말했다. 이어 “챗GPT와 AI 도구는 매우 강력하고 유용하지만, 직원들은 챗GPT에 입력하기 적절한 데이터와 부적절한 데이터를 알아야 하며, 보안팀은 기업이 챗GPT에 전송하는 데이터에 대해 적절한 가시성을 확보해야 한다. 새롭고 강력한 기술이 발전할 때마다 이에 수반되는 위험을 이해해야 기업을 보호할 수 있다”라고 덧붙였다.

한 마디로, 입력한 정보는 ‘엔터’ 키를 누르는 순간 사라지고, 더 이상 통제할 수 없다. 영업 비밀로 간주되는 정보를 전송했다면 더 이상 비밀이라고 할 수 없다. 삼성은 “전송된 데이터는 이제 오픈AI의 서버에 저장돼 있기 때문에 회수가 불가능하다. 경쟁이 치열한 반도체 업계에서는 어떤 종류의 데이터 유출도 재앙을 불러올 수 있다”라고 전했다.

그렇다면, 정부의 기밀 정보에 관한 쿼리가 국가 안보를 어떻게 위험에 빠뜨릴 수 있는지 추론하는 일은 그다지 어렵지 않을 것이다.
 

AI가 모든 것을 바꾼다

2023년 초 랜드 연구소(RAND Corporation)의 대표 겸 CEO 제이슨 마테니 박사는 국토안보 및 정부행정 위원회 증언에서 국가 안보 문제로 꼽은 4가지를 설명했다. 다음과 같다.

• 기술이 국가 안보 체계 밖에 있는 상업적 주체에 의해 주도된다.
• 기술이 빠르게 발전하고 있으며, 정부 정책 및 조직 개혁 속도를 능가한다.
• 기술을 평가하는 전문 인력이 민간 부문에 집중돼 있으며 국가 안보에 사용된 적이 거의 없다.
• 이런 기술에는 선의적인 사용과 악의적인 사용, 의도적인 오용과 우발적인 오용을 구분하거나 확실한 귀책을 파악하는 기존의 인텔리전스 시그니처가 부족하다.

AI가 모든 것을 바꿀 것이라는 말은 과장이 아니다.
 

커지는 ‘오토GPT(AutoGPT)’의 두려움

이스라엘 국방군 소속 8200부대 출신이자 현재는 센트라(Sentra)의 CTO를 맡고 있는 롭 라이터는 챗GPT를 능가하는 ‘오토GPT(AutoGPT)’ 또는 ‘에이전트GPT(AgentGPT)’의 출현이 가장 두렵다고 말했다. 공격 효율을 수천 배 높일 수 있어서다. 공격자가 오토GPT에 작업을 지시하면 오토GPT는 목표를 달성할 때까지 (‘백만돌이’처럼) 끊임없이 작업을 수행한다. 다시 말해, 맬웨어가 스스로 작동하는 것이다. 오토GPT를 사용하면 공격자는 지속성과 확장성을 모두 갖춘 도구를 갖게 되는 셈이다.

슬래쉬넥스트(SlashNext)의 CEO 패트릭 하르도 해커가 챗GPT를 사용해 표적화된 공격을 더 많이, 더 빠르게 하면서 침해 성공 가능성을 높이고 있다고 언급했다. “오늘날 챗봇이 성공적인 2가지 영역이 있다. 맬웨어와 비즈니스 이메일 침해(BEC)다. 사이버 공격은 기업 내 특정 대상에게 빠르고 빈번하게 전달될 때 가장 위험하다”라고 말했다.
 

무한한 코드 변형

하르는 “사이버 범죄자는 챗GPT로 코드를 무한하게 변형해 맬웨어 탐지 엔진을 능가할 수 있다. BEC 공격은 피해자가 금융 정보나 데이터를 자발적으로 제공하도록 사회 공학 기법을 시도하는 표적 공격이다. 이런 공격이 성공하려면 개인화된 메시지가 필요하다. 챗GPT는 그럴듯하게 개인화된 이메일을 대량으로 생성할 수 있고, 아울러 무한으로 변형할 수 있다. 이런 공격의 속도와 빈도가 증가해 데이터 유출이 성공할 확률도 높아질 전망이다. 이미 2023년 1분기 보고된 침해 건수부터 많이 증가했다”라고 말했다.

라이터는 인간을 모방하는 챗봇의 능력이 매우 현실적이라고 말했다. 특히 잘못된 정보와 허위 정보에 오랫동안 관여해 온 IRA(Internet Research Agency) 같은 기관이 특정 인물의 말투, 어조, 음색 등을 포착하는 기능을 발전시키기 위해 매진 중일 것이라고 예상했다. 이런 일이 가능하다는 것을 이미 알고 있더라도 막상 실제 인물과 모방된 인물을 마주했을 때 누구의 말을 믿게 될까? 하르는 이 문제를 완화하려면 머신러닝을 기반으로 한 보안이 필요하다고 강조하면서, “AI는 AI로 대항해야 한다”라고 조언했다.
 

AI 도구 개발을 중단해야 할까?

전 세계 보안기관의 경고는 AI 도구 개발 중단을 촉구하는 많은 사람이 서명한 공개서한의 내용과 일맥상통한다. 하지만 AI 도구 개발을 중단하기에는 너무 늦었다. 최근 미국 상원 군사 위원회가 국방부 작전 개선을 위해 인공지능 및 머신러닝 사용 현황 청문회를 개최한 결과, 미국이 AI 도구 개발을 중단할 경우 국가 안보에 해로울 것이라는 데 의견이 일치한 것에서도 알 수 있다.

청문회에서 증언한 랜드 연구소의 마테니, 팔란티어(Palantir)의 CTO 샴 산카, 쉬프트5(Shift5)의 공동 창립자 겸 CEO 조시 로스피노소는 현재 미국이 우위를 점하고 있는 AI 도구 개발을 중단하면 적대국에게 미국을 따라잡고, 미국이 방어하기 어려운 AI 모델을 만들 기회를 제공한다는 데 의견을 같이했다. 물론 AI 기술을 통제해야 한다는 초당적 합의와 요구도 있었다.

소위원회는 마테니, 샴 산카, 조시 로스피노소에게 국가 안보 보호의 맥락에서 정부가 AI 규제를 어떻게 검토해야 하는지 권고안을 30~60일 내에 제출하라고 요청했다. 지난 4월 19일 청문회에서 오간 논의 내용을 봤을 때, AI 기술은 이중용도(dual-use) 기술로 지정돼, 국가 간 협력이나 공유가 금지되진 않지만 정부가 발언권을 가져야 하는 국제무기거래규정(ITAR)의 적용을 받게 되리라 예상된다.
editor@itworld.co.kr
첨부파일
비밀번호 삭제하려면 비밀번호를 입력하세요.

목록

삭제 수정 답변

댓글 수정

비밀번호

수정 취소

/ byte