"AI 개인정보 리스크 300종 넘어"…대선 앞두고 AI發 정보보호 위협↑
"AI 대중화될수록 보안 위협 늘어나…발전하려면 보안 역량도 키워야"

[인더스트리뉴스 김기찬 기자] 국민 4명 중 1명은 챗GPT와 같은 생성형 인공지능(AI)를 사용한 경험이 있는 것으로 나타났다. 하지만 생성형 AI에 대한 보안 위협은 풀어야 할 과제로 남았다.
2일 방송통신위원회 등에 따르면 최근 '2024년 지능정보사회 이용자 패널조사' 보고서가 발표됐다. 보고서에 따르면 국민 24%는 생성형 AI를 활용해본 경험이 있는 것으로 나타났다.
AI 시장의 성장세에 힘입어 생성형 AI를 활용하는 국민도 늘어날 것으로 예상되고 있지만, 생성형 AI의 개인정보 유출 등 보안 우려는 여전한 상황이다. 실제로 보고서에 따르면 응답자 중 개인정보 유출 우려로 생성형 AI를 사용하지 않겠다는 응답은 58.9%(중복응답)로, 과반을 넘었으며 전년 대비 1.6%p 늘었다.
AI의 확산에 따라 AI에 대한 보안 위협 우려도 덩달아 커지고 있는 셈이다. 보안업계 사이에서도 생성형 AI의 보안 위협에 대한 경고의 메시지도 어렵지 않게 찾을 수 있다.
이진규 네이버 최고정보보호책임자(CISO) 겸 개인정보보호책임자(CPO)는 지난달 27일 열린 '2025 개인정보보호 페어&CPO 워크숍' 기조연설에서 "챗GPT와 퍼플렉시티 등 각종 생성형 AI 서비스가 대중화되면서 AI에 의한 개인정보 리스크 종류가 최소 300종이 넘는다"며 "기존에 존재했던 리스크가 악화한 데다 신종 리스크도 생성된 결과"라고 밝힌 바 있다.
뿐만 아니라 AI의 발달로 누구나 쉽게 악성코드를 만드는 등 보안 위협의 '양적 확산'도 골칫거리다. 해킹 등 악의적인 정보 탈취 시도는 대선 등 민감한 정치 상황에 집중되는데, 우리나라는 6·3 대선을 앞두고 있다.
국가정보원 국가사이버안보센터는 지난달 16일 "6월 3일 대통령 선거를 앞두고 국내외 사이버 위협 상황에 대한 모니터링 및 예방ㆍ대응 태세를 강화할 필요가 있다"며 "5월16일 오전 9시부터 (선거가 끝나는) 6월4일 24시까지 사이버위기경보를 ‘관심’에서 ‘주의’로 상향 조정한다"고 밝혔다.
지난해 과학기술정보통신부와 한국인터넷진흥원(KISA)은 18일 ‘2024년 사이버위협 사례 분석과 2025년 사이버위협 전망’을 발표하며 "챗 GPT 외에도 국산 생성형 AI의 활용도 확산되고 있다"며 "사이버 범죄에 특화된 악성 인공지능 모형이 지하웹(다크웹) 등을 통해 유통되고 있어 이를 기반으로 한 사이버위협도 증가할 것으로 전망된다”고 경고했다.
올해 초 KISA의 조사에 따르면 지난해 침해사고 건수는 1887건으로 전년 대비 약 48% 증가했다.
보안 업계 관계자는 "대부분의 일을 AI가 처리하기 때문에 AI가 대중화되면 대중화될수록 정보 탈취 등 사이버 공격 시도는 많아질 수밖에 없다"며 "AI의 기술 발달뿐 아니라 정보보호 역량도 키워야 건강한 산업 발전이 이뤄질 수 있을 것"이라고 말했다.