삼성전자와 애플 등 국내외 대기업들은 기술·정보 유출 우려에 사내 업무에서 생성형 인공지능(AI)를 금지하고 있다. 최근 AI 기술 유출기업들은 AI를 금지하고 나서고 있지만 일각에서는 금지보다 규정과 교육을 통한 활용이 필요하단 목소리가 나온다.
2일 삼성전자가 챗GPT와 빙 등 생성형 AI를 금지한데 이어 애플도 19일 외부 AI 도구 사용을 제한한다 밝혔다. AI를 사용 중 의도치 않게 내부 기밀 정보가 공유될 수 있다는 우려에서다. 이미 일부 기업에서는 생성형 AI를 통해 핵심 기술들이 유출된 사례가 있다.
이전부터 AI 기술 유출 우려는 전 세계적으로 꾸준히 제기돼 왔다. 이스라엘 보안회사 Team8 보고서에 따르면, 기업에서 AI 챗봇을 이용하는 과정에서 직원이 무심코 입력하는 데이터는 지우기가 매우 어렵다고 보고했다. 또한, API를 통해서도 고객이나 개인의 정보가 회사 기밀을 포함해 민감한 정보와 지적 재산, 소스 코드 등 데이터가 유출될 수 있다고 경고했다.
이미 금융권에서는 정보 유출을 막기 위해 오래전부터 AI 사용을 철저하게 금지하고 있다. JP모건체이스부터 뱅크오브아메리카, 씨티그룹 등 고객 정보에 민감한 금융업계에서는 사전에 AI 사용을 금지해 오고 있다. 그 밖에도 미국 아마존부터 일본 파나소닉 후지쓰 등 해외 기업들도 AI 금지령을 내리고 있다. 국내에서는 KT, LG유플러스 등이 회사 기밀과 개인정보를 AI에 입력하지 말 것을 공지한 상황이다.
다만 일각에서는 AI가 기술유출의 위험성이 있지만 한편으로는 업무 능률과 생산성에 큰 도움을 주고 있어 사용 여부에 대한 논의가 오가고 있다. 또한 AI 기술 금지가 AI 발전을 저해시킬 수 있다는 우려까지 나오며 기업들은 안전하고 효율적인 AI 사용방법을 찾기 위해 고군분투 중이다.
팀 쿡 애플 CEO는 "AI 등에는 매우 신중하고 사려 깊게 접근하는 것이 중요하다"며 "여러 다른 곳에서 논의되고 있기 때문에 정리해야 할 문제들이 많지만 AI의 잠재력은 확실히 흥미롭다"고 말했다.
전문가들 또한 AI로 인한 기술·기밀·정보 유출은 반드시 경계해야 하는 사안이지만 그것을 방지하기 위해 AI를 원천 봉쇄하는 것은 옳지 않다는 입장이다. 이미 AI의 시대에 돌입한 이상 AI를 사용하지 않는다면 시대에 도태될 수 있다는 것이다.
이지항 상명대 센터장은 "AI 기술은 유용한 도구로 진화하고 있지만 사용자에 따라 오용·남용하는 경우가 자주 목격된다"며 "기술적 접근을 통해 AI가 오용, 남용, 악용되는 것을 예방·방지하고 정책적 접근을 통해 대응해야 한다"고 밝혔다.
황민수 THE AI 대표도 세미나를 통해 "칼을 어떻게 사용하느냐에 따라 이로울 수도 있고 해로울 수도 있는 것처럼, AI도 어떻게 사용하느냐가 중요하다"며 "칼을 안전하게 사용할 수 있도록 제조사가 설명서를 만들고 국가가 법을 제도화하고 교육이 필요한 것처럼 AI도 이러한 노력이 있어야 한다"고 주장했다.
이에 정부에서도 정보·기밀 유출 등 오용되는 AI를 방지하기 위해 관련 규정과 법안도 마련되고 있다. 김영배 더불어민주당 의원은 AI 회사 알고리즘을 통해 개인정보가 유출될 경우 개인정보보호위원회가 해당 알고리즘을 제출받아 시정 상항이 있는지 확인할 수 있게 하는 법안을 발의했다.
김영배 의원은 "AI 기술이 다양한 분야에 활용되면서 개인정보 침해 문제가 발생할 수 있다"며 "챗GPT(대화형 AI)와 직접 대화해 본 결과, AI 스스로도 인공지능의 발전에 따른 개인정보 보호 문제를 인식하고 있었다"고 법안 발의 이유를 설명했다.
Copyright ⓒ 르데스크 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.