인공지능(AI) 기술은 정치·경제·사회·문화 전반의 작동 방식을 바꿔놓고 있다. 효율과 편리함을 확장하는 동시에 그에 상응하는 새로운 위험과 윤리적 과제도 함께 드러내고 있다.
따라서 AI 논의의 핵심은 단순한 성능 경쟁이 아니라 올바른 사용과 책임 설계에 있다. 명확한 기준과 통제가 뒷받침되지 않는다면 AI는 효율이라는 이름 아래 불평등과 불신을 심화시킬 수 있다.
투데이신문의 [AI&윤리] 기획연재는 이 지점을 정면으로 다룬다. AI가 사회 곳곳에 남기는 여파와 영향력을 구체적으로 짚고, 책임·공정성·투명성 등 윤리 원칙이 왜 필요한지, 현장에서 어떻게 구현돼야 하는지를 살펴본다.
【투데이신문 박효령 기자】경찰 출석 조사가 예정된 피의자들이 변호사 대신 생성형 인공지능(AI)에 법률 자문이나 상담을 받는 사례가 늘고 있는 모양새다. 변호사 선임 비용과 시간을 아낄 수 있을 뿐 아니라 AI에 사건 경위를 설명하고 예상 질문을 받아볼 수 있다는 점 등에서 활용이 확산되고 있지만 일각에서는 부정확한 정보가 제공될 가능성도 있는 만큼 참고 수준에서 신중하게 이용할 필요가 있다는 지적도 나온다.
12일 투데이신문 취재를 종합하면 최근 일부 온라인 커뮤니티에서는 변호사 상담에 앞서 AI에 먼저 상황을 물어보라는 조언을 담은 글이 여러차례 게재됐다.
한 이용자는 AI에 사건 상황을 상세히 입력하면 유사한 판례나 사례를 제시하고 예상 벌금이나 형량, 향후 수사·재판 절차까지 설명해 준다며 활용 경험을 공유하는 글을 올렸다. 그는 AI의 조언을 참고해 대응한 결과 수사에서 무혐의 처분을 받았다는 사례도 함께 소개했다.
이 같은 경험담이 온라인 커뮤니티를 중심으로 확산되면서 AI를 사건 대응의 참고 도구로 활용하려는 분위기도 나타나고 있다.
일부 이용자는 사건 경위를 입력해 경찰 조사에서 나올 수 있는 예상 질문을 정리하고 답변 방향을 점검하는 등 일종의 ‘모의 신문’ 형태로 AI를 활용한다고 설명했다. 또 진술 과정에서 유의할 점이나 혐의 성립 요건을 설명해 달라고 요청하고 조사 과정에서 이어질 수 있는 추가 질문까지 가정해 대응 방안을 마련하는 사례도 등장했다. 또 다른 이용자는 “챗GPT에서 받은 설명과 실제 변호사 상담 내용이 크게 다르지 않았다”고 밝히기도 했다.
이 같은 AI 활용은 주로 도로교통법 위반이나 사이버 범죄 등 비교적 경미한 사건에서 두드러진다는 분석이 나온다. 형사 전문 변호사를 선임할 경우 많게는 수백만원에 이르는 비용 부담이 발생하는 만큼 우선 AI를 통해 기본적인 대응 방향을 살펴보겠다는 취지에서 이 같은 선택을 하는 것이다.
AI가 법률 영역에서 일정 부분 활용되는 배경에는 기술적 특성도 자리한다. 대규모 언어모델 기반 AI는 판례와 법령 등 텍스트 중심의 방대한 자료를 학습하고 분석하는 데 강점을 보이고 있어 법률 정보 탐색이나 문서 정리와 같은 작업에서 비교적 유용하게 활용될 수 있기 때문이다.
실제로 AI 활용은 빠르게 확산되고 있다. 지난달 25일 컨슈머인사이트가 발표한 ‘주례 생성형 AI 이용 동향조사’에 따르면 전국 만 18~65세 성인 1600명을 대상으로 조사를 진행한 결과, AI 이용 경험률은 75%였다. 최초 이용 계기로는 ‘호기심이나 재미’라는 응답이 42%로 가장 많았지만 문제 해결(10%) 등 실용적 활용 목적도 빠르게 증가하고 있는 것으로 집계됐다.
이 같은 추세에 발맞춰 법률 분야에서도 AI 활용이 빠르게 확대되고 있다. 앞선 사례부터 계약서나 소장 등 각종 법률 문서 작성 지원부터 판례 조사와 법률 상담, 판결문 검색·분석에 이르기까지 적용 범위도 점차 넓어지는 추세다. 법조계 내에서도 판례 검색이나 문서 요약 등 업무 보조 용도로 AI 활용이 늘고 있는 것으로 파악됐다.
하지만 AI가 판례나 법리를 잘못 제시하는 이른바 ‘환각’ 현상이 발생할 수 있다는 점에서 법률 정보의 정확성과 신뢰성 확보가 중요한 과제로 지적된다. 또 AI가 사실상 법률 상담과 유사한 기능을 수행하면서 변호사 등 전문직 영역과의 경계 문제를 둘러싼 논쟁도 함께 언급되고 있다.
이에 대해 일선 현장에서는 AI를 법률 정보 탐색이나 참고용으로 활용하는 것 자체는 가능하지만 제시한 답변을 그대로 신뢰하는 데에는 신중할 필요가 있다는 입장을 보이고 있다.
천윤석 변호사(종합법률사무소 이정)는 본보에 “AI의 장단점이 법률 분야에서도 그대로 나타난다”며 “전략을 구상하거나 아이디어를 얻는 데는 일정 부분 도움이 될 수 있지만 이전 판례나 법리, 성립 요건 등을 정확히 제시하는 데서는 오류가 잦다”고 짚었다.
이어 “특히 형사 사건처럼 이미 발생한 상황에 대한 대응을 판단해야 하는 경우에는 이러한 오류가 더욱 위험할 수 있다”며 “AI가 구체적인 맥락을 이해하지 못하고 답하거나 법리나 판례를 잘못 안내할 경우 이용자가 이를 그대로 믿고 대응할 가능성이 있고 실제 조사과정에서 발생할 수 있는 다양한 변수까지 충분히 반영하기 어렵다”고 지적했다.
한편 경찰 등 수사기관에서도 AI를 적극 활용하고 있는 추세다. 실제 수사 현장에서는 ‘AI 대화 기록’이 피의자의 내심, 즉 범행 의도를 파악하는 주요 단서로 활용되는 사례가 늘고 있다. 포털 검색이 주로 단어 중심의 입력 방식인 반면, AI 챗봇에는 문장 형태로 질문하는 경우가 많아 범행 의도가 보다 구체적으로 드러날 가능성이 있기 때문이다.
실제로 최근 발생한 강북구 모텔 살인 사건의 경우, 경찰이 피의자 김소영(20)의 휴대전화 등을 포렌식해 조사한 결과 김씨가 범행 전 챗GPT에 ‘수면제와 술을 같이 먹으면 어떠냐’, ‘죽을 수도 있느냐’ 등의 질문을 한 정황을 포착했다. 경찰은 이를 바탕으로 혐의를 기존 상해치사에서 살인으로 변경했다.
Copyright ⓒ 투데이신문 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.