인공지능 기술이 우리 삶을 편리하게 만들고 있지만, 동시에 가짜 뉴스 생성이나 개인정보 침해 같은 예상치 못한 위험도 커지고 있습니다. 자동차가 도로를 안전하게 달리기 위해 교통 신호등과 법규가 필요한 것처럼, AI 기술도 안전하게 사용하기 위해 전 세계 국가들이 앞다투어 규제 방안을 마련하고 있습니다.
1. 세계 최초의 AI 법, 유럽연합(EU)의 AI 법안
유럽연합은 2024년 전 세계에서 가장 먼저 강력한 'AI 법(AI Act)'을 통과시켰습니다. 이 법의 핵심은 AI의 위험도를 4단계로 나누어 관리하는 것입니다. 예를 들어, 사람의 감정을 분석해 조종하거나 신용 점수를 마음대로 매기는 '고위험 AI'는 사용을 엄격히 금지하거나 강력한 감시를 받게 됩니다. 이를 어길 경우 기업은 전 세계 매출의 최대 7%에 달하는 엄청난 벌금을 물어야 할 수도 있습니다.
2. 미국의 안전 보장과 한국의 자율 규제
미국과 한국도 각자의 방식으로 규제를 준비하고 있습니다. 미국은 2023년 대통령 행정명령을 통해, 국가 안보나 경제에 큰 영향을 줄 수 있는 강력한 AI 모델을 개발할 때는 반드시 정부에 안전 테스트 결과를 보고하도록 의무화했습니다. 한국의 경우, 기술 발전을 가로막지 않으면서도 안전을 지킬 수 있도록 기업들이 스스로 윤리 원칙을 지키게 하는 '자율 규제'와 '인공지능 기본법' 제정을 함께 추진하고 있습니다.
3. 워터마크 표시 의무화: 가짜와의 전쟁
최근 규제들의 공통된 흐름 중 하나는 AI가 만든 콘텐츠에 '워터마크'를 의무적으로 표시하게 하는 것입니다. 딥페이크 같은 가짜 영상이나 글이 선거에 영향을 주거나 범죄에 악용되는 것을 막기 위함입니다. 구글, 메타와 같은 글로벌 IT 기업들은 이미 AI로 만든 이미지의 보이지 않는 곳에 디지털 표식을 넣어, 사용자들이 이것이 사람이 만든 것인지 AI가 만든 것인지 쉽게 구별할 수 있도록 돕고 있습니다.
4. 규제와 혁신 사이의 균형 잡기
AI 규제는 기술 발전을 방해하려는 것이 아니라, 기술을 '더 오래, 안전하게' 쓰기 위한 보호 장치입니다. 너무 강한 규제는 새로운 기술이 탄생하는 것을 방해할 수 있고, 너무 약한 규제는 우리 사회를 위험에 빠뜨릴 수 있습니다. 따라서 전 세계는 안전(Safety)과 혁신(Innovation)이라는 두 마리 토끼를 모두 잡기 위한 공통의 규칙을 만들기 위해 끊임없이 대화하고 있습니다.
참고 문헌
• European Parliament, EU AI Act: first regulation on artificial intelligence, (2024).
• The White House, Executive Order on the Safe, Secure, and Trustworthy Development and Deployment of Artificial Intelligence, (2023).
• 과학기술정보통신부, 인공지능(AI) 윤리기준 및 신뢰성 확보 가이드라인, (2024).