방송통신위원회 누리집 > 알림마당 > 보도자료 상세보기(“「생성형 인공지능 서비스 이용자 보
본문 시작 보도자료 방송통신위원회 보도자료를 게시하고 있습니다.방송통신위원회 활동과 정책에 관련된 언론 보도자료를 게시하고 있습니다. <!-- 20161014 이철우 주무관 구 정보통신부 보도/
kcc.go.kr
방송통신위원회 누리집 > 알림마당 > 보도자료 상세보기(“「생성형 인공지능 서비스 이용자 보
본문 시작 보도자료 방송통신위원회 보도자료를 게시하고 있습니다.방송통신위원회 활동과 정책에 관련된 언론 보도자료를 게시하고 있습니다. <!-- 20161014 이철우 주무관 구 정보통신부 보도/
kcc.go.kr
◆ 방송통신위원회 누리집에서 AI 이용자 보호 가이드라인 다운 받아 볼 수 있다.
생성형 AI, 안전하게 사용하려면 어떻게 해야 할까?
방송통신위원회가 이용자 보호 가이드라인 발표를 했다.
이번 가이드라인은 서비스 전반에 추구해야 할 4가지 기본원칙과 이를 실현하기 위한 6가지 실행 방식을 제시하고 있다.
요즘 텍스트, 이미지, 음악, 목소리까지 만들어내는 ‘생성형 인공지능(Generative AI)’이 빠르게 퍼지고 있다.
너무 편리한 기술이라서 많은 사람이 쓰고 있지만, 그만큼 피해 사례도 늘고 있는 게 사실이다.
그래서 정부 기관인 방송통신위원회(방통위)가 나섰다.
생성형 AI를 사용하는 사람들이 피해를 입지 않도록, 사업자들이 지켜야 할 이용자 보호 가이드라인을 만들고 3월 28일부터 시행하기로 했다.
방송통신위원회는 시행일 기준 2년마다 가이드라인에 대해 타당성을 검토 개선 등 조치를 취할 계획이다.
왜 이런 가이드라인이 필요할까?
생성형 AI는 아주 똑똑하지만, 완벽하지 않다.
예를 들어 딥페이크 영상처럼 누군가를 속이거나 범죄에 악용되는 경우, 차별적이거나 편향된 내용을 만들어내는 경우, 잘못된 정보를 진짜처럼 보여주는 경우등 이런 문제들이 생기고 있기 때문에, 이용자들이 피해를 보지 않도록 제도적인 장치가 필요했던 것이다.
이번 가이드라인은 어떤 내용일까?
이번 가이드라인은 생성형 AI를 만든 회사나 서비스를 제공하는 업체가 지켜야 할 기본적인 원칙과 실천 방안을 담고 있다.
크게 두 부분으로 나뉜다.
4가지 기본 원칙 이용자의 안전, 신뢰, 자율성, 책임성을 지켜야 한다는 것과 6가지 실행 방식을 제시한다.
6가지 실행 방식은 아래와 같다.
1. 이용자 인격권 보호
AI가 누군가의 권리나 명예를 침해하지 않도록 주의해야 한다는 뜻이다.
- 예시: AI가 유명인의 사진을 조작해 가짜 뉴스나 딥페이크 영상을 만들어 유포하는 경우가 있다. 이는 명백한 인격권 침해이다.
- 실행 방안: 이런 콘텐츠가 생성되지 않도록 사전 필터링을 적용하거나, 신고가 들어왔을 때 신속히 삭제 조치해야 한다.
2. 결정·과정을 알리려는 노력
AI가 왜 그런 결과를 냈는지, 어떻게 판단했는지를 설명할 수 있어야 한다는 뜻이다.
- 예시: AI가 구직자의 이력서를 평가해 ‘부적합’ 판정을 내렸다면, 사용자는 그 이유를 알아야 한다.
- 실행 방안: AI의 판단 근거를 사용자가 이해할 수 있는 형태로 공개하거나, ‘이 결정은 AI가 참고한 데이터에 기반한 결과입니다’라는 안내 문구를 제공하는 방식이 있다.
3. 다양성 존중 노력
AI가 특정 성별, 인종, 나이, 지역 등에 대해 차별하거나 편향된 답변을 하지 않도록 주의해야 한다는 뜻이다.
- 예시: AI가 “과학자는 대부분 남성입니다” 같은 편향된 표현을 한다면 이는 다양성을 해치는 일이다.
- 실행 방안: AI가 편견 없이 답변하도록 학습 데이터를 조정하거나, 표현의 균형을 유지하도록 설계해야 한다.
4. 입력데이터 수집·활용 과정에서의 관리
AI를 훈련시킬 때 사용하는 데이터가 문제가 없는지, 개인정보가 포함되지 않았는지를 관리하라는 의미이다.
- 예시: 인터넷에 공개된 누군가의 게시글이나 사진을 AI가 무단으로 학습하면 저작권 침해나 개인정보 침해가 될 수 있다.
- 실행 방안: 데이터를 수집할 때 출처 확인과 동의 여부를 명확히 하고, 민감한 정보는 제거한 뒤 사용해야 한다.
5. 문제 해결을 위한 책임과 참여
AI가 잘못된 정보를 제공하거나, 피해를 유발했을 때 사업자가 책임을 지고, 이용자가 문제를 해결할 수 있는 절차를 마련해야 한다는 뜻이다.
- 예시: AI가 허위 정보를 바탕으로 건강에 해로운 조언을 했고, 이용자가 피해를 봤다면 사업자가 이에 대한 책임을 회피해서는 안 된다.
- 실행 방안: 이용자가 문제를 신고하고 구제받을 수 있는 창구를 만들고, 내부적으로 사후 처리 절차를 마련해야 한다.
6. 건전한 유통·배포를 위한 노력
AI가 만든 콘텐츠가 온라인에 유통될 때, 그 내용이 유해하지 않도록 관리해야 한다는 의미이다.
- 예시: AI가 만든 가짜 뉴스, 폭력적인 이미지, 선정적인 소설 등이 인터넷에 그대로 퍼지는 경우
- 실행 방안: 콘텐츠를 게시할 때 ‘이 콘텐츠는 AI가 생성했습니다’라는 표시를 붙이고, 부적절한 콘텐츠는 사전 차단하거나 사용자에게 경고하는 시스템을 구축해야 한다.
이 6가지 실행 방안은 AI 기술의 발전이 ‘편리함’만이 아니라 ‘책임감’과 함께 가야 한다는 것을 보여준다.
정부의 이번 가이드라인은 기업들에게 AI를 더 안전하고 윤리적으로 운영하라는 일종의 안내서 역할을 하게 된다.
어떻게 만들어졌을까? 이 가이드라인은 그냥 정부가 일방적으로 만든 게 아니다.
AI 전문가, 연구기관(KISDI), 그리고 국내외 기업들의 사례를 종합적으로 검토해서 현실적으로 적용 가능한 방향으로 구성됐다.
또한 작년 9월에는 학술회의(컨퍼런스)를 열고, 주요 기업들과도 간담회를 열어 현장의 목소리를 반영하려고 노력했다.
앞으로는 어떻게 될까?
이번 가이드라인은 2년에 한 번씩 다시 점검해서 바뀐 상황에 맞게 개선될 예정이다.
AI 기술은 계속 발전하고 있기 때문에, 새로운 문제도 계속 생길 수 있기 때문이다.
방통위는 앞으로도 AI가 발전하면서 생기는 다양한 이용자 보호 문제에 적극 대응하겠다고 밝혔다.
AI가 만든 콘텐츠가 점점 많아지고 있다.
하지만 그 과정에서 생길 수 있는 피해나 부작용을 막기 위해,
정부가 사업자들이 지켜야 할 ‘이용자 보호 가이드라인’을 마련했다.
이용자들이 안전하게 AI를 이용할 수 있도록 하기 위한 장치라고 보면 된다.
'AI와 함께하다' 카테고리의 다른 글
과학의 날 인공지능 시대의 과학 (0) | 2025.04.21 |
---|---|
아마라의 법칙과 AI 시대 우리가 기억해야 할 것 (0) | 2025.04.20 |
유발하라리 AI시대 인간의 길 변화에 유연하라 (0) | 2025.04.18 |
AI가 당신의 직업을 위협한다면? 어떻게 살아남을 것인가? (0) | 2025.04.16 |
AI로 진화한 라이프스타일 삼성전자 비스포크 AI (0) | 2025.04.15 |