인권위, 보편 인권 기준 기반 “AI가 인간의 가치를 침해하면 안 된다” 명시
차별·혐오 문제로 서비스 중지했던 AI 챗봇 ‘이루다’ 개선 후 서비스 재개
꾸준한 관심으로 AI가 일으키는 문제를 선제적 방지하고 후천적 개선해야
국가인권위원회가 인공지능(AI)의 개발로 발생하는 인권 침해를 방지하기 위해 앞으로 관련 기업이 지켜야 할 가이드라인을 제시했다.
인권위는 지난 11일 제6차 전원위원회 회의에서 ‘인공지능 개발과 활용을 위한 인권 가이드라인 권고 건’을 원안 의결했다. 가이드라인의 기본 원칙에 인간의 존엄성, 알 권리, 자기 결정권, 평등권 보장을 내세웠다. 인간의 가치를 침해하면 안 된다는 것을 명시했다는 데 의의가 있다.
또한, 인권위는 인공지능의 정보를 공개해야 하고 인공지능의 혜택이 평등하게 제공돼야 함을 강조했다. 이에 따라 국가는 관련 규제와 법을 마련하고 인권 영향을 평가하는 제도를 만드는 등의 관리·감독·구제 책임을 행할 것을 함께 명시했다.
우리나라는 지난 2020년 말 ‘한국판 AI 윤리기준’을 마련한 적 있다. 그러나 인권위는 그것이 인공지능 관련 인권적 제도에 기반을 두지 않고 있다며 보편적 인권 기준에 따른 가이드라인을 만든 것이다.
인공지능 윤리에 관한 관심은 작년 출시된 챗봇 ‘이루다’ 1.0 논란 이후 높아졌다. 이루다는 20세 여성 대학생 설정의 인공지능이다. 당시 이루다는 성희롱과 차별·혐오 발언, 개인정보 유출 등 각종 논란에 휩싸여 서비스가 중지됐다.
차별·혐오 문제로 서비스 중지했던 AI 챗봇 ‘이루다’ 개선 후 서비스 재개
꾸준한 관심으로 AI가 일으키는 문제를 선제적 방지하고 후천적 개선해야
Tag
#시빅뉴스
#인공지능
#AI
#챗봇
#이루다
#인권위
#국가인권위원회
#인공지능개발
#AI개발
#인공지능가이드라인
#AI윤리
#인권
#AI인권침해
#구삐
#지식인터랙티브
#오픈타운
#빅데이터
#딥러닝
저작권자 © CIVICNEWS(시빅뉴스) 무단전재 및 재배포 금지