"AI, 윤리문제 조정 거버넌스 마련돼야"

기업 "AI피해 배상 보상제도 도입 검토해야"
국회입법조사처 '인공지능의 윤리적 사용을 위한 개선과제' 발표

염지은 승인 2020.10.01 16:24 | 최종 수정 2020.10.01 17:34 의견 0
/이미지=픽사베이


[포쓰저널] 인공지능(AI)은 우리 삶의 편리성을 향상시키지만, 예기치 않은 문제를 발생시키기도 한다.

하지만 인공지능의 윤리문제 대한 논의가 활발한 미국이나 유럽과 달리 우리나라는 기술 진흥에 중점을 두면서 윤리문제는 관심을 덜 받고 있다.

1일 국회에 따르면 국회입법조사처는 최근 펴낸 ‘인공지능의 윤리적 사용을 위한 개선과제’란 제목의 보고서에서 국내 인공지능 윤리문제와 관련해 정부와 기업이 적극 나서줄 것을 주문했다.

입법조사처는 인공지능의 윤리적 사용을 위해 정부가 인공지능의 윤리기준 등과 관련된 문제를 조정하고 해결할 수 있는 거버넌스나 사후 감시·감독시스템 등을 도입해야한다고 지적했다.

또 기업은 △윤리전문가 채용 △인공지능 윤리강령 제정 △인공지능 피해보상 방안 등을 마련하고 인공지능으로 인한 피해에 대한 배상책임 제도를 보완할 필요가 있다고 밝혔다.

/자료=국회입법조사처


현재 국내 인공지능 윤리헌장은 정부와 공공기관이 제정한 윤리헌장 5개와 비영리기관과 카카오가 마련한 윤리 헌 2개 등 총 7개가 있다.

국내 윤리헌장 중에는 지능정보사회 윤리헌장이 있으나 모든 인공지능 기술에 적용되는 윤리기준으로 보기에는 어려운 측면이 있다. 그 밖의 헌장은 각기 인공지능 사용 분야별로 제정돼 있어 인공지능 사용 분야별로 제정돼 있어 인공지능 전반에 관한 윤리기준은 미흡한 상태다.

입법조사처는 “인공지능이 자율주행차, 드론, 로봇 등 다양한 분야에 사용되고 있으나 사용에 따른 부작용은 적용기술에 따라 차이가 있을 수 있다는 점에서 체계적이고 표준적인 윤리기준이 필요하다”고 지적했다.

정부부처뿐만 아니라 관련 기업, 학계 시민단체가 참여하는 논의장과 함께 인공지능의 사용 확대에 따라 발생할 수 있는 윤리기준과 관련된 문제를 종합적으로 조정하고 해결할 수 있는 거버넌스를 두는 것을 고민해볼 필요가 있다고 밝혔다. 인공지능 사후 감시, 감독시스템 도입 마련도 필요한 것으로 제기됐다.

입법조사처는 ”인공지능의 복잡성, 불완전성으로 인해 개발자도 예측하지 못한 문제가 발생할 수 있으므로 해당 인공지능 기술이 개발 목적에 맞게 작동되고 있는지, 개발자가 예측하지 못한 오류가 있어 피해가 발생할 수 있는지를 사후에 체크하는 것은 인공지능 기술의 사전 기술영향평가 못지않게 중요하다”며 인공지능 사용에 따른 문제점을 사후에 추적, 평가할 수 있는 제도 마련이 필요하다고 주장했다.

인공지능을 설계하고 이용하는 자와 관련된 윤리교육의 도입도 필요한 것으로 지적됐다.

조사처는 “인공지능 관련 대학이나 대학원 학과 과정에 시스템 설계상에서 프라이버시 문제 탐구 등 윤리 강의를 추가하거나 일반교양과목으로 인공지능의 철학과 윤리에 관한 역사 등 윤리 강의를 추가할 수 있을 것”이라며 “일반 시민을 대상으로 인공지능의 안전한 사용 등과 같은 교육을 고려해 볼 수 있다”고 했다.

/자료=국회입법조사처


기업의 인공지능 윤리책임 강화에 대한 필요성도 제기됐다.

조사처는 브루킹연구소가 주최한 ‘인공지능 윤리적 딜레마 대책 논의’ 패널토의에서 기업 차원의 인공지능 검토 방안으로 제안한 △윤리전문가 채용 △AI윤리강령 제정 △AI 검토위원회 설치 △AI 감사 추적 필요 △AI 교육프로그램 구성 △AI피해 또는 상해 회복방안 제공 등을 예로 들었다.

그러면서 “인공지능 기술의 난이도, 위험성, 적용 분야 등을 고려해 기업 수준에 맞는 사항을 도입하도독 하면 부담이 경감될 것”이라며 “인공지능을 개발하고 사용한 기업은 최소한 AI윤리강령 제정, AI 감사 추적과 인공지능 피해 또는 상해 회복 방안을 준비할 필요가 있다”고 했다.

특히 조사처는 “인공지능의 특성을 고려해 책임요건을 규정할 필요가 있고, 누구에게도 책임을 돌릴 수 없는 손해의 경우 이를 배상하기 위한 보험제도 도입을 검토해 볼 필요가 있다”고 지적했다.

인공지능이 다른 제품과 결합될 경우는 ‘제조물 책임법’에 따른 책임을 물을 수 있지만, 인공지능이 소프트웨어 형태로 있을 때는 제조물 책임을 묻기 어렵다. 개발자와 사용자의 과실이 없는데도 피해가 발생할 때 어떻게 손해배상을 할 것인지도 문제가 된다.

조사처는 “인공지능은 로봇, 자율주행차, 드론, 신용평가, 신약개발 등 다양한 분야에서 사용이 되고 있고, 앞으로도 그 분야가 확대될 수 있다는 점에서 인공지능 기술을 개발하거나 사용하는 기업은 인공지능 윤리 책임을 강화하는 제도를 마련할 필요가 있다”고 지적했다.

저작권자 ⓒ 포쓰저널 무단전재 및 재배포 금지