[김병필의 인공지능 개척시대] 인공지능의 ‘안전’ 인증

최근 게시물 게시판 뉴스이슈 [김병필의 인공지능 개척시대] 인공지능의 ‘안전’ 인증

  • 김병필 KAIST 기술경영학부 교수

    ‘CE’ 마크를 본 적이 있는가? 우리가 사용하는 많은 제품에 CE 마크가 붙어 있다. 유럽연합(EU)의 제품 인증마크다. EU의 안전·환경 및 소비자 보호 규제 준수에 관한 인증을 받았다는 뜻이다. 예컨대 어린이 장난감을 유럽에 수출하려면 CE 마크 인증을 받아야 한다. 우리나라에도 비슷한 제도로 국가통합인증마크(KC)가 있다.
     

    높아지는 인공지능 위험성 우려
    EU는 ‘고위험 AI’ 인증제도 추진
    AI의 사회적 신뢰 확보하려면
    안전성 시험, 검사 역량 길러야

    머지않아 인공지능 제품도 CE 마크를 붙여야 판매할 수 있는 때가 올지 모른다. 지난 4월 EU 집행위원회가 내놓은 인공지능 규제법안 초안에 담긴 내용이다. 그 핵심은 인공지능에 안전 규제를 도입하고, CE 마크 인증을 받아서 팔라는 것이다. 법이 통과되기까지는 수년이 걸릴 수도 있지만, 내용을 숙지하고 대비할 필요가 있다.
     
    모든 인공지능이 의무 인증 대상이 되는 것은 아니다. EU 법안은 크게 2가지 경우로 구분하고 있다. 첫 번째는 인공지능이 안전 부속품으로 활용되는 경우다. 공장 기계, 엘리베이터, 무선장치, 케이블, 의료기기 등 이미 EU 안전 규제가 존재하는 제품에 인공지능을 적용하려면, 인공지능의 안전성도 평가해야 한다.
     
    두 번째는 EU가 ‘고위험’ 인공지능으로 지정한 경우다. 고위험 인공지능 소프트웨어를 만들어 판매하려면 인공지능의 위험성을 평가하고 그에 대한 적절한 조치가 취해졌는지 평가하라는 것이다. 공개된 법안 초안에는 고위험 인공지능으로 총 8개 분야가 나열되어 있다. 생체 인식, 중요 인프라 관리·운영, 교육 및 직업훈련, 직원채용 및 인사관리, 신용평가나 복지대상자 결정, 경찰, 출입국 관리, 사법 업무 등이다.
     
    언뜻 생각해도 ‘고위험’ 분야에서 인공지능이 잘못 활용되면 적지 않은 피해가 발생할 수 있어 보인다. 우선 인공지능의 정확도가 너무 낮으면 안 된다. 경찰이 엉뚱한 사람을 체포할 수도 있고, 우수한 학생의 입학이 좌절될 수도 있다. 인공지능에 편향이 없는지도 판단해야 한다. 직원채용 인공지능이 특정 성별을 차별하거나 출입국 관리 인공지능이 특정 인종을 차별하는 것은 허용될 수 없다. 이렇게 놓고 보면 EU 집행위원회가 고위험 인공지능을 규제하려는 취지가 수긍이 간다. 이런 분야에서 인공지능을 활용하려면 조심하고 또 조심하라는 것이다.
     

    인공지능 개척시대 6/14

    인공지능 개척시대 6/14

    하지만 인공지능 업계는 곤혹스러워하는 분위기다. 이제까지 CE 마크란 공장에서 만들어내는 제품에 붙이는 것으로 여겨왔는데, 인공지능에 CE 마크 인증을 받으라니 생소한 규제라고 여길 법하다. EU에서는 인공지능 산업의 위축을 우려하는 목소리도 있다. 인공지능을 활용해서 얻을 수 있는 여러 효익은 고려하지 않고 위험성만 강조하다 보면 결국 EU 인공지능 산업이 경쟁력을 잃어갈 것이라는 지적이다.
     
    EU 집행위원회도 이러한 비판을 의식해서인지, 이번 규제가 예외적으로 위험한 인공지능에만 적용되는 것이고 나머지 대부분 인공지능은 규제 대상이 아니라고 강조한다. 오히려 고위험 분야의 인공지능을 적절히 규제하지 않는다면 오히려 인공지능에 대한 사회적 신뢰가 훼손되어 인공지능 산업에 역효과를 줄 수 있다는 것이다. 또한, 기업 부담을 고려해 고위험 인공지능 소프트웨어에 대한 인증 평가는 인공지능 개발업체가 자체적으로 수행할 수 있도록 하였다.
     
    미국식 접근법은 사뭇 다르다. 미국은 제조물 책임 소송제도가 발달해 있다. 개발사가 자신의 책임으로 인공지능을 출시하도록 하되 누군가 피해를 보면 소송을 통해 배상받는 형식이다. 사전적 규제를 두는 것이 아니라 재판을 통해 사후적으로 규제하는 셈이다. 다만, 미국 여러 주에서는 고위험 인공지능에 대해서는 사전 규제를 도입하려는 움직임도 있어 유럽식 접근법과 크게 다르지 않은 예도 있다.
     
    우리는 어떻게 대응해야 할까? 우선 국내 인공지능 개발업체는 인공지능 안전성을 시험, 검사할 역량을 갖출 필요가 있다. EU 인공지능 법안이 통과되고 나서 준비하려면 늦을 수 있다. 한편, 우리도 EU처럼 고위험 인공지능 안전 규제를 도입해야 할 것인지는 더 고민할 문제다. 우리는 미국처럼 소송제도가 발달해 있지 않으니 EU 규제와 유사한 법이 필요하다는 주장과 아직은 시기상조라는 주장이 대립하고 있다. 차근히 연구하고 살펴야 한다. EU 인공지능 규제법안은 지난 수년 동안 EU 차원에서 깊이 있는 연구를 수행하고 여러 이해관계자의 의견을 수렴한 결과물이라는 점을 명심해야 한다.
     
    김병필 KAIST 기술경영학부 교수


    Source link

    신고하기
  • 답변은 로그인 후 가능합니다.