검수요청.png검수요청.png

"예측곤란성"의 두 판 사이의 차이

해시넷
이동: 둘러보기, 검색
(인공지능기술 규율에 고려되어야 할 예측곤란성)
15번째 줄: 15번째 줄:
 
인공지능이 초래하는 위험은 기존의 다른 위험과는 구별되는 몇 가지 특성을 가지고 있다. 그 중 하나인 예측곤란성은 인공지능에 적용되는 알고리즘이 정확히 어떠한 방식으로 작동할 것인지 예측하기 곤란하다는 점에서 기인한다.  
 
인공지능이 초래하는 위험은 기존의 다른 위험과는 구별되는 몇 가지 특성을 가지고 있다. 그 중 하나인 예측곤란성은 인공지능에 적용되는 알고리즘이 정확히 어떠한 방식으로 작동할 것인지 예측하기 곤란하다는 점에서 기인한다.  
  
인공지능은 의사결정에서 기계적 특성을 가지기 때문에 인간이 갖는 특성이 배제되는 모습을 보인다. 즉 인간은 인지적 한계가 있으므로 가능한 모든 해결책을 찾기보다 만족할 수 있는 해결책을 모색하는 반면, 인공지능은 가용한 모든 정보를 분석하여 최적의 결과를 도출하므로 인간과 다른 결정을 내릴 수 있다. 특히 인간은 자신의 의지, 사회통념, 경험법칙 등의 한계에 제약될 수 있는 반면, 인공지능은 가용되는 데이터 세트의 패턴과 상관관게에 의하여 작동되므로 인간이 가지는 인지적 제약에서 자유로울 수 있다. 이러한 특성으로 인하여 인공지능을 창의적이라고 생각할 수 있는 반면, 다른 한편으로 인간의 입장에서는 이해하기 어려운 예측곤란하다는 평가를 내릴 수 있다. 이에 따라 인간이라면 직관으로 거부할 수밖에 없는 것이라고 하더라도 인공지능은 인간이 가지는 인지적 한계에서 자유로우므로 인간이 도저히 상상할 수 없는 방법으로 일을 처리할 수 있다. 인공지능이 가지는 ‘예측불가능성(Unforeseeability)’이라는 특성은 민사책임과 관련하여 여러 가지 법적 문제를 야기한다.
+
인공지능은 의사결정에서 기계적 특성을 가지기 때문에 인간이 갖는 특성이 배제되는 모습을 보인다. 즉 인간은 인지적 한계가 있으므로 가능한 모든 해결책을 찾기보다 만족할 수 있는 해결책을 모색하는 반면, 인공지능은 가용한 모든 정보를 분석하여 최적의 결과를 도출하므로 인간과 다른 결정을 내릴 수 있다. 특히 인간은 자신의 의지, 사회통념, 경험법칙 등의 한계에 제약될 수 있는 반면, 인공지능은 가용되는 데이터 세트의 패턴과 상관관게에 의하여 작동되므로 인간이 가지는 인지적 제약에서 자유로울 수 있다. 이러한 특성으로 인하여 인공지능을 창의적이라고 생각할 수 있는 반면, 다른 한편으로 인간의 입장에서는 이해하기 어려운 예측곤란하다는 평가를 내릴 수 있다. 이에 따라 인간이라면 직관으로 거부할 수밖에 없는 것이라고 하더라도 인공지능은 인간이 가지는 인지적 한계에서 자유로우므로 인간이 도저히 상상할 수 없는 방법으로 일을 처리할 수 있다. 인공지능이 가지는 ‘예측불가능성(Unforeseeability)’이라는 특성은 민사책임과 관련하여 여러 가지 법적 문제를 야기한다.<ref name="인공지능 사회를 대비한 민사법적 과제 연구">정진명 교수, 이상용 교수,  〈[http://www.prism.go.kr/homepage/researchCommon/downloadResearchAttachFile.do;jsessionid=63486E416728E9C1AA70FD420FDE5C9C.node02?work_key=001&file_type=CPR&seq_no=001&pdf_conv_yn=N&research_id=1270000-201800010
 +
]〉, 《인공지능 사회를 대비한 민사법적 과제 연구》</ref>
  
 +
이러한 인공지능이 가지는 에측불가능성은 인공지능이 기계학습([[머신러닝]]) 기법을 토대로 개발되고 있다는 데 있다. 즉 인공지능은 인지적 관점에서 보면 인간의 학습과 다르지만 그 사용단계에서 경험을 통해서 배우고 그 성능이 계속 향상된다. 따라서 인공지능의 설계자나 [[개발자]]에게 인공지능의 오작동으로 인하여 발생한 손해에 대하여 책임을 묻기 어렵다. 예컨대, [[마이크로소프트]]사의 인공지능 모바일 메신저 ‘테이(Tay)’가 학습과정에서 엉뚱한 말과 생각을 배ㅝ 막말을 한 것이 문제되었다. 이 경우 인공지능의 설계자나 개발자는 인공지능이 기계학습을 통하여 진화되는 상황을 제어할 수 없기 때문에 기존의 책임론으로 그에 대한 책임을 묻기 어렵다. 나아가 인공지능의 소유자나 사용자도 인공지능의 오작동으로 인하여 발생한 손해를 전혀 예견할 수 없으며, 인공지능의 사용에 대한 주의의무를 기대할 수 없다. 그러나 인공지능의 설계자나 개발자는 이러한 위험에도 불구하고 인공지능 개발을 통하여 경제적 이익을 얻는다. 특히 인공지능의 설계자나 개발자는 이러한 예측불가능성에도 불구하고 인공지능을 개발하는 것은 그로 인한 손해를 감수하겠다는 의도가 있다고 볼 수밖에 없다. 따라서 인공지능의 예측불가능성에 대한 법적대안으로 무과실책임 법리를 채택한 제조물책임법이나 위험에 대한 책임을 다수에게 배분하는 보험에 의하여 해결하는 방안이 고려된다.
  
 
+
알고리즘이 복잡할수록 어느 부분에 근거하여 특정 결과값이 도출되었는지 확인하기 어려워지기 때문이다. 또한 기계학습처럼 기계가 네트워크를 통하여 제공되는 수많은 정보를 토대로 스스로 카테고리를 형성하고 그 범주에 맞추어 입력값을 인식하는 경우, 입력된 정보의 성격에 따라 개발자가 의도한 바와 다른 카테고리가 형성되고 결과가 산출될 가능성이 높다. 물론 인공지능이 도출한 의외의 결과가 창의적인 사고방식의 산물로서 유용한 참고자료가 될 수도 있을 것이다. 그러나 그 결과가 인간이 성장환경, 규범의식 등을 통하여 형성하여 온 수용범위를 초과할 수도 있다는 점을 간과해서는 안될 것이다.<ref name="인공지능 사회를 대비한 민사법적 과제 연구"></ref>
 
 
알고리즘이 복잡할수록 어느 부분에 근거하여 특정 결과값이 도출되었는지 확인하기 어려워지기 때문이다. 또한 기계학습처럼 기계가 네트워크를 통하여 제공되는 수많은 정보를 토대로 스스로 카테고리를 형성하고 그 범주에 맞추어 입력값을 인식하는 경우, 입력된 정보의 성격에 따라 개발자가 의도한 바와 다른 카테고리가 형성되고 결과가 산출될 가능성이 높다. 물론 인공지능이 도출한 의외의 결과가 창의적인 사고방식의 산물로서 유용한 참고자료가 될 수도 있을 것이다. 그러나 그 결과가 인간이 성장환경, 규범의식 등을 통하여 형성하여 온 수용범위를 초과할 수도 있다는 점을 간과해서는 안될 것이다.  
 
  
 
{{각주}}
 
{{각주}}

2020년 7월 16일 (목) 16:07 판

예측곤란성은 예측과 곤란이 합쳐져 만들어진 단어이며, 예측하기 곤란한 상황 즉, 앞을 미리 헤어려 짐작하기 어렵다는 뜻이다.

  • '예측' 이라는 단어는 미리 예(豫), 헤아릴 측(測)이라는 한자를 조합하여 만든 단어로 미리 헤아려 짐작하다는 뜻이다. 유의어로는 '지레짐작', '예상', '예견', '짐작', '추측', '추리' 등의 단어가 있다.
  • '곤란' 이라는 단어는 곤할 곤(困), 어려울 란(難)이라는 한자를 조합하여 만든 단어로 사정이 몹시 딱하고 어렵거나 그런 일을 뜻한다. 유의어로는 '어려움', '난처', '난감', '사고', '재난', '고통', '괴로움', '궁핍', '아픔' 등의 단어가 있으며 반의어로는 '부유'가 있다.

인공지능의 예측곤란성

인공지능의 개념과 기술적 구현방식

4차 산업혁명과 마찬가지로 인공지능이라는 개념도 명확하게 정의되어 있지 않다. 인공지능 개념을 정의하는 것이 쉽지 않은 이유는 무엇보다도 ‘지능’이라는 개념이 여전히 불분명하기 때문이라고 생각된다. 단지 생산공정에 설비된 기계들이 미리 프로그램된 바에 따라 인간의 단순노동을 대체한다고 해서 이를 인공지능의 한 형태라고 이해할 수는 없을 것이다. 인공지능의 핵심은 단순히 컴퓨터가 어떤 작업을 인간과 동일하게 수행하는 것이 아니라, ‘인간의 사고과정’을 형식화하고 모방하는 데 있다고 볼 수 있기 때문이다. 컴퓨터공학 분야에서도 마찬가지로 이해되고 있다. 한편 법적인 측면에서 인공지능에 대한 정의는 아직 명확하게 규정된 바 없다. 최근 「국가정보화기본법개정안」은 “인간의 학습 ․ 추론 ․ 지각 ․ 자연어처리 능력 등 고차원적 정보 처리 활동을 연구하여 정보통신기술을 통해 구현하는 기반기술”을 ‘지능정보기술’로 규정하고 있다. 비록 개정법안은 인공지능이라는 용어를 명시적으로 사용하고 있지 않지만, 인간의 사고과정을 연구하고 이를 기술적으로 구현하는 데 초점을 두고 있다는 점에서 기술분야에서 논의되는 인공지능의 개념을 반영하고 있는 것으로 보인다.[1]

현실적인 법적 논의대상으로서 약한 인공지능

4차 산업혁명 시기에 인공지능은 이전보다 더욱 빠른 속도로 발전을 거듭할 것으로 예상된다. 인공지능기술 시장의 팽창은 이러한 기대를 반영하고 있다. 따라서 언젠가는 완전한 자율성을 가지는 강한 인공지능이 출현하리라는 가정을 완전히 배제할 수 없을 것이다. 그러나 인공지능이라는 용어가 1956년 처음으로 사용된 이후 지금까지 인공지능이 3차례의 부침을 겪어 왔다는 점을 고려하면, 장래 기술발전 과정에서 또 다른 침체기를 맞을 가능성은 여전히 남아있다. 그리고 기계에 완전한 자율성을 부여하는 알고리즘이 단기간 내에 개발되기는 힘들것으로 예상되고 있다. 예를 들어, 인공지능은 복잡한 수식을 신속하게 계산하는 등 특정분야에 국한하여 탁월한 성과를 내고 있지만, 인간과 같은 감각기관의 작용, 운동, 의사소통 등을 수행하는 데에는 여전히 한계를 보이고 있다. 이 점에서 1970년대에 발표된 모라벡의 역설(Moravec's Paradox)이 오늘날에도 여전히 유효한 것으로 보인다. 최근에는 이러한 현실적 한계를 고려하여 강한 인공지능 대신 곧 문제가 현실화될 것으로 예상되는 약한 인공지능을 전제로 논의를 전개하는 경향이 나타나고 있다.[1]

인공지능기술 규율에 고려되어야 할 예측곤란성

인공지능이 초래하는 위험은 기존의 다른 위험과는 구별되는 몇 가지 특성을 가지고 있다. 그 중 하나인 예측곤란성은 인공지능에 적용되는 알고리즘이 정확히 어떠한 방식으로 작동할 것인지 예측하기 곤란하다는 점에서 기인한다.

인공지능은 의사결정에서 기계적 특성을 가지기 때문에 인간이 갖는 특성이 배제되는 모습을 보인다. 즉 인간은 인지적 한계가 있으므로 가능한 모든 해결책을 찾기보다 만족할 수 있는 해결책을 모색하는 반면, 인공지능은 가용한 모든 정보를 분석하여 최적의 결과를 도출하므로 인간과 다른 결정을 내릴 수 있다. 특히 인간은 자신의 의지, 사회통념, 경험법칙 등의 한계에 제약될 수 있는 반면, 인공지능은 가용되는 데이터 세트의 패턴과 상관관게에 의하여 작동되므로 인간이 가지는 인지적 제약에서 자유로울 수 있다. 이러한 특성으로 인하여 인공지능을 창의적이라고 생각할 수 있는 반면, 다른 한편으로 인간의 입장에서는 이해하기 어려운 예측곤란하다는 평가를 내릴 수 있다. 이에 따라 인간이라면 직관으로 거부할 수밖에 없는 것이라고 하더라도 인공지능은 인간이 가지는 인지적 한계에서 자유로우므로 인간이 도저히 상상할 수 없는 방법으로 일을 처리할 수 있다. 인공지능이 가지는 ‘예측불가능성(Unforeseeability)’이라는 특성은 민사책임과 관련하여 여러 가지 법적 문제를 야기한다.[2]

이러한 인공지능이 가지는 에측불가능성은 인공지능이 기계학습(머신러닝) 기법을 토대로 개발되고 있다는 데 있다. 즉 인공지능은 인지적 관점에서 보면 인간의 학습과 다르지만 그 사용단계에서 경험을 통해서 배우고 그 성능이 계속 향상된다. 따라서 인공지능의 설계자나 개발자에게 인공지능의 오작동으로 인하여 발생한 손해에 대하여 책임을 묻기 어렵다. 예컨대, 마이크로소프트사의 인공지능 모바일 메신저 ‘테이(Tay)’가 학습과정에서 엉뚱한 말과 생각을 배ㅝ 막말을 한 것이 문제되었다. 이 경우 인공지능의 설계자나 개발자는 인공지능이 기계학습을 통하여 진화되는 상황을 제어할 수 없기 때문에 기존의 책임론으로 그에 대한 책임을 묻기 어렵다. 나아가 인공지능의 소유자나 사용자도 인공지능의 오작동으로 인하여 발생한 손해를 전혀 예견할 수 없으며, 인공지능의 사용에 대한 주의의무를 기대할 수 없다. 그러나 인공지능의 설계자나 개발자는 이러한 위험에도 불구하고 인공지능 개발을 통하여 경제적 이익을 얻는다. 특히 인공지능의 설계자나 개발자는 이러한 예측불가능성에도 불구하고 인공지능을 개발하는 것은 그로 인한 손해를 감수하겠다는 의도가 있다고 볼 수밖에 없다. 따라서 인공지능의 예측불가능성에 대한 법적대안으로 무과실책임 법리를 채택한 제조물책임법이나 위험에 대한 책임을 다수에게 배분하는 보험에 의하여 해결하는 방안이 고려된다.

알고리즘이 복잡할수록 어느 부분에 근거하여 특정 결과값이 도출되었는지 확인하기 어려워지기 때문이다. 또한 기계학습처럼 기계가 네트워크를 통하여 제공되는 수많은 정보를 토대로 스스로 카테고리를 형성하고 그 범주에 맞추어 입력값을 인식하는 경우, 입력된 정보의 성격에 따라 개발자가 의도한 바와 다른 카테고리가 형성되고 결과가 산출될 가능성이 높다. 물론 인공지능이 도출한 의외의 결과가 창의적인 사고방식의 산물로서 유용한 참고자료가 될 수도 있을 것이다. 그러나 그 결과가 인간이 성장환경, 규범의식 등을 통하여 형성하여 온 수용범위를 초과할 수도 있다는 점을 간과해서는 안될 것이다.[2]

각주

  1. 1.0 1.1 박종보, 김휘홍, 〈[1]〉, 《인공지능기술의 발전과 법적 대응방향》
  2. 2.0 2.1 정진명 교수, 이상용 교수, 〈[http://www.prism.go.kr/homepage/researchCommon/downloadResearchAttachFile.do;jsessionid=63486E416728E9C1AA70FD420FDE5C9C.node02?work_key=001&file_type=CPR&seq_no=001&pdf_conv_yn=N&research_id=1270000-201800010 ]〉, 《인공지능 사회를 대비한 민사법적 과제 연구》

참고자료


  검수요청.png검수요청.png 이 예측곤란성 문서는 인공지능 기술에 관한 글로서 검토가 필요합니다. 위키 문서는 누구든지 자유롭게 편집할 수 있습니다. [편집]을 눌러 문서 내용을 검토·수정해 주세요.