검수요청.png검수요청.png

크롤링

해시넷
Asadal (토론 | 기여)님의 2021년 7월 8일 (목) 13:14 판
이동: 둘러보기, 검색

크롤링(crawling)이란 데이터를 수집하고 분류하는 것을 의미한다. 주로 인터넷 상의 웹페이지를 수집해서 분류하고 저장하는 것을 뜻하며 데이터가 어디에 저장되어 있는지 위치에 대한 분류 작업이 크롤링의 주요 목적이다. 크롤링의 주요 대상은 다양한 형태로 존재하는 데이터로, 데이터 생성 스타일에 따라, 정형, 반정형 그리고 비정형 데이터로 구분되기도 하지만, 데이터를 생산하는 주체에 따라 기업과 사용자가 생성하는 데이터로 분류할 수 있다.[1]

개요

크롤링은 웹페이지를 그대로 가져와서 거기서 데이터를 추출해 내는 행위로써 크롤링하는 소프트웨어크롤러(crawler)라고 한다.

검색엔진(search engine)에서도 유사한 것을 필수적으로 사용한다. 검색엔진(search engine)은 상에 존재하는 정보와 웹 사이트를 검색하기 위한 프로그램이며 스파이더(spider),(bot), 지능 에이전트라고도 한다.[2] 일일이 해당 사이트의 정보를 검색하는 것이 아니라 컴퓨터 프로그램의 미리 입력된 방식에 따라 끊임없이 새로운 웹페이지를 찾아 종합하고, 찾은 결과를 이용해 또 새로운 정보를 찾아 색인을 추가하는 작업을 반복 수행한다. 단, 로봇의 검색 가능을 역이용하여 순위를 조작하거나 검색을 피할 수 있는 단점도 있다. 참고로 네이버, 구글 등도 이런 봇을 이용해 운영된다. [3]

크롤링

크롤링 종류

웹 크롤러

사례

관련 소프트웨어

파이썬(Python)

이 분야의 선두주자로서, 컴퓨터 프로그래밍이 익숙하지 않은 비전공자들이 쓰기 쉽도록 라이브러리들이 발달하면서 급격히 발전하고 있다.

대표적인 파이썬(Python) 라이브러리로 beautifulsoup이 있다. 그 외에도 selenium이라는 라이브러리가 인기를 끌고 있고, webdriver와 headless옵션을 함께 이용해서 웹을 자동화 시킬수도 있다.[3]

자바(Java)

jsoup이라는 HTML 파싱 라이브러리가 존재한다. 파이썬(Python)의 beautifulsoup처럼 특정 조건을 가진 태그들을 선택하는 것이 가능하고 GET/POST 요청을 보내서 응답을 받아오는 것도 가능하다. 즉, URL을 가져오고 데이터를 추출 및 조작하는데 매우 편리한 API를 제공한다.[4]

전문적인 크롤링 소프트웨어는 아니지만, 일반인들이 사용할 만한 도구로 httrack과 wget-cut 정도가 있고, 2000년대 초반에는 WebZip이라는 것도 자주 사용 되었다.[3]

법적문제

웹사이트 콘텐츠를 긁어오는 '크롤링'을 이용해 확보한 콘텐츠를 자신의 영업에 무단 사용하는 것은 데이터베이스(DB)권 침해 행위라는 대법원 판단이 나왔다. 온라인 웹사이틀 운영하는 사업자 사이에서 광범위하게 이용되는 크롤링에 대한 법적 판단의 기준을 세웠다는 점에서 주목되었다. [5]

최근 크롤링 행위자에 대한 민·형사상 책임이 인정되는 법원의 판례들이 속속 등장하고 있다. 크롤링 행위 그 자체는 위법하지도 적법하지도 않은 무색투명한 개념이라 우리 형법 어디에도 '크롤링죄'를 두고 있지는 않다. 하지만 문제되는 것은 크롤링 행위가 우리 형법이 보호하고 있는 다른 법익을 침해하여 별개의 죄를 구성하는 경우다.

예를 들어, 요리의 도구로서 식칼을 구입하는 행위는 위법하지는 않는다. 하지만 살인의 도구로서 구입하는 행위는 살인예비죄로서 위법한 행위가 될 수 있는 것과 같다.

크롤링 행위에서 문제되는 대표적인 두 가지 법적 문제가 있다.

하나는 '정당한 접근 권한 없이 또는 허용된 접근 권한을 넘어 정보통신망에 침입'하는 행위를 금지하는 '정보통신망법' 위반이 대표적이다.

두 번째는 '저작권법'침해 문제이다. 크롤링의 최종 목적은 데이터 수집으로 수집과 저장의 과정을 알고리즘화 한 프로그럄으로 하여금 자동적이고 효율적으로 데이터를 수집하기 위함이다. 정보통신망 침입의 문제를 별개로 수집하는것이 낱개의 데이터인 경우라면 큰 문제는 발생하지 않는다. 하지만 크롤링의 목적을 고려한다면 가장 효율적인 대상으로는 이미 타인이 수집해 체계화가 된 데이터베이스일 것이다. 우리 저작권법 역시 데이터베이스 제작자의 권리를 명시적으로 보호하고 있다. 그러므로 크롤링을 계획하는 경우 그 데이터 수집행위가 이미 타인이 인적·물적 투자로 제작·관리하고 있는 데이터베이스 전부 혹은 상당한 부분을 복제하는 것은 아닌지를 신중히 검토해야 할 것이다.

이렇듯 크롤링 행위는 그 자체가 언제나 위법은 아니다. 하지만 그 행위가 형법이 금지하는 위법행위를 구성하는 경우에 한해 위법한 것이다.[6]

각주

  1. 원하는 정보만 수집한다! 크롤링과 빅데이터 분석 활용〉, 《삼성디스플레이 뉴스룸》, 2020-04-22
  2. 검색 엔진〉, 《나무위키》
  3. 3.0 3.1 3.2 크롤링〉 ,《나무위키》
  4. jsoup〉, 《jsop》
  5. 김동훈 기자,〈대법원 "웹사이트 무단 크롤링은 불법"〉,《비즈니스와치》, 2017-09-27
  6. 장영은 기자,〈(민후의 기·꼭·법)크롤링의 위법성은?〉, 《이데일리》, 2021-07-08

참고자료

같이 보기


  검수요청.png검수요청.png 이 크롤링 문서는 프로그래밍에 관한 글로서 검토가 필요합니다. 위키 문서는 누구든지 자유롭게 편집할 수 있습니다. [편집]을 눌러 문서 내용을 검토·수정해 주세요.