beautifulsoup4 기본.

2 분 소요

intro

  • 웹에서 데이터를 가져오고 있습니다. 찾아보니 html문서를 파싱하는데는 beautifulsoup4가 매우 유용한다는 이야기가 있어서, 이 이아이를 간단하게라도 사용해보려고 합니다.

beautifulsoup4

Beautiful Soup is a Python library for pulling data out of HTML and XML files.

  • 즉, 이미 제가 가지고 있는 xml, html 문서들을 잘 파싱하여, 의미있는 정보(data)로 도출해내는 작업을 beautifulsoup4가 도와줍니다.

  • 우선은 언제나 그렇듯이 설치부터 합니다.

conda install beautifulsoup4

do it

  • 조금 특이한 것은 beautifulsoup4를 설치했는데, import bs4를 하는군요.
## 요즘에는 웹에서 데이터를 가져와야 하는 일들이 많아졌습니다. 
## 따라서, beautifulsoup이라는 라이브러리를 사용해서 html문서를 파싱하는 작업을 해보기로 합니다. 
from bs4 import BeautifulSoup

html_doc = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>

<p class="story">...</p>
"""
## BeautifulSoup 에 html 데이터와 파서를 넣고 인스턴스를 생성해줌
soup = BeautifulSoup(html_doc, 'html.parser')
def prettify(input_soup, indent_level = 1):    
    ## pretiffy에서는 indetation level을 조절할 수 없음
    ## 기본적으로는 1칸씩만 주어지는데, 이는 가독성이 좋지 못하여 임의로 코드를 작성해서 아래처럼 변경함.
    for s in soup.prettify().split("\n"):
        non_blank = 0 
        for i in range(0, len(s)):
            if s[i] != " ":
                non_blank = i
                break
        print(" "*(indent_level-1)*non_blank + s)
prettify(soup, 2)
<html>
  <head>
    <title>
      The Dormouse's story
    </title>
  </head>
  <body>
    <p class="title">
      <b>
        The Dormouse's story
      </b>
    </p>
    <p class="story">
      Once upon a time there were three little sisters; and their names were
      <a class="sister" href="http://example.com/elsie" id="link1">
        Elsie
      </a>
      ,
      <a class="sister" href="http://example.com/lacie" id="link2">
        Lacie
      </a>
      and
      <a class="sister" href="http://example.com/tillie" id="link3">
        Tillie
      </a>
      ;
and they lived at the bottom of a well.
    </p>
    <p class="story">
      ...
    </p>
  </body>
</html>
## soup는 객체처럼 hierarchical하게 값을 내려가면서 원하는 value를 찾을 수 있다. 
## 또한 다음처럼, tag를 attribute처럼 접근하는 것이 가능함은 물론, parent, children 등을 사용할 수도 있음. 
print(soup.title)
## tag name 
print(soup.title.name)
## 내부의 string
print(soup.title.string)
print("="*20)
## tag가 'p'인 것 모두 찾기 
for x in soup.find_all('p'):## tag는 그냥 스트링으로 넣어도됨. 
    if x['class'][0]=='story':
        print(x)
print("="*20)
## 전체에서 id가 link3인 것을 모두 찾고, 첫번째만 가져오기
print(soup.find_all(id='link3')[0])
print("="*20)
##텍스트만 뽑아서 출력하기 
print(soup.get_text())
<title>The Dormouse's story</title>
title
The Dormouse's story
====================
<p class="story">Once upon a time there were three little sisters; and their names were
<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>,
<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a> and
<a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
<p class="story">...</p>
====================
<a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>
====================

The Dormouse's story

The Dormouse's story
Once upon a time there were three little sisters; and their names were
Elsie,
Lacie and
Tillie;
and they lived at the bottom of a well.
...

wrap-up

  • 이제 requests로부터 html 문서를 가져오고, 거기서 파싱해서 사용하면 될 것 같습니다.
  • 하나 참고할 사실은, 해당 웹페이지에서 아무 정보나 막 가져올 경우에, 해당 서버에 과부하를 일으킬 수 있습니다. 일종의 bot으로 작동하는 것이죠. 따라서, 지나치게 큰 데이터를 웹에서 막 가져오는 것은 문제가 될 수 있으니, 지양하는 것이 좋습니다.

댓글남기기