본문 바로가기
반응형

분류 전체보기462

[네이버] 웹문서 섹션 크롤링 import urllib.requestimport urllib.parsefrom bs4 import BeautifulSoup defaultURL = 'https://openapi.naver.com/v1/search/webkr.xml?' start = '&start=1'display = '&display=100'query = '&query='+urllib.parse.quote_plus(str(input("Keyword: "))) fullURL = defaultURL + start + display + queryprint(fullURL) file = open("C:\\Python34\\naver_web_4.txt","w",encoding='utf-8') headers = { 'Host' : 'openapi... 2017. 1. 9.
[네이버] 파이썬 네이버 카페 크롤링 import urllib.requestimport urllib.parsefrom bs4 import BeautifulSoup defaultURL = 'https://openapi.naver.com/v1/search/cafearticle.xml?' sort = '&sort=date' #date(날짜순), sim(정확도순)start = '&start=1'display = '&display=100'query = '&query='+urllib.parse.quote_plus(str(input("검색어: "))) #검색어라는 문구를 출력하여 사용자에게 단어를 문자열로 입력받은 후 quote_plus 함수를 이용해서 단어를 인코딩(url에 한글입력 가능) fullURL = defaultURL + sort + star.. 2017. 1. 9.
[네이버]뉴스 크롤링 import urllib.requestimport urllib.parse from bs4 import BeautifulSoup defaultURL = 'https://openapi.naver.com/v1/search/news.xml?'sort = '&sort=sim'start = '&start=1'display = '&display=100'query = '&query='+urllib.parse.quote_plus(str(input("검색어: "))) fullURL = defaultURL + sort + start + display + query print(fullURL) file = open("C:\\Python34\\naver_news.txt","w",encoding='utf-8') headers = .. 2017. 1. 8.
[파이썬3] beautiful soup 예제 #모든 웹사이트 긁어오기 import urllib.request from bs4 import BeautifulSoup req = urllib.request.Request("http://news.naver.com");data = urllib.request.urlopen(req).read()bs = BeautifulSoup(data, 'html.parser')print(bs) 2017. 1. 6.
반응형