반응형 분류 전체보기462 [네이버] 웹문서 섹션 크롤링 import urllib.requestimport urllib.parsefrom bs4 import BeautifulSoup defaultURL = 'https://openapi.naver.com/v1/search/webkr.xml?' start = '&start=1'display = '&display=100'query = '&query='+urllib.parse.quote_plus(str(input("Keyword: "))) fullURL = defaultURL + start + display + queryprint(fullURL) file = open("C:\\Python34\\naver_web_4.txt","w",encoding='utf-8') headers = { 'Host' : 'openapi... 2017. 1. 9. [네이버] 파이썬 네이버 카페 크롤링 import urllib.requestimport urllib.parsefrom bs4 import BeautifulSoup defaultURL = 'https://openapi.naver.com/v1/search/cafearticle.xml?' sort = '&sort=date' #date(날짜순), sim(정확도순)start = '&start=1'display = '&display=100'query = '&query='+urllib.parse.quote_plus(str(input("검색어: "))) #검색어라는 문구를 출력하여 사용자에게 단어를 문자열로 입력받은 후 quote_plus 함수를 이용해서 단어를 인코딩(url에 한글입력 가능) fullURL = defaultURL + sort + star.. 2017. 1. 9. [네이버]뉴스 크롤링 import urllib.requestimport urllib.parse from bs4 import BeautifulSoup defaultURL = 'https://openapi.naver.com/v1/search/news.xml?'sort = '&sort=sim'start = '&start=1'display = '&display=100'query = '&query='+urllib.parse.quote_plus(str(input("검색어: "))) fullURL = defaultURL + sort + start + display + query print(fullURL) file = open("C:\\Python34\\naver_news.txt","w",encoding='utf-8') headers = .. 2017. 1. 8. [파이썬3] beautiful soup 예제 #모든 웹사이트 긁어오기 import urllib.request from bs4 import BeautifulSoup req = urllib.request.Request("http://news.naver.com");data = urllib.request.urlopen(req).read()bs = BeautifulSoup(data, 'html.parser')print(bs) 2017. 1. 6. 이전 1 ··· 110 111 112 113 114 115 116 다음 반응형