Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- php
- ec2
- NGINX
- AWS
- linux
- react
- Ruby On Rails
- javascript
- centOS7
- SQL
- staging area
- props
- MySQL
- laravel
- ruby
- vue
- Python
- ubuntu
- docker
- codeigniter4
- dockerfile
- Selenium
- Wordpress
- imagemagick
- pagination
- Git
- cron
- working directory
- controller
- docker-compose
Archives
- Today
- Total
목록Scraping (1)
내가 한 노력들
[ Python ] requests를 이용해 웹 크롤링한 뒤에 파일로 저장하기
requests 설치 pip install requests pip 패키지 매니저를 통해서 requests라이브러리를 설치해줍니다. requests.get() import requests res = requests.get('https://naver.com') print('응답코드 :', res.status_code) # 200이면 정상 requests.get(URL)을 통해서 해당 URL에 접근하여 크롤링을 할 수 있습니다. 그리고, 성공적으로 접근해서 HTML을 받아왔는지를 status_code에 표시하게 됩니다. if res.status_code == requests.codes.ok: print('정상입니다.') else : print('문제가 생겼습니다. [에러코드 ', res.status_code,..
IT 공부/python
2022. 1. 18. 16:15