본문 바로가기

전체 글135

Anaconda 설치부터 Jupyter Notebook 실행까지 차근차근 Anaconda 설치 방법과 설치 후 Jupyter Notebook을 실행하는 방법을 알아보자. 하나하나 step by step으로 설명하니 순서대로 하면 성공할 것이다. Anaconda 설치 파일 다운로드 다운로드를 위해 https://www.anaconda.com/products/distribution#Downloads 접속 후 최신 버전 다운로드를 원하면 ①을 클릭 -> 바로 exe 파일 다운로드 다른 버전 다운로드를 원하면 ②를 클릭해서 페이지 아래쪽으로 내려가 ADDITIONAL INSTALLERS에서 원하는 버전을 찾고 본인 PC 32Bit or 64Bit 잘 맞춰서 exe 파일 다운로드 본 글에서는 64Bit Windows 에서 현 시점 가장 최신 버전(2022년 10월 업데이트 버전)을 설.. 2023. 1. 18.
[DAY 17] Jupyter Notebook 사용, 장점, 단축키 오늘부터 Google Colab에서 Jupyter Notebook으로 환경을 바꿨다. Jupyter Notebook이 무엇이고, 어떤 장점이 있으며, 어떻게 사용할까? Jupyter Notebook Jupyter에서 제작한 Python IDE이다. 웹 브라우저에서 Python 코드를 작성하고 실행해 볼 수 있다. 과거 명칭은 Ipython Notebook이었으나 Python 뿐 아니라 여러 프로그래밍 언어를 지원하게 되며 명칭을 변경하였다. 지원하는 언어 중 핵심 언어 3가지인 Julia, Python, R에서 Jupyter라는 이름이 유래되었다고 한다. Jupyter Notebook 사용시 장점 Colab과 Jupyter Notebook 모두 Interactive mode를 지원하는데, Colab에 비.. 2023. 1. 17.
[웹 스크래핑] 역대 대통령 연설기록 목록과 그 내용까지 행정안전부 대통령 기록관 사이트의 역대 대통령 연설기록을 스크래핑해본다. 페이지를 넘기면 나오는 목록 뿐 아니라 제목을 눌렀을 때 나오는 내용까지 수집한다. 필요한 라이브러리 import import requests import pandas as pd from bs4 import BeautifulSoup as bs URL로 HTTP 요청을 보내기 위해 requests, 데이터프레임을 만들기 위해 pandas, 내용으로 들어가기 위한 링크를 찾기 위해 BeautifulSoup URL 작성 url = "https://www.pa.go.kr/research/contents/speech/index.jsp" params = f"?spMode=&artid=&catid=&pageIndex={page_no}&searc.. 2023. 1. 16.
[DAY 16] 코랩, 개발자도구, 파이썬에 대한 팁 오늘은 웹 스크래핑도 진행했지만 강의 중에 여러 팁이 있었다. 코랩, 개발자도구, 파이썬을 사용할 때 알아야 할(알면 좋은) 팁들을 남겨 본다. Google Colab - 코드 실행 결과가 출력되어 있으면 복잡해지고 문제를 찾기 어렵다. - 상단의 수정 -> 모든 출력 지우기를 통해 한 번에 지울 수 있다. - 셀 순서를 유의해서 실행해야 한다. 변수가 정의되지 않은 상태거나 의도치 않는 값이 저장된 상태로 실행될 수 있다. - module import는 항상 우선적으로 신경써야한다. 개발자도구 - 검사 -> Network에서 주로 Fetch/XHR, JS, Doc을 사용할 것이다. - 화면의 원하는 부분에서 우클릭 -> 검사를 통해 코드를 확인해보자. GET/POST - 일반적으론 GET 방식으로 요청.. 2023. 1. 16.
[웹 스크래핑] 네이버 종목토론실 글 목록 수집해보기 네이버 증권 종목토론실에서 특정 종목을 선택하고 작성된 모든 게시물을 스크래핑하여 excel 파일로 저장한 후 확인해본다. 예시로 삼성전자를 보면 현재 80000페이지가 훌쩍 넘기 때문에 스크래핑을 진행할 종목은 가장 최근에 상장한 바이오노트(377740)로 선정한다. 먼저 필요한 라이브러리를 import한다. import pandas as pd import requests import time from tqdm import trange from bs4 import BeautifulSoup as bs 데이터 프레임을 만들기 위해 pandas, URL로 요청을 보내기 위해 requests, 서버에 시간 간격을 두고 요청하기 위해 time, 진행 상황을 확인할 수 있는 trange, 종목토론실 마지막 페이지.. 2023. 1. 15.
반응형