728x90

개발공부/파이썬🍌 5

파이썬을 이용한 데이터 사이언스 구현 : Yahoo Finance를 활용한 주식정보, 주가 크롤링

나는 주피터 노트북을 활용했다 (jupyter notebook) 1. anaconda 설치 2. 가상환경 설정 3. 필요한 패키지 설치 : pyhton 3.10, yfinance, mysql.connector, datetime 4. 주피터 노트북을 실행한 뒤 코드 구현 5. 원하는 주식을 설정하기yf.Ticker(ticker_code)ticker_code는 티커를 담은 리스트. 해당 api를 호출함으로 ticker 객체를 생성한 후,data = ticker_obj.history(start=start, end=end)해당 티커코드의 히스토리를 담아 원하는 정보를 얻을 수 있다 6. 해당 정보를 입맛에 따라 가공 7. DB INSERT

깔끔한 파이썬 - 탄탄한 백엔드 (1)

0. 환경 설정 - 파이썬 2와 파이썬 3은 서로 호환하지 않고, 현재 많은 프로그램이 파이썬 2로 작성되어있기 때문에 두 가지 모두 설치하는 것이 좋다. 일반적인 파이썬 가상 환경 1. 콘다 : 외부 개발 툴, 파이썬 패키지 매니저와 개발 환경 매니저 기능을 제공하는 개발 툴이다(pip과 venv의 기능을 동시에 제공한다), 아나콘다라는 파이썬 배포판에 포함되어 있다. 데이터 분석 및 사이언스에 특화되어 있다. 2. venv : 파이썬 3에 포함되어 있는 가상 환경 ~ 책에서는 콘다를 사용한다 : 아나콘다 전체가 아닌 콘다만을 설치할 수 있다. => 미니 콘다 - 터미널 ~ 우분투 사용, 깃 설치 cf) 깃 관련 터미널 툴 : TIG, Diff So Fancy - 셸 설치 : Bash 또는 ZSH(Oh..

노마드 코더 파이썬 job scrapper: 언어를 react로 했더니 오류

from requests import get from bs4 import BeautifulSoup base_url = "https://weworkremotely.com/remote-jobs/search?term=" search_term = "python" response = get(f"{base_url}{search_term}") if response.status_code != 200: print("Can't request website") else: results=[] soup = BeautifulSoup(response.text, "html.parser") jobs =soup.find_all('section',class_="jobs") for job in jobs: job_posts = job.fin..

728x90