본문 바로가기
728x90

주피터노트북6

캐글 노트북 한글로 번역하는 방법 (크롬 확장팩 사용하기!) 평소 캐글을 자주 사용하지 않았지만, 이젠 내가 스스로 부족한 부분을 찾아서 공부해야하는 취준생이기에! 캐글을 이용할 때 매번 불편했던 한글로 번역할 수 있는 기능이 있을까 찾다가 알게된 확장팩을 소개하려한다. 캐글을 사용하는 사람이라면, 크롬 번역이 안되서 불편함을 겪은 사람이 많았을 것이다. 나 역시 영어는 젬병이기에..ㅋㅋ 정말 불편했는데 이를 해결하기 위해 가져왔다! 확장팩 설치하기 먼저 이 번역은 크롬을 사용하는 유저들을 위한 것이며, 크롬 확장팩을 사용한다. 캐글을 이용하시던 분께서 불편함을 겪고 만들었다고 하시는데 확장팩 설명에 일본어로 된 것으로 보아 아마 일본인이 만든것이 아닐까 하는 추측을 한다. 자국의 언어로만 활용하는 것이 아닌, 구글 번역 기능을 사용할 수 있도록 해서 어떤 언어든.. 2024. 1. 12.
[AWS] 아나콘다 주피터 가상 환경 설정하기 Putty의 터미널 창을 통해서 아나콘다 환경을 설치하는 것을 해보자 버전 확인하기 conda --version 결과 conda 4.8.4 환경세팅 확인하기 conda env list 결과 base * /home/ubuntu/anaconda3 amazonei_mxnet_p36 /home/ubuntu/anaconda3/envs/amazonei_mxnet_p36 aws_neuron_mxnet_p36 /home/ubuntu/anaconda3/envs/aws_neuron_mxnet_p36 aws_neuron_pytorch_p36 /home/ubuntu/anaconda3/envs/aws_neuron_pytorch_p36 aws_neuron_tensorflow_p36 /home/ubuntu/anaconda3/env.. 2023. 10. 16.
Colab의 GPU용량 이슈에 대한 해결법 요즘 수업에 딥러닝을 활용하고 있어서 에폭 코드를 돌리기 위해 코랩의 T4 gpu 런타임유형을 자주 사용하고 있다. 코랩은 구글이 제공하는 클라우드 기반 Jupyter Notebook 환경으로 즉, 웹 브라우저에서 Python 코드를 작성하고 실행할 수 있다. 이런 환경을 가진 코랩은 머신 러닝, 딥 러닝, 데이터 분석 등의 작업을 수행할 때 매우 유용하고, 많이들 사용한다. 무료로 gpu 기능까지 지원하다보니 나처럼 그래픽카드가 없는 사람들에겐 분석을 할 때, 큰 도움이 된다. 하지만, 이 좋은 기능은 조건없는 무료사용이 안된다. 나 역시 사용 첫날부터 수업시간이 길고, 수업 이후 시간에도 확인해보다보니 바로 용량 제한에 걸려버렸다. 지금부터 해결 방법을 적어보려 한다! 0. 코랩 이슈에 대해 코랩의 .. 2023. 8. 30.
[selenium] 웹사이트에서 데이터 긁어오기 - 실시간 검색어편 이전에 이미지를 다운받을 수 있도록 코드를 짜는 것을 해봤으면, 이번엔 실시간 검색어 자체를 가져오는 것을 해보자 이미지 다운에 관련해서 궁금하다면 아래 링크로 들어가보면 된다. 2023.08.08 - [python] - [selenium] 웹사이트에서 데이터 긁어오기 - 이미지편 [selenium] 웹사이트에서 데이터 긁어오기 - 이미지편 오늘은 셀레니움을 이용해서 웹 사이트에서 사진을 다운받아오는 과정에 대해 작성한다. 이미지 분석에 사용할 수 있도록 예제코드를 배운 셈으로 생각보다 간단했다. 나는 주피터노트북 가상 forky-develop.tistory.com 1. 시그널 실시간 검색어 뽑아내기 시그널의 경우 실시간 검색어가 바로 top 10으로 보인다. 그래서 따로 페이지 로딩시간을 체크해서 기다.. 2023. 8. 8.
[selenium] 웹사이트에서 데이터 긁어오기 - 이미지편 오늘은 셀레니움을 이용해서 웹 사이트에서 사진을 다운받아오는 과정에 대해 작성한다. 이미지 분석에 사용할 수 있도록 예제코드를 배운 셈으로 생각보다 간단했다. 나는 주피터노트북 가상환경 내에서 이 작업을 진행했으며, 이 과정까지는 더이상 언급하지 않겠다. 1. jupyter lab에서 크롬 드라이브 확인하기 이미지 분석을 위해 크롬에서 구글 이미지검색 사이트를 활용할 것이다. 그렇기 위해 크롬 드라이브가 지정한 위치에 있는지 확인을 해주자 import os def list_files(startpath): for root, dirs, files in os.walk(startpath): level = root.replace(startpath, '').count(os.sep) indent = ' ' * 4 *.. 2023. 8. 8.
[데이터 분석] 고속도로 실시간 영업소간 통행시간 API 활용하기 이번에는 데이터 분석을 하기위한 연습을 먼저 한다. 이 때까지는 엑셀파일을 이용한 시각화 연습을 주로 했었다면, 지금은 API를 이용해 원하는 데이터를 분석해보는 방법을 이용할 계획이다. 이 부분은 세미프로젝트를 진행하는데에 매우 기본으로 사용되는 부분이라 더 잘 활용해야하고, 알아둬야 한다. 1. 공공데이터 포털에서 API 조회하기 먼저 사이트에 들어가서 분석하기 위한 파일을 찾는다. 내가 활용한 사이트는 아래에 첨부한다. http://data.ex.co.kr/dataset/datasetList/list?pn=1&CATEGORY=TR&GROUP_TR=TIME_TCS 2023. 8. 7.
728x90