728x90
반응형

전체 글 52

[공공 데이터 API 활용] 산불 피해 최소화 - 8. Streamlit 배포 테스트

목차 GitHub에 Upload Streamlit 배포 app 생성 인증키 적용 테스트 배포 해보기 1. GitHub에 Upload 2023.04.21 - [Python/Streamlit] - [Streamlit] 설치 및 시작하기 / GitHub로 배포하기 에서 다뤄봤듯이 작업 내용을 GitHub에 업로드하였다. Git Bash 창에서 다음을 입력 git add . git commit -m 'update' git push 작업을 한 단계 한 단계 진행 할 때마다 오류가 없는 것을 확인한다면 수시로 입력하였다. 아니면 최소한 하루 작업을 마치고 매일매일 업로드하여 그날의 작업상황을 기록해 두려고 노력하였다. README.md를 활용하여 업데이트 사항을 기록하고 나아가 프로젝트에 대한 설명을 추가 2. S..

Project/Study 2023.06.05

[공공 데이터 API 활용] 산불 피해 최소화 - 7. 목차 구성 및 기획 배경 작성

목차 PPT 목차 구성 기획 배경 기획 제안서 모의 작성 서론 작성 방향 1. PPT 목차 구성 서론 프로젝트 소개 프로젝트 문서 본론 분석 과정 AI 모델링 서비스 배포 결론 프로젝트 결과 첨부 데이터 정의서 / 출처 참고문헌 개발 환경 2. 기획 배경 기획 배경 소개 3. 기획 제안서 모의 작성 모의 제안서 작성 4. 추가 서론 작성 방향 기획 배경 > 모의 제안서 > 우리가 서비스할 내용 > 기대효과 > 사용할 분석의 개념 + 용어 설명 프로젝트 순서도 > 요구사항 정의서( 매일 업데이트 ) > 업무 분류 체계 > 개체 관계 모델 5. 기초 단계 마무리 작업 서론 단계 마무리 데이터 정의서 / 출처 참고 문헌 개발환경

Project/Study 2023.05.30

[Python Crawling] #1 Web Crawling의 이해와 준비

안녕하세요 코코잼잼입니다. 데이터 수집을 하는 과정에서 우리는 직접 CSV, JSON, EXCEL 형태의 파일을 사용할 수도 있지만, 웹 상에서 크롤링을 통해 데이터를 수집하는 방법도 있습니다. 이번 기회에 웹 상에서 데이터를 수집하는 방법을 알아보도록 하겠습니다. Web Crawling Web Crawling 이란? 웹 상에 존재하는 다양한 형태(이미지, 텍스트, API 등)의 정보(데이터)를 추출하고, 수집하는 것을 말합니다. 예를 들어 최근 트렌드를 알아보기 위해 특정 검색어에 따른 결과들에 어떤 단어들이 쓰이는지, 빈도 수나 이미지들을 코딩을 통해 웹사이트의 내용들을 싹 긁어와서 데이터로 활용할 수 있습니다. 이는 데이터 분석에서 매우 중요한 요소이므로 꼭 알아두었으면 합니다. 이번 글에서는 ["..

Python/Crawling 2023.05.26

[공공 데이터 API 활용] 산불 피해 최소화 - 6. 데이터 정의서 및 ERD

목차 데이터 목록 및 출처 데이터 테이블 정의서 ERD (Entity Relationship Diagram) 데이터 전처리 방향 1. 데이터 목록 및 출처 기상청 - 관측 지점 정보 기상청 - 지상(종관, ASOS) 일 자료 기상청 - 지상(종관, ASOS) 시간 자료 산림청 - 산불 발생 현황 네이버 - 위도 경도 참조 첨부자료 2. 데이터 테이블 정의서 테이블 정의서 예시 3. ERD (Entity Relationship Diagram) 미작성 4. 데이터 전처리 방향 이상치 제거 결측치 치환 OR 제거 필요한 Column 추출

Project/Study 2023.05.26

[공공 데이터 API 활용] 산불 피해 최소화 - 5. 기초 준비 단계

목차 PPT 목차 작성 GitHub Repository 생성 Streamlit 초안 1. PPT 목차 작성 PPT 목차 작성을 통한 프로젝트 방향 및 세부과정 확인 2. GitHub Repository GitHub를 통한 매일 내용 업데이트 및 Streamlit 배포 준비 release 작성으로 매일 진행사항 체크 3. Streamlit 초안 Streamlit 배포를 통한 포트폴리오 이용 미리 메뉴와 Layout을 설정 추후 메뉴 수정 가능성이 있지만 각 파트별로 함수화를 통해 데이터 및 시각화 삽입

Project/Study 2023.05.25

[공공 데이터 API 활용] 산불 피해 최소화 - 4. 회의록 및 기획안

Complete List ( 05.22 ~ 05.24 ) 1. 논문 및 참고자료 수집 및 변수 탐색 Paulo Cortez, Aníbal de Jesus Raimundo Morais. 2007: A data mining approach to predict forest fires using meteorological data, Associação Portuguesa para a Inteligência Artificial (APPIA) 이찬중, 임무영, 이요한. 2023: 머신러닝을 활용한 산불발생예측모형 개발과 과제. J. Korean Soc. Hazard Mitig 23(2), 29-39. https://doi.org/10.9798/KOSHAM.2023.23.2.29 안승환, 2016: 기상 데이터를 이..

Project 2023.05.24

[참고 자료] 참고 자료 출처 표기법 ( APA Style )

안녕하세요 코코잼잼입니다. 프로젝트를 진행하다 보면 필수적으로 해야 할 일중에 하나가 데이터의 수집과 논문, 학술자료 등의 지식정보 수집입니다. 그런데 이러한 내용을 참고하고 인용할 경우에는 반드시 출처를 남겨야 합니다. 출처를 남김으로써 타인의 글에 대한 권리를 보호하고, 저작권 침해에서 자유로울 수 있습니다. 이번 글에서는 ["그러면 출처를 어떤 식으로 남겨야 할까?"]를 주제로 알아보겠습니다. 목차 1. 참고 자료 표기법의 종류 2. APA Style - 일반 사항 3. APA Style - 도서 4. APA Style - 학위 논문 5. APA Style - Web Page 및 SNS 1. 참고 자료 표기법의 종류 출처를 표기할 때 기본적으로 포함되어야 하는 것은 다음과 같습니다. 저작자의 이름 ..

Project 2023.05.24

[공공 데이터 API 활용] 산불 피해 최소화 - 3. Open API 및 데이터 수집

목차 1. Open API 2. 데이터 3. 논문 4. 기타 자료 1. Open API 수집 방법 참고: 2023.05.18 - [Python/Crawling] - [Python 실습 준비] 오픈API 활용하기(1) 오픈 API 요청키 생성 [Python 실습 준비] 오픈API 활용하기(1) 오픈 API 요청키 생성 Kaggle Competition에 이어 이번에는 오픈 API를 이용한 실습을 해보려고 한다. 오픈 API란 API는 Application Programming Interface의 약자로 [정의 및 프로토콜 집합을 사용하여 두 소프트웨어 구성 요소가 서로 james-choi88.tistory.com 2023.05.18 - [Python/Crawling] - [Python 실습 준비] 공공 데..

Project/Study 2023.05.23

[공공 데이터 API 활용] 산불 피해 최소화 - 2. 프로젝트 기획

목차 1. 서론내용 2. 데이터 수집 방법 3. 통계 분석 4. 결론 5. 역할 분담 1. 서론 내용 - 배경 1. 기사 등을 통해 대형산불상황에 대한 위험성을 언급 2. 기사 등을 통해 산불 예방의 중요성을 언급 3. 기사 등을 통해 산불을 초기에 진화의 중요성을 언급방법 2. 데이터 수집 방법 - 문헌/전문가 1. 논문을 통해 산불 일어날 수 있는 상황을 예측할 수 있는 도메인 지식 습득 2. 논문을 통해 산불의 진행 상황에 대해 도메인 지식 습득과 산불 초기진화의 중요성에 대해선행 연구 방안 습득 3. 논문을 통해 산불 초기 진화 방안 마련 - 데이터 수집 도메인 지식을 통해 분석에 필요할 것으로 보인 데이터 적극 수집 데이터 시각화를 통해 데이터에 대한 1차 분석 3. 통계 분석 1) 데이터 전처..

Project/Study 2023.05.22
728x90
반응형
LIST