회고/TIL(매일)(179)
-
TIL 119일차 : k-means clustering
✏️도전한 점 1. 클러스터링 상담 및 피드백 2. 데이터 EDA 중 전처리 3. 데이터 클러스터링 4. 군집화 중 궁금한 점 정리 후 마무리 01 피드백 내용 및 프로젝트 과정 04.17 K-means 클러스터링, 데이터 전처리는 계속 된다. 01 문제 해결 과정 - 군집화 방법론에 대해서 상담을 받고 방향을 정했다. - 이미 표준화 과정을 프롬프트를 통해 했으니 코사인 클러스터링은 맞지 않다. - 기존 K-means 클러스터링 방법을 사용하 specialda.tistory.com
2024.04.17 -
TIL 118일차 : Linux htop, gcloud auth login, 특성컬럼값 검수
✏️도전한 점1. 9시까지 리눅스 명령어 공부2. 9시~10시 경도, 위도로 행정동 코드 구하기 찾기 [보류]3. 쿼리 내면서 내가 풀어봄.4. 14시부터 리뷰텍스트 프롬프트 결과 검수하기<p data-ke-size="s..
2024.04.16 -
TIL 117일차 : 데이터 축소(선택과 집중), streamlit, where+between
✏️도전한 점 1. 아침 6시 수준별 복습 (자동화) 2. 오전 팀 회의 : 프롬프트 수정작업 3. 마지막 수준별 수업 듣기 4. 점심 이후 3시 다시 팀회의 5. 5시 알쿼리즘 스터디 후 팀회의 6. 9시 프롬프트 작업 완성 후 실행 01 각설이 같이 돌아온 직무 고민 # 튜터님 상담 내용 더보기 더보기 # 마지막 튜터링 - 이제 뭔가 만들어가야 함. 캠프 나가면 나는 아이디어 뱅크가 되어야 한다. - 태블로? 비싸서 안 사 줄 확률이 높다. - 태블로 엔지니어링 직무가 있을 정도로 대중화 되었다. 채용공고 확인 가능. - 장고, 플라스크 굳이? 간단한 스트림릿!!이 있다. - 우대 요건 중에 내게 기술역량이 한 줄만 있어도 좋았던 것 같다. 잘 얘기할 수 있으면. - 사람인/ 원티드 채용공고 공부하기..
2024.04.15 -
TIL 116일차 : 군집화, streamlit 배포, 알고리즘 deque, sql스터디
✏️도전한 점 1. 어제 지도학습, 비지도학습 군집화 실습부분 복습 2. 오늘 streamlit 실습 후, 배포 과정 진행 완료 3. 백준 알고리즘 자료구조(큐) 문제 풀고 라이브러리 학습 01 지도/비지도 학습 노트필기 추후 첨부 02 Streamlit 실습 후 배포 Python 라이브러리 : Streamlit 실습 01 streamlit 실행 여부 확인 02 streamlit 실행 → 코드 변경, 저장 후 새로고침 반복 1. 해당 코드를 터미널에 입력하면 웹 어플리케이션이 기본 브라우저에 뜬다. 2. df 만 입력해도 동일하게 띄울 수 specialda.tistory.com 03 알고리즘 deque 학습 1. 코딩테스트 스터디에서 내가 문제를 낼 차례가 왔다. 2. 2164번: 카드2 (acmicpc..
2024.04.14 -
TIL 115일차
✏️도전한 점 1. 직무 방향에 대한 고민이 커졌다. 2. 오전 10시 중간 발표회 후 피드백이 이어졌다. (~13시) 3. 2시 30분 최종 프로젝트 관련 팀회의를 시작했다. 4. 4시 15분 데드라인을 정하고 회고를 마무리했다. 5. 프롬프트를 수정하고 오후 발표회를 진행했다. 01 프로젝트 진행 사항 04.12 중간 발표회 01 프롬프트 수정사항 기록 - 어제 잘나왔던 프롬프트가 0을 또 내뱉는 문제를 해결한다. - '0' or 'zero'를 제외하는 문장은 해결하지 못함. - 조건을 지정하는 단어는 '대문자'로 시작하고 따옴표로 specialda.tistory.com ✏️잊지말 점 - 팀원들과 개인적인 회고시간을 가지고 얼마만큼 왔는지 돌아보는 시간을 가졌다. - 새삼스럽지만, 요새들어 자주하는 ..
2024.04.12 -
TIL 114일차 : 프롬프트 완성 -> 거의 다 왔다.
✏️도전한 점 1. openai api 프롬프트 수정 -> 프로젝트 과정 참고 2. 프롬프트, 워드 임베딩: 튜터님 상담 (~오후 1시) 3. 토큰 소모: 10문장에 0.15달러의 비용이 든다. 4. 팀원은 형태소 분석 중, 나는 프롬프트 수정 5. 오후 4시 리뷰별 중복 텍스트를 발견 후 제거 6. 4시 반 갑자기 이상한 반복문을 보내서 땀나네 7. 오후 5시 피피티, 스크립트 수정사항 추가 8. 스크립트 마지막 추천 모델 제공 방향 첨언 01 튜터님 피드백 # 워드 임베딩: 빵 이름이 들어가는 자리 주변에 비슷한 단어들이 들어갔을거라고 추측을 하는 것이다. 그래서 바게트와 비슷한 단어를 추출할 수 있다. # 빵리뷰에는 튜터님 파일에 있는 nouns나 pos를? 사용해보도록 한다. # 구글에 제미나이를..
2024.04.11 -
TIL 113차 : 사전투표해서 쉬는 날도 프로젝트
✏️도전한 점 1. 프롬프트 엔지니어링 (gpt 4.0 turbo 기준) 2. 3.5 실행하고 json파일로 제작하는 방법 배움 2. 예산초과 문제 발생 3. 프롬프트 수정 (gpt 3.5기준으로 수정) 01 프롬프트 엔지니어링 04.10 프롬프트 엔지니어링 후 예산 초과 문제 발생 specialda.tistory.com ✏️깨달은 점 1. 프로젝트에서 만들고자 하는 "추천 모델"의 데이터의 정확도를 높이기 위해 프롬프트를 1차적으로 웹에서 수정하게 된다. 웹에서 작동하는 로직과 api에서 작동하는 내부 로직이 다르다는 점을 알아둔다. 2. "프롬프트 엔지니어링"을 통해 파생변수를 생성하고자 할 때 중요한 점은? "데이터프레임"화가 되는 것인가이다. 이를 위해서 데이터를 받는 리스트의 길이가 항상 일정해..
2024.04.11 -
TIL 112일차 : 파생변수 생성, streamlit 웹페이지 생성
✏️도전한 점 1. 오전 이력서 세션 강의 2. google api를 활용하여 주소에 대한 경도, 위도를 바탕으로 고도라는 파생변수 생성하기 3. 팀회의 후 gpt 프롬프트 엔지니어링 4. streamlit 웹페이지 만들기 성공! 01 streamlit 웹페이지 만들기 02) 최종 프로젝트 기록 04.09 최종 프로젝트 : 경도+위도->고도 파생변수 생성 01 Google api를 활용하여 경도, 위도, 고도 구하기 1. 콘솔 페이지에서 이렇게 떠야 사용가능한 상태이다. 2. 위에 보이는 두 개의 API를 활용해 경위도, 고도를 구한다. 3. Geocoding API만 사용하도록 제 specialda.tistory.com
2024.04.09 -
TIL 111일차 : KNN, SVM, 프로젝트 데이터 전처리
✏️도전한 점 1. KNN, 서포트 벡터 머신을 분류/회귀로 실습해본다. 2. 최종 프로젝트 : 데이터 전처리 part_1 (각각 맡아서 진행했다.) 01 성능의 차이 : "종마시다"의 의미를 유추해봐. 1. GPT-4.0 2. GPT-3.5 02 서포트 벡터 머신 - 회귀모델 궁금한 점 # 수준별 복습 5회차 # 우리가 feature extraction을 언제 배웠는지 생각해보기? # 데이터 불러오기 데이터 프리프로세싱 = 전처리 피쳐엔지니어링, 피쳐셀렉션, 피쳐익스트렉션 데이터 분리, 데이터 스케일링 모델링ㅡㅡㅡㅡㅡ 트레이닝(fit) ↑ 하이퍼파라미터튜닝 평가ㅡㅡㅡㅡㅡㅡ infrencing submission # 기울기: 'w'를 구하기 위해 첫 번째 단계에서 얻은 합계를 두 번째 단계에서 얻은 합계..
2024.04.08 -
TIL 110일차 : 데이터 전처리 시작
✏️도전한 점 1. 크롤링 그만하고 데이터 전처리 시작 2. 백준 파이썬 알고리즘 문제 1개 완료 01 크롤링 완료 > 데이터 전처리 > 통합파일 제작 04.07 크롤링은 끝났다. 데이터 전처리 시작한다. 01 문제 해결 과정 1. 어제(중구,동대문구,강남구,성북구,마포구) 오늘(은평구), 서대문구 그냥 쓰기해서 크롤링 완료. 2. 중복 업체로 인한 겹치는 데이터 제거 3. 카테고리 "식당" 관련 데이터 제 specialda.tistory.com 02 알고리즘 인사이트 # input()으로 입력을 받을 때 문자열로 받는다는 것 기억하기! ✏️깨달은 점 1. 웹크롤링이 일주일만에 끝날 줄 알았는데 끝이 아니었다. 2. 애초에 불가능할 거라 생각했던 첫 날에서 많이 발전했다. 3. 웹과 모바일 접속이 혼용되..
2024.04.07