8/09
<진행해야할것!!!!!>
- json 파일 코드 한줄만 작성해서 시연해보고 문제없으면
- 데이터 셋 이미지를 json or csv 파일로 만들기 (파이썬 코드 작성)
- automl로 모델 돌리기
Google Cloud AutoML Vision 또는 비슷한 도구를 사용하여 이미지 분류 모델을 훈련
데이터셋을 업로드하고 모델을 훈련한 후, 평가 및 테스트를 수행하여 모델의 성능을 확인
- 배포 > dataflow or vertex AI pipeline 만들기
Google Cloud Dataflow 또는 Vertex AI Pipeline을 사용하여 데이터 처리 및 모델 배포 파이프라인을 구축
이 단계에서 데이터의 전처리, 모델 예측 및 저장 등을 자동화가능.
- 백엔드 및 실시간 예측:
병원 역할 하는 vm 인스턴스(프론트로 대체) > 백엔드(예측서버) 만들어서 pub/sub로 새로운 이미지 파일 보냄, 버킷에 저장하고, 저장된 파일의 주소를 받아서 전처리를 해서 버킷에 넣는다 (어떻게..?) mlops >버킷의 주소만 알면 실시간 예측
프론트 엔드 역할을 하는 VM 인스턴스에서 예측 요청을 보내고, 해당 이미지를 Google Cloud Storage 버킷에 저장
이를 Pub/Sub 메시지로 전송하고, 백엔드(예측 서버)에서 이 메시지를 받아 전처리 후 다시 버킷에 저장
이후 주소를 통해 실시간 예측을 얻을 수 있음.
?주소 받아서 버킷에 있는 사진 꺼내서 >배포된 엔드포인트 접속 >사진 넣어서 예측
프론트를 만들고 http로 업로드? 생각해보자
<서버>
!!!!!! VM 인스턴스(프론트)에서 이미지 파일을 받는다
퍼블릭 서버에서 이미지 파일을 버킷에 저장하고, pub/sub로 이미지 파일 주소를 프라이빗 서버에 전달
프라이빗 서버에서 버킷 주소를 받아서 전처리(?)해서 모델로 돌려서 실시간 예측 (ml ops)