8/09

<진행해야할것!!!!!>

  1. json 파일 코드 한줄만 작성해서 시연해보고 문제없으면
  2. 데이터 셋 이미지를 json or csv 파일로 만들기 (파이썬 코드 작성)
  3. automl로 모델 돌리기 Google Cloud AutoML Vision 또는 비슷한 도구를 사용하여 이미지 분류 모델을 훈련 데이터셋을 업로드하고 모델을 훈련한 후, 평가 및 테스트를 수행하여 모델의 성능을 확인
  4. 배포 > dataflow or vertex AI pipeline 만들기 Google Cloud Dataflow 또는 Vertex AI Pipeline을 사용하여 데이터 처리 및 모델 배포 파이프라인을 구축 이 단계에서 데이터의 전처리, 모델 예측 및 저장 등을 자동화가능.
  5. 백엔드 및 실시간 예측: 병원 역할 하는 vm 인스턴스(프론트로 대체) > 백엔드(예측서버) 만들어서 pub/sub로 새로운 이미지 파일 보냄, 버킷에 저장하고, 저장된 파일의 주소를 받아서 전처리를 해서 버킷에 넣는다 (어떻게..?) mlops >버킷의 주소만 알면 실시간 예측

프론트 엔드 역할을 하는 VM 인스턴스에서 예측 요청을 보내고, 해당 이미지를 Google Cloud Storage 버킷에 저장 이를 Pub/Sub 메시지로 전송하고, 백엔드(예측 서버)에서 이 메시지를 받아 전처리 후 다시 버킷에 저장 이후 주소를 통해 실시간 예측을 얻을 수 있음.

?주소 받아서 버킷에 있는 사진 꺼내서 >배포된 엔드포인트 접속 >사진 넣어서 예측 프론트를 만들고 http로 업로드? 생각해보자

<서버>

!!!!!! VM 인스턴스(프론트)에서 이미지 파일을 받는다

퍼블릭 서버에서 이미지 파일을 버킷에 저장하고, pub/sub로 이미지 파일 주소를 프라이빗 서버에 전달

프라이빗 서버에서 버킷 주소를 받아서 전처리(?)해서 모델로 돌려서 실시간 예측 (ml ops)