HOVI의 6주차 기록
solution_challenge hoviHOVI의 6주차 기록
새로운 주제
표정 인식을 통한 의사 표현(전달) 앱
팀 멤버 🧑🤝🧑
- 김영현(Back-end)
- 박지수(Back-end)
- 이슬비(ML)
- 강인영(Android)
👻 2월 8일 정기 회의 👻
네 그렇습니다. HOVI팀은 새로운 주제를 정했습니다! 그것은 바로 “스마트폰 카메라📷를 사용해 사람의 표정😉을 인식하여 의사를 표현할 수 있는 앱” 이랍니다-! 긴 고민 끝에 다시 정해진 주제이니 앞으로는 쉬운 길만 남았다면 좋겠지만…🚶♀️ 역시나 개발은 쉽지 않다!!
✔ 논의 사항
주제가 바뀌었으니 전반적인 서비스를 사용하게 될 대상은 누구이며, 구체적인 기능은 무엇인지와 함께 개발 순서, 해야 할 일 등을 정리해 보았습니다.
- 타겟
거동이 불편하신 환자분들 또는 말하기를 통해 의사를 전달하는 것에 어려움이 있으신 분들 - 목적
얼굴 표정 변화를 통한 의사 표현 - 기능
사용자가 특정 표정이나 간단한 동작을 취했을 때 해당 동작에 매치된 의사표현 정보가 소리로 출력
서비스 개발 단계 구체화
- 얼굴 인식이 가능하도록 ML 기술을 개발한다.
- 스마트폰을 카메라를 통해 실시간 얼굴 인식 및 표정 인식을 한다.
- 인식 정보와 의사 표현 정보를 매칭하여 음성🔊으로 출력한다.
+) 추후 간호사 및 보호자에게 의사표현 정보를 담은 메시지나 알림 기능을 추가하면 좋을 것 같다!👍
◻◼ TO DO ◼◻
🌻 백엔드
와이어프레임 구체화하여 그림 그리기 👩💻
🌼 안드로이드
MLKit로 얼굴인식 해보기
🌷 ML
tensorflow lite, OpenCV, Mediapipe 중에서 사용 툴 확정하기
🎈 2월 11일 중간 보고 🎈
✔ 진행 사항 보고
-
안드로이드
CameraX를 사용해서 스마트폰📱의 카메라 사용에 대해 탐구해 보았으며, MLKit와 함께 사용되는 CameraX 예제 실습을 진행해 보았습니다. -
백엔드
백엔드에서 어떤 방법으로 통신을 할지, 어떠한 정보들을 서버에서 가지고 있어야 할지 등에 대해서 고민🙃해보았습니다. 스프링 코드를 만들어본지 오래되어 빠른 복습이 필요할 것 같습니다… -
ML
우리의 앱을 만들기 위해서는 tensorflow lite, MLKit, Mediapipe, OpenCV 중에서 어떤 것을 사용해야 할지에 대한 탐구🔎를 하였습니다.
서비스 구체화
-
안드로이드
실시간으로 표정 변화를 분석하여 행동의 결과를 서버에 전달. ex) 왼쪽 눈 3초 이상 감은게 감지 되면 서버에 이벤트 보내기 -
백엔드
각 스마트폰마다 가지는 디바이스 아이디로 유저를 구분하는 DB 구성 -
ML
이슬비 화이팅!
◻◼ TO DO ◼◻
🌻 백엔드
- 영현 : 스프링 API 만들어보기 & EC2 만들어두기
- 지수 : 네이버 CLOVA 음성 사용 방법 확인하기
🌼 안드로이드
- MLKit와 CameraX 예제를 자세히 분석해 보기
- ML, 안드로이드, 스프링, AWS를 어떻게 조화롭게 사용할지 찾아보기
🌷 ML
- 랜드마크 따는 방법 찾아보기
- 표정 인식 모델 완성하기
- 학습을 위한 데이터를 추가하는 방법 알아보기
주제가 바뀌어 버려서 HOVI👀라는 이름을 그대로 가져갈지 아직은 알 수 없지만 이전의 HOVI 앱을 만들기 위해서 했던 노력도 다 도움이 될 거라고 생각합니다!! 물론 마감 기간이 다가오고 있지만 우리 호비팀은 할 수 있다~! 파이팅💪