ARKit - ARFaceAnchor 인식 기능에 얼굴표정에 대한 감정이 학습된 mlmodel을 활용한다고 가정하겠습니다. sceneView로 ARFaceAnchor를 인식하는 방법은 BlendShapes 활용 때와 동일하게 진행합니다. * 참고 : iOS - BlendShapes 활용하기 let model = try! VNCoreMLModel(for: CNNEmotions().model) 그 후, 사용할 mlmodel을 ViewController에 선언해줍니다. func renderer(_ renderer: SCNSceneRenderer, didUpdate node: SCNNode, for anchor: ARAnchor) { guard let sceneView = renderer as? ARSCNVie..

CoreML이란? 머신러닝 모델을 앱에 통합할 수 있는 Apple의 프레임워크 CoreML을 사용하여 머신러닝 모델을 앱에 통합합니다. CoreML은 모든 모델에 대해 통합된 표현을 제공합니다. 앱은 CoreML API와 사용자 데이터를 사용하여 예측하고 모델을 훈련하거나 미세 조정합니다. CoreML은 도메인별 프레임워크 및 기능의 기반입니다. CoreML은 이미지 분석을 위한 비전, 텍스트 처리를 위한 자연어, 오디오를 텍스트로 변환하는 음성, 오디오에서 소리를 식별하는 소리 분석을 지원합니다. CoreML은 Accelerate 및 BNNS와 같은 낮은 수준의 기본 요소뿐만 아니라 Metal Performance Shader도 기반으로 합니다. 참고자료 : https://developer.apple...
- Total
- Today
- Yesterday
- 카카오인턴십
- SWEA
- 안드로이드
- GraphDB
- Swift unowned
- UIHostingController
- ARKit
- Kotlin
- blendshape
- blendshapes
- boj
- Lottie
- 코코아팟
- coreml
- Swift weak
- 백준
- cocoapods
- rxswift6
- C++
- rxswift
- infallible
- SwiftUI
- DispatchQueue
- 백준온라인저지
- ios
- Swift
- 프로그래머스
- disposeBag
- 알고리즘
- Reactivex
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |