Swift/SwiftUI – 조도측정기 개발기

Swift/SwiftUI를 스터디 하며 개인적으로 두번째 앱을 스토어에 업로드 했습니다.

최근에 하던 작업에서 조도를 측정해야 할 일이 있었는데 측정수치만 보여주는 보여주는 앱을 다운 받았는데 측정 상황에 따른 데이터를 저장해 두고 싶었는데 그게 안되더군요. 그래서 하나 만들어 볼까 하는 생각을 했습니다.

개인적인 요구사항은 사진과 함께 측정결과값을 보관하고 다음에 다른 환경의 데이터와 비교해서 볼 수 있었으면 하는것이었습니다.

카메라뷰 컨트롤러

https://github.com/imaginary-cloud/CameraManager

요구 사항을 만족시키려면 우선 카메라가 필요합니다. 그리고 조도를 측정 하려면 프레임을 캡쳐해서 현재 화면의 메타데이터를 얻어야 합니다. 카메라 컨트롤은 위 링크의 오픈 소스를 사용했습니다. 이 오픈 소스는 아이폰 카메라를 만드는데 꼭 필요한 기본적인 기능을 갖추고 있는 아주 훌륭한 오픈소스 입니다.

하지만 SwiftUI 기반에서 프레임을 캡쳐하기 위하여 AVCaptureVideoDataOutputSampleBufferDelegate 을 얻으려면 몇가지 추가적인 작업을 해야 합니다. SwiftUI에서 View와 ViewController를 사용하려면 UIViewControllerRepresentable 프로토콜을 구현해서 델리게이션을 수행 할 수 있습니다.

델리게이션에서는 프레임이 변화될때마다 측정값을 계산합니다.

대략의 코드는 아래와 같습니다.

//
//  PreViewController.swift
//  CamMeter
//
//  Created by Park Billy on 2021/06/08.
//
import SwiftUI
import UIKit
import CameraManager
import AVFoundation


struct PreViewController: UIViewControllerRepresentable {
    @State var cameraManager:CameraManager
    @Binding var lux: Double

    func makeUIViewController(context: Context) -> some UIViewController {
        let controller = UIViewController()
            
        cameraManager.cameraDevice = UserDefaults.standard.integer(forKey: "device") == 1 ? CameraDevice.front : CameraDevice.back
        cameraManager.addPreviewLayerToView(controller.view)
        cameraManager.cameraOutputMode = CameraOutputMode.videoOnly
        
        let output = AVCaptureVideoDataOutput()
        if ((cameraManager.captureSession?.canAddOutput(output)) != nil) {
            cameraManager.captureSession?.addOutput(output)
            let VideoQueue = DispatchQueue(label: "VideoQueue")
            output.setSampleBufferDelegate(context.coordinator, queue: VideoQueue)
        }
        return controller
    }
    
    func updateUIViewController(_ uiViewController: UIViewControllerType, context: Context) {
    }

    class Coordinator: NSObject, AVCaptureVideoDataOutputSampleBufferDelegate {
        @Binding var lux: Double

        init(lux: Binding<Double>) {
            _lux = lux
        }

        func captureOutput(_ output: AVCaptureOutput, didOutput sampleBuffer: CMSampleBuffer, from connection: AVCaptureConnection) {            
            if let metadata = CMGetAttachment(sampleBuffer, key: kCGImagePropertyExifDictionary, attachmentModeOut: nil) {
                if let fN = metadata["FNumber"] as? Double {
                    if let fT = metadata["ExposureTime"] as? Double {
                        if let speedArr = metadata["ISOSpeedRatings"] as? NSArray {                            
                            let calValue = UserDefaults.standard.double(forKey: "calvalue")                            
                            let fS = speedArr[0] as! Double
                            lux = (fN * fN) / (fT * fS) * calValue
                        }
                    }
                }
            }
            
        }
    }

    func makeCoordinator() -> Coordinator {
        return Coordinator(lux: $lux)
    }

}
 

조도계산

위의 코드에서 보다시피 프레임만 얻으면 조도계산은 간단합니다. 얻어낸 sampleBuffer에서 Exif 데이터를 추출하고 그중에서 FNumber, ExposureTime, ISOSpeedRatings을 이용해서 간단한 계산식을 만들면 끝입니다.

캘리브레이션

계산 결과로 나온 수치는 얼마나 정확 할까요? 확인할 방법이 없어서 아래와 같이 생긴 조도계를 구입했습니다.

그리고 조도계의 결과와 동일한 출력이 나올 수 있도록 Calibration 프리셋을 입력 할 수 있는 기능을 Settings에 추가 했습니다. 기본 프리셋은 18입니다. 아마도 더 정확한 조도계를 가지고 있다면 거기에 맞도록 프리셋을 조정 하면 됩니다. 측정결과를 보며 캘리브레이션값을 조정 할 수 있도록 메인화면에 슬라이드를 보이도록 할 수도 있습니다.

SwiftUI

개인적으로 AutoLayout이 도입되면서부터 iOS 개발이 좀 재미가 없어지지 않았나 하는 생각을 했습니다. 그리고 그 사이에 웹프론트 프로젝트를 하면서 HTML, CSS를 알게 되었죠. 아무래도 그 덕분에 SwiftUI를 더 쉽게 받아 들이고 있는게 아닌가 하는 생각을 했습니다. 최근 쓰고 있는 Flutter도 마찬가지 인것 같구요.

iOS 개발이 다시 재미있어진건 무었보다도 SwiftUI 덕분입니다.

조도측정기

두어달 전에 SwiftUI 기반으로 처음만든 연봉계산기는 올렸습니다만 조도 측정기는 실제 측정기 구입비 정도는 나와야 하지 않을까 싶어서 1달러에 스토어에 올렸습니다. 제가 여ㅓ가지 조도측정앱을 다운 받아 봤습니다만 쓸만합니다. ^^;

엊그제 버전을 1.1로 올리면서 광원거리를 입력하면 칸델라단위도 보여주도록 수정했습니다. 한글/영문/일본어 지원

당연히! 필요하신 분만 사시면 됩니다. ^^

https://apps.apple.com/app/id1572227924

박병일/20200720

SwiftUI 에서 URL Schemes 과 Deeplink

최근 SwiftUI를 공부하며 개인적으로 문제가 되고 있던것 중에 하나가 과거에 하던 방식으로 문제를 해결하려는 버릇인데 URLSchames 문제를 해결하려다 또 그런일이 있었다. 프레임워크가 변하면 생각을 바꿔야 하는데 그게 쉽지 않다.

URL Schemes

URL Schemes와 그에따른 처리방법은 아이폰앱에서 데이터를 전달할 수 있는 규격을 등록하고 등록된 규격의 데이터를 수신 했을때의 처리를 위한 일련의 처리를 말하는데 거의 초기버전의 iOS부터 지원한 방법이다.

내가 알고 있던 이 문제를 해결하는 방법은 AppDelegate와 SceneDelegate 에 아래와 같은 함수를 정의하고 URLContext의 URL을 파싱해서 데이터의 내용에 따라 분기를 하고 데이터에 맞는 ViewController를 오픈하는 단계까지 가는 것이 문제의 해결이었다.

 func scene(_ scene: UIScene, openURLContexts URLContexts: Set<UIOpenURLContext>) {
        if let url = URLContexts.first?.url {            
            print("url: \(url.absoluteURL)")
            print("scheme: \(url.scheme)")
            print("host: \(url.host)")
        }
    }

하지만 현재 XCode(V 12.5) 에서 기본적인 프로젝트 생성에서 Life Cycle을 SwiftUI App으로 만들면 AppDelegate, SceneDelegate를 만들어 주지 않는다. 이게 존재 하지 않으니 어디에서 url을 받아들이고 분기해야 할지 알 수가 없었다.

참고로 앱을 생성할때 아래의 Life Cycle을 UIKit App Delegate를 선택하면 이전에 쓰던 AppDelegate과 SceneDelegate 파일이 자동으로 생성된다.

삽질

과거의 방법으로 문제를 해결하려는 시도는 결국 며칠간의 삽질로 끝났다. AppDelegate와 SceneDelegate를 새로 만들었고 이런 해결방법도 가능하다는 결론에 도달했지만 검색중에 보게된 코드 때문에 그 코드들을 모두 버리고 말았다.

.onOpenURL()

문제의 해결 방법이 너무 간단해서 약간 허탈하긴 했지만 아래의 코드와 같이 View의 메소드를 호출하는 방법으로 URL Schemes에 등록된 url의 접근을 확인 할 수 있다.

@main
struct MyApplication: App {
  var body: some Scene {
    WindowGroup {
      ContentView()
        .onOpenURL { url in
          print(url)
        }
    }
  }
}

DeepLink

위의 코드에서 보는것과 같이 모든 View 컨트롤은 .onOpenURL() 메소드를 가지고 있다. 이것은 위에 보이는 메인뷰에서도 url 이벤트를 확인해서 실제로 보여주고자 하는 상세 페이지까지 이동 했을 경우 그 뷰에도 동일한 함수(.onOpenURL())를 호출하면 url값을 얻을 수도 있다.

.onOpenURL { url in
            if (url.scheme! == "where-board" && url.host! == "invite") {
                if let components = NSURLComponents(url: url, resolvingAgainstBaseURL: true) {
                    for query in components.queryItems! {
                        print(query.name)
                        print(query.value!)                        
                    }
                }
            }            
        }

Sample 프로젝트

아래와 같이 신규 프로젝트를 생성해서 상세 페이지에서 URL Schames를 통해 전달된 데이터를 출력해 볼수 있다.

프로젝트의 Life Cycle은 SwiftUI App으로 선택한다.

URL Schemes을 생성하기 위해서는 프로젝트 – info – URL Types 를 선택하고 + 버튼을 눌러서 URL Schemes 항목에 유니크한 이름을 입력한다.

메인 프로젝트 App – Scene – View 의 구조에서 ContentView()에 아래의 코드와 같이 url을 확인 할 수 있다.

import SwiftUI

@main
struct DeepLink_TestApp: App {
    var body: some Scene {
        WindowGroup {
            ContentView()
                .onOpenURL(perform: { url in
                    print(url)
                })
        }
    }
}

실제 콘텐츠뷰의 내부에서도 url 을 전달 받을 수 있다

import SwiftUI

struct ContentView: View {
    var body: some View {
        Text("Hello, world!")
            .padding()
            .onOpenURL(perform: { url in
                print(url)
            })

    }
}

아이폰에 빌드하고 앱이 실핼된 상태에서 사파리 브라우저에서 위와 같이 주소를 입력하고 앱으로 전환되어 아래와 같이 url이 전달되는 것을 확인할 수 있었다. 두번 프린트 되었는데 첫번째는 위의 코드에서 두번째는 아래의 코드에서 전달된 데이터이다.

my-deeplink-test://share?id=1234
my-deeplink-test://share?id=1234

대략 아래와 같은 코드를 이용해서 url을 파싱할 수 있다.

        .onOpenURL { url in
            if (url.scheme! == "my-deeplink-test" && url.host! == "share") {
                if let components = NSURLComponents(url: url, resolvingAgainstBaseURL: true) {
                    for query in components.queryItems! {
                        print(query.name)
                        print(query.value!)                        
                    }
                }
            }            
        }

20210515 박병일

iOS/Swift에서 OpenCV 사용

수년전에 iOS에서 OpenCV를 이용해서 작업을 해본적이 있었는데 새로 같은 작은 작업을 하려다보니 다 잊어버려서 OpenCV 프레임워크를 설치하는 과정을 잊어버려서 잊지 않기 위해서, 그리고 새버전의 Swift/Xcode에서 OpenCV와의 연결에 문제가 없는지 확인하기 위해 다시 한번 해보고 아래와 같이 정리 했다.

OpenCV 프레임워크 다운로드

iOS용 OpenCV 프레임워크를 다운 받는다. OpenCV가 버전업 될때마다 친절하게도 iOS용 프레임워크를 빌드해서 다운받을 수 있도록 준비가 되어 있다. 아래 링크에서 프레임워크를 다운 받을 수 있다. 현재 버전은 V4,5,2 최근 버전이 굉장히 빠르게 올라가고 있다. 머신러닝과 관련한 기능들이 많이 추가된것이 원인인듯하다.

https://opencv.org/releases/

다운 받아 압축을 해제 하면 iOS에서 바로 사용할 수 있는 프레임워크 형식의 파일과 폴더로 구성되어 있다.

Xcode 신규 프로젝트 생성

프레임워크 추가

Xcode에서 OpenCV-Test 라는 이름의 신규 프로젝트를 하나 생성 했다. 내가 쓰고 있는 Xcode의 버전은 12.5이다. 위에서 압축 해제한 OpenCV 프레임워크를 폴더를 생성한 프로젝트 폴더로 이동하고 프로젝트를 선택하고 [Build Phase] 에서 Link Binary With Libraries 의 + 버튼을 눌러서 프로젝트에 포함시킨다.

래퍼클래스 생성

File 메뉴에서 New -> File..을 선택해서 아래 그림과 같은 순서로 CVWrapper를 생성한다.

이때 주의할점은 Language 에 Swift 대신에 Objecitive-C 언어로 선택을 해주어야만한다. Next를 선택하면 Xcode는 자동으로 브릿지 Header 파일을 생성하겠냐는 메세지를 보여준다. Create Bridging Header를 선택해서 브릿지헤더파일을 생성한다.

그리고 생성된 CVWrapper.m 파일의 확장자를 CVWrapper.mm 으로 변경해준다.

Prefix Header 파일 생성

그리고 메뉴에서 File – New – File… 을 선택해서 PCH file을 위 그림과 같이 선택해서 주어진 파일명으로 생성하고 생성된 .pch 파일에 아래와 같은 코드를 삽입한다.

//
//  PrefixHeader.pch
//  OpenCV-Test
//
//  Created by Park Billy on 2021/05/07.
//

#ifndef PrefixHeader_pch
#define PrefixHeader_pch

#ifdef __cplusplus
#include <opencv2/opencv.hpp>
#endif

#endif /* PrefixHeader_pch */

생성한 Prefix 파일을 컴파일러에 등록해 주어야 하는데 아래의 그림과 같이 Build Settings에서 $(SRCROOT)/프로젝트명/PrefixHeader.pch의 형식으로 등록한다.

OpenCV 버전확인 하기

아래의 코드를 추가해서 OpenCV의 버전을 가져오는 기능을 만들어 봤다. CVWrapper.h / CVWrapper.mm

//
//  CVWrapper.h
//  OpenCV-Test
//
//  Created by Park Billy on 2021/05/07.
//

#import <Foundation/Foundation.h>

NS_ASSUME_NONNULL_BEGIN

@interface CVWrapper : NSObject

+ (NSString *)openCVVersion;

@end

NS_ASSUME_NONNULL_END
//
//  CVWrapper.mm
//  OpenCV-Test
//
//  Created by Park Billy on 2021/05/07.
//

#import "CVWrapper.h"
#import <opencv2/opencv.hpp>

@implementation CVWrapper

+ (NSString *)openCVVersion {
    return [NSString stringWithFormat:@"OpenCV Version %s",  CV_VERSION];
}

@end

ContentView.Swift에서 래퍼클래스의 함수를 호출하여 실제 아이폰 화면에 OpenCV 버전을 보여주는 코드를 아래와 같이 추가했다.

//
//  ContentView.swift
//  OpenCV-Test
//
//  Created by Park Billy on 2021/05/07.
//

import SwiftUI

struct ContentView: View {
    @State var version = ""
    
    var body: some View {
        Text(self.version)
            .padding()
            .onAppear(){
                self.version = CVWrapper.openCVVersion()
            }
    }
}

실행결과

실행 결과는 아래와 같다.

실제로 iOS에서 OpenCV 기능을 활용하려면 위의 CVWrapper.h 에 함수를 정의 하고 CVWrapper.mm에 기능을 구현해서 Swift 코드에서 함수를 호출하는 방식으로 사용하면 된다.

소스코드

아래 링크에서 소스 코드를 다운 받을 수 있다. 이 프로젝트를 테스트 하려면 소스에 OpenCV 프레임워크는 포함되어 있지 않으므로 다운 받아서 이글의 첫번째 부분과 같이 프레임워크를 포함시켜야 한다.

https://github.com/bipark/opencv_ios_starter

20210507 박병일

Obj-C, AutoLayout, ReactNative, Flutter, SwiftUI, 개발생산성 등등

최근에 다시 Swift/SwiftUI를 스터디하며 그동안 iOS 개발을 하며 느꼈던 UI 개발에 대한 개인적인 생각을 정리해봤습니다. 시작과 끝에 대략 10년정도의 시간차이가 있습니다.

Obj-C, InterfaceBuilder 재미있었음

Objective-C를 접한건 2009년 4월. 델파이(Pascal)에 익숙해져 있던 나에겐 NS…로 시작하는 긴 함수명을 가진 프레임워크가 의외로 익숙했고 그해에 여러개의 앱을 스토어에 업로드해서 통산 100만 다운로드는 넘기는 경험을 해보기도 했다. 무료앱이라 그다지 수익을 내지는 못했지만… ^^;

Interface Builder는 델파이의 화면디자이너와 유사했고 시간이 지나며 StoryBoard로 화면이 통합되는 과정에 사이즈 때문에 느려지는 문제들이 있었지만 최소한의 일관성은 유지 했다는 측면에서 나쁘지 않았다는 생각

Obj-C, AotoLayout 재미없었음

iOS앱 개발이 재미가 없어지기 시작한 시점은 아마도 Xcode에 AutoLayout이 적용되기 시작한 시점이었던것 같은데 기껏 화면을 디자인해 놓으면 수정사항이 발생할때마다 Layout이 깨지고 화면전체의 레이아웃을 다시 잡아야하는 불편함을 감수해야 하는게 너무 싫었음. 시간이 지나면서 언어가 Obj-C에서 Swift로 바꿔었지만 UI를 만드는 과정에 너무 번거로운 상황이 반복되면서 점점 흥미를 잃기 시작

ReactNative, CSS 흥미로움

독립개발자에서 취직을 하면서 iOS와 Android를 동시에 지원해야 하는 일이 생기면서 멀티 플랫폼에 대한 고민을 하게 되었는데 적은 리소스로 목적을 달성해야하는 스타트업 비즈니의 환경에 적합한 솔루션을 찾은것이 ReactNative. (이하 RN)

RN은 웹개발 기술을 기반으로 하고 있는데 HTML, CSS를 이용한 화면 구성이 위에 언급한 AutoLayout과 대비되면서 Xcode에도 이런 방법이 도입되어야 하지 않을까 하는 생각을 했었던 기억.

Flutter, Widget 괜찮긴한데…

멀티플랫폼은 한번 발을 들이면 쉽게 빠져 나갈수 없는데, 아이폰과 안드로이드를 한번에 빌드할 수 있다는데 누가 관심을 갖지 않겠는가? 그런면에서 Flutter는 구글의 후광을 입고 가장 빠르게 성장하고 있는 모바일 개발 플랫폼. 성능도 꽤 괜찮다.

위젯기반의 UI 레이아웃은 좀 심하다 싶게 캐스케이드 되는것을 제외하면 화면 변경이 용이하고 코드와 레이아웃간의 연결성도 나쁘지 않은편. 이것은 위에 언급한 RN도 거의 동일한 개발 편의성을 가지고 있지만 Flutter가 Android Studio 지원등에서 장점이 있고, 패키지 관리등에서 RN보다 좋은점이 많이 있음.

1년이 넘게 Flutter를 쓰면서 문제점이 나타나기 시작한 부분은 UI는 아니고 패키지 관리 부분이었는데 과도하게 외부 패키지를 사용하면 각 버전들의 의존성이 달라서 업데이트에 애를먹는 상황이 발생하게 되는데 이부분 좀 심각함

Swift, SwiftUI 완전 괜찮은데?

애플에서 발표한지 2년이 다되어가는 기능을 두고 이제와서 좋다고 말하는데 어지간히 뒷북이긴 하지만 애플이 자존심을 버리고 CSS의 장점을 잘(?) 흡수해서 하나의 코드페이지에 통합한것은 늦었지만 훌륭한 작업이었다고 칭찬할만 하다고..

iOS만 지원하는 SwiftUI와 위의 멀티플랫폼 도구를 비교하는게 오류가 있을 수 있지만 UI 구성과 코드의 자연스러운 연결에 대한 부분만 본다면 SwiftUI가 가장 우수하지 않을까 하는게 최근 앱을 하나 만들어 보고 내린 결론. 물론 개인적인 생각!

SwiftUI 테스트 프로젝트

초심으로 돌아가 돈을 벌생각이 없는 무료앱을 하나 만들어봄. 대략 2주정도 걸렸고 익숙하지 않은 방법으로 화면을 만들어야 했지만 애플의 튜토리얼 프로젝트를 따라하다보니 위에 RN, Flutter에서 UI를 만들며 했던 경험들이 매우 도움이됨

https://developer.apple.com/tutorials/swiftui

위의 튜토리얼에서 iOS화면구성에 필요한 기본적인 컨트롤의 레이아웃을 구성하는 방법에 대한 정보를 얻을 수 있었고 여기에 더해 API통신(Alamofire), GoogleAnalytics등을 Pod으로 설치해서 프로젝트 생성

내연봉계산기

앱다운로드는 아래링크

https://apps.apple.com/kr/app/id1564866857

이 앱은 개인적으로 수년에 한번씩 만드는 테스트 프로젝트인데 새로운 개발 프레임워크를 테스트 할때마다 새로 만드는 앱. 해가 바꿜때마다 만들때마다 소득세를 포함한 각종 공제액의 비율이 달라져서 매년 업데이트를 해야만 해서 새로운 공부를 시작할때 유용하게 재사용하고 있음. 물론 완전히 새로 만드는거지만

결론

어느것이 더 좋다는 결론을 내리려고 하는것은 아니고 개인적으로 최근 수년간 Xcode를 그저 빌드 도구(RN, Flutter 역시 iOS 빌드는 Xcode로 한다)로만 사용하고 있었는데 멀티플랫폼에 대한 부담을 벗어버리니 Swift/SwiftUI가 개인적으로 다시 의미가 생겼다고나 할까?

SwuftUI가 UI빌딩과 메인터낸스에서 발군의 장점이 있는것과 동시에 그동안 깨닫지 못하고 있었던 빌드타임과 런타임성능이 RN, Flutter에 비해 현저하게 빠르다는것도 매우 큰 장점이다. 물론 멀티플랫폼을 지원하지 않는다는게 단점이라면… 그건 당연한거지만

20210501 박병일

SwiftUI Tabar/NavigationView (탭바/네비게이션뷰)

최근 Flutter가 좀 지루해져서 – 지루해진 이유는 다음에 쓰기로 하고 – iOS 네이티브 개발을 다시 해보고 싶다는 충동(?)에 SwiftUI 스터디를 시작했다. iOS 개발은 Obj-C 부터 거의 10여년을 하고 있지만 아직 SwiftUI를 써보지 못해서 아래 링크의 튜토리얼을 따라해보고 대략의 감을 잡을 수 있었다.

아래 링크를 따라가면 SwiftUI의 기본적인 Interface에 대한 이해를 얻을 수 있다.

https://developer.apple.com/tutorials/swiftui/creating-and-combining-views

각설하고… 아래 코드는 iOS의 대표적인 UI인 탭바네비게이션 셈플코드이다. Xib 파일도 없고 폼디자이너도 없다. 이렇게 심플하게 코드를 만들 수 있는데 그동안 왜 그렇게 했는지 이해 할 수 없지만… 매우 만족 스럽다. Group, VStack, HStack 등을 이용해서 뷰 상세를 꾸미다보면 CSS에서 본것 같기도 하고 Flutter 에서 본것 같기도한데 각종UI 프레임워크의 좋은 점을 잘 가져와서 만들었다는 생각이 들었다.

//
//  ContentView.swift
//  study1
//
//  Created by Park Billy on 2021/04/20.
//

import SwiftUI

struct View1: View {
    var body: some View {
        
        // 네이게이션뷰로 만들어 줘야 BarTitle을 만들며 상세뷰로 이동 할 수 있다.
        NavigationView {
            // DetailView로 이동
            NavigationLink(destination: DetailView()){
                Text("Go Detail View")
            }
            .navigationBarTitle("첫번째뷰")
        }
        .tabItem { // 탭바 타이틀과 아이콘
            Text("View1")
            Image(systemName: "tray.full")
        }
    }
}

struct View2: View {
    var body: some View {
        NavigationView {
            Text("Hello View2")
                .navigationBarTitle("두번째뷰")
            
        }
        .tabItem {
            Text("View2")
            Image(systemName: "tray")
        }
    }
}

struct DetailView: View {
    var body: some View {
        Text("Hello Detail View")
            .navigationBarTitle("상세뷰")
    }
}

struct ContentView: View {
    var body: some View {
        // 탭바를 만든다 ... 이렇게 간단히?
        TabView {
            View1()
            View2()
        }
    }
}

아래는 실행 결과 – 첫번째뷰에서 [Go Detail View]를 누르면 상세뷰로 이동한다. 상세뷰는 상단에 네비게이션 타이틀이 뷰 스크롤되면 자동으로 상단으로 붙어올라가는 기능이 있다. 그리고 빌드하지 않아도 Xcode에서 프리뷰를 볼 수도 있다.

오랜만에 네이티브로 스토어에 앱을 하나 올려야겠다고 생각했다.

코로나 집콕 프로젝트 #3

이글은 앞선글(http://practical.kr/?p=239)에 연결된다. 작업을 진행 할때마다 페이스북에 올린 짧은글들과 이미지들을 묶어서 정리했다

2021년 2월 20일

수분습도 센서라고 팔고 있는것들은 다 삿다. 왼쪽에 케이블 달려 있는 놈이 전에 말한 불량품이다. 이틀간 맞다가 일주일째에 데이터가 틀려지는 기이한 놈. 왼쪽 두번째가 3주간 테스트 결과를 통과(?)한 놈. 나머지는 이제 테스트 해야할 놈.오늘은 구입한 방수박스에 넣어서 조립을 시작할 예정.

이번주에 알리에서 배송된 여러가지(?) 중에 부루투스 비콘. 이걸 왜 삿냐면 두어주 전에 타임라인에서 누가 Esp32 와 비콘으로 집안에서 고양이 위치 추적을 만든 사람이 있었는데 나름 재미있다고 생각했음. 그리고 최근 Flutter에서 블루투스 기능을 구현 했는데 잘되네… 이후 뭔지 알수없는 이끌림(?)에 구입함. 일단 서랍속으로… ^^;두번째는 쿠팡! 리튬배터리 충전모듈보통 이런건 알리에서 사거나 좀 급하면 디바이스마트에서 사는데 디바이스 마트에서 1300원 하는걸 쿠팡에서 350원에 팔고 있음. 거의 알리수준. 게다가 다음날 배송까지. 알리는 빨라야 2주다. 쓸데는 없지만 10개를 안살수가 없지 않은가… 미안하게 달랑 한개 살수는 없고 ^^;

2021년 2월 21일

방수케이스를 사긴 했는데 전원입력부분의 사이즈를 고려하지 못한 실수로 왼쪽 케이블 홀에 방수 커넥터를 붙이지 못하고 조립완료. 코드 수정하듯이 할수 있으면 좋겠지만 하드웨어는 그러게 쉬운건 아닌듯… 10개쯤 만들면 좀 모양이 나오지 않을까?납땜 실력이 너무 허접해서 뒷면을 보여 드릴 수가 없다요. ㅠㅠ 일단 데이터는 잘 들어오는데 두어주 정도 돌려볼 생각. 앱에 노티피케이션도 추가 해야하는데… 자꾸 다른 아이디어가 따올라서 진행이 잘 안되고 있음. OLED 달아야지 등등… ^^;

2021년 2월 22일

원래 이 고양이는 뒷면에 LED가 있어서 은은하게 발광(?)하는 고양이였는데 내장을 드러내고 최근 작업중이던 ESP32의 mini 타입과 배터리 충전기를 넣고 온습도계를 달아서 온도계를 만들었다.그리고 얼굴에 창(?)을 내고 OLED display를 달아서 현재 온습도를 보여준다. 앱에서 기존에 설치된 토양습도계 아래쪽에 채널을 하나 더 설정해서 데이터를 수집, 조회 할 수 있다.어제 토양습도계를 조립해 놓고 보니 앱을 켜지 않으면 센서에서 데이터를 알 수가 없어서 일단 실내용으로 하나 만들어 봤다.폰트가 너무 작아서 잘인보이는 문제가 좀 있다.

2021년 2월 28일

태양광 패널 2개를 달아서 충전실험시작오늘 날씨가 흐리긴 하지만 Led가 켜지고 충전이 되는듯 보임. 전류가 낮아 안될수도… ESP32를 구동하기위한 충분한 패널의 갯수를 알고 싶어 시작한 실험… 며칠 돌려 보면 알겠지. ESP32는 한시간에 한번씩 전압을 측정해서 전송하고 딥슬립으로 들어가고 한시간 후에 자동으로 깨어나 다시 전압을 서버로 전송하고 또 잠든다.

2021년 3월 5일

오전에 해가 쨍! 해서 장비를 배란다 밖에 내어 놓았더니 지난 일주일간 최고의 충전전압을 보여줬다. 센서를 추가로 달아도 혼자 충방전 해가며 운영 할수 있을것 같기도 하다 ^^

2021년 3월 8일

2월 28일부터 측정을 시작한 태양광 패널 전압은 3월1일부터 날씨가 흐려서 전압이 다소 떨어졌지만 배터리가 ESP32를 구동할만큼 버텨줬고 3일부터 맑은날씨가 계속되면서 3일 하루만에 만충전 상태가 되었고 이후로 오늘까지 디바이스의 측정과 데이터 전송에 무리없이 작동되고 있다. 참고로 이 디바이스는 매시간 딥슬립상태에서 깨어나서 전압을 측정해서 서버에 MQTT로 데이터를 전송하고 슬립상태로 대기한다.오늘부터 추가로 온습도 센서를 붙여서 실험예정

코로나 집콕 프로젝트 #2

이글은 앞선글(http://practical.kr/?p=183)에 연결된다. 작업을 진행 할때마다 페이스북에 올린 짧은글들과 이미지들을 묶어서 정리했다

2021년 1월 15일

https://www.facebook.com/rtlink.park/posts/4243516198997718

ESP32의 문제는 디스플레이가 없어서(당연한거지만… ) 디버깅이 힘들다. USB로 컴퓨터에 물려놓고 로그를 찍어가며 실행을 확인해 볼 수 밖에 없다. 근데 이게 그러라고 만든 기계가 아니니 전원만 넣으면 혼자 돌아가야 한다.며칠전에 데이터가 잘 들어오다가 새벽부터 데이터가 안들오고 다운이 되었는데 원인을 알수가 없었다 – 물론 원인은 내 발코딩이다 당연하지! – 그래도 뭘 잘못했는지는 알아야 해서 MQTT로 로그를 서버에 전송하는 기능을 넣고 앱에서 조회 할 수 있도록 만들었다. 정확한 에러의 원인은 알 수 없지만 최소한 로그를 많이 남기면 그전에 뭘 하고 있었는지는 알 수 있다. 그 다음이 문제였겠지… 결국 그 버그는 잡았지만 버그라는게 그것 뿐일리가 없다.그리고 적당한 타이밍에 알리에서 Pan & Tilt Servo 셋트를 보내 주셨다. 카메라를 원격에서 조정하면 좋겠다고 생각하고 주문했는데 일단 조립만 하고 OTA 다 하면 붙여봐야지!

2021년 1월 16일

https://www.facebook.com/rtlink.park/posts/4246916305324374

간밤에 ESP32의 OTA를 다 만들었다. 이제는 SW 업그레이드를 위해 설치한 장비를 떼러 가지 않아도 된다. 그래서 좀 더 형태를 갖춘 온도 측정기를 만들었다.ESP32-BME680 기반으로 온도, 습도, 압력, VOC를 측정기를 하나 더 만듬. 빵판에 올려 놓으니 그래도 조금은 깔끔해짐. 이건 식당에 설치할 예정.앱 인터페이스가 좀 더 예뻐져야 하는데… 공돌이에겐 진짜 어려운일..^^;

2021년 1월 24일

https://www.facebook.com/rtlink.park/posts/4270100223005982

기존의 일체형 토양수분 측정기의 문제는 화분에 물을 준다던가 실외에 둘때 비가 온다거나 하면 통신모듈(esp32)이 침수된다. 그래서 독립형 센서를 연결했다. 데이터는 대충 맞췄고, 방수박스까지 사놓긴 했는데…왠일인지 동백화분은 시들시들하다. 모든 식물을 다 죽이고 마는 똥손이 이런걸 만들고 있다니… 아이러니 라고..

2021년 1월 28일

https://www.facebook.com/rtlink.park/posts/4282926348390036

ESP32 보드 수집이 취미가 될것 같음. 오늘 도착한 보드는 10개 묶어서 35달러짜리 미니 보드와 아두이노 타입의 조금 큰 보드지난번에 사놓은 케이스에 토양수분 센서까지 붙여서 넣어봤는데 보드만 있는것보다는 뭔가 있어보임. 그동안 여러가지 센서를 테스트 삼아 붙여 봤는데 토양수분, 온습도만 측정하는 전용박스로 프로젝트를 마무리 하는게… 누가 뭐라하는 사람이 없으니 끝이 안나서.. ^^;근데 토양수분센서는 캘리브레이션이 제일 문제… 제로/스팬 환경을 만들기가 너무 어려움

2021년 1월 31일

https://www.facebook.com/rtlink.park/posts/4290248040991200

ESP32에 토양습도 센서를 붙여서 데이터의 거동을 보다가 – 화분에 물을 주면 처음엔 100% 수준에서 쭉 떨어지다가 어느 시점이 되면 약간 증가하는 현상을 보이고 또 떨어지다가 어느 시점에서 약간 증가한 후에 다시 떨어지는 모양의 그래프가 나타난다.처음 데이터가 올라갈땐 이럴리가 없을텐데.. 캘리브레이션 과정에서 제로/스팬이 잘못된게 아닌가 하고 여러 방법으로 코드를 바꿔 봤지만 동일한 결과가 나타났고 좀 더 지켜보니 그런 패턴이 반복된다. 자료를 좀 찾아보니 토질에 따라 다르고 그 결과도 흡수와 배출을 반복하는게 아닌가(? 확실치 않다..) 하는 생각에 이르게 되었다. 뭘 알겠는가… 코딩만 하는 공돌이가.. ^^;엇쨋든 결론은 앱에서 그래프를 축소 확대 할 수 있는 기능이 필요하다는데 이르렀다. 결론이 이상하네.. ^^;

2021년 2월 2일

https://www.facebook.com/rtlink.park/posts/4295899163759421

세상에는 이해할 수 없는 일이 많기도 하지만 가끔은 그런일이 내 거실에서 일어 나기도 한다. 이전 포스팅에서 화분에 꽂아둔 수분센서가 측정한 토양 수분 데이터가 오르고 내리기를 반복하면서 점점 내려간다고 올렸는데 중간에 위치를 바꾸느라 전원이 끊어져 리부트된 이후에 계속해서 올라만 가고 있다.내가 안보는 사이에 누군가 물을 조금씩 붇고 있나? 알수없는 일이다.결국 처음부터 다시 할 수 밖에… 이러면 센서의 정확성을 의심하지 않을 수 없다. 이러니 중국산 센서를 어떻게 믿나… 까지 가고 만다.

2021년 2월 4일

https://www.facebook.com/rtlink.park/posts/4301045793244758

며칠전 올린 포스트에서 중국산 토양수분센서의 데이터가 시간에 따라 상승하는 결과가 나타나서 믿을 수 없다는 생각을 하고 또 다른 중국산(?) 센서를 동시에 같은 화분에 설치해서 약 24시간 측정했다.두 센서의 캘리브레이션이 달라서 절대 수치는 다르지만 대략 데이터의 움직임은 비슷하게 나타났다. 이것들이 같은 중국산이라고.. 서로 짯나? ㅋ 엇쨋든 보이지 않는곳에서 일어나는 변화는 나의 예측과 맞지 않는다. 일단 하루 더 지켜보는 걸로.. 하여간 IOT 측정 네트웍을 만들려던 프로젝트는 센서의 정확도를 확인하는 프로젝트로 변해가고 있는데… 나도 어디로 갈지 잘모르겠다.

2021년 2월 6일

https://www.facebook.com/rtlink.park/posts/4307357982613539

2틀이나 들여서 토양수분, 온도, 습도 챠트를 통합했지만 토양수분 데이터의 변화폭이 너무 적어서 상호관계를 한눈에 알기가 쉽지않다.청색이 온도 챠트인데 환기를 할때마다 고꾸라지는 특성이 있다. ㅋㅋ

2021년 2월 7일

https://www.facebook.com/rtlink.park/posts/4310002775682393

화분1, 2는 동일한 화분에 다른 토양수분센서가 설치되어 있고 화분1은 센서의 성능이 의심되고 있던 센서이다. 일주일만에 이놈이 불량스러운 아웃풋을 내고 있다는 사실을 확인했다. 처음엔 비슷하게 떨어지다가 며칠지나서 토양수분이 다시 서서히 올라감… 아직 원인 파악은 못함.. 그냥 센서 자체가 문제인듯… 여러개 구입했는데 다 똑같음하여간 축적된 데이터는 중요하다 이말씀.. 이힛!

2021년 2월 17일

https://www.facebook.com/rtlink.park/posts/4337140246301979

3주간의 데이터 측정결과 – 이전 포스팅에서 중국산 센서의 정확성을 믿을 수가 없어서 믿을만한(?) 다른 중국산 토양 수분센서를 구해서 측정을 시작한지 대략 3주가 지났다. 센서는 문외한이지만 데이터를 가지고 판단해 본다면 화분1의 센서가 문제가 있다고 판단해도 되지 않을까 싶은데… 이런건 돈받고 팔고 있다니.. 나쁜 사람들 같으니라고… 그동안 투자한 내 시간은 어디서 보장받나 싶지만… 난 한가한 사람이니 참기로 한다. 앱의 UI를 바꿨는데 좀 예뻐진건지… 그게 그거 같기도 하고..

코로나 집콕 프로젝트 #1

의도

2020년은 코로나의 해였다. 년초에 시작한 코로나는 년말을 지나도록 잡히지 않았고 나는 하반기 내내 외부 프로젝트를 줄이고 집에 박혀서 더 많은 삽질을 했다. 이유없는 삽질에 결론을 만들기는 어렵긴 하지만 무언가 결과가 있어야겠다고 생각한게 12월이니… 오래도 결렸다.

하반기에 주로 많이한 일들이 IoT 디바이스를 가지고 놀아본거였고 거기에 Flutter를 이용해서 앱을 두어개 만들어 스토어에 업로드 해본 경험으로 IoT Network을 만들 수 있지 않을까? 하는 생각을 했고 순수하게 우리집안에 온습도 정도를 측정해보자는 생각으로 12월초에 프로젝트를 시도 했다.

12월 16일

페이스북에 뭔가 하고 있다고 공유를 시작했는데… 대략 아래와 같은 기술 스택으로 프로토 타입을 만들어 봤다. 그림에 보이는 보드는 5~6달러 정도의 ESP32 호환 보드로 여기에 MicroPython을 올려서 DHT11 온습도 센서를 연결하고 받은 데이터를 Wifi – MQTT 프로토콜을 이용해서 AWS EC2 서버에 Python & FASTApi 기반으로 개발된 서버에 전송한다.

서버에서 MQTT로 수신한 데이터는 MariaDB에 저장하고 FASTApi는 모바일앱에서 데이터를 요청하면 REST 기반으로 데이터를 보내준다.

앱은 Flutter & Dart 로 개발되었고 iOS & Android를 지원한다. 서버에 측정 데이터를 요청하고 받은 측정 데이터를 보여준다. 대략의 기술 스택은 아래와 같다.

ESP32, Raspberry PI + DHT11 + MicroPython + MQTT + AWS EC2 + MariaDB + Flutter

https://www.facebook.com/rtlink.park/posts/4162860857063253

위에 보이는 라즈베리파이 Zero에도 ESP32와 똑같은 기능의 Python 코드를 별도로 만들어 서버로 전송하고 앱에서 데이터를 조회 할 수 있다. 그렇게 3개의 온습도 측정기를 거실과 베란다에 설치하고 측정을 시작했다.

저렴한 ESP32보드(5달러짜리임..)를 사용한 탓인지 중국산 건전지 탓인지 아니면 둘다의 문제인지 3일이 못가서 건전지가 다 소모 되었고 결국 5V 아답터로 교체했다. ESP32는 하루 한번 정도 다운이 되었는데 코드 버그인지 보드 문제인지 알수가 없었다 – 나중에 알게 되었지만 코드에도 문제가 있었다. ^^;

12월 21일

https://www.facebook.com/rtlink.park/posts/4176739459008726

원래 온습도를 측정하기 시작한 이유는 코로나 시즌이니 가족들의 건강을 위하여 실내환경을 좀더 쾌적하게 유지해 보려는 의도였는데 데이터를 앱으로만 보고 있으니 접근성이 좋지 않았다. 그리고 앱을 계속 디버깅하고 있으니 가족들에게 앱을 설치해주는 일도 쉽지 않았다.

그래서 온습도 전용 디스플레이를 만들어야겠다고 생각하고 아래의 모니터링 장비를 만들었다. 이 모니터는 라즈베이파이4와 전용 디스플레이로 구성되어 있으며 라즈비안OS가 설치되어 있는데 개발은 Vue.js + Nuxt.js로 개발 하였고 웹브라우저를 Full Screen으로 오픈하는 방식으로 화면을 채우고 주기적으로 서버에 REST를 통해 데이터를 요청하고 디스플레이한다.

앱에는 설정된 온습도 범위에 따라 데이터 컬러가 변하는 정도의 알람(?)과 그래프가 추가 되어서 시간별 데이터를 조회 할 수 있게 되었다.

12월 28일

크리스마스에도 달렸다. 코딩말고 뭘 더할게 있겠는가? ㅋ

https://www.facebook.com/rtlink.park/posts/4194455677237104

알리익스프레스에서 거의 1달만에 도착한 토양수분측정기를 동백나무 화분에 설치했다. 이것 역시 ESP32기반의 모듈이라 온습도 측정을 위해 만든 모듈에 토양수분 측정 기능만 추가 했는데 토양 수분 모듈은 기기별로 데이터의 캘리브레이션이 필요한데 일단 이건 나중에 하기로 하고 일반적인 수식을 적용 했더니 데이터가 정확히 맞지는 않는듯 했지만 시간이 지날수록 수분이 줄어들고 있다는것을 확인 할 수 있었다.

앱은 한눈에 모든 기기의 현재 데이터를 확인 할 수 있도록 바꾸었고 불루투스를 이용해서 디바이스의 초기 데이터(디바이스 코드, Wifi SSID)를 셋팅 하기 위하여 Flutter에서 블루투스 전송 작업을 시작했고, 디바이스를 더 붙여 보려는 욕심에 인벤토리를 뒤져서 먼지측정 센서를 찾아냈다. 하지만…

12월 31일

올해 마지막날이라고 해서 들뜬 분위기로 하루를 보낼수는 없다!

알리에서 주문한 새 ESP32 디바이스가 6개 그리고 와이파이 안테나가 한뭉치 왔다. 안테나를 붙이니 보드에 붙어있던 안테나에 비해 도달거리가 늘어났고 그래서 세탁실에도 온습도 측정기를 하나 더 달았다. 그리고 작업중이던 미세먼지 측정기도 연결하기 위해 배선 작업을 했지만 측정기에 문제가 있었는지 아니면 배선을 잘못했는지 아니면 코딩을 잘못했는지… (원인이 너무 많아 디버깅불가) 하여간 데이터가 들어 오지 않았다.

미세먼지 측정기는 가진게 하나밖에 없어서 두번째 시도를 못하고 그냥 두고 있다.

2021년 1월 3일

https://www.facebook.com/rtlink.park/posts/4210535365629135

홈 IoT의 꽃은 리모트 컨트롤이다. 앱에 버튼을 눌러 전등을 끄고 켜거나.. 끄고 켜거나.. 끄고 켜거나… 그거말고 뭘하지?… 하여간 기왕에 하는거 이걸 안하면 안될것 같아서 리모트 컨트롤 기능을 추가했다.

서버에서로 MQTT를 이벤트 방식으로 수신하기 때문에 당연히 같은 방법으로 ESP32에서도 수신 할 수 있을거라고 생각했지만 ESP32에서는 이벤트 방식으로 되지 않았다. 쓰레드 루프를 만들고 계속 확인을 하면서 리모트 컨트롤 데이터를 수신해야 했다.

앱에서는 리모트 컨트롤 인터페이스를 기존의 측정기 화면과 동일한 화면을 쓰게 만들긴 했는데… 나중에 별도의 화면으로 만들어야 될것 같다.

2021년 1월 8일

https://www.facebook.com/rtlink.park/posts/4224526074230064

하다보면 욕심이 생긴다. 데이터만 볼게 아니고 화면도 볼 수 있을까? 인벤토리를 뒤져보니 ESP32-Cam이 나왔다. 이건 언제 삿지? 하여간 붙여야지…

그래서 온습도를 측정중인 동백꽃을 동영상으로 볼 수 있도록 기능을 추가 했는데 MicroPython으로 ESP32-CAM을 연동하는 셈플이 많지않아서 C코드 기반의 MJPEG 스트리밍을 송신하고 앱에서는 웹뷰로 스트리밍을 수신하도록 구성했다. 로컬 Wifi IP로 라우팅되고 있어서 외부에 나가서는 볼 수가 없어서 일단은 공유기에서 포트포워딩을 하도록 만들었다.

아래 링크를 보면 ngrok를 쓸수 있다는 내용이 있는데… 나중에 해봐야겠다.

삽질은 2021년에도 계속 된다…

Jetson Nano, PCA9685, L298N, DC-Motor 4륜구동 자동차

Jetson Nano를 얹어서 완성된 자동차

Jetson Nano를 충동적으로 구입하고 (http://practical.kr/?p=125) 테스트를 해본 후 뭘 만들까 고민을 하다가 자동차를 만들어 볼까? 생각을 했다. 전년도에 라즈베리파이를 이용해서 자동차를 만들려고 구매해 두었던 4륜 자동차 바디가 그대로 있어서 여기에 젯슨나노를 얹어 보기로 했다.

실패한이유

근데 생각해 보니 그때 라즈베리 기반의 자동차를 만들다 그만둔 이유가 라즈베리파이의 Digital I/O 의 숫자가 부족하다는걸 알고 나서였다. 바퀴하나를 구동하려면 모터드라이브 컨트롤러를 써야하는데 주로 L298N을 많이 사용한다. 대략 아래와 같은 연결로 모터 두개를 움직일 수 있다.

전원부를 제외하고 모터 4개를 구동하려면 12개의 DIO를 사용해야 한다. 라즈베리에서 IO를 모두 끌어쓰면 대충 맞긴한데 이러면 다른 작업을 전혀 할 수가 없다. 그래서 주로 2륜 구동으로 자동차를 만드는게 아닌가 하는 생각을 하고 바퀴를 새로 사기가 싫어서 그냥 그만 두고 말았다.

PCA9685

이렇게 생겼다

그래도 젯슨은 뭔가 좀 다르겠지 싶었지만 라즈베리와 젯슨나노의 IO Pin 구조는 거의(?) 동일하다. 그런데 스터디중 Nvidia – Jetbot 에서는 PCA9685 라는 컨트롤러를 쓰고 있었다. 젯슨과 I2C로 통신을 하고 16개의 dio 채널을 가진 PWM 컨트롤러 였다. 대략 아래의 그림과 같이 문어발(?)을 만들 수 있다.

https://cdn-shop.adafruit.com/datasheets/PCA9685.pdf

이걸 활용하면 젯슨나노에서는 4핀의 I2C 입출력 만으로 4개의 모터를 구동할 수 있고 나머지핀들은 다른용도로 활용할 수도 있다. 택배비 포함해서 2개에 만원정도니까 비싸지도 않다.

검색을 해보면 주로 서보모터를 운용할때 사용하는데 DC모터를 제대로 컨트롤 하려면 아래 그림과 같이 L298N과 함께 연결해줘야 한다.

자동차의 하체

하체의 중간에 PCA9685를 놓고 앞뒤로 L298N 모터 컨트롤러를 연결했다.모터 구동을 위한 별도의 전원은 9V 건전지를 사용했는데 조립중 테스트에서는 별 문제 없이 바퀴가 잘 돌았는데 다 조립하고 중량이 무거워지니 전후진이 안되었다. 그래서 9V 건전지 두개를 병렬로 연결했다. 움직이긴 하는데 힘이 없었다. 역시 전기 자동차는 배터리가 중요하다. 한개 더 달던지 해야 한다.

하체 조립중
하체 조립완료

차체조립

조립후

짧은 목표가 조립 & 이동 이었기 때문에 가지고 있던 이런저런 부품들을 모아 모아 모니터, 젯슨나노 & 모니터 전원을 위한 충전 배터리 향후 사용할 카메라까지 조립을 했다.

소프트웨어

검색을 해보니 PCA9685를 활용하는 대부분의 셈플들이 서보모터 구동용이라 찾기가 쉽지는 않았는데 다행히 원래 보드 제작사에서 만든 파이썬용 라이브러리가 있었다. 링크참조

https://github.com/adafruit/Adafruit_CircuitPython_Motor

https://cdn-learn.adafruit.com/downloads/pdf/adafruit-16-channel-servo-driver-with-raspberry-pi.pdf

위 라이브러리를 기반으로 아래와 같은 코드를 만들어 자동차를 움직여 봤다. 잘 움직인다.

import time
import busio

from board import SCL, SDA
from adafruit_pca9685 import PCA9685
from adafruit_motor import motor

i2c = busio.I2C(SCL, SDA)

pca = PCA9685(i2c, address=0x40)
pca.frequency = 100

pca.channels[0].duty_cycle = 0xFFFF
pca.channels[5].duty_cycle = 0xFFFF
pca.channels[6].duty_cycle = 0xFFFF
pca.channels[11].duty_cycle = 0xFFFF

motor1 = motor.DCMotor(pca.channels[1], pca.channels[2])
motor2 = motor.DCMotor(pca.channels[3], pca.channels[4])
motor3 = motor.DCMotor(pca.channels[8], pca.channels[7])
motor4 = motor.DCMotor(pca.channels[10], pca.channels[9])

print("Forwards slow")
motor1.throttle = 0.5
motor2.throttle = 0.5
motor3.throttle = 0.5
motor4.throttle = 0.5
time.sleep(3)

print("Forwards")
motor1.throttle = 1
motor2.throttle = 1
motor3.throttle = 1
motor4.throttle = 1
time.sleep(3)

print("Backwards")
motor1.throttle = -1
motor2.throttle = -1
motor3.throttle = -1
motor4.throttle = -1
time.sleep(3)

print("Backwards slow")
motor1.throttle = -0.5
motor2.throttle = -0.5
motor3.throttle = -0.5
motor4.throttle = -0.5
time.sleep(3)

print("Stop")
motor1.throttle = 0
motor2.throttle = 0
motor3.throttle = 0
motor4.throttle = 0
time.sleep(3)

print("Spin freely")
motor1.throttle = None
motor2.throttle = None
motor3.throttle = None
motor4.throttle = None

pca.deinit()

위 소스와 키입력으로 전, 후, 좌, 우로 이동하는 소스를 아래 링크에 공유 했다.

https://github.com/bipark/jetson-nano-car

실제 젯슨 나노의 GPU를 기반으로 자동차와 함께 할 수 있는 일들이 많을것 같은데 그건 다음에 해보기로 하고 오늘은 여기까지…

Jetson Nano, 전원, Wifi, Case, Setup, Inference

엔비디아의 Jetson Nano를 구입했다. 최근 좀 저렴한 2GB 모델의 릴리즈 소식을 들었지만 기존 4GB 모델을 구입했다. 충동적으로 구입했기 때문에 특별한 사용 목적은 없고 그저 어떤 성능이 나오는지 Development Kit 수준이 어느정도 인지 알고 싶었다.

구입은 아래 링크에서 했는데, 그동안 읽었던 글들에서 기본 모델에는 Wifi 없고 4A짜리 전원 공급장치가 필요하다고 해서 구입하는김에 Wifi 장비와 별도의 4A 전원공급장치, 그리고 케이스도 구입했다. 케이스를 별도로 구입한 이유는 아래에 보면 알게 되겠지만 Wifi 안테나가 꽤 큰 사이즈인데 케이스가 없으면 마땅히 붙여놓을 곳이 없어보여서 였다.

https://www.devicemart.co.kr/goods/search?keyword_log_flag=Y&search_text=jetson&q=jetson&x=0&y=0

위와 같이 두개의 디바이스로 분리 할 수 있다. 나중에 조립을 마치고 MicroSD를 좀 더 큰 사이즈로 바꾸려고 보니 완전히 다시 분해를 해야만 했다. 라즈베리파이가 그렇게 쉽게 SD를 바꿀수 있는것에 비해 너무 불편했다. 설계 미스!

그리고 아래 Wifi 모듈 커넥터는 위의 두개 디바이스 사이에 숨겨져 있다. 이것도 설계 미스! 너무 불편하다.

아래 동영상을 참조해서 Wifi를 연결했다. 다행히 소프트웨어 셋팅을 해줄 필요는 없다. 자동으로 인식 했다. 다른 블로그에서는 다이소에 가면 오천원짜리 USB 랜카드를 연결해도 된다고 했다. 그게 나을 수도 있다. 랜카드와 안테나 가격이 3만원이다.

조립을 하는 김에 가지고 있던 라즈베리파이 카메라를 연결했다. 아무래도 동영상 인식에는 카메라가 꼭 필요할것 같다.

조립을 마치고 Micro-USB에 전원을 연결해서 부팅을 했는데 계속해서 전원이 부족하다는 메세지가 나와서 배럴잭으로 4A 아답터를 통해서 전원을 연결했는데도 연결이 되지 않았다. 알고보니 배럴잭 뒤에 있는 J48 핀을 연결해야 배럴잭을 통해서 전원이 연결되는 것이었다. 4A 아답터 연결후에는 전원이 부족하다는 메세지는 나오지 않았다.

배럴잭이 있는 별도의 직류전원 장치 4A – 7200원

메탈 케이스 28,000원 – 후면

케이스가 그리 효율적이지 않은 구조였지만

조립해놓고 나니 그래도 케이스를 사길 잘했다는 생각이 들었다.

일단 조립완료 하고 부팅을 해봤다.

아래 링크에서 시작하면 된다. 순서대로 따라서 MicroSD를 준비해서 디바이스에 꽂고 부팅하면 우분투 화면을 만날 수 있다.

https://developer.nvidia.com/embedded/learn/get-started-jetson-nano-devkit

실제 DNN 기반의 추론테스트를 위한 라이브러리 셋팅은 아래 링크에서 코드와 같이 진행해야 하는데 전체 설치까지 대략 1시간이 넘게 걸린다. 학습모델 선택을 바꾸면 좀 더 걸릴 수도 있다.

https://github.com/dusty-nv/jetson-inference/blob/master/docs/building-repo-2.md

$ sudo apt-get update 
$ sudo apt-get install git cmake libpython3-dev python3-numpy 
$ git clone --recursive https://github.com/dusty-nv/jetson-inference 
$ cd jetson-inference 
$ mkdir build $ cd build 
$ cmake ../ 
$ make -j$(nproc) 
$ sudo make install 
$ sudo ldconfig

설치가 완료되면 아래 링크의 코드를 이용해서 실제 추론 테스트를 해볼 수 있다.

https://github.com/dusty-nv/jetson-inference/blob/master/docs/imagenet-example-python-2.md

셈플로 제공되는 곰돌이 이미지는 당연히 잘 인식되었고 다른 이미지를 이용해서 추론을 해보니 꽤 빠르게 잘 인식되었다.