Merge branch 'main' into translation_ko]_lesson3_1

pull/428/head
Jim Bennett 3 years ago committed by GitHub
commit 7429138a4d
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23

@ -0,0 +1,260 @@
# IoT에 대한 심화 학습
![../../../../sketchnotes/lesson-2.jpg](../../../../sketchnotes/lesson-2.jpg)
> Nitya Narasumhan의 스케치 노트. 클릭하시면 이미지를 더 크게 보실 수 있습니다.
이 수업은 [Microsoft Reactor](https://developer.microsoft.com/reactor/?WT.mc_id=academic-17441-jabenn)에서 [Hello IoT series](https://youtube.com/playlist?list=PLmsFUfdnGr3xRts0TIwyaHyQuHaNQcb6-) 의 일부로 제공되었습니다. 이 수업은 1시간짜리 수업과 1시간짜리의 강의에 대한 집중탐구 및 질의 응답으로 총 2개의 비디오로 구성되어 있습니다.
![https://img.youtube.com/vi/t0SySWw3z9M/0.jpg](https://img.youtube.com/vi/t0SySWw3z9M/0.jpg)
![https://img.youtube.com/vi/tTZYf9EST1E/0.jpg](https://img.youtube.com/vi/tTZYf9EST1E/0.jpg)
> 🎥 상단의 이미지를 클릭하여 비디오를 시청하실 수 있습니다.
## 강의 전 퀴즈
[강의 전 퀴즈](https://black-meadow-040d15503.1.azurestaticapps.net/quiz/3)
## 개요
이 수업은 지난 수업에 다뤘던 개념의 일부에 대한 심화 학습입니다.
이 단원에서는 다음을 다룹니다:
- [IoT 애플리케이션의 구성 요소](#iot-애플리케이션의-구성-요소)
- [마이크로컨트롤러 심화 학습](#마이크로컨트롤러-심화-학습)
- [싱글 보드 컴퓨터 심화 학습](#싱글-보드-컴퓨터-심화-학습)
## IoT 애플리케이션의 구성 요소
IoT를 구성하는 2개의 요소는 _인터넷__사물_ 입니다. 이 두 가지 구성요소에 대해 조금 더 자세히 살펴보도록 하겠습니다.
### 사물
![../../../../images/raspberry-pi-4.jpg](../../../../images/raspberry-pi-4.jpg)
**사물**은 IoT의 한 부분으로서 물리적인 세계와 상호작용할 수 있는 장치를 의미합니다. 이러한 장치들은 일반적으로 낮은 전력을 소비하며 느린 속도로 돌아가는 저렴하고 작은 컴퓨터입니다. - 예를 들어, 수백 메가헤르츠(PC의 기가헤르츠와 달리)의 RAM(PC의 기가바이트가 아닌)에 불과하지만 때때로 배터리를 사용하여 몇 주, 몇 달, 심지어 1년 동안 작동할 수 있는 매우 적은 전력을 소비하는 간단한 마이크로컨트롤러입니다.
이러한 장치는 센서를 사용하여 자신의 주변 환경에서 데이터를 수집하거나, 출력 또는 액추에이터를 제어하여 물리적 변경을 수행함으로써 물리적 세계와 상호 작용합니다. 이러한 장치의 전형적인 예시는 스마트 온도 조절기입니다. 스마트 온도 조절기는 온도 센서, 다이얼 또는 터치스크린과 같은 원하는 온도를 설정하기 위한 수단, 감지된 온도가 원하는 범위를 벗어날 때 켜질 수 있는 냉난방 시스템에 대한 연결을 갖는 장치입니다. 온도 센서가 실내가 너무 춥다는 것을 감지하면 액추에이터가 난방을 켭니다.
![../../../../images/basic-thermostat.png](../../../../images/basic-thermostat.png)
IoT 장치로 동작할 수 있는 다른 사물들은 한 가지를 감지하는 전용 하드웨어로부터, 심지어는 당신의 스마트폰과 같은 범용 기기들을 포함하는 넓은 범위를 갖습니다! 스마트폰은 우리 주변을 감지하는 센서로 사용할 수 있고, 세상과 상호작용하기 위한 액추에이터로도 사용할 수 있습니다. 예를 들어, 당신의 위치를 감지하기 위해 GPS 센서를 사용하고 스피커를 사용하여 당신에게 목적지까지의 길을 안내합니다.
✅ 센서에서 데이터를 읽고 이를 사용하여 결정을 내리는 주변의 다른 시스템을 생각해 보십시오. 오븐의 온도 조절 장치를 하나의 예로 들을 수 있습니다. 다른 예시를 더 찾을 수 있습니까?
### 인터넷
IoT 애플리케이션의 **인터넷** 측면은 IoT 장치가 데이터를 송수신하기 위해 연결할 수 있는 애플리케이션뿐만 아니라 IoT 장치의 데이터를 처리하고 IoT 장치 액추에이터에 보낼 요청을 결정하는 데 도움을 줄 수 있는 다른 애플리케이션으로 구성됩니다.
일반적인 설정 중 하나는 IoT 장치가 연결되는 일종의 클라우드 서비스를 갖는 것이고, 이러한 클라우드 서비스는 IoT 장치에서 메시지를 수신하고 장치로 메시지를 다시 보내는 것뿐만 아니라 보안과 같은 것들을 처리합니다. 이 클라우드 서비스는 센서의 데이터를 처리하거나 저장하는 다른 애플리케이션들에 연결하거나 다른 시스템으로 부터 얻은 데이터와 센서의 데이터를 사용하여 결정을 내리는 데에 사용합니다.
장치들이 항상 WiFi나 유선 연결을 통해 인터넷에 직접 연결되는 것은 아닙니다. 일부 장치들은 인터넷에 연결된 허브 장치를 통해 연결하는 블루투스 같은 기술을 통해 서로 대화하기 위해 메시 네트워킹을 사용합니다.
스마트 온도 조절기의 예시를 살펴보면, 온도 조절기는 가정의 WiFi를 통해 클라우드에서 실행되는 클라우스 서비스에 연결합니다. 온도 조절기는 이 클라우드 서비스에 온도 데이터를 보내고, 클라우드에서는 휴대폰의 앱을 사용하여 집주인이 현재와 과거의 온도를 확인 할 수 있도록하는 데이터베이스에 기록됩니다. 클라우드의 다른 서비스에서는 집주인이 원하는 온도를 인지하고 클라우드 서비스를 통해 IoT 장치에 메시지를 보내 난방 시스템을 켜거나 끄도록 명령합니다.
![../../../../images/mobile-controlled-thermostat.png](../../../../images/mobile-controlled-thermostat.png)
더욱 스마트한 버전에서는 사용 중인 방을 감지하는 점유 센서와 같은 다른 IoT 장치에 연결된 다른 센서의 데이터와 날씨 및 캘린더와 같은 데이터와 함께 클라우드의 AI를 사용하여 어떻게 온도를 영리하게 설정할 것인지 결정할 수 있습니다. 예를 들어, 당신이 휴가 중이라는 사실을 당신의 캘린더에서 읽어와 난방을 끈다든지, 당신이 사용하는 방에 따라 난방을 끈다든지, 시간이 지남에 따라 데이터로부터 학습하여 더욱 더 정확해질 수 있습니다.
![../../../../images/smarter-thermostat.png](../../../../images/smarter-thermostat.png)
✅ 인터넷이 연결된 온도 조절기를 좀 더 스마트하게 만드는 다른 데이터에는 무엇이 있습니까?
### Edge에서의 IoT
IoT에서 I 는 인터넷을 의미하지만, 이러한 장치들은 반드시 인터넷에 연결될 필요는 없습니다. 경우에 따라 장치들은 edge 장치에 연결할 수 있습니다. edge는 당신의 로컬 네트워크에서 동작하는 게이트웨이 장치로 인터넷을 통해 전화를 걸지 않고도 데이터를 처리할 수 있습니다. 이는 데이터가 많거나 인터넷 연결이 느릴 때 더 빠를 수 있으며, 인도적 위기에 대응할 때 선박이나 재난 지역과 같이 인터넷 연결이 불가능한 곳에서 오프라인으로 실행할 수 있게 해주며, 데이터를 비공개로 유지할 수 있도록 해줍니다. 일부 장치에는 클라우드 도구를 사용하여 생성된 처리 코드가 포함되어 있으며, 결정을 내리기 위해 이를 로컬에서 실행하여 인터넷 연결을 사용하지 않고 데이터를 수집하고 응답합니다.
하나의 예시로 Apple의 Homepod, Amazon의 Alexa, Google Home과 같은 스마트 홈 디바이스들은 당신의 목소리를 클라우드에서 학습된 AI 모델로 듣지만 디바이스에서 로컬 환경으로 동작합니다. 이러한 디바이스들은 특정한 단어나 구문을 말할 때 ‘깨어나’게 되고 처리를 위해 당신의 음성을 인터넷을 통해 전송합니다. 이 장치들은 당신이 말하는 것을 멈추는 것을 감지하는 경우와 같은 적절한 시점에서 음성을 전송하는 것을 멈춥니다. 깨우기 단어로 장치를 깨우기 전에 말하는 모든 내용과 장치가 듣기를 멈춘 뒤 말하는 모든 내용은 인터넷을 통해 장치 공급자에게 전송되지 않으므로 비공개됩니다.
✅ 개인 정보의 중요성에 의해 클라우드보다 edge에서 수행하는 것이 더 나은 다른 시나리오를 생각해 보십시오. 힌트를 드리자면, 카메라나 다른 이미징 장치를 가지고 있는 IoT 장치를 생각해 보십시오.
### IoT 보안
모든 인터넷 연결에서 보안은 아주 중요한 고려사항입니다. IoT의 S는 보안을 의미한다’라는 오래된 농담이 있습니다. IoT에는 S가 없으므로 안전하지 않다는 뜻입니다.
IoT 장치들은 클라우드 서비스에 연결되어 있으므로 해당 클라우드 서비스만큼 안전합니다. 만약 당신의 클라우드 서비스가 어떤 장치에 연결되도록 허용한다면, 악의적인 데이터가 전송되거나 바이러스 공격이 발생할 수 있습니다. 이는 IoT 장치가 다른 장치와 상호 작용하고 제어할 때 매우 실제적인 결과를 초래할 수 있습니다. 예를 들어, [Stuxnet worm](https://wikipedia.org/wiki/Stuxnet) 은 원심분리기의 밸브를 조작하여 밸브를 손상시킵니다. 해커들은 또한 [열악한 보안을 이용해 아기 모니터](https://www.npr.org/sections/thetwo-way/2018/06/05/617196788/s-c-mom-says-baby-monitor-was-hacked-experts-say-many-devices-are-vulnerable)와 다른 가정용 감시 장치에 접근했습니다.
> 💁 일부 IoT 장치들과 edge 장치들은 데이터를 안전하고 비공개로 유지하기 위해 네트워크에서 인터넷과 완전히 고립된 상태로 동작합니다. 이것은 air-gapping 이라고 불립니다.
## 마이크로컨트롤러 심화 학습
지난 수업에서 우리는 마이크로컨트롤러를 소개했습니다. 이제 그것에 대해 더 자세히 알아봅시다.
### CPU
CPU는 마이크로컨트롤러의 ‘두뇌‘입니다. 이것은 당신의 코드를 실행하고 다른 연결된 장치들에 데이터를 송수신하는 처리장치입니다. CPU는 하나 이상의 코어를 포함할 수 있습니다. 필수적으로 하나 이상의 CPU들이 당신의 코드를 실행하기 위해 함께 동작할 수 있습니다.
CPU는 클럭에 의존하여 초당 수백만 또는 수십억 번 tick합니다. 각 tick 또는 주기는 CPU가 수행할 수 있는 작업과 동기화합니다. 각 tick마다 CPU는 외부 장치에서 데이터를 검색하거나 수학적 계산을 수행하는 것과 같이 프로그램에서 명령을 실행할 수 있습니다. 이 규칙적인 사이클을 통해 다음 명령이 처리되기 전에 모든 작업을 완료할 수 있습니다.
클럭 주기가 빠를수록 초당 처리할 수 있는 명령어가 많아지므로 CPU가 빨라집니다. CPU 속도는 [헤르츠(Hz)](https://wikipedia.org/wiki/Hertz)로 측정되는데, 1Hz는 초당 1 사이클 또는 클럭 tick을 의미하는 표준 단위입니다.
> 🎓 CPU의 속도는 주로 MHz 또는 GHz로 주어집니다. 1MHz는 100만 Hz이고, 1GHz는 10억Hz입니다.
> 💁 CPU는 프로그램을 페치-디코딩-실행 사이클을 사용하여 실행합니다. 클럭의 tick마다 CPU는 메모리로부터 다음 명령어를 가져오고, 그것을 디코딩하고, 두 숫자를 더하기 위해 산술논리연산장치(ALU)를 사용하는 것과 같이 그것을 실행합니다. 몇몇 실행은 동작하는 데에 다수의 tick이 필요하므로 다음 사이클은 명령이 완료된 이후의 다음 tick에서 실행됩니다.
![../../../../images/fetch-decode-execute.png](../../../../images/fetch-decode-execute.png)
마이크로컨트롤러는 데스크탑이나 노트북 컴퓨터, 심지어 대부분의 스마트폰보다 훨씬 낮은 클럭 속도를 가집니다. 예를 들어 Wio Terminal은 120MHz 또는 초당 120,000,000 사이클에서 실행되는 CPU를 가집니다.
✅ 일반적인 PC 또는 Mac에는 여러 기가헤르츠에서 실행되는 다중 코어가 있는 CPU가 있습니다. 이는 클럭이 초당 수십억 번 tick한다는 의미입니다. 당신의 컴퓨터의 클럭 속도를 조사하고 Wio Terminal보다 몇 배나 빠른지 비교하십시오.
각각의 클럭 사이클은 전력을 끌어오고 열을 생성합니다. tick이 더 빠를수록, 더 많은 전력이 소비되고 더 많은 열을 발생시킵니다. PC는 열을 제거하기 위한 방열판과 팬들을 가지고 있으며, 이 기능이 없다면 과열되어 수 초만에 종료됩니다. 마이크로컨트롤러는 훨씬 더 낮은 온도에서 실행되고 따라서 훨씬 느리게 동작하기 때문에 둘 다 없는 경우도 있습니다. PC는 주 전원이나 대용량 배터리로 몇 시간 동안만 작동하며, 마이크로컨트롤러는 작은 배터리로 며칠, 몇 달 또는 몇 년 동안 작동할 수 있습니다. 마이크로컨트롤러 또한 다른 속도로 실행되는 코어를 가질 수 있으며, CPU의 수요가 낮을 때 전력 소비를 줄이기 위해 더 느린 저전력 코어로 전환할 수 있습니다.
> 💁 몇몇 PC와 Mac들은 배터리를 절약하기 위해 빠른 고전력 코어와 느린 저전력 코어를 동일하게 혼합하여 사용하고 있습니다. 예를 들어, Apple의 최신 노트북에 들어가는 M1 칩은 4개의 성능 코어와 4개의 효율 코어 사이를 전환해가며 배터리 수명을 최적화하거나 속도를 최적화할 수 있습니다.
✅ 간단한 조사를 해봅시다 : [Wikipedia CPU article](https://wikipedia.org/wiki/Central_processing_unit)에서 CPU에 대해 읽어봅시다.
### 작업
Wio Terminal을 조사하십시오.
당신이 Wio Terminal을 이번 수업을 위해 사용한다면, CPU를 찾아보십시오. 내부 사진을 보려면 [Wio Terminal product page](https://www.seeedstudio.com/Wio-Terminal-p-4509.html) 의 _하드웨어 개요_ 섹션을 찾아 뒷면의 투명한 플라스틱 창을 통해 CPU를 찾으십시오.
### 메모리
마이크로컨트롤러는 대부분 프로그램 메모리와 RAM(Random-Access Memory)의 두 가지 유형의 메모리를 가집니다.
프로그램 메모리는 비휘발성입니다. 즉, 장치에 전원이 공급되지 않더라도 작성된 내용이 유지됩니다. 이것은 프로그램 코드를 저장하는 메모리입니다.
RAM은 프로그램이 실행하는 데 사용하는 메모리로, 프로그램에서 할당한 변수와 주변 장치에서 수집한 데이터를 포함합니다. RAM은 휘발성이며, 전원이 꺼지면 내용이 손실되어 프로그램을 효과적으로 재설정합니다.
> 🎓 프로그램 메모리는 당신의 코드를 저장하고 전원이 들어오지 않는 경우에도 유지합니다.
> 🎓 RAM은 당신의 프로그램을 실행하는 데 사용되며 전원이 차단되면 리셋합니다.
CPU와 마찬가지로, 마이크로컨트롤러의 메모리는 PC나 Mac의 메모리보다 훨씬 작습니다. 일반적인 PC는 8기가바이트(GB) 또는 8,000,000,000 바이트의 램을 가지고 있으며, 각각의 바이트에는 하나의 문자나 0에서 255까지의 숫자를 저장하는 충분한 공간이 있습니다. 마이크로컨트롤러는 킬로바이트(KB)의 램만 있습니다. 킬로바이트는 1,000 바이트를 의미합니다. 위에서 언급된 Wio Terminal은 192KB(192,000 바이트)의 램을 가지고있습니다. 이는 평균적인 PC보다 40,000배 이상 작습니다!
하단의 다이어그램은 192KB와 8GB 사이의 상대적인 크기 차이를 보여줍니다. 중앙의 작은 점이 192KB를 나타냅니다.
![../../../../images/ram-comparison.png](../../../../images/ram-comparison.png)
프로그램 저장 용량 또한 PC보다 작습니다. 일반적인 PC는 프로그램 저장을 위해 500GB의 하드 드라이브가 존재합니다. 반면에 마이크로컨트롤러는 킬로바이트 또는 몇 메가바이트(1MB는 1,000KB 또는 1,000,000바이트)의 저장 공간이 있을 수 있습니다. Wio Terminal은 4MB의 프로그램 저장 공간이 있습니다.
✅ 간단한 조사를 해봅시다 : 당신이 이것을 읽기 위해 컴퓨터에 얼마나 많은 RAM과 저장공간이 필요할까요? 마이크로컨트롤러와 비교했을 때에는 어떻습니까?
### 입/출력
마이크로컨트롤러는 센서로부터 데이를 읽어오고 액추에이터로 제어 신호를 보내기 위해 입력과 출력(I/O) 연결이 필요합니다. 마이크로컨트롤러는 대부분 다수의 범용 입출력 핀(GPIO)을 포함하고 있습니다. 이러한 핀들은 소프트웨어에서 입력(신호 수신) 또는 출력(신호 전송)으로 구성할 수 있습니다.
🧠⬅️ 입력 핀들은 센서로부터 값을 읽어오는 데에 사용됩니다.
🧠➡️ 출력 핀들은 명령들을 액추에이터에 전송합니다.
✅ 이것에 대해서는 차후의 수업에서 더 자세히 배웁니다.
### 작업
Wio Terminal에 대해 조사하십시오.
만약 이 수업에서 Wio Terminal을 사용하고 있다면, GPIO 핀을 찾아보십시오. 어떤 핀이 어떤 역할을 하는 지에 대해 배우기 위해서는 [Wio Terminal product page](https://www.seeedstudio.com/Wio-Terminal-p-4509.html) 에서 _핀아웃 다이어그램_ 섹션을 찾아보십시오. Wio Terminal에는 핀 번호가 있는 뒷면에 부착할 수 있는 스티커가 함께 제공되므로 아직 부착하지 않았다면 지금 부착하십시오.
### 물리적인 크기
마이크로컨트롤러는 일반적으로 크기가 작으며, 가장 작은 [Freescale Kinetis KL03 MCU](https://www.edn.com/tiny-arm-cortex-m0-based-mcu-shrinks-package/)의 경우 골프공의 딤플에 들어갈 수 있을 정도로 충분히 작습니다. PC의 CPU만 측정했을 경우 40mm x 40mm이며, 여기에는 CPU가 과열 없이 몇 초 이상 작동할 수 있도록 하는 데 필요한 방열판과 팬은 포함되지 않습니다. 이것들은 완전한 마이크로컨트롤러보다도 훨씬 큽니다. Wio Terminal의 개발자 키트는 마이크로컨트롤러, 케이스, 화면, 다양한 연결 및 구성 요소를 포함하고 있으며, Intel의 i9 CPU보다 크지 않고 방열판과 팬이 있는 CPU보다도 훨씬 작습니다.
### 프레임워크와 운영 체제
느린 속도와 메모리 크기 때문에, 마이크로컨트롤러는 데스크탑에서의 운영체제(OS)를 구동하지 않습니다. 컴퓨터를 실행하는 운영 체제(Windows, Linux 또는 macOS)는 마이크로컨트롤러에게는 완전히 불필요한 작업을 실행하기 위해 많은 메모리와 처리 능력을 필요로 합니다. 사용자 인터페이스를 지원하고, 음악이나 영화를 재생하고, 문서나 코드를 작성하거나, 게임을 하거나, 인터넷을 탐색해야 하는 PC나 Mac과 같은 범용 컴퓨터와는 달리 마이크로컨트롤러는 일반적으로 하나 이상의 매우 구체적인 작업을 수행하도록 프로그래밍되어 있습니다.
OS 없이 마이크로컨트롤러를 프로그래밍하기 위해서는 모든 주변 장치와 통신할 수 있는 API를 사용하여 마이크로컨트롤러가 실행할 수 있는 방식으로 코드를 빌드할 수 있는 도구가 필요합니다. 각각의 마이크로컨트롤러는 다르기 때문에 제조업체는 일반적으로 표준 '레시피'를 따라 코드를 빌드하고 해당 프레임워크를 지원하는 모든 마이크로컨트롤러에서 실행할 수 있는 표준 프레임워크를 지원합니다.
실시간 운영 체제(RTOS)라고도 하는 OS를 사용하여 마이크로컨트롤러를 프로그래밍할 수 있습니다. 이러한 OS는 주변 장치와 실시간으로 데이터를 주고받도록 설계되었기 때문입니다. 이러한 운영 체제는 매우 가볍고 다음과 같은 기능을 제공합니다:
- 멀티 쓰레딩, 멀티 또는 싱글 코어에서 차례로 코드를 실행하여 동시에 둘 이상의 코드 블럭을 실행
- 인터넷을 통한 안전한 통신을 가능하게 하는 네트워킹
- 화면이 있는 장치에서 사용자 인터페이스(UI)를 구축하기 위한 GUI(그래픽 사용자 인터페이스)
✅ 다른 RTOS들에 대해 읽어보세요: [Azure RTOS](https://azure.microsoft.com/services/rtos/?WT.mc_id=academic-17441-jabenn), [FreeRTOS](https://www.freertos.org/), [Zephyr](https://www.zephyrproject.org/)
### Arduino
![../../../../images/arduino-logo.svg](../../../../images/arduino-logo.svg)
[Arduino](https://www.arduino.cc/) 는 특히나 학생, 취미로 즐기는 사람, 제작자 사이에서 가장 유명한 마이크로컨트롤러 프레임워크일 것입니다. Arduino 소프트웨어와 하드웨어를 결합한 오픈 소스 전자 플랫폼입니다. Arduino 자체 또는 다른 제조업체에서 Arduinod와 호환되는 보드를 구입한 다음 Arduino 프레임워크를 사용하여 코딩할 수 있습니다.
Arduino 보드는 C나 C++로 코딩됩니다. C/C++를 사용하면 코드를 매우 작게 컴파일하고 빠르게 실행할 수 있는데, 이는 마이크로컨트롤러와 같은 제약이 있는 장치에서 필요합니다. Arduino 애플리케이션의 핵심은 스케치라고 불리며, `setup``loop`라고 하는 두가지 기능을 가진 C/C++ 코드입니다. 보드가 시작되면 Arduino 프레임워크 코드는 `setup`기능을 한 번 실행한 다음 전원이 꺼질 때까지 계속해서 `loop`기능을 계속해서 실행합니다.
WiFi나 클라우드 서비스에 연결하거나 입출력을 위한 핀들을 초기화 하는 설정 코드를 `setup` 함수 안에 작성합니다. loop 코드에는 센서로부터 읽어오거나 클라우드에 값을 전송하는 것과 같은 처리 코드가 포함됩니다. 각각의 loop에는 지연을 포함시킬 수 있는데, 예를 들면 센서 데이터가 10초마다 전송되도록 하기 위해선 루프 끝에 10초 지연을 추가하여 마이크로컨트롤러가 sleep 모드로 전환되어 전력을 절약한 다음, 10초 후에 필요할 때 다시 loop를 실행할 수 있도록 하면 됩니다.
![../../../../images/arduino-sketch.png](../../../../images/arduino-sketch.png)
✅ 이 프로그램 아키텍쳐는 _이벤트 루프_ 또는 _메세지 루프_ 로 알려져 있습니다. 많은 애플리케이션들이 이를 내부적으로 사용하며 Windows, macOs, Linux에서 실행되는 대부분의 데스크탑 애플리케이션의 표준입니다. 이 loop는 버튼과 같은 유저 인터페이스의 구성 요소나 키보드와 같은 장치에서 메세지를 수신하고 그들에게 응답합니다. 이 [이벤트 루프에 대한 글](https://en.wikipedia.org/wiki/Event_loop)에서 더 많은 내용을 읽을 수 있습니다.
Arduino는 마이크로 컨트롤러 및 I/O 핀과 상호 작용하기 위한 표준 라이브러리를 제공하며, 서로 다른 마이크로 컨트롤러에서 실행되도록 후드 아래에서 서로 다른 구현을 제공합니다. 예를 들어, [`delay` 함수](https://www.arduino.cc/reference/en/language/functions/time/delay/)는 주어진 시간동안 프로그램을 잠시 중단하고, [`digitalRead` 함수](https://www.arduino.cc/reference/en/language/functions/digital-io/digitalread/)는 코드가 실행되는 보드와 상관없이 주어진 핀으로부터 값이 `HIGH`인지 `LOW`인지 읽어옵니다. 이러한 표준 라이브러리는 핀이 동일하고 보드가 동일한 기능을 지원한다는 가정 하에 특정한 보드를 위해 작성된 Arduino 코드가 다른 어떠한 Arduino 보드에서 재컴파일될 수 있고 실행 가능하다는 것을 의미합니다.
센서 및 액추에이터를 사용하거나 클라우드 IoT 서비스에 연결하는 등 Arduino 프로젝트에 추가 기능을 추가할 수 있는 서드파티 Arduino 라이브러리의 대규모 생태계가 존재합니다.
### 작업
Wio Terminal에 대해 조사하십시오.
만약 이 수업에서 Wio Terminal을 사용하고 있다면, 지난 시간에 작성한 코드를 다시 읽어보십시오. 그리고 `setup` 함수와 `loop` 함수를 찾아보십시오. `loop`함수가 반복적으로 호출되면서 나오는 일련의 출력들을 모니터링 하십시오. 일련의 포트에 작성할 코드를 `setup`함수에 추가하여 재부팅할 때마다 이 코드가 한 번만 호출되는지 확인하십시오. 장치가 재부팅될 때마다 호출된다는 것을 보여주려면 측면에 있는 전원 스위치로 장치를 재부팅하십시오.
## 싱글 보드 컴퓨터 심화 학습
지난 수업에서 우리는 싱글 보드 컴퓨터에 대해 소개했습니다. 더 자세히 알아보도록 합시다.
### Raspberry Pi
![../../../../images/raspberry-pi-logo.png](../../../../images/raspberry-pi-logo.png)
[Raspberry Pi Foundation](https://www.raspberrypi.org/)은 특히 학교 수준에서 컴퓨터 과학에 대한 학습을 촉진하기 위해 2009년에 설립된 영국의 자선단체 입니다. 이 임무의 일환으로 그들은 Raspberry Pi라고 불리는 싱글 보드 컴퓨터를 개발하였습니다. Raspberry Pi는 현재 전체 크기 버전, 더 작은 Pi Zero, 최종 IoT 장치에 구축할 수 있는 컴퓨팅 모델의 3가지 종류로 제공됩니다.
![../../../../images/raspberry-pi-4.jpg](../../../../images/raspberry-pi-4.jpg)
풀 사이즈 Raspberry Pi의 가장 최신 버전은 Raspberry Pi 4B입니다. 이것은 1.5GHz의 쿼드코어(4 코어) CPU를 가지고 있으며 2, 4 또는 8GB의 램, 기가비트 이더넷, WiFi, 4k 화면을 지원하는 2개의 HDMI 포트, 오디오 및 컴포지트 비디오 출력 포트, USB 포트들(2개의 USB 2.0, 2개의 USB 3.0)과 40개의 GPIO핀들, Raspberry Pi 카메라 모듈을 위한 카메라 커넥터, SD 카드 슬롯을 가지고 있습니다. 이 모든 것이 88mm x 58mm x 19.5mm 크기의 3A USB-C 전원 공급 장치로 구동되는 보드에 있습니다. PC나 Mac보다 훨씬 저렴한 35달러부터 시작합니다.
> 💁 또한 Pi4가 키보드에 내장된 Pi400 올인원 컴퓨터도 있습니다.
![../../../../images/raspberry-pi-zero.jpg](../../../../images/raspberry-pi-zero.jpg)
Pi Zero는 훨씬 작고, 더 적은 전력으로 구동 가능 합니다. 이것은 1GHz의 싱글 코어 CPU, 512MB의 램, WiFi(Zero W 모델의 경우), 하나의 HDMI 포트, micro-USB 포트, 40개의 GPIO 핀, Raspberry Pi 카메라 모듈을 위한 카메라 커넥터, SD카드 슬롯을 가지고 있습니다. 이것은 65mm x 30mm x 5mm의 크기를 가지고 있으며, 아주 적은 전력을 소모합니다. Zero 버전은 미화 5달러, WiFi 버전은 미화 10달러입니다.
> 🎓 이 두가지의 CPU는 대부분의 컴퓨터나 Mac에서 찾을 수 있는 Intel/AMD의 x86이나 x64와는 달리 모두 ARM 프로세서입니다. 이는 일부 마이크로컨트롤러뿐만 아니라 거의 모든 휴대폰, Microsoft Surface X 및 새로운 Apple Silicon 기반 Apple Mac에서 볼 수 있는 CPU와 유사합니다.
모든 Raspberry Pi는 Raspberry Pi OS라고 불리는 Debian Linux 버전을 실행합니다. 이것은 화면이 필요하지 않은 '헤드리스' 프로젝트에 적합한 데스크탑이 없는 라이트 버전 또는 웹 브라우저, 사무용 애플리케이션, 코딩 도구 및 게임이 포함된 전체 데스크탑 환경이 있는 정식 버전으로 제공됩니다. OS가 Debian Linux의 한 버전이기 때문에, Pi 내부의 ARM 프로세서용으로 구현된 Debian에서 동작하는 모든 애플리케이션이나 도구를 설치할 수 있습니다.
### 작업
Raspberry Pi에 대해 조사하십시오.
이번 강의를 위해 Raspberry Pi를 사용중이라면, 보드의 다른 하드웨어 구성요소에 대해 읽어 보십시오.
- [Raspberry Pi hardware documentation page](https://www.raspberrypi.org/documentation/hardware/raspberrypi/) 에서 프로세서에 대한 자세한 내용을 찾을 수 있습니다. 당신이 사용중인 Pi에 사용된 프로세서에 대해 읽어보십시오.
- GPIO핀을 찾으십시오. [Raspberry Pi GPIO documentation](https://www.raspberrypi.org/documentation/hardware/raspberrypi/gpio/README.md)에서 더 많은 내용을 읽어보십시오. [GPIO Pin Usage guide](https://www.raspberrypi.org/documentation/usage/gpio/README.md)를 사용하여 Pi의 다른 핀들을 확인하십시오.
### 싱글 보드 컴퓨터 프로그래밍
싱글 보드 컴퓨터는 완전한 OS 실행하는 완전한 컴퓨터입니다. 이것은 Arduino와 같은 프레임워크에서 보드 지원에 의존하는 마이크로컨트롤러와 달리 이를 코딩하는 데 사용할 수 있는 다양한 프로그래밍 언어, 프레임워크 및 도구가 있음을 의미합니다. 대부분의 프로그래밍 언어는 센서와 액추에이터와 데이터를 송수신 하기 위해 GPIO에 접근할 수 있는 라이브러리들을 가지고 있습니다.
✅ 당신이 친숙한 프로그래밍 언어는 무엇인가요? Linux에서 지원되나요?
Raspberry Pi에서 IoT 애플리케이션을 구축하기 위한 가장 일반적인 프로그래밍 언어는 Python입니다. Pi를 위해 설계된 거대한 하드웨어 생태계가 있으며, 이것들의 대부분에는 Python 라이브러리로 사용하는 데 필요한 관련 코드가 포함되어 있습니다. 이러한 생태계 중 일부는 'hats'를 기반으로 합니다. 모자처럼 Pi 위에 앉아서 40개의 GPIO 핀에 큰 소켓을 연결하기 때문에 그렇게 부릅니다. 이 hats는 표준화된 케이블로 센서를 연결할 수 있도록 스크린, 센서, 원격 제어 자동차 또는 어댑터와 같은 추가 기능을 제공합니다.
### 전문적인 IoT 배포에서의 싱글 보드 컴퓨터의 사용
싱글 보드 컴퓨터는 단순한 개발자용 키트 뿐만 아니라, 전문적인 IoT 배포에 사용됩니다. 하드웨어를 제어하거나 머신러닝 모델을 실행하는 등 복잡한 임무를 수행하는 강력한 방법을 제공할 수 있습니다. 예를 들면, [Raspberry Pi 4 compute module](https://www.raspberrypi.org/blog/raspberry-pi-compute-module-4/) 는 Raspberry Pi 4 의 모든 기능을 제공하지만 대부분의 포트가 없는 작고 저렴한 폼 팩터로 사용자 지정 하드웨어에 설치되도록 설계되었습니다.
---
## 🚀 도전
지난 수업의 과제는 당신의 집, 학교, 회사에서 찾아 볼 수 있는 IoT 장치들에 대해 가능한 많이 나열하는 것이었습니다. 이 목록에 있는 모든 장치에 대해 마이크로컨트롤러나 싱글 보드 컴퓨터 또는 두 가지의 합작으로 되어있다고 생각하나요?
## 강의 후 퀴즈
[강의 후 퀴즈](https://black-meadow-040d15503.1.azurestaticapps.net/quiz/4)
## 복습 및 독학
- Arduino 플랫폼에 대한 자세한 내용은 [Arduino 시작 가이드](https://www.arduino.cc/en/Guide/Introduction)를 읽어보십시오.
- Raspberry Pi에 대해 더 배워보려면 [Raspberry Pi 4에 대한 소개](https://www.raspberrypi.org/products/raspberry-pi-4-model-b/)를 읽어보십시오.
- [What the FAQ are CPUs, MPUs, MCUs, and GPUs article in the Electrical Engineering Journal](https://www.eejournal.com/article/what-the-faq-are-cpus-mpus-mcus-and-gpus/)에서 일부 개념과 약어에 대해 더 배우실 수 있습니다.
✅ 이 가이드와 [hardware guide](https://github.com/microsoft/IoT-For-Beginners/blob/main/hardware.md)의 링크를 따라가면 나오는 비용을 고려하여 사용할 하드웨어 플랫폼을 결정하거나 가상 장치를 사용할 지 결정하십시오.
## 과제
[마이크로컨트롤러와 싱글 보드 컴퓨터를 비교하고 대조해보십시오.](assignment.ko.md)

@ -0,0 +1,12 @@
# 마이크로컨트롤러와 싱글 보드 컴퓨터의 비교 및 대조
## 지침
이 강의에서 마이크로컨트롤러와 싱글 보드 컴퓨터에 대해 다뤘습니다. 두 가지를 비교하고 대조하는 표를 만들고, 싱글 보드 컴퓨터보다 마이크로컨트롤러를 사용하는 이유와 마이크로컨트롤러보다 싱글 보드 컴퓨터를 사용하는 이유를 각각 최소 2개씩 작성하십시오.
## 평가 기준
| 기준 | 모범 답안 | 적절함 | 개선이 필요함 |
| --------------------------------------------------------- | ---------------------------------------------------------------------------------------------------- | ------------------------------------------------------------------------------------------- | ------------------------------------------------------------------------------- |
| 마이크로 컨트롤러와 싱글 보드 컴퓨터를 비교하는 표 만들기 | 여러 항목을 올바르게 비교하고 대조하는 목록을 만듦 | 몇 개의 항목만 있는 목록을 생성 | 하나의 항목만 생각해 낼 수 있거나 비교 및 ​​대조할 항목이 없음 |
| 다른 것보다 하나를 사용하는 이유 | 마이크로컨트롤러에 대해 2개 이상의 이유를 제공하고 싱글 보드 컴퓨터에 대해 2개 이상을 제공할 수 있음 | 마이크로컨트롤러에 대한 이유는 1-2개, 싱글 보드 컴퓨터에 대한 이유는 1-2개만 제공할 수 있음 | 마이크로컨트롤러 또는 싱글 보드 컴퓨터에 대해 하나 이상의 이유를 제공할 수 없음 |

@ -0,0 +1,222 @@
# 센서 및 액추에이터(actuator)를 통한 물리적 환경과의 상호작용
![A sketchnote overview of this lesson](../../../../sketchnotes/lesson-3.jpg)
> [Nitya Narasimhan](https://github.com/nitya) 의 스케치노트입니다. 이미지를 클릭하여 크게 보세요.
이 수업은 [Microsoft Reactor](https://developer.microsoft.com/reactor/?WT.mc_id=academic-17441-jabenn) 에서 [Hello IoT series](https://youtube.com/playlist?list=PLmsFUfdnGr3xRts0TIwyaHyQuHaNQcb6-) 시리즈의 일부로 제공되었습니다. . 수업은 2개의 비디오로 진행되었습니다. 1시간의 수업과 1시간의 추가 공부 시간을 통해 수업의 내용을 더 깊이 파고들어 질문에 답하고자 합니다.
[![Lesson 3: Interact with the Physical World with Sensors and Actuators](https://img.youtube.com/vi/Lqalu1v6aF4/0.jpg)](https://youtu.be/Lqalu1v6aF4)
[![Lesson 3: Interact with the Physical World with Sensors and Actuators - Office hours](https://img.youtube.com/vi/qR3ekcMlLWA/0.jpg)](https://youtu.be/qR3ekcMlLWA)
> 🎥 동영상을 보려면 위의 이미지를 클릭하세요
## 강의 전 퀴즈
[강의 전 퀴즈](https://black-meadow-040d15503.1.azurestaticapps.net/quiz/5)
## 소개
이 수업은 IoT 장치를 위한 두 가지 중요한 개념인 센서와 액추에이터를 소개한다. 당신은 또한 IoT 프로젝트에 광센서를 추가하고, 조도에 의해 제어되는 LED를 추가하여, 효과적으로 야간 조명을 구축할 수 있습니다.
이 수업에서는 다음을 다룹니다:
* [센서란 무엇인가](#센서란-무엇인가)
* [센서를 사용해보자](#센서를-사용해보자)
* [센서의 종류](#센서의-종류)
* [액추에이터란 무엇인가](#액추에이터란-무엇인가)
* [액추에이터를 사용해보자](#액추에이터를-사용해보자)
* [액추에이터의 종류](#액추에이터의-종류)
## 센서란 무엇인가
센서는 물리적 세계를 감지하는 하드웨어 장치입니다. 즉, 센서는 주변의 하나 이상의 속성을 측정하고 정보를 IoT 장치로 보냅니다. 센서는 대기 온도와 같은 자연적 특성부터 움직임과 같은 물리적 상호 작용까지, 측정할 수 있는 것이 매우 많아 방대한 범위의 장치를 포괄합니다.
일반적인 센서에는 다음이 포함됩니다.
- 온도 센서 - 공기 온도 또는 물에 담그는 곳의 온도를 감지합니다. 애호가들과 개발자들에게, 이것들은 종종 단일 센서에서 기압과 습도와 결합됩니다.
- 버튼 - 버튼을 눌렀을 때 신호가 감지됩니다.
- 광센서 - 광도를 감지하고 특정 색상, 자외선, 적외선 또는 일반적인 가시광선일 수 있습니다.
- 카메라 - 사진을 찍거나 비디오를 스트리밍함으로써 세계의 시각적 표현을 감지합니다.
- 가속도계 - 여러 방향으로의 움직임을 감지합니다.
- 마이크 - 일반적인 소리 수준 또는 방향성 소리를 감지합니다.
✅ 생각해봅시다. 여러분의 휴대전화에는 어떤 센서가 있나요?
모든 센서는 감지하는 모든 것을 IoT 장치로 해석할 수 있는 전기 신호로 변환한다는 한 가지 공통점이 있습니다. 이 전기 신호가 어떻게 해석되는지는 IoT 장치와 통신하는 데 사용되는 통신 프로토콜뿐만 아니라 센서에 따라 다릅니다.
## 센서를 사용해보자
아래의 관련 안내에 따라 IoT 장치에 센서를 추가하십시오.
* [아두이노 - Wio Terminal](wio-terminal-sensor.md)
* [싱글보드 컴퓨터 - Raspberry Pi](pi-sensor.md)
* [싱글보드 컴퓨터 - 가상기기](virtual-device-sensor.md)
## 센서의 종류
센서는 아날로그 센서와 디지털 센서가 있습니다.
### 아날로그 센서
가장 기본적인 센서 중 하나는 아날로그 센서입니다. 이러한 센서는 IoT 장치로부터 전압을 공급받고, 센서 컴포넌트가 전압을 조정하며, 센서로부터 반환되는 전압을 측정하여 센서 값을 제공합니다.
> 🎓전압은 배터리의 +극에서 -극 으로 전기를 이동시키기 위해 한 장소에서 다른 장소로 얼마나 밀리는지를 측정하는 것입니다. 예를 들어, 표준 AA 배터리는 1.5V(V는 볼트 기호)이며, 양극 단자에서 음극 단자로 1.5V의 힘으로 전기를 밀어낼 수 있다. 다른 전기 하드웨어가 작동하려면 다른 전압이 필요합니다. 예를 들어 LED 캔은 2~3V 사이에서 켜지지만 100W 필라멘트 전구는 240V가 필요합니다. 전압에 대한 자세한 내용은 [Wikipedia 에서 Voltage 검색](https://wikipedia.org/wiki/Voltage) 시 확인 가능합니다.
이것의 한 예는 Potentiometer (포텐셔미터)입니다. 이것은 두 위치 사이에서 회전할 수 있고 센서가 회전을 측정하는 다이얼입니다.
![중간 지점에 설정된 potentiometer가 5V를 전송하여 3.8V를 반환합니다.]
(../../../images/potentiometer.png)
IoT 장치는 포텐셔미터에 5V와 같은 전압으로 전기 신호를 보냅니다. 포텐셔미터가 조정되면 반대쪽에서 나오는 전압이 바뀝니다. 앰프의 볼륨 조정기와 같이 0에서 [11](https://wikipedia.org/wiki/Up_to_eleven)로 이동하는 다이얼로 표시된 포텐셔미터가 있다고 가정해 봅시다. 포텐셔미터가 완전히 꺼진 위치(0)에 있으면 0V(0V)가 나옵니다. 최대 ON 위치(11)에 있으면 5V(5V)가 나옵니다.
> 🎓 이것은 지나치게 단순화된 것이며, [Wikipedia에서 potentiometer 검색 시](https://wikipedia.org/wiki/Potentiometer) 포텐셔미터 및 가변 저항기에 대해 더 많은 정보를 얻을 수 있습니다..
센서에서 나오는 전압은 IoT 장치에 의해 읽혀지고, 그 장치는 그것에 반응할 수 있습니다. 센서에 따라 이 전압은 임의 값이거나 표준 장치에 매핑될 수 있습니다. 예를 들어, [서미스터](https://wikipedia.org/wiki/Thermistor) 에 기반한 아날로그 온도 센서는 온도에 따라 저항이 변화합니다. 출력 전압은 코드 계산을 통해 켈빈 단위로, 그에 따라 °C 또는 °F 단위로 변환될 수 있습니다.
✅ 센서가 전송된 전압보다 높은 전압을 반환할 경우(예: 외부 전원 공급 장치에서 나오는 전압) 어떻게 된다고 생각하십니까?
⛔️ 호기심에 실험 해 보진 마십시오.
#### 아날로그에서 디지털로의 변환
IoT는 디지털 장치입니다. 아날로그 값으로는 작동할 수 없고 0과 1에서만 작동합니다. 즉, 아날로그 센서 값을 처리하기 전에 디지털 신호로 변환해야 합니다. 많은 IoT 장치들은 아날로그 입력을 디지털 값 표현으로 변환하는 아날로그-디지털 변환기(ADC)를 가지고 있습니다. 센서는 커넥터 보드를 통해 ADC와 함께 작동할 수도 있습니다. 예를 들어, Raspberry Pi가 있는 seeed Grove ecosystem에서 아날로그 센서는 Pi에 있는 'hat'의 특정 포트에 연결됩니다. 이 포트는 Pi의 GPIO 핀에 연결되어 있습니다. 또한 이 “hat”은 전압을 파이의 GPIO 핀에서 보낼 수 있는 디지털 신호로 변환하기 위한 ADC가 있습니다.
3.3V를 사용하고 1V의 값을 반환하는 IoT 장치에 연결된 아날로그 광 센서가 있다고 가정 해 봅시다. 이 1V는 디지털 세계에서 아무런 의미가 없기 때문에 변환이 필요합니다. 전압은 장치와 센서에 따라 스케일을 사용하여 아날로그 값으로 변환됩니다. 한 가지 예는 0에서 1,023까지의 값을 출력하는 씨드 그로브 광 센서입니다. 3.3V에서 작동하는 이 센서의 경우 1V 출력은 300입니다. IoT 기기는 300을 아날로그 값으로 처리할 수 없기 때문에 300을 Grove hat로 이진법으로 표현한 `0000000100101100`으로 변환됩니다. 그러면 이것은 IoT 장치에 의해 처리될 것 입니다.
✅ 2진법을 모르면 숫자가 0과 1로 어떻게 표현되는지 알아보기 위해 약간의 공부를 추천합니다. [BBC Bitesize introduction to binary lesson](https://www.bbc.co.uk/bitesize/guides/zwsbwmn/revision/1)는 이진법을 공부하기 좋은 곳입니다.
코딩의 관점에서 볼 때, 이 모든 것은 보통 센서와 함께 제공되는 라이브러리에 의해 처리되므로, 당신은 이 변환에 대해 스스로 걱정할 필요가 없습니다. Grove 광센서의 경우 파이썬 라이브러리를 사용하여 `light (빛)` 속성을 호출하거나 아두이노 라이브러리를 사용하여 `analogRead` 를 호출하여 300의 값을 얻을 수 있습니다.
### 디지털 센서
아날로그 센서와 같은 디지털 센서는 전압의 변화를 이용하여 주변 세계를 감지합니다. 차이점은 두 개의 상태만 측정하거나 내장된 ADC를 사용하여 디지털 신호를 출력한다는 것입니다. 디지털 센서는 커넥터 보드 또는 IoT 장치 자체에서 ADC를 사용할 필요성을 피하기 위해 점점 더 보편화되고 있습니다.
가장 간단한 디지털 센서는 버튼 또는 스위치입니다. 이것은 켜지거나 꺼지는 두 가지 상태의 센서입니다.
![버튼은 5V로 전송됩니다. 이 스위치를 누르지 않으면 0V가 반환되고, 누르면 5V가 반환됩니다](../../../../images/button.png)
GPIO 핀과 같은 IoT 장치의 핀은 이 신호를 직접 0 또는 1로 측정할 수 있습니다. 전송된 전압이 반환된 전압과 같으면 판독값이 1이고, 그렇지 않으면 판독값이 0입니다. 신호를 변환할 필요가 없습니다. 1 또는 0만 가능합니다.
> 💁 전압은 절대 정확하지 않습니다. 특히 센서의 구성 요소에는 약간의 저항이 있기 때문에 일반적으로 공차가 있습니다. 예를 들어, 라즈베리 파이 상의 GPIO 핀은 3.3V에서 작동하며 1.8V 이상은 1로, 1.8V는 0으로 읽습니다.
* 3.3V가 버튼에 들어갑니다. 버튼이 꺼져 있으므로 0V가 나오고 값이 0입니다.
* 3.3V가 버튼에 들어갑니다. 버튼은 3번으로 되어 있어요.3V가 나오고 값이 1입니다.
더 발전된 디지털 센서는 아날로그 값을 판독한 다음, 온보드 ADC를 사용하여 디지털 신호로 변환합니다. 예를 들어, 디지털 온도 센서는 아날로그 센서와 동일한 방식으로 열전대를 사용하며, 현재 온도에서 열전대의 저항으로 인한 전압 변화를 계속 측정합니다. 아날로그 값을 반환하고 장치나 커넥터 보드에 의존해 디지털 신호로 변환하는 대신 센서에 내장된 ADC가 값을 변환해 IoT 장치에 0과 1의 직렬로 전송합니다. 이러한 0과 1은 1이 최대 전압이고 0이 0v인 버튼에 대한 디지털 신호와 동일한 방식으로 전송됩니다.
![IoT 장치로 전송하기 전에 아날로그 판독값을 0V, 1V를 5V로 하는 이진 데이터로 변환하는 디지털 온도 센서](../../../../images/temperature-as-digital.png)
디지털 데이터를 전송하면 센서가 더욱 복잡해지고 더 자세한 데이터, 심지어 보안 센서를 위해 암호화된 데이터까지 전송할 수 있습니다. 카메라를 생각해봅시다. 카메라는 이미지를 캡처하여 IoT 장치에서 읽을 수 있도록 보통 JPEG와 같은 압축 형식으로 해당 이미지를 전송합니다. 이미지를 캡처하고 전체 이미지 프레임을 프레임별로 전송하거나 압축된 비디오 스트림을 전송하여 비디오를 스트리밍할 수도 있습니다.
## 액추에이터란 무엇인가
액추에이터는 센서의 반대입니다. IoT 장치에서 나오는 전기 신호를 빛이나 소리를 방출하거나 모터를 움직이는 것과 같은 물리적 세계와의 상호 작용으로 변환합니다.
일반적인 액추에이터에는 다음이 포함됩니다 :
* LED - 켜지면 빛이 방출됩니다.
* 스피커 - 기본 부저에서 음악을 재생할 수 있는 오디오 스피커로 전송된 신호에 따라 소리를 냅니다.
* 스테퍼 모터 - 신호를 다이얼 90° 회전과 같이 정의된 회전량으로 변환합니다.
* 릴레이 - 전기 신호에 의해 켜지거나 끌 수 있는 스위치입니다. 그것들은 IoT 장치의 작은 전압이 큰 전압을 켜도록 합니다.
* 화면 - 보다 복잡한 액추에이터로 멀티 세그먼트 디스플레이에 정보를 표시합니다. 화면은 단순한 LED 디스플레이부터 고해상도 비디오 모니터까지 다양합니다.
✅ 생각해봅시다. 당신의 휴대전화에는 어떤 액추에이터가 있습니까?
## 액추에이터를 사용해보자
아래의 관련 안내에 따라 센서에 의해 제어되는 IoT 장치에 작동기를 추가하여 IoT 야간 조명을 만드십시오. 광센서로부터 광도를 모으고, 검출된 광도가 너무 낮을 때 발광하기 위해 LED 형태의 액추에이터를 사용합니다.
![조명 값을 읽어오고 확인 후 LED 제어 시작을 보여주는 할당 흐름도](../../../../images/assignment-1-flow.png)
* [아두이노 - 위오 터미널](wio-terminal-actuator.md)
* [싱글 보드 컴퓨터 - 라즈베리 파이](pi-actuator.md)
* [싱글 보드 컴퓨터 - 가상 ](virtual-device-actuator.md)
## 액추에이터의 종류
센서와 마찬가지로 액추에이터도 아날로그 또는 디지털입니다.
### 아날로그 액추에이터(actuator)
아날로그 액추에이터는 아날로그 신호를 받아 일종의 상호 작용으로 변환하며, 상호 작용은 공급되는 전압에 따라 변화합니다.
한 가지 예는 여러분이 집에 가지고 있을 수 있는 것과 같은 희미한 불빛입니다. 조명에 공급되는 전압의 양에 따라 조명의 밝기가 결정됩니다.
![낮은 전압에서는 희미해지고 높은 전압에서는 밝아지는 조명](../../../../images/dimmable-light.png)
센서와 마찬가지로 실제 IoT 장치는 아날로그가 아닌 디지털 신호에서 작동합니다. 즉, 아날로그 신호를 보내려면 IoT 장치가 직접 IoT 장치 또는 커넥터 보드에 디지털-아날로그 변환기(DAC)가 필요합니다. 그러면 IoT 장치의 0과 1이 액추에이터가 사용할 수 있는 아날로그 전압으로 변환됩니다.
✅ IoT 장치가 액추에이터가 처리할 수 있는 것보다 높은 전압을 전송하면 어떻게 된다고 생각하십니까?
⛔️ 실험 해 보진 마십시오.
### 펄스 폭 변조 (Pulse-Width Modulation)
IoT 장치에서 아날로그 신호로 디지털 신호를 변환하는 또 다른 옵션은 펄스 폭 변조입니다. 이것은 마치 아날로그 신호인 것처럼 작동하는 많은 짧은 디지털 펄스를 보내는 것을 포함합니다.
예를 들어 PWM을 사용하여 모터의 속도를 제어할 수 있습니다.
5V 전원으로 모터를 제어한다고 가정해 보십시오. 모터에 짧은 펄스를 전송하여 전압을 200분의 2초(0.02초) 동안 High(5V)로 전환합니다. 그 시간 동안 당신의 모터는 10분의 1 또는 36° 회전할 수 있습니다. 그런 다음 신호가 200분의 2초(0.02초) 동안 일시 중지되어 낮은 신호(0V)를 전송합니다. 각 ON/OFF 사이클은 0.04초 동안 지속됩니다. 그런 다음 주기가 반복됩니다.
![150rpm에서 모터의 PULE 폭 변조 회전](../../../../images/pwm-motor-150rpm.png)
즉, 1초 동안 모터를 회전시키는 0.02초의 255V 펄스가 있고, 그 후 모터를 회전하지 않는 0.02초의 0.02초의 일시 중지 상태가 있음을 의미합니다. 각 펄스는 모터를 회전의 10분의 1로 회전시킵니다. 즉, 모터가 초당 2.5회전을 완료한다는 의미입니다. 디지털 신호를 사용하여 모터를 초당 2.5회전 또는 [분당 150회](https://wikipedia.org/wiki/Revolutions_per_minute) (비표준 회전 속도 측정)으로 회전했습니다.
```output
초당 25펄스 x 펄스당 0.1회전 = 초당 2.5회전
초당 2.5회전 x 1분에 60초 = 150rpm
```
> 🎓 PWM 신호가 절반 동안 켜져 있고 절반 동안 꺼져 있는 경우를 [50% duty cycle](https://wikipedia.org/wiki/Duty_cycle) 이라고 합니다. 듀티 사이클은 신호가 꺼진 상태와 비교하여 켜진 상태에 있는 시간의 백분율로 측정됩니다.
![75rpm에서 모터의 PULE 폭 변조 회전](../../../../images/pwm-motor-75rpm.png)
펄스 크기를 변경하여 모터 속도를 변경할 수 있습니다. 예를 들어, 동일한 모터를 사용하여 0.04초의 동일한 사이클 시간을 유지할 수 있으며, 온 펄스는 0.01초로 절반으로, 오프 펄스는 0.03초로 증가할 수 있습니다. 초당 펄스 수(25)는 동일하지만 각 펄스의 길이는 절반입니다. 1/2 길이의 펄스는 모터를 20분의 1 회전만 돌리게 하며, 25펄스에서는 초당 1.25회전을 완료하거나 75rpm으로 회전합니다. 디지털 신호의 펄스 속도를 변경함으로써 아날로그 모터 속도를 절반으로 줄였습니다.
```output
초당 25펄스 x 펄스당 0.05회전 = 초당 1.25회전
초당 1.25회 회전 x 1분 동안 60초 = 75rpm
```
✅ 특히 저속 주행 시 모터 회전을 원활하게 유지하려면 어떻게 해야 합니까? 긴 일시 중지를 사용하는 긴 펄스 수를 사용할 것입니까, 아니면 매우 짧은 일시 중지를 사용하는 짧은 펄스 수를 사용할 것입니까?
> 💁 일부 센서는 PWM을 사용하여 아날로그 신호를 디지털 신호로 변환하기도 합니다.
> 🎓 [Wikipedia에서 펄스 폭 변조 검색](https://wikipedia.org/wiki/Pulse-width_modulation) 시 자세한 정보를 얻을 수 있습니다.
### 디지털 액추에이터(actuator)
디지털 센서와 같은 디지털 액추에이터는 고전압 또는 저전압에 의해 제어되는 두 가지 상태를 가지고 있거나 디지털 신호를 아날로그 신호로 변환할 수 있도록 DAC가 내장되어 있습니다.
하나의 간단한 디지털 작동기는 LED입니다. 장치가 1의 디지털 신호를 보내면 LED를 켜는 고전압이 전송됩니다. 0의 디지털 신호가 전송되면 전압이 0V로 떨어지고 LED가 꺼집니다.
![LED는 0V에서 꺼지고 5V에서 켜집니다.](../../../../images/led.png)
✅ 다른 간단한 2-state 액추에이터는 무엇입니까? 한 예로 솔레노이드가 있는데, 이는 도어 볼트를 움직이기 위해 작동하거나 도어를 잠금/잠금 해제하는 등의 작업을 수행할 수 있는 전자석입니다.
화면과 같은 더 발전된 디지털 작동기는 디지털 데이터가 특정 형식으로 전송되어야 합니다. 그들은 보통 그들을 제어하기 위해 정확한 데이터를 더 쉽게 보낼 수 있는 라이브러리와 함께 제공됩니다.
---
## 🚀 도전
이전 두 강의의 과제는 가정, 학교 또는 직장에 있는 가능한 한 많은 IoT 장치를 나열하고 그것들이 마이크로컨트롤러 또는 단일 보드 컴퓨터 또는 심지어 둘의 혼합으로 구축되었는지 결정하는 것이었습니다.
생각해 낸 모든 장치들은 어떤 센서와 액추에이터에 연결되어 있습니까? 이러한 장치에 연결된 각 센서와 액추에이터의 용도는 무엇입니까?
## 복습 퀴즈
[복습 퀴즈](https://black-meadow-040d15503.1.azurestaticapps.net/quiz/6)
## 리뷰 & 추가 개별학습
* 전기 및 회로에 대한 정보를 읽어보세요 [ThingLearn](http://thinglearn.jenlooper.com/curriculum/).
* 다양한 유형의 온도 센서에 대한 자세한 내용은 [Seeed Studios Temperature Sensors guide](https://www.seeedstudio.com/blog/2019/10/14/temperature-sensors-for-arduino-projects/) 를 참조하세요
* LED에 관한 내용은 [Wikipedia LED page](https://wikipedia.org/wiki/Light-emitting_diode) 에서 확인하세요
## 과제
[센서와 액추에이터에 대하여 알아보자](assignment.md)

@ -0,0 +1,17 @@
# 센서와 액추에이터에 대하여 알아보자
## 소개
이 수업에서는 센서와 액추에이터에 대해 설명했습니다. IoT 개발 키트와 함께 사용할 수 있는 센서 하나와 액추에이터 하나를 알아봅시다. 여기에는 다음이 포함됩니다.
* 무슨 일을 하나요?
* 사용되는 전자 장치/하드웨어는 무엇이 있나요?
* 아날로그 장치인가요 디지털장치인가요?
* 입력 또는 측정의 단위 및 범위는 무엇입니까?
## 평가기준(Rubric)
| 기준 | 모범 답안 | 적절함 | 개선이 필요함 |
| -------- | --------- | -------- | ----------------- |
| 센서 설명 | 위에 나열된 4개 섹션에 대한 세부 정보를 포함하여 센서에 대해 설명합니다. | 센서에 대해 설명했지만 위의 섹션 중 2-3개만 제공할 수 있었습니다. | 센서에 대해 설명했지만 위의 섹션 중 1개만 제공할 수 있었습니다. |
| 액추에이터 설명 | 위에 나열된 4개 섹션에 대한 세부 정보를 포함하여 액추에이터에 대해 설명합니다. | 액추에이터에 대해 설명했지만 위의 섹션 중 2-3개만 제공할 수 있었습니다. | 액추에이터에 대해 설명했지만 위의 섹션 중 1개만 제공할 수 있었습니다. |

@ -0,0 +1,116 @@
# 야간 조명 만들기 - 라즈베리 파이
라즈베리 파이에 LED를 추가하여 야간 조명을 만들어봅시다.
## 하드웨어
이 야간 조명에는 액추에이터가 필요합니다.
사용되는 액추에이터는 **LED**로, 전류가 흐를 때 빛을 방출하는 [발광 다이오드](https://wikipedia.org/wiki/Light-emitting_diode) 입니다. LED는 on /off 두 가지 상태를 가진 디지털 액추에이터입니다. 1을 값으로 전송하면 LED가 켜지고 0을 전송하면 꺼집니다. LED는 외부 Grove 액추에이터이며 라즈베리 파이의 Grove Base Hat에 연결해야 합니다
의사 코드에서 야간 조명의 로직은 다음과 같습니다.:
```output
탐지되는 빛의 정도(level)를 확인합니다
빛의 정도가 300 미만일 경우
LED를 켭니다
그렇지 않을 경우
LED를 끕니다
```
### LED 연결하기
Grove LED는 다양한 LED가 포함된 모듈로 제공되므로 색상을 선택할 수 있습니다.
#### 할 일 - LED 연결
LED에 연결 해 봅시다.
![grove LED](../../../../images/grove-led.png)
1. 좋아하는 LED를 선택하고 LED 모듈의 두 구멍에 다리를 삽입합니다.
LED는 발광 다이오드이며, 다이오드는 전류를 한 방향으로만 전달할 수 있는 전자 장치입니다. 즉, LED를 올바른 방향으로 연결해야 합니다. 그렇지 않으면 작동하지 않습니다.
LED 다리 중 하나는 양극 핀이고 다른 하나는 음극 핀입니다. LED는 완벽하게 둥글지 않고 한쪽이 약간 평평합니다. 약간 평평한 면이 음극 핀입니다. LED를 모듈에 연결할 때 둥근 쪽의 핀이 모듈 외부에 +로 표시된 소켓에 연결되고 평평한 쪽이 모듈 중앙에 더 가까운 소켓에 연결되었는지 확인하십시오.
1. LED 모듈에는 밝기를 제어할 수 있는 회전 버튼이 있습니다. 작은 십자 드라이버를 사용하여 시계 반대 방향으로 끝까지 돌립니다.
1. Grove 케이블의 한쪽 끝을 LED 모듈의 소켓에 삽입합니다. 이는 한 방향으로만 돌아갈 것 입니다.
1. Rasberry Pi 전원을 끈 상태에서 Grove 케이블의 다른 쪽 끝을 Pi에 부착된 Grove Base 모자에 D5로 표시된 디지털 소켓에 연결합니다. 이 소켓은 왼쪽에서 두 번째, GPIO 핀 옆에 있는 소켓 줄입니다.
![소켓 D5에 연결된 Grove LED](../../../../images/pi-led.png)
## 야간 조명을 프로그래밍 해봅시다
Grove 조명 센서와 Grove LED를 사용하여 야간 조명 프로그래밍을 진행할 수 있습니다.
### 할 일 - 야간 조명 동작에 대한 프로그래밍을 해 봅시다.
야간 조명에 대한 프로그래밍을 합니다.
1. 라즈베리 파이 전원을 켜고 부팅될 때 까지 기다립니다.
1. 이 할당의 이전 부분에서 만든 VS Code에서 야간 조명 프로젝트를 Pi에서 직접 실행하거나 원격 SSH 확장을 사용하여 연결합니다.
1. 필요한 라이브러리를 가져오려면 아래 코드를 `app.py` 파일에 추가하십시오. 이는 다른`import` 줄 바로 아래 추가되어야 합니다..
```python
from grove.grove_led import GroveLed
```
`from grove.grove_led import GroveLed` 문은 Grove Python 라이브러리에서 `GroveLed` 를 import 한다. 이 라이브러리에는 Grove LED와 상호 작용하는 코드가 있습니다.
1. `light_sensor` 선언 뒤에 다음 코드를 추가하여 LED를 관리하는 클래스의 인스턴스를 만듭니다.
```python
led = GroveLed(5)
```
`led = GroveLed(5)` 코드는 핀 **D5**(LED가 연결된 디지털 Grove 핀)에 연결하는 `GroveLed` 클래스의 인스턴스를 생성합니다.
> 💁 모든 소켓에 고유한 핀 번호가 있습니다. 핀 0, 2, 4, 6은 아날로그 핀이고 핀 5, 16, 18, 22, 24 및 26은 디지털 핀입니다.
1. `while` 루프 내부에 확인용 변수를 추가합니다, `time.sleep` 전에 조명 레벨을 확인하고 LED를 켜거나 끌 수 있습니다.
```python
if light < 300:
led.on()
else:
led.off()
```
이 코드는 감지되는 `빛` 의값을 확인합니다. 이 값이 300 미만인 경우 `GroveLed` 클래스의 `on` 메서드를 호출하여 LED에 디지털 값 1을 전송하고 LED를 켭니다. 조명 값이 300보다 크거나 같으면 꺼짐 방법을 호출하여 디지털 값 0을 LED로 전송하고 LED를 끕니다.
> 💁 이 코드는 `print('Light level:', light)` 라인과 동일한 레벨로 들여써야 하며, while 루프 안에 있어야 합니다!
> 💁 액추에이터로 디지털 값을 전송할 때 0 값은 0V, 1 값은 장치의 최대 전압입니다. Grove 센서 및 액추에이터가 장착된 라즈베리 파이의 경우 1 전압은 3.3V입니다.
1. VS Code Terminal에서 다음을 실행하여 Python 앱을 실행합니다.:
```sh
python3 app.py
```
조명 값이 콘솔에 출력됩니다.
```output
pi@raspberrypi:~/nightlight $ python3 app.py
Light level: 634
Light level: 634
Light level: 634
Light level: 230
Light level: 104
Light level: 290
```
1. 조명 센서를 가려도 봅시다. 조명 레벨이 300 이하인 경우 LED가 어떻게 켜지고, 조명 레벨이 300 이상인 경우 LED가 꺼지는지 확인합니다.
> 💁 LED가 동작하지 않는다면 제대로 연결 되어있는지 확인하고 스핀 버튼이 완전히 켜져 있는지 확인 해 보세요
![Light Level 변화에 따라 Pi에 연결된 LED가 켜지고 꺼집니다.](../../../../images/pi-running-assignment-1-1.gif)
> 💁 [code-actuator/pi](code-actuator/pi) 폴더 안에서 이 코드를 찾을 수 있습니다..
😀 여러분이 만든 야간 조명 프로젝트는 성공적으로 동작합니다!

@ -0,0 +1,97 @@
# 야간 조명 만들기 - 라즈베리 파이
이 강의에서 여러분의 라즈베리 파이에 광센서를 적용해봅시다
## 하드웨어
본 강의용 센서는 [광다이오드](https://wikipedia.org/wiki/Photodiode)를 사용하여 빛을 전기신호로 변환하는 **광센서** 입니다. 이는 [lux](https://wikipedia.org/wiki/Lux) 와 같은 표준 측정단위에 매핑되지 않는 0부터 1000까지의 빛의 상대적인 양을 나타내는 정수값을 보내는 아날로그 센서입니다.
광센서는 eternal Grove 센서이며 라즈베리 파이의 Grove base hat에 연결해야 합니다.
### 광센서와 연결해봅시다
광도를 감지하는데 사용되는 Grove 광센서는 라즈베리 파이에 연결해야 합니다.
#### 할 일 - 광센서와 연결 해 봅시다.
광센서와 연결해봅시다.
![Grove 광센서](../../../../images/grove-light-sensor.png)
1. Grove 케이블의 한쪽 끝을 광센서 모듈의 소켓에 삽입합니다. 그것은 한 방향으로만 돌아갈 것입니다.
1. Rasberry Pi 전원을 끈 상태에서 Grove 케이블의 다른 쪽 끝을 Pi에 부착된 Grove Base Hat의 **A0** 라고 표시된 아날로그 소켓에 연결합니다. 이 소켓은 오른쪽에서 두 번째, GPIO 핀 옆에 있는 소켓 열입니다.
![소켓 A0에 연결된 그로브 라이트 센서](../../../../images/pi-light-sensor.png)
## 광센서를 프로그래밍 해 봅시다.
이제 Grove light 센서를 사용하여 장치를 프로그래밍할 수 있습니다.
### 할 일 - 광센서를 프로그래밍한다.
구현 해 봅시다.
1. 라즈베리 파이의 전원은 켜고 부팅 될 때까지 기다립니다.
1. 이 과제의 이전 부분에서 생성한 VS Code에서 야간 조명 프로젝트를 Pi에서 직접 실행하거나 원격 SSH 확장을 사용하여 연결합니다.
1. `app.py` 파일을 열고 이 파일의 모든 코드를 지웁니다.
1. 몇가지 라이브러리 파일을 요청하기 위해 `app.py` 파일에 아래 있는 코드를 추가합니다:
```python
import time
from grove.grove_light_sensor_v1_2 import GroveLightSensor
```
`import time` 은 이 과제 이후에 사용될 `time` 모듈을 import 합니다.
`from grove.grove_light_sensor_v1_2 import GroveLightSensor` 는 Grove Python 라이브러리로부터 `GroveLightSensor` 를 import 합니다. 이 라이브러리는 Grove 광센서와 상호작용 할 수 있는 코드를 가지고 있으며 라즈베리 파이 설정 중에 전역으로 설치되었습니다.
1. 아래 코드를 위에서 작성한 코드 뒤에 추가하여 광센서를 관리하는 클래스의 인스턴스를 만듭니다.
```python
light_sensor = GroveLightSensor(0)
```
`light_sensor = GroveLightSensor(0)`는 핀 **A0**(광센서와 연결되어있는 아날로그 Grove 핀)와 연결되어있는 `GroveLightSensor` class의 인스턴스를 생성합니다.
1. 위에서 작성한 코드 뒤에 무한 루프를 추가하여 광 센서 값을 측정하고 콘솔에 출력합니다 :
```python
while True:
light = light_sensor.light
print('Light level:', light)
```
이는 `GroveLightSensor` 클래스의 `light` 속성을 사용하여 0-1,023의 척도로 현재 빛의 밝기를 판독합니다. 이 속성은 핀에서 아날로그 값을 읽습니다. 이후 이 값이 콘솔에 출력됩니다.
1. 계속 밝기를 확인할 필요가 없으므로 `루프` 끝에 1초의 짧은 절전 시간을 추가한다. 절전 모드는 장치의 전력 소비를 줄여줍니다.
```python
time.sleep(1)
```
1. VS Code의 터미널에서 아래 코드로 Python 앱을 실행 해 봅시다..
```sh
python3 app.py
```
밝기 값이 콘솔에 출력될 것이다. 광센서를 손으로 가려도 보면서 값이 어떻게 변하는지 확인 해 봅시다 :
```output
pi@raspberrypi:~/nightlight $ python3 app.py
Light level: 634
Light level: 634
Light level: 634
Light level: 230
Light level: 104
Light level: 290
```
> 💁 [code-sensor/pi](code-sensor/pi) 폴더에서 이 코드를 찾을 수 있습니다.
😀 여러분의 야간 조명 프로그렘에 성공적으로 센서를 적용했습니다!

@ -0,0 +1,472 @@
# 인터넷에 장치 연결하기
![A sketchnote overview of this lesson](../../../../sketchnotes/lesson-4.jpg)
> Nitya Narasimhan의 스케치 노트. 더 큰 버전을 보려면 이미지를 클릭하세요.
이 수업은 [Microsoft Reactor](https://developer.microsoft.com/reactor/?WT.mc_id=academic-17441-jabenn)의 [Hello IoT series](https://youtube.com/playlist?list=PLmsFUfdnGr3xRts0TIwyaHyQuHaNQcb6-) 의 일부로 진행되었습니다. 이 수업은 2개의 비디오 - 1 시간의 수업, 1시간의 강의에 대한 집중 탐구 및 질의 응답으로 구성되어 있습니다.
![https://img.youtube.com/vi/O4dd172mZhs/0.jpg](https://img.youtube.com/vi/O4dd172mZhs/0.jpg)
![https://img.youtube.com/vi/j-cVCzRDE2Q/0.jpg](https://img.youtube.com/vi/j-cVCzRDE2Q/0.jpg)
> 🎥 상단의 이미지를 클릭하여 비디오를 시청할 수 있습니다.
## 강의 전 퀴즈
[강의 전 퀴즈](https://black-meadow-040d15503.1.azurestaticapps.net/quiz/7)
## 개요
IoT에서 **I****인터넷**을 의미합니다. - 장치에 연결된 센서에서 측정값 수집, 액추에이터 제어를 위한 메세지 전송과 같은 IoT의 많은 기능을 가능하게 하는 클라우드 연결 및 서비스를 의미합니다. IoT 장치는 일반적으로 표준 통신 프로토콜을 사용하여 단일 클라우드 IoT 서비스에 연결되며 해당 서비스는 데이터에 대한 현명한 결정을 내리는 AI 서비스에 제어 또는 보고를 위한 웹 앱에 이르기까지 나머지 IoT 어플리케이션에 연결됩니다.
> 🎓 센서에서 수집되어 클라우드로 전송되는 데이터를 telemetry라고 합니다.
IoT 장치는 클라우드에서 메시지를 수신할 수 있습니다. 종종 메시지에는 다음 명령들이 포함되어 있습니다. - 내부적으로 작업 수행하기(예: 재부팅 또는 펌웨어 업데이트) 또는 엑추에이터 사용하기(예: 조명 켜기).
이 강의에서는 IoT 장치가 클라우드에 연결하는데 사용할 수 있는 몇가지 통신 프로토콜과 송수신할 수 있는 데이터 유형을 소개합니다. 또한 야간 조명에 인터넷 제어를 추가하고, LED 제어 논리를 로컬에서 실행되는 ‘서버’ 코드로 이동하는 실습을 하게 됩니다.
이 강의에서 다룰 내용은 다음과 같습니다:
- [통신 프로토콜](#communication-protocols)
- [메시지 큐 원격 분석 전송(MQTT)](##message-queueing-telemetry-transport-mqtt)
- [텔레메트리(원격 측정)](#telemetry)
- [명령](#commands)
## 통신 프로토콜
IoT 장치가 인터넷과 통신하는 데 널리 사용하는 통신 프로토콜이 많이 있습니다. 가장 인기있는 것은 일종의 브로커 형태의 발행/구독 메시징을 기반으로 합니다. IoT 장치는 브로커에 연결하고 원격 측정을 게시하고 명령을 구독합니다. 또한 클라우드 서비스는 브로커에 연결하고 모든 원격 측정 메시지를 구독하고 특정 장치, 장치 그룹에 명령을 게시합니다.
![IoT devices connect to a broker and publish telemetry and subscribe to commands. Cloud services connect to the broker and subscribe to all telemetry and send commands to specific devices.](../../../../images/pub-sub.png)
MQTT는 IoT 장치에 가장 널리 사용되는 통신 프로토콜이며 이 강의에서 다룹니다. 다른 프로토콜에는 AMQP와 HTTP/HTTPS가 있습니다.
## 메시지 큐 원격 분석 전송 (MQTT)
[MQTT](http://mqtt.org/) 는 장치 간에 메시지를 보낼 수 있는 가벼운 개방형 표준 메시징 프로토콜 입니다. 1999년에 송유관을 모니터링하도록 설계되었으며 15년 후 IBM에서 공개 표준으로 발표했습니다.
MQTT 에는 단일 브로커와 여러 클라이언트가 있습니다. 모든 클라이언트는 브로커에 연결되고, 브로커는 메시지를 관련 클라이언트에게 라우팅합니다. 메시지는 개별 클라이언트에게 직접 전송되지 않고 명명된 주제를 사용하여 라우팅됩니다. 클라이언트는 주제를 게시할 수 있으며 해당 주제를 구독하는 모든 클라이언트는 메시지를 받습니다.
![IoT device publishing telemetry on the /telemetry topic, and the cloud service subscribing to that topic](../../../../images/mqtt.png)
✅ 조사를 해보십시오. IoT 장치가 많은 경우, MQTT 브로커가 모든 메시지를 처리하려면 어떻게 해야 합니까?
### IoT장치를 MQTT에 연결하기
야간 조명에 인터넷 제어를 추가하는 첫 번째 단계는 이를 MQTT 브로커에 연결하는 것입니다.
### 작업
장치를 MQTT 브로커에 연결합니다.
이 수업에서는 IoT 야간 조명을 인터넷에 연결하여 원격으로 제어할 수 있도록 합니다. 수업의 뒷부분에서, IoT 장치는 MQTT를 통해 가벼운 수준의 공용 MQTT 브로커로 원격 분석 메시지를 보내고, 당신이 작성할 서버 코드에 의해 선택될 것입니다.
이러한 설정의 실제 사용 사례는 경기장과 같이 조명이 많은 위치에서 조명 키는 것을 결정하기 전에 여러 광 센서에서 데이터를 수집하는 것이 있습니다. 이렇게 하면 구름이나 새가 한 센서를 가려도, 다른 센서에서 충분한 빛을 감지한 경우 조명이 켜지지 않을 수 있습니다.
✅ 명령을 보내기 전에 여러 센서의 데이터를 평가해야 하는 다른 상황은 무엇입니까?
이 과제의 일부로 MQTT 브로커를 설정하는 복잡성을 처리하는 대신 오픈 소스 MQTT 브로커인 [Eclipse Mosquitto](https://www.mosquitto.org/) 를 실행하는 공개 테스트 서버를 사용할 수 있습니다. 이 테스트 브로커는 [test.mosquitto.org](https://test.mosquitto.org/)에서 공개적으로 사용할 수 있으며, 계정을 설정할 필요가 없으므로 MQTT 클라이언트와 서버를 테스트에 훌륭한 도구 입니다.
> 💁 이 테스트 브로커는 공개되어 있으며 안전하지 않습니다. 누구나 귀하가 게시한 내용을 들을 수 있으므로, 비공개로 유지해야 하는 데이터와 함께 사용해서는 안됩니다.
![../../../images/assignment-1-internet-flow.png](../../../../images/assignment-1-internet-flow.png)
아래 단계에 따라 장치를 MQTT 브로커에 연결하십시오:
- [Arduino - Wio Terminal](notion://www.notion.so/wio-terminal-mqtt.md) 아두이노 - Wio 터미널
- [Single-board computer - Raspberry Pi/Virtual IoT device](notion://www.notion.so/single-board-computer-mqtt.md) 싱글-보드 컴퓨터 - Raspberry Pi/가상 IoT 장치
### MQTT 자세히 알아보기
주제에는 계층이 있을 수 있으며, 클라이언트는 와일드카드를 사용하여 다른 수준의 계층에 가입할 수 있습니다. 예를 들어, `/telemetry/temperature` 주제에 온도 원격 측정 메시지를 보내고 , `/telemetry/humidity` 주제에 습도 메시지를 보낸 뒤, 클라우드 앱에서 `/telemetry/*` 주제를 구독하여 온도 와 습도 원격 측정 메시지를 모두 수신할 수 있습니다.
메시지는 수신되는 메시지의 보장을 결정하는 서비스의 품질(QoS)과 함께 보낼 수 있습니다.
- 최대 한 번 - 메세지는 한 번만 전송되고 클라이언트와 브로커는 전송을 확인하기 위해 추가 단계를 수행하지 않습니다(실행 후 잊어버림).
- 최소 한 번 - 확인 메시지가 수신될 때까지 보낸 사람이 여러번 다시 시도합니다.(전송 보장).
- 정확히 한 번 - 보낸 사람과 받는 사람이 2 단계의 핸드셰이크에 참여하여 메시지 사본을 하나만 수신하도록 합니다(전달 보장).
✅ 어떤 상황에서 실행 후 잊어버림 메시지보다 전달 보장 메시지가 필요할 수 있습니까?
이름은 메시지 큐잉(MQTT의 이니셜)이지만, 실제로는 메시지 큐를 지원하지 않습니다. 클라이언트가 연결을 끊었다가, 다시 연결하면 QoS 프로세스를 사용하여 이미 처리를 시작한 메시지를 제외하고 연결이 끊긴 동안 보낸 메시지를 받지 않는다는 의미입니다. 메시지에는 보유 플래그가 설정되어 있을 수 있습니다. 이것이 설정되면 MQTT 브로커는 이 플래그를 사용하여 주제에 대해 보낸 마지막 메시지를 저장하고 나중에 주제를 구독하는 모든 클라이언트에게 이를 보냅니다. 이런 식으로 클라이언트는 항상 최신 메시지를 받습니다.
또한 MQTT는 메시지 간의 긴 간격 동안 연결이 여젼히 활성 상태인지 확인하는 연결 유지 기능을 지원합니다.
> 🦟 [Mosquitto from the Eclipse Foundation](https://mosquitto.org/) 에는 [test.mosquitto.org](https://test.mosquitto.org/)에서 호스팅되는 코드 테스트에 사용할 수 있는 공개 MQTT 브로커와 함께 MQTT를 실험하기 위해 직접 실행할 수 있는 무료 MQTT 브로커가 있습니다.
MQTT 연결은 공개되고 공개되거나 사용자의 이름과 암호 또는 인증서를 사용하여 암호화되고 보호될 수 있습니다.
> 💁 MQTT 는 HTTP와 동일한 기본 네트워크 프로토콜 이지만 다른 포트에서 TCP/IP를 통해 통신합니다. 또한 웹소켓을 통한 MQTT 를 사용하여 브라우저에서 실행되는 웹 앱과 통신하거나, 방화벽이나 기타 네트워크 규칙이 표준 MQTT 연결을 차단하는 상황에서도 사용할 수 있습니다.
## 텔레메트리(원격 측정)
텔레메트리(Telemetry)는 원격 측정이라는 그리스어에서 파생되었습니다. 원격 측정은 센서에서 데이터를 수집하여 클라우드로 보내는 행위입니다..
> 💁 최초의 원격 측정 장치 중 하나는 1874년 프랑스에서 발명되었으며 실시간으로 날씨와 눈 깊이를 몽블랑에서 파리로 보냈습니다. 당시에는 무선 기술을 사용할 수 없었기 때문에 물리적 와이어를 사용했습니다.
수업 1의 예시 스마트 온도 조절기를 다시 살펴보겠습니다.
![../../../images/telemetry.png](../../../../images/telemetry.png)
온도 조절 장치에는 원격 측정을 수집하는 온도 센서가 있습니다. 하나의 온도 센서가 내장되어 있을 가능성이 높으며 BLE([Bluetooth Low Energy](https://wikipedia.org/wiki/Bluetooth_Low_Energy))와 같은 무선 프로토콜을 통해 여러 외부 온도 센서에 연결할 수 있습니다.
전송할 원격 측정 데이터의 예는 다음과 같습니다:
| Name | Value | Description |
| ------------------------ | ----- | ---------------------------------------------------------------------- |
| `thermostat_temperature` | 18°C | 온도 조절 장치에 내장된 온도 센서로 측정된 온도 |
| `livingroom_temperature` | 19°C | `livingroom` 이라고 명명된 방에 있는 원격 온도 센서에 의해 측정된 온도 |
| `bedroom_temperature` | 21°C | `bedroom`이라고 명명된 방에 있는 원격 온도 센서에 의해 측정된 온도 |
클라우드 서비스는 이 원격 측정 데이터를 사용하여 난방을 제어하기 위해 보낼 명령을 결정할 수 있습니다.
### IoT 장치에서 원격 분석 보내기
야간 조명에 인터넷 제어를 추가하는 다음 과정은 조명 수준 원격 분석을 MQTT 브로커의 텔레메트리 주제를 보내는 것입니다.
### 작업 - IoT 장치에서 원격 분석 보내기
MQTT 브로커에게 가벼운 수준의 원격 분석을 보냅니다.
데이터는 키/값 쌍을 사용해 텍스트로 데이터를 인코딩하는 표준인 JSON(JavaScriopt Object Notation의 약자)으로 인코딩되어 전송됩니다.
✅ 이전에 JSON을 접한 적이 없다면, [JSON.org documentation](https://www.json.org/)에서 더 자세히 알아볼 수 있습니다.
장치에서 MQTT 브로커로 원격 분석을 보내려면 아래 단계를 따르십시오:
- [아두이노 - Wio 터미널](wio-terminal-telemetry.md)
- [싱글 보드 컴퓨터 - Raspberry Pi/가상 IoT 장치](single-board-computer-telemetry.md)
### MQTT 브로커로부터 텔레메트리 수신
다른 쪽 끝에 수신할 것이 없으면 원격 분석을 보낼 의미가 없습니다. 광도 원격 측정은 데이터를 처리하기 위해 이를 수신하는 무언가가 필요합니다. 이 '서버' 코드는 더 큰 IoT 애플리케이션의 일부로 클라우드 서비스에 배포할 코드 유형이지만, 여기에서는 이 코드를 컴퓨터에서 로컬로(또는 직접 코딩하는 경우 Pi에서 실행할 것입니다). 서버 코드는 가벼운 수준의 MQTT를 통해 원격 분석 메시지를 수신하는 Python 앱으로 구성됩니다. 이 수업의 뒷부분에서 LED를 켜거나 끄도록 지시하는 명령 메시지로 응답하게 할 것입니다.
✅ 조사해보기: 리스너가 없으면 MQTT 메시지는 어떻게 됩니까?
### Python 과 VS Code 설치
Python 및 VS Code를 로컬에 설치하지 않은 경우 서버를 코딩하려면 둘 다 설치해야 합니다. 가상 IoT 장치를 사용 중이거나 Raspberry Pi에서 작업하는 경우 이미 설치 및 구성되어 있어야 하므로 이 단계를 건너뛸 수 있습니다.
### 작업 - Python 과 VS Code 설치
Python 과 VS Code 를 설치합니다.
1. Python을 설치합니다. 최신 버전의 Python 설치에 대한 지침은 [Python downloads page](https://www.python.org/downloads/) 를 참조하십시오.
2. Visual Studio Code (VS Code)를 설치합니다. 이것은 Python으로 가상 장치 코드를 작성하는데 사용할 편집기입니다. VS Code 설치에 대한 지침은 [VS Code documentation](https://code.visualstudio.com/?WT.mc_id=academic-17441-jabenn) 를 참조하십시오.
> 💁 선호하는 편집기가 있는 경우 이 수업에 IDE 또는 편집기를 자유롭게 사용할 수 있지만, 수업에서는 VS Code 사용을 기반으로 지침을 제공합니다.
3. VS Code Pylance 확장을 설치합니다. 이것은 Python 언어 지원을 제공하는 VS Code 의 확장입니다. VS Code에서 이 확장을 설치하는 방법은 [Pylance extension documentation](https://marketplace.visualstudio.com/items?WT.mc_id=academic-17441-jabenn&itemName=ms-python.vscode-pylance) 를 참조하십시오.
### Python 가상 환경 구성
Python의 강력한 기능 중 하나는 [pip packages](https://pypi.org/)를 설치하는 것입니다. - 이는 다른 사람이 작성하여 인터넷에 게시한 코드 패키지입니다. 하나의 명령으로 컴퓨터에 pip 패키지를 설치한 다음, 코드에서 해당 패키지를 사용할 수 있습니다. pip를 사용하여 MQTT를 통해 통신하는 패키지를 설치합니다.
기본적으로 패키지를 설치하면 컴퓨터의 모든 곳에서 사용할 수 있으며, 이것은 패키지 버전에 문제를 발생시킬 수 있습니다 - 예를 들어, 패키지의 한 버전에 따라 하나의 응용 프로그램이 다른 응용 프로그램의 새 버전을 설치할 때 중단되는 경우. 이 문제를 해결하기 위해, [Python 가상 환경](https://docs.python.org/3/library/venv.html)을 사용할 수 있습니다, 기본적으로 전용 폴더에 있는 폴더에 있는 Python의 복사본이며 pip 패키지를 설치하면 해당 폴더에만 설치됩니다.
### 작업 - Python 가상 환경 구성
Python 가상 환경을 구성하고 MQTT pip 패키지를 설치합니다.
1. 터미널 또는 명령줄에서 원하는 위치에서 다음을 실행하여 새 디렉터리를 만들고 탐색합니다:
```
mkdir nightlight-server
cd nightlight-server
```
2. 이제 다음을 실행하여 `.venv` 폴더에 가상 환경을 만듭니다.
```
python3 -m venv .venv
```
> 💁 Python 3 (최신 버전) 외에 Python2가 설치된 경우에만 가상 환경을 생성하기 위해 명시적으로 호출해야 합니다. Python2 가 설치된 경우 python 호출 시 Python 3 대신 Python 2 가 사용됩니다.
3. 가상 환경 활성화:
- On Windows:
- 명령 프롬프트 또는 Windows 터미널을 통한 명령 프롬프트를 사용하는 경우 다음을 실행합니다:
```
.venv\\Scripts\\activate.bat
```
- PowerShell을 사용하는 경우 다음을 실행합니다:
```
.\\.venv\\Scripts\\Activate.ps1
```
- macOS 또는 Linux에서 다음을 실행합니다:
```
source ./.venv/bin/activate
```
> 💁 이러한 명령은 가상 환경을 만들기 위해 명령을 실행한 동일한 위치에서 실행해야 합니다. .venv 폴더를 탐색할 필요가 없으며, 항상 activate 명령과 아무 명령을 실행하여 패키지를 설치하거나 가상 환경을 만들 때 있떤 폴더에서 코드를 실행해야 합니다.
4. 가상 환경이 활성화 되면, 기본 `python` 명령은 가상 환경을 만드는 데 사용된 Python 버전을 실행합니다. 다음을 실행하여 버전을 가져옵니다:
```
python --version
```
출력은 다음과 유사합니다:
```
(.venv) ➜ nightlight-server python --version
Python 3.9.1
```
> 💁 Python 버전은 다를 수 있습니다 - 버전 3.6 이상이면 좋습니다. 그렇지 않은 경우, 이 폴더를 삭제하고, 최신 버전의 Python을 설치한 후 다시 시도하십시오.
5. 다음 영령을 실행하여 널리 사용되는 MQTT 라이브러리인 [Paho-MQTT](https://pypi.org/project/paho-mqtt/)용 pip 패키지를 설치하십시오.
```
pip install paho-mqtt
```
이 pip 패키지는 가상 환경에만 설치되며 외부에서는 사용할 수 없습니다.
### 서버 코드 작성
이제 서버 코드를 Python으로 작성할 수 있습니다.
### 작업 - 서버 코드 작성
서버 코드를 작성합니다.
1. 터미널 또는 명령줄에서, 가상 환경 내에서 다음을 실행하여 `app.py`라는 Python 파일을 만듭니다:
- Windows에서 다음을 실행합니다:
```
type nul > app.py
```
- macOS 또는 Linux에서 다음을 실행합니다:
```
touch app.py
```
2. VS Code에서 현재 폴더를 엽니다:
```
code .
```
3. VS Code가 시작되면 Python 가상 환경이 활성화됩니다. 이것은 하단 상태 표시줄에 보고됩니다.:
![../../../images/vscode-virtual-env.png](../../../../images/vscode-virtual-env.png)
4. VS Code가 시작될 때 VS Code 터미널이 이미 실행 중이면 가상 환경이 활성화되지 않습니다. 가장 쉬운 방법은 **활성 터미널 인스턴스 종료** 버튼을 사용하여 터미널을 종료하는 것입니다.:
![../../../images/vscode-kill-terminal.png](../../../../images/vscode-kill-terminal.png)
5. \*Terminal -> New Terminal을 선택하거나, `` CTRL+` ``를 눌러 새 VS Code 터미널을 시작합니다. 새 터미널은 가상 환경을 로드하고 이를 활성화하라는 호출이 터미널에 표시됩니다. 가상 환경의 이름(`.venv`)도 프롬프트에 표시됩니다:
```
➜ nightlight-server source .venv/bin/activate
(.venv) ➜ nightlight
```
6. VS Code 탐색기에서 `app.py`파일을 열고 다음 코드를 추가합니다:
```
import json
import time
import paho.mqtt.client as mqtt
id = '<ID>'
client_telemetry_topic = id + '/telemetry'
client_name = id + 'nightlight_server'
mqtt_client = mqtt.Client(client_name)
mqtt_client.connect('test.mosquitto.org')
mqtt_client.loop_start()
def handle_telemetry(client, userdata, message):
payload = json.loads(message.payload.decode())
print("Message received:", payload)
mqtt_client.subscribe(client_telemetry_topic)
mqtt_client.on_message = handle_telemetry
while True:
time.sleep(2)
```
6행에서 `<ID>`를 기기 코드를 생성할 때 사용한 고유 ID로 바꿉니다.
⚠️ 이것은 **반드시** 장치에서 사용한 것과 동일한 ID 여야 합니다, 그렇지 않으면 서버 코드가 올바른 주제를 구독하거나 게시하지 않습니다.
이 코드는 고유한 이름으로 MQTT 클라이언트를 생성하고 _[test.mosquitto.org](http://test.mosquitto.org/)_ 브로커에 연결합니다. 그런 다음 구독된 주제에 대한 메시지를 수신하는 백그라운드 스레드에서 실행되는 처리 루프를 시작합니다.
그런 다음 클라이언트는 원격 분석 주제에 대한 메시지를 구독하고, 메시지가 수신될 때 호출되는 함수를 정의합니다. 원격 측정 메시지가 수신되면, `handle_telemetry` 함수가 호출되어, 수신된 메시지를 콘솔에 인쇄합니다.
마지막으로 무한 루프는 응용 프로그램이 계속 실행되도록 합니다. MQTT 클라이언트는 백그라운드 스레드에서 메시지를 수신하고 있으며 기본 애플리케이션이 실행 중인 동안 항상 실행됩니다.
7. VS Code 터미널에서, 다음을 실행하여 Python 앱을 실행합니다:
```
python app.py
```
앱이 IoT 장치의 메시지 수신을 시작합니다.
8. 장치가 실행 중이고 원격 분석 메시지를 보내고 있는지 확인하십시오. 물리적 또는 가상 장치에서 감지한 조명 수준을 조정합니다. 수신 중인 메시지가 터미널에 인쇄됩니다.
```
(.venv) ➜ nightlight-server python app.py
Message received: {'light': 0}
Message received: {'light': 400}
```
nightlight-server 가상 환경의 app.py 파일이 전송되는 메시지를 수신하려면 nightlight 가상 환경의 app.py 파일이 실행 중이어야 합니다.
> 💁 이 코드는 [code-server/server](code-server/server) 폴더에서 찾을 수 있습니다.
### 얼마나 자주 원격 분석을 보내야 합니까?
원격 분석에서 중요한 고려 사항 중 하나는 얼마나 자주 데이터를 측정하고 보내는가? 입니다. 대답은 - 상황에 따라 다르다 입니다. 자주 측정하면 측정 변화에 더 빠르게 대응할 수 있지만, 더 많은 전력, 더 많은 대역폭을 사용하고 더 많은 데이터를 생성하고 처리할 더 많은 클라우드 리소스가 필요합니다. 충분히 자주 측정해야 하지만 너무 자주 측정해서는 안 됩니다.
온도 조절기의 경우, 온도가 자주 변하지 않기 때문에 몇 분마다 측정하는 것으로 충분합니다. If you only measure once a day then you could end up heating your house for nighttime temperatures in the middle of a sunny day, whereas if you measure every second you will have thousands of unnecessarily duplicated temperature measurements that will eat into the users' Internet speed and bandwidth (a problem for people with limited bandwidth plans), use more power which can be a problem for battery powered devices like remote sensors, and increase the cost of the providers cloud computing resources processing and storing them.
공장에서 기계가 고장나면 치명적인 피해를 입히고 수백만 달러의 수익 손실을 초래할 수 있는 기계 주변의 데이터를 모니터링하는 경우, 초당 여러 번 측정해야 할 수 있습니다. 기계가 고장나기 전에 중지하고 수정해야 함을 나타내는 원격 측정을 놓치는 것보다 대역폭을 낭비하는 것이 좋습니다.
> 💁 이 상황에서는, 인터넷에 대한 의존도를 줄이기 위해 원격 분석을 먼저 처리하는 에지 장치를 고려할 수 있습니다.
### 연결 끊김
인터넷 연결은 불안정할 수 있으며 일반적으로 중단됩니다. 이러한 상황에서 IoT 장치는 무엇을 해야 합니까 - 데이터가 손실되어야 합니까, 아니면 연결이 복원될 때까지 저장해야 합니까? 다시 말하지만, 대답은 상황에 따라 다릅니다.
온도 조절기의 경우 새 온도 측정이 수행되자마자 데이터가 손실될 수 있습니다. 난방 시스템은 20분 전에 온도가 19°C인 경우 20.5°C였던 것을 신경 쓰지 않습니다. 난방을 켜야 하는지 여부를 결정하는 것은 지금 온도입니다.
기계류의 경우 특히 추세를 찾는 데 사용되는 경우 데이터를 유지해야 할 수 있습니다. 정의된 기간(예들 들어, 지난 1시간)의 데이터를 살펴보고 비정상적인 데이터를 찾아냄으로써 데이터 스트림의 이상을 감지할 수 있는 기계 학습 모델이 있습니다. 이것은 종종 예측 유지보수에 사용되며, 곧 고장날 수 있다는 표시를 찾아 그 전에 수리하거나 교체할 수 있습니다. 시스템에 대한 모든 원격 분석을 전송하여 이상 감지를 위해 처리할 수 있기를 원할 수 있으므로, IoT 장치가 다시 연결되면 인터넷 중단 중에 생성된 모든 원격 분석이 전송됩니다.
IoT 장치 설계자는 인터넷 중단 또는 위치로 인한 신호 손실 중에 IoT 장치를 사용할 수 있는지도 고려해야 합니다. 스마트 온도 조절기는 정전으로 인해 클라우드에 원격 측정을 보낼 수 없는 경우 난방을 제어하기 위해 몇 가지 제한된 결정을 내릴 수 있어야 합니다.
![../../../images/bricked-car.png](../../../../images/bricked-car.png)
MQTT가 연결 손실을 처리하려면, 장치 및 서버 코드가 필요한 경우 메시지 전달을 보장해야 합니다. 예를 들어 전송된 모든 메시지가 응답 주제에 대한 추가 메시지로 응답되도록 요구하고, 그렇지 않은 경우 나중에 재생할 수 있도록 수동으로 대기열에 추가됩니다.
## 명령
명령은 클라우드에서 장치로 보내는 메시지로, 작업을 수행하도록 지시합니다. 대부분의 경우 이것은 액츄에이터를 통해 일종의 출력을 제공하는 것과 관련이 있지만, 재부팅하거나 추가 원격 측정을 수집하여 명령에 대한 응답으로 반환하는 것과 같은 장치 자체에 대한 명령일 수 있습니다.
![An Internet connected thermostat receiving a command to turn on the heating](../../../../images/commands.png)
온도 조절기는 클라우드에서 난방을 켜라는 명령을 받을 수 있습니다. 모든 센서의 원격 측정 데이터를 기반으로 클라우드 서비스가 난방을 켜야 한다고 결정한 경우 관련 명령을 보냅니다.
### MQTT 브로커에 명령 보내기
인터넷 제어 야간 조명의 다음 단계는 서버 코드가 감지하는 조명 수준에 따라 조명을 제어하기 위해 IoT 장치에 명령을 다시 보내는 것입니다
1. VS Code에서 서버 코드 열기
2. `client_telemetry_topic` 명령을 보낼 주제를 정의하는 선언 뒤에 다음 줄을 추가힙니다:
```
server_command_topic = id + '/commands'
```
3. `handle_telemetry` 함수 끝에 다음 코드를 추가합니다:
```
command = { 'led_on' : payload['light'] < 300 }
print("Sending message:", command)
client.publish(server_command_topic, json.dumps(command))
```
이것은 명령 주제에 조명이 300 미만인지 여부에 따라 `led_on` 값이 ture나 false로 설정되도록 JSON 메시지를 보냅니다. 조명이 300보다 작으면, LED를 켜도록 장치에 지시하기 위해 true 가 전송됩니다.
4. 이전과 같이 코드를 실행
5. 물리적 또는 가상 장치에서 감지한 조명 수준을 조정합니다. 수신 중인 메시지와 전송 중인 명령이 터미널에 기록됩니다.:
```
(.venv) ➜ nightlight-server python app.py
Message received: {'light': 0}
Sending message: {'led_on': True}
Message received: {'light': 400}
Sending message: {'led_on': False}
```
> 💁 원격 측정과 명령은 각각 단일 주제에 대해 전송됩니다. 여러 장치의 원격 분석은 동일한 원격 분석 항목에 표시되고 여러 장치에 대한 명령은 동일한 명령 항목에 나타남을 의미합니다. 특정 장치에 명령을 보내려면, `/commands/device1`, `/commands/device2`와 같은 고유한 장치 id같은 여러 주제를 사용할 수 있습니다. 그런 식으로 장치는 해당 장치에 대한 메시지를 수신할 수 있습니다.
> 💁 이 코드는 [code-commands/server](code-commands/server) 폴더에서 찾을 수 있습니다.
### IoT 장치에서 명령 처리
이제 서버에서 명령이 전송되므로, IoT 장치에 코드를 추가하여 명령을 처리하고 LED를 제어할 수 있습니다.
MQTT 브로커의 명령을 수신하려면 아래 단계를 따르십시오:
- [아두이노 - Wio 터미널](notion://www.notion.so/wio-terminal-commands.md)
- [싱글 보드 컴퓨터 - Raspberry Pi/가상 IoT 장치](notion://www.notion.so/single-board-computer-commands.md)
이 코드가 작성되고 실행되면 조명 수준을 변경하는 실험을 하십시오. 서버 및 장치의 출력을 관찰하고 조명 수준을 변경할 때 LED를 관찰합니다.
### 연결 끊김
오프라인인 IoT 장치에 명령을 보내야 하는 경우 클라우드 서비스는 어떻게 해야 합니까? 다시 말하지만, 대답은 상황에 따라 다릅니다.
최신 명령이 이전 명령보다 우선하면 이전 명령은 무시할 수 있습니다. 클라우드 서비스가 난방을 켜라는 명령을 보낸 다음, 난방을 끄라는 명령을 보내면, 온 명령을 무시하고 재전송하지 않을 수 있습니다.
만약 명령을 순서대로 처리해야 하는 경우, 예를 들어 로봇 팔을 위로 이동한 다음 그래버를 닫는 경우, 연결이 복원되면 순서대로 전송해야 합니다.
✅ 장치 또는 서버 코드가 필요한 경우 MQTT를 통해 명령이 항상 순서대로 전송되고 처리되도록 하려면 어떻게 해야 합니까?
---
## 🚀 도전
지난 세 수업의 과제는 집, 학교 또는 직장에 있는 IoT 장치를 최대한 많이 나열하고 마이크로컨트롤러 또는 단일 보드 컴퓨터 또는 이 둘을 혼합하여 구축되었는지 여부를 결정하고 어떤 센서와 액추에이터를 사용하고 있는지 생각해 보는 것이었습니다.
이러한 장치의 경우, 어떤 메시지를 보내거나 받을 수 있는지 생각해 보십시오. 어떤 원격 측정을 보내나요? 어떤 메시지나 명령을 받을 수 있습니까? 이것이 안전하다고 생각합니까?
## 강의 후 퀴즈
[강의 후 퀴즈](https://black-meadow-040d15503.1.azurestaticapps.net/quiz/8)
## 복습 & 독학
[MQTT Wikipedia page](https://wikipedia.org/wiki/MQTT)에서 MQTT에 대해 자세히 알아보세요.
[Mosquitto](https://www.mosquitto.org/) 를 사용하여 MQTT 브로커를 직접 실행하고 IoT 장치와 서버 코드를 연결해보세요.
> 💁 팁 - 기본적으로 Mosquitto는 익명 연결(즉, 사용자 이름과 암호 없이 연결)을 허용하지 않으며, 실행중인 컴퓨터 외부에서 연결을 허용하지 않습니다.
> [`mosquitto.conf` 구성 파일](https://www.mosquitto.org/man/mosquitto-conf-5.html)로 이 문제를 해결할 수 있습니다:
>
> ```
> listener 1883 0.0.0.0
> allow_anonymous true
>
> ```
## 과제
[MQTT를 다른 통신 프로토콜과 비교 및 대조](assignment.ko.md)

@ -0,0 +1,14 @@
# MQTT를 다른 통신 프로토콜과 비교, 대조하기
## 지침
이 강의에서는 MQTT 통신 프로토콜을 다루었습니다. 다른 프로토콜에는 AMQP 와 HTTP/HTTPS 가 있습니다.
이 두가지를 모두 조사하고 MQTT와 비교/대조하십시오. 연결이 끊긴 경우 전력 사용량, 보안, 메시지 지속성애 대해 생각해보세요.
## 평가 기준
| 기준 | 모범 답안 | 적절함 | 개선이 필요함 |
| ----------------------- | ------------------------------------------------------------------------------------ | -------------------------------------------------------------------------------------------------------- | ------------------------------------------------------------------------------------------------------- |
| AMQP 와 MQTT 비교 | AMQP와 MQTT를 비교 및 ​​대조할 수 있으며 전원, 보안, 메시지 지속성을 다룹니다. | AMQP와 MQTT를 부분적으로 비교하고 대조할 수 있으며 전력, 보안, 메시지 지속성 중 두가지를 다룹니다. | AMQP와 MQTT를 부분적으로 비교 및 ​​대조할 수 있으며 전원, 보안, 메시지 지속성 중 하나를 다룹니다. |
| HTTP/HTTPS 와 MQTT 비교 | HTTP/HTTPS와 MQTT를 비교 및 ​​대조할 수 있으며 전원, 보안, 메시지 지속성을 다룹니다. | HTTP/HTTPS와 MQTT를 부분적으로 비교하고 대조할 수 있으며 기능, 보안, 메시지 지속성 중 두가지를 다룹니다. | HTTP/HTTPS를 MQTT와 부분적으로 비교 및 ​​대조할 수 있으며 전원, 보안, 메시지 지속성 중 하나를 다룹니다. |

@ -0,0 +1,53 @@
# 인터넷을 통해 야간 조명 제어하기 - 가상 IoT 하드웨어 및 Raspberry Pi
강의에서 MQTT 브로커에서 Raspberry Pi 또는 가상 IoT 장치로 전송된 명령을 실행하게 됩니다.
## 명령 실행하기
다음 단계는 MQTT 브로커에서 보낸 명령을 실행하고 이에 응답하는 것입니다.
### 작업
명령을 실행합니다.
1. VS Code에서 야간 조명 프로젝트를 엽니다.
2. 가상 IoT 장치를 사용하는 경우, 터미널이 가상 환경을 실행 중인지 확인하십시오. Raspberry Pi 를 사용하는 경우 가상 환경을 사용하지 않습니다.
3. `client_telemetry_topic`의 정위 뒤에 다음 코드를 추가합니다.:
```python
server_command_topic = id + '/commands'
```
`server_command_topic` 는 장치가 LED 명령을 수신하기 위해 실행될 MQTT 주제입니다.
4. main loop 바로 위의 `mqtt_client.loop_start()` 라인 뒤에 다음 코드를 추가합니다:
```python
def handle_command(client, userdata, message):
payload = json.loads(message.payload.decode())
print("Message received:", payload)
if payload['led_on']:
led.on()
else:
led.off()
mqtt_client.subscribe(server_command_topic)
mqtt_client.on_message = handle_command
```
이 코드는 `handle_command` 함수를 정의합니다, 이는 메시지를 JSON 문서로 읽고 `led_on` 속성 값을 찾는 함수입니다. `True` 로 설정되면 LED가 켜지고, 그렇지 않다면 LED는 꺼집니다.
MQTT 클라이언트는 서버가 메시지를 보낼 주제를 실행하고 메시지가 수신될 때 `handle_command` 함수가 호출되도록 설정합니다.
> 💁 `on_message` 핸들러는 실행된 모든 주제에 대해 호출됩니다. 나중에 여러 주제를 수신하는 코드를 작성하면, 핸들러 함수를 거쳐 보내진 `message` 객체의 주제를 얻을 수 있습니다.
5. 과제의 이전 부분과 동일한 방식으로 코드를 실행합니다. 가상 IoT 장치를 사용하는 경우, CounterFit 앱이 실행중이고 LED가 올바른 핀에 생성되었는지 확인하십시오.
6. 물리적 또는 가상 장치에서 감지한 조명 수준을 조정합니다. 수신 중인 메시지와 전송 중인 명령이 터미널에 기록됩니다. LED도 조명 수준에 따라 켜지고 꺼질 것입니다.
> 💁 이 코드는 [code-commands/virtual-device](../code-commands/virtual-device) 폴더 또는 [code-commands/pi](../code-commands/pi) 폴더에서 찾을 수 있습니다.
😀 장치가 MQTT 브로커의 명령에 응답하도록 성공적으로 코딩했습니다.

@ -0,0 +1,60 @@
# 인터넷을 통해 야간 조명 제어하기 - 가상 IoT 하드웨어 및 Raspberry Pi
이 단원에서는 Rasberry Pi나 가상 IoT 장치로 부터 MQTT 브로커로 조명 레벨을 포함한 telemetry를 전송합니다.
## telemetry 게시
다음 단계는 telemetry를 포함한 JSON 문서를 생성하고 MQTT 브로커에게 전송하는 것입니다.
### 작업
MQTT 브로커에게 telemetry를 게시합니다.
1. VS Code에서 야간 조명 프로젝트를 엽니다.
1. 가상 IoT 기기를 사용한다면 터미널이 가상 환경에서 돌아가는지 확인합니다. Raspberry Pi를 사용한다면 가상 환경을 사용하지 않습니다.
1. `app.py` 파일의 상단에 다음을 추가합니다:
```python
import json
```
`json` 라이브러리는 telemetry를 JSON 문서로 인코딩 하는데 사용됩니다.
1. `client_name`의 선언 뒷부분에 다음을 추가합니다:
```python
client_telemetry_topic = id + '/telemetry'
```
`client_telemetry_topic`은 장치가 조명 레벨을 게시할 MQTT 항목입니다.
1. 파일 끝에 있는 `while True:` loop의 내용을 다음으로 바꿉니다:
```python
while True:
light = light_sensor.light
telemetry = json.dumps({'light' : light})
print("Sending telemetry ", telemetry)
mqtt_client.publish(client_telemetry_topic, telemetry)
time.sleep(5)
```
이 코드는 조명 레벨을 JSON 문서로 패키지하고 MQTT 브로커에 게시합니다. 그런 다음 메시지를 보내는 빈도를 줄이기 위해 sleep 합니다.
1. 과제의 이전 부분에서 돌렸던 것과 동일한 방법으로 코드를 실행합니다. 가상 IoT 장치를 사용한다면 CounterFit 앱이 실행 중이고 올바른 핀에 광 센서와 LED가 생성되었는지 확인하십시오.
```output
(.venv) ➜ nightlight python app.py
MQTT connected!
Sending telemetry {"light": 0}
Sending telemetry {"light": 0}
```
> 💁 해당 코드는 [code-telemetry/virtual-device](../code-telemetry/virtual-device) 폴더 또는 [code-telemetry/pi](../code-telemetry/pi) 폴더에서 찾으실 수 있습니다.
😀 장치에서 성공적으로 telemetry를 전송했습니다.

@ -0,0 +1,352 @@
# 위치 데이터 시각화
![A sketchnote overview of this lesson](../../../../sketchnotes/lesson-13.jpg)
> [Nitya Narasimhan](https://github.com/nitya)의 스케치 노트. 더 큰 버전을 보려면 이미지를 클릭하십시오.
이 비디오는 이번 단원에서 다룰 Azure Maps의 IoT에 대한 개요를 제공합니다.
[![Azure Maps - The Microsoft Azure Enterprise Location Platform](https://img.youtube.com/vi/P5i2GFTtb2s/0.jpg)](https://www.youtube.com/watch?v=P5i2GFTtb2s)
> 🎥 위 이미지를 클릭하면 영상을 볼 수 있습니다.
## 강의 전 퀴즈
[강의 전 퀴즈](https://black-meadow-040d15503.1.azurestaticapps.net/quiz/25)
## 개요
지난 수업에서는 서버리스 코드를 사용하여 스토리지 컨테이너의 클라우드에 저장하기 위해 센서에서 GPS 데이터를 가져오는 방법을 배웠습니다. 이제 Azure 맵에서 해당 지점을 시각화하는 방법을 알아봅니다. 웹 페이지에서 지도를 만드는 방법, GeoJSON 데이터 형식 및 이를 사용하여 지도에 캡처된 모든 GPS 지점을 표시하는 방법을 배우게 됩니다.
이 강의에서는 다음을 다룰 것입니다:
- [데이터 시각화란](#what-is-data-visualization)
- [지도 서비스](#map-services)
- [Azure Maps 리소스 만들기](#create-an-azure-maps-resource)
- [웹 페이지에 지도 표시](#show-a-map-on-a-web-page)
- [GeoJSON 형식](#the-geojson-format)
- [GeoJSON을 사용하여 지도에 GPS 데이터 표시하기](#plot-gps-data-on-a-map-using-geojson)
> 💁 This lesson will involve a small amount of HTML and JavaScript. If you would like to learn more about web development using HTML and JavaScript, check out [Web development for beginners](https://github.com/microsoft/Web-Dev-For-Beginners).
## 데이터 시각화란
데이터 시각화는 이름에서 알 수 있듯이 사람이 이해하기 쉽게 데이터를 시각화하는 것입니다. 일반적으로 차트 및 그래프와 연관되지만 사람이 데이터를 더 잘 이해할 수 있을 뿐만 아니라 의사 결정을 내리는 데 도움이 되도록 데이터를 그림으로 나타내는 모든 방법을 말합니다.
간단한 예를 들자면, 지난 농장 프로젝트에서 토양 수분 설정을 캡처했습니다. 2021년 6월 1일에 매시간 수집된 토양 수분 데이터 테이블은 다음과 같을 수 있습니다:
| Date | Reading |
| ---------------- | ------: |
| 01/06/2021 00:00 | 257 |
| 01/06/2021 01:00 | 268 |
| 01/06/2021 02:00 | 295 |
| 01/06/2021 03:00 | 305 |
| 01/06/2021 04:00 | 325 |
| 01/06/2021 05:00 | 359 |
| 01/06/2021 06:00 | 398 |
| 01/06/2021 07:00 | 410 |
| 01/06/2021 08:00 | 429 |
| 01/06/2021 09:00 | 451 |
| 01/06/2021 10:00 | 460 |
| 01/06/2021 11:00 | 452 |
| 01/06/2021 12:00 | 420 |
| 01/06/2021 13:00 | 408 |
| 01/06/2021 14:00 | 431 |
| 01/06/2021 15:00 | 462 |
| 01/06/2021 16:00 | 432 |
| 01/06/2021 17:00 | 402 |
| 01/06/2021 18:00 | 387 |
| 01/06/2021 19:00 | 360 |
| 01/06/2021 20:00 | 358 |
| 01/06/2021 21:00 | 354 |
| 01/06/2021 22:00 | 356 |
| 01/06/2021 23:00 | 362 |
인간으로서, 데이터를 이해하는 것은 어려울 수 있습니다. 이는 아무런 의미가 없는 숫자입니다. 이 데이터를 시각화하는 첫 번째 단계는 꺾은선형 차트에 그리는 것입니다:
![A line chart of the above data](../../../../images/chart-soil-moisture.png)
이는 언제 자동 급수 시스템이 토양 수분 판독값 450을 읽어 켜지는지를 나타내는 선을 추가하여 더욱 발전시킬 수 있습니다.
![A line chart of soil moisture with a line at 450](../../../../images/chart-soil-moisture-relay.png)
이 차트는 토양 수분 수준 뿐만 아니라, 급수 시스템이 켜진 지점을 매우 빠르게 보여줍니다.
차트는 데이터를 시작화하는 유일한 도구가 아닙니다. 날씨를 추적하는 IoT 장치에는 흐린 날의 구름 기호, 비 오는 날의 비구름 등과 같은 기호를 사용하여 날씨 상태를 시각화하는 웹 앱, 또는 모바일 앱이 있을 수 있습니다. 데이터를 시각화하는 방법은 무수히 많고, 진지하고 재미있는 경우도 많습니다.
✅ 시각화된 데이터를 보는 방법에 대해 생각해 보십시오. 어떤 방법이 가장 명확했고 가장 빠르게 결정을 내릴 수 있었습니까?
최고의 시각화를 통해 사람과 사람이 빠르게 의사 결정을 내릴 수 있습니다. 예를 들어 산업용 기계의 모든 판독값을 표시하는 게이지를 갖는 것은 처리하기 어렵지만 무언가 잘못되었을 때 빨간색 표시등이 깜박이면 사람이 결정을 내릴 수 있습니다. 때때로 최고의 시각화는 번쩍이는 불빛입니다!
GPS 데이터로 작업할 때 가장 명확한 시각화는 지도에 데이터를 표시하는 것입니다. 예를 들어 배달 트럭을 표시하는 지도는 가공 공장의 작업자가 트럭이 도착하는 시기를 확인하는 데 도움이 될 수 있습니다. 이 지도가 현재 위치에 있는 트럭 사진보다 더 많은 것을 보여주고 트럭의 내용물에 대한 아이디어를 제공한다면 공장의 작업자는 그에 따라 계획을 세울 수 있습니다. 만약 근처에 냉장 트럭이 보이면 냉장고에 공간을 마련해야 한다는 것을 압니다.
## 지도 서비스
지도로 작업하는 것은 흥미롭습니다. Bing Maps, Leaflet, Open Street Maps 및 Google Maps와 같이 선택할 수 있는 것이 많습니다. 이 단원에서는 [Azure Maps](https://azure.microsoft.com/services/azure-maps/?WT.mc_id=academic-17441-jabenn) 과 GPS 데이터를 표시하는 방법에 대해 알아봅니다.
![The Azure Maps logo](../../../../images/azure-maps-logo.png)
Azure Maps는 "새로운 매핑 데이터를 사용하여 웹 및 모바일 애플리케이션에 지리학적 환경을 제공하는 지리 공간 서비스 및 SDK 모음"입니다. 개발자에게는 권장 교통 경로 제공, 교통 사고에 대한 정보 제공, 실내 내비게이션, 검색 기능, 고도 정보, 날씨 서비스 등을 수행할 수 있는 아름다운 대화형 지도를 만드는 도구가 제공됩니다.
✅ [매핑 코드 샘플](https://docs.microsoft.com/samples/browse?WT.mc_id=academic-17441-jabenn&products=azure-maps) 로 실험하기
지도의 빈 캔버스, 타일, 위성 이미지, 도로가 중첩된 위성 이미지, 다양한 유형의 회색조 지도, 고도를 표시하는 음영 부조가 있는 지도, 야경 지도, 고대비 지도로 지도를 표시할 수 있습니다. [Azure Event Grid](https://azure.microsoft.com/services/event-grid/?WT.mc_id=academic-17441-jabenn)와 통합하여 지도에서 실시간 업데이트를 받을 수 있습니다. 핀치, 드래그와 클릭과 같은 이벤트에 지도가 반응할 수 있도록 다양한 제어를 활성화하여 지도의 동작과 모양을 제어할 수 있습니다. 지도의 모양을 제어하기 위해 버블, 라인, 다각형, 히트 맵 등을 포함하는 레이어를 추가할 수 있습니다. 구현하는 지도의 스타일은 선택한 SDK에 따라 다릅니다.
[REST API](https://docs.microsoft.com/javascript/api/azure-maps-rest/?WT.mc_id=academic-17441-jabenn&view=azure-maps-typescript-latest), [Web SDK](https://docs.microsoft.com/azure/azure-maps/how-to-use-map-control?WT.mc_id=academic-17441-jabenn), 모바일 어플리케이션을 만드는 경우, [Android SDK](https://docs.microsoft.com/azure/azure-maps/how-to-use-android-map-control-library?WT.mc_id=academic-17441-jabenn&pivots=programming-language-java-android)를 활용하여 Azure Maps API에 접근할 수 있습니다.
이 수업에서는 웹 SDK를 사용하여 지도와 센서의 GPS 위치 경로를 표시합니다.
## Azure Maps 리소스 만들기
첫 번째 단계는 Azure Maps 계정을 만드는 것입니다.
### 작업 - Azure Maps 리소스 만들기
1. 터미널 또는 명령 프롬프트에서 다음 명령을 실행하여 `gps-sensor` 리소스 그룹에 Azure Maps 리소스를 만듭니다:
```sh
az maps account create --name gps-sensor \
--resource-group gps-sensor \
--accept-tos \
--sku S1
```
이렇게 하면 Azure Maps의 `gps-sensor`라는 리소스가 생성됩니다. 사용 중인 계층은 `S1`으로, 다양한 기능을 포함하는 유료 계층이지만, 무료로 제공되는 부분이 있습니다.
> 💁 Azure Maps의 사용 비용을 보려면, [Azure Maps 가격 페이지](https://azure.microsoft.com/pricing/details/azure-maps/?WT.mc_id=academic-17441-jabenn)를 확인하세요.
2. 지도 리소스에 대한 API 키가 필요합니다. 이 키를 얻으려면 다음 명령어를 사용하십시오:
```sh
az maps account keys list --name gps-sensor \
--resource-group gps-sensor \
--output table
```
`PrimaryKey` 값을 복사해 놓으십시오.
## 웹 페이지에 지도 표시
이제 웹 페이지에 지도를 표시하는 다음 단계를 수행할 수 있습니다. 작은 웹 앱에 대해 하나의 `html` 파일만 사용 합니다. 상품이나 팀 환경에서는 웹 앱에 움직이는 부분이 더 많을 가능성이 높습니다!
### 작업 - 웹 페이지에 지도 표시
1. 로컬 컴퓨터의 폴더에 index.html 이라는 파일을 만듭니다. 지도를 보관할 HTML 마크업을 추가합니다:
```html
<html>
<head>
<style>
#myMap {
width: 100%;
height: 100%;
}
</style>
</head>
<body onload="init()">
<div id="myMap"></div>
</body>
</html>
```
지도에 `myMap` `div` 가 로드됩니다. 몇 가지 스타일을 사용하면 페이지의 너비와 높이를 확장할 수 있습니다.
> 🎓 `div` 는 웹 페이지의 섹션으로, 이름과 스타일을 지정할 수 있습니다.
2. 여는 `<head>` 태그 아래에, 외부 스타일시트를 추가하여 지도 표시를 제어하고, 웹 SDK의 외부 스크립트를 추가하여 해당 동작을 관리합니다:
```html
<link
rel="stylesheet"
href="https://atlas.microsoft.com/sdk/javascript/mapcontrol/2/atlas.min.css"
type="text/css"
/>
<script src="https://atlas.microsoft.com/sdk/javascript/mapcontrol/2/atlas.min.js"></script>
```
이 스타일시트에는 지도 모양에 대한 설정이 포함되어 있으며, 스크립트 파일에는 지도를 로드하는 코드가 포함되어 있습니다. 이 코드를 추가하는 것은 C++ 헤더 파일을 포함하거나 Python 모듈을 가져오는 것과 유사합니다.
3. 해당 스크립트 아래에, 스크립트 블록을 추가하여 지도를 시작합니다.
```javascript
<script type='text/javascript'>
function init() {
var map = new atlas.Map('myMap', {
center: [-122.26473, 47.73444],
zoom: 12,
authOptions: {
authType: "subscriptionKey",
subscriptionKey: "<subscription_key>",
}
});
}
</script>
```
`<subscription_key>` 를 Azure Maps 계정의 API 키로 변경합니다.
웹 브라우저에서 `index.html` 페이지를 열면, 지도가 로드되고, 시애틀 지역에 초점이 맞춰져 있어야 합니다.
![A map showing Seattle, a city in Washington State, USA](../../../../images/map-image.png)
✅ 확대/축소 및 중심 매개변수를 변경하여 지도 표시를 실험합니다. 데이터의 위도와 경도에 해당하는 다른 좌표를 추가하여 지도의 중심을 다시 맞출 수 있습니다.
> 💁 웹 앱을 로컬에서 사용하는 더 좋은 방법은 [http-server](https://www.npmjs.com/package/http-server)를 설치하는 것입니다. 이 도구를 사용하려면 [node.js](https://nodejs.org/) 와 [npm](https://www.npmjs.com/) 이 설치되어 있어야 합니다. 도구들이 설치되면 `index.html``http-server` 타입의 위치를 다룰 수 있습니다. 웹 앱은 로컬 웹 서버 [http://127.0.0.1:8080/](http://127.0.0.1:8080/)에서 열립니다.
## GeoJSON 형식
이제 지도가 표시되는 웹 앱이 준비되었으므로, 저장소 계정에서 GPS 데이터를 추출하여 지도 위에 있는 마커를 레이어에 표시해야 합니다. 그 전에 Azure Maps에 필요한 [GeoJSON](https://wikipedia.org/wiki/GeoJSON) 형식을 살펴보겠습니다.
[GeoJSON](https://geojson.org/)은 지리적 특정 데이터를 처리하도록 설계된 특수 형식의 개방형 표준 JSON 사양입니다. GeoJSON 파일을 디버깅하는 데 유용한 도구인 [geojson.io](https://geojson.io) 를 사용하여 샘플 데이터를 테스트하여 이에 대해 알아볼 수 있습니다 .
샘플 GeoJSON 데이터는 다음과 같습니다:
```json
{
"type": "FeatureCollection",
"features": [
{
"type": "Feature",
"geometry": {
"type": "Point",
"coordinates": [-2.10237979888916, 57.164918677004714]
}
}
]
}
```
특히 흥미로운 점은 데이터가 `FeatureCollection`내에 `Feature`로 중첩되는 방식입니다. 해당 객체 내에서 위도와 경도를 나타내는 `coordinates`가 있는 `geometry`를 찾을 수 있습니다.
✅ When building your geoJSON, pay attention to the order of `latitude` and `longitude` in the object, or your points will not appear where they should! GeoJSON expects data in the order `lon,lat` for points, not `lat,lon`.
`Geometry` 는 단일 점 또는 다각형과 같은 다른 유형을 가질 수 있습니다. 이 예시에서는 경도와 위도라는 두 좌표가 지정된 점입니다.
✅ Azure Maps는 표준 GeoJSON 과 원 및 기타 기하 도형을 그리는 기능을 비롯한 몇 가지 [향상된 기능들](https://docs.microsoft.com/azure/azure-maps/extend-geojson?WT.mc_id=academic-17441-jabenn) 을 제공합니다.
## GeoJSON을 사용하여 지도에 GPS 데이터 표시하기
이제 이전 학습에서 빌드한 저장소에서 데이터를 사용할 준비가 되었습니다. 참고로 Blob 저장소에 여러 파일로 저장되므로 Azure Maps에서 데이터를 사용할 수 있도록 파일을 검색하고 구문 분석해야 합니다.
### 작업 - 웹 페이지에서 액세스할 스토리지 구성
데이터를 가져오기 위해 저장소를 호출하면 브라우저 콘솔에서 발생하는 오류를 보고 놀랄 수 있습니다. 외부 웹 앱이 해당 데이터를 읽을 수 있도록 하려면 이 저장소에서 [CORS](https://developer.mozilla.org/docs/Web/HTTP/CORS) 에 대한 권한을 설정해야 하기 때문입니다.
> 🎓 CORS는 "Cross-Origin Resource Sharing"을 나타내며 일반적으로 보안상의 이유로 Azure에서 명시적으로 설정해야 합니다. 이는 데이터에 접근할 수 있는 것으로 예상하지 않는 사이트를 중지합니다.
1. 다음 명령을 실행하여 CORS를 활성화합니다:
```sh
az storage cors add --methods GET \
--origins "*" \
--services b \
--account-name <storage_name> \
--account-key <key1>
```
`<storage_name>` 을 저장소 계정의 이름으로 바꿉니다. `<key1>` 를 저장소 계정의 키로 바꿉니다.
이 명령은 모든 웹 사이트(와일드 카드 `*` 는 모두를 의미)가 저장소 계정에서 _GET_ 요청, 즉 데이터 가져오기를 수행할 수 있습니다. `--services b` 는 blobs에만 이 설정을 적용한다는 의미입니다.
### 작업 - 저장소에서 GPS 데이터 로드
1. `init` 함수의 전체 내용을 다음 코드로 변경합니다:
```javascript
fetch(
"https://<storage_name>.blob.core.windows.net/gps-data/?restype=container&comp=list"
)
.then((response) => response.text())
.then((str) => new window.DOMParser().parseFromString(str, "text/xml"))
.then((xml) => {
let blobList = Array.from(xml.querySelectorAll("Url"));
blobList.forEach(async (blobUrl) => {
loadJSON(blobUrl.innerHTML);
});
})
.then((response) => {
map = new atlas.Map("myMap", {
center: [-122.26473, 47.73444],
zoom: 14,
authOptions: {
authType: "subscriptionKey",
subscriptionKey: "<subscription_key>",
},
});
map.events.add("ready", function () {
var source = new atlas.source.DataSource();
map.sources.add(source);
map.layers.add(new atlas.layer.BubbleLayer(source));
source.add(features);
});
});
```
`<storage_name>` 를 저장소 계정의 이름으로 변경합니다. `<subscription_key>` Azure Maps 계정의 API 키로 변경합니다.
여기에서 여러 가지 일이 발생합니다. 먼저 코드는 저장소 계정 이름을 사용하여 빌드된 URL 엔드포인트를 사용하여 Blob 컨테이너에서 GPS 데이터를 가져옵니다. 이 URL은 리소스 유형이 컨테이너(`restype=container`) 임을 나타내는 `gps-data`에서 검색하고 모든 Blob 에 대한 정보를 나열합니다. 이 목록은 Blob 자체를 반환하지 않지만 Blob 데이터를 로드하는 데 사용할 수 있는 각 Blob에 대한 URL을 반환합니다.
> 💁 You can put this URL into your browser to see details of all the blobs in your container. Each item will have a `Url` property that you can also load in your browser to see the contents of the blob. 이 URL을 브라우저에 넣으면 컨테이너의 모든 Blob에 대한 세부 정보를 볼 수 있습니다. 각 항목은 Blob의 콘텐츠를 보기 위해 브라우저에 로드할 수 있는 `Url` 속성이 있습니다.
이 코드는 다음에 생성될 `loadJSON` 함수를 호출하여 각 Blob을 로드합니다. 그런 다음 지도 제어를 만들고 `ready` 이벤트에 코드를 추가합니다. 이 이벤트는 웹 페이지에 지도가 표시될 때 호출됩니다.
ready 이벤트는 나중에 채워질 GeoJSON 데이터를 포함하는 컨테이너인 Azure Maps 데이터 원본을 만듭니다. 그런 다음 이 데이터 원본을 사용하여 GeoJSON의 각 지점 중심에 있는 지도의 원 집합인 버블 레이어를 만듭니다.
2. `init` 함수 아래의 스크립트 블록에 `loadJSON` 함수를 추가합니다:
```javascript
var map, features;
function loadJSON(file) {
var xhr = new XMLHttpRequest();
features = [];
xhr.onreadystatechange = function () {
if (xhr.readyState === XMLHttpRequest.DONE) {
if (xhr.status === 200) {
gps = JSON.parse(xhr.responseText);
features.push(
new atlas.data.Feature(
new atlas.data.Point([
parseFloat(gps.gps.lon),
parseFloat(gps.gps.lat),
])
)
);
}
}
};
xhr.open("GET", file, true);
xhr.send();
}
```
이 함수는 패치(fetch) 루틴에 의해 호출되어 JSON 데이터를 구문 분석하고 경도 및 위도 좌표를 geoJSON으로 읽도록 변환됩니다. 파싱되면 데이터는 geoJSON의 `Feature`의 일부로 설정됩니다. 지도가 초기화되고 경로 주위에 작은 점들이 나타납니다.
3. 브라우저에서 HTML 페이지를 로드합니다. 지도를 로드한 다음 저장소에서 모든 GPS 데이터를 로드하고 지도에 표시합니다.
![A map of Saint Edward State Park near Seattle, with circles showing a path around the edge of the park](../../../../images/map-path.png)
> 💁 이 코드는 [코드](.././code) 폴더에서 찾을 수 있습니다.
---
## 🚀 도전
정적 데이터를 지도에 마커로 표시할 수 있다는 점이 좋습니다. 이 웹 앱에 타임스탬프가 있는 json 파일을 사용하여 애니메이션을 추가하고 시간 경과에 따른 마커의 경로를 표시할 수 있습니까? 여기 지동 애니메이션을 사용한 [일부 샘플들](https://azuremapscodesamples.azurewebsites.net/) 이 있습니다.
## 강의 후 퀴즈
[강의 후 퀴즈](https://black-meadow-040d15503.1.azurestaticapps.net/quiz/26)
## 복습 및 독학
Azure Maps은 특히 IoT 장치 작업에 유용합니다.
- [Microsoft 문서의 Azure Maps 문서](https://docs.microsoft.com/azure/azure-maps/tutorial-iot-hub-maps?WT.mc_id=academic-17441-jabenn)에서 일부 용도를 조사합니다.
- [Microsoft의 Azure Maps의 자기 학습 모듈을 사용하여 첫번째 경로 찾기 앱 만들기](https://docs.microsoft.com/learn/modules/create-your-first-app-with-azure-maps/?WT.mc_id=academic-17441-jabenn)를 통해 지도 작성 및 웨이포인트에 대한 지식을 심화하세요.
## 과제
[앱 배포](assignment.md)

@ -0,0 +1,174 @@
# 다양한 언어 지원
![A sketchnote overview of this lesson](../../../../sketchnotes/lesson-24.jpg)
> [Nitya Narasimhan](https://github.com/nitya)의 스케치 노트. 더 큰 이미지를 보려면 클릭하세요.
이 비디오는 Azure 음성 서비스에 대한 개요를 제공합니다. 이전 단원의 음성 번역 뿐만 아니라, 음성에서 텍스트, 텍스트에서 음성을 변환하는 내용과 이번 수업에서 다를 주제를 포함하고 있습니다.
[![Recognizing speech with a few lines of Python from Microsoft Build 2020](https://img.youtube.com/vi/h6xbpMPSGEA/0.jpg)](https://www.youtube.com/watch?v=h6xbpMPSGEA)
> 🎥 위 이미지를 클릭하면 영상을 볼 수 있습니다.
## 강의 전 퀴즈
[강의 전 퀴즈](https://black-meadow-040d15503.1.azurestaticapps.net/quiz/47)
## 개요
지난 3개의 강의에서 음성을 텍스트로 변환하고, 언어를 이해하고, 텍스트를 음성으로 변환하는 방법에 대해 배웠습니다. 이 모든 것이 AI 기반입니다. AI 가 도울 수 있는 인간 의사소통의 또 다른 영역은 언어 번역입니다. - 영어에서 프랑스어처럼, 한 언어에서 다른 언어로 변환하는 것입니다.
이번 수업에서는 AI를 사용하여 텍스트를 번역하여, 스마트 타이머가 여러 언어로 사용자와 상호 작용하는 방법을 배웁니다.
이 강의에서 다룰 내용용은 다음과 같습니다:
- [텍스트 번역](#translate-text)
- [번역 서비스](#translation-services)
- [번역가 리소스 만들기](#create-a-translator-resource)
- [번역을 통해 어플리케이션에서 여러 언어 지원하기](#support-multiple-languages-in-applications-with-translations)
- [AI 서비스를 사용하여 텍스트 번역하기](#translate-text-using-an-ai-service)
> 🗑 이것은 이 프로젝트의 마지막 강의이므로, 강의와 과제를 완료한 후, 클라우드 서비스를 종료하는 것을 잊지 마십시오. 과제를 완료하려면 서비스가 필요하므로, 과제를 먼저 완료해야 합니다.
>
> 이 작업을 수행하는 방법에 대한 지침이 필요한 경우 [프로젝트 종료 가이드](../../../../clean-up.md) 를 참조 하세요.
## 텍스트 번역
텍스트 번역은 70년 넘게 연구되어 온 컴퓨터 과학의 문제였는데, 이제서야 인공지능과 컴퓨터의 발전 덕분에 인간 번역가와 맞먹는 수준에 이르렀습니다.
> 💁 그 기원을 따라가보면, 언어 번역 기술을 개발한 9세기 아랍 암호학자인 [Al-Kindi](https://wikipedia.org/wiki/Al-Kindi)까지 거슬러 올라갈 수 있습니다.
### 기계 번역
텍스트 번역은 서로 다른 언어 쌍 간에 번역할 수 있는 기계번역(MT)로 알려진 기술로 시작되었습니다. MT는 한 언어의 단어를 다른 언어로 대체하고, 단어 대 단어 번역이 이해되지 않을 때, 구 또는 문장의 일부를 번역해 올바른 방법을 선택하는 기술이 추가되어 작동합니다.
> 🎓 번역가가 한 언어와 다른 언어 간의 번역을 지원하는 경우, 이를 *언어 쌍*이라고 합니다. 다른 도구는 다른 언어 쌍을 지원하며, 완전하지 않을 수 있습니다. 예를 들어, 번역가가 언어 쌍으로 영어에서 스페인어를 지원하고, 언어 쌍으로 스페인어에서 이탈리아어를 지원할 수 있지만, 영어에서 이탈리아어는 지원하지 않을 수 있습니다.
예를 들어, "Hello world"를 영어에서 프랑스어로 번역하는 것은 "Hello"를 "Bonjour"로, "world"를 "le monde"로 대체하는 것으로 수행되며, 이는 "Bonjour le monde"의 올바른 번역으로 이어집니다.
다른 언어가 동음이의어를 사용하는 경우 대체가 작동하지 않습니다. 예를 들어, 영어 문장인 "My name is Jim"은, 프랑스어로 "Je m'appelle Jim" 으로 번역됩니다. 문자 그대로 "I call myself Jim"이라는 의미입니다. 프랑스어로 "Je" 는 "I", "moi" 는 "me"를 의미하지만, 모음으로 시작하는 동사와 연결될 경우, "m'"가 됩니다. "appelle" 은 "call"을 의미하고, "Jim" 은 이름으로 번역되지 않습니다. 단어의 순서도 문제가 됩니다. "Je m'appelle Jim"를 단순히 대체하면, 영어와 다른 단어 순서로 "I myself call Jim"이 됩니다.
> 💁 어떤 단어는 번역되지 않습니다. 저를 소개하는데 어떤 언어를 사용하는지에 관계없이 제 이름은 Jim 입니다. 다른 알파벳을 사용하거나 다른 소리에 대해 다른 글자를 사용하는 언어의 경우, 단어는 _음역_ 될 수 있습니다. 이는 동일한 단어에 대해 적절한 소리를 내는 글자를 선택하는 것입니다.
관용구도 번역의 문제입니다. 이는 단어의 직역과 다른 의미를 가진 구입니다. 예를 들어, 영어 관용구 "I've got ants in my pants" 는 문자 그대로 당신의 옷에 개미가 있다는 것이 아니라, 안절부절 못하는 것을 의미합니다. 이를 독일어로 번역하면 "내 아래에 땅벌을 가지고 있다" 가 되어, 듣는 사람을 혼란스럽게 만들 것입니다.
> 💁 다른 지역성도 다른 복잡성을 추가합니다. 관용구 "ants in your pants"는, 미국 영어로 "pants" 는 겉옷을, 영국 영어로 "pants" 는 속옷을 의미합니다.
✅ 여러 언어를 사용하는 경우, 직역되지 않는 구문을 생각해 보세요.
기계 번역 시스템은 통계적 방법과 가능한 옵션에서 적절한 번역을 선택하기 위한 특정 구문과 관용구를 방법을 설명하는 대규모 규칙 데이터베이스에 의존합니다. 이러한 통계적 방법은 인간이 여러 언어로 번역한 거대한 데이터베이스를 사용하여 가장 가능성이 높은 번역을 선택하는 _통계적 기계 번역_ 이라는 기술 입니다. 이들 중 다수는 언어의 중간 표현을 사용하여, 한 언어를 중간 언어로 번역한 다음 중간 언어에서 다른 언어로 번역할 수 있습니다. 이 방법으로 더 많은 언어를 추가하려면 다른 모든 언어가 아닌 중간 언어로의 번역이 필요합니다.
### 신경망 번역
신경망 번역에는 AI를 사용하는 번역이 포함되며, 일반적으로 하나의 모델을 사용하여 전체 문장을 번역합니다. 이러한 모델은 웹 페이지, 책과 국제 문서와 같이 사람이 번역한 거대한 데이터 셋에 대해 훈련됩니다.
신경망 번역 모델은 구와 관용어의 거대한 데이터베이스가 필요하지 않기 때문에 일반적으로 기계 번역 모델보다 작습니다. 현대 AI 서비스는 통계적 기계 번역과 신경망 번역을 혼합한 여러 기술을 혼합한 번역을 제공합니다.
모든 언어 쌍에 대한 1:1 번역은 없습니다. 다른 번역 모델은, 모델 훈련 시 사용된 언어에 따라 아주 작은 차이의 결과를 생성합니다. 번역이 항상 대칭적인 것은 아닙니다. 한 언어에서 다른 언어로 문장을 번역 한 다음, 다시 처음 언어로 번역하면 결과적으로 약간 다른 문장이 나타날 있습니다.
✅ Apple 번역 앱이나 [Bing Translate](https://www.bing.com/translator), [Google Translate](https://translate.google.com)과 같은 다른 온라인 번역기를 사용해보세요. 몇 문장의 번역된 버전을 비교해보세요. 또한 번역한 것을 다시 번역해보세요.
## 번역 서비스
애플리케이션에서 음성 및 텍스트를 번역하는 데 사용할 수 있는 여러 AI 서비스가 있습니다.
### 인지 서비스 음성 서비스
![The speech service logo](../../../../images/azure-speech-logo.png)
지난 수업에서 사용한 음성 서비스에는 음성 인식을 위한 번역 기능이 있습니다. 음성을 인식하면, 음성에 대한 텍스트 뿐만 아니라 다른 언어의 텍스트를 요청할 수 있습니다.
> 💁 이것은 음성 SDK에서만 사용할 수 있으며, REST API에는 번역이 내장되어 있지 않습니다.
### 인지 서비스 번역 서비스
![The translator service logo](../../../../images/azure-translator-logo.png)
번역 서비스는 한 언어에서 하나 이상의 언어의 텍스트로 번역할 수 있는 전용 번역 서비스 입니다. 번역 뿐만 아니라 욕설을 포함한 다양한 추가 기능을 지원합니다. 또한 번역을 원하지 않는 용어나 잘 알려진 특정한 번역 같이, 특정 단어나 문장에 대해 특정 번역을 제공합니다.
예를 들어, "I have a Raspberry Pi"라는 문장을 프랑스어와 같이 다른 언어로 번역할 때, 싱글 보드 컴퓨터를 가리키는 "Raspberry Pi"라는 이름 그대로 유지하고 싶을 것입니다. 그 결과 "Jai une pi aux framboises" 대신 "Jai un Raspberry Pi"를 얻게 됩니다.
## 번역가 리소스 만들기
이 강의에서는 번역가 리소스가 필요합니다. REST API를 사용해 텍스트를 번역합니다.
### 작업 - 번역가 리소스 만들기
1. 터미널 또는 명령 프롬프트에서 다음 명령을 실행하여 `smart-timer` 리소스 그룹에 변환기 리소스를 만듭니다.
```sh
az cognitiveservices account create --name smart-timer-translator \
--resource-group smart-timer \
--kind TextTranslation \
--sku F0 \
--yes \
--location <location>
```
`<location>` 을 리소스 그룹을 생성할 때 사용한 위치로 바꿉니다.
2. 번역 서비스 key 가져오기:
```sh
az cognitiveservices account keys list --name smart-timer-translator \
--resource-group smart-timer \
--output table
```
key 중 하나를 복사하십시오.
## 애플리케이션의 번역에 여러 언어 지원하기
이상적인 세계에서, 전체 응용 프로그램은 음성 듣기, 음성 이해, 음성 응답에 이르기까지 가능한 많은 다른 언어를 이해해야 합니다. 이것은 많은 작업이므로, 번역 서비스를 사용하면 응용 프로그램에 제공되는 시간을 단축할 수 있습니다.
![A smart timer architecture translating Japanese to English, processing in English then translating back to Japanese](../../../../images/translated-smart-timer.png)
스마트 타이머를 구축한다고 생각해보십시오. 이는 전체 영어를 사용하고, 구어체 영어를 이해하여 텍스트로 변환하고, 영어로 언어 이해를 실행하고, 응답을 영어로 구축해 영어로 응답합니다. 일본어에 대한 지원을 추가하려는 경우, 일본어 음성을 영어 텍스트로 번역하는 것을 시작으로, 응용 프로그램의 핵심을 동일하게 적용합니다. 그런 다음, 응답을 말하기 전에 텍스트로 번역합니다.이렇게 하면 일본어 지원을 빠르게 추가할 수 있으며, 나중에 전체 일본어 지원을 제공하도록 확장할 수 있습니다.
> 💁 기계 번역에 의존하는 것의 단점은 언어와 문화에 따라 같은 것이라도 말하는 방식이 때문에, 번역이 예상한 표현과 일치하지 않을 수 있다는 것입니다.
또한 기계 번역은 사용자가 만든 콘텐츠를 생성할 때 번역할 수 있는 앱과 장치에 대한 가능성을 열어줍니다. 공상 과학 소설에는 주로 외계인 언어를 (일반적으로) 미국 영어로 번역할 수 있는 '범용 번역기'가 등장합니다. 이 장치는 외계인이라는 부분을 무시한다면 공상 과학이 아니라 과학 사실에 가깝습니다. 음성 및 번역 서비스의 조합을 사용하여 음성 및 서면 텍스트의 실시간 번역을 제공하는 앱과 장치가 이미 존재합니다.
이 비디오에서 시연되는 한가지 예로 [Microsoft 번역기](https://www.microsoft.com/translator/apps/?WT.mc_id=academic-17441-jabenn) 휴대폰 앱이 있습니다:
[![Microsoft Translator live feature in action](https://img.youtube.com/vi/16yAGeP2FuM/0.jpg)](https://www.youtube.com/watch?v=16yAGeP2FuM)
> 🎥 위 이미지를 클릭하면 영상을 볼 수 있습니다.
특히 여행을 가거나 당신이 모르는 언어를 사용하는 사람들과 교류할 때, 그러한 장치를 사용할 수 있다고 상상해 보십시오. 공항이나 병원에 자동 번역 장치가 있다면 접근성이 크게 향상될 것입니다.
✅ 조사해보세요: 상업적으로 사용 가능한 번역 IoT 장치가 있습니까? 스마트 기기에 내장된 번역 기능은 어떻습니까?
> 👽 외계인과 대화할 수 있는 진정한 범용 번역기는 없지만 [Microsoft 번역기는 Klingon를 지원합니다.](https://www.microsoft.com/translator/blog/2013/05/14/announcing-klingon-for-bing-translator/?WT.mc_id=academic-17441-jabenn). Qapla!
## AI 서비스를 사용해 텍스트 번역하기
AI 서비스를 사용하여 이 번역 기능을 스마트 타이머에 추가할 수 있습니다.
### 작업 - AI 서비스를 사용해 텍스트 번역하기
관련 가이드를 통해 IoT 장치에서 번역 텍스트를 변환합니다:
- [Arduino - Wio Terminal](../wio-terminal-translate-speech.md)
- [싱글 보드 컴퓨터 - Raspberry Pi](pi-translate-speech.ko.md)
- [싱글 보드 컴퓨터](../virtual-device-translate-speech.md)
---
## 🚀 도전
기계 번역이 스마트 기기 이외의 다른 IoT 애플리케이션에 어떤 이점을 제공할 수 있습니까? 말 뿐만 아니라 텍스트로도 번역이 도움이 될 수 있는 다양한 방법을 생각해 보십시오.
## 강의 후 퀴즈
[강의 후 퀴즈](https://black-meadow-040d15503.1.azurestaticapps.net/quiz/48)
## 복습 및 독학
- [Wikipedia의 기계 번역 페이지](https://wikipedia.org/wiki/Machine_translation)에서 기계 번역에 대해 자세히 알아보세요.
- [Wikipedia의 신경망 기계 번역](https://wikipedia.org/wiki/Neural_machine_translation)에서 신경망 기계 번역에 대해 자세히 알아보세요.
- [Microsoft Docs의 음성 서비스 문서에 대한 언어 및 음성 지원](https://docs.microsoft.com/azure/cognitive-services/speech-service/language-support?WT.mc_id=academic-17441-jabenn)에서 Microsoft 음성 서비스에 대해 지원되는 언어 목록을 확인하세요.
## 과제
[범용 번역기 구축하기](../assignment.md)

@ -0,0 +1,17 @@
# 범용 번역기 구축하기
## 지침
범용 번역기는 여러 언어를 번역할 수 있는 장치로, 다른 언어를 사용하는 사람들이 의사소통할 수 있도록 합니다. 지난 수업에서 배운 내용을 사용하여 2개의 IoT 장치를 사용하여 범용 번역기를 구축하십시오.
> 2개의 장치가 없는 경우, 이전 수업의 단계에 따라 가상 IoT 장치를 하나의 IoT 장치처럼 설정합니다.
하나의 언어에 대해 하나의 장치를 구성하고 다른 언어에 대해 또다른 장치 하나를 구성해야 합니다. 각각의 장치는 음성을 받아들이고, 텍스트로 변환하고, IoT Hub 와 Functions 앱을 통해 다른 장치로 보낸 다음, 그것을 번역하여 음성으로 재생합니다.
> 💁 팁: 장치에서 다른 장치로 음성을 보낼 때, 사용중인 언어도 함께 보내어 번역하기 쉽도록 합니다. 먼저 IoT Hub 와 Functions 앱을 사용하여 각 장치를 등록하고, Azure Storage에 저장히기 위해 지원하는 언어를 전달할 수도 있습니다. 그런 다음 번역을 위해 Functions 앱을 사용하고, IoT 장치로 번역된 텍스트를 전송할 수 있습니다.
## 평가 기준
| 기준 | 모범 답안 | 적절함 | 개선이 필요함 |
| ------------------ | -------------------------------------------------------------------------------------------------- | ------------------------------------------------------------------------------------------ | -------------------------------------- |
| 범용 번역기 만들기 | 한 장치에서 감지된 음성을 다른 장치에서 다른 언어로 변환되어 재생되는 범용 번역기를 구축할 수 있음 | 캡처된 음성 또는 번역과 같은 일부 구성 요소는 번역할 수 있지만, 모든 문제를 해결할 수 없음 | 범용 번역기의 어떤 부분도 만들 수 없음 |

@ -0,0 +1,112 @@
# 음성을 텍스트로 변환하기 - Raspberry Pi
이 단원에서는 음성 서비스를 사용하여 캡처한 오디오의 음성을 텍스트로 변환하는 코드를 작성합니다.
## 음성 서비스로 오디오 보내기
REST API를 사용하여 음성 서비스를 오디오로 보낼 수 있습니다. 음성 서비스를 사용하려면, 먼저 접근 토큰을 요청한 다음, 해당 토큰을 사용하여 REST API에 접근합니다. 이러한 접근 토큰은 10분 후에 만료되므로, 항상 최신의 상태인지 확인하기 위해 코드에서 정기적으로 요청해야 합니다.
### 작업 - 접근 토큰 가져오기
1. Pi에서 `smart-timer` 프로젝트를 엽니다.
2. `play_audio` 함수를 제거합니다. 스마트 타이머가 당신이 말한 것을 다시 반복하는 것을 원하지 않기 때문에 더이상 필요하지 않습니다.
3. `app.py` 파일의 맨 위에 다음 import 를 추가합니다:
```python
import requests
```
4. 음성 서비스에 대한 일부 설정을 위해 `while True` 루프 위에 다음 코드를 추가합니다:
```python
speech_api_key = '<key>'
location = '<location>'
language = '<language>'
```
`<key>` 를 음성 서비스 리소스의 API 키로 바꿉니다. `<location>` 를 음성 서비스 리소스를 만들 때 사용한 위치로 바꿉니다.
`<language>` 를 당신이 사용할 언어의 지역 이름으로 바꿉니다. 예를 들어 영어는 `en-GB`, 광둥어는 `zn-HK`로 표기합니다. 지원되는 언어 목록과 해당 지역 이름은 [Language and voice support documentation on Microsoft docs](https://docs.microsoft.com/azure/cognitive-services/speech-service/language-support?WT.mc_id=academic-17441-jabenn#speech-to-text) 에서 찾을 수 있습니다.
5. 이 아래에, 다음 함수를 추가하여 접근 토큰을 가져옵니다:
```python
def get_access_token():
headers = {
'Ocp-Apim-Subscription-Key': speech_api_key
}
token_endpoint = f'https://{location}.api.cognitive.microsoft.com/sts/v1.0/issuetoken'
response = requests.post(token_endpoint, headers=headers)
return str(response.text)
```
이것은 토큰 isuuing endpoint 를 호출해, API 키를 헤더처럼 전달합니다. 이 호출은 음성 서비스를 호출하는데 사용되는 접근 토큰을 반환합니다.
6. 이 아래에, REST API를 사용해 캡쳐된 오디오의 음성을 텍스트로 변환하는 함수를 선언합니다:
```python
def convert_speech_to_text(buffer):
```
7. 이 함수 내에서, REST API URL과 헤더를 설정합니다:
```python
url = f'https://{location}.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1'
headers = {
'Authorization': 'Bearer ' + get_access_token(),
'Content-Type': f'audio/wav; codecs=audio/pcm; samplerate={rate}',
'Accept': 'application/json;text/xml'
}
params = {
'language': language
}
```
이것은 음성 서비스 리소스의 위치를 사용하여 URL을 빌드합니다. 그런 다음 `get_access_token` 함수의 접근 토큰과 오디오 캡처에 사용되는 샘플 rate으로 헤더를 채웁니다. 마지막으로 URL과 함께 전달할 오디오의 언어가 포함된 일부 매개변수를 정의합니다.
8. 이 아래에, 다음 코드를 추가하여 REST API를 호출하고 텍스트를 다시 가져옵니다:
```python
response = requests.post(url, headers=headers, params=params, data=buffer)
response_json = response.json()
if response_json['RecognitionStatus'] == 'Success':
return response_json['DisplayText']
else:
return ''
```
이는 URL을 호출하고 응답으로 들어오는 JSON 값을 디코딩합니다. 응답의 `RecognitionStatus` 값은 호출이 성공적으로 음성을 텍스트로 추출할 수 있는지 나타냅니다. `Success`인 경우 함수는 텍스트를 반환하고 아닌 경우, 빈 문자열이 반환됩니다.
9. `while True:` 루프 위에, 음성을 텍스트로 변환하는 서비스에서 반환되는 텍스트를 처리하는 함수를 정의합니다. 이 함수는 콘솔에 텍스트를 텍스트를 콘솔에 출력합니다.
```python
def process_text(text):
print(text)
```
10. 마지막으로 `while True` 루프 안의 호출을 `play_audio``convert_speech_to_text` 함수로 바꾸고, 텍스트를 `process_text` 함수에 전달합니다:
```python
text = convert_speech_to_text(buffer)
process_text(text)
```
11. 코드를 실행합니다. 버튼을 누르고 마이크에 대고 말합니다. 완료되면 버튼을 놓고, 오디오가 텍스트로 변환되어 콘솔에 출력될 것입니다.
```output
pi@raspberrypi:~/smart-timer $ python3 app.py
Hello world.
Welcome to IoT for beginners.
```
동음이의어를 포함한, 다른 유형의 문장을 시도합니다. 예를 들어, 영어로 말할 때, 'I want to buy two bananas and an apple too' 라고 말하고, 어떻게 올바르게 사용되는지 주목하세요. two 와 too 는 소리 뿐만 아니라, 단어의 문맥에 기반합니다.
> 💁 이 코드는 [code-speech-to-text/pi](code-speech-to-text/pi) 폴더에서 찾을 수 있습니다.
😀 음성을 텍스트로 변환하는 프로그램이 성공적으로 완료되었습니다!

@ -81,30 +81,30 @@ We have two choices of IoT hardware to use for the projects depending on persona
| | Project Name | Concepts Taught | Learning Objectives | Linked Lesson |
| :---: | :------------------------------------: | :---------------------------------------------------------: | ------------------------------------------------------------------------------------------------------------------------------------------------------------------- | :--------------------------------------------------------------------------------------------------------------------------: |
| 01 | [Getting started](./1-getting-started) | Introduction to IoT | Learn the basic principles of IoT and the basic building blocks of IoT solutions such as sensors and cloud services whilst you are setting up your first IoT device | [Introduction to IoT](./1-getting-started/lessons/1-introduction-to-iot/README.md) |
| 02 | [Getting started](./1-getting-started) | A deeper dive into IoT | Learn more about the components of an IoT system, as well as microcontrollers and single-board computers | [A deeper dive into IoT](./1-getting-started/lessons/2-deeper-dive/README.md) |
| 03 | [Getting started](./1-getting-started) | Interact with the physical world with sensors and actuators | Learn about sensors to gather data from the physical world, and actuators to send feedback, whilst you build a nightlight | [Interact with the physical world with sensors and actuators](./1-getting-started/lessons/3-sensors-and-actuators/README.md) |
| 04 | [Getting started](./1-getting-started) | Connect your device to the Internet | Learn about how to connect an IoT device to the Internet to send and receive messages by connecting your nightlight to an MQTT broker | [Connect your device to the Internet](./1-getting-started/lessons/4-connect-internet/README.md) |
| 05 | [Farm](./2-farm) | Predict plant growth | Learn how to predict plant growth using temperature data captured by an IoT device | [Predict plant growth](./2-farm/lessons/1-predict-plant-growth/README.md) |
| 06 | [Farm](./2-farm) | Detect soil moisture | Learn how to detect soil moisture and calibrate a soil moisture sensor | [Detect soil moisture](./2-farm/lessons/2-detect-soil-moisture/README.md) |
| 07 | [Farm](./2-farm) | Automated plant watering | Learn how to automate and time watering using a relay and MQTT | [Automated plant watering](./2-farm/lessons/3-automated-plant-watering/README.md) |
| 08 | [Farm](./2-farm) | Migrate your plant to the cloud | Learn about the cloud and cloud-hosted IoT services and how to connect your plant to one of these instead of a public MQTT broker | [Migrate your plant to the cloud](./2-farm/lessons/4-migrate-your-plant-to-the-cloud/README.md) |
| 09 | [Farm](./2-farm) | Migrate your application logic to the cloud | Learn about how you can write application logic in the cloud that responds to IoT messages | [Migrate your application logic to the cloud](./2-farm/lessons/5-migrate-application-to-the-cloud/README.md) |
| 10 | [Farm](./2-farm) | Keep your plant secure | Learn about security with IoT and how to keep your plant secure with keys and certificates | [Keep your plant secure](./2-farm/lessons/6-keep-your-plant-secure/README.md) |
| 11 | [Transport](./3-transport) | Location tracking | Learn about GPS location tracking for IoT devices | [Location tracking](./3-transport/lessons/1-location-tracking/README.md) |
| 12 | [Transport](./3-transport) | Store location data | Learn how to store IoT data to be visualized or analysed later | [Store location data](./3-transport/lessons/2-store-location-data/README.md) |
| 13 | [Transport](./3-transport) | Visualize location data | Learn about visualizing location data on a map, and how maps represent the real 3d world in 2 dimensions | [Visualize location data](./3-transport/lessons/3-visualize-location-data/README.md) |
| 14 | [Transport](./3-transport) | Geofences | Learn about geofences, and how they can be used to alert when vehicles in the supply chain are close to their destination | [Geofences](./3-transport/lessons/4-geofences/README.md) |
| 15 | [Manufacturing](./4-manufacturing) | Train a fruit quality detector | Learn about training an image classifier in the cloud to detect fruit quality | [Train a fruit quality detector](./4-manufacturing/lessons/1-train-fruit-detector/README.md) |
| 16 | [Manufacturing](./4-manufacturing) | Check fruit quality from an IoT device | Learn about using your fruit quality detector from an IoT device | [Check fruit quality from an IoT device](./4-manufacturing/lessons/2-check-fruit-from-device/README.md) |
| 17 | [Manufacturing](./4-manufacturing) | Run your fruit detector on the edge | Learn about running your fruit detector on an IoT device on the edge | [Run your fruit detector on the edge](./4-manufacturing/lessons/3-run-fruit-detector-edge/README.md) |
| 18 | [Manufacturing](./4-manufacturing) | Trigger fruit quality detection from a sensor | Learn about triggering fruit quality detection from a sensor | [Trigger fruit quality detection from a sensor](./4-manufacturing/lessons/4-trigger-fruit-detector/README.md) |
| 19 | [Retail](./5-retail) | Train a stock detector | Learn how to use object detection to train a stock detector to count stock in a shop | [Train a stock detector](./5-retail/lessons/1-train-stock-detector/README.md) |
| 20 | [Retail](./5-retail) | Check stock from an IoT device | Learn how to check stock from an IoT device using an object detection model | [Check stock from an IoT device](./5-retail/lessons/2-check-stock-device/README.md) |
| 21 | [Consumer](./6-consumer) | Recognize speech with an IoT device | Learn how to recognize speech from an IoT device to build a smart timer | [Recognize speech with an IoT device](./6-consumer/lessons/1-speech-recognition/README.md) |
| 22 | [Consumer](./6-consumer) | Understand language | Learn how to understand sentences spoken to an IoT device | [Understand language](./6-consumer/lessons/2-language-understanding/README.md) |
| 23 | [Consumer](./6-consumer) | Set a timer and provide spoken feedback | Learn how to set a timer on an IoT device and give spoken feedback on when the timer is set and when it finishes | [Set a timer and provide spoken feedback](./6-consumer/lessons/3-spoken-feedback/README.md) |
| 24 | [Consumer](./6-consumer) | Support multiple languages | Learn how to support multiple languages, both being spoken to and the responses from your smart timer | [Support multiple languages](./6-consumer/lessons/4-multiple-language-support/README.md) |
| 01 | [Getting started](./1-getting-started/README.md) | Introduction to IoT | Learn the basic principles of IoT and the basic building blocks of IoT solutions such as sensors and cloud services whilst you are setting up your first IoT device | [Introduction to IoT](./1-getting-started/lessons/1-introduction-to-iot/README.md) |
| 02 | [Getting started](./1-getting-started/README.md) | A deeper dive into IoT | Learn more about the components of an IoT system, as well as microcontrollers and single-board computers | [A deeper dive into IoT](./1-getting-started/lessons/2-deeper-dive/README.md) |
| 03 | [Getting started](./1-getting-started/README.md) | Interact with the physical world with sensors and actuators | Learn about sensors to gather data from the physical world, and actuators to send feedback, whilst you build a nightlight | [Interact with the physical world with sensors and actuators](./1-getting-started/lessons/3-sensors-and-actuators/README.md) |
| 04 | [Getting started](./1-getting-started/README.md) | Connect your device to the Internet | Learn about how to connect an IoT device to the Internet to send and receive messages by connecting your nightlight to an MQTT broker | [Connect your device to the Internet](./1-getting-started/lessons/4-connect-internet/README.md) |
| 05 | [Farm](./2-farm/README.md) | Predict plant growth | Learn how to predict plant growth using temperature data captured by an IoT device | [Predict plant growth](./2-farm/lessons/1-predict-plant-growth/README.md) |
| 06 | [Farm](./2-farm/README.md) | Detect soil moisture | Learn how to detect soil moisture and calibrate a soil moisture sensor | [Detect soil moisture](./2-farm/lessons/2-detect-soil-moisture/README.md) |
| 07 | [Farm](./2-farm/README.md) | Automated plant watering | Learn how to automate and time watering using a relay and MQTT | [Automated plant watering](./2-farm/lessons/3-automated-plant-watering/README.md) |
| 08 | [Farm](./2-farm/README.md) | Migrate your plant to the cloud | Learn about the cloud and cloud-hosted IoT services and how to connect your plant to one of these instead of a public MQTT broker | [Migrate your plant to the cloud](./2-farm/lessons/4-migrate-your-plant-to-the-cloud/README.md) |
| 09 | [Farm](./2-farm/README.md) | Migrate your application logic to the cloud | Learn about how you can write application logic in the cloud that responds to IoT messages | [Migrate your application logic to the cloud](./2-farm/lessons/5-migrate-application-to-the-cloud/README.md) |
| 10 | [Farm](./2-farm/README.md) | Keep your plant secure | Learn about security with IoT and how to keep your plant secure with keys and certificates | [Keep your plant secure](./2-farm/lessons/6-keep-your-plant-secure/README.md) |
| 11 | [Transport](./3-transport/README.md) | Location tracking | Learn about GPS location tracking for IoT devices | [Location tracking](./3-transport/lessons/1-location-tracking/README.md) |
| 12 | [Transport](./3-transport/README.md) | Store location data | Learn how to store IoT data to be visualized or analysed later | [Store location data](./3-transport/lessons/2-store-location-data/README.md) |
| 13 | [Transport](./3-transport/README.md) | Visualize location data | Learn about visualizing location data on a map, and how maps represent the real 3d world in 2 dimensions | [Visualize location data](./3-transport/lessons/3-visualize-location-data/README.md) |
| 14 | [Transport](./3-transport/README.md) | Geofences | Learn about geofences, and how they can be used to alert when vehicles in the supply chain are close to their destination | [Geofences](./3-transport/lessons/4-geofences/README.md) |
| 15 | [Manufacturing](./4-manufacturing/README.md) | Train a fruit quality detector | Learn about training an image classifier in the cloud to detect fruit quality | [Train a fruit quality detector](./4-manufacturing/lessons/1-train-fruit-detector/README.md) |
| 16 | [Manufacturing](./4-manufacturing/README.md) | Check fruit quality from an IoT device | Learn about using your fruit quality detector from an IoT device | [Check fruit quality from an IoT device](./4-manufacturing/lessons/2-check-fruit-from-device/README.md) |
| 17 | [Manufacturing](./4-manufacturing/README.md) | Run your fruit detector on the edge | Learn about running your fruit detector on an IoT device on the edge | [Run your fruit detector on the edge](./4-manufacturing/lessons/3-run-fruit-detector-edge/README.md) |
| 18 | [Manufacturing](./4-manufacturing/README.md) | Trigger fruit quality detection from a sensor | Learn about triggering fruit quality detection from a sensor | [Trigger fruit quality detection from a sensor](./4-manufacturing/lessons/4-trigger-fruit-detector/README.md) |
| 19 | [Retail](./5-retail/README.md) | Train a stock detector | Learn how to use object detection to train a stock detector to count stock in a shop | [Train a stock detector](./5-retail/lessons/1-train-stock-detector/README.md) |
| 20 | [Retail](./5-retail/README.md) | Check stock from an IoT device | Learn how to check stock from an IoT device using an object detection model | [Check stock from an IoT device](./5-retail/lessons/2-check-stock-device/README.md) |
| 21 | [Consumer](./6-consumer/README.md) | Recognize speech with an IoT device | Learn how to recognize speech from an IoT device to build a smart timer | [Recognize speech with an IoT device](./6-consumer/lessons/1-speech-recognition/README.md) |
| 22 | [Consumer](./6-consumer/README.md) | Understand language | Learn how to understand sentences spoken to an IoT device | [Understand language](./6-consumer/lessons/2-language-understanding/README.md) |
| 23 | [Consumer](./6-consumer/README.md) | Set a timer and provide spoken feedback | Learn how to set a timer on an IoT device and give spoken feedback on when the timer is set and when it finishes | [Set a timer and provide spoken feedback](./6-consumer/lessons/3-spoken-feedback/README.md) |
| 24 | [Consumer](./6-consumer/README.md) | Support multiple languages | Learn how to support multiple languages, both being spoken to and the responses from your smart timer | [Support multiple languages](./6-consumer/lessons/4-multiple-language-support/README.md) |
## Offline access

12
package-lock.json generated

@ -1506,9 +1506,9 @@
}
},
"node_modules/minimatch": {
"version": "3.0.4",
"resolved": "https://registry.npmjs.org/minimatch/-/minimatch-3.0.4.tgz",
"integrity": "sha512-yJHVQEhyqPLUTgt9B83PXu6W3rx4MvvHvSUvToogpwoGDOUQ+yDrR0HRot+yOCdCO7u4hX3pWft6kWBBcqh0UA==",
"version": "3.1.2",
"resolved": "https://registry.npmjs.org/minimatch/-/minimatch-3.1.2.tgz",
"integrity": "sha512-J7p63hRiAjw1NDEww1W7i37+ByIrOWO5XQQAzZ3VOcL0PNybwpfmV/N05zFAzwQ9USyEcX6t3UO+K5aqBQOIHw==",
"dev": true,
"dependencies": {
"brace-expansion": "^1.1.7"
@ -3978,9 +3978,9 @@
"dev": true
},
"minimatch": {
"version": "3.0.4",
"resolved": "https://registry.npmjs.org/minimatch/-/minimatch-3.0.4.tgz",
"integrity": "sha512-yJHVQEhyqPLUTgt9B83PXu6W3rx4MvvHvSUvToogpwoGDOUQ+yDrR0HRot+yOCdCO7u4hX3pWft6kWBBcqh0UA==",
"version": "3.1.2",
"resolved": "https://registry.npmjs.org/minimatch/-/minimatch-3.1.2.tgz",
"integrity": "sha512-J7p63hRiAjw1NDEww1W7i37+ByIrOWO5XQQAzZ3VOcL0PNybwpfmV/N05zFAzwQ9USyEcX6t3UO+K5aqBQOIHw==",
"dev": true,
"requires": {
"brace-expansion": "^1.1.7"

File diff suppressed because it is too large Load Diff

@ -14,9 +14,9 @@
"vue-router": "^3.4.9"
},
"devDependencies": {
"@vue/cli-plugin-babel": "~4.5.0",
"@vue/cli-plugin-eslint": "~4.5.0",
"@vue/cli-service": "~4.5.0",
"@vue/cli-plugin-babel": "~5.0.8",
"@vue/cli-plugin-eslint": "~5.0.8",
"@vue/cli-service": "~5.0.8",
"babel-eslint": "^10.1.0",
"eslint": "^6.7.2",
"eslint-plugin-vue": "^6.2.2",

@ -0,0 +1,41 @@
# Nettoyez votre projet
Après avoir terminé chaque projet, il est bon de supprimer vos ressources cloud.
Dans les leçons de chaque projet, vous avez peut-être créé certains des éléments suivants:
* Un groupe de ressources
* Un hub IoT
* Des enregistrements d'appareils IoT
* Un compte de stockage
* Une application de fonctions
* Un compte Azure Maps
* Un projet de vision sur mesure
* Un registre de conteneurs Azure
* Une ressource de services cognitifs
La plupart de ces ressources n'auront aucun coût - soit elles sont entièrement gratuites, soit vous utilisez un plan gratuit. Pour les services qui nécessitent un plan payant, vous les auriez utilisés à un niveau inclus dans l'allocation gratuite, ou ne coûterait que quelques centimes.
Même avec des coûts relativement bas, cela vaut la peine de supprimer ces ressources lorsque vous avez terminé. Vous ne pouvez avoir qu'un seul hub IoT utilisant le plan gratuit par exemple, donc si vous souhaitez en créer un autre, vous devrez utiliser un plan payant.
Tous vos services ont été créés dans des groupes de ressources, ce qui facilite leur gestion. Vous pouvez supprimer le groupe de ressources et tous les services de ce groupe de ressources seront également supprimés.
Pour supprimer le groupe de ressources, exécutez la commande suivante dans votre terminal ou invite de commande:
```sh
az group delete --name <resource-group-name>
```
Remplacez `<resource-group-name>` par le nom du groupe de ressources qui vous est propre.
Une confirmation apparaîtra:
```output
Are you sure you want to perform this operation? (y/n):
```
Entrez `y` pour confirmer et supprimer le groupe de ressources.
Il faudra un certain temps pour supprimer tous les services.
> 💁 Vous pouvez en savoir plus sur la suppression des groupes de ressources dans la [documentation sur la suppression des groupes de ressources et des ressources Azure Resource Manager sur Microsoft Docs](https://docs.microsoft.com/azure/azure-resource-manager/management/delete-resource-group?WT.mc_id=academic-17441-jabenn&tabs=azure-cli)
Loading…
Cancel
Save