diff --git a/.gitignore b/.gitignore
index 1217dc76..b5387368 100644
--- a/.gitignore
+++ b/.gitignore
@@ -8,3 +8,4 @@
.vscode/ipch
.ipynb_checkpoints
/node_modules
+quiz-app/dist
diff --git a/1-getting-started/lessons/1-introduction-to-iot/translations/README.hi.md b/1-getting-started/lessons/1-introduction-to-iot/translations/README.hi.md
index 79b91fcd..5e4a9e63 100644
--- a/1-getting-started/lessons/1-introduction-to-iot/translations/README.hi.md
+++ b/1-getting-started/lessons/1-introduction-to-iot/translations/README.hi.md
@@ -218,5 +218,4 @@ IoT कुछ व्यापक समूहों में उपयोग
## असाइनमेंट
-[एक IoT प्रोजेक्ट की जाँच करें](assignment.md)
-
+[एक IoT प्रोजेक्ट की जाँच करें](assignment.hi.md)
\ No newline at end of file
diff --git a/1-getting-started/lessons/1-introduction-to-iot/translations/README.id.md b/1-getting-started/lessons/1-introduction-to-iot/translations/README.id.md
index 5fb3dcc2..aec9c927 100644
--- a/1-getting-started/lessons/1-introduction-to-iot/translations/README.id.md
+++ b/1-getting-started/lessons/1-introduction-to-iot/translations/README.id.md
@@ -10,7 +10,7 @@
## Pengantar
-Pelajaran ini mencakup beberapa topok pengantar mengenai Internet of Things, dan membuat Anda dapat mempersiapkan dan mengatur perangkat keras Anda.
+Pelajaran ini mencakup beberapa topik pengantar mengenai Internet of Things, dan membuat Anda dapat mempersiapkan dan mengatur perangkat keras Anda.
Dalam pelajaran ini kita akan membahas:
diff --git a/1-getting-started/lessons/1-introduction-to-iot/translations/README.zh-cn.md b/1-getting-started/lessons/1-introduction-to-iot/translations/README.zh-cn.md
index 7523b87f..d4739b2a 100644
--- a/1-getting-started/lessons/1-introduction-to-iot/translations/README.zh-cn.md
+++ b/1-getting-started/lessons/1-introduction-to-iot/translations/README.zh-cn.md
@@ -14,11 +14,11 @@
本课程将涵盖:
-* [什么是 “物联网(IoT)”?](#what-is-the-internet-of-things)
-* [IoT 设备](#iot-devices)
-* [设置你的设备](#set-up-your-device)
-* [IoT 的应用场景](#applications-of-iot)
-* [在你的周围的 IoT 设备例子](#examples-of-iot-devices-you-may-have-around-you)
+* [什么是 “物联网(IoT)”?](#什么是-物联网iot)
+* [物联网设备](#物联网设备)
+* [设置你的设备](#设置你的设备)
+* [物联网的应用场景](#物联网的应用场景)
+* [在你的周围的物联网设备例子](#在你的周围的物联网设备例子)
## 什么是 “物联网(IoT)”?
@@ -28,7 +28,7 @@
>
> **执行器** 将电信号转换成现实世界的交互,例如:触发开关,打开灯,发出声音或将控制信号传送到其它硬件,例如,打开电源插座。
-物联网作为一个技术领域,不仅是设备,它也包含云服务;这些服务能处理传感器数据,或者将请求传送给跟物联网设备有连接的执行器。它也包括没有或不需要互联网连接的设备;它们通常被称为“边缘设备(edge devices)”,而且它们有能力用基于云的AI模型自己处理与回应传感器的数据。
+物联网作为一个技术领域,不仅是设备,它也包含云服务;这些服务能处理传感器数据,或者将请求传送给跟物联网设备有连接的执行器。它也包括没有或不需要互联网连接的设备;它们通常被称为“边缘设备(edge devices)”,而且它们有能力用基于云的 AI 模型自己处理与回应传感器的数据。
物联网是一个快速发展的技术领域。专家预计到 2020 底,世界上有三百亿物联网设备部署并连接到互联网。专家也预计到 2025 年,物联网设备将收集大概 80 ZB(80 万亿 GB)的数据。这是巨量的数据!
@@ -130,7 +130,7 @@ Raspberry Pi 是其中最流行的单板机。
按照相关的指南来设置你的设备,并完成一个“Hello World”项目。我们将用 4 个课程创造一个物联网夜灯,而这是第一步。
* [Arduino:Wio Terminal](wio-terminal.zh-cn.md)
-* [单板机:Raspberry Pi](../pi.md)
+* [单板机:Raspberry Pi](pi.zh-cn.md)
* [单板机:虚拟设备](virtual-device.zh-cn.md)
您将使用 VS Code 在 Arduino 和单板机上编程。如果您以前从未使用过它,请在 [VS Code 站点](https://code.visualstudio.com/?WT.mc_id=academic-17441-jabenn)上阅读更多相关信息。
diff --git a/1-getting-started/lessons/1-introduction-to-iot/translations/Assignment.hi.md b/1-getting-started/lessons/1-introduction-to-iot/translations/assignment.hi.md
similarity index 100%
rename from 1-getting-started/lessons/1-introduction-to-iot/translations/Assignment.hi.md
rename to 1-getting-started/lessons/1-introduction-to-iot/translations/assignment.hi.md
diff --git a/1-getting-started/lessons/1-introduction-to-iot/translations/virtual-device.pt.md b/1-getting-started/lessons/1-introduction-to-iot/translations/virtual-device.pt.md
index cf970634..e041e696 100644
--- a/1-getting-started/lessons/1-introduction-to-iot/translations/virtual-device.pt.md
+++ b/1-getting-started/lessons/1-introduction-to-iot/translations/virtual-device.pt.md
@@ -177,7 +177,7 @@ Como uma segunda etapa 'Hello World', você executará o aplicativo CounterFit e
1. A partir do terminal do VS Code, inicie o aplicativo CounterFit com o seguinte comando:
```sh
- CounterFit
+ counterfit
```
O aplicativo começará a funcionar e abrir no seu navegador da web:
@@ -193,7 +193,7 @@ Como uma segunda etapa 'Hello World', você executará o aplicativo CounterFit e
CounterFitConnection.init('127.0.0.1', 5000)
```
- Este código importa a classe `CounterFitConnection` do módulo` counterfit_connection`, que vem do pacote pip `counterfit-connection` que você instalou anteriormente. Em seguida, ele inicializa uma conexão com o aplicativo CounterFit em execução em `127.0.0.1`, que é um endereço IP que você sempre pode usar para acessar seu computador local (muitas vezes referido como *localhost*), na porta 5000.
+ Este código importa a classe `CounterFitConnection` do módulo `counterfit_connection`, que vem do pacote pip `counterfit-connection` que você instalou anteriormente. Em seguida, ele inicializa uma conexão com o aplicativo CounterFit em execução em `127.0.0.1`, que é um endereço IP que você sempre pode usar para acessar seu computador local (muitas vezes referido como *localhost*), na porta 5000.
> 💁 Se você tiver outros aplicativos em execução na porta 5000, pode alterar isso atualizando a porta no código e executando o CounterFit usando `CounterFit --port `, substituindo `` pela porta que deseja usar.
@@ -207,4 +207,4 @@ Como uma segunda etapa 'Hello World', você executará o aplicativo CounterFit e
> 💁 Você pode encontrar este código na pasta [code/virtual-device](../code/virtual-device).
-😀 Sua conexão com o hardware foi um sucesso!
\ No newline at end of file
+😀 Sua conexão com o hardware foi um sucesso!
diff --git a/1-getting-started/lessons/1-introduction-to-iot/translations/virtual-device.zh-cn.md b/1-getting-started/lessons/1-introduction-to-iot/translations/virtual-device.zh-cn.md
index f7eff393..5ab1989a 100644
--- a/1-getting-started/lessons/1-introduction-to-iot/translations/virtual-device.zh-cn.md
+++ b/1-getting-started/lessons/1-introduction-to-iot/translations/virtual-device.zh-cn.md
@@ -177,7 +177,7 @@ Python 的强大功能之一是能够安装 [pip 软件包](https://pypi.org);
1. 从 VS Code 终端,用以下的命令启动 CounterFit 应用:
```sh
- CounterFit
+ counterfit
```
应用将开始运行以及在你的网页浏览器打开:
diff --git a/1-getting-started/lessons/1-introduction-to-iot/virtual-device.md b/1-getting-started/lessons/1-introduction-to-iot/virtual-device.md
index 40f57d5c..4b6e8d33 100644
--- a/1-getting-started/lessons/1-introduction-to-iot/virtual-device.md
+++ b/1-getting-started/lessons/1-introduction-to-iot/virtual-device.md
@@ -188,7 +188,7 @@ As a second 'Hello World' step, you will run the CounterFit app and connect your
1. From the VS Code terminal, launch the CounterFit app with the following command:
```sh
- CounterFit
+ counterfit
```
The app will start running and open in your web browser:
diff --git a/1-getting-started/lessons/1-introduction-to-iot/wio-terminal.md b/1-getting-started/lessons/1-introduction-to-iot/wio-terminal.md
index 71c9cce3..15368740 100644
--- a/1-getting-started/lessons/1-introduction-to-iot/wio-terminal.md
+++ b/1-getting-started/lessons/1-introduction-to-iot/wio-terminal.md
@@ -154,6 +154,16 @@ Write the Hello World app.
The `loop` function sends the line `Hello World!` to the serial port, so the characters of `Hello World!` along with a new line character. It then sleeps for 5,000 milliseconds or 5 seconds. After the `loop` ends, it is run again, and again, and so on all the time the microcontroller is powered on.
+1. Put your Wio Terminal into upload mode. You will need to do this every time you upload new code to the device:
+
+ 1. Pull down twice quickly on the power switch - it will spring back to the on position each time.
+
+ 1. Check the blue status LED to the right hand side of the USB port. It should be pulsing.
+
+ [](https://youtu.be/LeKU_7zLRrQ)
+
+ Click the image above for a video showing how to do this.
+
1. Build and upload the code to the Wio Terminal
1. Open the VS Code command palette
@@ -168,7 +178,7 @@ Write the Hello World app.
> 💁 If you are using macOS, a notification about a *DISK NOT EJECTED PROPERLY* will appear. This is because the Wio Terminal gets mounted as a drive as part of the flashing process, and it is disconnected when the compiled code is written to the device. You can ignore this notification.
- ⚠️ If you get errors about the upload port being unavailable, first make sure you have the Wio Terminal connected to your computer, and switched on using the switch on the left hand side of the screen. The green light on the bottom should be on. If you still get the error, pull the on/off switch down twice in quick succession to force the Wio Terminal into bootloader mode and try the upload again.
+ ⚠️ If you get errors about the upload port being unavailable, first make sure you have the Wio Terminal connected to your computer, and switched on using the switch on the left hand side of the screen, and set into upload mode. The green light on the bottom should be on, and the blue light should be pulsing. If you still get the error, pull the on/off switch down twice in quick succession again to force the Wio Terminal into upload mode and try the upload again.
PlatformIO has a Serial Monitor that can monitor data sent over the USB cable from the Wio Terminal. This allows you to monitor the data sent by the `Serial.println("Hello World");` command.
diff --git a/1-getting-started/lessons/3-sensors-and-actuators/pi-actuator.md b/1-getting-started/lessons/3-sensors-and-actuators/pi-actuator.md
index 78e78cc6..745ca899 100644
--- a/1-getting-started/lessons/3-sensors-and-actuators/pi-actuator.md
+++ b/1-getting-started/lessons/3-sensors-and-actuators/pi-actuator.md
@@ -85,7 +85,7 @@ Program the nightlight.
> 💁 This code should be indented to the same level as the `print('Light level:', light)` line to be inside the while loop!
- > 💁 When sending digital values to actuators, a 0 value is 0v, and a 1 value is the max voltage for the device. For the Raspberry Pi with Grove sensors and actuators, the 1 voltage is 3.3V.
+ > 💁 When sending digital values to actuators, a 0 value is 0V, and a 1 value is the max voltage for the device. For the Raspberry Pi with Grove sensors and actuators, the 1 voltage is 3.3V.
1. From the VS Code Terminal, run the following to run your Python app:
diff --git a/1-getting-started/lessons/3-sensors-and-actuators/translations/pi-actuator.hi.md b/1-getting-started/lessons/3-sensors-and-actuators/translations/pi-actuator.hi.md
index 55e747a0..73f52e2c 100644
--- a/1-getting-started/lessons/3-sensors-and-actuators/translations/pi-actuator.hi.md
+++ b/1-getting-started/lessons/3-sensors-and-actuators/translations/pi-actuator.hi.md
@@ -85,7 +85,7 @@
> 💁 इस कोड को `print('Light level:', light)` लाइन के समान स्तर पर इंडेंट किया जाना चाहिए, while loop के अंदर होना चाहिए!
- > 💁 एक्ट्यूएटर्स को डिजिटल मान भेजते समय, 0 मान 0v होता है, और 1 मान डिवाइस के लिए अधिकतम वोल्टेज होता है। ग्रोव सेंसर और एक्चुएटर्स के साथ रास्पबेरी पाई के लिए, 1 वोल्टेज 3.3V है।
+ > 💁 एक्ट्यूएटर्स को डिजिटल मान भेजते समय, 0 मान 0V होता है, और 1 मान डिवाइस के लिए अधिकतम वोल्टेज होता है। ग्रोव सेंसर और एक्चुएटर्स के साथ रास्पबेरी पाई के लिए, 1 वोल्टेज 3.3V है।
1. वीएस कोड टर्मिनल से, अपना पायथन ऐप चलाने के लिए निम्नलिखित चलाएँ:
diff --git a/1-getting-started/lessons/3-sensors-and-actuators/translations/pi-actuator.zh-cn.md b/1-getting-started/lessons/3-sensors-and-actuators/translations/pi-actuator.zh-cn.md
index 24b8541e..98207602 100644
--- a/1-getting-started/lessons/3-sensors-and-actuators/translations/pi-actuator.zh-cn.md
+++ b/1-getting-started/lessons/3-sensors-and-actuators/translations/pi-actuator.zh-cn.md
@@ -1,50 +1,50 @@
# 开发一个夜灯 - 树莓派
-在这个部分的课程中,你会把一个LED加到树莓派上并使用它来创建一个夜灯。
+在这个部分的课程中,你会把一个 LED 加到树莓派上并使用它来创建一个夜灯。
## 硬件
现在夜灯需要一个执行器。
-这个执行器是**LED**,一个[发光二极管](https://wikipedia.org/wiki/Light-emitting_diode),当电流通过它时会发光。这是一个有两个打开或者关闭状态的数字执行器,发送一个1值把灯打开,发送0把灯关闭。这个LED是一个外部Grove执行器,而且需要被连接到树莓派上的Grove基础扩展板。
+这个执行器是 **LED**,一个[发光二极管](https://wikipedia.org/wiki/Light-emitting_diode),当电流通过它时会发光。这是一个有两个打开或者关闭状态的数字执行器,发送一个 1 值把灯打开,发送 0 值把灯关闭。这个 LED 是一个外部 Grove 执行器,而且需要被连接到树莓派上的 Grove 基础扩展板。
这个夜灯的逻辑用伪代码表示是:
```output
检查光照等级。
-如果光照小于300
- 打开LED
+如果光照小于 300
+ 打开 LED
否则
- 关闭LED
+ 关闭 LED
```
-### 连接LED
+### 连接 LED
-Grove LED 作为一个模块出现,以及一系列可供你选择颜色的LED。
+Grove LED 作为一个模块出现,以及一系列可供你选择颜色的 LED。
-#### 任务 - 连接LED
+#### 任务 - 连接 LED
-连接LED。
+连接 LED。

-1. 选择你最喜欢的LED然后把引脚插到LED模块的两个洞里面。
+1. 选择你最喜欢的 LED 然后把引脚插到 LED 模块的两个洞里面。
- LED是发光二极管,而且二极管是只允许电流单个方向通过的电子设备。这意味LED需要被连接在正确的方向,不然就不会工作。
+ LED 是发光二极管,而且二极管是只允许电流单个方向通过的电子设备。这意味 LED 需要被连接在正确的方向,不然就不会工作。
- LED引脚中的一个是正极引脚,另一个是负极引脚。LED不是完全的圆形,而且在一边是有些平的。这略平的一边是负极引脚。当你连接LED到这个模块的时候,需要确保圆形这边的引脚是连接到模块上外边标着 **+** 的插孔,而扁平的这边是连接到靠近模块中间的插孔。
+ LED 引脚中的一个是正极引脚,另一个是负极引脚。LED 不是完全的圆形,而且在一边是有些平的。这略平的一边是负极引脚。当你连接 LED 到这个模块的时候,需要确保圆形这边的引脚是连接到模块上外边标着 **+** 的插孔,而扁平的这边是连接到靠近模块中间的插孔。
-1. LED模块有一个允许你控制亮度的旋转按钮,用一个小十字螺丝起子逆时针旋转它拧到头来完全打开它。
+1. LED 模块有一个允许你控制亮度的旋转按钮,用一个小十字螺丝起子逆时针旋转它拧到头来完全打开它。
-1. 把Grove线缆的一端插到LED模块的插孔中,这个只能从一个方向插入。
+1. 把 Grove 线缆的一端插到 LED 模块的插孔中,这个只能从一个方向插入。
-1. 在树莓派断电的情况下,把Grove线缆的另一端连接到树莓派上插着的Grove基础扩展板标着 **D5** 的数字插孔。这个插孔在靠近GPIO引脚的一排,左数第二个。
+1. 在树莓派断电的情况下,把 Grove 线缆的另一端连接到树莓派上插着的 Grove 基础扩展板标着 **D5** 的数字插孔。这个插孔在靠近 GPIO 引脚的一排,左数第二个。

## 编写夜灯程序
-现在夜灯可以用Grove光照传感器和Grove LED来编码了。
+现在夜灯可以用 Grove 光照传感器和 Grove LED 来编码了。
### 任务 - 编写夜灯程序
@@ -52,26 +52,26 @@ Grove LED 作为一个模块出现,以及一系列可供你选择颜色的LED
1. 打开树莓派并等待启动完成。
-1. 直接在树莓派上或者通过远程SSH扩展,打开你在这个作业上一部分创建的VS Code中的夜灯项目。
+1. 直接在树莓派上或者通过远程 SSH 扩展,打开你在这个作业上一部分创建的 VS Code 中的夜灯项目。
-1. 把下面的代码加到`app.py`文件中来导入一个需要的函数库。这一行需要加在文件顶部,在其他`import`代码行下面。
+1. 把下面的代码加到 `app.py` 文件中来导入一个需要的函数库。这一行需要加在文件顶部,在其他 `import` 代码行下面。
```python
from grove.grove_led import GroveLed
```
- `from grove.grove_led import GroveLed`语句从Grove Python函数库中导入了`GroveLED`。这个函数库中有和Grove LED交互的代码。
+ `from grove.grove_led import GroveLed` 语句从 Grove Python 函数库中导入了 `GroveLED`。这个函数库中有和 Grove LED 交互的代码。
-1. 把下面的代码加到`light_sensor`声明之后来创建一个管理LED的类的实例:
+1. 把下面的代码加到 `light_sensor` 声明之后来创建一个管理 LED 的类的实例:
```python
led = GroveLed(5)
```
- `led = GroveLed(5)`这一行创建了一个连接到 **D5** 引脚的`GroveLED`类的实例,**D5** 也就是LED连接的那个数字Grove引脚。
+ `led = GroveLed(5)` 这一行创建了一个连接到 **D5** 引脚的 `GroveLED` 类的实例,**D5** 也就是 LED 连接的那个数字 Grove 引脚。
- > 💁 所有的插孔都有唯一的引脚号,引脚0、2、4和6是模拟引脚,引脚5、16、18、22、24和26是数字引脚。
+ > 💁 所有的插孔都有唯一的引脚号,引脚 0、2、4 和 6 是模拟引脚,引脚 5、16、18、22、24 和 26 是数字引脚。
-1. 在`while`循环中增加一个判断,在`time.sleep`之前来检查光照等级并控制LED打开或者关闭:
+1. 在 `while` 循环中增加一个判断,在 `time.sleep` 之前来检查光照等级并控制 LED 打开或者关闭:
```python
if light < 300:
@@ -80,13 +80,13 @@ Grove LED 作为一个模块出现,以及一系列可供你选择颜色的LED
led.off()
```
- 这块代码检查了`light`的值,如果小于300就调用`GroveLED`类的`on`方法,来发送一个数字值1到LED,把它点亮。如果`light`值大于或等于300,就调用`off`方法,发送一个数字值0给LED,把它关闭。
+ 这块代码检查了 `light` 的值,如果小于 300 就调用 `GroveLED` 类的 `on` 方法,来发送一个数字值 1 到 LED,把它点亮。如果 `light` 值大于或等于 300,就调用 `off` 方法,发送一个数字值 0 给 LED,把它关闭。
- > 💁 这段代码需要放到while循环里面,缩进到和`print('Light level:', light)`行一个水平。
+ > 💁 这段代码需要放到 while 循环里面,缩进到和 `print('Light level:', light)` 行一个水平。
- > 💁 当发送数字值到执行器的时候,0值就是0v,1值就是设备的最大电压。对于插着Grove传感器和执行器的树莓派而言,1的电压就是3.3V。
+ > 💁 当发送数字值到执行器的时候,0 值就是 0V,1 值就是设备的最大电压。对于插着 Grove 传感器和执行器的树莓派而言,1 的电压就是 3.3V。
-1. 从VS Code终端,运行下面的命令来运行你的Python应用:
+1. 从 VS Code 终端,运行下面的命令来运行你的 Python 应用:
```sh
python3 app.py
@@ -104,12 +104,12 @@ Grove LED 作为一个模块出现,以及一系列可供你选择颜色的LED
Light level: 290
```
-1. 遮挡和揭开光照传感器,会观察到光照等级等于300或更小时LED会点亮,如果光照等级比300大LED就会关闭。
+1. 遮挡和揭开光照传感器,会观察到光照等级等于 300 或更小时 LED 会点亮,如果光照等级比 300 大 LED 就会关闭。
- > 💁 如果LED没有点亮,确保它是正确方向连接的,而且旋转按钮是设置成全开的。
+ > 💁 如果 LED 没有点亮,确保它是正确方向连接的,而且旋转按钮是设置成全开的。

-> 💁 你可以在[code-actuator/pi](../code-actuator/pi)文件夹里找到这份代码。
+> 💁 你可以在 [code-actuator/pi](../code-actuator/pi) 文件夹里找到这份代码。
😀 你的夜灯程序就成功了!
diff --git a/1-getting-started/lessons/3-sensors-and-actuators/translations/pi-sensor.zh-cn.md b/1-getting-started/lessons/3-sensors-and-actuators/translations/pi-sensor.zh-cn.md
index 12d85e52..4c808af2 100644
--- a/1-getting-started/lessons/3-sensors-and-actuators/translations/pi-sensor.zh-cn.md
+++ b/1-getting-started/lessons/3-sensors-and-actuators/translations/pi-sensor.zh-cn.md
@@ -4,13 +4,13 @@
## 硬件
-这节课程的传感器是使用[光电二极管](https://wikipedia.org/wiki/Photodiode)来把光照转化为电子信号的光照传感器。这是一个发送从0到1,000整数值的模拟传感器,表示光照值的相对量而不对应任何比如[勒克斯(lux)](https://wikipedia.org/wiki/Lux)的标准计量单位。
+这节课程的传感器是使用[光电二极管](https://wikipedia.org/wiki/Photodiode)来把光照转化为电子信号的光照传感器。这是一个发送从 0 到 1,000 整数值的模拟传感器,表示光照值的相对量而不对应任何比如[勒克斯(lux)](https://wikipedia.org/wiki/Lux)的标准计量单位。
-这个光照传感器是一个外部Grove传感器,需要被连接到树莓派上的Grove基础扩展板。
+这个光照传感器是一个外部 Grove 传感器,需要被连接到树莓派上的 Grove 基础扩展板。
### 连接光照传感器
-用来检测光照等级的Grove光照传感器需要被连接到树莓派上。
+用来检测光照等级的 Grove 光照传感器需要被连接到树莓派上。
#### 任务 - 连接光照传感器
@@ -18,15 +18,15 @@

-1. 把Grove线缆的一端插到光照传感器模块的插孔中,这个只能从一个方向插入。
+1. 把 Grove 线缆的一端插到光照传感器模块的插孔中,这个只能从一个方向插入。
-1. 在树莓派断电的情况下,把Grove线缆的另一端连接到树莓派上插着的Grove基础扩展板标着 **A0** 的模拟插孔。这个插孔在靠近GPIO引脚的一排,右数第二个。
+1. 在树莓派断电的情况下,把 Grove 线缆的另一端连接到树莓派上插着的 Grove 基础扩展板标着 **A0** 的模拟插孔。这个插孔在靠近 GPIO 引脚的一排,右数第二个。
-
+
## 编写光照传感器程序
-现在设备可以用Grove光照传感器来编码了。
+现在设备可以用 Grove 光照传感器来编码了。
### 任务 - 编写光照传感器程序
@@ -34,30 +34,30 @@
1. 打开树莓派并等待启动完成。
-1. 直接在树莓派上或者通过远程SSH扩展,打开你在这个作业上一部分创建的VS Code中的夜灯项目。
+1. 直接在树莓派上或者通过远程SSH扩展,打开你在这个作业上一部分创建的 VS Code 中的夜灯项目。
-1. 打开`app.py`文件并删除里面的所有代码。
+1. 打开 `app.py` 文件并删除里面的所有代码。
-1. 把下面的代码加到`app.py`文件中来导入一些需要的函数库:
+1. 把下面的代码加到 `app.py` 文件中来导入一些需要的函数库:
```python
import time
from grove.grove_light_sensor_v1_2 import GroveLightSensor
```
- `import time`语句导入了`time`模块,在这个作业的后面会用到这个模块。
-
- `from grove.grove_light_sensor_v1_2 import GroveLightSensor`语句从Grove Python函数库导入了 `GroveLightSensor`。这个函数库里有和Grove光照传感器交互的代码,在设置树莓派的时候就已经全局安装了。
+ `import time` 语句导入了 `time` 模块,在这个作业的后面会用到这个模块。
+ `from grove.grove_light_sensor_v1_2 import GroveLightSensor` 语句从 Grove Python 函数库导入了 `GroveLightSensor`。这个函数库里有和 Grove 光照传感器交互的代码,在设置树莓派的时候就已经全局安装了。
+
1. 在上面代码的后面增加下面的代码来创建一个管理光照传感器的类的实例:
```python
light_sensor = GroveLightSensor(0)
```
- `light_sensor = GroveLightSensor(0)`这一行创建了一个连接到 **A0** 引脚的`GroveLightSensor`类的实例,**A0** 也就是光照传感器连接的那个引脚。
-
-1. 在上面的代码后面增加一个无限循环代码来获取光照传感器数值并打印到终端:
+ `light_sensor = GroveLightSensor(0)` 这一行创建了一个连接到 **A0** 引脚的 `GroveLightSensor` 类的实例,**A0** 也就是光照传感器连接的那个引脚。
+
+1. 在上面的代码后面增加一段无限循环代码,来获取光照传感器数值并打印到终端:
```python
while True:
@@ -65,15 +65,15 @@
print('Light level:', light)
```
- 使用`GroveLightSensor`类的`light`属性可以来获取 0-1023 的当前光照等级值,这个属性从引脚读取模拟量,然后这个值会被打印到终端。
-
-1. 在`loop`的结尾增加一个1秒的短暂休眠,因为光照等级不需要一直不断地读取。一个休眠可以减少设备的能源消耗。
+ 使用 `GroveLightSensor` 类的 `light` 属性可以来获取 0-1023 的当前光照等级值,这个属性从引脚读取模拟量,然后这个值会被打印到终端。
+
+1. 在 `loop` 的结尾增加一个 1 秒的短暂休眠,因为光照等级不需要一直不断地读取。一个休眠可以减少设备的能源消耗。
```python
time.sleep(1)
```
-
-1. 从VS Code终端,运行下面的命令来运行你的Python应用:
+
+1. 从 VS Code 终端,运行下面的命令来运行你的 Python 应用:
```sh
python3 app.py
@@ -91,6 +91,6 @@
Light level: 290
```
-> 💁 你可以在[code-sensor/pi](../code-sensor/pi)文件夹找到这份代码。
+> 💁 你可以在 [code-sensor/pi](../code-sensor/pi) 文件夹找到这份代码。
-😀 给你的夜灯增加一个传感器程序就成功了!
\ No newline at end of file
+😀 给你的夜灯增加一个传感器程序就成功了!
diff --git a/1-getting-started/Translations/README.ar.md b/1-getting-started/translations/README.ar.md
similarity index 96%
rename from 1-getting-started/Translations/README.ar.md
rename to 1-getting-started/translations/README.ar.md
index a0696388..e9f8068a 100644
--- a/1-getting-started/Translations/README.ar.md
+++ b/1-getting-started/translations/README.ar.md
@@ -13,4 +13,4 @@
#
الاعتمادات
- [Jim Bennett](https://GitHub.com/JimBobBennett) كتبت جميع الدروس مع ♥️ من قبل
\ No newline at end of file
+ [Jim Bennett](https://GitHub.com/JimBobBennett) كتبت جميع الدروس مع ♥️ من قبل
diff --git a/1-getting-started/Translations/README.bn.md b/1-getting-started/translations/README.bn.md
similarity index 100%
rename from 1-getting-started/Translations/README.bn.md
rename to 1-getting-started/translations/README.bn.md
diff --git a/1-getting-started/Translations/README.es.md b/1-getting-started/translations/README.es.md
similarity index 100%
rename from 1-getting-started/Translations/README.es.md
rename to 1-getting-started/translations/README.es.md
diff --git a/1-getting-started/Translations/README.hi.md b/1-getting-started/translations/README.hi.md
similarity index 100%
rename from 1-getting-started/Translations/README.hi.md
rename to 1-getting-started/translations/README.hi.md
diff --git a/1-getting-started/Translations/README.id.md b/1-getting-started/translations/README.id.md
similarity index 87%
rename from 1-getting-started/Translations/README.id.md
rename to 1-getting-started/translations/README.id.md
index 438bdaad..cd827385 100644
--- a/1-getting-started/Translations/README.id.md
+++ b/1-getting-started/translations/README.id.md
@@ -1,6 +1,6 @@
# Memulai dengan IoT
-Pada bagian ini, Anda akan diperkenalkan dengan Internet of Things, dan mempelajari konsep dasar termasuk membangung proyek IoT 'Hello World' pertama Anda yang terhubung ke *cloud*. Proyek ini merupakan lampu malam yang akan menyala saat tingkat pencahayaan diukur dengan penurunan sensor. This project is a nightlight that lights up as light levels measured by a sensor drop.
+Pada bagian ini, Anda akan diperkenalkan dengan Internet of Things, dan mempelajari konsep dasar termasuk membangung proyek IoT 'Hello World' pertama Anda yang terhubung ke *cloud*. Proyek ini merupakan lampu malam yang akan menyala saat tingkat pencahayaan diukur dengan penurunan sensor.

diff --git a/1-getting-started/Translations/README.ja.md b/1-getting-started/translations/README.ja.md
similarity index 100%
rename from 1-getting-started/Translations/README.ja.md
rename to 1-getting-started/translations/README.ja.md
diff --git a/1-getting-started/Translations/README.pt.md b/1-getting-started/translations/README.pt.md
similarity index 100%
rename from 1-getting-started/Translations/README.pt.md
rename to 1-getting-started/translations/README.pt.md
diff --git a/1-getting-started/Translations/README.zh-cn.md b/1-getting-started/translations/README.zh-cn.md
similarity index 100%
rename from 1-getting-started/Translations/README.zh-cn.md
rename to 1-getting-started/translations/README.zh-cn.md
diff --git a/1-getting-started/Translations/wio-running-assignment-1-1.gif b/1-getting-started/translations/wio-running-assignment-1-1.gif
similarity index 100%
rename from 1-getting-started/Translations/wio-running-assignment-1-1.gif
rename to 1-getting-started/translations/wio-running-assignment-1-1.gif
diff --git a/2-farm/lessons/1-predict-plant-growth/code-server/temperature-sensor-server/app.py b/2-farm/lessons/1-predict-plant-growth/code-server/temperature-sensor-server/app.py
index 697984b8..7a4d11ff 100644
--- a/2-farm/lessons/1-predict-plant-growth/code-server/temperature-sensor-server/app.py
+++ b/2-farm/lessons/1-predict-plant-growth/code-server/temperature-sensor-server/app.py
@@ -5,7 +5,7 @@ import paho.mqtt.client as mqtt
from os import path
import csv
-import datetime
+from datetime import datetime
id = ''
diff --git a/2-farm/lessons/1-predict-plant-growth/translations/README.fr.md b/2-farm/lessons/1-predict-plant-growth/translations/README.fr.md
new file mode 100644
index 00000000..2efa34c4
--- /dev/null
+++ b/2-farm/lessons/1-predict-plant-growth/translations/README.fr.md
@@ -0,0 +1,270 @@
+# Anticiper la croissance de ses plantes avec l'IoT
+
+
+
+> Illustré par [Nitya Narasimhan](https://github.com/nitya). Click the image for a larger version.
+
+## Questionnaire de prélecture
+
+[Questionnaire de prélecture](https://brave-island-0b7c7f50f.azurestaticapps.net/quiz/9)
+
+## Introduction
+
+Les plantes ont besoin de certaines choses pour pousser : de l'eau, du dioxyde de carbone, des nutriments, de la lumière et de la chaleur. Dans cette leçon, vous apprendrez à calculer les taux de croissance et de maturité des plantes en mesurant la température de l'air.
+
+Dans cette leçon, nous allons couvrir :
+
+* [Agriculture digitale](#agriculture-digitale)
+* [L'importance de la température dans l'agriculture](#l'importance-de-la-température-dans-l'agriculture)
+* [La mesure de la température ambiante](#la-mesure-de-la-température-ambiante)
+* [Degrés jours de croissance (DJC)](#degrés-jours-de-croissance)
+* [Calcul du DJC à l'aide de données de senseurs](#calcul-du-DJC-à-l'aide-de-données-de-senseurs)
+
+## Agriculture digitale
+
+L'agriculture numérique transforme notre façon de cultiver, en utilisant des outils pour collecter, stocker et analyser les données issues de l'agriculture. Nous sommes actuellement dans une période décrite comme la "quatrième révolution industrielle" par le Forum économique mondial, et l'essor de l'agriculture numérique a été qualifié de "quatrième révolution agricole", ou "agriculture 4.0".
+
+> 🎓 Le terme "agriculture numérique" englobe également l'ensemble de la "chaîne de valeur agricole", c'est-à-dire tout le parcours de la ferme à la table. Cela inclut le suivi de la qualité des produits lors de leur expédition et de leur transformation, les systèmes d'entreposage et de commerce électronique, et même les applications de location de tracteurs !
+
+Ces changements permettent aux agriculteurs d'augmenter leurs rendements, d'utiliser moins d'engrais et de pesticides et d'arroser plus efficacement. Bien qu'ils soient principalement utilisés dans les pays riches, le prix des capteurs et autres dispositifs diminue lentement, ce qui les rend plus accessibles dans les pays en développement.
+
+Certaines techniques rendues possibles par l'agriculture numérique sont :
+
+* Mesure de la température - la mesure de la température permet aux agriculteurs de prévoir la croissance et la maturité des plantes.
+* L'arrosage automatisé - il s'agit de mesurer l'humidité du sol et de mettre en marche les systèmes d'irrigation lorsque le sol est trop sec, plutôt que de procéder à un arrosage programmé. L'arrosage programmé peut conduire à un arrosage insuffisant des cultures pendant une période chaude et sèche, ou à un arrosage excessif en cas de pluie. En n'arrosant que lorsque le sol en a besoin, les agriculteurs peuvent optimiser leur utilisation de l'eau.
+* Lutte contre les ravageurs - les agriculteurs peuvent utiliser des caméras sur des robots ou des drones automatisés pour vérifier la présence de ravageurs, puis appliquer des pesticides uniquement là où c'est nécessaire, ce qui réduit la quantité de pesticides utilisés et le ruissellement des pesticides dans les réserves d'eau locales.
+
+✅ Faites des recherches. Quelles autres techniques sont utilisées pour améliorer les rendements agricoles ?
+
+> 🎓 Le terme "agriculture de précision" est utilisé pour définir l'observation, la mesure et l'intervention sur les cultures par champ, ou même sur certaines parties d'un champ. Il s'agit notamment de mesurer les niveaux d'eau, de nutriments et de parasites et de réagir avec précision, par exemple en n'arrosant qu'une petite partie du champ.
+
+## L'importance de la température dans l'agriculture
+
+Lorsqu'ils étudient les plantes, la plupart des élèves apprennent qu'elles ont besoin d'eau, de lumière, de dioxyde de carbone (CO2) et de nutriments. Les plantes ont également besoin de chaleur pour se développer - c'est pourquoi les plantes fleurissent au printemps lorsque la température augmente, pourquoi les perce-neige ou les jonquilles peuvent germer tôt en raison d'une courte période de chaleur, et pourquoi les serres sont si efficaces pour faire pousser les plantes.
+
+> 🎓 Les serres et les serres chaudes font un travail similaire, mais avec une différence importante. Les serres chaudes sont chauffées artificiellement et permettent aux agriculteurs de contrôler les températures avec plus de précision. Les serres dépendent du soleil pour la chaleur et le seul moyen de contrôle est généralement l'ouverture de fenêtres ou d'autres ouvertures pour laisser sortir la chaleur.
+
+Les plantes ont une température de base ou minimale, une température optimale et une température maximale, toutes basées sur les températures moyennes quotidiennes.
+
+* Température de base - il s'agit de la température moyenne quotidienne minimale nécessaire à la croissance d'une plante.
+* Température optimale - il s'agit de la meilleure température moyenne quotidienne pour obtenir la meilleure croissance.
+* Température maximale - Il s'agit de la température maximale qu'une plante peut supporter. Au-dessus de cette température, la plante interrompt sa croissance afin de conserver l'eau et de rester en vie.
+
+> 💁 Il s'agit de températures moyennes, calculées sur la base des températures quotidiennes et nocturnes. Les plantes ont également besoin de températures différentes le jour et la nuit pour leur permettre de réaliser une photosynthèse plus efficace et d'économiser de l'énergie la nuit.
+
+Chaque espèce de plante a des valeurs différentes pour sa base, son optimum et son maximum. C'est pourquoi certaines plantes prospèrent dans les pays chauds, et d'autres dans les pays plus froids.
+
+✅ Faites des recherches. Pour toutes les plantes que vous avez dans votre jardin, à l'école ou dans un parc local, voyez si vous pouvez trouver la température de base.
+
+
+
+Le graphique ci-dessus montre un exemple de taux de croissance en fonction de la température. Jusqu'à la température de base, il n'y a pas de croissance. Le taux de croissance augmente jusqu'à la température optimale, puis chute après avoir atteint ce pic. À la température maximale, la croissance s'arrête.
+
+La forme de ce graphique varie d'une espèce végétale à l'autre. Certaines ont des chutes plus marquées au-dessus de l'optimum, d'autres ont des augmentations plus lentes de la base à l'optimum.
+
+> 💁 Pour qu'un agriculteur obtienne la meilleure croissance, il devra connaître les trois valeurs de température et comprendre la forme des graphiques pour les plantes qu'il cultive.
+
+Si un agriculteur a le contrôle de la température, par exemple dans une serre commerciale, il peut optimiser la croissance de ses plantes. Dans une serre commerciale où l'on cultive des tomates, par exemple, la température sera réglée à environ 25°C le jour et 20°C la nuit pour obtenir la croissance la plus rapide.
+
+> 🍅 En combinant ces températures avec des lumières artificielles, des engrais et des niveaux de CO2 contrôlés, les producteurs commerciaux peuvent cultiver et récolter toute l'année.
+
+## La-mesure-de-la-température-ambiante
+
+Les capteurs de température peuvent être utilisés avec les appareils IoT pour mesurer la température ambiante.
+
+### Tâche - Mesure de la température
+
+Suivez le guide correspondant pour surveiller les températures à l'aide de votre dispositif IoT :
+
+* [Arduino - Wio Terminal](wio-terminal-temp.fr.md)
+* [Single-board computer - Raspberry Pi](pi-temp.fr.md)
+* [Single-board computer - Virtual device](virtual-device-temp.fr.md)
+
+## Degrés-jours de croissance
+
+Les degrés-jours de croissance (également appelés unités de degrés de croissance) sont un moyen de mesurer la croissance des plantes en fonction de la température. En supposant qu'une plante dispose de suffisamment d'eau, de nutriments et de CO2, la température détermine le taux de croissance.
+
+Les degrés-jours de croissance, ou DJC, sont calculés par jour comme la température moyenne en Celsius pour un jour au-dessus de la température de base des plantes. Chaque plante a besoin d'un certain nombre de DJC pour croître, fleurir ou produire et faire mûrir une récolte. Plus le nombre de DJC par jour est élevé, plus la croissance de la plante est rapide.
+
+> 🇺🇸 Pour les Américains, les degrés-jours de croissance peuvent également être calculés en Fahrenheit. 5 DJCC (degrés-jours de croissance en Celsius) sont l'équivalent de 9 DJCF (degrés-jours de croissance en Fahrenheit).
+
+La formule complète du DJC est un peu compliquée, mais il existe une équation simplifiée qui est souvent utilisée comme une bonne approximation :
+
+
+
+* **DJC** - c'est le nombre de degrés-jours de croissance
+* **Tmax** - il s'agit de la température maximale quotidienne en degrés Celsius
+* **Tmin** - il s'agit de la température minimale quotidienne en degrés Celsius
+* **Tbase** - c'est la température de base des plantes en degrés Celsius
+
+> 💁 Il existe certaines variations impliquant Tmax au delà de 30°C ou Tmin en deça Tbase, mais nous ignorerons ces cas dans le contexte de ce cours.
+
+### Exemple - Maïs 🌽
+
+Selon la variété, le maïs a besoin de 800 à 2 700 DJC pour arriver à maturité, avec une température de base de 10°C.
+
+Le premier jour au-dessus de la température de base, les températures suivantes ont été mesurées :
+
+| Mesures | Temp °C |
+| :---------- | :-----: |
+| Maximum | 16 |
+| Minimum | 12 |
+
+En ajoutant ces chiffres à notre calcul :
+
+* Tmax = 16
+* Tmin = 12
+* Tbase = 10
+
+Ce qui donne un résultat de:
+
+
+
+Le maïs a reçu 4 DJC ce jour-là. Dans l'hypothèse d'une variété de maïs qui a besoin de 800 jours DJC pour arriver à maturité, il lui faudra encore 796 DJC pour atteindre la maturité.
+
+✅ Faites des recherches. Pour toutes les plantes que vous avez dans votre jardin, à l'école ou dans un parc local, voyez si vous pouvez trouver le nombre de DJC requis pour atteindre la maturité ou produire des récoltes.
+
+## Calcul du DJC à l'aide de données de senseurs
+
+Les plantes ne poussent pas à dates fixes - par exemple, vous ne pouvez pas planter une graine et savoir que la plante portera des fruits exactement 100 jours plus tard. Au lieu de cela, en tant qu'agriculteur, vous pouvez avoir une idée approximative du temps que prend une plante pour pousser, puis vous vérifiez quotidiennement quand les cultures sont prêtes.
+
+Cela a un impact considérable sur la main-d'œuvre d'une grande exploitation, et l'agriculteur risque de manquer des cultures qui sont prêtes plus tôt que prévu. En mesurant les températures, l'agriculteur peut calculer le DJC qu'une plante a reçu, ce qui lui permet de ne vérifier que les cultures proches de la maturité attendue.
+
+En recueillant des données de température à l'aide d'un dispositif IoT, un agriculteur peut être automatiquement informé lorsque les plantes sont proches de la maturité. Une architecture typique pour cela consiste à faire en sorte que les dispositifs IoT mesurent la température, puis publient ces données de télémétrie sur Internet en utilisant quelque chose comme MQTT. Le code du serveur écoute ensuite ces données et les enregistre quelque part, par exemple dans une base de données. Cela signifie que les données peuvent être analysées ultérieurement, par exemple une tâche nocturne pour calculer le DJC de la journée, totaliser le DJC de chaque culture jusqu'à présent et alerter si une plante est proche de la maturité.
+
+
+
+Le code serveur peut également augmenter les données en ajoutant des informations supplémentaires. Par exemple, le dispositif IoT peut publier un identifiant pour indiquer de quel dispositif il s'agit, et le code du serveur peut l'utiliser pour rechercher l'emplacement du dispositif et les cultures qu'il surveille. Il peut également ajouter des données de base comme l'heure actuelle, car certains dispositifs IoT ne disposent pas du matériel nécessaire pour suivre l'heure exacte, ou nécessitent un code supplémentaire pour lire l'heure actuelle sur Internet.
+
+✅ Pourquoi pensez-vous que des champs différents peuvent avoir des températures différentes ?
+
+### Tâche - publier des informations sur la température
+
+Suivez le guide correspondant pour publier les données de température sur MQTT à l'aide de votre dispositif IoT afin de pouvoir les analyser ultérieurement :
+
+* [Arduino - Terminal Wio](wio-terminal-temp-publish.fr.md)
+* [Ordinateur monocarte - Raspberry Pi/Dispositif IoT virtuel](single-board-computer-temp-publish.fr.md)
+
+### Tâche - capturer et stocker les informations sur la température
+
+Une fois que le dispositif IoT publie la télémétrie, le code du serveur peut être écrit pour s'abonner à ces données et les stocker. Plutôt que de les enregistrer dans une base de données, le code serveur les enregistrera dans un fichier CSV (Comma Separated Values). Les fichiers CSV stockent les données sous forme de lignes de valeurs en texte, chaque valeur étant séparée par une virgule, et chaque enregistrement sur une nouvelle ligne. Ils constituent un moyen pratique, lisible par l'homme et bien supporté d'enregistrer des données dans un fichier.
+
+Le fichier CSV aura deux colonnes - *date* et *température*. La colonne *date* est définie comme la date et l'heure actuelles de réception du message par le serveur, la colonne *température* provient du message de télémétrie.
+
+1. Répétez les étapes de la leçon 4 pour créer un code serveur permettant de s'abonner à la télémétrie. Vous n'avez pas besoin d'ajouter du code pour publier des commandes.
+
+ Les étapes à suivre sont les suivantes :
+
+ * Configurer et activer un environnement virtuel Python
+
+ * Installer la librairie pip paho-mqtt
+
+ * Écrire le code pour écouter les messages MQTT publiés sur le sujet de télémétrie
+
+ > ⚠️ Vous pouvez vous référer [aux instructions de la leçon 4 pour créer une application Python pour recevoir la télémétrie si nécessaire](../../../../1-getting-started/lessons/4-connect-internet/README.md#receive-telemetry-from-the-mqtt-broker).
+
+ Nommez le dossier pour ce projet `temperature-sensor-server`.
+
+1. Assurez vous que `client_name` corresponde à ce projet:
+
+ ```cpp
+ client_name = id + 'temperature_sensor_server'
+ ```
+
+1. Ajoutez les importations suivantes en haut du fichier, en dessous des importations existantes :
+
+ ```python
+ from os import path
+ import csv
+ from datetime import datetime
+ ```
+
+ Ceci importe une bibliothèque pour lire les fichiers, une bibliothèque pour interagir avec les fichiers CSV, et une bibliothèque pour aider avec les dates et les heures.
+
+1. Ajoutez le code suivant avant la fonction `handle_telemetry`:
+
+ ```python
+ temperature_file_name = 'temperature.csv'
+ fieldnames = ['date', 'temperature']
+
+ if not path.exists(temperature_file_name):
+ with open(temperature_file_name, mode='w') as csv_file:
+ writer = csv.DictWriter(csv_file, fieldnames=fieldnames)
+ writer.writeheader()
+ ```
+
+ Ce code déclare quelques constantes pour le nom du fichier à écrire, et le nom des en-têtes de colonne pour le fichier CSV. La première ligne d'un fichier CSV contient traditionnellement des en-têtes de colonne séparés par des virgules.
+
+ Le code vérifie ensuite si le fichier CSV existe déjà. S'il n'existe pas, il est créé avec les en-têtes de colonne sur la première ligne.
+
+1. Ajoutez le code suivant à la fin de la fonction `handle_telemetry`:
+
+ ```python
+ with open(temperature_file_name, mode='a') as temperature_file:
+ temperature_writer = csv.DictWriter(temperature_file, fieldnames=fieldnames)
+ temperature_writer.writerow({'date' : datetime.now().astimezone().replace(microsecond=0).isoformat(), 'temperature' : payload['temperature']})
+ ```
+
+ Ce code ouvre le fichier CSV, puis ajoute une nouvelle ligne à la fin. La ligne comporte les données et l'heure actuelles formatées dans un format lisible par l'homme, suivies de la température reçue du dispositif IoT. Les données sont stockées au [format ISO 8601] (https://wikipedia.org/wiki/ISO_8601) avec le fuseau horaire, mais sans les microsecondes.
+
+1. Exécutez ce code de la même manière que précédemment, en vous assurant que votre dispositif IoT envoie des données. Un fichier CSV appelé `temperature.csv` sera créé dans le même dossier. Si vous le visualisez, vous verrez les dates/heures et les mesures de température :
+
+ ```output
+ date,temperature
+ 2021-04-19T17:21:36-07:00,25
+ 2021-04-19T17:31:36-07:00,24
+ 2021-04-19T17:41:36-07:00,25
+ ```
+
+1. Exécutez ce code pendant un certain temps pour capturer les données. Idéalement, vous devriez l'exécuter pendant une journée entière afin de recueillir suffisamment de données pour les calculs de DJC.
+
+ > 💁 Si vous utilisez le "Virtual IoT Device", cochez la case aléatoire et définissez une plage pour éviter d'obtenir la même température à chaque fois que la valeur de température est renvoyée.
+ 
+
+ > 💁 Si vous souhaitez exécuter ce programme pendant toute une journée, vous devez vous assurer que l'ordinateur sur lequel votre code serveur est exécuté ne se mettra pas en veille, soit en modifiant vos paramètres d'alimentation, soit en exécutant un programme tel que [ceci maintient le système actif](https://github.com/jaqsparow/keep-system-active).
+
+> 💁 Vous pouvez trouver ce code dans le dossier [code-server/temperature-sensor-server](../code-server/temperature-sensor-server).
+
+### Tâche - calculer le DJC en utilisant les données stockées
+
+Une fois que le serveur a saisi les données de température, le DJC d'une usine peut être calculé.
+
+Les étapes à suivre pour effectuer cette opération manuellement sont les suivantes :
+
+1. Trouvez la température de base de la plante. Par exemple, pour les fraises, la température de base est de 10°C.
+
+1. A partir du fichier `temperature.csv`, trouvez les températures les plus hautes et les plus basses de la journée.
+
+1. Utilisez le calcul du DJC donné précédemment pour calculer le DJC
+
+Par exemple, si la température la plus élevée de la journée est de 25°C, et la plus basse de 12°C :
+
+
+
+* 25 + 12 = 37
+* 37 / 2 = 18.5
+* 18.5 - 10 = 8.5
+
+Les fraises ont donc reçu **8,5** DJC. Les fraises ont besoin d'environ 250 DJC pour porter des fruits, donc il y a encore du chemin à faire.
+
+---
+
+## 🚀 Défi
+
+Les plantes ont besoin de plus que de la chaleur pour pousser. Quelles autres choses sont nécessaires ?
+
+Pour ceux-ci, cherchez s'il existe des capteurs qui peuvent les mesurer. Et des actionneurs pour contrôler ces niveaux ? Comment assembleriez-vous un ou plusieurs dispositifs IoT pour optimiser la croissance des plantes ?
+
+## Questionnaire Post-lecture
+
+[Questionnaire Post-lecture](https://brave-island-0b7c7f50f.azurestaticapps.net/quiz/10)
+
+## Révision et apprentissage autodidacte
+
+* Pour en savoir plus sur l'agriculture numérique, consultez la page [Digital Agriculture Wikipedia](https://wikipedia.org/wiki/Digital_agriculture). Pour en savoir plus sur l'agriculture de précision, consultez la page [Precision Agriculture Wikipedia](https://wikipedia.org/wiki/Precision_agriculture).
+* Le calcul complet des degrés-jours de croissance est plus compliqué que le calcul simplifié présenté ici. Pour en savoir plus sur l'équation plus compliquée et sur la manière de traiter les températures inférieures à la ligne de base, consultez la page [Degrés-jours de croissance sur Wikipédia](https://wikipedia.org/wiki/Growing_degree-day).
+* La nourriture pourrait se faire rare à l'avenir, même si nous utilisons toujours les mêmes méthodes agricoles. Pour en savoir plus sur les techniques agricoles de haute technologie, regardez cette vidéo [Hi-Tech Farms of Future sur YouTube](https://www.youtube.com/watch?v=KIEOuKD9KX8).
+
+## Devoir
+
+[Visualiser les données DJC à l'aide d'un Jupyter Notebook](assignment.fr.md)
diff --git a/2-farm/lessons/1-predict-plant-growth/translations/README.zh-cn.md b/2-farm/lessons/1-predict-plant-growth/translations/README.zh-cn.md
new file mode 100644
index 00000000..12739f20
--- /dev/null
+++ b/2-farm/lessons/1-predict-plant-growth/translations/README.zh-cn.md
@@ -0,0 +1,271 @@
+# 应用物联网预测植物生长
+
+
+
+> Sketchnote by [Nitya Narasimhan](https://github.com/nitya). 如果你想看比较大的图片,请点击它。
+
+## 课前测验
+
+[课前测验](https://brave-island-0b7c7f50f.azurestaticapps.net/quiz/9)
+
+## 介绍
+
+植物需要一些东西才能生长 - 水,二氧化碳,养分,光照,还有热。在这节课程中,你将会学习怎样通过测量空气温度来计算植物的生长和成熟率。
+
+这节课程将包含:
+
+* [数字农业](#数字农业)
+* [为什么温度在耕作中很重要?](#为什么温度在耕作中很重要?)
+* [测量环境温度](#测量环境温度)
+* [生长度日 (GDD)](#生长度日)
+* [用温度传感器数据计算 GDD](#用温度传感器数据计算 GDD)
+
+## 数字农业
+
+通过使用工具来收集、存储和分析耕作数据,数字农业 (Digital Agriculture) 正在改变我们的耕作方式。我们目前正处于被世界经济论坛描述为“第四次工业革命”的时期,而数字农业的崛起也被称为“第四次农业革命”,或“农业4.0”。
+
+> 🎓 数字农业一词也包括整个“农业价值链”,即从农场到餐桌的整个过程。它包括在食品运输和加工过程中跟踪农产品质量,仓库和电子商务系统,甚至拖拉机租赁应用程序!
+
+这些改变使得农民们能够提高产量,减少肥料和农药的使用,并更有效率地浇水。尽管主要在富裕国家中使用,传感器和其它设备的价格在慢慢降低,使得它们在发展中国家也更容易被使用了。
+
+数字农业所促成的技术包括:
+
+* 温度测量——测量温度使农民能够预测植物的生长和成熟度。
+* 自动浇水——测量土壤湿度,在土壤过于干燥时开启灌溉系统,而不是定时浇水。定时浇水可能导致作物在高温干旱时浇水不足,或在下雨时浇水过多。通过只有在土壤需要时才浇水的方式,农民可以优化水资源的使用。
+* 虫害控制——农民可以使用自动机器人或无人机上的摄像头来检查虫害,然后只在需要的地方施用农药。这样不仅能减少农药的使用量,也能减少流入当地水源中的农药量。
+
+✅ 做些研究。还有哪些技术是用来提高农业产量的?
+
+> 🎓 “精准农业”一词被用来定义在某块田地,甚至在某块田地的部分区域的尺度上,对作物进行的观察、测量和反应。这包括测量水、养分和虫害程度,并作出准确的反应,例如只对一小部分田地进行浇灌。
+>
+
+## 为什么温度在耕作中很重要?
+
+在学习植物时,大多数学生都了解了水、光、二氧化碳 (CO2) 和养分的必要性。其实植物的生长也需要温暖——这就是为什么植物在春天随着温度的升高而开花,为什么雪钟花或水仙花会因为短暂的暖流而提前发芽,以及为什么暖房和温室能里的植物生长得很好。
+
+> 🎓 暖房和温室挺类似的,但它们有一个重要区别。暖房是人工加热的,农民能够更准确地控制温度,而温室依靠太阳取暖,通常唯一的控制是利用窗户或其他开口来让热量散发出去。
+
+植物有基础温度或者说最低温度、最佳温度和最高温度,所有这些都基于日平均温度。
+
+* 基础温度 (Base temperature) - 这是植物生长所需的最低日平均温度。
+* 最佳温度 (Optimum temperature) - 这是能够使植物获得最多生长的最佳日平均温度。
+* 最高温度 (Maximum temperature) - 这是植物可以承受的最高温度。超过这个温度,植物就会停止生长,以节省水分和保持存活。
+
+> 💁 这些都是平均温度,是每日和每夜温度的平均值。植物也需要昼夜不同的温度以帮助它们更有效地进行光合作用并在夜间节省能量。
+
+每种植物都有不同的基础、最佳、最高温度值。这就是为什么一些植物能够在炎热的地区茁壮成长,而另一些则更适应寒冷地区。
+
+✅ 做些研究。对于那些花园、学校或当地公园里的植物,你是否可以找到其基础温度。
+
+
+
+上图显示了一个生长率与温度关系图的例子。在最低温度之前植物不会生长。随着温度升高生长率增加,并在最佳温度处达到这个峰值,然后下降。在最高温度处,生长停止。
+
+该图的形状因植物种类的不同而不同。有些植物在最佳温度之后有较明显的下降,有些植物从最低温度到最佳温度的增长更加缓慢。
+
+> 💁 对于农民来说,要想让作物长得更好,他们需要知道这三个温度值,并了解他们所种植的作物的图形形状。
+
+如果农民能够控制温度,比如在商业暖房中,那么他们可以为其作物进行温度的优化。例如,一个种植西红柿的商业暖房可以在白天将温度设置为25°C而在晚上设置为20°C,这样能够获得最快的生长。
+
+> 🍅 将温控与人工照明、肥料和 CO2 水平控制相结合能够能够实现全年的种植和收获。
+
+## 测量环境温度
+
+温度传感器可与物联网设备一起使用来测量环境温度。
+
+### 任务 - 测量温度
+
+通过以下这些相关指南,应用你的物联网设备监测温度:
+
+* [Arduino - Wio Terminal](../wio-terminal-temp.md)
+* [单板机 - Raspberry Pi](../pi-temp.md)
+* [单板机 - 虚拟设备](../virtual-device-temp.md)
+
+## 生长度日
+
+生长度日 (Growing degree days),也称为生长度单位 (growing degree units),是根据温度衡量植物生长的一种方式。假设一株植物具有足够的水分、养分和二氧化碳,温度将会决定植物的生长率。
+
+生长度日,或称 GDD,是以每日中高于植物基础温度的的平均温度(摄氏度)来计算的。每个植物需要一定数量的生长度日来生长、开花、成熟。每天的 GDD 越多,植物的生长就越快。
+
+> 🇺🇸 For Americans, growing degree days can also be calculated using Fahrenheit. 5 GDDC (growing degree days in Celsius) is the equivalent of 9 GDDF (growing degree days in Fahrenheit). <= 华氏度计算
+
+GDD 的完整公式有点复杂,大多是情况下使用一个简化方程就能得到一个很好的近似值:
+
+
+
+* **GDD** - 生长度日的数量
+* **Tmax** - 每日最高温度,单位是摄氏度
+* **Tmin** - 每日最低温度,单位是摄氏度
+* **Tbase** - 植物的基础温度,单位是摄氏度。
+
+> 💁 Tmax 高于 30°C 或者 Tmin 低于 Tbase 的情况下有所不同,但是我们暂且忽略。
+
+### 例子 - 玉米 🌽
+
+根据品种的不同,玉米大概需要 800 到 2,700 的 GDD 来成熟,基础温度是 10°C。
+
+在高于基础温度的第一天,测量的温度值如下:
+
+| 测量 | 温度 °C |
+| :--- | :-----: |
+| 最高 | 16 |
+| 最低 | 12 |
+
+把这些数字代入公式中:
+
+* Tmax = 16
+* Tmin = 12
+* Tbase = 10
+
+可得:
+
+
+
+玉米在这一天获得了4 GDD。假设这个品种的玉米需要800 GDD,那么它还需要796 GDD 才能成熟。
+
+✅ 做些研究。对于那些花园、学校或当地公园里的植物,你是否能找它们成熟所需的 GDD 数量。
+
+## 用温度传感器数据计算 GDD
+
+植物的生长时间不是固定的——例如,你不可能种下一粒种子并知道它会刚好在100天后开花结果。然而,作为一个农民,你也许有一个生长所需时间的粗略概念,然后你每天检查作物是否成熟。
+
+对于一些大型农场来说这是一个巨大的劳动力影响,而且农民有可能错过意外提前成熟的作物。通过测量温度,农民可以计算出植物所累积的 GDD,这样可以就能只在接近预期成熟度时进行检查。
+
+通过使用物联网设备收集温度数据,农民可以在植物接近成熟时自动收到通知。这方面的典型架构是让物联网设备测量温度,然后使用类似 MQTT 的协议在互联网上发布这些遥测数据。接着服务器代码监听这些数据并将其保存在某个地方,比如数据库。这意味着之后能够对这些数据进行分析,比如在每晚计算当天的 GDD,对每种作物的 GDD 进行累计,如果植物接近成熟就发出警报。
+
+
+
+服务器代码也可以通过添加额外的信息来增强数据。例如,物联网设备可通过一个标识符以表明它是哪个设备,而服务器代码可以使用这个标识符来查找设备的位置以及它正在监测哪些作物。还可以添加一些基本数据,如当前时间,因为一些物联网设备没有追踪时间的必要的硬件或者是需要额外的代码来通过互联网读取当前时间。
+
+✅ 你觉得为什么不同地方的温度可能会不同?
+
+### 任务 - 发布温度信息
+
+通过以下这些相关指南,应用你的物联网设备通过 MQTT 发布温度数据,以便之后的分析:
+
+* [Arduino - Wio Terminal](../wio-terminal-temp-publish.md)
+* [单板机 - Raspberry Pi/虚拟物联网设备](../single-board-computer-temp-publish.md)
+
+### 任务 - 捕获并存储温度信息
+
+如果物联网设备成功发布遥测数据,就可以开始编写服务器代码来订阅这些数据并将其存储起来。服务器代码将其保存到 CSV 文件中而非使用数据库来存储。CSV文件以文本形式存储数据,每个值用逗号隔开,每个记录占一行。它是一种方便的、人类可读的、受到良好支持的保存数据为文件的方式。
+
+CSV 文件将有两列 - *时间 (date)*和*温度 (temperature)*。*时间*列将存储服务器收到消息时的日期和时间,*温度*列存储遥测信息。
+
+1. 重复第4课的步骤,创建服务器代码以订阅遥测数据。你不需要添加代码来发布命令。
+
+ 具体步骤:
+
+ * 配置并激活一个 Python 虚拟环境
+
+ * 安装 paho-mqtt pip 包
+
+ * 编写代码来监听发布在遥测主题上的 MQTT 消息
+
+ > ⚠️ 如果需要的话你可以参考 [课程 4 中关于创建 Python 应用来接受遥测数据的说明](../../../../1-getting-started/lessons/4-connect-internet/README.md#receive-telemetry-from-the-mqtt-broker)。
+
+ 这个项目的文件夹名是 `temperature-sensor-server`。
+
+1. 确保 `client_name` 反映该项目:
+
+ ```cpp
+ client_name = id + 'temperature_sensor_server'
+ ```
+
+1. 在文件开头,已有导入的下方,添加下列导入:
+
+ ```python
+ from os import path
+ import csv
+ from datetime import datetime
+ ```
+
+ 这将会导入一个用于读取文件的库,一个与 CSV 文件交互的库,和一个关于日期和时间的库。
+
+1. 添加下面的代码至 `handle_telemetry` 函数前:
+
+ ```python
+ temperature_file_name = 'temperature.csv'
+ fieldnames = ['date', 'temperature']
+
+ if not path.exists(temperature_file_name):
+ with open(temperature_file_name, mode='w') as csv_file:
+ writer = csv.DictWriter(csv_file, fieldnames=fieldnames)
+ writer.writeheader()
+ ```
+
+ 这段代码声明了一些用于写入文件的文件名和 CSV 文件列标题名的常量。传统上,CSV 文件的第一行包含由逗号分隔的列标题。
+
+ 然后代码会检查 CSV 文件是否已经存在。如果不存在,则在第一行创建列标题。
+
+1. 添加下面的代码至 `handle_telemetry` 函数末尾:
+
+ ```python
+ with open(temperature_file_name, mode='a') as temperature_file:
+ temperature_writer = csv.DictWriter(temperature_file, fieldnames=fieldnames)
+ temperature_writer.writerow({'date' : datetime.now().astimezone().replace(microsecond=0).isoformat(), 'temperature' : payload['temperature']})
+ ```
+
+ 这段代码会打开 CSV 文件,然后在末尾添加一个新行。这一行会包含当前的日期和时间(可阅读格式),紧跟着从物联网设备中接收到的温度。时间数据将以 [ISO 8601 format](https://wikipedia.org/wiki/ISO_8601) 进行保存,包含时区,但是不包含毫秒。
+
+1. 以与之前相同的方式运行此代码,确保你的物联网设备正在发送数据。一个名为 `temperature.csv` 的 CSV 文件将在同一文件夹中创建。如果你查看它,你应该能看到日期/时间和温度数据:
+
+ ```output
+ date,temperature
+ 2021-04-19T17:21:36-07:00,25
+ 2021-04-19T17:31:36-07:00,24
+ 2021-04-19T17:41:36-07:00,25
+ ```
+
+1. 运行这段代码一段时间以获取数据。理想情况下,你应该运行它一整天来收集足够的数据用于 GDD 的计算。
+
+ > 💁 如果你正在使用虚拟物联网设备,选择随机复选框并设置一个范围来避免每次返回温度时都得到同样的值。
+ > 
+
+ > 💁 如果你想运行一整天,那么你需要确保用于服务器代码运行的电脑不会进入休眠,你可以改变电源设置,或者运行 [这个保持系统活跃的 Python 脚本](https://github.com/jaqsparow/keep-system-active)。
+
+> 💁 你可以在 [code-server/temperature-sensor-server](../code-server/temperature-sensor-server) 文件夹内找到需要的代码。
+
+### 任务 - 使用存储的数据计算出 GDD
+
+一旦服务器采集了温度数据,就可以计算出植物的 GDD。
+
+手动操作的步骤是:
+
+1. 找到该植物的基础温度。例如,对于草莓来说,基础温度是10℃
+
+1. 根据 `temperature.csv`,找到一天中的最低温度和最高温度
+
+1. 使用之前给出的公式来计算 GDD
+
+例如,如果这一天最高温度是 25°C,最低温度是 12°C:
+
+
+
+* 25 + 12 = 37
+* 37 / 2 = 18.5
+* 18.5 - 10 = 8.5
+
+所以草莓获得了 **8.5** GDD。草莓需要大概 250 GDD 来结果,看来还得等一会儿呢。
+
+---
+
+## 🚀 挑战
+
+植物的生长,除了热量以外,还需要些什么?
+
+对于这些(其它因素),寻找是否有可以测量它们的传感器。那么控制它们水平的执行器呢?你会如何把一个或多个物联网设备放在一起,以优化植物的生长?
+
+## 课后测验
+
+[课后测验](https://brave-island-0b7c7f50f.azurestaticapps.net/quiz/10)
+
+## 复习 & 自学
+
+* 在 [Digital Agriculture Wikipedia page](https://wikipedia.org/wiki/Digital_agriculture) 上阅读更多关于数字农业的知识。在 [Precision Agriculture Wikipedia page](https://wikipedia.org/wiki/Precision_agriculture) 上阅读更多关于精准农业的知识。
+* 完整的生长度日计算比这里给出的简化计算更复杂。在 [Growing Degree Day Wikipedia page](https://wikipedia.org/wiki/Growing_degree-day) 上查看更复杂的方程以及处理低温条件的方法。
+* 即使我们仍然使用相同的耕作方法,未来的食物也可能是稀缺的。在 [Hi-Tech Farms of Future video on YouTube](https://www.youtube.com/watch?v=KIEOuKD9KX8) 上了解更多高科技种植手段。
+
+## 作业
+
+[使用 Jupyter Notebook 进行 GDD 数据的可视化](../assignment.md)
\ No newline at end of file
diff --git a/2-farm/lessons/1-predict-plant-growth/translations/assignment.fr.md b/2-farm/lessons/1-predict-plant-growth/translations/assignment.fr.md
new file mode 100644
index 00000000..59dbdbe3
--- /dev/null
+++ b/2-farm/lessons/1-predict-plant-growth/translations/assignment.fr.md
@@ -0,0 +1,43 @@
+# Visualiser les données DJC à l'aide d'un Jupyter Notebook
+
+## Instructions
+
+Dans cette leçon, vous avez recueilli des données DJC à l'aide d'un capteur IoT. Pour obtenir de bonnes données DJC, vous devez recueillir des données pendant plusieurs jours. Pour vous aider à visualiser les données de température et à calculer le DJC, vous pouvez utiliser des outils tels que [Jupyter Notebooks](https://jupyter.org) pour analyser les données.
+
+Commencez par recueillir des données pendant quelques jours. Vous devez vous assurer que le code de votre serveur fonctionne tout le temps que votre dispositif IoT est en marche, soit en ajustant vos paramètres de gestion de l'énergie, soit en exécutant quelque chose comme [ce script Python maintenant le système actif].(https://github.com/jaqsparow/keep-system-active).
+
+Une fois que vous avez les données de température, vous pouvez utiliser le Jupyter Notebook dans ce repo pour les visualiser et calculer le JDC. Les notebooks Jupyter mélangent du code et des instructions dans des blocs appelés *cellules*, souvent du code en Python. Vous pouvez lire les instructions, puis exécuter chaque bloc de code, bloc par bloc. Vous pouvez également modifier le code. Dans ce notebook par exemple, vous pouvez modifier la température de base utilisée pour calculer le JDC de votre installation.
+
+1. Créez un dossier `gdd-calcul` (GDD correspond à DJC en français)
+
+1. Téléchargez le fichier [gdd.ipynb](../code-notebook/gdd.ipynb) et copiez le dans le dossier`gdd-calcul`.
+
+1. Copiez le fichier `temperature.csv` créé par le serveur MQTT.
+
+1. Créez un nouvel environnement virtuel Python dans le dossier `gdd-calcul`.
+
+1. Installez quelques paquets pip pour les carnets Jupyter, ainsi que les bibliothèques nécessaires à la gestion et au tracé des données :
+
+ ```sh
+ pip install --upgrade pip
+ pip install pandas
+ pip install matplotlib
+ pip install jupyter
+ ```
+
+1. Exécutez le notebook dans Jupyter :
+
+ ```sh
+ jupyter notebook gdd.ipynb
+ ```
+
+ Jupyter démarre et ouvre le notebook dans votre navigateur. Suivez les instructions du carnet de notes pour visualiser les températures mesurées et calculer les degrés-jours de croissance.
+
+ 
+
+## Rubrique
+
+| Critère | Exemplaire | Adequat | À améliorer |
+| -------- | --------- | -------- | ----------------- |
+| Capture de données | Capture au moins deux journées de données | Capture au moins une journée de données | Capture des données |
+| Calcul du DJC | Exécute le notebook et calcul le DJC | Exécute le notebook | Incapable d'exécuter le notebook |
diff --git a/2-farm/lessons/1-predict-plant-growth/translations/pi-temp.fr.md b/2-farm/lessons/1-predict-plant-growth/translations/pi-temp.fr.md
new file mode 100644
index 00000000..379c6a39
--- /dev/null
+++ b/2-farm/lessons/1-predict-plant-growth/translations/pi-temp.fr.md
@@ -0,0 +1,111 @@
+# Mesure de temperature - Raspberry Pi
+
+Dans cette partie de la leçon, vous allez ajouter un capteur de température à votre Raspberry Pi.
+
+## Matériel
+
+La sonde que vous utiliserez est une [sonde d'humidité et de température DHT11](https://www.seeedstudio.com/Grove-Temperature-Humidity-Sensor-DHT11.html), combinant deux capteurs dans un même boîtier. Cette méthode est assez populaire, avec un certain nombre de capteurs disponibles dans le commerce combinant température, humidité et parfois pression atmosphérique. Le composant du capteur de température est une thermistance à coefficient de température négatif (CTN), une thermistance dont la résistance diminue lorsque la température augmente.
+
+Il s'agit d'un capteur numérique, qui dispose donc d'un ADC intégré pour créer un signal numérique contenant les données de température et d'humidité que le microcontrôleur peut lire.
+
+### Connecter le capteur de température
+
+Le capteur de température Grove peut être connecté au Raspberry Pi.
+
+#### Tâche
+
+Connecter le capteur de température
+
+
+
+1. Insérez une extrémité d'un câble Grove dans la prise du capteur d'humidité et de température. Il ne peut être inséré que dans un seul sens.
+
+1. Lorsque le Raspberry Pi est hors tension, connectez l'autre extrémité du câble Grove à la prise numérique marquée **D5** sur le chapeau de la base Grove fixé au Pi. Cette prise est la deuxième en partant de la gauche, sur la rangée de prises à côté des broches GPIO.
+
+
+
+## Programmez le capteur de température
+
+L'appareil peut maintenant être programmé pour utiliser la sonde de température jointe.
+
+### Tâche
+
+Programmer le Raspberry Pi.
+
+1. Brancher le Pi à l'alimentation et attendre la séquence de démarrage.
+
+1. Lancez VS Code, soit directement sur le Pi, soit en vous connectant via l'extension SSH à distance.
+
+ > ⚠️ Vous pouvez vous référer [aux instructions de configuration et de lancement de VS Code dans la leçon 1 si nécessaire].(../../../../1-getting-started/lessons/1-introduction-to-iot/pi.md).
+
+1. Depuis le terminal, créez un nouveau dossier dans le répertoire personnel de l'utilisateur `pi` appelé `temperature-sensor`. Créez un fichier dans ce dossier appelé `app.py` :
+
+ ```sh
+ mkdir temperature-sensor
+ cd temperature-sensor
+ touch app.py
+ ```
+
+1. Ouvrez ce dossier dans VS Code
+
+1. Pour utiliser le capteur de température et d'humidité, une librairie pip supplémentaire doit être installée. Depuis le Terminal dans VS Code, exécutez la commande suivante pour installer ce paquet Pip sur le Pi :
+
+ ```sh
+ pip3 install seeed-python-dht
+ ```
+
+1. Ajoutez le code suivant au fichier `app.py` pour importer les bibliothèques requises :
+
+ ```python
+ import time
+ from seeed_dht import DHT
+ ```
+
+ L'instruction `from seeed_dht import DHT` importe la classe de capteur `DHT` pour interagir avec un capteur de température Grove du module `seeed_dht`.
+
+1. Ajoutez le code suivant après le code ci-dessus pour créer une instance de la classe qui gère le capteur de température :
+
+ ```python
+ sensor = DHT("11", 5)
+ ```
+
+ Ceci déclare une instance de la classe `DHT` qui gère le capteur **D**igital **H**umidité et **T**température. Le premier paramètre indique au code que le capteur utilisé est le capteur *DHT11* - la bibliothèque que vous utilisez supporte d'autres variantes de ce capteur. Le deuxième paramètre indique au code que le capteur est connecté au port numérique `D5` du connecteur Grove de base.
+
+ > ✅ N'oubliez pas que toutes les prises ont un numéro de broche unique. Les broches 0, 2, 4 et 6 sont des broches analogiques, les broches 5, 16, 18, 22, 24 et 26 sont des broches numériques.
+
+1. Ajoutez une boucle infinie après le code ci-dessus pour interroger la valeur du capteur de température et l'imprimer sur la console :
+
+ ```python
+ while True:
+ _, temp = sensor.read()
+ print(f'Temperature {temp}°C')
+ ```
+
+ L'appel à `sensor.read()` renvoie un tuple d'humidité et de température. Vous n'avez besoin que de la valeur de la température, l'humidité est donc ignorée. La valeur de la température est ensuite imprimée sur la console.
+
+1. Ajoutez une petite mise en veille de dix secondes à la fin de la "boucle", car les niveaux de température n'ont pas besoin d'être vérifiés en permanence. Une mise en veille réduit la consommation d'énergie de l'appareil.
+
+ ```python
+ time.sleep(10)
+ ```
+
+1. Depuis le terminal VS Code, exécutez ce qui suit pour lancer votre application Python :
+
+ ```sh
+ python3 app.py
+ ```
+
+ Vous devriez voir des valeurs de température en sortie sur la console. Utilisez quelque chose pour réchauffer le capteur, par exemple en appuyant votre pouce dessus, ou en utilisant un ventilateur pour voir les valeurs changer :
+
+ ```output
+ pi@raspberrypi:~/temperature-sensor $ python3 app.py
+ Temperature 26°C
+ Temperature 26°C
+ Temperature 28°C
+ Temperature 30°C
+ Temperature 32°C
+ ```
+
+> 💁 Vous pouvez trouver ce code dans le dossier [code-temperature/pi](../code-temperature/pi).
+
+😀 La réalisation de votre programme de capteur de température a été un succès !
diff --git a/2-farm/lessons/1-predict-plant-growth/translations/single-board-computer-temp-publish.fr.md b/2-farm/lessons/1-predict-plant-growth/translations/single-board-computer-temp-publish.fr.md
new file mode 100644
index 00000000..f65a68c5
--- /dev/null
+++ b/2-farm/lessons/1-predict-plant-growth/translations/single-board-computer-temp-publish.fr.md
@@ -0,0 +1,57 @@
+# Publier la température - Matériel virtuel IoT et Raspberry Pi
+
+Dans cette partie de la leçon, vous allez publier les valeurs de température détectées par le Raspberry Pi ou le dispositif IoT virtuel sur MQTT afin qu'elles puissent être utilisées ultérieurement pour calculer le DJC.
+
+## Publier la temperature
+
+Une fois la température lue, elle peut être publiée via MQTT vers un code "serveur" qui lira les valeurs et les stockera, prêtes à être utilisées pour un calcul de DJC.
+
+### Tâche - Publier la température
+
+Programmez l'appareil pour qu'il publie les données de température.
+
+1. Ouvrez le projet d'application `temperature-sensor` s'il ne l'est pas déjà.
+
+1. Répétez les étapes de la leçon 4 pour vous connecter à MQTT et envoyer la télémétrie. Vous utiliserez le même "broker" publique Mosquitto.
+
+ Les étapes sont:
+
+ - Ajout de la librairie pip de MQTT paho
+ - Ajouter le code afin de se conecter au broker MQTT
+ - Ajouter le code permettant de publier la télémètrie
+
+ > ⚠️ Consultez les [instructions pour la connexion à MQTT](../../../../1-getting-started/lessons/4-connect-internet/single-board-computer-mqtt.md) ainsi que les [instructions pour l'envoi de la télémétrie](../../../../1-getting-started/lessons/4-connect-internet/single-board-computer-telemetry.md) de la leçon 4 si nécessaire.
+
+1. Assurez-vous que le `client_name` reflète le nom de ce projet :
+
+ ```python
+ client_name = id + 'temperature_sensor_client'
+ ```
+
+1. Pour la télémétrie, au lieu d'envoyer une valeur de lumière, envoyez la valeur de température lue par le capteur DHT dans une propriété du document JSON appelée `temperature` :
+
+ ```python
+ _, temp = sensor.read()
+ telemetry = json.dumps({'temperature' : temp})
+ ```
+
+1. La valeur de la température n'a pas besoin d'être lue très souvent - elle ne changera pas beaucoup dans un court laps de temps, donc réglez le `time.sleep` à 10 minutes :
+
+ ```cpp
+ time.sleep(10 * 60);
+ ```
+
+ > 💁 La fonction `sleep` prend le temps en secondes, donc pour faciliter la lecture, la valeur est passée comme le résultat d'un calcul. 60s en une minute, donc 10 x (60s en une minute) donne un délai de 10 minutes.
+
+1. Exécutez le code de la même manière que vous avez exécuté le code de la partie précédente du devoir. Si vous utilisez un appareil IoT virtuel, assurez-vous que l'application CounterFit est en cours d'exécution et que les capteurs d'humidité et de température ont été créés sur les bonnes broches IO.
+
+ ```output
+ pi@raspberrypi:~/temperature-sensor $ python3 app.py
+ MQTT connected!
+ Sending telemetry {"temperature": 25}
+ Sending telemetry {"temperature": 25}
+ ```
+
+> 💁 Vous pouvez trouver ce code dans le dossier [code-publish-temperature/virtual-device].(../code-publish-temperature/virtual-device) ou encore [code-publish-temperature/pi](../code-publish-temperature/pi).
+
+😀 Vous avez publié avec succès la température en tant que télémétrie de votre appareil.
diff --git a/2-farm/lessons/1-predict-plant-growth/translations/virtual-device-temp.fr.md b/2-farm/lessons/1-predict-plant-growth/translations/virtual-device-temp.fr.md
new file mode 100644
index 00000000..2eae15e8
--- /dev/null
+++ b/2-farm/lessons/1-predict-plant-growth/translations/virtual-device-temp.fr.md
@@ -0,0 +1,140 @@
+# Mesurer la température - Matériel virtuel IoT
+
+Dans cette partie de la leçon, vous allez ajouter un capteur de température à votre dispositif IoT virtuel.
+
+## Matériel virtuel
+
+Le dispositif IoT virtuel utilisera un capteur numérique d'humidité et de température Grove simulé. Ce laboratoire est donc identique à celui qui utilise un Raspberry Pi avec un capteur Grove DHT11 physique.
+
+Le capteur combine un **capteur de température** et un **capteur d'humidité**, mais dans ce laboratoire, vous n'êtes intéressé que par le composant capteur de température. Dans un dispositif IoT physique, le capteur de température serait une [thermistance] (https://wikipedia.org/wiki/Thermistor) qui mesure la température en détectant un changement de résistance lorsque la température change. Les capteurs de température sont généralement des capteurs numériques qui convertissent en interne la résistance mesurée en une température en degrés Celsius (ou Kelvin, ou Fahrenheit).
+
+### Ajouter les capteurs à CounterFit
+
+Pour utiliser un capteur d'humidité et de température virtuel, vous devez ajouter les deux capteurs à l'application CounterFit
+
+#### Tâche - ajouter les capteurs à CounterFit
+
+Ajoutez les capteurs d'humidité et de température à l'application CounterFit.
+
+1. Créez une nouvelle application Python sur votre ordinateur dans un dossier appelé `temperature-sensor` avec un seul fichier appelé `app.py` et un environnement virtuel Python, et ajoutez les librairies pip de CounterFit.
+
+ > ⚠️ Vous pouvez vous référer [aux instructions pour créer et configurer un projet Python CounterFit dans la leçon 1 si nécessaire](../../../../1-getting-started/lessons/1-introduction-to-iot/virtual-device.md).
+
+1. Installez une librairie pip supplémentaire afin d'installer une cale CounterFit pour le capteur DHT11. Assurez-vous que vous l'installez depuis un terminal avec l'environnement virtuel activé.
+
+ ```sh
+ pip install counterfit-shims-seeed-python-dht
+ ```
+
+1. Assurez-vous que l'application web CounterFit est en cours d'exécution.
+
+1. Créez un capteur d'humidité :
+
+ 1. Dans la case *Create sensor* du volet *Sensors*, déroulez la case *Sensor type* et sélectionnez *Humidity*.
+
+ 1. Laissez le paramètre *Units* à *Percentage*
+
+ 1. Assurez vous que la variable *Pin* est à *5*
+
+ 1. Sélectionnez le bouton **Add** pour créer le capteur d'humidité sur la broche 5
+
+ 
+
+ Le capteur d'humidité sera créé et apparaîtra dans la liste des capteurs.
+
+ 
+
+1. Créez un capteur de température :
+
+ 1. Dans la case *Create sensor* du volet *Sensors*, déroulez la case *Sensor type* et sélectionnez *Temperature*
+
+ 1. Laissez la variable *Units* à *Celsius*
+
+ 1. Assurez vous que la variable *Pin* est à *6*
+
+ 1. Sélectionnez le bouton **Add** pour créer le capteur de température sur la broche 6
+
+ 
+
+ Le capteur de température sera créé et apparaîtra dans la liste des capteurs
+
+ 
+
+## Programmez l'application de la sonde de température
+
+L'application du capteur de température peut maintenant être programmée en utilisant les capteurs CounterFit.
+
+### Tâche - programmer l'application du capteur de température
+
+Programmez l'application du capteur de température.
+
+1. Assurez-vous que l'application `temperature-sensor` est ouverte dans VS Code.
+
+1. Ouvrez le fichier `app.py`.
+
+1. Ajoutez le code suivant au début de `app.py` pour connecter l'application à CounterFit :
+
+ ```python
+ from counterfit_connection import CounterFitConnection
+ CounterFitConnection.init('127.0.0.1', 5000)
+ ```
+
+1. Ajoutez le code suivant au fichier `app.py` pour importer les bibliothèques requises :
+
+ ```python
+ import time
+ from counterfit_shims_seeed_python_dht import DHT
+ ```
+
+ L'instruction `from seeed_dht import DHT` importe la classe de capteur `DHT` pour interagir avec un capteur de température Grove virtuel utilisant une shim du module `counterfit_shims_seeed_python_dht`.
+
+1. Ajoutez le code suivant après le code ci-dessus pour créer une instance de la classe qui gère le capteur virtuel d'humidité et de température :
+
+ ```python
+ sensor = DHT("11", 5)
+ ```
+
+ Ceci déclare une instance de la classe `DHT` qui gère le capteur virtuel **D**numérique **H**umidité et **T**température. Le premier paramètre indique au code que le capteur utilisé est un capteur virtuel *DHT11*. Le deuxième paramètre indique au code que le capteur est connecté au port `5`.
+
+ > 💁 CounterFit simule ce capteur combiné d'humidité et de température en se connectant à 2 capteurs, un capteur d'humidité sur la broche donnée lors de la création de la classe `DHT`, et un capteur de température qui se trouve sur la broche suivante. Si le capteur d'humidité est sur la broche 5, la cale s'attend à ce que le capteur de température soit sur la broche 6.
+
+1. Ajoutez une boucle infinie après le code ci-dessus pour interroger la valeur du capteur de température et l'imprimer sur la console :
+
+ ```python
+ while True:
+ _, temp = sensor.read()
+ print(f'Temperature {temp}°C')
+ ```
+
+ L'appel à `sensor.read()` renvoie un tuple d'humidité et de température. Vous n'avez besoin que de la valeur de la température, l'humidité est donc ignorée. La valeur de la température est ensuite imprimée sur la console.
+
+1. Ajoutez une petite mise en veille de dix secondes à la fin de la "boucle", car les niveaux de température n'ont pas besoin d'être vérifiés en permanence. Une mise en veille réduit la consommation d'énergie de l'appareil.
+
+ ```python
+ time.sleep(10)
+ ```
+
+1. À partir du terminal VS Code avec un environnement virtuel activé, exécutez ce qui suit pour lancer votre application Python :
+
+ ```sh
+ python app.py
+ ```
+
+1. Depuis l'application CounterFit, modifiez la valeur de la sonde de température qui sera lue par l'application. Vous pouvez le faire de deux façons :
+
+ * Entrez un nombre dans la case *Value* pour le capteur de température, puis sélectionnez le bouton **Set**. Le nombre que vous saisissez sera la valeur renvoyée par le capteur.
+
+ * Cochez la case *Random* et saisissez une valeur *Min* et *Max*, puis sélectionnez le bouton **Set**. Chaque fois que le capteur lit une valeur, il lit un nombre aléatoire entre *Min* et *Max*.
+
+ Vous devriez voir les valeurs que vous avez définies apparaître dans la console. Changez les paramètres *Value* ou *Random* pour voir la valeur changer.
+
+ ```output
+ (.venv) ➜ temperature-sensor python app.py
+ Temperature 28.25°C
+ Temperature 30.71°C
+ Temperature 25.17°C
+ ```
+
+> 💁 Vous pouvez trouver ce code dans le fichier [code-temperature/virtual-device](../code-temperature/virtual-device).
+
+😀 Votre programme de capteur de température a été un succès !
diff --git a/2-farm/lessons/1-predict-plant-growth/translations/wio-terminal-temp-publish.fr.md b/2-farm/lessons/1-predict-plant-growth/translations/wio-terminal-temp-publish.fr.md
new file mode 100644
index 00000000..f4866429
--- /dev/null
+++ b/2-farm/lessons/1-predict-plant-growth/translations/wio-terminal-temp-publish.fr.md
@@ -0,0 +1,68 @@
+# Publier la température - Terminal Wio
+
+Dans cette partie de la leçon, vous allez publier les valeurs de température détectées par le terminal Wio sur MQTT afin qu'elles puissent être utilisées ultérieurement pour calculer le DJC.
+
+## Publier la température
+
+Une fois la température lue, elle peut être publiée via MQTT vers un code "serveur" qui lira les valeurs et les stockera, prêtes à être utilisées pour un calcul de DJC. Les microcontrôleurs ne lisent pas l'heure sur Internet et ne suivent pas l'heure avec une horloge en temps réel. Le dispositif doit être programmé pour le faire, en supposant qu'il dispose du matériel nécessaire.
+
+Afin de simplifier les choses pour cette leçon, l'heure ne sera pas envoyée avec les données du capteur, mais pourra être ajoutée par le code du serveur plus tard, lorsqu'il recevra les messages.
+
+### Tâche
+
+Programmez l'appareil pour qu'il publie les données de température.
+
+1. Ouvrez le projet Wio Terminal `temperature-sensor`.
+
+1. Répétez les étapes de la leçon 4 pour vous connecter à MQTT et envoyer la télémétrie. Vous utiliserez le même courtier public Mosquitto.
+
+ Les étapes à suivre sont les suivantes :
+
+ - Ajouter les bibliothèques Seeed WiFi et MQTT au fichier `.ini`.
+ - Ajouter le fichier de configuration et le code pour se connecter au WiFi
+ - Ajouter le code pour se connecter au broker MQTT
+ - Ajouter le code pour publier la télémétrie
+
+ > ⚠️ Consultez les [instructions pour la connexion à MQTT].(../../../1-getting-started/lessons/4-connect-internet/wio-terminal-mqtt.md) ainsi que les [instructions pour l'envoi de la télémétrie](../../../../1-getting-started/lessons/4-connect-internet/wio-terminal-telemetry.md) de la leçon 4 si nécessaire.
+
+1. Assurez-vous que le `CLIENT_NAME` dans le fichier d'en-tête `config.h` reflète ce projet :
+
+ ```cpp
+ const string CLIENT_NAME = ID + "temperature_sensor_client";
+ ```
+
+1. Pour la télémétrie, au lieu d'envoyer une valeur de lumière, envoyez la valeur de température lue par le capteur DHT dans une propriété du document JSON appelée `temperature` en modifiant la fonction `loop` dans `main.cpp` :
+
+ ```cpp
+ float temp_hum_val[2] = {0};
+ dht.readTempAndHumidity(temp_hum_val);
+
+ DynamicJsonDocument doc(1024);
+ doc["temperature"] = temp_hum_val[1];
+ ```
+
+1. La valeur de la température n'a pas besoin d'être lue très souvent - elle ne changera pas beaucoup dans un court laps de temps, donc réglez le "retard" de la fonction "boucle" à 10 minutes :
+
+ ```cpp
+ delay(10 * 60 * 1000);
+ ```
+
+ > 💁 La fonction `delay` prend le temps en millisecondes, donc pour faciliter la lecture, la valeur est passée comme le résultat d'un calcul. 1 000 ms en une seconde, 60s en une minute, donc 10 x (60s en une minute) x (1000 ms en une seconde) donne un délai de 10 minutes.
+
+1. Téléchargez-le sur votre terminal Wio, et utilisez le moniteur série pour voir la température envoyée au courtier MQTT.
+
+ ```output
+ --- Available filters and text transformations: colorize, debug, default, direct, hexlify, log2file, nocontrol, printable, send_on_enter, time
+ --- More details at http://bit.ly/pio-monitor-filters
+ --- Miniterm on /dev/cu.usbmodem1201 9600,8,N,1 ---
+ --- Quit: Ctrl+C | Menu: Ctrl+T | Help: Ctrl+T followed by Ctrl+H ---
+ Connecting to WiFi..
+ Connected!
+ Attempting MQTT connection...connected
+ Sending telemetry {"temperature":25}
+ Sending telemetry {"temperature":25}
+ ```
+
+> 💁 Vous pouvez trouver ce code dans le fichier [code-publish-temperature/wio-terminal].(../code-publish-temperature/wio-terminal).
+
+😀 Vous avez publié avec succès la température en tant que télémétrie de votre appareil!
diff --git a/2-farm/lessons/1-predict-plant-growth/translations/wio-terminal-temp.fr.md b/2-farm/lessons/1-predict-plant-growth/translations/wio-terminal-temp.fr.md
new file mode 100644
index 00000000..e75435e9
--- /dev/null
+++ b/2-farm/lessons/1-predict-plant-growth/translations/wio-terminal-temp.fr.md
@@ -0,0 +1,129 @@
+# Mesure de la température - Terminal Wio
+
+Dans cette partie de la leçon, vous allez ajouter un capteur de température à votre terminal Wio, et lire les valeurs de température à partir de celui-ci.
+
+## Matériel
+
+Le terminal Wio a besoin d'un capteur de température.
+
+La sonde que vous utiliserez est une [sonde d'humidité et de température DHT11](https://www.seeedstudio.com/Grove-Temperature-Humidity-Sensor-DHT11.html), combinant deux capteurs dans un même boîtier. Cette méthode est assez populaire, avec un certain nombre de capteurs disponibles dans le commerce combinant température, humidité et parfois pression atmosphérique. Le composant du capteur de température est une thermistance à coefficient de température négatif (CTN), une thermistance dont la résistance diminue lorsque la température augmente.
+
+Il s'agit d'un capteur numérique, qui dispose donc d'un ADC intégré pour créer un signal numérique contenant les données de température et d'humidité que le microcontrôleur peut lire.
+
+### Connecter le capteur de température
+
+Le capteur de température Grove peut être connecté au port numérique des terminaux Wio.
+
+#### Tâche - connecter le capteur de température
+
+Connectez le capteur de température.
+
+
+
+1. Insérez une extrémité d'un câble Grove dans la prise du capteur d'humidité et de température. Il ne peut être inséré que dans un seul sens.
+
+1. Le terminal Wio étant déconnecté de votre ordinateur ou de toute autre source d'alimentation, connectez l'autre extrémité du câble Grove à la prise Grove de droite du terminal Wio lorsque vous regardez l'écran. Il s'agit de la prise la plus éloignée du bouton d'alimentation.
+
+
+
+## Programmer le capteur de température
+
+Le terminal Wio peut maintenant être programmé pour utiliser le capteur de température joint.
+
+### Tâche - programmer le capteur de température
+
+Programmez l'appareil.
+
+1. Créez un tout nouveau projet Wio Terminal en utilisant PlatformIO. Appelez ce projet `temperature-sensor`. Ajoutez du code dans la fonction `setup` pour configurer le port série.
+
+ > ⚠️ Vous pouvez vous référer [aux instructions pour créer un projet PlatformIO dans le projet 1, leçon 1 si nécessaire](../../../../1-getting-started/lessons/1-introduction-to-iot/wio-terminal.md#create-a-platformio-project).
+
+1. Ajoutez une dépendance de la bibliothèque de capteurs d'humidité et de température Seeed Grove au fichier `platformio.ini` du projet :
+
+ ```ini
+ lib_deps =
+ seeed-studio/Grove Temperature And Humidity Sensor @ 1.0.1
+ ```
+
+ > ⚠️ Vous pouvez vous référer [aux instructions pour ajouter des bibliothèques à un projet PlatformIO dans le projet 1, leçon 4 si nécessaire](../../../../1-getting-started/lessons/4-connect-internet/wio-terminal-mqtt.md#install-the-wifi-and-mqtt-arduino-libraries).
+
+1. Ajoutez les directives `#include` suivantes en haut du fichier, sous la directive existante `#include ` :
+
+ ```cpp
+ #include
+ #include
+ ```
+
+ Ceci importe les fichiers nécessaires pour interagir avec le capteur. Le fichier d'en-tête `DHT.h` contient le code du capteur lui-même, et l'ajout de l'en-tête `SPI.h` garantit que le code nécessaire pour parler au capteur est lié lors de la compilation de l'application.
+
+1. Avant la fonction "setup", déclarez le capteur DHT :
+
+ ```cpp
+ DHT dht(D0, DHT11);
+ ```
+
+ Ceci déclare une instance de la classe `DHT` qui gère le capteur **D**numérique **H** d'humidité et **T** de température. Celle-ci est connectée au port `D0`, le connecteur Grove de droite sur le terminal Wio. Le second paramètre indique au code que le capteur utilisé est le capteur *DHT11* - la bibliothèque que vous utilisez supporte d'autres variantes de ce capteur.
+
+1. Dans la fonction `setup`, ajoutez du code pour configurer la connexion série :
+
+ ```cpp
+ void setup()
+ {
+ Serial.begin(9600);
+
+ while (!Serial)
+ ; // Wait for Serial to be ready
+
+ delay(1000);
+ }
+ ```
+
+1. A la fin de la fonction `setup`, après le dernier `delay`, ajoutez un appel pour démarrer le capteur DHT :
+
+ ```cpp
+ dht.begin();
+ ```
+
+1. Dans la fonction `loop`, ajoutez du code pour appeler le capteur et imprimer la température sur le port série :
+
+ ```cpp
+ void loop()
+ {
+ float temp_hum_val[2] = {0};
+ dht.readTempAndHumidity(temp_hum_val);
+ Serial.print("Temperature: ");
+ Serial.print(temp_hum_val[1]);
+ Serial.println ("°C");
+
+ delay(10000);
+ }
+ ```
+
+ Ce code déclare un tableau vide de 2 flottants, et le passe à l'appel à `readTempAndHumidity` sur l'instance `DHT`. Cet appel remplit le tableau avec 2 valeurs - l'humidité va dans l'élément 0 du tableau (rappelez-vous qu'en C++ les tableaux sont basés sur 0, donc le 0ème élément est le 'premier' élément du tableau), et la température va dans le 1er élément.
+
+ La température est lue à partir du premier élément du tableau, et imprimée sur le port série.
+
+ > 🇺🇸 La température est lue en Celsius. Pour les Américains, pour la convertir en Fahrenheit, il faut diviser la valeur Celsius lue par 5, puis multiplier par 9, puis ajouter 32. Par exemple, une température de 20°C devient ((20/5)*9) + 32 = 68°F.
+
+1. Construisez et téléchargez le code sur le terminal Wio.
+
+ > ⚠️ Vous pouvez vous référer [aux instructions pour créer un projet PlatformIO dans le projet 1, leçon 1 si nécessaire](../../../../1-getting-started/lessons/1-introduction-to-iot/wio-terminal.md#write-the-hello-world-app).
+
+1. Une fois téléchargé, vous pouvez surveiller la température en utilisant le moniteur série :
+
+ ```output
+ > Executing task: platformio device monitor <
+
+ --- Available filters and text transformations: colorize, debug, default, direct, hexlify, log2file, nocontrol, printable, send_on_enter, time
+ --- More details at http://bit.ly/pio-monitor-filters
+ --- Miniterm on /dev/cu.usbmodem1201 9600,8,N,1 ---
+ --- Quit: Ctrl+C | Menu: Ctrl+T | Help: Ctrl+T followed by Ctrl+H ---
+ Temperature: 25.00°C
+ Temperature: 25.00°C
+ Temperature: 25.00°C
+ Temperature: 24.00°C
+ ```
+
+> 💁 Vous pouvez trouver ce code dans le fichier [code-température/wio-terminal](../code-temperature/wio-terminal).
+
+😀 Votre programme de capteur de température a été un succès !
diff --git a/2-farm/lessons/2-detect-soil-moisture/translations/README.fr.md b/2-farm/lessons/2-detect-soil-moisture/translations/README.fr.md
new file mode 100644
index 00000000..9b7605ec
--- /dev/null
+++ b/2-farm/lessons/2-detect-soil-moisture/translations/README.fr.md
@@ -0,0 +1,262 @@
+# Detect soil moisture
+
+
+
+> Sketchnote by [Nitya Narasimhan](https://github.com/nitya). Click the image for a larger version.
+
+## Pre-lecture quiz
+
+[Pre-lecture quiz](https://brave-island-0b7c7f50f.azurestaticapps.net/quiz/11)
+
+## Introduction
+
+In the last lesson we looked at measuring an ambient property and using it to predict plant growth. Temperature can be controlled, but it is expensive to do so, requiring controlled environments. The easiest ambient property to control for plants is water - something that is controlled everyday from large-scale irrigation systems to young kids with watering cans watering their gardens.
+
+
+
+In this lesson you will learn about measuring soil moisture, and in the next lesson you will learn how to control an automated watering system. This lesson introduces a third sensor, you've already used a light sensor, a temperature sensor, so in this lesson you will also learn more about how sensors and actuators communicate with IoT devices to understand more about how a soil moisture sensor can send data to an IoT device.
+
+In this lesson we'll cover:
+
+* [Soil moisture](#soil-moisture)
+* [How sensors communicate with IoT devices](#how-sensors-communicate-with-iot-devices)
+* [Measure the moisture levels in soil](#measure-the-moisture-levels-in-soil)
+* [Sensor calibration](#sensor-calibration)
+
+## Soil moisture
+
+Plants require water to grow. They absorb water throughout the entire plant, with the majority being absorbed by the root system. Water is used by the plant for three things:
+
+* [Photosynthesis](https://wikipedia.org/wiki/Photosynthesis) - plants creates a chemical reaction with water, carbon dioxide and light to produce carbohydrates and oxygen.
+* [Transpiration](https://wikipedia.org/wiki/Transpiration) - plants use water for diffusion of carbon dioxide from the air into the plant via pores in the leaves. This process also carries nutrients around the plant, and cools the plant, similar to how humans sweat.
+* Structure - plants also need water to maintain their structure - they are 90% water (as opposed to humans at only 60%), and this water keeps the cells rigid. If a plant doesn't have enough water it will wilt and eventually die.
+
+
+
+✅ Do some research: how much water is lost through transpiration?
+
+The root system provides water from moisture in the soil where the plant grows. Too little water in the soil and the plant cannot absorb enough to grow, too much water and roots cannot absorb enough oxygen needed to function. This leads to roots dying and the plant unable to get enough nutrients to survive.
+
+For a farmer to get the best plant growth, the soil needs to be not too wet and not too dry. IoT devices can help with this by measuring soil moisture, allowing a farmer to only water when needed.
+
+### Ways to measure soil moisture
+
+There are a range of different types of sensor you can use to measure soil moisture:
+
+* Resistive - a resistive sensor has 2 probes that go into the soil. An electric current is sent to one probe, and received by the other. The sensor then measures the resistance of the soil - measuring how much the current drops at the second probe. Water is a good conductor of electricity, so the higher the water content of the soil, the lower the resistance.
+
+ 
+
+ > 💁 You can build a resistive soil moisture sensor using two pieces of metal, such as nails, separated by a couple of centimeters, and measuring the resistance between them using a multimeter.
+
+* Capacitive - a capacitive moisture sensor measures the amount of electric charge that can be stored across a positive and a negative electrical plate, or [capacitance](https://wikipedia.org/wiki/Capacitance). The capacitance of soil changes as the moisture level changes, and this can be converted to a voltage that can be measured by an IoT device. The wetter the soil, the lower the voltage that comes out.
+
+ 
+
+These are both analog sensors, returning a voltage to indicate soil moisture. So how does this voltage get to your code? Before going any further with these sensors, let's look at how sensors and actuators communicate with IoT devices.
+
+## How sensors communicate with IoT devices
+
+So far in these lessons you've learned about a number of sensors and actuators, and these have been communicating with your IoT dev kit if you've been doing the physical hardware labs. But how does this communication work? How does a resistance measurement from a soil moisture sensor become a number you can use from code?
+
+To communicate with most sensors and actuators you need some hardware, and a communication protocol - that is a well defined way for data to be sent and received. Take for example a capacitive soil moisture sensor:
+
+* How is this sensor connected to the IoT device?
+* If it measures a voltage that is an analog signal, it will need an ADC to create a digital representation of the value, and this value is sent as an alternating voltage to send 0s and 1s - but how long is each bit sent for?
+* If the sensor returns a digital value, that will be a stream of 0s and 1s, again how long is each bit sent for?
+* If the voltage is high for 0.1s is that a single 1 bit, or 2 consecutive 1 bits, or 10?
+* At what point does the number start? Is `00001101` 25, or are the first 5 bits the end of the previous value?
+
+The hardware provides the physical connectivity over which the data is sent, the different communication protocols ensure that the data is sent or received in the correct way so it can be interpreted.
+
+### General Purpose Input Output (GPIO) pins
+
+GPIO is a set of pins you can use to connect hardware to your IoT device, and are often available on IoT developer kits such as the Raspberry Pi or Wio Terminal. You can use the various communication protocols covered in this section over the GPIO pins. Some GPIO pins provide a voltage, usually 3.3V or 5V, some pins are ground, and others can be programmatically set to either send a voltage (output), or receive a voltage (input).
+
+> 💁 An electrical circuit needs to connect a voltage to ground via whatever circuitry you are using. You can think of voltage as the positive (+ve) terminal of a battery and ground as the negative (-ve) terminal.
+
+You can use GPIO pins directly with some digital sensors and actuators when you only care about on or off values - on referred to as high, off as low. Some examples are:
+
+* Button. You can connect a button between a 5V pin and a pin set to input. When you press the button it completes a circuit between the 5V pin, through the button to the input pin. From code you can read the voltage at the input pin, and if it is high (5V) then the button is pressed, if it is low (0v) then the button is not pressed. Remember the actual voltage itself is not read, instead you get a digital signal of 1 or 0 depending on if the voltage is above a threshold or not.
+
+ 
+
+* LED. You can connect an LED between an output pin and a ground pin (using a resistor otherwise you'll burn out the LED). From code you can set the output pin to high and it will send 3.3V, making a circuit from the 3.3V pin, through the LED, to the ground pin. This will light the LED.
+
+ 
+
+For more advanced sensors, you can use GPIO pins to send and receive digital data directly with digital sensors and actuators, or via controller boards with ADCs and DACs to talk to analog sensors and actuators.
+
+> 💁 if you are using a Raspberry Pi for these labs, the Grove Base Hat has hardware to convert analog sensor signals to digital to send over GPIO.
+
+✅ If you have an IoT device with GPIO pins, locate these pins and find a diagram indicating which pins are voltage, ground or programmable.
+
+### Analog pins
+
+Some devices, such as Arduino devices, provide analog pins. These are the same as GPIO pins, but instead of only supporting a digital signal, they have an ADC to convert voltage ranges to numerical values. Usually the ADC has a 10-bit resolution, meaning it converts voltages to a value of 0-1,023.
+
+For example, on a 3.3V board, if the sensor returns 3.3V, the value returned would be 1,023. If the voltage returned was 1.65v, the value returned will be 511.
+
+
+
+> 💁 Back in nightlight - lesson 3, the light sensor returned a value from 0-1,023. If you are using a Wio Terminal, the sensor was connected to an analog pin. If you are using a Raspberry Pi, then the sensor was connected to an analog pin on the base hat that has an integrated ADC to communicate over the GPIO pins. The virtual device was set to send a value from 0-1,023 to simulate an analog pin.
+
+Soil moisture sensors rely on voltages, so will use analog pins and give values from 0-1,023.
+
+### Inter Integrated Circuit (I2C)
+
+I2C, pronounced *I-squared-C*, is a multi-controller, multi-peripheral protocol, with any connected device able to act as a controller or peripheral communicating over the I2C bus (the name for a communication system that transfers data). Data is sent as addressed packets, with each packet containing the address of the connected device it is intended for.
+
+> 💁 This model used to be referred to as master/slave, but this terminology is being dropped due to its association with slavery. The [Open Source Hardware Association has adopted controller/peripheral](https://www.oshwa.org/a-resolution-to-redefine-spi-signal-names/), but you may still see references to the old terminology.
+
+Devices have an address that is used when they connect to the I2C bus, and is usually hard coded on the device. For example, each type of Grove sensor from Seeed has the same address, so all the light sensors have the same address, all the buttons have the same address that is different from the light sensor address. Some devices have ways to change the address, by changing jumper settings or soldering pins together.
+
+I2C has a bus made of 2 main wires, along with 2 power wires:
+
+| Wire | Name | Description |
+| ---- | --------- | ----------- |
+| SDA | Serial Data | This wire is for sending data between devices. |
+| SCL | Serial Clock | This wire sends a clock signal at a rate set by the controller. |
+| VCC | Voltage common collector | The power supply for the devices. This is connected to the SDA and SCL wires to provide their power via a pull-up resistor that switches the signal off when no device is the controller. |
+| GND | Ground | This provides a common ground for the electrical circuit. |
+
+
+
+To send data, one device will issue a start condition to show it is ready to send data. It will then become the controller. The controller then sends the address of the device that it wants to communicate with, along with if it wants to read or write data. After the data has been transmitted, the controller sends a stop condition to indicate that it has finished. After this another device can become the controller and send or receive data.
+
+I2C has speed limits, with 3 different modes running at fixed speeds. The fastest is High Speed mode with a maximum speed of 3.4Mbps (megabits per second), though very few devices support that speed. The Raspberry Pi for example, is limited to fast mode at 400Kbps (kilobits per second). Standard mode runs at 100Kbps.
+
+> 💁 If you are using a Raspberry Pi with a Grove Base hat as your IoT hardware, you will be able to see a number of I2C sockets on the board you can use to communicate with I2C sensors. Analog Grove sensors also use I2C with an ADC to send analog values as digital data, so the light sensor you used simulated an analog pin, with the value sent over I2C as the Raspberry Pi only supports digital pins.
+
+### Universal asynchronous receiver-transmitter (UART)
+
+UART involves physical circuitry that allows two devices to communicate. Each device has 2 communication pins - transmit (Tx) and receive (Rx), with the Tx pin of the first device connected to the Rx pin of the second, and with the Tx pin of the second device connected to the Rx pin of the first. This allows data to be sent in both directions.
+
+* Device 1 transmits data from its Tx pin, which is received by device 2 on it's Rx pin
+* Device 1 receives data on its Rx pin that is transmitted by device 2 from its Tx pin
+
+
+
+> 🎓 The data is sent one bit at a time, and this is known as *serial* communication. Most operating systems and microcontrollers have *serial ports*, that is connections that can send and receive serial data that are available to your code.
+
+UART devices have a [baud rate](https://wikipedia.org/wiki/Symbol_rate) (also known as Symbol rate), which is the speed that data will be sent and received in bits per second. A common baud rate is 9,600, meaning 9,600 bits (0s and 1s) of data are sent each second.
+
+UART uses start and stop bits - that is it sends a start bit to indicate that it's about to send a byte (8 bits) of data, then a stop bit after it sends the 8 bits.
+
+UART speed is dependent on hardware, but even the fastest implementations don't exceed 6.5 Mbps (megabits per second, or millions of bits, 0 or 1, sent per second).
+
+You can use UART over GPIO pins - you can set one pin as Tx and another as Rx, then connect these to another device.
+
+> 💁 If you are using a Raspberry Pi with a Grove Base hat as your IoT hardware, you will be able to see a UART socket on the board you can use to communicate with sensors that use the UART protocol.
+
+### Serial Peripheral Interface (SPI)
+
+SPI is designed for communicating over short distances, such as on a microcontroller to talk to a storage device such as flash memory. It is based on a controller/peripheral model with a single controller (usually the processor of the IoT device) interacting with multiple peripherals. The controller controls everything by selecting a peripheral and sending or requesting data.
+
+> 💁 Like I2C, the terms controller and peripheral are recent changes, so you may see the older terms still used.
+
+SPI controllers use 3 wires, along with 1 extra wire per peripheral. Peripherals use 4 wires. These wires are:
+
+| Wire | Name | Description |
+| ---- | --------- | ----------- |
+| COPI | Controller Output, Peripheral Input | This wire is for sending data from the controller to the peripheral. |
+| CIPO | Controller Input, peripheral Output | This wire is for sending data from the peripheral to the controller. |
+| SCLK | Serial Clock | This wire sends a clock signal at a rate set by the controller. |
+| CS | Chip Select | The controller has multiple wires, one per peripheral, and each wire connects to the CS wire on the corresponding peripheral. |
+
+
+
+The CS wire is used to activate one peripheral at a time, communicating over the COPI and CIPO wires. When the controller needs to change peripheral, it deactivates the CS wire connected to the currently active peripheral, then activates the wire connected to the peripheral it wants to communicate with next.
+
+SPI is *full-duplex*, meaning the controller can send and receive data at the same time from the same peripheral using the COPI and CIPO wires. SPI uses a clock signal on the SCLK wire to keep the devices in sync, so unlike sending directly over UART it doesn't need start and stop bits.
+
+There are no defined speed limits for SPI, with implementations often able to transmit multiple megabytes of data per second.
+
+IoT developer kits often support SPI over some of the GPIO pins. For example, on a Raspberry Pi you can use GPIO pins 19, 21, 23, 24 and 26 for SPI.
+
+### Wireless
+
+Some sensors can communicate over standard wireless protocols, such as Bluetooth (mainly Bluetooth Low Energy, or BLE), LoRaWAN (a **Lo**ng **Ra**nge low power networking protocol), or WiFi. These allow for remote sensors not physically connected to an IoT device.
+
+One such example is in commercial soil moisture sensors. These will measure soil moisture in a field, then send the data over LoRaWan to a hub device, which will process the data or send it over the Internet. This allows the sensor to be away from the IoT device that manages the data, reducing power consumption and the need for large WiFi networks or long cables.
+
+BLE is popular for advanced sensors such as fitness trackers work on the wrist. These combine multiple sensors and send the sensor data to an IoT device in the form of your phone via BLE.
+
+✅ Do you have any bluetooth sensors on your person, in your house or in your school? These might include temperature sensors, occupancy sensors, device trackers and fitness devices.
+
+One popular way for commercial devices to connect is Zigbee. Zigbee uses WiFi to form mesh networks between devices, where each device connects to as many nearby devices as possible, forming a large number of connections like a spiders web. When one device wants to send a message to the Internet it can send it to the nearest devices, which then forward it on to other nearby devices and so on, until it reaches a coordinator and can be sent to the Internet.
+
+> 🐝 The name Zigbee refers to the waggle dance of honey bees after their return to the beehive.
+
+## Measure the moisture levels in soil
+
+You can measure the moisture level in soil using a soil moisture sensor, an IoT device, and a house plant or nearby patch of soil.
+
+### Task - measure soil moisture
+
+Work through the relevant guide to measure soil moisture using your IoT device:
+
+* [Arduino - Wio Terminal](wio-terminal-soil-moisture.md)
+* [Single-board computer - Raspberry Pi](pi-soil-moisture.md)
+* [Single-board computer - Virtual device](virtual-device-soil-moisture.md)
+
+## Sensor calibration
+
+Sensors rely on measuring electrical properties such as resistance or capacitance.
+
+> 🎓 Resistance, measured in ohms (Ω) is how much opposition there is to the electric current travelling through something. When a voltage is applied to a material, the amount of current that passes through it is dependant on the resistance of the material. You can read more on the [electrical resistance page on Wikipedia](https://wikipedia.org/wiki/Electrical_resistance_and_conductance).
+
+> 🎓 Capacitance, measured in farads (F), is the ability of a component or circuit to collect and store electrical energy. You can read more on capacitance on the [capacitance page on Wikipedia](https://wikipedia.org/wiki/Capacitance).
+
+These measurements are not always useful - imagine a temperature sensor that gave you a measurement of 22.5KΩ! Instead the value measured needs to be converted into a useful unit by being calibrated - that is matching the values measured to the quantity measured to allow new measurements to be converted to the right unit.
+
+Some sensors come pre-calibrated. For example the temperature sensor you used in the last lesson was already calibrated so that it can return a temperature measurement in °C. In the factory the first sensor created would be exposed to a range of known temperatures and the resistance measured. This would then be used to build a calculation that can convert from the value measured in Ω (the unit of resistance) to °C.
+
+> 💁 The formula to calculate resistance from temperature is called the [Steinhart–Hart equation](https://wikipedia.org/wiki/Steinhart–Hart_equation).
+
+### Soil moisture sensor calibration
+
+Soil moisture is measured using gravimetric or volumetric water content.
+
+* Gravimetric is the weight of water in a unit weight of soil measured, as the number of kilograms of water per kilogram of dry soil
+* Volumetric is the volume of water in a unit volume of soil measured, as the number of cubic metres of water per cubic metres of dry soil
+
+> 🇺🇸 For Americans, because of the consistency of the units, these can be measured in pounds instead of kilograms or cubic feet instead of cubic metres.
+
+Soil moisture sensors measure electrical resistance or capacitance - this not only varies by soil moisture, but also soil type as the components in the soil can change its electrical characteristics. Ideally sensors should be calibrated - that is taking readings from the sensor and comparing them to measurements found using a more scientific approach. For example a lab can calculate the gravimetric soil moisture using samples of a specific field taken a few times a year, and these numbers used to calibrate the sensor, matching the sensor reading to the gravimetric soil moisture.
+
+
+
+The graph above shows how to calibrate a sensor . The voltage is captured for a soil sample that is then measured in a lab by comparing the moist weight to the dry weight (by measuring the weight wet, then drying in an oven and measuring dry). Once a few readings have been taken, this can be plotted on a graph and a line fitted to the points. This line can then be used to convert soil moisture sensor readings taken by an IoT device into actual soil moisture measurements.
+
+💁 For resistive soil moisture sensors, the voltage increases as soil moisture increases. For capacitive soil moisture sensors, the voltage decreases as soil moisture increases, so the graphs for these would slope downwards, not upwards.
+
+
+
+The graph above shows a voltage reading from a soil moisture sensor, and by following that to the line on the graph, the actual soil moisture can be calculated.
+
+This approach means the farmer only needs to get a few lab measurements for a field, then they can use IoT devices to measure soil moisture - drastically speeding up the time to take measurements.
+
+---
+
+## 🚀 Challenge
+
+Resistive and capacitive soil moisture sensors have a number of differences. What are these differences, and which type (if any) is the best for a farmer to use? Does this answer change between developing and developed countries?
+
+## Post-lecture quiz
+
+[Post-lecture quiz](https://brave-island-0b7c7f50f.azurestaticapps.net/quiz/12)
+
+## Review & Self Study
+
+Read up on the hardware and protocols used by sensors and actuators:
+
+* [GPIO Wikipedia page](https://wikipedia.org/wiki/General-purpose_input/output)
+* [UART Wikipedia page](https://wikipedia.org/wiki/Universal_asynchronous_receiver-transmitter)
+* [SPI Wikipedia page](https://wikipedia.org/wiki/Serial_Peripheral_Interface)
+* [I2C Wikipedia page](https://wikipedia.org/wiki/I²C)
+* [Zigbee Wikipedia page](https://wikipedia.org/wiki/Zigbee)
+
+## Assignment
+
+[Calibrate your sensor](assignment.md)
diff --git a/2-farm/lessons/3-automated-plant-watering/README.md b/2-farm/lessons/3-automated-plant-watering/README.md
index f65ffec5..7801ea13 100644
--- a/2-farm/lessons/3-automated-plant-watering/README.md
+++ b/2-farm/lessons/3-automated-plant-watering/README.md
@@ -18,7 +18,7 @@ In this lesson we'll cover:
* [Control a relay](#control-a-relay)
* [Control your plant over MQTT](#control-a-relay)
* [Sensor and actuator timing](#sensor-and-actuator-timing)
-* [Add timing to your plant control](#add-timing-to-your-plant-control)
+* [Add timing to your plant control server](#add-timing-to-your-plant-control-server)
## Control high power devices from a low power IoT device
diff --git a/2-farm/translations/README.fr.md b/2-farm/translations/README.fr.md
new file mode 100644
index 00000000..5bf905cd
--- /dev/null
+++ b/2-farm/translations/README.fr.md
@@ -0,0 +1,22 @@
+[](translations/README.fr.md)
+
+# Agriculture et IoT
+
+Les besoins en agriculture augmentent avec la croissance de la popualtion. La quantité de terres disponible ne change pas, bien que le climat lui, change. Ceci amène des défits de plus en plus importants aux fermiers, plus particulièrement pour les 2 milliards de [fermiers de subsistance](https://wikipedia.org/wiki/Subsistence_agriculture) qui dépendent de cette production afin de se nourrir ainsi que leur famille. Les technologies des objets connectés ont le potentiel d'aider ces fermiers à faire de meilleures décisions sur la production, notemment quoi faire pousser, quand récolter, accroître les récoltes, réduire la main d'oeuvre ou encore détecter et gérer les parasites.
+
+À l'occasion de ces 6 leçons, vous apprendrez à utiliser les technologies de l'internet des objets afin d'améliorer et automatiser certaines tâches d'agriculture.
+
+> 💁 Ces leçons utiliserons des ressources infonuagiques. Si vous ne complétez pas toutes les leçons du présent projet, nous vous prions de [nettoyer votre projet](../clean-up.md).
+
+## Thèmes
+
+1. [Anticiper la croissance de ses plantes](../lessons/1-predict-plant-growth/translations/README.fr.md)
+1. [Détectez l'humidité du sol](../lessons/2-detect-soil-moisture/translations/README.fr.md)
+1. [Automatiser l'arrosage des plantes](../lessons/3-automated-plant-watering/translations/README.fr.md)
+1. [Amenez vos plants dans l'infonuagique](../lessons/4-migrate-your-plant-to-the-cloud/translations/README.fr.md)
+1. [Migrez votre application dans l'infonuagique](../lessons/5-migrate-application-to-the-cloud/translations/README.fr.md)
+1. [Gardez vos plants sécurisés](../lessons/6-keep-your-plant-secure/translations/README.fr.md)
+
+## Credits
+
+L'entièreté des leçons ont été écrites avec ♥️ par [Jim Bennett](https://GitHub.com/JimBobBennett)
diff --git a/2-farm/translations/README.zh-cn.md b/2-farm/translations/README.zh-cn.md
new file mode 100644
index 00000000..97389d75
--- /dev/null
+++ b/2-farm/translations/README.zh-cn.md
@@ -0,0 +1,20 @@
+# 应用物联网至农业
+
+随着人口增加,对于农业的需求也一并增加。可用的土地数量保持不变,但是气候却不断变化——这给农民们带来了更多的挑战,尤其是那20亿依赖于亲自耕种以养活自己和家庭的[自耕农](https://wikipedia.org/wiki/Subsistence_agriculture)。物联网可以帮助农民们做出更加聪明的决定,比如耕种何种作物、何时收获,并且帮助他们增产、减少劳力、检测和处理害虫。
+
+在这6节课程中你将会学到怎样应用物联网去改进和自动化农业生产。
+
+> 💁 这些课程将会使用一些云端资源。如果你没有完成这个项目的所有课程,请确保你[清理你的项目](../clean-up.md).
+
+## 主题
+
+1. [应用物联网预测植物生长](lessons/1-predict-plant-growth/translations/README.zh-cn.md)
+1. [检测土壤湿度](lessons/2-detect-soil-moisture/README.md)
+1. [自动给植物浇水](lessons/3-automated-plant-watering/README.md)
+1. [将你的植物迁移到云端](lessons/4-migrate-your-plant-to-the-cloud/README.md)
+1. [将你的应用程序逻辑迁移到云端](lessons/5-migrate-application-to-the-cloud/README.md)
+1. [确保你的植物安全](lessons/6-keep-your-plant-secure/README.md)
+
+## 作者
+
+所有课程均由 [Jim Bennett](https://GitHub.com/JimBobBennett) 用 ♥️ 编写。
diff --git a/3-transport/lessons/3-visualize-location-data/translations/.dummy.md b/3-transport/lessons/3-visualize-location-data/translations/.dummy.md
deleted file mode 100644
index 6e7db247..00000000
--- a/3-transport/lessons/3-visualize-location-data/translations/.dummy.md
+++ /dev/null
@@ -1,9 +0,0 @@
-# Dummy File
-
-This file acts as a placeholder for the `translations` folder.
-**Please remove this file after adding the first translation**
-
-For the instructions, follow the directives in the [translations guide](https://github.com/microsoft/IoT-For-Beginners/blob/main/TRANSLATIONS.md) .
-
-## THANK YOU
-We truly appreciate your efforts!
diff --git a/3-transport/lessons/3-visualize-location-data/translations/README.bn.md b/3-transport/lessons/3-visualize-location-data/translations/README.bn.md
new file mode 100644
index 00000000..bc90168c
--- /dev/null
+++ b/3-transport/lessons/3-visualize-location-data/translations/README.bn.md
@@ -0,0 +1,340 @@
+# লোকেশন ডেটা প্রদর্শন
+
+
+
+> স্কেচনোটটি তৈরী করেছেন [Nitya Narasimhan](https://github.com/nitya)। বড় সংস্করণে দেখার জন্য ছবিটিতে ক্লিক করতে হবে।
+
+## লেকচার-পূর্ববর্তী কুইজ
+
+[লেকচার-পূর্ববর্তী কুইজ](https://brave-island-0b7c7f50f.azurestaticapps.net/quiz/25)
+
+## সূচনা
+
+গত পাঠে আমরা শিখেছি কিভাবে সার্ভারবিহীন কোড ব্যবহার করে স্টোরেজ কন্টেইনারে ক্লাউডে সংরক্ষণ করতে আমাদেরকে সেন্সর থেকে জিপিএস ডেটা পেতে হয়। এখন আমরা দেখবো কিভাবে একটি Azure ম্যাপে সেই পয়েন্টগুলি দেখানো যায়। আমরা একটি ওয়েব পেজে একটি মানচিত্র তৈরি করতে শিখব, GeoJSON ডেটা ফরম্যাট এবং আমাদেরকে ম্যাপে ক্যাপচার করা সমস্ত জিপিএস পয়েন্ট প্লট করার জন্য এটি কীভাবে ব্যবহার করতে হবে তা শিখব।
+
+এই লেসনে আমরা দেখবোঃ
+
+* [ডেটা ভিস্যুয়ালাইজেশন কী ?](#ডেটা-ভিস্যুয়ালাইজেশন-কী)
+* [ম্যাপ সার্ভিস](#ম্যাপ-সার্ভিস)
+* [Azure Maps রিসোর্স তৈরী করা](#Azure-Maps-রিসোর্স-তৈরী-করা)
+* [ওয়েব পেইজে ম্যাপ প্রদর্শন](#ওয়েব-পেইজে-ম্যাপ-প্রদর্শন)
+* [GeoJSON ফরম্যাট](#geojson-ফরম্যাট)
+* [GeoJSON দ্বারা ম্যাপে জিপিএস ডেটা প্লট করা](#GeoJSON-দ্বারা-ম্যাপে-জিপিএস-ডেটা-প্লট-করা)
+
+> 💁 এই লেসনে HTML এবং JavaScript এর ব্যবহার থাকবে। এই ল্যাংগুয়েজগুলো ব্যবহার করে ওয়েব ডেভলাপমেন্ট বিষয়ে আরো জানতে চাইলে [Web development for beginners](https://github.com/microsoft/Web-Dev-For-Beginners) কারিক্যুলাম দেখতে পারি।
+
+## ডেটা ভিস্যুয়ালাইজেশন কী
+
+ডেটা দৃশ্যায়ন বা ভিস্যুয়ালাইজেশন, নাম থেকেই বোঝা যায়, ডেটা ভিজুয়ালাইজ বা প্রদর্শন করা হয় এমন উপায়ে যা মানুষের পক্ষে বোঝা সহজ হয়। এটি সাধারণত চার্ট এবং গ্রাফের সাথে যুক্ত থাকে, মানুষকে কেবল তথ্য উপাত্তকে আরও ভালভাবে বুঝতে সাহায্য করার পাশাপাশি, তাদের প্রয়োজনীয় সিদ্ধান্ত নিতেও সাহায্য করে।
+
+একটি সহজ উদাহরণ নিই- শুরুর দিকের একটি প্রজেক্টে আমরা মাটির আর্দ্রতা সংগ্রহ করেছি । ১লা জুন ২০২১ -এর জন্য প্রতি ঘণ্টায় মাটির আর্দ্রতার তথ্যের একটি টেবিল নিম্নরূপ :
+
+| সময় | মান |
+| ---------------- | ------: |
+| 01/06/2021 00:00 | 257 |
+| 01/06/2021 01:00 | 268 |
+| 01/06/2021 02:00 | 295 |
+| 01/06/2021 03:00 | 305 |
+| 01/06/2021 04:00 | 325 |
+| 01/06/2021 05:00 | 359 |
+| 01/06/2021 06:00 | 398 |
+| 01/06/2021 07:00 | 410 |
+| 01/06/2021 08:00 | 429 |
+| 01/06/2021 09:00 | 451 |
+| 01/06/2021 10:00 | 460 |
+| 01/06/2021 11:00 | 452 |
+| 01/06/2021 12:00 | 420 |
+| 01/06/2021 13:00 | 408 |
+| 01/06/2021 14:00 | 431 |
+| 01/06/2021 15:00 | 462 |
+| 01/06/2021 16:00 | 432 |
+| 01/06/2021 17:00 | 402 |
+| 01/06/2021 18:00 | 387 |
+| 01/06/2021 19:00 | 360 |
+| 01/06/2021 20:00 | 358 |
+| 01/06/2021 21:00 | 354 |
+| 01/06/2021 22:00 | 356 |
+| 01/06/2021 23:00 | 362 |
+
+একজন সাধারণ মানুষ হিসাবে, এই ডেটা বোঝা কঠিন হতে পারে। এটি কোন অর্থ ছাড়া সংখ্যার একটি প্রাচীর মাত্র। এই ডেটা ভিজ্যুয়ালাইজ করার প্রথম পদক্ষেপ হিসাবে, এটি একটি লাইন চার্টে প্লট করা যেতে পারে:
+
+
+
+এই লাইন চার্টটি আরো উন্নত করা যেতে পারে যদি আমরা মাটির আর্দ্রতার মান 450 হলে, স্বয়ংক্রিয় জল ব্যবস্থা চালু করা হয়েছিল এটি বোঝাতে একটি লাইন টেনে দিই।
+
+
+
+এই চার্টটি খুব তাড়াতাড়ি দেখায় যে মাটির আর্দ্রতার মাত্রা কত ছিল এবং ঠিক কোন পয়েন্ট থেকে সেচ ব্যবস্থা চালু হয়েছিল।
+
+ডেটা ভিজ্যুয়ালাইজ করার জন্য চার্টই একমাত্র হাতিয়ার নয়। আইওটি ডিভাইসগুলি যেগুলি আবহাওয়া ট্র্যাক করে সেগুলিতে ওয়েব অ্যাপস বা মোবাইল অ্যাপ থাকতে পারে যা বিভিন্ন প্রতীক ব্যবহার করে আবহাওয়ার অবস্থা যেমন মেঘলা দিনের জন্য মেঘের প্রতীক, বৃষ্টির দিনের জন্য বৃষ্টির চিহ্ন ইত্যাদি। ডেটা ভিজ্যুয়ালাইজ করার অনেক উপায় আছে, কিছু বেশ সিরিয়াস, আবার কিছু অনেক মজার।
+
+✅ আমরা ডেটা ভিজ্যুয়ালাইজেশনের যেসব উপায় ইতোমধ্যে দেখেছি, সে সম্পর্কে চিন্তা করি। কোন পদ্ধতিগুলি সবচেয়ে পরিষ্কার এবং দ্রুততম সিদ্ধান্ত নেওয়ার সুযোগ দেয় ?
+
+ভালো ভিজ্যুয়ালাইজেশনগুলি মানুষকে দ্রুত সিদ্ধান্ত নিতে সহায়তা করে। উদাহরণস্বরূপ, শিল্প যন্ত্রপাতি থেকে সব ধরনের রিডিং স্ক্রিনে দেখানো হলে, এগুলো বিশ্লেষণ করা কঠিন। কিন্তু যদি আমরা যেকোন সমস্যাজনক পরিস্থিতিতে একটি লাল বাতি জ্বালাই, তাহলে একজন মানুষ সহজে সিদ্ধান্ত নিতে পারে।
+
+জিপিএস ডেটা নিয়ে কাজ করার সময় সবচেয়ে স্পষ্ট দৃশ্যায়ন হলো একটি মানচিত্রে ডেটা প্লট করা। উদাহরণস্বরূপ ডেলিভারি ট্রাক এর অবস্থাম দেখানো একটি মানচিত্র, একটি কারখানার শ্রমিকদের ট্রাক কখন আসবে তা দেখতে সাহায্য করতে পারে। যদি এই মানচিত্রটি তাদের বর্তমান অবস্থানে ট্রাকের শুধু ছবি দেখানোর পাশাপাশি ট্রাকের অন্যান্য তথ্য সম্পর্কে ধারণা দেয়, তাহলে প্লান্টের শ্রমিকরা সেই অনুযায়ী পরিকল্পনা করতে পারে। যদি তারা তাদের কারখানার কাছাকাছি একটি রেফ্রিজারেটেড ট্রাক দেখতে পায় তবে তারা দ্রুত প্রস্তুতি নিতে পারে।
+
+## ম্যাপ সার্ভিস
+
+মানচিত্র নিয়ে কাজ করা বেশ চিত্তাকর্ষক একটি কাজ। ম্যাপের জন্য অনেকগুলো সার্ভিস যেমন Bing মানচিত্র, লিফলেট, ওপেন স্ট্রিট মানচিত্র এবং গুগল মানচিত্র থেকে বেছে নেওয়া যায়। এই লেসনে আমরা [Azure Maps](https://azure.microsoft.com/services/azure-maps/?WT.mc_id=academic-17441-jabenn) নিয়ে আরো বিস্তারিত জানবো এবং কীভাবে ডেটা প্লট করা হবে তা শিখবো
+
+
+
+Azure ম্যাপ হলো ভূ-স্থানিক পরিষেবা এবং SDK- এর একটি সংগ্রহ যা ওয়েব এবং মোবাইল অ্যাপ্লিকেশনগুলিকে ভৌগলিক প্রেক্ষাপট সরবরাহ করতে নতুন ম্যাপিং ডেটা ব্যবহার করে। ডেভেলপারদের সুন্দর, ইন্টারেক্টিভ মানচিত্র তৈরির জন্য ট্যুল দেওয়া হয় যা সুপারিশকৃত ট্রাফিক রুট প্রদান, ট্রাফিক ঘটনা সম্পর্কে তথ্য প্রদান, অভ্যন্তরীণ নেভিগেশন, অনুসন্ধান ক্ষমতা, উচ্চতা তথ্য, আবহাওয়া পরিষেবা এবং আরও অনেক কিছু করতে পারে।
+
+✅ এখানে কিছু [কোড স্যাম্পল](https://docs.microsoft.com/samples/browse?WT.mc_id=academic-17441-jabenn&products=azure-maps) রয়েছে যা আমরা এক্সপেরিমেন্ট করে দেখতে পারি।
+
+আমরা বিভিন্নভাবে মানচিত্র প্রদর্শন করতে পারি, যেমনঃ ফাঁকা ক্যানভাস, টাইলস, স্যাটেলাইট ইমেজ, রাস্তা সহ স্যাটেলাইট ইমেজ, গ্রেস্কেল মানচিত্র, উচ্চতা দেখানোর জন্য ছায়াময় মানচিত্র, রাতের দৃশ্যের মানচিত্র এবং হাই-কনট্রাস্ট ইত্যাদি । [Azure Event Grid](https://azure.microsoft.com/services/event-grid/?WT.mc_id=academic-17441-jabenn) এর সাথে একীভূত করে আমরা আমাদের মানচিত্রে রিয়েল-টাইম আপডেট পেতে পারি। আমাদের মানচিত্রের আচরণ এবং ভিস্যুয়াল পরিবর্তন করতে পারি বিভিন্ন নিয়ন্ত্রণ যুক্ত করে, যেমনঃ pinch, drag এবং ক্লিক করার মতো অপারেশনের মাধ্যমে। মানচিত্রের রূপ পরিবর্তন করতে, আমরা বাবল, লাইন, বহুভুজ, হিটম্যাপ এবং আরও অনেক কিছু অন্তর্ভুক্ত করতে পারি। কোন মানচিত্রটি বাস্তবায়ন করবো তা আমাদের SDK এর পছন্দের উপর নির্ভর করে।
+
+[REST API](https://docs.microsoft.com/javascript/api/azure-maps-rest/?WT.mc_id=academic-17441-jabenn&view=azure-maps-typescript-latest) ব্যবহার করে আমরা Azure Maps APIs একসেস করতে পারি। এছাড়াও এটির [Web SDK](https://docs.microsoft.com/azure/azure-maps/how-to-use-map-control?WT.mc_id=academic-17441-jabenn) বা মোবাইলের জন্য [Android SDK](https://docs.microsoft.com/azure/azure-maps/how-to-use-android-map-control-library?WT.mc_id=academic-17441-jabenn&pivots=programming-language-java-android) আমরা কাজে লাগাতে পারি।
+
+এই পাঠে, আমরা একটি মানচিত্র আঁকতে এবং আমাদের সেন্সরের জিপিএস অবস্থানের পথ প্রদর্শন করতে ওয়েব SDK ব্যবহার করবো।
+
+## Azure Maps রিসোর্স তৈরী করা
+
+আমাদের প্রথম ধাপ হল একটি Azure Maps অ্যাকাউন্ট তৈরি করা।
+
+### কাজ - Azure Maps রিসোর্স তৈরী করা
+
+1. টার্মিনাল বা কমান্ড প্রম্পট থেকে নিম্নের কমান্ড রান করে `gps-sensor` রিসোর্স গ্রুপে Azure Maps রিসোর্স তৈরী করি।
+
+ ```sh
+ az maps account create --name gps-sensor \
+ --resource-group gps-sensor \
+ --accept-tos \
+ --sku S1
+ ```
+
+ এটি Azure Maps রিসোর্স তৈরী করবে যার নাম `gps-sensor` । এক্ষেত্রে `S1` tier ব্যবহৃত হচ্ছে যা একটি paid tier যাতে অনেকগুলো ফীচার থাকে।
+
+ > 💁 Azure Maps ব্যবহারের খরচ সম্পর্কে জানতে, [Azure Maps pricing page](https://azure.microsoft.com/pricing/details/azure-maps/?WT.mc_id=academic-17441-jabenn) পড়তে পারি।
+
+1. ম্যাপের জন্য API key প্রয়োজন। নীচের কমান্ড দিয়ে তা পাওয়া যাবেঃ
+
+ ```sh
+ az maps account keys list --name gps-sensor \
+ --resource-group gps-sensor \
+ --output table
+ ```
+
+ এখানে `PrimaryKey` ভ্যালুটি কপি করে নিতে হবে।
+
+## ওয়েব পেইজে ম্যাপ প্রদর্শন
+
+এখন আমরা পরবর্তী পদক্ষেপ নিতে পারি যা হলো একটি ওয়েব পেজে মানচিত্র প্রদর্শন করা। ছোট ওয়েব অ্যাপের জন্য মাত্র একটি `html` ফাইল ব্যবহার করবো; তবে এক্ষেত্রে মনে রাখতে হবে যে একটি উত্পাদন শিল্প বা দলগত পরিবেশে, ওয়েব অ্যাপ্লিকেশনে সম্ভবত আরো কিছু চলমান অংশ থাকবে!
+
+### Task - ওয়েব পেইজে ম্যাপ প্রদর্শন
+
+1. এখন index.html নামে একটি ফাইল তৈরী করতে হবে লোকাল কম্পিউটারের কোন ফোল্ডারে । HTML মার্ক-আপ দিয়ে ম্যাপ স্থাপন করিঃ
+
+ ```html
+
+
+
+
+
+
+
+
+
+ ```
+
+ ম্যাপটি `myMap` `div` এ তৈরী হবে । পেইজের প্রস্থ এবং উচ্চতা ঠিক করার জন্য কিছু HTML স্টাইল ব্যবহার করলেই হবে।
+
+ > 🎓`div` একটি ওয়েব পেজের একটি বিভাগ বা অংশ যেটিতে আমরা নাম এবং স্টাইল পরিবর্তন করতে পারি সহজেই ।
+
+1. শুরুতেই `` ট্যাগের অধীনে একটি এক্সটার্নাল style sheet যুক্ত করতে হবে ম্যাপ সুন্দরভাবে প্রদর্শনের জন্য। এছাড়াও ম্যাপের ব্যবহার নিয়ন্ত্রণ করতে, একটি বাহ্যিক script ফাইল দরকার যা আমরা Web SDK থেকে পাব:
+
+ ```html
+
+
+ ```
+
+ এই স্টাইল শীটে মানচিত্রটি কেমন দেখায় সেটির সেটিংস রয়েছে এবং স্ক্রিপ্ট ফাইলে মানচিত্র লোড করার কোড রয়েছে। এই কোড যোগ করার কাজটি C++ এ হেডার ফাইল বা পাইথন মডিউল ইম্পোর্ট করার অনুরূপ।
+
+1. এবার নিম্নের স্ক্রিপ্ট ব্লক যোগ করি
+
+ ```javascript
+
+ ```
+
+ এক্ষেত্রে `` এর পরিবর্তে API key ব্যবহার করতে হবে Azure Maps একাউন্টের।
+
+ যদি আমরা `index.html` পেজটি ব্রাউজারে ওপেন করি, তাহলে আমরা ম্যাপ দেখতে পাব যা Seattle অঞ্চলে ফোকাস করে।
+
+ 
+
+ ✅ মানচিত্র প্রদর্শন পরিবর্তন করতে জুম এবং কেন্দ্রের পরামিতিগুলি নিয়ে পরীক্ষা করি। আমরা অক্ষাংশ এবং দ্রাঘিমাংশের সাথে সম্পর্কিত বিভিন্ন স্থানাঙ্ক যোগ করে মানচিত্রে পরিবর্তন লক্ষ্য করতে পারবো।
+
+> 💁 Web apps নিয়ে কাজ করা ক্ষেত্রে একটি ভালো উপায় হলো [http-server](https://www.npmjs.com/package/http-server) কে লোকালি ইন্সটল করা। তবে আমাদেরকে [node.js](https://nodejs.org/) এবং [npm](https://www.npmjs.com/) ইন্সটল করতে হবে আগেই। এগুলো ইনস্টল হয়ে গেলে, `index.html` ফাইলে নেভিগেট করে, ` http-server` টাইপ করলে ওয়েব অ্যাপটি একটি স্থানীয় ওয়েব সার্ভারে খুলবে [http://127.0.0.1:8080/](http://127.0.0.1:8080/) ।
+
+## GeoJSON ফরম্যাট
+
+এখন যেহেতু মানচিত্র প্রদর্শনের সাথে আমাদের ওয়েব অ্যাপটি রয়েছে, আমাদেরকে আমাদের স্টোরেজ অ্যাকাউন্ট থেকে জিপিএস ডেটা বের করতে হবে এবং এটি মানচিত্রের উপরে মার্কারের একটি স্তরে প্রদর্শন করতে হবে। আমরা এটি করার আগে, [GeoJSON](https://wikipedia.org/wiki/GeoJSON) ফর্ম্যাটটি দেখি যা Azure মানচিত্রের জন্য প্রয়োজনীয়।
+
+[GeoJSON](https://geojson.org/) হল একটি ওপেন স্ট্যান্ডার্ড JSON স্পেসিফিকেশন যা ভৌগোলিক-নির্দিষ্ট ডেটা হ্যান্ডেল করার জন্য ডিজাইন করা হয়েছে বিশেষ ফর্ম্যাটিং সহ। আমরা [geojson.io](https://geojson.io) ব্যবহার করে নমুনা ডেটা পরীক্ষা করে এটি সম্পর্কে জানতে পার্রি, যা GeoJSON ফাইলগুলি ডিবাগ করার জন্য একটি দরকারী ট্যুল।
+
+GeoJSON ডেটার একটি নমুনা ফাইলঃ
+
+```json
+{
+ "type": "FeatureCollection",
+ "features": [
+ {
+ "type": "Feature",
+ "geometry": {
+ "type": "Point",
+ "coordinates": [
+ -2.10237979888916,
+ 57.164918677004714
+ ]
+ }
+ }
+ ]
+}
+```
+
+একটি বিশেষ বৈশিষ্ট্য হল ডেটাকে একটি 'ফিচারকলেকশন' এর মধ্যে 'ফিচার' হিসেবে নেস্ট করা। সেই বস্তুর মধ্যে অক্ষাংশ এবং দ্রাঘিমাংশ নির্দেশকারী 'স্থানাঙ্ক' এর 'জ্যামিতি' পাওয়া যাবে।
+
+✅ GeoJSON তৈরি করার সময়, বস্তুর মধ্যে 'অক্ষাংশ' এবং 'দ্রাঘিমাংশ' এর ক্রমটির দিকে মনোযোগ দিতে হবে নয়তো মান অনুযায়ী অবস্থান যেখানে দেখা উচিত, সেখানে তা উপস্থাপিত হবে না! GeoJSON পয়েন্টের জন্য `lon,lat` এই ক্রমানুসারে ডেটা প্রদান করতে হয় , `lat,lon` ফরম্যাটে নয়।
+
+`জ্যামিতি` বিভিন্ন ধরনের হতে পারে, যেমন একক বিন্দু বা বহুভুজ। এই উদাহরণে, আমরা কাজ করছি বিন্দু নিয়ে যার দুটি স্থানাঙ্কঃ দ্রাঘিমাংশ এবং অক্ষাংশ রয়েছে।
+
+✅ Azure Maps সকল GeoJSON এবং এর সাথে অতিরিক্ত কিছু [উন্নত বৈশিষ্ট্য](https://docs.microsoft.com/azure/azure-maps/extend-geojson?WT.mc_id=academic-17441-jabenn) সাপোর্ট করে যেমনঃ বৃত্ত এবং অন্যান্য জ্যামিতিক গঠন আঁকার ক্ষমতা।
+
+## GeoJSON দ্বারা ম্যাপে জিপিএস ডেটা প্লট করা
+
+এখন আমরা আগের পাঠে যে স্টোরেজটি তৈরি করেছিলাম সেখান থেকে ডেটা গ্রহণ করার জন্য প্রস্তুত। এগুলো ব্লব স্টোরেজে বেশ কয়েকটি ফাইল হিসাবে সংরক্ষণ করা হয়েছে যাতে আমাদেরকে ফাইলগুলি পুনরুদ্ধার করতে হয় এবং সেগুলি বিশ্লেষণ করতে হবে যাতে Azure Maps সেই ডেটা ব্যবহার করতে পারে।
+
+### কাজ - ওয়েব পেজ থেকে একসেস করার জন্য স্টোরেজ কনফিগার করা
+
+আমরা যদি ডেটা আনতে আমাদের স্টোরেজে কল করি, তবে আমাদের ব্রাউজারের কনসোলে অনেক এরর দেখে অনেকেই অবাক হইয়ে যেতে পারে। এর কারণ হল এই স্টোরেজে [CORS](https://developer.mozilla.org/docs/Web/HTTP/CORS) এর জন্য আমাদেরকে পার্মিশন সেট করতে হবে যাতে বাইরের ওয়েব অ্যাপস থেকে ডেটা একসেস করা যায়।
+
+> 🎓 CORS এর পূর্ণরূপ হলো "Cross-Origin Resource Sharing" এবং সাধারণত নিরাপত্তাজনিত কারণে Azure এ এটি স্পষ্টভাবে সেট করা প্রয়োজন। যেসকল সাইটগুলিকে ডেটা একসেস করার অনুমতি দেয়ার প্রয়োজন নেই, তা আমরা এখান থেকে নিয়ন্ত্রণ করতে পারি।
+
+1. নিম্নের কমান্ড রান করে CORS চালু করি:
+
+ ```sh
+ az storage cors add --methods GET \
+ --origins "*" \
+ --services b \
+ --account-name \
+ --account-key
+ ```
+
+ এখানে `` এর জায়গায় আমাদের ব্যবহৃত স্টোরেজটির নাম দিতে হবে এবং `` এর পরিবর্তে স্টোরেজ একাউন্টের key দিতে হবে।
+
+ এই কমান্ড যেকোনো ওয়েবসাইটকে (ওয়াইল্ডকার্ড `*` চিহ্ন মানে হলো 'যেকোনো') আমাদের স্টোরেজ অ্যাকাউন্ট থেকে একটি *GET* অনুরোধ করার জন্য অনুমতি দেয়, অর্থাৎ ডেটা পাওয়ার সুযোগ করে দেয়। আর `--services b` মানে হলো শুধুমাত্র ব্লবগুলির জন্য এই সেটিং প্রয়োগ করা হচ্ছে।
+
+### কাজ - স্টোরেজ থেকে জিপিএস ডেটা লোড করা
+
+1. `init` ফাংশনের সবগুলো কনটেন্টকে নিম্নের কোড দিয়ে রিপ্লেস করে দিইঃ
+
+ ```javascript
+ fetch("https://.blob.core.windows.net/gps-data/?restype=container&comp=list")
+ .then(response => response.text())
+ .then(str => new window.DOMParser().parseFromString(str, "text/xml"))
+ .then(xml => {
+ let blobList = Array.from(xml.querySelectorAll("Url"));
+ blobList.forEach(async blobUrl => {
+ loadJSON(blobUrl.innerHTML)
+ });
+ })
+ .then( response => {
+ map = new atlas.Map('myMap', {
+ center: [-122.26473, 47.73444],
+ zoom: 14,
+ authOptions: {
+ authType: "subscriptionKey",
+ subscriptionKey: "",
+
+ }
+ });
+ map.events.add('ready', function () {
+ var source = new atlas.source.DataSource();
+ map.sources.add(source);
+ map.layers.add(new atlas.layer.BubbleLayer(source));
+ source.add(features);
+ })
+ })
+ ```
+
+ আর `` এর জায়গায় আমাদের ব্যবহৃত স্টোরেজের নামটি দিতে হবে আর `` এর পরিবর্তে API key দিতে হবে Azure Maps একাউন্ট এর ।
+
+ এখানে বেশ কিছু ঘটনা ঘটছে। প্রথমে, কোডটি আমাদের স্টোরেজ অ্যাকাউন্টের নাম ব্যবহার করে নির্মিত একটি ইউআরএল এন্ডপয়েন্ট ব্যবহার করে আমাদের ব্লব কন্টেইনার থেকে জিপিএস ডেটা নিয়ে আসে। এই ইউআরএল `gps-data` থেকে পুনরুদ্ধার করে, রিসোর্সের ধরন নির্দেশ করে একটি কন্টেইনার (`restype=container`) এবং সমস্ত ব্লব সম্পর্কে তথ্য তালিকাভুক্ত করে। এই তালিকাটি ব্লবগুলি নিজেরা রিটার্ন দেবে না, তবে প্রতিটি ব্লবের জন্য একটি URL রিটার্ন করবে যা ব্লব ডেটা লোড করতে ব্যবহার করা যেতে পারে।
+
+ > 💁 এই ইউআরএলটি আমাদের ব্রাউজারে সমস্ত ব্লবের বিষদ বিবরণ দেখতে পারে। প্রতিটি আইটেমের একটি `Url` প্রপার্টি থাকবে, যার দ্বারা আমরা আমাদের ব্রাউজারেও ব্লবের বিষয়বস্তু দেখতে পারি।
+
+ এই কোডটি তারপর প্রতিটি ব্লব লোড করে, একটি `loadJSON` ফাংশন কল করে, যা পরবর্তীতে তৈরি করা হবে। এটি তখন মানচিত্রের নিয়ন্ত্রণ তৈরি করে এবং `ready` ইভেন্টে কোড যোগ করে। ওয়েব পেজে মানচিত্র প্রদর্শিত হলে এই ইভেন্টকে কল করা হয়।
+
+ প্রস্তুতকৃত ইভেন্টটি একটি Azure Maps ডেটা উৎস তৈরি করে - একটি কন্টেইনার যা GeoJSON ডেটা ধারণ করে যা পরে পপুলেটেড হবে। এই ডেটা সোর্সটি তখন একটি বাবল বা বুদবুদ স্তর তৈরি করতে ব্যবহৃত হয় - এটি GeoJSON এর প্রতিটি বিন্দুকে কেন্দ্র করে মানচিত্রে বৃত্তের একটি সেট তৈরী করে।
+
+1. `loadJSON` ফাংশনটি `init` ফাংশনের নীচে স্ক্রিপ্ট ব্লক হিসেবে যোগ করিঃ
+
+ ```javascript
+ var map, features;
+
+ function loadJSON(file) {
+ var xhr = new XMLHttpRequest();
+ features = [];
+ xhr.onreadystatechange = function () {
+ if (xhr.readyState === XMLHttpRequest.DONE) {
+ if (xhr.status === 200) {
+ gps = JSON.parse(xhr.responseText)
+ features.push(
+ new atlas.data.Feature(new atlas.data.Point([parseFloat(gps.gps.lon), parseFloat(gps.gps.lat)]))
+ )
+ }
+ }
+ };
+ xhr.open("GET", file, true);
+ xhr.send();
+ }
+ ```
+
+ এই ফাংশনটি ফেচ রুটিন দ্বারা কল করে, JSON ডেটার মাধ্যমে বিশ্লেষণ করা হয় এবং এটিকে জিওজেসন হিসাবে দ্রাঘিমাংশ এবং অক্ষাংশ স্থানাঙ্ক হিসাবে রূপান্তরিত করা হয়।
+ একবার বিশ্লেষণ করা হলে, ডেটা একটি জিওজেসন `ফিচার` এর অংশ হিসাবে সেট করা হয়। মানচিত্রটি চালু হবে এবং ডেটা প্লটিং এর পথে ছোট ছোট বাবল উপস্থিত হবেঃ
+
+1. ব্রাউজারে HTML পেইজটি লোড করি। এটি প্রথমে ম্যাপ লোড করবে, তারপর সকল জিপিএস ডেটা স্টোরেজ থেকে সংগ্রহ করে তা ম্যাপে প্লট করে দিবে।
+
+ 
+
+> 💁 সকল কোড পাওয়া যাবে এখানে [code](./code) ফোল্ডারটিতে ।
+
+---
+
+## 🚀 চ্যালেঞ্জ
+
+একটি মানচিত্রে মার্কার হিসেবে স্ট্যাটিক ডেটা প্রদর্শন করতে পারাটা বেশ বড় একটি সাফল্য। টাইমস্ট্যাম্পড JSON ফাইল ব্যবহার করে অ্যানিমেশন যুক্ত করতে এবং সময়ের সাথে চিহ্নিতকারীদের পথ দেখানোর জন্য এই ওয়েব অ্যাপটির কী আরো উন্নয়ন ঘটানো যায়? মানচিত্রের মধ্যে অ্যানিমেশন ব্যবহারের [কিছু নমুনা](https://azuremapscodesamples.azurewebsites.net/) দেওয়া হল।
+
+## লেকচার-পরবর্তী কুইজ
+
+[লেকচার-পরবর্তী কুইজ](https://brave-island-0b7c7f50f.azurestaticapps.net/quiz/26)
+
+## রিভিউ এবং স্ব-অধ্যয়ন
+
+IoT ডিভাইস নিয়ে কাজ করার ক্ষেত্রে Azure Maps খুবই ভালো একটি ট্যুল।
+
+* [Azure Maps documentation নিয়ে Microsoft docs](https://docs.microsoft.com/azure/azure-maps/tutorial-iot-hub-maps?WT.mc_id=academic-17441-jabenn) থেকে পড়ে ইউজ কেইস গুলো আমরা দেখতে পারি।
+* এছাড়াও Azure Maps নিয়ে আমাদের জ্ঞান আরো বাড়ানোর জন্য আমরা আমাদের জন্য [route finding app তৈরী করতে পারি Azure Maps self-guided learning module ব্যবহার করে](https://docs.microsoft.com/learn/modules/create-your-first-app-with-azure-maps/?WT.mc_id=academic-17441-jabenn) ।
+
+## এসাইনমেন্ট
+
+[অ্যাপ ডেপ্লয় করা](assignment.bn.md)
diff --git a/3-transport/lessons/3-visualize-location-data/translations/assignment.bn.md b/3-transport/lessons/3-visualize-location-data/translations/assignment.bn.md
new file mode 100644
index 00000000..e2ed9527
--- /dev/null
+++ b/3-transport/lessons/3-visualize-location-data/translations/assignment.bn.md
@@ -0,0 +1,13 @@
+# অ্যাপ ডেপ্লয় করা
+
+## নির্দেশাবলী
+
+আমাদের অ্যাপটি ডেপ্লয় করার বেশ কয়েকটি উপায় রয়েছে যাতে আমরা এটি সারা বিশ্বের সাথে শেয়ার করতে পারি। গিটহাব পেইজ ব্যবহার করা বা কোন সার্ভিস প্রোভাইডার ব্যবহার করাও যায়। এটি করার একটি দুর্দান্ত উপায় হল Azure Static Web Apps ব্যবহার করা। এইক্ষেত্রে আমাদের ওয়েব অ্যাপ তৈরি করতে হবে এবং [এই নির্দেশাবলী](https://github.com/Azure/static-web-apps-cli) অনুসরণ করে অথবা [এই ভিডিওগুলি](https://www.youtube.com/watch?v=ADVGIXciYn8&list=PLlrxD0HtieHgMPeBaDQFx9yNuFxx6S1VG&index=3) দেখে এটিকে ক্লাউডে স্থাপন করা যায়।
+
+অ্যাজুর স্ট্যাটিক ওয়েব অ্যাপস ব্যবহার করার একটি সুবিধা হল যে আমরা পোর্টালে যেকোন API কী লুকিয়ে রাখতে পারি, তাই আমাদের সাবস্ক্রিপশন কী কে একটি ভেরিয়েবল হিসাবে রিফ্যাক্টর করার এবং ক্লাউডে সংরক্ষণ করার এই সুযোগটি নিতে পারবো আমরা।
+
+## এসাইনমেন্ট মূল্যায়ন মানদন্ড
+
+| ক্রাইটেরিয়া | দৃষ্টান্তমূলক (সর্বোত্তম) | পর্যাপ্ত (মাঝারি) | উন্নতি প্রয়োজন (নিম্নমান) |
+| --------- | ------------------ | -------------- | -------------------- |
+| |একটি কার্যকরী ওয়েব অ্যাপকে একটি GitHub রেপোতে উপস্থাপন করা হলো, যার সাবস্ক্রিপশন কী ক্লাউডে সংরক্ষিত থাকে এবং একটি ভেরিয়েবলের মাধ্যমে কল করা হয় | একটি কার্যকরী ওয়েব অ্যাপ একটি GitHub রেপোতে উপস্থাপন করা হলো, কিন্তু এর সাবস্ক্রিপশন কী ক্লাউডে সংরক্ষণ করা হয়নি | ওয়েব অ্যাপটিতে বাগ আছে বা সঠিকভাবে কাজ করছেনা |
diff --git a/4-manufacturing/lessons/1-train-fruit-detector/translations/.dummy.md b/4-manufacturing/lessons/1-train-fruit-detector/translations/.dummy.md
deleted file mode 100644
index 6e7db247..00000000
--- a/4-manufacturing/lessons/1-train-fruit-detector/translations/.dummy.md
+++ /dev/null
@@ -1,9 +0,0 @@
-# Dummy File
-
-This file acts as a placeholder for the `translations` folder.
-**Please remove this file after adding the first translation**
-
-For the instructions, follow the directives in the [translations guide](https://github.com/microsoft/IoT-For-Beginners/blob/main/TRANSLATIONS.md) .
-
-## THANK YOU
-We truly appreciate your efforts!
diff --git a/4-manufacturing/lessons/1-train-fruit-detector/translations/README.bn.md b/4-manufacturing/lessons/1-train-fruit-detector/translations/README.bn.md
new file mode 100644
index 00000000..bd9411c8
--- /dev/null
+++ b/4-manufacturing/lessons/1-train-fruit-detector/translations/README.bn.md
@@ -0,0 +1,238 @@
+# খাদ্যপণ্যের গুণমান সনাক্তকারী মডেলকে ট্রেনিং প্রদান
+
+
+
+> স্কেচনোটটি তৈরী করেছেন [Nitya Narasimhan](https://github.com/nitya)। বড় সংস্করণে দেখার জন্য ছবিটিতে ক্লিক করতে হবে।
+
+এই ভিডিওটি Azure কাস্টম ভিশন সার্ভিসর একটি সংক্ষিপ্ত বিবরণ দেয়, যা এই পাঠে আমরা বিস্তারিত জানবো।
+
+[](https://www.youtube.com/watch?v=TETcDLJlWR4)
+
+> 🎥 উপরের ছবিতে ক্লিক করে ভিডিওটি দেখে নিই
+
+## লেকচার-পূর্ববর্তী কুইজ
+
+[লেকচার-পূর্ববর্তী কুইজ](https://brave-island-0b7c7f50f.azurestaticapps.net/quiz/29)
+
+## সূচনা
+
+কৃত্রিম বুদ্ধিমত্তা (এআই) এবং মেশিন লার্নিং (এমএল) -এর সাম্প্রতিক উন্নতি আজকের ডেভেলপারদের বিস্তৃত ক্ষমতা প্রদান করছে। এমএল মডেলগুলিকে চিত্রের বিভিন্ন জিনিস চিনতে প্রশিক্ষণ দেওয়া যেতে পারে যেমন অপরিপক্ক ফল সনাক্তকরণ এবং এটি আইওটি ডিভাইসেও ব্যবহার করা যেতে পারে ।
+
+এই পাঠে আমরা ইমেজ বা ছবির শ্রেণিবিন্যাস সম্পর্কে জানতে পারব - এমএল মডেল ব্যবহার করে বিভিন্ন জিনিসের ছবির মধ্যে পার্থক্য করা ছাড়াও কিভাবে একটি ইমেজ ক্লাসিফায়ারকে প্রশিক্ষণ দিতে হয় যে ফলটি ভাল এবং খারাপ ফল তা জানবো।
+
+এই পাঠে আমরা শিখবো :
+
+* [AI এবং ML দ্বারা পণ্য শ্রেনিবদ্ধকরণ](#AI-এবং-ML-দ্বারা-পণ্য-শ্রেনিবদ্ধকরণ)
+* [মেশিন লার্নিং দ্বারা ছবি চিহ্নিতকরণ](#মেশিন-লার্নিং-দ্বারা-ছবি-চিহ্নিতকরণ)
+* [ইমেজ ক্লাসিফায়ারকে প্রশিক্ষণ প্রদান](#ইমেজ-ক্লাসিফায়ারকে-প্রশিক্ষণ-প্রদান)
+* [ইমেজ ক্লাসিফায়ারকে টেস্ট করা](#ইমেজ-ক্লাসিফায়ারকে-মূল্যায়ণ)
+* [ইমেজ ক্লাসিফায়ারকে পুনরায় প্রশিক্ষণ প্রদান](#ইমেজ-ক্লাসিফায়ারকে-পুনরায়-প্রশিক্ষণ)
+
+## AI এবং ML দ্বারা পণ্য শ্রেনিবদ্ধকরণ
+
+বিশ্বব্যাপী জনসাধারণের খাদ্যের যোগান দেয়া কঠিন, বিশেষত কমদামে দামে সহজলভ্য করে সরবরাহ করা। সবচেয়ে বড় খরচ হল শ্রম, তাই কৃষকরা তাদের শ্রম খরচ কমাতে ক্রমবর্ধমান অটোমেশন এবং আইওটি এর মতো সরঞ্জামগুলির দিকে ঝুঁকছেন। হাতে ফসল তোলা খুবই শ্রমসাধ্য কাজ যা যন্ত্রপাতি দ্বারা প্রতিস্থাপিত হচ্ছে, বিশেষত ধনী দেশগুলিতে। ফসল কাটার জন্য যন্ত্রপাতি ব্যবহারের খরচ বাঁচানো সত্ত্বেও, একটি নেতিবাচক দিক রয়েছে - খাদ্য সংগ্রহ করার সময় ফসল সঠিকভাবে সাজানো (sort করা)।
+
+সব ফসল সমানভাবে পরিপক্ব হয়না। উদাহরণস্বরূপ, টমেটো ক্ষেতে কিছু কিছু সবুজ ফল থাকতেই এই ফসল তোলার জন্য প্রস্তুত থাকে। যদিও তাড়াতাড়ি ফসল তোলা অপচয়, তবুও কৃষকের জন্য যন্ত্রপাতি ব্যবহার করে সব ফসল সংগ্রহ করা এবং পরবর্তীতে অপরিপক্ক ফসলের নিষ্পত্তি করা সস্তা এবং সহজ।
+
+✅ আমাদের কাছাকাছি খামারে বা আমাদের বাগানে বা দোকানে থাকা বিভিন্ন ফল বা সবজি পর্যবেক্ষণ করি। সেগুলি কি একই রকম পরিপক্ক নাকি বৈচিত্র দেখা যাচ্ছে ?
+
+স্বয়ংক্রিয় পদ্ধতিতে ফসল তোলার ফলে, উৎপাদিত পণ্যের শ্রেণিবিন্যাস কার্যক্রম বর্তমানে কারখানায় হয়ে থাকে। খাদ্য লম্বা কনভেয়ার বেল্ট দিয়ে যাবে এবং শ্রমিকেরা নিম্নমানের পণ্য অপসারণ করবে। যন্ত্রপাতির কল্যাণে ফসল কাটা ও সংগ্রহ করার ক্ষেত্রে খরচ কম ছিল, কিন্তু ম্যানুয়ালি পণ্য বাছাই করা অতিরিক্ত খরচ ও শ্রমের কাজ।
+
+
+
+এই যাত্রায় পরবর্তী বিবর্তন ছিল মেশিনগুলিকে বাছাই করার জন্য ব্যবহার করা, হয় হার্ভেস্টারে নির্মিত অথবা প্রক্রিয়াকরণ কারখানায়। এই মেশিনের প্রথম প্রজন্ম অপটিক্যাল সেন্সর ব্যবহার করে রং সনাক্ত করে, অ্যাকচুয়েটরগুলিকে নিয়ন্ত্রণ করে সবুজ টমেটোকে একটি পাত্রে ধাক্কা দিয়ে ফেলে দিতো, বাতাসের লিভার বা পফ ব্যবহার করে। আবার লাল টমেটো গুলোকে ছেড়ে দিতো যাতে তারা কনভেয়র বেল্টে এগিয়ে যেতে থাকে।
+
+নীচের ভিডিওটি এই মেশিনগুলির মধ্যে একটিকে দেখায়।
+
+[](https://www.youtube.com/watch?v=AcRL91DouAU)
+
+> 🎥 উপরের ছবিতে ক্লিক করে ভিডিওটি দেখে নিই
+
+এই ভিডিওতে, টমেটো যখন একটি পরিবাহক বেল্ট (conveyer belt) থেকে অন্যটিতে যায়, সবুজ টমেটো সনাক্ত করা হয় এবং লিভারের সাহায্যে একটি আলাদা পাত্রে সরিয়ে ফেলা হয়।
+
+✅ এই অপটিক্যাল সেন্সরগুলি সঠিকভাবে কাজ করার জন্য কারখানায় বা খেতে কেমন অবস্থার প্রয়োজন হবে?
+
+এই বাছাই মেশিনের সর্বশেষ বিবর্তন এআই এবং এমএল এর সুবিধা গ্রহণ করে, ভাল পণ্যকে খারাপ থেকে আলাদা করার জন্য প্রশিক্ষিত মডেলগুলি ব্যবহার কর। এটি কেবলমাত্র সবুজ টমেটো বনাম লাল রঙের সুস্পষ্ট রঙের পার্থক্য দ্বারা নয়, বরং পণ্যের অবস্থা থেকে আরও সূক্ষ্ম পার্থক্য ধরতে পারে যা রোগ বা ক্ষত নির্দেশ করে ।
+
+## মেশিন লার্নিং দ্বারা ছবি চিহ্নিতকরণ
+
+সার্বজনীনভাবে প্রোগ্রামিং হলো এমন একটি কার্যক্রম যেখানে আমরা ডেটা গ্রহণ করি, ডেটাতে একটি অ্যালগরিদম প্রয়োগ এবং আউটপুট পাই। উদাহরণস্বরূপ, গত প্রজেক্টে আমরা জিপিএস কোঅর্ডিনেটস এবং একটি জিওফেন্স নিয়েছি্লাম, একটি অ্যালগরিদম প্রয়োগ করা হয়েছিলো যা Azure ম্যাপ দ্বারা সরবরাহ করা হয়েছিল এবং জিওফেন্সের ভিতরে বা বাইরে পয়েন্ট থাকলে তার ফলাফল পেয়েছিলাম। আমরা আরও ডেটা ইনপুট নিলে, আমরা আরও বেশি আউটপুট পাব।
+
+
+
+মেশিন লার্নিং এটিকে সম্পূর্ণ উল্টোদিক থেকে করে - আমরা ডেটা এবং পরিচিত আউটপুট দিয়ে শুরু করি এবং মেশিন লার্নিং অ্যালগরিদম সেই সংগৃহীত ফলাফলের ডেটা থেকে শিখে যে তাকে কী করতে হবে। তারপর আমরা সেই প্রশিক্ষিত অ্যালগরিদম নিতে পারি, যাকে বলা হয় *মেশিন লার্নিং মডেল* বা শুধুমাত্র *মডেল*, এবং এটিতে নতুন ডেটা ইনপুট করে আমরা নতুন আউটপুট পাব।
+
+> 🎓 তথ্য থেকে মেশিন লার্নিং অ্যালগরিদম শেখার প্রক্রিয়াকে বলা হয় *প্রশিক্ষণ (training)*। ইনপুট এবং পরিচিত আউটপুটগুলিকে *প্রশিক্ষণ ডেটা (training data)*বলা হয়।
+
+উদাহরণস্বরূপ, ইনপুট ট্রেনিং ডেটা হিসাবে আমরা একটি মডেলকে কাঁচা কলা এর কয়েক লক্ষ ছবি দিতে পারি, প্রশিক্ষণ আউটপুটকে `কাঁচা` হিসাবে সেট করতে পারি, এবং একইভাবে লক্ষ লক্ষ পাকা কলার ছবিগুলিকে প্রশিক্ষণ ডেটা হিসাবে আউটপুট সেট `পাকা` হিসাবে সেট করতে পারি। এমএল অ্যালগরিদম তারপর এই ডেটা ভিত্তিক একটি মডেল তৈরি করবে। আমরা তারপর এই মডেলটিকে যেকোন একটি কলার একটি নতুন ছবি দিলে, এটি জানাবে যে নতুন ছবিটি একটি পাকা নাকি কাঁচা কলা।
+
+> 🎓 এমএল মডেলের ফলাফলকে বলা হয় *পূর্বাভাস (predictions)* ।
+
+
+
+এমএল মডেলগুলি বাইনারি উত্তর দেয় না, বরং তারা সম্ভাব্যতা দেয়। উদাহরণস্বরূপ, একটি মডেলকে একটি কলার ছবি দেওয়া হলে এবং `পাকা` তে ৯৯.৭% এবং `কাঁচা` তে ০.০৩% এর রেজাল্ট দিতে পারে। আমাদের কোড তারপর সেই পূর্বাভাস বাছাই করবে এবং কলা পাকা - এই সিদ্ধান্ত নেবে।
+
+এইরকম ছবি সনাক্ত করতে ব্যবহৃত এমএল মডেলটিকে বলা হয় *ইমেজ ক্লাসিফায়ার* - এটিকে লেবেলযুক্ত ছবি দেওয়া হয় এবং তারপরে এই লেবেলগুলির ভিত্তিতে নতুন চিত্রগুলি শ্রেণিবদ্ধ করা হয়।
+
+> 💁 এটি একটি অতি-সরলীকরণ ব্যখ্যা এবং মডেলগুলিকে প্রশিক্ষণ দেওয়ার আরও অনেক উপায় রয়েছে যা সর্বদা লেবেলযুক্ত আউটপুটগুলির প্রয়োজন হয় না, যেমন unsupervised learning প্রক্রিয়া। আমরা যদি এমএল সম্পর্কে আরও জানতে চাই, তাহলে [মেশিন লার্নিং এর ২৪ লেসনের কারিক্যুলামটি](https://aka.ms/ML-beginners) দেখি।
+
+## ইমেজ ক্লাসিফায়ারকে প্রশিক্ষণ প্রদান
+
+একটি ইমেজ ক্লাসিফায়ার সফলভাবে প্রশিক্ষণের জন্য আমাদের লক্ষ লক্ষ ইমেজ প্রয়োজন। যেমন দেখা যাচ্ছে, একবার আমাদের লক্ষ লক্ষ বা কোটি কোটি ইমেজের উপর প্রশিক্ষণপ্রাপ্ত একটি ইমেজ ক্লাসিফায়ার হয়ে গেলে, আমরা এটি পুনরায় ব্যবহার করতে পারি এবং ছবিগুলির একটি ছোট সেট ব্যবহার করে পুনরায় প্রশিক্ষণ দিতে পারি এবং *ট্রান্সফার লার্নিং* নামক একটি প্রক্রিয়া ব্যবহার করে দুর্দান্তরকমের এক্যুরেট ফলাফল পেতে পারি। ।
+
+> 🎓 ট্রান্সফার লার্নিং হল এমন প্রক্রিয়া যেখানে আমরা একটি বিদ্যমান এমএল মডেল থেকে নতুন ডেটা ভিত্তিক নতুন মডেলে আগের লার্নিং ট্রান্সফার করি।
+
+একবার ইমেজ ক্লাসিফায়ারকে বিভিন্ন ধরণের চিত্রের জন্য প্রশিক্ষণ দেওয়া হলে, এর অভ্যন্তরীণ আকার, রঙ এবং নিদর্শনগুলি সনাক্ত করতে বেশ পারদর্শী হয়ে যায়। ট্রান্সফার লার্নিং এর দ্বারা মডেলটি ইমেজ পার্টস এর ইতিমধ্যে যা শিখেছে তা নিতে এবং নতুন ইমেজ চিনতে বেশ সুবিধা হয়।
+
+
+
+আমরা এটিকে ছোটদেরকে আকার-আকৃতি চেনানোর জন্য ছবির বইয়ের মতো মনে করতে পারি, যেখানে একবার আমরা একটি অর্ধ-বৃত্ত, একটি আয়তক্ষেত্র এবং একটি ত্রিভুজ চিনতে পারিদ। আমরা এই আকারগুলির কনফিগারেশনের উপর নির্ভর করে একটি পাল তোলা নৌকা বা একটি বিড়ালকে চিনতে পারি। ইমেজ ক্লাসিফায়ার আকার চিনতে পারে এবং ট্রান্সফার লার্নিং এটি শেখায় যে কী কী সমন্বয় করে একটি নৌকা বা একটি বিড়াল তৈরি করে - অথবা একটি কীভাবে একটি পাকা কলা পাওয়া যায়।
+
+ক্লাউড-ভিত্তিক সার্ভিসগুলি যা আমাদেরকে আমাদের মডেলকে প্রশিক্ষণ দিতে সাহায্য করে। তারপর ওয়েব এপিআইয়ের মাধ্যমে এটি ব্যবহার করতে পারি।
+
+> 💁 এই মডেলগুলিকে প্রশিক্ষণ দিতে প্রচুর কম্পিউটার রিসোর্স লাগে, সাধারণত গ্রাফিক্স প্রসেসিং ইউনিট বা জিপিইউ এর মাধ্যমে তা করা হয়। এটি সেই বিশেষ হার্ডওয়্যার যা আমাদের এক্সবক্সে গেমগুলি চালায়। মেশিন লার্নিং মডেলগুলি প্রশিক্ষণের জন্যও এটি ব্যবহার করা যেতে পারে। ক্লাউড ব্যবহার করে আমরা এই মডেলগুলিকে প্রশিক্ষণের জন্য জিপিইউ সহ শক্তিশালী কম্পিউটারের রিসোর্স পেতে পারি, আমাদের প্রয়োজনীয় কম্পিউটিং পাওয়ার এর অ্যাক্সেস পেতে পারি, কেবল আমাদের প্রয়োজনীয় সময়ের জন্য - এতে করে আমাদের খরচও কম, কাজও হয়ে যাবে।
+
+## কাস্টম ভিশন
+
+কাস্টম ভিশন হল ইমেজ ক্লাসিফায়ার প্রশিক্ষণের জন্য একটি ক্লাউড ভিত্তিক টুল। এটি আমাদেরকে অল্প সংখ্যক চিত্র ব্যবহার করে একটি ক্লাসিফায়ার প্রশিক্ষণ দেওয়ার অনুমতি দেয়। আমরা একটি ওয়েব পোর্টাল, ওয়েব এপিআই বা একটি এসডিকে এর মাধ্যমে ছবি আপলোড করতে পারি, প্রতিটি ইমেজকে একটি *ট্যাগ* দিতে পারি যেটি সেই ছবির শ্রেণিবিন্যাস নির্দেশ করে। তারপরে আমরা মডেলটিকে প্রশিক্ষণ দিব এবং এটি কতটা ভাল কাজ করে তা পরীক্ষা করে দেখব। একবার আমরা মডেলটি নিয়ে সন্তুষ্ট হলে, আমরা এর সংস্করণগুলি প্রকাশ করতে পারি যা একটি ওয়েব API বা SDK এর মাধ্যমে ব্যবহার করা যায়।
+
+
+
+> 💁 একটি কাস্টম ভিশন মডেলকে প্রতি শ্রেণিবিন্যাসের জন্য কমপক্ষে 5টির মতো প্রশিক্ষণ ছবি দিতে পারি, তবে যত বেশী দিতে পারবো, তত ভালো। উন্নত ফলাফলের জন্য কমপক্ষে 30 টি ছবি দেয়া উচিত।
+
+কাস্টম ভিশন মাইক্রোসফটের কগনিটিভ সার্ভিস নামে পরিচিত এআই টুলের একটি অংশের অংশ। এগুলি হল এআই টুলস যা কোনো প্রশিক্ষণ ছাড়াই ব্যবহার করা যেতে পারে অথবা অল্প পরিমাণে প্রশিক্ষণ দিয়ে ব্যবহার করা যেতে পারে। এর মধ্যে রয়েছে speech recognition, অনুবাদ, ভাষা বোঝা এবং চিত্র বিশ্লেষণ। এগুলি Azure সার্ভিস হিসাবে উপলব্ধ আছে, Free tier এ।
+
+> 💁 বিনামূল্যে স্তর বা Free tier একটি মডেল তৈরি করা, প্রশিক্ষণ দেওয়া, তারপর উন্নয়ন কাজের জন্য এটি ব্যবহার করার জন্য যথেষ্ট। [মাইক্রোসফট ডকস এ কাস্টম ভিশন এর লিমিট এবং কোটা - এই পেইজে](https://docs.microsoft.com/azure/cognitive-services/custom-vision-service/limits-and-quotas?WT.mc_id=academic-17441-jabenn) বিনামূল্যে স্তর (Free tier) সম্পর্কে আমরা পড়তে পারি
+
+### কাজ - কগনিটিভ সার্ভিস রিসোর্স তৈরী
+
+কাস্টম ভিশন ব্যবহার করার জন্য, আমাদেরকে প্রথমে Azure CLI ব্যবহার করে Azure- এ দুটি cognitive services resources তৈরি করতে হবে, একটি কাস্টম ভিশন প্রশিক্ষণের জন্য এবং একটি কাস্টম ভিশন ফলাফলের জন্য।
+
+1. একটি রিসোর্স গ্রুপ তৈরী করি যার নাম `fruit-quality-detector`
+
+1. একটি বিনামূল্যে কাস্টম ভিশন প্রশিক্ষণ রিসোর্স তৈরি করতে নিম্নলিখিত কমান্ডটি ব্যবহার ্করি:
+
+ ```sh
+ az cognitiveservices account create --name fruit-quality-detector-training \
+ --resource-group fruit-quality-detector \
+ --kind CustomVision.Training \
+ --sku F0 \
+ --yes \
+ --location
+ ```
+
+ `` এর স্থলে রিসোর্স গ্রুপ তৈরীতে যে লোকেশোন দেয়া হয়েছে তা বসাই।
+
+ এটি আমাদের রিসোর্স গ্রুপে একটি কাস্টম ভিশন ট্রেনিং রিসোর্স তৈরি করবে। এটিকে নাম দেয়া হবে `fruit-quality-detector-training` (ফলের-গুণ-সনাক্তকারী-প্রশিক্ষণ) এবং `F0` sku ব্যবহার করি, যা বিনামূল্য স্তরে পাওয়া যায়। `--yes` অপশনের অর্থ হল কগনিটিভ সার্ভিসের শর্তাবলীতে আমরা সম্মত।
+
+> 💁 আমরা যদি ইতিমধ্যে কোন ফ্রী একাউন্ট থেকে কগনিটিভ সার্ভিস ব্যবহার করে থাকি, তাহলে `S0` sku ব্যবহার করতে হবে।
+
+1. একটি বিনামূল্যে কাস্টম ভিশন প্রেডিকশোন রিসোর্স তৈরি করতে নিম্নলিখিত কমান্ডটি ব্যবহার করি:
+
+ ```sh
+ az cognitiveservices account create --name fruit-quality-detector-prediction \
+ --resource-group fruit-quality-detector \
+ --kind CustomVision.Prediction \
+ --sku F0 \
+ --yes \
+ --location
+ ```
+
+ `` এর স্থলে রিসোর্স গ্রুপ তৈরীতে যে লোকেশোন দেয়া হয়েছে তা বসাই।
+
+ এটি আমাদের রিসোর্স গ্রুপে একটি কাস্টম ভিশন ্প্রেডিকশন রিসোর্স তৈরি করবে। এটিকে বলা হবে `fruit-quality-detector-prediction` এবং 'F0' স্কু ব্যবহার করি, যা ফ্রী। `-yes` অপশনের অর্থ হল কগনিটিভ সার্ভিসের শর্তাবলীতে আমরা সম্মত।
+
+### কাজ - ইমেজ ক্লাসিফায়ার প্রজেক্ট তৈরী
+
+1. Custom Vision portal চালু করি [CustomVision.ai](https://customvision.ai) এবুং Azure এর জন্য ব্যবহৃত মাইক্রোসফট একাউন্টে লগিন করি।
+
+1. এখন [একটি ক্লাসিফায়ার নির্মাণের জন্য নতুন প্রজেক্ট তৈরি করার প্রক্রিয়া - Microsoft docs](https://docs.microsoft.com/azure/cognitive-services/custom-vision-service/getting-started-build-a-classifier?WT.mc_id=academic-17441-jabenn#create-a-new-project) পড়ে নতুন কাস্টম ভিশন প্রজেক্ট নির্মাণ করি।
+
+ প্রজেক্টের নাম দিই `fruit-quality-detector`.
+
+ আমরা এখন আমাদের প্রজেক্ট তৈরি করি, আমাদের আগে তৈরি করা `fruit-quality-detector-training` রিসোর্স ব্যবহার করতে হবে। একটি *ক্লাসিফিকেশন* প্রজেক্ট টাইপ, একটি *মাল্টিক্লাস* ক্লাসিফিকেশন টাইপ এবং *ফুড* ডোমেইন ব্যবহার করি।
+
+ 
+
+✅ ইমেজ ক্লাসিফায়ারের জন্য কাস্টম ভিশন ইউআই এক্সপ্লোর করার জন্য কিছু সময় নিই।
+
+### কাজ - ইমেজ ক্লাসিফায়ারকে প্রশিক্ষণ প্রদান
+
+একটি ইমেজ ক্লাসিফায়ারকে প্রশিক্ষণ দেওয়ার জন্য, আমাদের ভাল এবং খারাপ উভয় গুণের ফলের একাধিক ছবি প্রয়োজন হবে, যেমন একটি পাকা এবং একটি অতিরিক্ত পাকা কলা।
+
+> 💁এই ক্লাসিফায়ারগুলো যেকোনো কিছুর ছবিকে শ্রেণীবদ্ধ করতে পারে। তাই যদি আমাদের কাছে ভিন্ন মানের ফল না থাকে তবে আমরা অন্য যেকোন দুটি ভিন্ন ধরনের ফল ব্যবহার করতে পারেন, অথবা বিড়াল এবং কুকুর - এই ধর০ণের ক্লাসিফিকেশনও করতে পারি!
+
+আদর্শভাবে প্রতিটি ছবিতে শুধু ফল থাকা উচিত, যার মধ্যে একটি সামঞ্জস্যপূর্ণ ব্যাকগ্রাউণ্ড , অথবা বিভিন্ন প্রকারের ব্যাকগ্রাউণ্ড থাকতে হবে। নিশ্চিত করি যে ব্যাকগ্রাউণ্ড এ এমন কিছু নেই যা পাকা বনাম কাঁচা ফলের সনাক্তকরণে প্রভাব ফেলবে।
+
+> 💁 নির্দিষ্ট ব্যাকগ্রাউণ্ড বা নির্দিষ্ট আইটেম না থাকাই ভালো যা ক্লাসিফায়ারের জন্য অপ্রাসঙ্গিক, অন্যথায় ক্লাসিফায়ারের কেবল ব্যাকগ্রাউণ্ড এর উপর ভিত্তি করে শ্রেণীবদ্ধ করতে পারে। ত্বকের ক্যান্সারের জন্য একটি ক্লাসিফায়ার ছিল যা মোলগুলির স্বাভাবিক এবং ক্যান্সারযুক্ত উভয় এর জন্য প্রশিক্ষিত ছিল। ক্যান্সারযুক্ত মোলের ছবিতে আকার পরিমাপের জন্য সেখানে স্কেল রাখা ছিলো। এটি দেখা যায় যে, ক্লাসিফায়ারের ছবিগুলিতে স্কেল্গুলোকে চিহ্নিত করার ক্ষেত্রে প্রায় 100% নির্ভুল ছিল, কিন্তু সত্যিকারের ক্যান্সারযুক্ত মোল এর ক্ষেত্রে (ছবিতে স্কেল না রেখে) তা ততটা ভালো প্রেডিকশন দিতে পারেনি।।
+
+ইমেজ ক্লাসিফায়ার খুব কম রেজ্যুলেশনে চলে। উদাহরণস্বরূপ, কাস্টম ভিশন 10240x10240 পর্যন্ত প্রশিক্ষণ এবং ভবিষ্যদ্বাণী চিত্র গ্রহণ করতে পারে, কিন্তু 227x227 রেজ্যুলেশনে চিত্রগুলিতে মডেলটি প্রশিক্ষণ এবং রান করে। বড় আকারের ছবিগুলি এই আকারে সঙ্কুচিত হয়, তাই আমাদেরকে নিশ্চিত করতে হবে যে আমরা যে জিনিসটি শ্রেণিবদ্ধ করছি তা চিত্রের একটি বড় অংশ দখল করে অন্যথায় এটি ক্লাসিফায়ার দ্বারা পরিবর্তিত ছোট ছবিতে খুবই ছোট হয়ে যেতে পারে।
+
+1. আমাদের ক্লাসিফায়ারের জন্য ছবি সংগ্রহ করতে হবে। ক্লাসিফায়ারকে প্রশিক্ষণের জন্য আমাদেরকে প্রতিটি লেবেলের কমপক্ষে .৫ টি ছবির প্রয়োজন হবে, তবে বেশি হলে আরও ভাল। ক্লাসিফায়ার পরীক্ষা করার জন্য আমাদের কয়েকটি অতিরিক্ত চিত্রেরও প্রয়োজন হবে। এই ছবিগুলি সব একই জিনিসের ভিন্ন চিত্র হওয়া উচিত। উদাহরণ স্বরূপ:
+
+ * ২টি পাকা কলা নিয়ে, কয়েকটি ভিন্ন অবস্থান থেকে প্রত্যেকটির কিছু ছবি তুলি, কমপক্ষে ৭ টি ছবি তুলতে হবে (৫ টি প্রশিক্ষণ, ২টি পরীক্ষা)। কিন্তু আরও বেশি ছবি তুলতে পারলে ভালো।
+
+ 
+
+ * ২টি কাঁচা কলা একই কাজটি আবারও করি।
+
+ আমাদের কমপক্ষে ১০টি প্রশিক্ষণ চিত্র থাকতে হবে, যার মধ্যে কমপক্ষে ৫ টি পাকা এবং ৫ টি কাঁচা এবং ৪ টি পরীক্ষার চিত্র, যেখানে ২টি পাকা, ২টি কাঁচা। আমাদের ছবিগুলি png বা jpegs হওয়া উচিত যা 6MB এর চেয়ে ছোট। যদি আমরা সেগুলোকে আইফোন দিয়ে ধারণ করি, উদাহরণস্বরূপ সেগুলো হতে পারে উচ্চ রেজোলিউশনের HEIC ছবি, তাই রূপান্তর করতে হবে এবং সম্ভবত সঙ্কুচিত হতে হবে। মনে রাখতে হবে, যত বেশি ছবি তত ভাল এবং আমাদের একই সংখ্যক পাকা এবং কাঁচা ্কলার ছবি থাকতে হবে।
+
+ যদি আমাদের পাকা এবং কাঁচা উভয় ফলই না থাকে, তাহলে আমরা বিভিন্ন ফল, অথবা আমাদের কাছে থাকা যেকোনো দুটি বস্তু ব্যবহার করতে পারব। আমরা পাকা এবং কাঁচা কলাগুলির [images](./images) ফোল্ডারে কিছু উদাহরণ চিত্র খুঁজে পাব যা আমরা ব্যবহার চাইলে করতে পারি।
+
+1. এক্ষেত্রে সহজে অনুসরণযোগ্য গাইড হিসেবে [ক্লাসিফায়ারের জন্য ছবি আপলোড ও ট্যাগ](https://docs.microsoft.com/azure/cognitive-services/custom-vision-service/getting-started-build-a-classifier?WT.mc_id=academic-17441-jabenn#upload-and-tag-images) ্দেখতে পারি। পাকা কলাকে `ripe` এবং কাঁচাগুলোকে `unripe` হিসেবে ট্যাগ দিই।
+
+ 
+
+1. এখন [ক্লাসিফায়ারের ট্রেনিং কুইকস্টার্ট গাইড ](https://docs.microsoft.com/azure/cognitive-services/custom-vision-service/getting-started-build-a-classifier?WT.mc_id=academic-17441-jabenn#train-the-classifier) দেখে ট্রেনিং সম্পন্ন করি।
+
+ ট্রেনিং টাইপের জন্য **Quick Training** নির্বাচন করি।
+
+> 🍌 ক্লাসিফায়ার প্রশিক্ষণ চলাকালীন যদি এই ফলগুলো খাওয়ার চিন্তা মাথায় আসে, তাহলে আগেই যথেষ্ট সংখ্যক ছবি তুলে রাখি !
+
+## ইমেজ ক্লাসিফায়ারকে মূল্যায়ণ
+
+একবার এই ক্লাসিফায়ার ট্রেইনড হয়ে গেলে, এটিতে ছবি চিহ্নিতকরণের জন্য করার জন্য একটি নতুন (টেস্ট) চিত্র দিয়ে এটি পরীক্ষা করি।
+
+### কাজ - ইমেজ ক্লাসিফায়ারকে মূল্যায়ণ
+
+1. এক্ষেত্রে সহজে অনুসরণযোগ্য [মডেল টেস্ট করার গাইড](https://docs.microsoft.com/azure/cognitive-services/custom-vision-service/test-your-model?WT.mc_id=academic-17441-jabenn#test-your-model) অনুসরণ করি, নতুন ছবি দিয়ে টেস্ট করতে।
+
+ 
+
+1. আমাদের কাছে থাকা সমস্ত ছবিগুলি দিয়ে চেষ্টা করি এবং ফলাফলের নির্ভুল হবার সম্ভাবনা পর্যবেক্ষণ করি।
+
+## ইমেজ ক্লাসিফায়ারকে পুনরায় প্রশিক্ষণ
+
+যখন আমরা আমাদের ক্লাসিফায়ার পরীক্ষা করি, এটি আমাদের প্রত্যাশিত ফলাফল নাও দিতে পারে। ইমেজ ক্লাসিফায়ার মেশিন লার্নিং ব্যবহার করে একটি ছবিতে কি আছে সে সম্পর্কে ভবিষ্যদ্বাণী করে, সম্ভাবনার উপর ভিত্তি করে একটি ইমেজের বিশেষ বৈশিষ্ট্য (একটি নির্দিষ্ট লেবেলের) সাথে মিলিয়ে দেখে। এটি ছবিতে কি আছে তা বোঝে না - এটি একটি কলা কী তা জানে না বা বুঝতে পারেনা যে একটি কলা ও নৌকার মধ্যে কী পার্থক্য। কোন ভুল থাকলে, আমরা আমাদের ক্লাসিফায়ারকে ইমেজ দিয়ে পুনরায় প্রশিক্ষণ দিয়ে আরো উন্নত করতে পারি।
+
+প্রতিবার আমরা quick test ব্যবহার করে রান দিলে, ছবি এবং ফলাফল সংরক্ষণ করা হয়। আমরা আমাদের মডেল পুনরায় প্রশিক্ষণ দিতে এই ছবি ব্যবহার করতে পারি।
+
+### কাজ - ইমেজ ক্লাসিফায়ারকে পুনরায় প্রশিক্ষণ
+
+1. এক্ষেত্রে সহজে অনুসরণযোগ্য গাইড হিসেবে [Predicted ছবি ব্যবহার করে ট্রেনিং প্রদান - এই ডকুমেন্ট ](https://docs.microsoft.com/azure/cognitive-services/custom-vision-service/test-your-model?WT.mc_id=academic-17441-jabenn#use-the-predicted-image-for-training) পড়ে, আমাদের মডেলকে পুনরায় প্রশিক্ষণ দিতে পারি, সঠিক ট্যাগ ব্যবহার করে।
+
+1. মডেলকে retrain করা হয়ে গেলে, টেস্ট ইমেজ দিয়ে পরীক্ষা করে দেখি।
+
+---
+
+## 🚀 চ্যালেঞ্জ
+
+যদি আমরা কলার উপর প্রশিক্ষিত একটি মডেলকে একটি স্ট্রবেরি এর ছবি অথবা একজন ব্যক্তি যিনি কলার স্যুট বা কস্টিউম পরে রয়েছেন অথবা একটি হলুদ রঙের কার্টুন চরিত্র যেমন সিম্পসন এর ছবি দিয়ে টেস্ট করতে যাই, তাহলে কোন ধরণের ফলাফল আসতে পারে বলে মনে হয় ?
+
+নিশ্চিত না হলে, আমরা বরং কাজটি আসলেই করে দেখি যে কেমন ফলাফল আসে। ছবি আমরা [Bing Image search](https://www.bing.com/images/trending) থেকেই পেয়ে যাব।
+
+## লেকচার-পরবর্তী কুইজ
+
+[লেকচার-পরবর্তী কুইজ](https://brave-island-0b7c7f50f.azurestaticapps.net/quiz/30)
+
+## রিভিউ এবং স্ব-অধ্যয়ন
+
+
+* যখন ক্লাসিফায়ারকে প্রশিক্ষণ দিচ্ছিলাম, তখন সেখানে আমরা হয়তো *Precision*, *Recall*, and *AP* এর মান দেখেছি যা তৈরি করা মডেলটিকে রেটিং দেয়। এই মানগুলি কী তা সম্পর্কে আরো জানতে আমরা [ক্লাসিফায়ার মূল্যায়ন সংক্রান্ত ডকুমেন্ট](https://docs.microsoft.com/azure/cognitive-services/custom-vision-service/getting-started-build-a-classifier?WT.mc_id=academic-17441-jabenn#evaluate-the-classifier) পড়তে পারি।
+* ক্লাসিফায়ারের মান আরো উন্নত করার জন্য [কাস্টম ভিশন মানোন্নয়ন সংক্রান্ত ডকুমেন্ট](https://docs.microsoft.com/azure/cognitive-services/custom-vision-service/getting-started-improving-your-classifier?WT.mc_id=academic-17441-jabenn) পড়তে পারি।
+
+
+## এসাইনমেন্ট
+
+[বিভিন্ন ফল ও সবজির জন্য ক্লাসিফায়ার তৈরী](assignment.bn.md)
diff --git a/4-manufacturing/lessons/1-train-fruit-detector/translations/assignment.bn.md b/4-manufacturing/lessons/1-train-fruit-detector/translations/assignment.bn.md
new file mode 100644
index 00000000..b2810945
--- /dev/null
+++ b/4-manufacturing/lessons/1-train-fruit-detector/translations/assignment.bn.md
@@ -0,0 +1,16 @@
+# বিভিন্ন ফল ও সবজির জন্য ক্লাসিফায়ার তৈরী
+
+## নির্দেশাবলী
+
+এই পাঠে আমরা একটি ইমেজ ক্লাসিফায়ারকে পাকা এবং কাঁচা ফলের মধ্যে পার্থক্য করতে প্রশিক্ষণ দিয়েছি, কিন্তু শুধুমাত্র এক ধরনের ফল ব্যবহার করে। ফলের ধরণ এবং পাকা ও কাঁচা এর মধ্যে পার্থক্য অনুসারে সাফল্যের বিভিন্ন হারের সাথে একটি ক্লাসিফায়ারকে একাধিক ফল চিনতে প্রশিক্ষণ দেওয়া যেতে পারে।
+
+উদাহরণস্বরূপ, যেসব ফল পাকলে রঙ পরিবর্তন করে তাদের সাথে, ইমেজ ক্লাসিফায়ারগুলি রঙ সনাক্তকারী সেন্সরের চেয়ে কম কার্যকর হতে পারে কারণ তারা সাধারণত সম্পূর্ণ রঙের পরিবর্তে ধূসর স্কেলের ছবিতে কাজ করে।
+
+আমাদের ক্লাসিফায়ারকে অন্যান্য ফলের সাথে প্রশিক্ষণ দিয়ে দেখা যেতে পারে যে এটি কতটা ভাল কাজ করে, বিশেষ করে যখন ফলগুলি প্রায় একই রকম দেখতে হয়। উদাহরণস্বরূপ, আপেল এবং টমেটো।
+
+## এসাইনমেন্ট মূল্যায়ন মানদন্ড
+
+| ক্রাইটেরিয়া | দৃষ্টান্তমূলক (সর্বোত্তম) | পর্যাপ্ত (মাঝারি) | উন্নতি প্রয়োজন (নিম্নমান) |
+| --------- | ------------------ | -------------- | -------------------- |
+|একাধিক খাদ্যপণ্যের জন্য ক্লাসিফায়ারকে প্রশিক্ষণ প্রদান | একাধিক ফলের জন্য ক্লাসিফায়ার প্রশিক্ষণ দিতে সক্ষম | কেবল একধরণের ফলের জন্য ক্লাসিফায়ারকে প্রশিক্ষণ দিতে সক্ষম| ক্লাসিফায়ার প্রশিক্ষণ দিতে ব্যার্থ |
+| ক্লাসিফায়ারের সাফল্য নিরূপণ | বিভিন্ন খাদ্যপণ্যের জন্য ক্লাসিফায়ারের সাফল্য নিরূপণ করে তা যথাযথভাবে ব্যখ্যা করতে সক্ষম | পর্যবেক্কখণ এবং মানোন্নয়নের জন্য সুপারিশ প্রদান করতে সক্ষম | ক্লাসিফায়ারের সাফল্য নির্ধারণে ব্যার্থ |
diff --git a/4-manufacturing/lessons/2-check-fruit-from-device/README.md b/4-manufacturing/lessons/2-check-fruit-from-device/README.md
index e8d5ca06..2eadee45 100644
--- a/4-manufacturing/lessons/2-check-fruit-from-device/README.md
+++ b/4-manufacturing/lessons/2-check-fruit-from-device/README.md
@@ -24,7 +24,7 @@ In this lesson we'll cover:
## Camera sensors
-Camera sensors, as the name suggests, are cameras that you can connect to your IoT device. They can take still images, or capture streaming video. Some will return raw image data, others will compress the image data into an image file such as a JPEG or PNG. Usually the cameras that work with IoT devices are much smaller and lower resolution that what you might be used to, but you can get high resolution cameras that will rival top end phones. You can get all manner of interchangeable lenses, multiple camera setups, infra-red thermal cameras, or UV cameras.
+Camera sensors, as the name suggests, are cameras that you can connect to your IoT device. They can take still images, or capture streaming video. Some will return raw image data, others will compress the image data into an image file such as a JPEG or PNG. Usually the cameras that work with IoT devices are much smaller and lower resolution than what you might be used to, but you can get high resolution cameras that will rival top end phones. You can get all manner of interchangeable lenses, multiple camera setups, infra-red thermal cameras, or UV cameras.

diff --git a/4-manufacturing/lessons/2-check-fruit-from-device/translations/.dummy.md b/4-manufacturing/lessons/2-check-fruit-from-device/translations/.dummy.md
deleted file mode 100644
index 6e7db247..00000000
--- a/4-manufacturing/lessons/2-check-fruit-from-device/translations/.dummy.md
+++ /dev/null
@@ -1,9 +0,0 @@
-# Dummy File
-
-This file acts as a placeholder for the `translations` folder.
-**Please remove this file after adding the first translation**
-
-For the instructions, follow the directives in the [translations guide](https://github.com/microsoft/IoT-For-Beginners/blob/main/TRANSLATIONS.md) .
-
-## THANK YOU
-We truly appreciate your efforts!
diff --git a/4-manufacturing/lessons/2-check-fruit-from-device/translations/README.bn.md b/4-manufacturing/lessons/2-check-fruit-from-device/translations/README.bn.md
new file mode 100644
index 00000000..eb5ce53e
--- /dev/null
+++ b/4-manufacturing/lessons/2-check-fruit-from-device/translations/README.bn.md
@@ -0,0 +1,175 @@
+# IoT ডিভাইস ব্যবহার করে ফল এর মান যাচাই
+
+
+
+> স্কেচনোটটি তৈরী করেছেন [Nitya Narasimhan](https://github.com/nitya)। বড় সংস্করণে দেখার জন্য ছবিটিতে ক্লিক করতে হবে।
+
+## লেকচার-পূর্ববর্তী কুইজ
+
+[লেকচার-পূর্ববর্তী কুইজ](https://brave-island-0b7c7f50f.azurestaticapps.net/quiz/31)
+
+## সূচনা
+
+পূর্ববর্তী লেসন এ আমরা ইমেজ ক্লাসিফায়ার নিয়ে জানলাম এবং আরো জেনেছি কিভাবে তাদেরকে প্রশিক্ষিত (train) করা যায় ভাল এবং খারাপ ফল সনাক্ত করার জন্য। এই ইমেজ ক্লাসিফায়ার IoT এপ্লিকেশন এ ব্যবহার করতে আমাদেরকে কোনো ধরনের ক্যামেরা দিয়ে ইমেজ ক্যাপচার করতে হবে এবং সেই ইমেজটি ক্লাউড এ পাঠাতে হবে।
+
+
+এই লেসন এ আমরা ক্যামেরা সেন্সর নিয়ে জানবো এবং কিভাবে এগুলোকে IoT ডিভাইস এর সাথে ব্যবহার করে ইমেজ ক্যাপচার করতে হয় তা শিখবো। এছাড়াও আমরা দেখবো কিভাবে ইমেজ ক্লাসিফায়ারকে IoT ডিভাইস থেকে কল করতে হয়।
+
+এই লেসন এ আমরা কভার করবোঃ
+
+* [ক্যামেরা সেন্সর](#ক্যামেরা-সেন্সর)
+* [IoT ডিভাইস ব্যবহার করে ইমেজ ক্যাপচার করা](#IoT-ডিভাইস-ব্যবহার-করে-ইমেজ-ক্যাপচার-করা)
+* [আমাদের ইমেজ ক্লাসিফায়ার পাবলিশ করি](#আমাদের-ইমেজ-ক্লাসিফায়ার-পাবলিশ-করি)
+* [IoT ডিভাইস থেকে ইমেজ ক্লাসিফাই করা](#IoT-ডিভাইস-থেকে-ইমেজ-ক্লাসিফাই-করা)
+* [Model উন্নত করা](#Model-উন্নত-করা)
+
+## ক্যামেরা সেন্সর
+
+ক্যামেরা সেন্সর, তার নামের মতই এমন ক্যামেরা যা IoT ডিভাইস এর সাথে কানেক্ট করা যায়। এগুলো স্থিরচিত্র অথবা স্ট্রিমিং ভিডিও ক্যাপচার করতে পারে, কিছু ডিভাইস গুলো মূল ইমেজ ডাটা ফেরত পাঠাই , বাকি গুলো ইমেজ ডাটা কমপ্রেস করে JPEG অথবা PNG টাইপ এর ইমেজ ফাইল বানাবে। সাধারণত যে কামেরা গুলো IoT ডিভাইস গুলোর সাথে ব্যবহার করা হয় আমরা যেগুলো ব্যবহার করে অভ্যস্ত সেগুলো থেকে অনেক ছোট সাইজ এর এবং কম রেজোলিউশান এর, কিন্তু আমরা হাই রেজোলিউশান এর ক্যামেরা নিতে পারি যেগুলো আধুনিক ফোন গুলার সাথে টেক্কা দেয়। আমরা সব ধরনের ইন্টারচেঞ্জেবল লেন্স, কয়েকটা ক্যামেরা সেটাপ, ইনফ্রারেড থার্মাল ক্যামেরা অথবা ইউভি ক্যামেরা নিতে পারি।
+
+
+
+
+বেশিরভাগ ক্যামেরা সেন্সর ইমেজ সেন্সর ব্যবহার করে যেখানে প্রত্যেক পিক্সেল হল ফটোডায়োড। একটা লেন্স ইমেজ সেন্সর এর উপর ইমেজ টাকে ফোকাস করে এবং হাজার অথবা লক্ষ লক্ষ ফটোডায়োড প্রত্যেকে তার উপর আপতিত আলো ডিটেক্ট করে এবং পিক্সেল ডাটা হিসাবে রেকর্ড করে।
+
+> 💁 লেন্স ইমেজ কে উল্টায়, পরে ক্যামেরা সেন্সর আবার ঠিক ভাবে ইমেজটাকে উল্টায়। ঠিক একই রকম আমাদের চোখে হয় - আমরা যা দেখি তা চোখের পিছনে উল্টো ভাবে ডিটেক্ট করে এবুং ব্রেন সেটাকে ঠিক করে।
+
+> 🎓 ইমেজ সেন্সরটা একটিভ-পিক্সেল সেন্সর (APS) হিসেবে পরিচিত, এবং সবচেয়ে জনপ্রিয় টাইপ এর APS হল কমপ্লিমেন্টারি মেটাল-অক্সাইড সেমিকন্ডাক্টর সেন্সর, অথবা CMOS। আমরা শুনে থাকতে পারি ক্যামেরা সেন্সর এ CMOS সেন্সর ব্যবহার এর টার্ম টা।
+
+
+ক্যামেরা সেন্সর হল ডিজিটাল সেন্সর , ইমেজ ডাটা কে ডিজিটাল ডাটা হিসেবে পাঠায়, সাধারণত যে লাইব্রেরি কমিউনিকেশন প্রদান করে তার সাহায্য নিয়ে, ক্যামেরা গুলো কানেক্ট করে SPI এর মত প্রোটকল ব্যবহার করে যা তাদের বড় পরিমাণে ডাটা পাঠাতে অনুমোদন দেয় - ইমেজ গুলো temperature সেন্সর এর মত সেন্সর থেকে পাওয়া সিংগেল নাম্বার থেকে যথেষ্ট পরিমাণে বড়।
+
+
+✅ IoT ডিভাইস গুলোর ইমেজ সাইজ এর সীমাবদ্ধতা কি কি? সীমাবদ্ধতাগুলো চিন্তা করি বিশেষ করে মাইক্রোকন্ট্রোলার হার্ডওয়ার এর উপর।
+
+
+## IoT ডিভাইস ব্যবহার করে ইমেজ ক্যাপচার করা
+
+আমরা আমাদের IoT ডিভাইস ক্যাপচার এবং ইমেজ ক্লাসিফাই করতে ব্যবহার করতে পারি।
+
+### কাজ - IoT ডিভাইস ব্যবহার করে ইমেজ ক্যাপচার করা
+
+নিম্নের কোন একটি প্রাসঙ্গিক গাইড এর মাধ্যমে IoT ডিভাইস ব্যবহার করে ইমেজ ক্যাপচার করিঃ
+
+
+* [Arduino - Wio Terminal](../wio-terminal-camera.md)
+* [Single-board computer - Raspberry Pi](../pi-camera.md)
+* [Single-board computer - Virtual device](../virtual-device-camera.md)
+
+
+## আমাদের ইমেজ ক্লাসিফায়ার পাবলিশ করি
+
+আমরা শেষ লেসন এ ইমেজ ক্লাসিফায়ার ট্রেন করেছিলাম। IoT ডিভাইস এটা ব্যবহার করার আগে, আমাদের model তা পাবলিশ করতে হবে।
+
+### Model Iteration
+
+যখন আমাদের মডেলে শেষ লেসন এ ট্রেনিং হচ্ছিলো, আমরা হয়ত খেয়াল করছিলাম যে **Performance** ট্যাব সাইড এ Iteration গুলো দেখায়। যখন আমরা প্রথম model টা ট্রেন করি তখন আমরা দেখে থাকতে পারি *Iteration 1* ট্রেইনিং এ। যখন আমরা model টাকে প্রেডিকশন ইমেজ ব্যবহার করে আরো উন্নত করি, তখন আমরা দেখে থাকতে পারি *Iteration 2* ট্রেইনিং এ।
+
+প্রতেকবার আমরা যখন model টাকে ট্রেইন করি, আমরা নতুন Iteration পাই। এভাবে আমরা বিভিন্ন ডাটাসেট এর উপর ট্রেইন করা আমাদের model এর বিভিন্ন ভার্সন ট্র্যাক করতে পারি। যখন আমরা **Quick Test** করি, এখানে আমরা Iteration সিলেক্ট করার একটি ড্রপডাউন মেনু পাই, যেন আমরা বিভিন্ন Iteration এর রেজাল্ট তুলনা করতে পারি।
+
+যখন আমরা একটি Iteration নিয়ে সন্তুষ্ট হই, আমরা এটাকে পাবলিশ করতে পারি এক্সটার্নাল এপ্লিকেশন থেকে ব্যবহার সহজলভ্য করার জন্য। এভাবে আমরা আমাদের ডিভাইস দিয়ে ব্যবহার করা একটি পাবলিক ভার্সন পেতে পারি, পরে আরো নতুন কিছু Iteration এর উপর নতুন ভার্সন নিয়ে কাজ করতে পারি, পরে যখন আমরা এটা নিয়ে সন্তুষ্ট হব তখন এটা পাবলিশ করতে পারি।
+
+### কাজ - Iteration পাবলিশ করা
+
+Iteration গুলো কাস্টম ভিসন পোর্টাল থেকে পাবলিশ করতে হয়।
+
+1. [CustomVision.ai](https://customvision.ai) তে কাস্টম ভিসন পোর্টাল লঞ্চ করি এবং সাইন ইন করি যদি ইতিমধ্যে এটা খুলে না থাকি। পরে আমাদের `fruit-quality-detector` প্রোজেক্ট খুলি।
+
+
+1. উপরের অপশন থেকে **Performance** ট্যাব সিলেক্ট করি।
+
+1. সাইড এর *Iterations* লিস্ট থেকে সর্বশেষ Iteration সিলেক্ট করি।
+
+1. Iteration এর জন্য **Publish** বাটন সিলেক্ট করি।
+
+ 
+
+
+1. *Publish Model* ডায়লগ এ, *Prediction resource* এ আগের লেসন এ আমাদের তৈরি রিসোর্স `fruit-quality-detector-prediction` সেট করি। নাম হিসেবে `Iteration2` রাখি, এবং **Publish** বাটন সিলেক্ট করি।
+
+
+1. একবার পাবলিশ করা হলে, **Prediction URL** বাটন সিলেক্ট করি। এটা প্রেডিকশন এপিআই এর ডিটেলস দেখাবে, এবং আমাদের IoT ডিভাইস থেকে model কে কল করতে এগুলো দরকার হবে। নিচের সেকশন কে *If you have an image file* হিসেবে লেবেল করা এবং এই ডিটেইল গুলো আমরা চাই। দেখানো URL এর কপি করি যেটা কিছু টা এরকম হবেঃ
+
+ ```output
+ https://.api.cognitive.microsoft.com/customvision/v3.0/Prediction//classify/iterations/Iteration2/image
+ ```
+ যেখানে `` হবে কাস্টম ভিসন পোর্টাল রিসোর্স তৈরি করার সময় ব্যবহার করা লোকেশন, এবং `` হবে অনেকগুলো লেটার এবং নাম্বার দিয়ে তৈরি করা লম্বা আইডি।
+
+ এছাড়াও *Prediction-Key* ভ্যালু এর একটি কপি নিই। এটা একটি সিকিউরড কী (KEY) যেটা model কে কল করার সময় পাস করা হয়। শুধুমাত্র যে আপ্লিকেশন গুলো এই কি পাস করবে তাদেরকে model টা ব্যবহার করতে দেয়া হবে, অন্য সব আপ্লিকেশন কে প্রত্যাখ্যান হবে।
+
+ 
+
+
+
+✅ যখন একটি নতুন Iteration পাবলিশ করা হয়, তখন এটার অন্য নাম থাকে। IoT ডিভাইস এর ব্যবহার করা Iteration আমরা কিভাবে পরিবর্তন করা যায় সেটা আমরা কিভাবে চিন্তা করতে পারি।
+
+## IoT ডিভাইস থেকে ইমেজ ক্লাসিফাই করা
+
+আমরা এখন এই কানেকশন ডিটেইলস গুলো IoT ডিভাইস থেকে ইমেজ ক্লাসিফায়ার কল করার জন্য ব্যবহার করতে পারি।
+
+### কাজ - আমাদের IoT ডিভাইস থেকে ইমেজ ক্লাসিফাই করা
+
+প্রাসঙ্গিক গাইড এর মাধ্যমে কাজ IoT ডিভাইস ব্যবহার করে ইমেজ ক্যাপচার করিঃ
+
+* [Arduino - Wio Terminal](../wio-terminal-classify-image.md)
+* [Single-board computer - Raspberry Pi/Virtual IoT device](../single-board-computer-classify-image.md)
+
+## Model উন্নত করা
+
+আমরা যেনে থাকতে পারি যে, IoT ডিভাইস এর সাথে কানেক্টেড থাকা ক্যামেরা থেকে আমরা আশানুরূপ রেজাল্ট নাও পেতে পারি। আমাদের কম্পিউটার থেকে আপলোড করা ইমেজ ব্যবহার করা প্রেডিকশন গুলো সবসময় সঠিক হয় না। এটার কারন হল Model যে ডাটার উপর ট্রেইন করা হয়েছে তার থেকে ভিন্ন ডাটা প্রেডিকশন এর জন্য ব্যবহার করা।
+
+ইমেজ ক্লাসিফায়ার থেকে সবচেয়ে ভাল রেজাল্ট এর জন্য, আমরা প্রেডিকশন এর জন্য ব্যবহার করা ইমেজ এর মত যথাসম্ভব অনুরূপ ইমেজ উপর আমাদের model ট্রেইন করতে চাবো। উদাহরণ স্বরূপ, আমরা যদি ট্রেইনিং এর ইমেজ ক্যাপচার এর জন্য ফোন ক্যামেরা ব্যবহার করি, সেটার ইমেজ কোয়ালিটি, শার্পনেস, এবং কালার একট IoT ডিভাইস এর সাথে কানেক্টেড ক্যামেরা থেকে ভিন্ন হবে।
+
+
+
+
+উপরের ইমেজ এ, বামের কলার ছবি একটি রাস্পবেরি পাই ক্যামেরা থেকে নেয়া হয়েছিল, ডানের টা একই কলার ছবি আইফোন ক্যামেরা থেকে নেয়া হয়েছিল। এখানের কোয়ালিটির দিক থেকে লক্ষণীয় ভিন্নতা আছে - আইফোন এর ছবি টা শার্পার, উজ্জ্বল কালার সহ এবং বেশি কন্ট্রাস্ট এর।
+
+
+✅ আমাদের IoT ডিভাইস দিয়ে ক্যাপচার করা ইমেজ এর ভুল প্রেডিকশন এর জন্য আর কি কি কারন থাকতে পারে? একটা IoT ডিভাইস যে পরিবেশে ব্যবহার করা হতে পারে সেটা নিয়ে চিন্তা করি, কি কি ফ্যাক্টর ক্যাপচার করা ইমেজ কে প্রভাবিত করতে পারে।
+
+মডেল কে উন্নত করার জন্য, আমরা IoT ডিভাইস থেকে ক্যাপচার করা ইমেজ দিয়ে রিট্রেইন করতে পারি।
+
+---
+
+### কাজ - মডেল উন্নত করা
+
+1. আমাদের IoT ডিভাইস দিয়ে পাকা এবং কাঁচা ফলের কিছু ইমেজ ক্লাসিফাই করি।
+
+1. কাস্টম ভিসন পোর্টাল এ, *Predictions* ট্যাব এর ইমেজ ব্যবহার করে রিট্রেইন করি।
+
+ > ⚠️আমরা [এই সিরিজের ১ম লেসন থেকে ক্লাসিফায়ার retain করার জন্য প্রয়োজনীয় নির্দেশনা](../1-train-fruit-detector/README.md#retrain-your-image-classifier) দেখতে পারি, যদি প্রয়োজন হয়।
+
+
+1. যদি আমাদের ইমেজ ট্রেইনিং এ ব্যবহার করা আসল ইমেজ থেকে দেখতে অনেক ভিন্ন হয়, আমরা আসল ইমেজ গুলো *Training Images* ট্যাব সিলেক্ট করে এবং **Delete** বাটন সিলেক্ট করে ডিলিট করতে পারি। ইমেজ সিলেক্ট করার জন্য, আমাদের কার্সর তা এর উপর মুভ করি এবং একটি টিক আসবে, টিক টা সিলেক্ট অথবা ডিসিলেক্ট করি ইমেজ সিলেক্ট অথবা ডিসিলেক্ট করার জন্য।
+
+1. একটি নতুন Iteration ট্রেইন করি এবং উপরের ধাপ ব্যবহার করে পাবলিশ করি।
+
+1. আমাদের কোড এর endpoint URL আপডেট করি, এবং অ্যাপ তা পুনরায় রান করি।
+
+1. প্রেডিকশন এর রেসাল্ট নিয়ে সন্তুষ্ট না হওয়া পর্যন্ত এই ধাপ গুলো Iteration করি।
+
+---
+
+
+## 🚀 চ্যালেঞ্জ
+
+ইমেজ এর রেজোলিউশন অথবা আলোর উপস্থিতি এখানে প্রেডিকশন কে কতটুকু প্রভাবিত করে?
+
+আমাদের ডিভাইস এর কোড এ ইমেজ এর রেজোলিউশন পরিবর্তন করার চেষ্টা করি এবং দেখি এটা ইমেজ এর কোয়ালিটি তে কোন পার্থক্য আনে কিনা। এছাড়াও আলো চেঞ্জ করেও চেষ্টা করে দেখতে পারি।
+
+যদি আমরা এই প্রোডাকশন ডিভাইসটি কোন ফার্ম অথবা ফ্যাক্টরি তে বিক্রয়ের জন্য তৈরী করি, আমরা কিভাবে নিশ্চিত করতে পারি যে এটা সব সময় ধারাবাহিকভাবে ভালো ফলাফল দিবে?
+
+## লেকচার-পরবর্তী কুইজ
+
+[লেকচার-পরবর্তী কুইজ](https://brave-island-0b7c7f50f.azurestaticapps.net/quiz/32)
+
+## রিভিউ ও স্ব-অধ্যয়ন
+
+আমরা আমাদের কাস্টম ভিসন মডেল পোর্টাল ব্যবহার করে ট্রেইন করেছি। এটা ইমেজ এর সহজলভ্যতার উপর নির্ভর করে - এবং বাস্তব জগতে আমরা আমাদের ক্যামেরা ডিভাইস এর সাথে মিলে এমন ট্রেইনিং ডাটা হয়ত পাবো না। আমরা এটার বদলে আমাদের ডিভাইস থেকে সরাসরি ট্রেইনিং করতে পারি করতে এপিআই ব্যবহার করে, IoT ডিভাইস থেকে ক্যাপচার করা ইমেজ দিয়ে মডেল ট্রেইন করার জন্য।
+
+* ট্রেইনিং এপিআই সম্পর্কে আরো জানতে [using the Custom Vision SDK quick start](https://docs.microsoft.com/azure/cognitive-services/custom-vision-service/quickstarts/image-classification?WT.mc_id=academic-17441-jabenn&tabs=visual-studio&pivots=programming-language-python) দেখতে পারি।
+
+## এসাইনমেন্ট
+
+[ক্লাসিফিকেশন রেজাল্টের প্রতিক্রিয়া জানানো](assignment.bn.md)
diff --git a/4-manufacturing/lessons/2-check-fruit-from-device/translations/assignment.bn.md b/4-manufacturing/lessons/2-check-fruit-from-device/translations/assignment.bn.md
new file mode 100644
index 00000000..268e610c
--- /dev/null
+++ b/4-manufacturing/lessons/2-check-fruit-from-device/translations/assignment.bn.md
@@ -0,0 +1,13 @@
+# ক্লাসিফিকেশন রেজাল্টের প্রতিক্রিয়া জানানো
+
+## নির্দেশাবলী
+
+আমাদের ডিভাইস ইমেজ ক্লাসিফাই করেছে, এবং প্রেডিকশনের মান গুলো আছে। আমাদের ডিভাইস এই তথ্য গুলো দিয়ে কিছু করতে পারে - এটা প্রসেসিং এর জন্য IoT Hub এ পাঠাতে পারে অন্য সিস্টেম গুলো দিয়ে, অথবা এটা একটা actuator কন্ট্রোল করতে পারে যেমন LED আলোকিত হবে যখন ফল কাঁচা।
+
+আমাদের ডিভাইস এ আমাদের মত করে প্রতিক্রিয়া জানাতে পারে এমন ভাবে কোড করি - হয় IoT Hub এ ডাটা পাঠাবে , actuator কন্ট্রোল করবে, অথবা দুটো কে একত্রিত করবে এবং IoT Hub এ ডাটা পাঠাবে কিছু সার্ভারলেস কোড দিয়ে যেটা নির্ধারণ করবে ফল টা পাকা নাকি না এবং actuator কন্ট্রোল করার একটি কমান্ড ফেরত পাঠাবে।
+
+## এসাইনমেন্ট মূল্যায়ন মানদন্ড
+
+| ক্রাইটেরিয়া | দৃষ্টান্তমূলক (সর্বোত্তম) | পর্যাপ্ত (মাঝারি) | উন্নতি প্রয়োজন (নিম্নমান) |
+| --------- | ------------------ | -------------- | -------------------- |
+| প্রেডিকশনের প্রতিক্রিয়া জানানো | প্রেডিকশনের প্রতিক্রিয়া বাস্তবায়ন করতে পেরেছে যেটা একই মানের প্রেডিকশনের সাথে ধারাবাহিকভাবে ভাবে কাজ করতে পারে | প্রেডিকশনের উপর নির্ভরশীল না এমন প্রতিক্রিয়া বাস্তবায়ন করতে পেরেছে, যেমন IoT Hub এ মূল ডাটা প্রেরণ করতে পারে| ডিভাইস টাকে প্রেডিকশনের প্রতিক্রিয়া দেখানোর প্রোগ্রাম করতে পারে নাই |
\ No newline at end of file
diff --git a/4-manufacturing/lessons/3-run-fruit-detector-edge/README.md b/4-manufacturing/lessons/3-run-fruit-detector-edge/README.md
index 0e1ede34..f75452c3 100644
--- a/4-manufacturing/lessons/3-run-fruit-detector-edge/README.md
+++ b/4-manufacturing/lessons/3-run-fruit-detector-edge/README.md
@@ -71,7 +71,7 @@ There are downsides to edge computing, where the cloud may be a preferred option
1. **Scale and flexibility** - cloud computing can adjust to network and data needs in real-time by adding or reducing servers and other resources. To add more edge computers requires manually adding more devices.
-1. **Reliability and resiliency** - cloud computing provides multiple servers often in multiple locations for redundancy and disaster recovery. To have the same level of redundancy on the edge requires large investments and a lor of configuration work.
+1. **Reliability and resiliency** - cloud computing provides multiple servers often in multiple locations for redundancy and disaster recovery. To have the same level of redundancy on the edge requires large investments and a lot of configuration work.
1. **Maintenance** - cloud service providers provide system maintenance and updates.
diff --git a/4-manufacturing/lessons/3-run-fruit-detector-edge/translations/.dummy.md b/4-manufacturing/lessons/3-run-fruit-detector-edge/translations/.dummy.md
deleted file mode 100644
index 6e7db247..00000000
--- a/4-manufacturing/lessons/3-run-fruit-detector-edge/translations/.dummy.md
+++ /dev/null
@@ -1,9 +0,0 @@
-# Dummy File
-
-This file acts as a placeholder for the `translations` folder.
-**Please remove this file after adding the first translation**
-
-For the instructions, follow the directives in the [translations guide](https://github.com/microsoft/IoT-For-Beginners/blob/main/TRANSLATIONS.md) .
-
-## THANK YOU
-We truly appreciate your efforts!
diff --git a/4-manufacturing/lessons/3-run-fruit-detector-edge/translations/README.bn.md b/4-manufacturing/lessons/3-run-fruit-detector-edge/translations/README.bn.md
new file mode 100644
index 00000000..fb6ab350
--- /dev/null
+++ b/4-manufacturing/lessons/3-run-fruit-detector-edge/translations/README.bn.md
@@ -0,0 +1,615 @@
+# Edge এ Fruit Detector পরিচালনা করা
+
+
+
+> স্কেচনোটটি তৈরী করেছি [Nitya Narasimhan](https://github.com/nitya)। বড় সংস্করণে দেখার জন্য ছবিটিতে ক্লিক করতে হবে।
+
+এই ভিডিওটি আইওটি ডিভাইসে চলমান ইমেজ ক্লাসিফায়ারগুলির একটি সংক্ষিপ্ত বিবরণ দেয়, যে বিষয়টি এই পাঠেই অন্তর্ভুক্ত।
+
+[](https://www.youtube.com/watch?v=_K5fqGLO8us)
+
+> 🎥 উপরের ছবিতে ক্লিক করে ভিডিওটি দেখে নিই
+
+## লেকচার-পূর্ববর্তী কুইজ
+
+[লেকচার-পূর্ববর্তী কুইজ](https://brave-island-0b7c7f50f.azurestaticapps.net/quiz/33)
+
+## সূচনা
+
+গত পাঠে আমরা পাকা এবং কাঁচা ফলের শ্রেণিবিন্যাস করতে ইমেজ ক্লাসিফায়ার ব্যবহার করেছি, ইন্টারনেটে আমাদের আইওটি ডিভাইসে ক্যামেরা দ্বারা ধারণ করা একটি ছবি ক্লাউড সার্ভিসে পাঠিয়েছি। এই কাজগুলি হতে সময় নেয়, অর্থ ব্যয় হয় এবং আমরা যে ধরণের ছবি ব্যবহার করছি, তার উপর নির্ভর করে গোপনীয়তা সুংক্রান্ত বিষয়ের প্রভাব থাকতে পারে।
+
+এই পাঠে আমরা শিখবো কিভাবে মেশিন লার্নিং (এমএল) মডেলগুলি Edge এ চালানো যায় - ক্লাউডের পরিবর্তে আমাদের নিজের নেটওয়ার্কে চলমান আইওটি ডিভাইসে। আমরা ক্লাউড কম্পিউটিং বনাম Edge কম্পিউটিং এর সুবিধা এবং অসুবিধা সম্বন্ধে জানবো, কিভাবে আমাদের AI মডেলকে Edge এ স্থাপন করবো এবং কিভাবে আমাদের IoT ডিভাইস থেকে এটি অ্যাক্সেস করবো সেটিও দেখবো।
+
+এই পাঠে আমরা শিখবো :
+
+* [Edge computing](#edge-computing)
+* [Azure IoT Edge](#Azure-IoT-Edge)
+* [IoT Edge device রেজিস্টার করা](#IoT-Edge-device-রেজিস্টার-করা)
+* [IoT Edge device সেটাপ করা](#IoT-Edge-device-সেটাপ-করা)
+* [মডেল এক্সপোর্ট করা](#মডেল-এক্সপোর্ট-করা)
+* [ডেপ্লয়মেন্টের জন্য কন্টেইনার প্রস্তুতকরণ](#ডেপ্লয়মেন্টের-জন্য-কন্টেইনার-প্রস্তুতকরণ)
+* [কন্টেইনার ডেপ্লয় করা](#কন্টেইনার-ডেপ্লয়-করা)
+* [আমাদের IoT Edge device ব্যবহার করা](#আমাদের-IoT-Edge-device-ব্যবহার-করা)
+
+## Edge computing
+
+Edge কম্পিউটিংয়ের ধারণা টি এমন যে যেখানে ডেটা তৈরী বা যেখান থেকেই গৃহীত হয়, সেখানকার কাছাকাছি ডেটা প্রসেস করতে পারা। ক্লাউডে এই প্রসেসিং এর পরিবর্তে, এটি ক্লাউডের Edge এ স্থানান্তরিত হয় - যেটি কিনা আমাদের অভ্যন্তরীণ নেটওয়ার্ক।
+
+
+
+এ পর্যন্ত পাঠগুলিতে আমরা শিখেছি কীভাবে আমাদের কাছের ডিভাইসগুলি তথ্য সংগ্রহ এবং ক্লাউডে ডেটা পাঠানোর জন্য বিশ্লেষণ করে, ক্লাউডে সার্ভারহীন ফাংশন বা এআই মডেল কীভাবে চালানো হয়।
+
+
+
+Edge কম্পিউটিং এ মূলত কিছু ক্লাউড পরিষেবা বা সার্ভিসকে ক্লাউড থেকে সরিয়ে এবং IoT ডিভাইস যে নেটওয়ার্কে চলমান সেই একই নেটওয়ার্কের কোন কম্পিউটারে নিয়ে আসা। শুধুমাত্র প্রয়োজন হলেই ক্লাউডের সাথে যোগাযোগ করা হবে। উদাহরণস্বরূপ, আমরা কোন ফল পাকা কিনা তা বিশ্লেষণ করতে Edge এর ডিভাইসে এআই মডেল চালাতে পারি এবং শুধুমাত্র বিশ্লেষণগুলি ক্লাউডে ফেরত পাঠাতে পারি, যেমন ফলের পাকা বনাম কাঁচা ফলের সংখ্যা।
+
+✅ আমরা এতদিন পর্যন্ত শেখা আইওটি অ্যাপ্লিকেশনগুলি সম্পর্কে চিন্তা করি। তাদের কোন অংশগুলি Edge এ নিয়ে আসা যেতে পারে।
+
+### সুবিধা
+
+Edge কম্পিউটিং এর সুবিধা গুলো হলো:
+
+1. **দ্রততা** - সময়-সংবেদনশীল (time-sensitive) তথ্যের জন্য খুবই সুবিধাজনক কারণ সমগ্র ইন্টারনেট জুড়ে সংযোগ করার পরিবর্তে লোকাল ডিভাইসেই কাজগুলি করা হয়। এটি উচ্চ গতিতে তা করতে সক্ষম হয় কারণ অভ্যন্তরীণ নেটওয়ার্কগুলি ইন্টারনেট সংযোগের তুলনায় যথেষ্ট দ্রুত গতিতে চলতে পারে, যার ডেটা অনেক কম দূরত্বে ভ্রমণ করে।
+
+ > 💁 ইন্টারনেট সংযোগের জন্য অপটিক্যাল ক্যাবল ব্যবহার করা হলেও , আলোর গতিতে ডেটা পরিবহণের সুযোগ দেয়া হলেও, ডেটা ক্লাউড প্রোভাইডারদের কাছে পৌছতে সময় নিতে পারে। উদাহরণস্বরূপ, যদি আমরা ইউরোপ থেকে মার্কিন যুক্তরাষ্ট্রে ক্লাউড পরিষেবাদিতে ডেটা পাঠাই তবে অপটিক্যাল ক্যাবলে আটলান্টিক অতিক্রম করতে ডেটার জন্য কমপক্ষে 28ms সময় লাগে (এখানে তাও উপেক্ষা করা হচ্ছে - ট্রান্সঅ্যাটলান্টিক কেবলে ডেটা পাওয়া, বৈদ্যুতিক থেকে আলোকীয় সংকেতে রূপান্তর এবং তারপর আবার অপটিক্যাল ক্যাবল থেকে ক্লাউড প্রোভাইডারের কাছে পৌছানোর মত বিষয়গুলো)।
+
+ Edge কম্পিউটিংয়ের জন্য কম নেটওয়ার্ক ট্র্যাফিকের প্রয়োজন হয়, এতে করে ইন্টারনেট সংযোগের সীমিত ব্যান্ডউইথের সমস্যা বা এর মধ্যে যানজটের ফলে আমাদের ডেটা পরিবহন ধীর হওয়ার ঝুঁকি হ্রাস করে।
+
+1. **দূরবর্তী সংযোগ নিয়ন্ত্রণ** - Edge কম্পিউটিং কাজ করে যখন আমাদের কোন ইন্টারনেট সংযোগ থাকেনা বা খুবই সীমিত পর্যায়ের হয়। উদাহরণস্বরূপ যখন পরিবেশগত দূর্যোগ ঘটে, তখন ইন্টারনেটের কোন একসেস থাকেনা।
+
+1. **অল্প খরচ** - Edge ডিভাইসে ডেটা সংগ্রহ, সঞ্চয়, বিশ্লেষণ এবং ট্রিগারিং কার্যক্রম সম্পাদন করা ক্লাউড পরিষেবার ব্যবহার হ্রাস করে যা আমাদের আইওটি অ্যাপ্লিকেশনের সামগ্রিক খরচ কমাতে পারে। Edge কম্পিউটিংয়ের জন্য ডিজাইন করা ডিভাইসে সাম্প্রতিক অনেক উন্নয়ন হয়েছে, সম্প্রতি এআই এক্সিলারেটর বোর্ড যেমন [NVIDIA জেটসন ন্যানো](https://developer.nvidia.com/embedded/jetson-nano-developer-kit) এর আবির্ভাব ঘটেছে, যা GPU-ভিত্তিক হার্ডওয়্যার ব্যবহার করে AI ওয়ার্কলোডগুলি চালাতে পারে যে ডিভাইসগুলির দাম US $100 এরও কম।
+
+1. **গোপনীয়তা এবং নিরাপত্তা** - Edge কম্পিউটিং এর ক্ষেত্রে ডেটা আমাদের নেটওয়ার্কে থাকে এবং ক্লাউডে আপলোড করা হয় না। এটি প্রায়শই সংবেদনশীল এবং ব্যক্তিগতভাবে শনাক্তযোগ্য তথ্যের জন্য অধিকতর কল্যাণজনক। এছাড়াও ডেটা বিশ্লেষণ করার পরে ডেটা সংরক্ষণ করার প্রয়োজন হয় না, যা ডেটা ফাঁসের ঝুঁকি অনেক কমিয়ে দেয়। উদাহরণগুলির মধ্যে রয়েছে মেডিকেল ডেটা এবং সিসিটিভি ক্যামেরা ফুটেজ।
+
+1. **অনিরাপদ ডিভাইসগুলি পরিচালনা করা** - যদি আমাদের জানামতে নিরাপত্তা ত্রুটিযুক্ত কোন ডিভাইস থাকে যা আমরা সরাসরি আমাদের নেটওয়ার্ক বা ইন্টারনেটের সাথে সংযুক্ত করতে চাই না, সেগুলিকে একটি পৃথক নেটওয়ার্কে গেটওয়ে আইওটি Edge ডিভাইসে সংযুক্ত করতে পারি। এই Edge ডিভাইসটি আমাদের বৃহত্তর নেটওয়ার্ক বা ইন্টারনেটের সাথেও সংযোগ স্থাপন করতে পারে এবং ডেটা প্রবাহকে সামনে পেছনে পরিচালনা করতে পারে।
+
+1. **অসামঞ্জস্যপূর্ণ ডিভাইসের জন্য সাপোর্ট** - যদি আমাদের এমন ডিভাইস থাকে যা IoT হাবের সাথে সংযোগ করতে পারে না, উদাহরণস্বরূপ এমন ডিভাইস যা শুধুমাত্র HTTP সংযোগ ব্যবহার করে সংযোগ করতে পারে বা যে ডিভাইসগুলিতে কেবলমাত্র ব্লুটুথ সংযোগ আছে- সেক্ষেত্রে আমরা একটি IoT Edge ডিভাইসকে গেটওয়ে ডিভাইস হিসাবে ব্যবহার করতে পারি , IoT Hub- এ বার্তা পাঠানোর জন্য।
+
+✅ কিছু গবেষণা করি: Edge কম্পিউটিং এর অন্য কোন কোন সুবিধা থাকতে পারে?
+
+### অসুবিধা
+
+Edge কম্পিউটিংয়ের আবার কিছু অসুবিধাও রয়েছে, যেসব ক্ষেত্রে ক্লাউড ভালো অপশন হতে পারে:
+
+1. **স্কেল এবং ফ্লেক্সিবিলিটি** - ক্লাউড কম্পিউটিং এ সার্ভার এবং অন্যান্য রিসোর্স সংযোজন বা হ্রাস করে রিয়েল -টাইমে নেটওয়ার্ক এবং ডেটা প্রয়োজনের সাথে সামঞ্জস্য করতে পারে। কিন্তু Edge এর সুবিধা কম্পিউটারে যোগ করার জন্য ম্যানুয়ালি আরো ডিভাইস যোগ করা প্রয়োজন।
+
+1. **নির্ভরযোগ্যতা এবং সহনশীলতা** - ক্লাউড কম্পিউটিং এ অপ্রয়োজনীয় অতিরিক্ত রিসোর্স এবং দুর্যোগকালীন পরিস্থিতি এড়ানোর জন্য প্রায়ই একাধিক স্থানে একাধিক সার্ভার সরবরাহ করে। Edge এ একই মাত্রার অপ্রয়োজনীয়তার জন্য বড় বিনিয়োগ এবং কনফিগারেশনের কাজ প্রয়োজন।
+
+1. **রক্ষণাবেক্ষণ** - ক্লাউড পরিষেবা প্রদানকারীরারাই সিস্টেম রক্ষণাবেক্ষণ এবং আপডেট প্রদান করে।
+
+✅ কিছু গবেষণা করি: Edge কম্পিউটিংয়ে অন্য কোন অসুবিধা থাকতে পারে?
+
+ক্লাউড ব্যবহার করার অসুবিধার মধ্যে দেখা যায় - আমরা ক্লাউড সরবরাহকারীদের দক্ষতা এবং স্কেলের উপর নির্ভর করতে পারবোনা, বরং আমাদেরকে এই ডিভাইসগুলি নিজেই তৈরি এবং পরিচালনা করতে হবে।
+
+Edge কম্পিউটিংয়ের দ্বারা কিছু ঝুঁকি প্রশমিত করা যায়। উদাহরণস্বরূপ, যদি আমাদের যন্ত্রপাতি সহ কারখানায় যেখান থেকে ডেটা সংগ্রহ করা হয়, সেখানেই একটি Edge ডিভাইস থাকে, তাহলে আমাদেরকে দুর্যোগ পরিস্থিতি সম্পর্কে ভাবতে হবে না। যদি কারখানার বিদ্যুৎ চলে যায় তাহলে আমাদের ব্যাকআপ Edge ডিভাইসের প্রয়োজন হবে না কারণ মেশিনগুলি ডেটা তৈরির পর, Edge ডিভাইসের প্রক্রিয়াগুলিও বিদ্যুৎবিহীন পরিচালনা করা যাবে।
+
+IoT সিস্টেমের জন্য, আমরা প্রায়ই ক্লাউড এবং Edge কম্পিউটিং এর মিশ্রণ এর কৌশল গ্রহণ করি যেখানে সিস্টেম এর গ্রাহকদের এবং এর রক্ষণাবেক্ষণকারীদের প্রয়োজনের উপর ভিত্তি করে প্রতিটি সেবার সুবিধা পাওয়া যায়।
+
+## Azure IoT Edge
+
+
+
+Azure IoT Edge হল একটি পরিষেবা যা আমাদেরকে কাজের চাপকে ক্লাউডের বাইরে এবং Edge এ সরিয়ে নিতে সাহায্য করতে পারে। আমরা একটি Edge ডিভাইস হিসাবে একটি ডিভাইস সেট আপ, এবং ক্লাউড থেকে আমরা যে Edge ডিভাইসে কোড স্থাপন করতে পারি। এটি আমাদেরকে ক্লাউড এবং Edge এর ক্ষমতাগুলির সর্বোচ্চ ব্যবহার নিশ্চিত করে।
+
+> 🎓 *Workloads* বলতে সেসকল সার্ভিস বোঝায় যেগুলো কোন ধরনের কাজ করে, যেমন এআই মডেল, অ্যাপ্লিকেশন বা সার্ভারলেস ফাংশন।
+
+উদাহরণস্বরূপ, আমরা ক্লাউডে একটি ইমেজ ক্লাসিফায়ার প্রশিক্ষণ দিতে পারি, তারপর ক্লাউড থেকে এটি একটি Edge ডিভাইসে স্থাপন করি। আমাদের আইওটি ডিভাইস তারপর ইন্টারনেটে ছবি পাঠানোর পরিবর্তে Edge ডিভাইসে ইমেজ পাঠায় শ্রেণীবিন্যাসের জন্য। যদি আমাদের মডেলের পরিবর্তন বা উন্নয়ন প্রয়োজন হয়, তাহলে আমরা এটিকে ক্লাউডে প্রশিক্ষণ দিতে পারি এবং আইওটি Edge ব্যবহার করে Edge ডিভাইসে মডেলটিকে আমরা আপডেট করতে পারি।
+
+> 🎓 IoT Edge- এ যে সফটওয়্যারটি মোতায়েন করা হয় তা *মডিউল* নামে পরিচিত। ডিফল্টরূপে IoT Edge মডিউল চালায় যা IoT Hub- এর সাথে যোগাযোগ করে, যেমন `edgeAgent` এবং` edgeHub` মডিউল। যখন আমরা একটি ইমেজ ক্লাসিফায়ার স্থাপন করি, এটি একটি অতিরিক্ত মডিউল হিসাবে স্থাপন করা হয়।
+
+আইওটি Edge আইওটি হাবের মধ্যেই তৈরি করা হয়েছে, তাই আমরা একই স্তরের সুরক্ষা সহ আইওটি ডিভাইসগুলি পরিচালনা করতে যে পরিষেবাটি ব্যবহার করি, সেই একই সার্ভিস দিয়ে আমরা Edge ডিভাইসগুলি পরিচালনা করতে পারি।
+
+আইওটি Edge *কনটেইনার* থেকে কোড চালায় - এটি স্বয়ংসম্পূর্ণ অ্যাপ্লিকেশন যা আমাদের কম্পিউটারে বাকি অ্যাপ্লিকেশন থেকে বিচ্ছিন্নভাবে চালানো হয়। যখন আমরা একটি কন্টেইনার চালাই তখন এটি আমাদের কম্পিউটারের ভিতরে একটি পৃথক কম্পিউটারের মতো কাজ করে, যার নিজস্ব সফ্টওয়্যার, পরিষেবা এবং অ্যাপ্লিকেশনগুলি চলছে। বেশিরভাগ সময় কনটেইনার আমাদের কম্পিউটারে কিছু অ্যাক্সেস করতে পারে না যতক্ষণ না আমরা কন্টেইনারের সাথে একটি ফোল্ডারের মতো জিনিস ভাগ করা বেছে নেই। কন্টেইনার তারপর একটি খোলা পোর্টের মাধ্যমে সার্ভিসগুলি প্রকাশ করে যা আমরা আমাদের নেটওয়ার্কে সংযোগ করতে বা প্রকাশ করতে পারি।
+
+
+
+উদাহরণস্বরূপ, আমরা পোর্ট 80, ডিফল্ট HTTP পোর্টে চলমান একটি ওয়েব সাইটকে একটি কন্টেইনার রাখতে পারি এবং আমরা এটি আমাদের কম্পিউটার থেকে পোর্ট 80 তেও প্রকাশ করতে পারি।
+
+✅ কিছু গবেষণা করি: Docker বা Moby এর মতো সার্ভিস এবং কন্টেইনার সম্পর্কে আরো পড়ি।
+
+আমরা ইমেজ ক্লাসিফায়ার ডাউনলোড করার জন্য কাস্টম ভিশন ব্যবহার করতে পারি এবং সেগুলোকে কনটেইনার হিসেবে স্থাপন করতে পারি, হয় সরাসরি কোনো ডিভাইসে চালানো অথবা আইওটি Edge এর মাধ্যমে মোতায়েন করা যেতে পারে। একবার একটা কন্টেইনার চলতে থাকলে, ক্লাউড সংস্করণের মতো একই REST API ব্যবহার করে এটি একসেস করা যেতে পারে, তবে endpoint টি কন্টেইনার চালানোর জন্য Edge ডিভাইসের দিকে নির্দেশ করে।
+
+## IoT Edge device রেজিস্টার করা
+
+একটি আইওটি Edge ডিভাইস ব্যবহার করার জন্য, এটি আইওটি হাব -এ রেজিস্ট্রেশন হওয়া প্রয়োজন।
+
+### Task - IoT Edge device রেজিস্টার করা
+
+1. `fruit-quality-detector` রিসোর্স গ্রুপে আইওটি হাব তৈরী করি। এটাকে ইউনিক একটা নাম দেয়া যেতে পারে, যেমনঃ `fruit-quality-detector`
+
+1. একটি IoT Edge device রেজিস্ট্রেশন করি, নাম দিই `fruit-quality-detector-edge`। এটি করার কমান্ডটি একটি non-edge ডিভাইস নিবন্ধনের জন্য ব্যবহৃত কমান্ডের অনুরূপ, তবে `--edge-enabled` ফ্ল্যাগটি পাস করা যাবেনা।
+
+ ```sh
+ az iot hub device-identity create --edge-enabled \
+ --device-id fruit-quality-detector-edge \
+ --hub-name
+ ```
+
+ `` এর স্থলে আমাদের আইওটি হাবের নাম বসাই।
+
+1. নিম্নলিখিত কমান্ড ব্যবহার করে আমাদের ডিভাইসের জন্য সংযোগ স্ট্রিং নিই:
+
+ ```sh
+ az iot hub device-identity connection-string show --device-id fruit-quality-detector-edge \
+ --output table \
+ --hub-name
+ ```
+
+ `` এর স্থলে আমাদের আইওটি হাবের নাম বসাই।
+
+ আউটপুটে দেখানো কানেকশন স্ট্রিং এর কপি রাখি।
+
+## IoT Edge device সেটাপ করা
+
+একবার IoT হাব এ এজ ডিভাইস রেজিস্ট্রেশন তৈরি করে নিলে, আমরা এজ ডিভাইস সেট আপ করতে পারবো।
+
+### Task - Install and start the IoT Edge Runtime
+
+**IoT Edge runtime কেবল Linux container এ রান করে।** এটি লিনাক্সে চলবে অথবা লিনাক্স ভার্চুয়াল মেশিন ব্যবহার করে উইন্ডোজে চালানো যাবে।
+
+* আমরা যদি আমাদের আইওটি ডিভাইস হিসাবে রাস্পবেরি পাই ব্যবহার করি, তাহলে এটি লিনাক্সের একটি সাপোর্টেড সংস্করণ চালায় এবং আইওটি Edge রানটাইম হোস্ট করতে পারে। এক্ষেত্রে আমরা [Microsoft docs এর লিনাক্স গাইডের জন্য Azure আইওটি Edge ইনস্টলেশন](https://docs.microsoft.com/azure/iot-edge/how-to-install-iot-edge?WT.mc_id=academic-17441-jabenn) পড়ে দেখতে পারি।
+
+ > 💁 মনে রাখতে হবে, রাস্পবেরি পাই ওএস ডেবিয়ান লিনাক্সের একটি রূপ।
+
+* আমরা যদি রাস্পবেরি পাই ব্যবহার না করি, কিন্তু একটি লিনাক্স কম্পিউটার থাকে, তাহলে আমরা IoT Edge রানটাইম চালাতে পারবো। এক্ষেত্রে আমরা [লিনাক্স গাইডের জন্য Azure আইওটি এজ ইনস্টলেশন](https://docs.microsoft.com/azure/iot-edge/how-to-install-iot-edge?WT.mc_id=academic-17441-jabenn) পড়ে দেখতে পারি।
+
+* উইন্ডোজে আমরা IoT Edge runtime ইন্সটল করতে পারি Linux Virtual Machine ব্যবহার করে, যার জন্য [উইন্ডোজে IoT Edge runtime পরিচালনা ](https://docs.microsoft.com/azure/iot-edge/quickstart?WT.mc_id=academic-17441-jabenn#install-and-start-the-iot-edge-runtime) পড়তে পারি। *Deploy a module* সেকশনে যাওয়ার পর কাজ বন্ধ করতে হবে।
+
+* macOS ব্যবহারকারী হল্র ক্লাউডে virtual machine (VM) তৈরী করতে পারি। IoT Edge িন্সটল করা লিনাক্স ভিএম আমরা ডেপ্লয় করতে পারি। এজন্য [IoT Edge এর জন্য ভার্চুয়াল মেশিন](vm-iotedge.md) পড়ে দেখতে পারি।
+
+## মডেল এক্সপোর্ট করা
+
+Edge এ ক্লাসিফায়ার চালানোর জন্য, এটি কাস্টম ভিশন থেকে এক্সপোর্ট করতে হবে। কাস্টম ভিশন দুই ধরণের মডেল তৈরি করতে পারে - স্ট্যান্ডার্ড মডেল এবং কমপ্যাক্ট মডেল। কম্প্যাক্ট মডেলগুলি মডেলের আকার কমাতে বিভিন্ন কৌশল ব্যবহার করে, এটি আইওটি ডিভাইসে ডাউনলোড এবং মোতায়েনের জন্য যথেষ্ট ছোট করে তোলে।
+
+যখন আমরা ইমেজ ক্লাসিফায়ার তৈরি করি, তখন আমরা *Food* ডোমেইন ব্যবহার করেছিলাম, মডেলটির একটি সংস্করণ যা Food ইমেজগুলিতে প্রশিক্ষণের জন্য অপ্টিমাইজ করা হয়েছে। কাস্টম ভিশনে, আমরা আমাদের প্রকল্পের ডোমেইন পরিবর্তন করতে, আমাদের প্রশিক্ষণ তথ্য ব্যবহার করে নতুন ডোমেনের সাথে একটি নতুন মডেলকে প্রশিক্ষণ দিতে হবে। কাস্টম ভিশন দ্বারা সমর্থিত সমস্ত ডোমেইন স্ট্যান্ডার্ড এবং কমপ্যাক্ট হিসাবে পাওয়া যায়।
+
+### কাজ - মডেলটিকে Food (compact) domain এ ট্রেইনিং প্রদান
+
+1. Custom Vision portal এ যাওয়ার জন্য [CustomVision.ai](https://customvision.ai) তে ক্লিক করি এবং সাইন ইন করে নিই যদি আগে থেকে সাইন ইন করা না থাকে। এখন `fruit-quality-detector` প্রজেক্টটি চালু করি।
+
+1. এখন **Settings** সিলেক্ট করি (এই ⚙ চিহ্ন)
+
+1. *Domains* লিস্ট থেকে, নির্বাচন করি *Food (compact)*
+
+1. তারপর *Export Capabilities* থেকে *Basic platforms (Tensorflow, CoreML, ONNX, ...)* সিলেক্ট করি।
+
+1. Settings পেইজের একদম নীচে থাকা **Save Changes** এ সিলেক্ট করি।
+
+1. এখন **Train** এ ক্লিক করে, *Quick training* অপশনটি নির্বাচন করে মডেলকে ট্রেইন করি।
+
+### Task - মডেল এক্সপোর্ট করা
+
+মডেলটি একবার ট্রেইন হয়ে গেলে কন্টেইনার সহ এক্সপোর্ট করতে হবে।
+
+1. **Performance** ট্যাবে গিয়ে কম্প্যাক্ট ডোমেইনের গত ইটারেশন টি তে যাই।
+
+1. সেখানে উপরের দিকে **Export** বাটনে ক্লিক করি।
+
+1. **DockerFile** সিলেক্ট করি, তারপর আমাদের Edge ডিভাইসের সাথে মিলে এমন একটি ভার্সন নির্বাচন করি:
+
+ * Linux computer, Windows computer বা Virtual Machine এ IoT Edge ব্যবহার করলে, *Linux* ভার্সনটি সিলেক্ট করি।
+ * Raspberry Pi এ IoT Edge ব্যবহার করলে , *ARM (Raspberry Pi 3)* ভার্সনটি সিলেক্ট করি।
+
+ > 🎓 Docker হলো কনটেইনার পরিচালনার জন্য সবচেয়ে জনপ্রিয় ট্যুলগুলির মধ্যে একটি এবং ডকার ফাইল হল কন্টেইনার সেট আপ করার জন্য নির্দেশাবলীর একটি সেট।
+
+1. এবার **Export** এ ক্লিক করলে Custom Vision এর প্রয়োজনীয় ফাইলগুলি তৈরী হয়ে যাবে। তারপর **Download** এ ক্লিক করে জিপ ফাইল আকারে এগুলো ডাউনলোড করি।
+
+1. কম্পিউটারে সেভ করার পর ফোল্ডারটি unzip করি।
+
+## ডেপ্লয়মেন্টের জন্য কন্টেইনার প্রস্তুতকরণ
+
+
+
+একবার মডেলটি ডাউনলোড করার পরে, এটি একটি কনটেইনার বিল্ড করা প্রয়োজন, তারপর একটি কনটেইনার রেজিস্ট্রিতে পুশ করতে হবে - যা একটি অনলাইন স্টোরেজ যেখানে আমরা তা সংরক্ষণ করতে পারি। IoT Edge তারপর রেজিস্ট্রি থেকে কন্টেইনারটি ডাউনলোড করে আমাদের ডিভাইসে পুশ করতে পারবে।
+
+
+
+এই পাঠের জন্য যে কন্টেইনার রেজিস্ট্রি ব্যবহার করব তা হল Azure Container Registry। এটি কোন ফ্রী সার্ভিস নয়, তাই অর্থের অপচয় রোধ করার জন্য কাজ শেষ হওয়ার পর আমাদেরকে [clean up your project](../../../clean-up.md) অনুসরণ করে এটি বন্ধ করে দিতে হবে।
+
+> 💁 Azure Container Registry ব্যবহারের খরচ আমরা [Azure Container Registry pricing page](https://azure.microsoft.com/pricing/details/container-registry/?WT.mc_id=academic-17441-jabenn) থেকে দেখতে পারি ।
+
+### কাজ - Docker ইন্সটল করা
+
+ক্লাসিফায়ার বিল্ড এবং ডেপলয় করার জন্য আমাদেরকে [Docker](https://www.docker.com/) ইন্সটল করে রাখতে হবে।
+
+1. [Docker install page](https://www.docker.com/products/docker-desktop) থেকে দেখে নিই কীভাবে এটি ইন্সটল করতে হবে।
+
+### কাজ - container registry resource তৈরী
+
+1. Azure Container Registry resource তৈরীর জন্য টার্মিনাল বা কমান্ড প্রম্পট থেকে নীচের কমান্ড রান দিই:
+
+ ```sh
+ az acr create --resource-group fruit-quality-detector \
+ --sku Basic \
+ --name
+ ```
+
+ `` এর স্থলে একটি ইউনিক নাম দিই কেবল অক্ষর ও সংখ্যা ব্যবহার করে। এক্ষেত্রে `fruitqualitydetector`এর কাছাকাছি কোন নাম দেয়াই সমীচীন হবে। কন্টেইনার রেজিস্ট্রি তে একসেস করার জন্য URL এর একটি অংশে এই নাম ব্যবহৃত হবে। তাই নামটিকে ইউনিক হতে হবে।
+
+1. নিম্নের কমান্ড ব্যবহার করে Azure Container Registry তে লগিন করি:
+
+ ```sh
+ az acr login --name
+ ```
+
+ `` এর স্থলে কন্টেনার রেজিস্ট্রি এর নাম বসাই
+
+1. Container registry টি admin mode এ সেট করি যাতে পাসওয়ার্ড সেট করা যায়ঃ
+
+ ```sh
+ az acr update --admin-enabled true \
+ --name
+ ```
+
+ `` এর স্থলে কন্টেনার রেজিস্ট্রি এর নাম বসাই।
+
+1. নিম্নের কমান্ড দিয়ে পাসওয়ার্ড সেট করি:
+
+ ```sh
+ az acr credential renew --password-name password \
+ --output table \
+ --name
+ ```
+
+ `` এর স্থলে কন্টেনার রেজিস্ট্রি এর নাম বসাই
+
+ `PASSWORD` এর ভ্যালুটি কপি করে কোথাও সংরক্ষণ করে রাখি কেননা পরে এটির প্রয়োজন হবে
+
+### কাজ - কন্টেইনার তৈরী করা
+
+আমরা কাস্টম ভিশন থেকে যা ডাউনলোড করেছিলাম তা একটি ডকারফাইল যা কন্টেইনারটি কীভাবে তৈরি করা উচিত তার নির্দেশাবলী, অ্যাপ্লিকেশন কোড সহ কাস্টম ভিশন মডেল হোস্ট করার প্রয়োজনীয় ফাইল এবং REST API রয়েছে। আমরা DockerFile থেকে একটি ট্যাগযুক্ত কন্টেইনার তৈরি করতে Docker ব্যবহার করতে পারি, তারপর কন্টেইনার রেজিস্ট্রিতে এটি পুশ করে দিই।
+
+> 🎓 কনটেইনারগুলিকে একটি ট্যাগ দেওয়া হয় যা তাদের জন্য একটি নাম এবং সংস্করণ নির্ধারণ করে। যখন একটি কন্টেইনার আপডেট করার প্রয়োজন তখন আমরা এটি একই ট্যাগ দিয়ে তৈরি করতে পারি কিন্তু ভিন্ন ভার্সনে।
+
+1. টার্মিনাল বা কমান্ড প্রম্পট থেকে ন্যাভিগেট করে কা্সটম ভিশনের unzipped model এ যাই।
+
+1. নিম্নের কমান্ড দিয়ে ইমেজগুলো বিল্ড এবং ট্যাগ করি:
+
+ ```sh
+ docker build --platform -t .azurecr.io/classifier:v1 .
+ ```
+
+ এখন `` এর স্থলে যে প্লাটফর্মে কন্টেইনার রান করবে, সেটি দিই। রাস্পবেরি পাই হলে `linux/arm64`, য়ার অন্যসব কিছুতেই `linux/amd64` দিতে হবে।
+
+ > 💁 একই ডিভাইস থেকে IoT Edge চালানো এবং এই কমান্ডঅগুলো রান করা হলে, `--platform ` অংশটি বাদ দেয়া যেতে পারে কেননা ডিফল্ট হিসেবে এটি কমান্ড চলমান ডিভাইস্টিকে সিলেক্ট করে রাখে।
+
+ `` এর স্থলে কন্টেনার রেজিস্ট্রি এর নাম বসাই
+
+ > 💁 লিনাক্স ব্যবহারকারী করে হলে, এই কমান্ড রান করার জন্য `sudo` যোগ করতে হতে পারে।
+
+ Docker এখানে ইমেজ তৈরি করবে, প্রয়োজনীয় সব সফটওয়্যার কনফিগার করবে। তারপর ছবিটি `classifier:v1` হিসেবে ট্যাগ করা হবে।
+
+ ```output
+ ➜ d4ccc45da0bb478bad287128e1274c3c.DockerFile.Linux docker build --platform linux/amd64 -t fruitqualitydetectorjimb.azurecr.io/classifier:v1 .
+ [+] Building 102.4s (11/11) FINISHED
+ => [internal] load build definition from Dockerfile
+ => => transferring dockerfile: 131B
+ => [internal] load .dockerignore
+ => => transferring context: 2B
+ => [internal] load metadata for docker.io/library/python:3.7-slim
+ => [internal] load build context
+ => => transferring context: 905B
+ => [1/6] FROM docker.io/library/python:3.7-slim@sha256:b21b91c9618e951a8cbca5b696424fa5e820800a88b7e7afd66bba0441a764d6
+ => => resolve docker.io/library/python:3.7-slim@sha256:b21b91c9618e951a8cbca5b696424fa5e820800a88b7e7afd66bba0441a764d6
+ => => sha256:b4d181a07f8025e00e0cb28f1cc14613da2ce26450b80c54aea537fa93cf3bda 27.15MB / 27.15MB
+ => => sha256:de8ecf497b753094723ccf9cea8a46076e7cb845f333df99a6f4f397c93c6ea9 2.77MB / 2.77MB
+ => => sha256:707b80804672b7c5d8f21e37c8396f319151e1298d976186b4f3b76ead9f10c8 10.06MB / 10.06MB
+ => => sha256:b21b91c9618e951a8cbca5b696424fa5e820800a88b7e7afd66bba0441a764d6 1.86kB / 1.86kB
+ => => sha256:44073386687709c437586676b572ff45128ff1f1570153c2f727140d4a9accad 1.37kB / 1.37kB
+ => => sha256:3d94f0f2ca798607808b771a7766f47ae62a26f820e871dd488baeccc69838d1 8.31kB / 8.31kB
+ => => sha256:283715715396fd56d0e90355125fd4ec57b4f0773f306fcd5fa353b998beeb41 233B / 233B
+ => => sha256:8353afd48f6b84c3603ea49d204bdcf2a1daada15f5d6cad9cc916e186610a9f 2.64MB / 2.64MB
+ => => extracting sha256:b4d181a07f8025e00e0cb28f1cc14613da2ce26450b80c54aea537fa93cf3bda
+ => => extracting sha256:de8ecf497b753094723ccf9cea8a46076e7cb845f333df99a6f4f397c93c6ea9
+ => => extracting sha256:707b80804672b7c5d8f21e37c8396f319151e1298d976186b4f3b76ead9f10c8
+ => => extracting sha256:283715715396fd56d0e90355125fd4ec57b4f0773f306fcd5fa353b998beeb41
+ => => extracting sha256:8353afd48f6b84c3603ea49d204bdcf2a1daada15f5d6cad9cc916e186610a9f
+ => [2/6] RUN pip install -U pip
+ => [3/6] RUN pip install --no-cache-dir numpy~=1.17.5 tensorflow~=2.0.2 flask~=1.1.2 pillow~=7.2.0
+ => [4/6] RUN pip install --no-cache-dir mscviplib==2.200731.16
+ => [5/6] COPY app /app
+ => [6/6] WORKDIR /app
+ => exporting to image
+ => => exporting layers
+ => => writing image sha256:1846b6f134431f78507ba7c079358ed66d944c0e185ab53428276bd822400386
+ => => naming to fruitqualitydetectorjimb.azurecr.io/classifier:v1
+ ```
+
+### কাজ - কন্টেইনারকে কন্টেইনার রেজিস্ট্রিতে পুশ করা
+
+1. কন্টেইনারকে কন্টেইনার রেজিস্ট্রিতে পুশ করার জন্য নিম্নের কমান্ড রান দিই:
+
+ ```sh
+ docker push .azurecr.io/classifier:v1
+ ```
+
+ `` এর স্থলে কন্টেনার রেজিস্ট্রি এর নাম বসাই
+
+ > 💁 লিনাক্স ব্যবহারকারী করে হলে, এই কমান্ড রান করার জন্য `sudo` যোগ করতে হতে পারে।
+
+ কন্টেইনারটি পুশ হয়ে যাবে।
+
+ ```output
+ ➜ d4ccc45da0bb478bad287128e1274c3c.DockerFile.Linux docker push fruitqualitydetectorjimb.azurecr.io/classifier:v1
+ The push refers to repository [fruitqualitydetectorjimb.azurecr.io/classifier]
+ 5f70bf18a086: Pushed
+ 8a1ba9294a22: Pushed
+ 56cf27184a76: Pushed
+ b32154f3f5dd: Pushed
+ 36103e9a3104: Pushed
+ e2abb3cacca0: Pushed
+ 4213fd357bbe: Pushed
+ 7ea163ba4dce: Pushed
+ 537313a13d90: Pushed
+ 764055ebc9a7: Pushed
+ v1: digest: sha256:ea7894652e610de83a5a9e429618e763b8904284253f4fa0c9f65f0df3a5ded8 size: 2423
+ ```
+
+1. Push ঠিকমত হয়েছে কিনা তা ভেরিফাই করার জন্য কন্টেইনারের লিস্ট দেখতে পারি:
+
+ ```sh
+ az acr repository list --output table \
+ --name
+ ```
+
+ `` এর স্থলে কন্টেনার রেজিস্ট্রি এর নাম বসাই
+
+ ```output
+ ➜ d4ccc45da0bb478bad287128e1274c3c.DockerFile.Linux az acr repository list --name fruitqualitydetectorjimb --output table
+ Result
+ ----------
+ classifier
+ ```
+
+ ক্লাসিফায়ারের লিস্ট চলে আসবে।
+
+## কন্টেইনার ডেপ্লয় করা
+
+কন্টেইনার এখন আইওটি এজ ডিভাইসে স্থাপন করা যেতে পারে। ডেপ্লয় করার জন্য একটি deployment manifest কে ডিফাইন করতে হবে - এটি একটি JSON ডকুমেন্ট যা Edgeডিভাইসে মডিউলগুলি তালিকাভুক্ত করে।
+
+### কাজ - deployment manifest তৈরী করা
+
+1. আমাদের কম্পিউটারে `deployment.json` নামে একটি ফাইল তৈরী করি।
+
+1. নিম্নের অংশটুকু সেই ফাইলে যোগ করি:
+
+ ```json
+ {
+ "content": {
+ "modulesContent": {
+ "$edgeAgent": {
+ "properties.desired": {
+ "schemaVersion": "1.1",
+ "runtime": {
+ "type": "docker",
+ "settings": {
+ "minDockerVersion": "v1.25",
+ "loggingOptions": "",
+ "registryCredentials": {
+ "ClassifierRegistry": {
+ "username": "",
+ "password": "",
+ "address": ".azurecr.io"
+ }
+ }
+ }
+ },
+ "systemModules": {
+ "edgeAgent": {
+ "type": "docker",
+ "settings": {
+ "image": "mcr.microsoft.com/azureiotedge-agent:1.1",
+ "createOptions": "{}"
+ }
+ },
+ "edgeHub": {
+ "type": "docker",
+ "status": "running",
+ "restartPolicy": "always",
+ "settings": {
+ "image": "mcr.microsoft.com/azureiotedge-hub:1.1",
+ "createOptions": "{\"HostConfig\":{\"PortBindings\":{\"5671/tcp\":[{\"HostPort\":\"5671\"}],\"8883/tcp\":[{\"HostPort\":\"8883\"}],\"443/tcp\":[{\"HostPort\":\"443\"}]}}}"
+ }
+ }
+ },
+ "modules": {
+ "ImageClassifier": {
+ "version": "1.0",
+ "type": "docker",
+ "status": "running",
+ "restartPolicy": "always",
+ "settings": {
+ "image": ".azurecr.io/classifier:v1",
+ "createOptions": "{\"ExposedPorts\": {\"80/tcp\": {}},\"HostConfig\": {\"PortBindings\": {\"80/tcp\": [{\"HostPort\": \"80\"}]}}}"
+ }
+ }
+ }
+ }
+ },
+ "$edgeHub": {
+ "properties.desired": {
+ "schemaVersion": "1.1",
+ "routes": {
+ "upstream": "FROM /messages/* INTO $upstream"
+ },
+ "storeAndForwardConfiguration": {
+ "timeToLiveSecs": 7200
+ }
+ }
+ }
+ }
+ }
+ }
+ ```
+
+ > 💁 এই ফাইলটি [code-deployment/deployment](code-deployment/deployment) folder এ পাওয়া যাবে।
+
+ ৩টি `` এর জায়গায় আমাদের ব্যবহৃত container registry এর নাম বসাই। ১টি `ImageClassifier` মডিউলে, বাকি ২টি `registryCredentials` অংশে রয়েছে।
+
+ এখন `` অংশের `registryCredentials` সেকশনে পাসওয়ার্ড দিই।
+
+1. যে ফোল্ডারে deployment manifest রয়েছে সেখানে নিম্নের কমান্ড রান করি:
+
+ ```sh
+ az iot edge set-modules --device-id fruit-quality-detector-edge \
+ --content deployment.json \
+ --hub-name
+ ```
+
+ `` এর স্থলে আমাদের IoT Hub এর নাম বসাই।
+
+ Edge ডিভাইসে ইমেজ ক্লাসিফায়ার মডিউলটি ডেপ্লয় হয়ে যাবে।
+
+### কাজ - ক্লাসিফায়ারটি চলছে কিনা তা ভেরিফাই করা
+
+1. IoT edge device এ কানেক্ট করা:
+
+ * Raspberry Pi ব্যবহারকারী হলে, কানেক্ট করতে হবে হয় ssh দিয়ে terminal থেকে থেকে অথবা কোন VS Code থেকে কোন remote SSH session ব্যবহার করে।
+ * উইন্ডোজে Linux container ব্যবহারকারী হলে, [verify successful configuration guide](https://docs.microsoft.com/azure/iot-edge/how-to-install-iot-edge-on-windows?WT.mc_id=academic-17441-jabenn&view=iotedge-2018-06&tabs=powershell#verify-successful-configuration) টি অনুসরণ করতে হবে।
+ * Virtual machine ব্যবহারকারী হলে, `adminUsername` এবং `password` সেট করার সময়ই SSH করে রাখা যায়
+
+ ```sh
+ ssh @
+ ```
+
+ অথবা:
+
+ ```sh
+ ssh @
+ ```
+
+ পাসওয়ার্ড চাইলে, তা প্রবেশ করাই।
+
+1. কানেক্ট হয়ে গেলে, IoT Edge module গুলো দেখার জন্য নিম্নের কমান্ড রান দিই :
+
+ ```sh
+ iotedge list
+ ```
+
+ > 💁 এখানে `sudo` কমান্ড ব্যবহারের প্রয়োজন হতে পারে।
+
+ রানিং মডিউলগুলো দেখা যাবে:
+
+ ```output
+ jim@fruit-quality-detector-jimb:~$ iotedge list
+ NAME STATUS DESCRIPTION CONFIG
+ ImageClassifier running Up 42 minutes fruitqualitydetectorjimb.azurecr.io/classifier:v1
+ edgeAgent running Up 42 minutes mcr.microsoft.com/azureiotedge-agent:1.1
+ edgeHub running Up 42 minutes mcr.microsoft.com/azureiotedge-hub:1.1
+ ```
+
+1. Image classifier module এর লগ হিস্টোরি দেখতে নিম্নের কমান্ড রান দিই :
+
+ ```sh
+ iotedge logs ImageClassifier
+ ```
+
+ > 💁 এই কমান্ড এর সাথে `sudo` ব্যবহারের প্রয়োজন হতে পারে।
+
+ ```output
+ jim@fruit-quality-detector-jimb:~$ iotedge logs ImageClassifier
+ 2021-07-05 20:30:15.387144: I tensorflow/core/platform/cpu_feature_guard.cc:142] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX2 FMA
+ 2021-07-05 20:30:15.392185: I tensorflow/core/platform/profile_utils/cpu_utils.cc:94] CPU Frequency: 2394450000 Hz
+ 2021-07-05 20:30:15.392712: I tensorflow/compiler/xla/service/service.cc:168] XLA service 0x55ed9ac83470 executing computations on platform Host. Devices:
+ 2021-07-05 20:30:15.392806: I tensorflow/compiler/xla/service/service.cc:175] StreamExecutor device (0): Host, Default Version
+ Loading model...Success!
+ Loading labels...2 found. Success!
+ * Serving Flask app "app" (lazy loading)
+ * Environment: production
+ WARNING: This is a development server. Do not use it in a production deployment.
+ Use a production WSGI server instead.
+ * Debug mode: off
+ * Running on http://0.0.0.0:80/ (Press CTRL+C to quit)
+ ```
+
+### কাজ - ইমেজ ক্লাসিফায়ার টেস্ট করা
+
+1. CURL দিয়ে image classifier টেস্ট করা যায় যেখানে IP address বা আমাদের কম্পিউটারের হোস্ট নেইম ব্যবহার করা হবে যেটিতে IoT Edge agent চলমান রয়েছে। IP address খুজে বের করি:
+
+ * IoT Edge যে মেশিনে রান হুচ্ছে সেটি থেকে কাজ করলে, হোস্ট নেম হবে `localhost` ।
+ * VM (ভার্চুয়াল মেশিন) থেকে কাজ করলে IP address অথবা ভিএম এর DNS name দিতে হবে।
+ * অন্যথায় IoT Edge যে মেশিনে চলছে সেটির আইপি এড্রেস জানার অন্য, যা করতে হবে তা হলো:
+ * Windows 10 এ [find your IP address guide](https://support.microsoft.com/windows/find-your-ip-address-f21a9bbc-c582-55cd-35e0-73431160a1b9?WT.mc_id=academic-17441-jabenn) অনুসরণ করি।
+ * macOS হলে [how to find you IP address on a Mac guide](https://www.hellotech.com/guide/for/how-to-find-ip-address-on-mac) অনুসরণ করি।
+ * linux হলে, [how to find your IP address in Linux guide](https://opensource.com/article/18/5/how-find-ip-address-linux) থেকে প্রাইভেট এড্রেসের অংশটি অনুসরণ করি।
+
+1. কন্টেইনারকে লোকাল ফাইল দিয়ে টেস্ট করতে নীচের curl কমান্ড ব্যবহার করি:
+
+ ```sh
+ curl --location \
+ --request POST 'http:///image' \
+ --header 'Content-Type: image/png' \
+ --data-binary '@'
+ ```
+
+ `` এর জায়গায় আমাদের IP address বা host name দিই যেটি থেকে IoT Edge চলছে এবং `` ঙ্গের জায়গায় যে ফাইল দিয়ে টেস্ট করা হবে, সেটির নাম দিই।
+
+ আউটপুটে প্রেডিকশন রেজাল্ট দেখা যাবে।
+
+ ```output
+ {
+ "created": "2021-07-05T21:44:39.573181",
+ "id": "",
+ "iteration": "",
+ "predictions": [
+ {
+ "boundingBox": null,
+ "probability": 0.9995615482330322,
+ "tagId": "",
+ "tagName": "ripe"
+ },
+ {
+ "boundingBox": null,
+ "probability": 0.0004384400090202689,
+ "tagId": "",
+ "tagName": "unripe"
+ }
+ ],
+ "project": ""
+ }
+ ```
+
+ > 💁 এখানে একটি প্রেডিকশন কী (key) সরবরাহ করার প্রয়োজন নেই, কারণ এটি Azure রিসোর্স ব্যবহার করছে না। পাবলিক এন্ডপয়েন্ট এবং এপিআই কী (key) -এর উপর নির্ভর না করে, এর পরিবর্তে অভ্যন্তরীণ নিরাপত্তার প্রয়োজনের ভিত্তিতে অভ্যন্তরীণ নেটওয়ার্কে নিরাপত্তা কনফিগার করা হবে।
+
+## আমাদের IoT Edge device ব্যবহার করা
+
+এখন যেহেতু ইমেজ ক্লাসিফায়ার একটি আইওটি এজ ডিভাইসে স্থাপন করা হয়েছে, এটি আমাদের আইওটি ডিভাইস থেকে ব্যবহার করতে পারবো।
+
+### কাজ - আমাদের IoT Edge device ব্যবহার
+
+IoT Edge classifier দিয়ে ছবি ক্লাসিফাই করতে, নিম্নের গাইডগুলো অনুসরণ করি:
+
+* [Arduino - Wio Terminal](../wio-terminal.md)
+* [Single-board computer - Raspberry Pi/Virtual IoT device](../single-board-computer.md)
+
+### Model retraining
+
+IoT Edge- এ ইমেজ ক্লাসিফায়ার চালানোর একটি সমস্যা হল এগুলি কাস্টম ভিশন প্রজেক্টের সাথে সংযুক্ত নয়। যদি কাস্টম ভিশনে **Predictions** ট্যাবটি দেখি, তবে এজ-ভিত্তিক ক্লাসিফায়ার ব্যবহার করে শ্রেণীবদ্ধ করা ছবিগুলি দেখতে পাব না।
+
+সত্যি বলতে গেলে এটি একেবারে প্রত্যাশিত একটি আচরণ - ছবিগুলি ক্লাউডে শ্রেণিবিন্যাসের জন্য পাঠানো হয় না, তাই সেগুলি ক্লাউডে পাওয়া যাবে না। আইওটি এজ ব্যবহার করার একটি সুবিধা হল গোপনীয়তা, নিশ্চিত করা যে ছবিগুলি আমাদের নেটওয়ার্ক এর বাইরে যাবেনা। আবার এটি অফলাইনে কাজ করতে সক্ষম হচ্ছে, তাই যখন ডিভাইসে ইন্টারনেট সংযোগ নেই তখন ছবি আপলোড করার উপর নির্ভর করে না। নেতিবাচক দিকটি হলো যে আমাদের মডেলের উন্নতি ঠিকমত হচ্ছেনা - আমাদেরকে ইমেজ ক্লাসিফায়ারের উন্নতি এবং পুনরায় প্রশিক্ষণের জন্য ম্যানুয়ালি পুনরায় ক্লাসিফাই করা যায় এমন ছবি সংরক্ষণের অন্য উপায় বাস্তবায়ন করতে হবে।
+
+
+✅ ক্লাসিফায়ার পুনরায় প্রশিক্ষণ দেওয়ার জন্য ছবি আপলোড করার উপায় সম্পর্কে চিন্তা করি।
+
+---
+
+## 🚀 চ্যালেঞ্জ
+
+Edge ডিভাইসে AI মডেল চালানো ক্লাউডের তুলনায় দ্রুততর হতে পারে - কারণ সেখানে network hop ছোট । তবে হার্ডওয়্যার এর ফলে তা ধীরও হতে পারে ,আর তাই মডেলটি ক্লাউডের মতো শক্তিশালী নাও হতে পারে।
+
+সময়ক্ষেপন এর নোট নিই এবং তুলনা করি আমাদের Edge ডিভাইসে কাজ, ক্লাউডে কাজ করার চেয়ে দ্রুত বা ধীর - কোনটি ঘটে? পার্থক্য এর কারণ, বা পার্থক্য না থাকলে সেটি সম্পর্কে চিন্তা করি। বিশেষ হার্ডওয়্যার ব্যবহার করে Edge ডিভাইসে এআই মডেলগুলি দ্রুত চালানোর উপায়গুলি গবেষণা করি।
+
+
+## লেকচার-পরবর্তী কুইজ
+
+[লেকচার-পরবর্তী কুইজ](https://brave-island-0b7c7f50f.azurestaticapps.net/quiz/34)
+
+## রিভিউ এবং স্ব-অধ্যয়ন
+
+* কন্টেইনার সম্পর্কে জানতে পড়তে পারি - [OS-level virtualization page on Wikipedia](https://wikipedia.org/wiki/OS-level_virtualization)
+* Edge computing সম্পর্কে জানতে হলে, পড়তে পারি - [what is edge computing and why does it matter? article on NetworkWorld](https://www.networkworld.com/article/3224893/what-is-edge-computing-and-how-it-s-changing-the-network.html)
+* IoT Edge এ চলমান AI service সম্পর্কে জানতে হলে, পড়তে পারি - [learn how to use Azure IoT Edge on a pre-built AI service on the Edge to do language detection episode of Learn Live on Microsoft Channel9](https://channel9.msdn.com/Shows/Learn-Live/Sharpen-Your-AI-Edge-Skills-Episode-4-Learn-How-to-Use-Azure-IoT-Edge-on-a-Pre-Built-AI-Service-on-t?WT.mc_id=academic-17441-jabenn)
+
+## এসাইনমেন্ট
+
+[Edge এ বিভিন্ন সার্ভিস পরিচালনা করা](assignment.bn.md)
diff --git a/4-manufacturing/lessons/3-run-fruit-detector-edge/translations/assignment.bn.md b/4-manufacturing/lessons/3-run-fruit-detector-edge/translations/assignment.bn.md
new file mode 100644
index 00000000..e5adf974
--- /dev/null
+++ b/4-manufacturing/lessons/3-run-fruit-detector-edge/translations/assignment.bn.md
@@ -0,0 +1,14 @@
+# Edge এ বিভিন্ন সার্ভিস পরিচালনা করা
+
+## নির্দেশাবলী
+
+Edge এ যে কেবল ইমেজ ক্লাসিফায়ার চালানো যায় তা কিন্তু নয়, বরং যেকোন কাজ যা একটি কন্টেইনারে প্যাকেজ করা যায় তা IoT Edge ডিভাইসে স্থাপন করা যেতে পারে। সার্ভারলেস কোড যা Azure Functions হিসাবে চলে, যেমন আগের লেসনগুলিতে তৈরি ট্রিগারগুলি কন্টেইনারে চালানো যেতে পারে এবং এর জন্য IoT Edge এও তা চলবে।
+
+পূর্ববর্তী পাঠগুলির মধ্যে একটি বেছে নিই এবং IoT Edge কন্টেইনারে Azure Functions অ্যাপটি চালানোর চেষ্টা করি। কিভাবে একটি ভিন্ন Functions App প্রজেক্ট ব্যবহার করে করা যায় তার জন্য [টিউটোরিয়াল: Azure Functions কে IoT Edge modules হিসেবে ডেপ্লয় করা](https://docs.microsoft.com/azure/iot-edge/tutorial-deploy-function?WT.mc_id=academic-17441-jabenn&view=iotedge-2020-11) দেখতে পারি।
+
+
+## এসাইনমেন্ট মূল্যায়ন মানদন্ড
+
+| ক্রাইটেরিয়া | দৃষ্টান্তমূলক (সর্বোত্তম) | পর্যাপ্ত (মাঝারি) | উন্নতি প্রয়োজন (নিম্নমান) |
+| --------- | ------------------ | -------------- | -------------------- |
+| Azure Functions কে IoT Edge এ ডেপ্লয় করা | IoT Edge এ একটি Azure Functions App ডেপ্লয় করে, আইওটি ডেটা থেকে ট্রিগার চালানোর জন্য আইওটি ডিভাইসের সাথে এটি ব্যবহার করতে সফল হয়েছিল | IoT Edge এ একটি Functions App স্থাপন করতে সক্ষম হয়েছিল, কিন্তু ট্রিগারটি দিয়ে কাজ সম্পন্ন করতে পারেনি | IoT Edge এ একটি Functions App স্থাপন করতে ব্যার্থ ছিল|
diff --git a/4-manufacturing/lessons/4-trigger-fruit-detector/README.md b/4-manufacturing/lessons/4-trigger-fruit-detector/README.md
index addc74db..c0d043ea 100644
--- a/4-manufacturing/lessons/4-trigger-fruit-detector/README.md
+++ b/4-manufacturing/lessons/4-trigger-fruit-detector/README.md
@@ -10,7 +10,7 @@
## Introduction
-An IoT application is not just a single device capturing data and sending it to the cloud, it is more often that not multiple devices all working together to capture data from the physical world using sensors, make decisions based off that data, and interacting back with the physical world via actuators or visualizations.
+An IoT application is not just a single device capturing data and sending it to the cloud, it is more often than not multiple devices all working together to capture data from the physical world using sensors, make decisions based off that data, and interacting back with the physical world via actuators or visualizations.
In this lesson you will learn more about architecting complex IoT applications, incorporating multiple sensors, multiple cloud services to analyze and store data, and showing a response via an actuator. You will learn how to architect a fruit quality control system prototype, including about using proximity sensors to trigger the IoT application, and what the architecture of this prototype would be.
@@ -105,7 +105,7 @@ For the prototype, you will implement all of this on a single device. If you are
## Trigger fruit quality checking from a sensor
-The IoT device needs some kind of trigger to indicate when fruit is ready to be classified. One trigger for this would be to measure when the fruit is at the right location on the conveyor belt my measuring the distance to a sensor.
+The IoT device needs some kind of trigger to indicate when fruit is ready to be classified. One trigger for this would be to measure when the fruit is at the right location on the conveyor belt by measuring the distance to a sensor.

diff --git a/4-manufacturing/translations/.dummy.md b/4-manufacturing/translations/.dummy.md
deleted file mode 100644
index 6e7db247..00000000
--- a/4-manufacturing/translations/.dummy.md
+++ /dev/null
@@ -1,9 +0,0 @@
-# Dummy File
-
-This file acts as a placeholder for the `translations` folder.
-**Please remove this file after adding the first translation**
-
-For the instructions, follow the directives in the [translations guide](https://github.com/microsoft/IoT-For-Beginners/blob/main/TRANSLATIONS.md) .
-
-## THANK YOU
-We truly appreciate your efforts!
diff --git a/4-manufacturing/translations/README.bn.md b/4-manufacturing/translations/README.bn.md
new file mode 100644
index 00000000..cab07855
--- /dev/null
+++ b/4-manufacturing/translations/README.bn.md
@@ -0,0 +1,26 @@
+# উৎপাদন এবং প্রক্রিয়াকরণ - খাদ্য প্রক্রিয়াজাতকরণে IoT এর ব্যবহার
+
+একবার খাদ্য একটি কেন্দ্রীয় হাব বা প্রক্রিয়াকরণ কারখানায় পৌঁছে গেলে, এটি যে সরাসরি সুপার মার্কেটে পাঠানো হয় তা কিন্তু সবসময় সত্য নয়। অনেক সময় খাদ্য প্রক্রিয়াজাতকরণের কয়েকটি ধাপের মধ্য দিয়ে যায়, যেমন গুণমান অনুসারে বাছাই করা। এটি একটি প্রক্রিয়া যা আগে মানুষ নিজে করতো - এটি শস্যক্ষেত থেকেই শুরু হতো এবং বাছাইকারীরা কেবল পাকা ফল আলাদা করতো, তারপর কারখানায় ফল একটি কনভেয়ার বেল্টে চড়তো এবং কর্মচারীরা ম্যানুয়ালি যে কোনও ক্ষত বা পচা ফল সরিয়ে দেবে। স্কুলজীবনে গ্রীষ্মকালীন চাকরি হিসেবে স্ট্রবেরি বাছাই করার কাজ করে, আমি সাক্ষ্য দিতে পারি যে এটি খুব একটা মজাদার কাজ নয়।
+
+তখন কিছু আধুনিক সেটআপগুলোতে বাছাইয়ের জন্য IoT- এর উপর নির্ভর করে। [Weco](https://wecotek.com) এর মতো প্রথম দিকের কিছু যন্ত্র ছিলো, যেগুলো উৎপাদনের মান সনাক্ত করতে অপটিক্যাল সেন্সর ব্যবহার করে, উদাহরণস্বরূপ সবুজ টমেটো প্রত্যাখ্যান করে। এগুলি খামারেইবা প্রক্রিয়াকরণ কারখানায় স্থাপন করা যেতে পারে।
+
+আর্টিফিশিয়াল ইন্টেলিজেন্স (এআই) এবং মেশিন লার্নিং (এমএল) -এর অগ্রগতির ফলে, এই মেশিনগুলি আরও উন্নত হয়ে উঠতে পারছে, এমএল মডেল ব্যবহার করে ফল এবং বিদেশী বস্তু যেমন পাথর, ময়লা বা পোকামাকড়ের মধ্যে পার্থক্য করতে পারছে। এই মডেলগুলিকে ফলের গুণাগুণ সনাক্ত করার জন্য প্রশিক্ষণ দেওয়া যেতে পারে; কেবলমাত্র ফেটে যাওয়া ফলই নয় বরং ফসলের রোগ বা অন্যান্য সমস্যা প্রাথমিকভাবে সনাক্তকরণ করাক যেতে পারে।
+
+> 🎓 *এমএল মডেল* শব্দটি ডেটা সেটের প্রশিক্ষিত (trained) মেশিন লার্নিং সফটওয়্যারের আউটপুটকে বোঝায়। উদাহরণস্বরূপ, একটি এমএল মডেলকে পাকা এবং কাঁচা টমেটোর মধ্যে পার্থক্য করতে প্রশিক্ষণ দেয়া যায়, তারপর টমেটো পাকা কি না তা দেখতে নতুন ছবিতে মডেলটি ব্যবহার করতে পারি।
+
+এই 4টি পাঠে আমরা শিখব কিভাবে ফলের গুণমান সনাক্ত করতে ইমেজ-ভিত্তিক এআই মডেলগুলিকে প্রশিক্ষণ দিতে হয়, কিভাবে একটি আইওটি ডিভাইস থেকে এগুলি ব্যবহার করতে হয় এবং কীভাবে এগুলি Edge ডিভাইস হিসেবে চালাতে হয় - যেটি ক্লাউডের পরিবর্তে একটি আইওটি ডিভাইসে কাজ করবে ।
+
+> 💁 এই লেসনগুলোতে আমরা কিছু ক্লাউড রিসোর্স ব্যবহার করবো। এখানে সবগুলো প্রজেক্ট সম্পূর্ণ না হলেও, আমাদেরকে [প্রজেক্ট ক্লীন-আপ](../translations/clean-up.bn.md) করতে হবে।
+
+## পাঠ্যসূচি
+
+1. [খাদ্যপণ্যের গুণমান সনাক্তকারীকে প্রশিক্ষণ প্রদান](./lessons/1-train-fruit-detector/translations/README.bn.md)
+1. [একটি IoT ডিভাইস থেকে ফলের গুণমান পরীক্ষাকরণ](./lessons/2-check-fruit-from-device/translations/README.bn.md)
+1. [ফলের মান সনাক্তকারী প্রোগ্রাম কে Edge এ চালানো](./lessons/3-run-fruit-detector-edge/translations/README.bn.md)
+1. [সেন্সরের মাধ্যমে ফলের মান সনাক্তকারীকে চালনা করা](./lessons/4-trigger-fruit-detector/translations/README.bn.md)
+
+## ক্রেডিট
+
+♥️ ভালোবাসার সাথে প্রতিটি অধ্যায় লিখেছেন [Jen Looper](https://github.com/jlooper) এবং [Jim Bennett](https://GitHub.com/JimBobBennett)
+
+
diff --git a/5-retail/translations/ReadME.hi.md b/5-retail/translations/ReadME.hi.md
new file mode 100644
index 00000000..1ffc8967
--- /dev/null
+++ b/5-retail/translations/ReadME.hi.md
@@ -0,0 +1,19 @@
+# खुदरा - स्टॉक स्तरों को प्रबंधित करने के लिए IoT का उपयोग करना
+
+उपभोक्ताओं तक पहुंचने से पहले फ़ीड के लिए अंतिम चरण खुदरा है - बाजार, किराने का सामान, सुपरमार्केट और स्टोर जो उपभोक्ताओं को उत्पाद बेचते हैं। ये स्टोर यह सुनिश्चित करना चाहते हैं कि उपभोक्ताओं के देखने और खरीदने के लिए इनके पास अलमारियों पर उत्पादन हो।
+
+खाद्य भंडारों में, विशेष रूप से बड़े सुपरमार्केट में, सबसे अधिक मैनुअल, समय लेने वाले कार्यों में से एक यह सुनिश्चित करना है कि अलमारियों को स्टॉक किया गया है या नहीं और यह सुनिश्चित करने के लिए अलग-अलग अलमारियों की जाँच करना कि किसी भी अंतराल को स्टोर रूम से उपज से भरा गया है या नहीं।
+
+IoT इसमें मदद कर सकता है, स्टॉक गिनने के लिए IoT उपकरणों पर चलने वाले AI मॉडल का उपयोग करके, मशीन लर्निंग मॉडल का उपयोग करके जो न केवल छवियों को वर्गीकृत करते हैं, बल्कि व्यक्तिगत वस्तुओं का पता लगा सकते हैं और उन्हें गिन सकते हैं।
+
+इन 2 पाठों में आप सीखेंगे कि स्टॉक की गणना करने के लिए छवि-आधारित AI मॉडल को कैसे प्रशिक्षित किया जाए, और कैसे इन मॉडलों को IoT उपकरणों पर चलाया जाए।
+
+> 💁 ये पाठ कुछ क्लाउड संसाधनों का उपयोग करेंगे। यदि आप इस परियोजना के सभी पाठों को पूरा नहीं करते हैं, तो सुनिश्चित करें कि आप [अपना प्रोजेक्ट साफ़ करें](../clean-up.md)।
+## विषय
+
+1. [स्टॉक डिटेक्टर को प्रशिक्षित करें](./lessons/1-train-stock-detector/README.md)
+1. [IoT डिवाइस से स्टॉक की जांच करें](./lessons/2-check-stock-device/README.md)
+
+## क्रेडिट
+
+सभी पाठ [जिम बेनेट] द्वारा ️ के साथ लिखे गए थे (https://GitHub.com/JimBobBennett)
diff --git a/6-consumer/lessons/2-language-understanding/README.md b/6-consumer/lessons/2-language-understanding/README.md
index 0004c934..53be2c10 100644
--- a/6-consumer/lessons/2-language-understanding/README.md
+++ b/6-consumer/lessons/2-language-understanding/README.md
@@ -19,7 +19,7 @@ In this lesson you will learn about language understanding models, how to create
In this lesson we'll cover:
* [Language understanding](#language-understanding)
-* [Create a language understanding model](create-a-language-understanding-model)
+* [Create a language understanding model](#create-a-language-understanding-model)
* [Intents and entities](#intents-and-entities)
* [Use the language understanding model](#use-the-language-understanding-model)
diff --git a/6-consumer/lessons/3-spoken-feedback/pi-text-to-speech.md b/6-consumer/lessons/3-spoken-feedback/pi-text-to-speech.md
index 2447dc5d..f8e7befe 100644
--- a/6-consumer/lessons/3-spoken-feedback/pi-text-to-speech.md
+++ b/6-consumer/lessons/3-spoken-feedback/pi-text-to-speech.md
@@ -103,21 +103,21 @@ Each language supports a range of different voices, and you can make a REST requ
```python
def play_speech(speech):
- with wave.open(speech, 'rb') as wave_file:
- stream = audio.open(format=audio.get_format_from_width(wave_file.getsampwidth()),
- channels=wave_file.getnchannels(),
- rate=wave_file.getframerate(),
- output_device_index=speaker_card_number,
- output=True)
+ with wave.open(speech, 'rb') as wave_file:
+ stream = audio.open(format=audio.get_format_from_width(wave_file.getsampwidth()),
+ channels=wave_file.getnchannels(),
+ rate=wave_file.getframerate(),
+ output_device_index=speaker_card_number,
+ output=True)
- data = wave_file.readframes(4096)
-
- while len(data) > 0:
- stream.write(data)
data = wave_file.readframes(4096)
- stream.stop_stream()
- stream.close()
+ while len(data) > 0:
+ stream.write(data)
+ data = wave_file.readframes(4096)
+
+ stream.stop_stream()
+ stream.close()
```
This code uses a PyAudio stream, the same as capturing audio. The difference here is the stream is set as an output stream, and data is read from the audio data and pushed to the stream.
diff --git a/6-consumer/lessons/4-multiple-language-support/README.md b/6-consumer/lessons/4-multiple-language-support/README.md
index bc0302b7..ee273f8a 100644
--- a/6-consumer/lessons/4-multiple-language-support/README.md
+++ b/6-consumer/lessons/4-multiple-language-support/README.md
@@ -42,7 +42,7 @@ Text translation has been a computer science problem that has been researched fo
Text translation started out as a technology known as Machine Translation (MT), that can translate between different language pairs. MT works by substituting words in one language with another, adding techniques to select the correct ways of translating phrases or parts of sentences when a simple word-for-word translation doesn't make sense.
-> 🎓 When translators support translating between one language and another, these are know as *language pairs*. Different tools support different language pairs, and these may not be complete. For example, a translator may support English to Spanish as a language pair, and Spanish to Italian as a language pair, but not English to Italian.
+> 🎓 When translators support translating between one language and another, these are known as *language pairs*. Different tools support different language pairs, and these may not be complete. For example, a translator may support English to Spanish as a language pair, and Spanish to Italian as a language pair, but not English to Italian.
For example, translating "Hello world" from English into French can be performed with a substitution - "Bonjour" for "Hello", and "le monde" for "world", leading to the correct translation of "Bonjour le monde".
diff --git a/6-consumer/translations/.dummy.md b/6-consumer/translations/.dummy.md
deleted file mode 100644
index 6e7db247..00000000
--- a/6-consumer/translations/.dummy.md
+++ /dev/null
@@ -1,9 +0,0 @@
-# Dummy File
-
-This file acts as a placeholder for the `translations` folder.
-**Please remove this file after adding the first translation**
-
-For the instructions, follow the directives in the [translations guide](https://github.com/microsoft/IoT-For-Beginners/blob/main/TRANSLATIONS.md) .
-
-## THANK YOU
-We truly appreciate your efforts!
diff --git a/CONTRIBUTING.md b/CONTRIBUTING.md
index 4ae0ac57..d23d600f 100644
--- a/CONTRIBUTING.md
+++ b/CONTRIBUTING.md
@@ -5,6 +5,8 @@ agree to a Contributor License Agreement (CLA) declaring that you have the right
and actually do, grant us the rights to use your contribution. For details, visit
https://cla.microsoft.com.
+> Important: when translating text in this repo, please ensure that you do not use machine translation. We will verify translations via the community, so please only volunteer for translations in languages where you are proficient.
+
When you submit a pull request, a CLA-bot will automatically determine whether you need
to provide a CLA and decorate the PR appropriately (e.g., label, comment). Simply follow the
instructions provided by the bot. You will only need to do this once across all repositories using our CLA.
diff --git a/README.md b/README.md
index a4bacfb8..c7fb8eab 100644
--- a/README.md
+++ b/README.md
@@ -11,6 +11,7 @@
[](translations/README.bn.md)
[](translations/README.zh-cn.md)
[](translations/README.tr.md)
+[](translations/README.fr.md)
# IoT for Beginners - A Curriculum
@@ -75,32 +76,32 @@ We have two choices of IoT hardware to use for the projects depending on persona
## Lessons
-| | Project Name | Concepts Taught | Learning Objectives | Linked Lesson |
-| :-: | :----------: | :-------------: | ------------------- | :-----------: |
-| 01 | [Getting started](./1-getting-started) | Introduction to IoT | Learn the basic principles of IoT and the basic building blocks of IoT solutions such as sensors and cloud services whilst you are setting up your first IoT device | [Introduction to IoT](./1-getting-started/lessons/1-introduction-to-iot/README.md) |
-| 02 | [Getting started](./1-getting-started) | A deeper dive into IoT | Learn more about the components of an IoT system, as well as microcontrollers and single-board computers | [A deeper dive into IoT](./1-getting-started/lessons/2-deeper-dive/README.md) |
-| 03 | [Getting started](./1-getting-started) | Interact with the physical world with sensors and actuators | Learn about sensors to gather data from the physical world, and actuators to send feedback, whilst you build a nightlight | [Interact with the physical world with sensors and actuators](./1-getting-started/lessons/3-sensors-and-actuators/README.md) |
-| 04 | [Getting started](./1-getting-started) | Connect your device to the Internet | Learn about how to connect an IoT device to the Internet to send and receive messages by connecting your nightlight to an MQTT broker | [Connect your device to the Internet](./1-getting-started/lessons/4-connect-internet/README.md) |
-| 05 | [Farm](./2-farm) | Predict plant growth | Learn how to predict plant growth using temperature data captured by an IoT device | [Predict plant growth](./2-farm/lessons/1-predict-plant-growth/README.md) |
-| 06 | [Farm](./2-farm) | Detect soil moisture | Learn how to detect soil moisture and calibrate a soil moisture sensor | [Detect soil moisture](./2-farm/lessons/2-detect-soil-moisture/README.md) |
-| 07 | [Farm](./2-farm) | Automated plant watering | Learn how to automate and time watering using a relay and MQTT | [Automated plant watering](./2-farm/lessons/3-automated-plant-watering/README.md) |
-| 08 | [Farm](./2-farm) | Migrate your plant to the cloud | Learn about the cloud and cloud-hosted IoT services and how to connect your plant to one of these instead of a public MQTT broker | [Migrate your plant to the cloud](./2-farm/lessons/4-migrate-your-plant-to-the-cloud/README.md) |
-| 09 | [Farm](./2-farm) | Migrate your application logic to the cloud | Learn about how you can write application logic in the cloud that responds to IoT messages | [Migrate your application logic to the cloud](./2-farm/lessons/5-migrate-application-to-the-cloud/README.md) |
-| 10 | [Farm](./2-farm) | Keep your plant secure | Learn about security with IoT and how to keep your plant secure with keys and certificates | [Keep your plant secure](./2-farm/lessons/6-keep-your-plant-secure/README.md) |
-| 11 | [Transport](./3-transport) | Location tracking | Learn about GPS location tracking for IoT devices | [Location tracking](./3-transport/lessons/1-location-tracking/README.md) |
-| 12 | [Transport](./3-transport) | Store location data | Learn how to store IoT data to be visualized or analysed later | [Store location data](./3-transport/lessons/2-store-location-data/README.md) |
-| 13 | [Transport](./3-transport) | Visualize location data | Learn about visualizing location data on a map, and how maps represent the real 3d world in 2 dimensions | [Visualize location data](./3-transport/lessons/3-visualize-location-data/README.md) |
-| 14 | [Transport](./3-transport) | Geofences | Learn about geofences, and how they can be used to alert when vehicles in the supply chain are close to their destination | [Geofences](./3-transport/lessons/4-geofences/README.md) |
-| 15 | [Manufacturing](./4-manufacturing) | Train a fruit quality detector | Learn about training an image classifier in the cloud to detect fruit quality | [Train a fruit quality detector](./4-manufacturing/lessons/1-train-fruit-detector/README.md) |
-| 16 | [Manufacturing](./4-manufacturing) | Check fruit quality from an IoT device | Learn about using your fruit quality detector from an IoT device | [Check fruit quality from an IoT device](./4-manufacturing/lessons/2-check-fruit-from-device/README.md) |
-| 17 | [Manufacturing](./4-manufacturing) | Run your fruit detector on the edge | Learn about running your fruit detector on an IoT device on the edge | [Run your fruit detector on the edge](./4-manufacturing/lessons/3-run-fruit-detector-edge/README.md) |
-| 18 | [Manufacturing](./4-manufacturing) | Trigger fruit quality detection from a sensor | Learn about triggering fruit quality detection from a sensor | [Trigger fruit quality detection from a sensor](./4-manufacturing/lessons/4-trigger-fruit-detector/README.md) |
-| 19 | [Retail](./5-retail) | Train a stock detector | Learn how to use object detection to train a stock detector to count stock in a shop | [Train a stock detector](./5-retail/lessons/1-train-stock-detector/README.md) |
-| 20 | [Retail](./5-retail) | Check stock from an IoT device | Learn how to check stock from an IoT device using an object detection model | [Check stock from an IoT device](./5-retail/lessons/2-check-stock-device/README.md) |
-| 21 | [Consumer](./6-consumer) | Recognize speech with an IoT device | Learn how to recognize speech from an IoT device to build a smart timer | [Recognize speech with an IoT device](./6-consumer/lessons/1-speech-recognition/README.md) |
-| 22 | [Consumer](./6-consumer) | Understand language | Learn how to understand sentences spoken to an IoT device | [Understand language](./6-consumer/lessons/2-language-understanding/README.md) |
-| 23 | [Consumer](./6-consumer) | Set a timer and provide spoken feedback | Learn how to set a timer on an IoT device and give spoken feedback on when the timer is set and when it finishes | [Set a timer and provide spoken feedback](./6-consumer/lessons/3-spoken-feedback/README.md) |
-| 24 | [Consumer](./6-consumer) | Support multiple languages | Learn how to support multiple languages, both being spoken to and the responses from your smart timer | [Support multiple languages](./6-consumer/lessons/4-multiple-language-support/README.md) |
+| | Project Name | Concepts Taught | Learning Objectives | Linked Lesson |
+| :---: | :------------------------------------: | :---------------------------------------------------------: | ------------------------------------------------------------------------------------------------------------------------------------------------------------------- | :--------------------------------------------------------------------------------------------------------------------------: |
+| 01 | [Getting started](./1-getting-started) | Introduction to IoT | Learn the basic principles of IoT and the basic building blocks of IoT solutions such as sensors and cloud services whilst you are setting up your first IoT device | [Introduction to IoT](./1-getting-started/lessons/1-introduction-to-iot/README.md) |
+| 02 | [Getting started](./1-getting-started) | A deeper dive into IoT | Learn more about the components of an IoT system, as well as microcontrollers and single-board computers | [A deeper dive into IoT](./1-getting-started/lessons/2-deeper-dive/README.md) |
+| 03 | [Getting started](./1-getting-started) | Interact with the physical world with sensors and actuators | Learn about sensors to gather data from the physical world, and actuators to send feedback, whilst you build a nightlight | [Interact with the physical world with sensors and actuators](./1-getting-started/lessons/3-sensors-and-actuators/README.md) |
+| 04 | [Getting started](./1-getting-started) | Connect your device to the Internet | Learn about how to connect an IoT device to the Internet to send and receive messages by connecting your nightlight to an MQTT broker | [Connect your device to the Internet](./1-getting-started/lessons/4-connect-internet/README.md) |
+| 05 | [Farm](./2-farm) | Predict plant growth | Learn how to predict plant growth using temperature data captured by an IoT device | [Predict plant growth](./2-farm/lessons/1-predict-plant-growth/README.md) |
+| 06 | [Farm](./2-farm) | Detect soil moisture | Learn how to detect soil moisture and calibrate a soil moisture sensor | [Detect soil moisture](./2-farm/lessons/2-detect-soil-moisture/README.md) |
+| 07 | [Farm](./2-farm) | Automated plant watering | Learn how to automate and time watering using a relay and MQTT | [Automated plant watering](./2-farm/lessons/3-automated-plant-watering/README.md) |
+| 08 | [Farm](./2-farm) | Migrate your plant to the cloud | Learn about the cloud and cloud-hosted IoT services and how to connect your plant to one of these instead of a public MQTT broker | [Migrate your plant to the cloud](./2-farm/lessons/4-migrate-your-plant-to-the-cloud/README.md) |
+| 09 | [Farm](./2-farm) | Migrate your application logic to the cloud | Learn about how you can write application logic in the cloud that responds to IoT messages | [Migrate your application logic to the cloud](./2-farm/lessons/5-migrate-application-to-the-cloud/README.md) |
+| 10 | [Farm](./2-farm) | Keep your plant secure | Learn about security with IoT and how to keep your plant secure with keys and certificates | [Keep your plant secure](./2-farm/lessons/6-keep-your-plant-secure/README.md) |
+| 11 | [Transport](./3-transport) | Location tracking | Learn about GPS location tracking for IoT devices | [Location tracking](./3-transport/lessons/1-location-tracking/README.md) |
+| 12 | [Transport](./3-transport) | Store location data | Learn how to store IoT data to be visualized or analysed later | [Store location data](./3-transport/lessons/2-store-location-data/README.md) |
+| 13 | [Transport](./3-transport) | Visualize location data | Learn about visualizing location data on a map, and how maps represent the real 3d world in 2 dimensions | [Visualize location data](./3-transport/lessons/3-visualize-location-data/README.md) |
+| 14 | [Transport](./3-transport) | Geofences | Learn about geofences, and how they can be used to alert when vehicles in the supply chain are close to their destination | [Geofences](./3-transport/lessons/4-geofences/README.md) |
+| 15 | [Manufacturing](./4-manufacturing) | Train a fruit quality detector | Learn about training an image classifier in the cloud to detect fruit quality | [Train a fruit quality detector](./4-manufacturing/lessons/1-train-fruit-detector/README.md) |
+| 16 | [Manufacturing](./4-manufacturing) | Check fruit quality from an IoT device | Learn about using your fruit quality detector from an IoT device | [Check fruit quality from an IoT device](./4-manufacturing/lessons/2-check-fruit-from-device/README.md) |
+| 17 | [Manufacturing](./4-manufacturing) | Run your fruit detector on the edge | Learn about running your fruit detector on an IoT device on the edge | [Run your fruit detector on the edge](./4-manufacturing/lessons/3-run-fruit-detector-edge/README.md) |
+| 18 | [Manufacturing](./4-manufacturing) | Trigger fruit quality detection from a sensor | Learn about triggering fruit quality detection from a sensor | [Trigger fruit quality detection from a sensor](./4-manufacturing/lessons/4-trigger-fruit-detector/README.md) |
+| 19 | [Retail](./5-retail) | Train a stock detector | Learn how to use object detection to train a stock detector to count stock in a shop | [Train a stock detector](./5-retail/lessons/1-train-stock-detector/README.md) |
+| 20 | [Retail](./5-retail) | Check stock from an IoT device | Learn how to check stock from an IoT device using an object detection model | [Check stock from an IoT device](./5-retail/lessons/2-check-stock-device/README.md) |
+| 21 | [Consumer](./6-consumer) | Recognize speech with an IoT device | Learn how to recognize speech from an IoT device to build a smart timer | [Recognize speech with an IoT device](./6-consumer/lessons/1-speech-recognition/README.md) |
+| 22 | [Consumer](./6-consumer) | Understand language | Learn how to understand sentences spoken to an IoT device | [Understand language](./6-consumer/lessons/2-language-understanding/README.md) |
+| 23 | [Consumer](./6-consumer) | Set a timer and provide spoken feedback | Learn how to set a timer on an IoT device and give spoken feedback on when the timer is set and when it finishes | [Set a timer and provide spoken feedback](./6-consumer/lessons/3-spoken-feedback/README.md) |
+| 24 | [Consumer](./6-consumer) | Support multiple languages | Learn how to support multiple languages, both being spoken to and the responses from your smart timer | [Support multiple languages](./6-consumer/lessons/4-multiple-language-support/README.md) |
## Offline access
@@ -129,6 +130,7 @@ Our team produces other curricula! Check out:
- [Web Dev for Beginners](https://aka.ms/webdev-beginners)
- [ML for Beginners](https://aka.ms/ml-beginners)
+- [Data Science for Beginners](https://aka.ms/datascience-beginners)
## Image attributions
diff --git a/SECURITY.md b/SECURITY.md
index f7b89984..882109a8 100644
--- a/SECURITY.md
+++ b/SECURITY.md
@@ -1,6 +1,6 @@
-## Security
+# Security
Microsoft takes the security of our software products and services seriously, which includes all source code repositories managed through our GitHub organizations, which include [Microsoft](https://github.com/Microsoft), [Azure](https://github.com/Azure), [DotNet](https://github.com/dotnet), [AspNet](https://github.com/aspnet), [Xamarin](https://github.com/xamarin), and [our GitHub organizations](https://opensource.microsoft.com/).
@@ -14,7 +14,7 @@ Instead, please report them to the Microsoft Security Response Center (MSRC) at
If you prefer to submit without logging in, send email to [secure@microsoft.com](mailto:secure@microsoft.com). If possible, encrypt your message with our PGP key; please download it from the [Microsoft Security Response Center PGP Key page](https://www.microsoft.com/en-us/msrc/pgp-key-msrc).
-You should receive a response within 24 hours. If for some reason you do not, please follow up via email to ensure we received your original message. Additional information can be found at [microsoft.com/msrc](https://www.microsoft.com/msrc).
+You should receive a response within 24 hours. If for some reason you do not, please follow up via email to ensure we received your original message. Additional information can be found at [microsoft.com/msrc](https://www.microsoft.com/msrc).
Please include the requested information listed below (as much as you can provide) to help us better understand the nature and scope of the possible issue:
diff --git a/TRANSLATIONS.md b/TRANSLATIONS.md
index 2137b6ea..3f54b22f 100644
--- a/TRANSLATIONS.md
+++ b/TRANSLATIONS.md
@@ -17,6 +17,12 @@ When translating the initial Readme, link the other translations to your transla
where _[language]_ is a two letter language abbreviation following the ISO 639-1 standard (e.g. `README.es.md` for Spanish and `README.nl.md` for Dutch).
+> Important: when translating text in this repo, please ensure that you do not use machine translation. We will verify translations via the community, so please only volunteer for translations in languages where you are proficient.
+
+## Links
+
+When translating, please update links to the translated files. If a file hasn't been translated, keep the link to the English version. As each file is in a `translations` folder, you will also need to update the link depth for hyperlinks and images.
+
## Quizzes
Add your translation to the quiz-app by adding a file here: https://github.com/microsoft/IoT-For-Beginners/tree/main/quiz-app/src/assets/translations. Please don't localize the words 'true' or 'false' however. thanks!
diff --git a/lesson-template/translations/README.id.md b/lesson-template/translations/README.id.md
new file mode 100644
index 00000000..5c77535b
--- /dev/null
+++ b/lesson-template/translations/README.id.md
@@ -0,0 +1,51 @@
+# [Topik Pelajaran]
+
+
+
+## [Kuis Pra-Kuliah](quiz-url)
+
+[Jelaskan apa yang akan kita pelajari]
+
+### Pengenalan
+
+Jelaskan apa yang akan dibahas
+
+> Catatan
+
+### Prasyarat
+
+Langkah-langkah apa yang seharusnya sudah dibahas sebelum pelajaran ini?
+
+### Persiapan
+
+Langkah-langkah persiapan untuk memulai pelajaran ini
+
+---
+
+[Melangkah melalui konten dalam blok]
+
+## [Topik 1]
+
+### Tugas:
+
+Bekerja sama untuk meningkatkan *codebase* anda secara progresif untuk membangun proyek dengan kode bersama:
+
+```html
+blok kode
+```
+
+✅ Cek Pengetahuan - gunakan momen ini untuk memperluas pengetahuan siswa dengan membuka pertanyaan
+
+## [Topik 2]
+
+## [Topik 3]
+
+🚀 Tantangan: Tambahkan sebuah tantangan kepada siswa untuk dikerjakan secara kolaboratif di kelas untuk menyempurnakan project
+
+Opsional: tambahkan tangkapan layar UI dari pelajaran yang telah selesai jika sesuai
+
+## [Kuis Setelah Kuliah](quiz-url)
+
+## Ulasan & Belajar Mandiri
+
+**Keterlambatan Tugas [MM/YY]**: [Nama Tugas](assignment.md)
diff --git a/lesson-template/translations/assignment.id.md b/lesson-template/translations/assignment.id.md
new file mode 100644
index 00000000..e47776fa
--- /dev/null
+++ b/lesson-template/translations/assignment.id.md
@@ -0,0 +1,9 @@
+# [Nama Tugas]
+
+## Instruksi
+
+## Rubrik
+
+| Kriteria | Teladan | Memadai | Perlu Perbaikan |
+| -------- | --------- | -------- | ----------------- |
+| | | | |
diff --git a/translations/CODE_OF_CONDUCT.fr.md b/translations/CODE_OF_CONDUCT.fr.md
new file mode 100644
index 00000000..a77f3ff7
--- /dev/null
+++ b/translations/CODE_OF_CONDUCT.fr.md
@@ -0,0 +1,9 @@
+# Code de conduite de Microsoft pour les logiciels libres
+
+Ce projet a adopté le [Code de conduite de Microsoft Open Source](https://opensource.microsoft.com/codeofconduct/).
+
+Resources:
+
+- [Code de conduite de Microsoft pour les logiciels libres](https://opensource.microsoft.com/codeofconduct/)
+- [FAQ sur le code de conduite de Microsoft](https://opensource.microsoft.com/codeofconduct/faq/)
+- Contact [opencode@microsoft.com](mailto:opencode@microsoft.com) with questions or concerns
diff --git a/translations/CONTRIBUTING.fr.md b/translations/CONTRIBUTING.fr.md
new file mode 100644
index 00000000..38287c67
--- /dev/null
+++ b/translations/CONTRIBUTING.fr.md
@@ -0,0 +1,12 @@
+# Contributing
+
+Ce projet est ouvert aux contributions et aux suggestions. La plupart des contributions nécessitent que vous
+accepter un Accord de Licence de Contributeur (CLA) déclarant que vous avez le droit de,
+et que vous nous accordez effectivement les droits d'utilisation de votre contribution. Pour plus de détails, visitez
+https://cla.microsoft.com.
+
+Lorsque vous soumettez une demande de retrait, un robot CLA déterminera automatiquement si vous devez fournir une CLA et décorer le PR de manière appropriée (par exemple, étiquette, commentaire). Il suffit de suivre les instructions fournies par le bot. Vous n'aurez à le faire qu'une seule fois pour tous les dépôts utilisant notre CLA.
+
+Ce projet a adopté le [Code de conduite de Microsoft Open Source](https://opensource.microsoft.com/codeofconduct/).
+Pour plus d'informations, lisez la [FAQ sur le code de conduite](https://opensource.microsoft.com/codeofconduct/faq/)
+ou contactez [opencode@microsoft.com](mailto:opencode@microsoft.com) pour toute question ou commentaire supplémentaire.
diff --git a/translations/README.bn.md b/translations/README.bn.md
index 675f9d94..69772140 100644
--- a/translations/README.bn.md
+++ b/translations/README.bn.md
@@ -9,8 +9,10 @@
[](https://GitHub.com/microsoft/IoT-For-Beginners/stargazers/)
[](../README.md)
-[](README.zh-cn.md)
-[](README.tr.md)
+[](translations/README.zh-cn.md)
+[](translations/README.tr.md)
+[](translations/README.fr.md)
+
# বিগিনারদের জন্য আইওটি - একটি সুবিন্যস্ত পাঠ্যক্রম
@@ -24,7 +26,7 @@
**হৃদয়ের অন্তঃস্থল থেকে কৃতজ্ঞতা জানাই এই কোর্সের রচয়িতা [Jen Fox](https://github.com/jenfoxbot), [Jen Looper](https://github.com/jlooper), [Jim Bennett](https://github.com/jimbobbennett) এবং স্কেচনোট শিল্পী [Nitya Narasimhan](https://github.com/nitya)কে ।**
-**ধন্যবাদ জানাতে চাই আমাদের সেসকল [Microsoft Learn Student Ambassadors](https://studentambassadors.microsoft.com?WT.mc_id=academic-17441-jabenn)দের, যারা এই কারিক্যুলামটি রিভিউ এবং অনুবাদে কাজ করেছে - [Aditya Garg](https://github.com/AdityaGarg00),[Anurag Sharma](https://github.com/Anurag-0-1-A), [Arpita Das](https://github.com/Arpiiitaaa), [Aryan Jain](https://www.linkedin.com/in/aryan-jain-47a4a1145/), [Bhavesh Suneja](https://github.com/EliteWarrior315),[Faith Hunja](https://faithhunja.github.io/), [Lateefah Bello](https://www.linkedin.com/in/lateefah-bello/), [Manvi Jha](https://github.com/Severus-Matthew), [Mireille Tan](https://www.linkedin.com/in/mireille-tan-a4834819a/), [Mohammad Iftekher (Iftu) Ebne Jalal](https://github.com/Iftu119), [Priyanshu Srivastav](https://www.linkedin.com/in/priyanshu-srivastav-b067241ba), [Thanmai Gowducheruvu](https://github.com/innovation-platform), এবং [Zina Kamel](https://www.linkedin.com/in/zina-kamel/).**
+**ধন্যবাদ জানাতে চাই আমাদের সেসকল [Microsoft Learn Student Ambassadors](https://studentambassadors.microsoft.com?WT.mc_id=academic-17441-jabenn)দের, যারা এই কারিক্যুলামটি রিভিউ এবং অনুবাদে কাজ করেছে - [Aditya Garg](https://github.com/AdityaGarg00),[Anurag Sharma](https://github.com/Anurag-0-1-A), [Arpita Das](https://github.com/Arpiiitaaa), [Aryan Jain](https://www.linkedin.com/in/aryan-jain-47a4a1145/), [Bhavesh Suneja](https://github.com/EliteWarrior315),[Faith Hunja](https://faithhunja.github.io/), [Lateefah Bello](https://www.linkedin.com/in/lateefah-bello/), [Manvi Jha](https://github.com/Severus-Matthew), [Mireille Tan](https://www.linkedin.com/in/mireille-tan-a4834819a/), [Mohammad Iftekher (Iftu) Ebne Jalal](https://github.com/Iftu119),[Mohammad Zulfikar](https://github.com/mohzulfikar), [Priyanshu Srivastav](https://www.linkedin.com/in/priyanshu-srivastav-b067241ba), [Thanmai Gowducheruvu](https://github.com/innovation-platform), এবং [Zina Kamel](https://www.linkedin.com/in/zina-kamel/).**
পুরো টীমের সাথে পরিচিত হওয়া যাক !
@@ -87,11 +89,11 @@
| 10 | [ফার্ম](../2-farm) | উদ্ভিদের নিরাপত্তা নিশ্চিতকরণ | আইওটি তে নিরাপত্তা সম্পর্কে জানা এবং Key ও Certificate এর সাহায্যে আমাদের উদ্ভিদটিকে কীভাবে সুরক্ষিত রাখা যায় তা শেখা | [উদ্ভিদের নিরাপত্তা নিশ্চিতকরণ](../2-farm/lessons/6-keep-your-plant-secure/translations/README.bn.md) |
| 11 | [পরিবহন](../3-transport) | লোকেশন ট্র্যাকিং | আইওটি ডিভাইসে জিপিএস লোকেশন ট্র্যাকিং শেখা | [লোকেশন ট্র্যাকিং](../3-transport/lessons/1-location-tracking/translations/README.bn.md) |
| 12 | [পরিবহন](../3-transport) | লোকেশন ডেটা সংরক্ষণ | পরবর্তী সময়ে বিশ্লেষণ বা চিত্রভিত্তিক ডেটা প্রদর্শন (Visualization) এর জন্য আইওটি ডেটা কীভাবে স্টোর করা যায় তা জানা | [লোকেশন ডেটা সংরক্ষণ](../3-transport/lessons/2-store-location-data/translations/README.bn.md) |
-| 13 | [পরিবহন](../3-transport) | Visualize location data |মানচিত্রে অবস্থানের ডেটা প্রদর্শন করা এবং মানচিত্রগুলি কীভাবে ২টি মাত্রায় বাস্তব ত্রিমাত্রিক বিশ্বের উপস্থাপন করে সে সম্পর্কে জ্ঞান অর্জন | [Visualize location data](../3-transport/lessons/3-visualize-location-data/README.md) |
+| 13 | [পরিবহন](../3-transport) | লোকেশন ডেটা প্রদর্শন |মানচিত্রে অবস্থানের ডেটা প্রদর্শন করা এবং মানচিত্রগুলি কীভাবে ২টি মাত্রায় বাস্তব ত্রিমাত্রিক বিশ্বের উপস্থাপন করে সে সম্পর্কে জ্ঞান অর্জন | [লোকেশন ডেটা প্রদর্শন](../3-transport/lessons/3-visualize-location-data/translations/README.bn.md) |
| 14 | [পরিবহন](../3-transport) | Geofences | Geofences সম্পর্কে জানা এবং কীভাবে এটি ব্যবহার করে সাপ্লাই চেইনের বিভিন্ন পর্যায়ের বাহনগুলো যখন গন্তব্যের কাছাকাছি পৌঁছায় তখন এলার্ট দেয়া যায় তা শেখা | [Geofences](../3-transport/lessons/4-geofences/README.md) |
-| 15 | [উৎপাদন](../4-manufacturing) | Train a fruit quality detector | ক্লাউডের ছবি শ্রেণিবদ্ধকরণ মডেলকে (Image Classifier) ফলের মান সনাক্ত করতে কীভাবে প্রশিক্ষিত করতে হবে সে সম্পর্কে জানা | [Train a fruit quality detector](../4-manufacturing/lessons/1-train-fruit-detector/README.md) |
-| 16 | [উৎপাদন](../4-manufacturing) | Check fruit quality from an IoT device | আইওটি ডিভাইসে ফলের গুণগত মান সনাক্তকারী ব্যবহার | [Check fruit quality from an IoT device](../4-manufacturing/lessons/2-check-fruit-from-device/README.md) |
-| 17 | [উৎপাদন](../4-manufacturing) | Run your fruit detector on the edge | ফলের গুণগত মান সনাক্তকারীকে Edge হিসেবে ব্যবহার | [Run your fruit detector on the edge](../4-manufacturing/lessons/3-run-fruit-detector-edge/README.md) |
+| 15 | [উৎপাদন](../4-manufacturing) | খাদ্যপণ্যের গুণমান সনাক্তকারী মডেলকে ট্রেনিং প্রদান | ক্লাউডের ছবি শ্রেণিবদ্ধকরণ মডেলকে (Image Classifier) ফলের মান সনাক্ত করতে কীভাবে প্রশিক্ষিত করতে হবে সে সম্পর্কে জানা | [খাদ্যপণ্যের গুণমান সনাক্তকারী মডেলকে ট্রেনিং প্রদান](../4-manufacturing/lessons/1-train-fruit-detector/translations/README.bn.md) |
+| 16 | [উৎপাদন](../4-manufacturing) | IoT ডিভাইস ব্যবহার করে ফলের মান যাচাই | আইওটি ডিভাইসে ফলের গুণগত মান সনাক্তকারী ব্যবহার | [IoT ডিভাইস ব্যবহার করে ফলের মান যাচাই](../4-manufacturing/lessons/2-check-fruit-from-device/translations/README.bn.md) |
+| 17 | [উৎপাদন](../4-manufacturing) | Edge এ Fruit Detector পরিচালনা করা | ফলের গুণগত মান সনাক্তকারীকে Edge হিসেবে ব্যবহার | [Edge এ Fruit Detector পরিচালনা করা](../4-manufacturing/lessons/3-run-fruit-detector-edge/translations/README.bn.md) |
| 18 | [উৎপাদন](../4-manufacturing) | Trigger fruit quality detection from a sensor | সেন্সর থেকে ফলের গুণাগুণ সনাক্তকরণ নিয়ন্ত্রণ করা শেখা| [Trigger fruit quality detection from a sensor](../4-manufacturing/lessons/4-trigger-fruit-detector/README.md) |
| 19 | [খুচরাপর্যায়](../5-retail) | Train a stock detector | কোনও দোকানে স্টক গণনা করতে স্টক ডিটেক্টরকে প্রশিক্ষণ দেওয়ার জন্য কীভাবে অবজেক্ট সনাক্তকরণ ব্যবহার করা যায় তা শেখা | [Train a stock detector](../5-retail/lessons/1-train-stock-detector/README.md) |
| 20 | [খুচরাপর্যায়](../5-retail) | Check stock from an IoT device | কোন অবজেক্ট সনাক্তকরণ মডেল ব্যবহার করে আইওটি ডিভাইস থেকে স্টক পর্যবেক্ষণ করা শেখা | [Check stock from an IoT device](../5-retail/lessons/2-check-stock-device/README.md) |
@@ -112,10 +114,13 @@
npm i
npm run convert
```
+### স্লাইড
+
+কিছু কিছু লেসনের স্লাইড ডেক, এখানে [slides](./slides) ফোল্ডারে রয়েছে।
## সাহায্য প্রয়োজন!
-অনুবাদের কাজ করে এই কারিক্যুলামে অবদান করতে চান? তাহলে অনুগ্রহ করে আমাদের [অনুবাদ গাইডলাইন](translations/TRANSLATIONS.bn.md) পড়ে , যেকোন একটি [Translation Issue](https://github.com/microsoft/IoT-For-Beginners/issues?q=is%3Aissue+is%3Aopen+label%3Atranslation) এ ইনপুট দেয়ার অনুরোধ করা হলো। যদি কোন নতুন ভাষায় অনুবাদ করতে কেউ আগ্রহী হয়, তবে ট্র্যাকিংয়ের জন্য দয়া করে একটি নতুন Issue সাবমিট করতে হবে।
+অনুবাদের কাজ করে এই কারিক্যুলামে অবদান করতে চান? তাহলে অনুগ্রহ করে আমাদের [অনুবাদ গাইডলাইন](TRANSLATIONS.md) পড়ে , যেকোন একটি [Translation Issue](https://github.com/microsoft/IoT-For-Beginners/issues?q=is%3Aissue+is%3Aopen+label%3Atranslation) এ ইনপুট দেয়ার অনুরোধ করা হলো। যদি কোন নতুন ভাষায় অনুবাদ করতে কেউ আগ্রহী হয়, তবে ট্র্যাকিংয়ের জন্য দয়া করে একটি নতুন Issue সাবমিট করতে হবে।
## অন্য পাঠ্যক্রম সমূহ
@@ -123,6 +128,7 @@ npm run convert
- [Web Dev for Beginners](https://aka.ms/webdev-beginners)
- [ML for Beginners](https://aka.ms/ml-beginners)
+- [Data Science for Beginners](https://aka.ms/datascience-beginners)
## চিত্রের Attributions
diff --git a/translations/README.fr.md b/translations/README.fr.md
new file mode 100644
index 00000000..0d3e128b
--- /dev/null
+++ b/translations/README.fr.md
@@ -0,0 +1,136 @@
+[](https://github.com/microsoft/IoT-For-Beginners/blob/master/LICENSE)
+[](https://GitHub.com/microsoft/IoT-For-Beginners/graphs/contributors/)
+[](https://GitHub.com/microsoft/IoT-For-Beginners/issues/)
+[](https://GitHub.com/microsoft/IoT-For-Beginners/pulls/)
+[](http://makeapullrequest.com)
+
+[](https://GitHub.com/microsoft/IoT-For-Beginners/watchers/)
+[](https://GitHub.com/microsoft/IoT-For-Beginners/network/)
+[](https://GitHub.com/microsoft/IoT-For-Beginners/stargazers/)
+
+[](README.bn.md)
+[](README.zh-cn.md)
+[](README.tr.md)
+[](README.fr.md)
+
+# IoT pour débutants - Le Curriculum
+
+Chez Microsoft, les partisans d'Azure infonuagique sont fiers de vous offrir ce cursus de formation en ligne sur les bases de l'Internet des Objets (IoT). Cette formation de 12 semaines sera ventillée en 24 leçons, comprendra des questionnaires avant et après chacune des leçons. Elle comprendra aussi des instructions écrites permettant de compléter les leçons, des solutions et bien plus encore. Notre pédagogie orientée sur la réalisation de projet vous permettra d'apprendre tout en développant des compétences durables.
+
+L'ensemble des projets parlent du parcours que les aliments suivent, de la ferme jusqu'à l'assiette. On y aborde notemment la production à la ferme, la logistique, la fabrication, la ou encore de la vente au détail. Bref, un ensemble d'industries propices à l'utilisation d'objets connectés.
+
+
+
+> Illustré de [Nitya Narasimhan](https://github.com/nitya). Cliquez sur l'image pour l'agrandir.
+
+**Un remerciements chaleureux à nos auteurs [Jen Fox](https://github.com/jenfoxbot), [Jen Looper](https://github.com/jlooper), [Jim Bennett](https://github.com/jimbobbennett), and our sketchnote artist [Nitya Narasimhan](https://github.com/nitya).**
+
+**Un grand merci aussi à notre équipe [Microsoft Learn Student Ambassadors](https://studentambassadors.microsoft.com?WT.mc_id=academic-17441-jabenn) qui ont révisés et traduit cette série de cours - [Aditya Garg](https://github.com/AdityaGarg00), [Anurag Sharma](https://github.com/Anurag-0-1-A), [Arpita Das](https://github.com/Arpiiitaaa), [Aryan Jain](https://www.linkedin.com/in/aryan-jain-47a4a1145/), [Bhavesh Suneja](https://github.com/EliteWarrior315), [Faith Hunja](https://faithhunja.github.io/), [Lateefah Bello](https://www.linkedin.com/in/lateefah-bello/), [Manvi Jha](https://github.com/Severus-Matthew), [Mireille Tan](https://www.linkedin.com/in/mireille-tan-a4834819a/), [Mohammad Iftekher (Iftu) Ebne Jalal](https://github.com/Iftu119), [Mohammad Zulfikar](https://github.com/mohzulfikar), [Priyanshu Srivastav](https://www.linkedin.com/in/priyanshu-srivastav-b067241ba), [Thanmai Gowducheruvu](https://github.com/innovation-platform), and [Zina Kamel](https://www.linkedin.com/in/zina-kamel/).**
+
+Rencontrez l'équipe!
+
+[](https://youtu.be/-wippUJRi5k)
+
+> 🎥 Cliquez sur l'image ci-haut afin de consulter la vidéo du projet
+
+> **Enseignants**, nous avons [inclus quelques suggestions](./for-teachers.fr.md) sur la manière d'utiliser cette série de cours. Si vous souhaitez ajouter vos propres leçons, nous avons créé ce [gabarit de cours](../lesson-template/README.md) pour votre convenance.
+
+> **Étudiants**, afin d'utiliser cette série de cours, clônez le projet gitHub et complétez les exercices en commençant par les questionnaires de pré-lecture, suivi des lectures elles-mêmes puis du reste des activités proposées. Nous vous conseillons fortement de créer les projets en vous basant aux lessons associées au lieu de copier les solutionnaires;toutefois, ce code est disponible dans la section /solutions de chaque leçon. Une autre proposition serait de créer un groupe d'étude avec des amis afin de compléter le contenu ensembles. Pour des activités d'apprentissage avancées, nous vous invitons à consulter [Microsoft Learn](https://docs.microsoft.com/users/jimbobbennett/collections/ke2ehd351jopwr?WT.mc_id=academic-17441-jabenn).
+
+Pour un apperçu de cette série de cours, voici une vidéo intéressante:
+
+[](https://youtube.com/watch?v=bccEMm8gRuc "Video promo")
+
+> 🎥 Cliquez sur l'image ci-haut afin de consulter la vidéo du projet!
+
+## Pédagogie
+
+Nous avons construit ce cursus de formation en utilisant deux principes pédagogiques: l'apprentissage par projet ainsi que l'utilisation de quizzes fréquents. À la fin de cette série, les étudiants auront bâtis une système de surveillance et d'arrosage de plantes, un système de géolocalisation de véhicules, un système de suivi et de contrôle des aliments en usine ainsi qu'un minuteur contrôlé par la voix. Ces éléments d'apprentissage auront inclus l'écriture de code pour les objets connectés, la connectivité au cloud, l'analyse de télémétrie ainsi que l'utilisation d'intelligence artificielle par des appareils de périphérie (edge devices).
+
+En s'assurant que le contenu théorique soit conséquent avec les projets proposés, le processus d'apprentissage devient alors plus engageant et la rétention des concepts plus durable.
+
+De surcroît, les quizzes de début de cours mettent la tâble en orientant l'attention de l'étudiant vers le sujet d'apprentissage alors que les quizzes de fin de cours assurent une meilleur rétention des notions. Ce cursus de formation a été conçu afin d'être flexible et plaisant, pouvant être suivi en entièreté ou en partie. En effet, les projets commencent petits et deviennent de plus en plus complexes en fin de parcours.
+
+Il est aussi à noter que chaque projet est construit à partir de matériel disponible pour les étudiants et hobbyistes. Chaque projet permet une compréhension du contexte auquel il appartient en fournissant suffisemment d'information pertinentes. En effet, afin de devenir un développeur compétent, il est capitale de comprendre le contexte dans lequel un problème est exprimé puis résolue. Cela permet aux étudiants de mieux concevoir leurs solutions "IoT" fâce à des problèmes réels qu'ils seront éventuellement amenés à résoudre en tant que professionnels. Ces derniers comprennent alors les raisons qui justifient une conception et sont en mesure d'apprécier la perspective d'un utilisateur.
+
+## Matériel
+
+Nous proposons deux possibilités de matériel "IoT" afin de réaliser nos projets afin de permettre plus de flexibilité vis à vis vos preférences, language de programmation favoris, objectifs d'apprentissage ou encore disponibilité. Nous avons aussi fournis une version virtuelle du matériel en vue d'accomoder ceux n'ayant pas accès au matériel ou ne souhaitant pas débourser. Alors, libre à vous d'en lire d'avantage sur la [page de matériel](./hardware.fr.md) incluant plusieurs liens permettant d'acheter des ensembles chez nos amis à Seeed Studio.
+
+> 💁 Découvrez nos guides sur le [Code de conduite](CODE_OF_CONDUCT.fr.md), la [Contribution](CONTRIBUTING.fr.md), ainsi que la [Traduction](TRANSLATIONS.fr.md). Nous vous invitons à nous partager vos impressions!
+
+## Chaque leçon inclus:
+
+- illustré
+- vidéo supplémentaire optionnelle
+- questionnaire préliminaire
+- leçon écrite
+- pour les leçons incluant un projet, un guide complet sur la manière de construire le projet
+- étapes d'apprentissage
+- un défi
+- lectures complémentaires
+- devoir
+- questionnaire de fin de cours
+
+> **Note à propos des questionnaires**: Tous les questionnaires se retrouvent dans [cette application](https://brave-island-0b7c7f50f.azurestaticapps.net), pour un total de 48 questionnaires de trois questions chaque. Des liens sont fournis à l'intérieur de chacune des leçons bien que l'application puisse être exécutée localement; suivez les instructions situées dans le dossier `quiz-app`. Ces dernières deviennent progressivement localisées.
+
+## Leçons
+
+| | Nome du projet | Concept enseigné | Objectifs d'apprentissage | leçon associée |
+| :-: | :----------: | :-------------: | ------------------- | :-----------: |
+| 01 | [Démarrer](../1-getting-started) | Introduction aux IoT | Apprenez les principes fondamentaux de l'IoT ainsi que les éléments fondamentaux qui en font des solutions viables, tels que les capteurs et les services infonuagiques. Ceci, en configurant votre premier dispositif IoT | [Introduction aux IoT](../1-getting-started/lessons/1-introduction-to-iot/translations/README.fr.md) |
+| 02 | [Démarrer](../1-getting-started) | Approfondir les bases | Apprenez-en davantage sur les composants d'un système IoT, ainsi que sur les microcontrôleurs et les ordinateurs monocartes | [Approfondir les bases](../1-getting-started/lessons/2-deeper-dive/translations/README.fr.md) |
+| 03 | [Démarrer](../1-getting-started) | Interagir avec le monde physique à l'aide de capteurs et d'actuateurs | Apprenez à connaître les capteurs qui recueillent les données du monde physique et les actionneurs qui envoient des informations, tout en construisant une veilleuse | [Interagir avec le monde physique à l'aide de capteurs et d'actuateurs](../1-getting-started/lessons/3-sensors-and-actuators/translations/README.fr.md) |
+| 04 | [Démarrer](../1-getting-started) | Connectez votre appareil à l'Internet | Découvrez comment connecter un appareil IoT à Internet pour envoyer et recevoir des messages en connectant votre veilleuse à un broker MQTT | [Connectez votre appareil à l'Internet](../1-getting-started/lessons/4-connect-internet/translations/README.fr.md) |
+| 05 | [Jardinner](../2-farm) | Anticiper la croissance de ses plantes | Apprenez à prédire la croissance des plantes à l'aide des données de température capturées par un dispositif IoT | [Anticiper la croissance de ses plantes](../2-farm/lessons/1-predict-plant-growth/translations/README.fr.md) |
+| 06 | [Jardinner](../2-farm) | Détecter l'humidité du sol | Apprenez à détecter l'humidité du sol et à calibrer un capteur d'humidité du sol | [Détecter l'humidité du sol](../2-farm/lessons/2-detect-soil-moisture/translations/README.fr.md) |
+| 07 | [Jardinner](../2-farm) | Automatiser l'arrosage | Apprenez comment automatiser et chronométrer l'arrosage à l'aide d'un relais et de MQTT | [Automatiser l'arrosage](../2-farm/lessons/3-automated-plant-watering/translations/README.fr.md) |
+| 08 | [Jardinner](../2-farm) | Connectez votre plant au cloud | Découvrez les services IoT hébergés dans le nuage et comment connecter votre plant à l'un d'entre eux plutôt qu'à un broker MQTT public | [Connectez votre plant au cloud](../2-farm/lessons/4-migrate-your-plant-to-the-cloud/translations/README.fr.md) |
+| 09 | [Jardinner](../2-farm) | Migrer votre logique applicative vers le cloud | Découvrez comment vous pouvez écrire dans le nuage une logique d'applicative qui répond aux messages IoT | [Migrer votre logique applicative vers le cloud](../2-farm/lessons/5-migrate-application-to-the-cloud/translations/README.fr.md) |
+| 10 | [Jardinner](../2-farm) | Plante en sécurité | Découvrez la sécurité de l'IoT et comment sécuriser votre plante à l'aide de clés et de certificats | [Plante en sécurité](../2-farm/lessons/6-keep-your-plant-secure/translations/README.fr.md) |
+| 11 | [Transport](../3-transport) | Géolocalisation | En savoir plus sur le suivi de la localisation GPS pour les dispositifs IoT | [Géolocalisation](../3-transport/lessons/1-location-tracking/translations/README.fr.md) |
+| 12 | [Transport](../3-transport) | Stocker les données localisées | Apprenez à stocker les données IoT pour les visualiser ou les analyser ultérieurement | [Stocker les données localisées](../3-transport/lessons/2-store-location-data/translations/README.fr.md) |
+| 13 | [Transport](../3-transport) | Visualiser les données localisées | Learn about visualizing location data on a map, and how maps represent the real 3d world in 2 dimensions | [Visualiser les données localisées](../3-transport/lessons/3-visualize-location-data/translations/README.fr.md) |
+| 14 | [Transport](../3-transport) | Barrières géographiques virtuelles | Découvrez les géofences et la manière dont elles peuvent être utilisées pour alerter lorsque les véhicules de la chaîne d'approvisionnement sont proches de leur destination | [Barrières géographiques virtuelles](../3-transport/lessons/4-geofences/translations/README.fr.md) |
+| 15 | [Fabrication](../4-manufacturing) | Former un détecteur de qualité des fruits | Apprenez à former un classificateur d'images dans le nuage pour détecter la qualité des fruits | [Former un détecteur de qualité des fruits](../4-manufacturing/lessons/1-train-fruit-detector/translations/README.fr.md) |
+| 16 | [Fabrication](../4-manufacturing) | Vérifier la qualité des fruits à partir d'un dispositif IoT | Découvrez comment utiliser votre détecteur de qualité des fruits à partir d'un dispositif IoT | [Vérifier la qualité des fruits à partir d'un dispositif IoT](../4-manufacturing/lessons/2-check-fruit-from-device/translations/README.fr.md) |
+| 17 | [Fabrication](../4-manufacturing) | Faites fonctionner votre détecteur de fruits sur le Edge | Découvrez comment faire fonctionner votre détecteur de fruits sur un dispositif IoT à la périphérie | [Faites fonctionner votre détecteur de fruits sur le Edge](../4-manufacturing/lessons/3-run-fruit-detector-edge/translations/README.fr.md) |
+| 18 | [Fabrication](../4-manufacturing) | Déclencher la détection de la qualité du fruit à partir d'un capteur | En savoir plus sur le déclenchement de la détection de la qualité des fruits à partir d'un capteur | [Déclencher la détection de la qualité du fruit à partir d'un capteur](../4-manufacturing/lessons/4-trigger-fruit-detector/translations/README.fr.md) |
+| 19 | [Vente au détail](../5-retail) | Former un détecteur d'actions | Apprenez à utiliser la détection d'objets pour entraîner un détecteur de stock à compter les stocks dans un magasin | [Former un détecteur d'actions](../5-retail/lessons/1-train-stock-detector/translations/README.fr.md) |
+| 20 | [Vente au détail](../5-retail) | Vérifier le stock à partir d'un dispositif IoT | Apprenez à vérifier le stock d'un dispositif IoT à l'aide d'un modèle de détection d'objets. | [Vérifier le stock à partir d'un dispositif IoT](../5-retail/lessons/2-check-stock-device/translations/README.fr.md) |
+| 21 | [Consommateur](../6-consumer) | Reconnaître la parole avec un dispositif IoT | Apprenez à reconnaître la parole à partir d'un dispositif IoT pour construire une minuterie intelligente | [Reconnaître la parole avec un dispositif IoT](../6-consumer/lessons/1-speech-recognition/translations/README.fr.md) |
+| 22 | [Consommateur](../6-consumer) | Comprendre la langue | Apprenez à comprendre les phrases adressées à un dispositif IoT | [Comprendre la langue](../6-consumer/lessons/2-language-understanding/translations/README.fr.md) |
+| 23 | [Consommateur](../6-consumer) | Réglez un minuteur et donnez un feedback oral | Apprenez à régler une minuterie sur un dispositif IoT et à donner un retour oral sur le moment où la minuterie est réglée et où elle se termine. | [Réglez un minuteur et donnez un feedback oral](../6-consumer/lessons/3-spoken-feedback/translations/README.fr.md) |
+| 24 | [Consommateur](../6-consumer) | Prise en charge de plusieurs langues | Apprenez à prendre en charge plusieurs langues, qu'il s'agisse de la langue parlée ou des réponses de votre minuterie intelligente | [Prise en charge de plusieurs langues](../6-consumer/lessons/4-multiple-language-support/translations/README.fr.md) |
+
+## Accès hors ligne
+
+Il vous est possible de rouler cette documentation en utilisant [Docsify](https://docsify.js.org/#/). Clônez ce projet, [installez Docsify](https://docsify.js.org/#/quickstart) localement sur votre machine puis dans le dossier racine de ce projet, tapez `docsify serve`. Le site web sera alors hébergé localement au port 3000: `localhost:3000`
+
+### PDF
+
+Il vous est aussi possible de générer un fichier PDF à partir de ce contenu pour un accès hors ligne. Afin d'y parvenir, assurez vous d'[avoir npm installé](https://docs.npmjs.com/downloading-and-installing-node-js-and-npm) puis entrez cette commande à partir du dossier racine de ce projet:
+
+```sh
+npm i
+npm run convert
+```
+
+### Acétates
+
+Les acétates de plusieures leçons sont contenues dans le dossier ["slides"](../slides).
+
+## Supportez la traduction!
+
+Vous souhaitez contribuer à la traduction? Nous vous prions de lire le [guide de traduction](TRANSLATIONS.fr.md), faites un "fork" de ce projet sur votre compte github puis ajoutez vos changements [à l'une de nos issues de traduction](https://github.com/microsoft/IoT-For-Beginners/issues?q=is%3Aissue+is%3Aopen+label%3Atranslation). Si vous souhaitez traduire en un nouveau language, vous devez alors lever une nouvelle issue afin de pouvoir la suivre.
+
+## D'autres formations
+
+Notre équipe a aussi produit d'autres cursus de formation! Nous vous invitons à y jeter un oeuil:
+
+- [Web Dev for Beginners](https://aka.ms/webdev-beginners)
+- [ML for Beginners](https://aka.ms/ml-beginners)
+
+## Droits des images
+
+Les [droits](../attributions.md) des images utilisées dans ce projet sont le fichier attributions.md
diff --git a/translations/README.tr.md b/translations/README.tr.md
index ee25bbfd..54bef696 100644
--- a/translations/README.tr.md
+++ b/translations/README.tr.md
@@ -121,7 +121,7 @@ Bir çeviriyle katkıda bulunmak ister miydiniz? Lütfen [çeviri rehberimizi](.
## Diğer Dersler
-Takımımız başka derler de yapıyor:
+Takımımız başka dersler de yapıyor:
- [Yeni başlayanlar için web geliştiriciliği](https://aka.ms/webdev-beginners)
- [Yeni başlayanlar için makine öğrenimi](https://aka.ms/ml-beginners)
diff --git a/translations/README.zh-cn.md b/translations/README.zh-cn.md
index 2935a0ea..246ee905 100644
--- a/translations/README.zh-cn.md
+++ b/translations/README.zh-cn.md
@@ -36,7 +36,7 @@ Microsoft 的 Azure Cloud 大使很高兴提供关于 IoT 基础的一个 12 个
> 🎥 点击以上的图片来看这个项目的宣传片!
-## 教学法
+## 教学方法
创建这个课程时,我们选择了两个教育原理:确保它基于项目以及它常常包括知识测验。完成课程后,学生们应该创建了一个植物监测和浇水系统、车辆追踪器、为了追踪和检查食物的智能工厂设置以及声控烹饪定时器,还有学会了物联网的基本技能,包括怎么为设备写代码、连接到云、分析遥测以及在边缘上运行人工智能。
@@ -50,7 +50,7 @@ Microsoft 的 Azure Cloud 大使很高兴提供关于 IoT 基础的一个 12 个
根据你自己的选择、知道或喜欢的编码语言、学习目标等,我们对于项目的 IoT 硬件有两个选择。我们也提供了一个“虚拟硬件”的版本,为无法拿到硬件或者想在买硬件之前学多一点儿东西的人。你能在[硬件页](../hardware.md)找到更多资料与“购物清单”;它也包括来自我们朋友 Seeed Studio 完整套件的链接。
-> 💁 找一下我们的[行为守则](../CODE_OF_CONDUCT.md)、 [贡献](../CONTRIBUTING.md)和 [翻译](../TRANSLATIONS.md)的指导方针。 我们欢迎你的建设性反馈!
+> 💁 找一下我们的 [行为守则](../CODE_OF_CONDUCT.md)、 [贡献](../CONTRIBUTING.md) 和 [翻译](../TRANSLATIONS.md) 的指导方针。 我们欢迎你的建设性反馈!
## 每个课包括:
@@ -117,10 +117,11 @@ npm run convert
## 其它课程
-我们的组生成了其它课程!查一下:
+我们的团队制作了其它课程!查一下:
- [网站开发(Web Dev for Beginners)](https://aka.ms/webdev-beginners)
- [机器学习(ML for Beginners)](https://aka.ms/ml-beginners)
+- [数据科学(Data Science for Beginners)](https://aka.ms/datascience-beginners)
## 图片属性
diff --git a/translations/SECURITY.fr.md b/translations/SECURITY.fr.md
new file mode 100644
index 00000000..79f3c4a3
--- /dev/null
+++ b/translations/SECURITY.fr.md
@@ -0,0 +1,41 @@
+
+
+## Sécurité
+
+Microsoft prend au sérieux la sécurité de ses produits et services logiciels, ce qui inclut tous les dépôts de code source gérés par nos organisations GitHub, dont [Microsoft](https://github.com/Microsoft), [Azure](https://github.com/Azure), [DotNet](https://github.com/dotnet), [AspNet](https://github.com/aspnet), [Xamarin](https://github.com/xamarin), ainsi que [gestion GitHub](https://opensource.microsoft.com/).
+
+Si vous pensez avoir découvert une faille de sécurité dans un référentiel appartenant à Microsoft et répondant à [la définition de Microsoft d'une faille de sécurité](https://docs.microsoft.com/en-us/previous-versions/tn-archive/cc751383(v=technet.10)), veuillez nous le signaler comme décrit ci-dessous.
+
+## Signaler les problèmes de sécurité
+
+**Veuillez ne pas signaler les vulnérabilités de sécurité par le biais de problèmes publics sur GitHub.**
+
+Veuillez plutôt les signaler au centre de réponse à la sécurité de Microsoft (MSRC) à l'adresse [https://msrc.microsoft.com/create-report](https://msrc.microsoft.com/create-report).
+
+Si vous préférez soumettre votre candidature sans vous connecter, envoyez un courrier électronique à l'adresse suivante : [secure@microsoft.com](mailto:secure@microsoft.com). Si possible, chiffrez votre message à l'aide de notre clé PGP ; téléchargez-la à partir de la page [Microsoft Security Response Center PGP Key](https://www.microsoft.com/en-us/msrc/pgp-key-msrc).
+
+Vous devriez recevoir une réponse dans les 24 heures. Si, pour une raison ou une autre, ce n'est pas le cas, veuillez relancer votre demande par courrier électronique pour vous assurer que nous avons bien reçu votre message initial. Des informations supplémentaires sont disponibles à l'adresse [microsoft.com/msrc](https://www.microsoft.com/msrc).
+
+Veuillez inclure les informations demandées ci-dessous (dans la mesure où vous pouvez les fournir) afin de nous aider à mieux comprendre la nature et la portée du problème éventuel :
+
+ * Type de problème (par exemple, dépassement de tampon, injection SQL, scripting intersite, etc.)
+ * Chemins d'accès complets du ou des fichiers sources liés à la manifestation du problème.
+ * L'emplacement du code source affecté (tag/branche/commit ou URL directe)
+ * Toute configuration spéciale requise pour reproduire le problème
+ * Instructions étape par étape pour reproduire le problème
+ * Preuve de concept ou code d'exploitation (si possible)
+ * Impact du problème, y compris la manière dont un attaquant pourrait l'exploiter.
+
+Ces informations nous aideront à trier votre rapport plus rapidement.
+
+Si vous faites un rapport pour une prime de bogue, des rapports plus complets peuvent contribuer à une prime plus élevée. Veuillez consulter notre [Programme de prime de bogue de Microsoft].(https://microsoft.com/msrc/bounty) page pour plus de détails sur nos programmes actifs.
+
+## Langues préférées
+
+Nous préférons que toutes les communications soient en anglais.
+
+## Politique
+
+Microsoft suit le principe de la [divulgation coordonnée des vulnérabilités](https://www.microsoft.com/en-us/msrc/cvd).
+
+
\ No newline at end of file
diff --git a/translations/SUPPORT.fr.md b/translations/SUPPORT.fr.md
new file mode 100644
index 00000000..3b169f41
--- /dev/null
+++ b/translations/SUPPORT.fr.md
@@ -0,0 +1,11 @@
+# Support
+
+## Comment déposer des problèmes et obtenir de l'aide
+
+Ce projet utilise GitHub Issues pour suivre les bogues et les demandes de fonctionnalités. Veuillez rechercher les problèmes existants avant de déposer de nouveaux problèmes afin d'éviter les doublons. Pour les nouvelles questions, déposez votre bogue ou votre demande de fonctionnalité dans une nouvelle question.
+
+Pour toute aide ou question concernant l'utilisation de ce projet, veuillez nous contacter en créant une "issue" dans ce projet.
+
+## Politique d'assistance de Microsoft
+
+Le soutien à ce **PROJET ou PRODUIT** est limité aux ressources énumérées ci-dessus.
diff --git a/translations/TRANSLATIONS.fr.md b/translations/TRANSLATIONS.fr.md
new file mode 100644
index 00000000..3afe7579
--- /dev/null
+++ b/translations/TRANSLATIONS.fr.md
@@ -0,0 +1,26 @@
+# Contribuez en traduisant des leçons
+
+Les traductions des leçons de ce programme sont les bienvenues !
+
+## Directives
+
+Il y a des dossiers [**translations**](https://github.com/microsoft/IoT-For-Beginners/tree/main/1-getting-started/lessons/1-introduction-to-iot/translations) qui contiennent les fichiers markdown traduits.
+
+Les leçons traduites doivent respecter cette convention d'appellation :
+
+Lorsque vous traduisez le Readme initial, reliez les autres traductions à votre readme traduit et reliez le vôtre au readme principal en anglais en utilisant les boucliers comme indiqué :
+
+```markdown
+[](translations/README.bn.md)
+```
+**README._[language]_.md**
+
+Dans la mesure ou _[language]_ est une abréviation linguistique de deux lettres suivant la norme ISO 639-1 (par exemple `README.es.md` pour l'espagnol et `README.nl.md` pour l'allemand).
+
+## Questionnaires
+
+Ajoutez votre traduction au quiz-app en ajoutant un fichier ici : https://github.com/microsoft/IoT-For-Beginners/tree/main/quiz-app/src/assets/translations. Veuillez ne pas localiser les mots 'true' ou 'false'. Merci !
+
+## MERCI !
+
+Nous apprécions vraiment vos efforts !
diff --git a/translations/clean-up.zh-cn.md b/translations/clean-up.zh-cn.md
new file mode 100644
index 00000000..706d246a
--- /dev/null
+++ b/translations/clean-up.zh-cn.md
@@ -0,0 +1,41 @@
+# 清理你的项目
+
+当你完成每个项目后,请删除你的云端资源。
+
+在每个项目的课程中,也许你创建了下列的某些:
+
+* 一个资源组
+* 一个物联网中心
+* 物联网设备注册
+* 一个存储账户
+* 一个函数应用
+* 一个 Azure 地图账户
+* 一个自定义视觉项目
+* 一个 Azure 容器注册表
+* 一个认知服务资源
+
+这些资源中大部分都不收费 - 完全免费或者是免费层。对于规定了付费层的服务,你的使用额度会在免费范围内,或只花费几分钱。
+
+即使成本相对较低,当你完成项目后也建议删除这些资源。例如,免费层只能有一个物联网中心,所以如果你想额外创建一个,你需要使用付费层。
+
+你的所有服务都是在资源组内创建的,这让管理更加轻松。你可以删除某个资源组,所有资源组内的资源都会跟着删除。
+
+在你的终端或命令提示符中运行以下命令来删除资源组:
+
+```sh
+az group delete --name
+```
+
+替代 `` 为你想删除的资源组名字。
+
+接下来会显示下列的确认信息:
+
+```output
+Are you sure you want to perform this operation? (y/n):
+```
+
+输入 `y` 确认并删除资源组.
+
+删除所有服务会耗费一些时间。
+
+> 💁 你可以在 [Microsoft 文档的 Azure 资源管理器资源组和资源删除](https://docs.microsoft.com/azure/azure-resource-manager/management/delete-resource-group?WT.mc_id=academic-17441-jabenn&tabs=azure-cli) 获取更多删除资源组的相关内容。
\ No newline at end of file
diff --git a/translations/for-teachers.fr.md b/translations/for-teachers.fr.md
new file mode 100644
index 00000000..b6a2e376
--- /dev/null
+++ b/translations/for-teachers.fr.md
@@ -0,0 +1,27 @@
+# Pour les éducateurs
+
+Vous souhaitez utiliser ce programme dans votre classe ? N'hésitez pas à le faire !
+
+En fait, vous pouvez l'utiliser au sein même de GitHub en utilisant GitHub Classroom.
+
+Pour ce faire, créez ce dépôt. Vous allez devoir créer un repo pour chaque leçon, donc vous allez devoir extraire chaque dossier dans un repo séparé. De cette façon, [GitHub Classroom](https://classroom.github.com/classrooms) peut reprendre chaque leçon séparément.
+
+Ces [instructions complètes](https://github.blog/2020-03-18-set-up-your-digital-classroom-with-github-classroom/) vous donneront une idée de la manière dont vous devez organiser votre classe.
+
+## Modèle d'apprentissage recommandé
+
+Vous pouvez en savoir plus sur le modèle d'apprentissage recommandé pour l'enseignement de ce programme dans notre [Guide du modèle d'apprentissage recommandé](recommended-learning-model.md).
+
+## En utilisant le dépôt tel quel
+
+Si vous souhaitez utiliser ce dépôt tel qu'il est actuellement, sans utiliser GitHub Classroom, c'est également possible. Il vous faudra alors indiquer à vos élèves quelle leçon ils souhaitent travailler ensemble.
+
+Dans un format en ligne (Zoom, Teams ou autre), vous pouvez créer des salles de discussion pour les quiz et guider les étudiants pour les aider à se préparer à apprendre. Invitez ensuite les étudiants à répondre aux quiz et à soumettre leurs réponses sous forme de "questions" à un moment donné. Vous pouvez faire de même avec les devoirs, si vous souhaitez que les élèves travaillent en collaboration en plein air.
+
+Si vous préférez un format plus privé, demandez à vos élèves de transférer le programme, leçon par leçon, vers leurs propres dépôts GitHub en tant que dépôts privés, et de vous en donner l'accès. Ils pourront alors remplir les questionnaires et les devoirs en privé et vous les soumettre via des problèmes sur votre dépôt de classe.
+
+Il existe de nombreuses façons de faire fonctionner ce système dans un format de classe en ligne. Faites-nous part de ce qui fonctionne le mieux pour vous !
+
+## Donnez-nous votre avis!
+
+Nous voulons que ce programme d'études fonctionne pour vous et vos élèves. Veuillez nous faire part de [vos commentaires](https://forms.microsoft.com/Pages/ResponsePage.aspx?id=v4j5cvGGr0GRqy180BHbR2humCsRZhxNuI79cm6n0hRUQzRVVU9VVlU5UlFLWTRLWlkyQUxORTg5WS4u).
diff --git a/translations/hardware.fr.md b/translations/hardware.fr.md
new file mode 100644
index 00000000..9e257557
--- /dev/null
+++ b/translations/hardware.fr.md
@@ -0,0 +1,107 @@
+# Matériel
+
+Le **T** dans IoT est **Things** et fait référence aux dispositifs qui interagissent avec le monde qui nous entoure. Chaque projet est basé sur du matériel du monde réel disponible pour les étudiants et les amateurs. Nous proposons deux choix de matériel IoT à utiliser en fonction des préférences personnelles, des connaissances ou des préférences en matière de langage de programmation, des objectifs d'apprentissage et de la disponibilité. Nous avons également prévu une version "matériel virtuel" pour ceux qui n'ont pas accès au matériel ou qui souhaitent en savoir plus avant de s'engager dans un achat.
+
+> 💁 Vous n'avez pas besoin d'acheter de matériel IoT pour réaliser les missions. Vous pouvez tout faire en utilisant du matériel IoT virtuel.
+
+Les choix de matériel physique sont Arduino ou Raspberry Pi. Chaque plateforme a ses propres avantages et inconvénients, qui sont tous abordés dans l'une des premières leçons. Si vous n'avez pas encore choisi de plate-forme matérielle, vous pouvez consulter [la deuxième leçon du premier projet](./1-getting-started/lessons/2-deeper-dive/translations/README.fr.md) to decide which hardware platform you are most interested in learning.
+
+Le matériel spécifique a été choisi pour réduire la complexité des leçons et des devoirs. Bien que d'autres matériels puissent fonctionner, nous ne pouvons pas garantir que toutes les missions seront prises en charge par votre appareil sans matériel supplémentaire. Par exemple, de nombreux appareils Arduino ne disposent pas du WiFi, qui est nécessaire pour se connecter au cloud - le terminal Wio a été choisi parce qu'il dispose du WiFi intégré.
+
+Vous aurez également besoin de quelques articles non techniques, comme de la terre ou une plante en pot, et des fruits ou des légumes.
+
+## Acheter les kits
+
+
+
+Seeed Studios a très aimablement mis à disposition tout le matériel sous forme de kits faciles à acheter :
+
+### Arduino - Terminal Wio
+
+**[IoT pour les débutants avec Seeed et Microsoft - Wio Terminal Starter Kit](https://www.seeedstudio.com/IoT-for-beginners-with-Seeed-and-Microsoft-Wio-Terminal-Starter-Kit-p-5006.html)**
+
+[](https://www.seeedstudio.com/IoT-for-beginners-with-Seeed-and-Microsoft-Wio-Terminal-Starter-Kit-p-5006.html)
+
+### Raspberry Pi
+
+**[IoT pour les débutants avec Seeed et Microsoft - Kit de démarrage Raspberry Pi 4](https://www.seeedstudio.com/IoT-for-beginners-with-Seeed-and-Microsoft-Raspberry-Pi-Starter-Kit.html)**
+
+[](https://www.seeedstudio.com/IoT-for-beginners-with-Seeed-and-Microsoft-Raspberry-Pi-Starter-Kit.html)
+
+## Arduino
+
+Tout le code du dispositif pour Arduino est en C++. Pour réaliser tous les travaux, vous aurez besoin des éléments suivants :
+
+### Carte Arduino
+
+* [Terminal Wio](https://www.seeedstudio.com/Wio-Terminal-p-4509.html)
+* *Optionnel* - Câble USB-C ou adaptateur USB-A vers USB-C. Le terminal Wio possède un port USB-C et est livré avec un câble USB-C vers USB-A. Si votre PC ou Mac ne possède que des ports USB-C, vous aurez besoin d'un câble USB-C ou d'un adaptateur USB-A vers USB-C.
+
+### Capteurs et actionneurs spécifiques à Arduino
+
+Ils sont spécifiques à l'utilisation du terminal Wio Arduino, et ne sont pas pertinentes pour l'utilisation du Raspberry Pi.
+
+* [ArduCam Mini 2MP Plus - OV2640](https://www.arducam.com/product/arducam-2mp-spi-camera-b0067-arduino/)
+* [ReSpeaker 2-Mics Pi HAT](https://www.seeedstudio.com/ReSpeaker-2-Mics-Pi-HAT.html)
+* [Breadboard Jumper Wires](https://www.seeedstudio.com/Breadboard-Jumper-Wire-Pack-241mm-200mm-160mm-117m-p-234.html)
+* Un casque ou un autre haut-parleur avec une prise de 3,5 mm, ou un haut-parleur JST tel que :
+ * [Mono Enclosed Speaker - 2W 6 Ohm](https://www.seeedstudio.com/Mono-Enclosed-Speaker-2W-6-Ohm-p-2832.html)
+* Carte microSD de 16 Go ou moins, ainsi qu'un connecteur pour utiliser la carte SD avec votre ordinateur si vous n'en avez pas un intégré. **REMARQUE** - le terminal Wio ne prend en charge que les cartes SD jusqu'à 16 Go, il ne prend pas en charge les capacités supérieures.
+
+## Raspberry Pi
+
+Tout le code du dispositif pour Raspberry Pi est en Python. Pour réaliser tous les travaux, vous aurez besoin des éléments suivants :
+
+### Carte Raspberry Pi
+
+* [Raspberry Pi](https://www.raspberrypi.org/products/raspberry-pi-4-model-b/)
+ > 💁 Les versions du Pi 2B et plus devraient fonctionner avec les devoirs de ces leçons.
+* Carte microSD (vous pouvez obtenir des kits Raspberry Pi fournis avec une carte microSD), ainsi qu'un connecteur pour utiliser la carte SD avec votre ordinateur si vous n'en avez pas un intégré.
+* Alimentation électrique USB (vous pouvez obtenir des kits Raspberry Pi 4 fournis avec une alimentation électrique). Si vous utilisez un Raspberry Pi 4, vous avez besoin d'une alimentation USB-C. Les appareils plus anciens ont besoin d'une alimentation micro-USB.
+
+### Capteurs et actionneurs spécifiques à Raspberry Pi
+
+Ils sont spécifiques à l'utilisation du Raspberry Pi et ne sont pas pertinentes pour l'utilisation du dispositif Arduino.
+
+* [Grove Pi base hat](https://www.seeedstudio.com/Grove-Base-Hat-for-Raspberry-Pi.html)
+* [Raspberry Pi Camera module](https://www.raspberrypi.org/products/camera-module-v2/)
+* Microphone et speaker:
+
+ Utilisez l'une des options suivantes (ou un équivalent) :
+ * Tout microphone USB avec tout haut-parleur USB, ou haut-parleur avec un câble jack 3,5 mm, ou en utilisant la sortie audio HDMI si votre Raspberry Pi est connecté à un moniteur ou un téléviseur avec des haut-parleurs.
+ * Tout casque d'écoute USB avec un microphone intégré
+ * [ReSpeaker 2-Mics Pi HAT](https://www.seeedstudio.com/ReSpeaker-2-Mics-Pi-HAT.html) with
+ * Un casque ou un autre haut-parleur avec une prise de 3,5 mm, ou un haut-parleur JST tel que :
+ * [Mono Enclosed Speaker - 2W 6 Ohm](https://www.seeedstudio.com/Mono-Enclosed-Speaker-2W-6-Ohm-p-2832.html)
+ * [USB Speakerphone](https://www.amazon.com/USB-Speakerphone-Conference-Business-Microphones/dp/B07Q3D7F8S/ref=sr_1_1?dchild=1&keywords=m0&qid=1614647389&sr=8-1)
+* [Senseur Grove Light](https://www.seeedstudio.com/Grove-Light-Sensor-v1-2-LS06-S-phototransistor.html)
+* [Boutton Grove](https://www.seeedstudio.com/Grove-Button.html)
+
+## Capteurs et actionneurs
+
+Most of the sensors and actuators needed are used by both the Arduino and Raspberry Pi learning paths:
+
+* [Grove LED](https://www.seeedstudio.com/Grove-LED-Pack-p-4364.html) x 2
+* [Grove humidity and temperature sensor](https://www.seeedstudio.com/Grove-Temperature-Humidity-Sensor-DHT11.html)
+* [Grove capacitive soil moisture sensor](https://www.seeedstudio.com/Grove-Capacitive-Moisture-Sensor-Corrosion-Resistant.html)
+* [Grove relay](https://www.seeedstudio.com/Grove-Relay.html)
+* [Grove GPS (Air530)](https://www.seeedstudio.com/Grove-GPS-Air530-p-4584.html)
+* [Grove Time of flight Distance Sensor](https://www.seeedstudio.com/Grove-Time-of-Flight-Distance-Sensor-VL53L0X.html)
+
+## Matériel Optionel
+
+Les leçons sur l'arrosage automatique fonctionnent à l'aide d'un relais. En option, vous pouvez connecter ce relais à une pompe à eau alimentée par USB en utilisant le matériel indiqué ci-dessous.
+
+* [Pompe à eau 6V](https://www.seeedstudio.com/6V-Mini-Water-Pump-p-1945.html)
+* [Terminal USB](https://www.adafruit.com/product/3628)
+* Tubes en silicone
+* Fils rouge et noir
+* Petit tournevis à tête plate
+
+## Matériel virtuel
+
+La route du matériel virtuel fournira des simulateurs pour les capteurs et les actionneurs, implémentés en Python. En fonction de la disponibilité de votre matériel, vous pouvez l'exécuter sur votre périphérique de développement habituel, tel qu'un Mac ou un PC, ou l'exécuter sur un Raspberry Pi et simuler uniquement le matériel dont vous ne disposez pas. Par exemple, si vous avez la caméra Raspberry Pi mais pas les capteurs Grove, vous pourrez exécuter le code du dispositif virtuel sur votre Pi et simuler les capteurs Grove, mais utiliser une caméra physique.
+
+Le matériel virtuel utilisera le [projet CounterFit](https://github.com/CounterFit-IoT/CounterFit).
+
+Pour suivre ces leçons, vous devez disposer d'une webcam, d'un microphone et d'une sortie audio (haut-parleurs ou casque). Ces éléments peuvent être intégrés ou externes, et doivent être configurés pour fonctionner avec votre système d'exploitation et être disponibles pour toutes les applications.