You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
IoT-For-Beginners/translations/ja/6-consumer/lessons/3-spoken-feedback/wio-terminal-text-to-speech.md

27 KiB

テキスト読み上げ - Wio Terminal

このレッスンでは、テキストを音声に変換して音声フィードバックを提供します。

テキスト読み上げ

前回のレッスンで使用した音声サービスSDKは、音声をテキストに変換するだけでなく、テキストを音声に戻すこともできます。

音声のリストを取得する

音声をリクエストする際には、使用する音声を指定する必要があります。さまざまな音声を使用して音声を生成できるためです。各言語には複数の音声がサポートされており、音声サービスSDKから各言語でサポートされている音声のリストを取得できます。ただし、マイクロコントローラーの制約がここで問題になります。テキスト読み上げサービスでサポートされている音声のリストを取得するための呼び出しは、77KB以上のJSONドキュメントであり、Wio Terminalでは処理するには大きすぎます。執筆時点では、リスト全体には215の音声が含まれており、それぞれ以下のようなJSONドキュメントで定義されています。

{
    "Name": "Microsoft Server Speech Text to Speech Voice (en-US, AriaNeural)",
    "DisplayName": "Aria",
    "LocalName": "Aria",
    "ShortName": "en-US-AriaNeural",
    "Gender": "Female",
    "Locale": "en-US",
    "StyleList": [
        "chat",
        "customerservice",
        "narration-professional",
        "newscast-casual",
        "newscast-formal",
        "cheerful",
        "empathetic"
    ],
    "SampleRateHertz": "24000",
    "VoiceType": "Neural",
    "Status": "GA"
}

このJSONはAria音声用で、複数の音声スタイルがあります。テキストを音声に変換する際に必要なのは、en-US-AriaNeuralのようなshortnameだけです。

マイクロコントローラーでこのリスト全体をダウンロードしてデコードする代わりに、使用する言語の音声リストを取得するためのサーバーレスコードを作成し、Wio Terminalからこれを呼び出す必要があります。その後、コードでリストから適切な音声を選択できます例えば、最初に見つかったものを選ぶなど

タスク - 音声リストを取得するサーバーレス関数を作成する

  1. VS Codeでsmart-timer-triggerプロジェクトを開き、仮想環境が有効になっていることを確認してターミナルを開きます。有効でない場合は、ターミナルを終了して再作成してください。

  2. local.settings.jsonファイルを開き、音声APIキーとロケーションの設定を追加します

    "SPEECH_KEY": "<key>",
    "SPEECH_LOCATION": "<location>"
    

    <key>を音声サービスリソースのAPIキーに置き換えます。<location>を音声サービスリソースを作成した際に使用したロケーションに置き換えます。

  3. このアプリにget-voicesという新しいHTTPトリガーを追加します。VS Codeターミナルで関数アプリプロジェクトのルートフォルダー内から以下のコマンドを使用します

    func new --name get-voices --template "HTTP trigger"
    

    これにより、get-voicesというHTTPトリガーが作成されます。

  4. get-voicesフォルダー内の__init__.pyファイルの内容を以下のコードに置き換えます:

    import json
    import os
    import requests
    
    import azure.functions as func
    
    def main(req: func.HttpRequest) -> func.HttpResponse:
        location = os.environ['SPEECH_LOCATION']
        speech_key = os.environ['SPEECH_KEY']
    
        req_body = req.get_json()
        language = req_body['language']
    
        url = f'https://{location}.tts.speech.microsoft.com/cognitiveservices/voices/list'
    
        headers = {
            'Ocp-Apim-Subscription-Key': speech_key
        }
    
        response = requests.get(url, headers=headers)
        voices_json = json.loads(response.text)
    
        voices = filter(lambda x: x['Locale'].lower() == language.lower(), voices_json)
        voices = map(lambda x: x['ShortName'], voices)
    
        return func.HttpResponse(json.dumps(list(voices)), status_code=200)
    

    このコードは、音声リストを取得するためのエンドポイントにHTTPリクエストを送信します。この音声リストは、すべての言語の音声を含む大きなJSONブロックであるため、リクエストボディで渡された言語の音声だけをフィルタリングし、shortnameを抽出してJSONリストとして返します。shortnameはテキストを音声に変換するために必要な値なので、この値だけが返されます。

    💁 必要に応じてフィルタを変更して、必要な音声だけを選択できます。

    これにより、データサイズは執筆時点で77KBから、はるかに小さいJSONドキュメントに削減されます。例えば、US音声の場合は408バイトです。

  5. 関数アプリをローカルで実行します。その後、curlのようなツールを使用して、text-to-timer HTTPトリガーをテストしたのと同じ方法でこれを呼び出すことができます。リクエストボディとしてJSON形式で言語を渡すことを忘れないでください

    {
        "language":"<language>"
    }
    

    <language>en-GBzh-CNなどの言語に置き換えます。

💁 このコードはcode-spoken-response/functionsフォルダーにあります。

タスク - Wio Terminalから音声を取得する

  1. smart-timerプロジェクトをVS Codeで開きますまだ開いていない場合

  2. config.hヘッダーファイルを開き、関数アプリのURLを追加します

    const char *GET_VOICES_FUNCTION_URL = "<URL>";
    

    <URL>を関数アプリのget-voices HTTPトリガーのURLに置き換えます。このURLはTEXT_TO_TIMER_FUNCTION_URLの値と同じですが、関数名がtext-to-timerではなくget-voicesになります。

  3. srcフォルダーにtext_to_speech.hという新しいファイルを作成します。このファイルは、テキストを音声に変換するクラスを定義するために使用されます。

  4. 新しいtext_to_speech.hファイルの先頭に以下のインクルードディレクティブを追加します:

    #pragma once
    
    #include <Arduino.h>
    #include <ArduinoJson.h>
    #include <HTTPClient.h>
    #include <Seeed_FS.h>
    #include <SD/Seeed_SD.h>
    #include <WiFiClient.h>
    #include <WiFiClientSecure.h>
    
    #include "config.h"
    #include "speech_to_text.h"
    
  5. 以下のコードを追加して、TextToSpeechクラスを宣言し、アプリケーションの他の部分で使用できるインスタンスを作成します:

    class TextToSpeech
    {
    public:
    private:
    };
    
    TextToSpeech textToSpeech;
    
  6. 関数アプリを呼び出すためにWiFiクライアントを宣言します。クラスのprivateセクションに以下を追加します:

    WiFiClient _client;
    
  7. privateセクションに、選択された音声のフィールドを追加します:

    String _voice;
    
  8. publicセクションに、最初の音声を取得するinit関数を追加します:

    void init()
    {
    }
    
  9. 音声を取得するために、リクエストボディとして言語を含むJSONドキュメントを作成します。init関数に以下のコードを追加します:

    DynamicJsonDocument doc(1024);
    doc["language"] = LANGUAGE;
    
    String body;
    serializeJson(doc, body);
    
  10. 次に、HTTPClientを作成し、これを使用して関数アプリを呼び出し、JSONドキュメントをポストします

    HTTPClient httpClient;
    httpClient.begin(_client, GET_VOICES_FUNCTION_URL);
    
    int httpResponseCode = httpClient.POST(body);
    
  11. この下に、レスポンスコードを確認し、200成功であれば音声リストを抽出し、リストから最初の音声を取得するコードを追加します

    if (httpResponseCode == 200)
    {
        String result = httpClient.getString();
        Serial.println(result);
    
        DynamicJsonDocument doc(1024);
        deserializeJson(doc, result.c_str());
    
        JsonArray obj = doc.as<JsonArray>();
        _voice = obj[0].as<String>();
    
        Serial.print("Using voice ");
        Serial.println(_voice);
    }
    else
    {
        Serial.print("Failed to get voices - error ");
        Serial.println(httpResponseCode);
    }
    
  12. この後、HTTPクライアント接続を終了します

    httpClient.end();
    
  13. main.cppファイルを開き、この新しいヘッダーファイルをインクルードするためのディレクティブを追加します:

    #include "text_to_speech.h"
    
  14. setup関数内で、speechToText.init();の呼び出しの下に以下を追加して、TextToSpeechクラスを初期化します:

    textToSpeech.init();
    
  15. このコードをビルドし、Wio Terminalにアップロードして、シリアルモニターを通じてテストします。関数アプリが実行中であることを確認してください。

    関数アプリから返された利用可能な音声のリストと、選択された音声が表示されます。

    --- Available filters and text transformations: colorize, debug, default, direct, hexlify, log2file, nocontrol, printable, send_on_enter, time
    --- More details at http://bit.ly/pio-monitor-filters
    --- Miniterm on /dev/cu.usbmodem1101  9600,8,N,1 ---
    --- Quit: Ctrl+C | Menu: Ctrl+T | Help: Ctrl+T followed by Ctrl+H ---
    Connecting to WiFi..
    Connected!
    Got access token.
    ["en-US-JennyNeural", "en-US-JennyMultilingualNeural", "en-US-GuyNeural", "en-US-AriaNeural", "en-US-AmberNeural", "en-US-AnaNeural", "en-US-AshleyNeural", "en-US-BrandonNeural", "en-US-ChristopherNeural", "en-US-CoraNeural", "en-US-ElizabethNeural", "en-US-EricNeural", "en-US-JacobNeural", "en-US-MichelleNeural", "en-US-MonicaNeural", "en-US-AriaRUS", "en-US-BenjaminRUS", "en-US-GuyRUS", "en-US-ZiraRUS"]
    Using voice en-US-JennyNeural
    Ready.
    

テキストを音声に変換する

使用する音声が決まったら、それを使用してテキストを音声に変換できます。音声をテキストに変換する場合と同様に、音声を変換する際にもメモリの制約があります。そのため、音声をSDカードに書き込み、ReSpeakerを介して再生する準備をする必要があります。

💁 このプロジェクトの以前のレッスンでは、マイクからキャプチャした音声をフラッシュメモリに保存しました。このレッスンでは、Seeedオーディオライブラリを使用してSDカードから音声を再生する方が簡単であるため、SDカードを使用します。

また、考慮すべきもう1つの制約として、音声サービスから提供されるオーディオデータと、Wio Terminalがサポートするフォーマットがあります。通常のコンピューターとは異なり、マイクロコントローラー用のオーディオライブラリはサポートするオーディオフォーマットが非常に限られています。例えば、ReSpeakerを介して音声を再生できるSeeed Arduino Audioライブラリは、44.1KHzのサンプルレートの音声しかサポートしていません。Azure音声サービスは複数のフォーマットで音声を提供できますが、44.1KHzのサンプルレートを使用するものはありません。提供されるのは8KHz、16KHz、24KHz、48KHzのみです。このため、音声を44.1KHzに再サンプリングする必要がありますが、これはWio Terminalのリソース、特にメモリでは対応できません。

このようなデータ操作が必要な場合、特にデータがWeb呼び出しを介して取得される場合は、サーバーレスコードを使用する方が適しています。Wio Terminalはサーバーレス関数を呼び出し、変換するテキストを渡し、サーバーレス関数がテキストを音声に変換するだけでなく、必要なサンプルレートに再サンプリングすることができます。その後、Wio TerminalがSDカードに保存し、ReSpeakerを介して再生するために必要な形式で音声を返すことができます。

タスク - テキストを音声に変換するサーバーレス関数を作成する

  1. VS Codeでsmart-timer-triggerプロジェクトを開き、仮想環境が有効になっていることを確認してターミナルを開きます。有効でない場合は、ターミナルを終了して再作成してください。

  2. このアプリにtext-to-speechという新しいHTTPトリガーを追加します。VS Codeターミナルで関数アプリプロジェクトのルートフォルダー内から以下のコマンドを使用します

    func new --name text-to-speech --template "HTTP trigger"
    

    これにより、text-to-speechというHTTPトリガーが作成されます。

  3. librosa Pipパッケージには音声を再サンプリングする関数が含まれているため、これをrequirements.txtファイルに追加します:

    librosa
    

    追加後、VS Codeターミナルで以下のコマンドを使用してPipパッケージをインストールします

    pip install -r requirements.txt
    

    ⚠️ LinuxRaspberry Pi OSを含むを使用している場合、以下のコマンドでlibsndfileをインストールする必要がある場合があります:

    sudo apt update
    sudo apt install libsndfile1-dev
    
  4. テキストを音声に変換するには、音声APIキーを直接使用するのではなく、アクセスキーをリクエストする必要があります。このリクエストにはAPIキーを使用して認証します。text-to-speechフォルダー内の__init__.pyファイルを開き、すべてのコードを以下のコードに置き換えます:

    import io
    import os
    import requests
    
    import librosa
    import soundfile as sf
    import azure.functions as func
    
    location = os.environ['SPEECH_LOCATION']
    speech_key = os.environ['SPEECH_KEY']
    
    def get_access_token():
        headers = {
            'Ocp-Apim-Subscription-Key': speech_key
        }
    
        token_endpoint = f'https://{location}.api.cognitive.microsoft.com/sts/v1.0/issuetoken'
        response = requests.post(token_endpoint, headers=headers)
        return str(response.text)
    

    これにより、設定から読み取られるロケーションと音声キーの定数が定義されます。その後、音声サービスのアクセスキーを取得するget_access_token関数が定義されます。

  5. このコードの下に以下を追加します:

    playback_format = 'riff-48khz-16bit-mono-pcm'
    
    def main(req: func.HttpRequest) -> func.HttpResponse:
        req_body = req.get_json()
        language = req_body['language']
        voice = req_body['voice']
        text = req_body['text']
    
        url = f'https://{location}.tts.speech.microsoft.com/cognitiveservices/v1'
    
        headers = {
            'Authorization': 'Bearer ' + get_access_token(),
            'Content-Type': 'application/ssml+xml',
            'X-Microsoft-OutputFormat': playback_format
        }
    
        ssml =  f'<speak version=\'1.0\' xml:lang=\'{language}\'>'
        ssml += f'<voice xml:lang=\'{language}\' name=\'{voice}\'>'
        ssml += text
        ssml += '</voice>'
        ssml += '</speak>'
    
        response = requests.post(url, headers=headers, data=ssml.encode('utf-8'))
    
        raw_audio, sample_rate = librosa.load(io.BytesIO(response.content), sr=48000)
        resampled = librosa.resample(raw_audio, sample_rate, 44100)
    
        output_buffer = io.BytesIO()
        sf.write(output_buffer, resampled, 44100, 'PCM_16', format='wav')
        output_buffer.seek(0)
    
        return func.HttpResponse(output_buffer.read(), status_code=200)
    

    これにより、テキストを音声に変換するHTTPトリガーが定義されます。リクエストで送信されたJSONボディから変換するテキスト、言語、音声を抽出し、音声をリクエストするためのSSMLを構築して、アクセスキーを使用してREST APIを呼び出します。このREST API呼び出しは、16ビット、48KHzモラルWAVファイルとしてエンコードされた音声を返します。この形式はplayback_formatの値で定義され、REST API呼び出しに送信されます。

    その後、librosaによって48KHzのサンプルレートから44.1KHzに再サンプリングされ、この音声がバイナリバッファに保存されて返されます。

  6. 関数アプリをローカルで実行するか、クラウドにデプロイします。その後、curlのようなツールを使用して、text-to-timer HTTPトリガーをテストしたのと同じ方法でこれを呼び出すことができます。JSONボディとして言語、音声、テキストを渡すことを忘れないでください

    {
        "language": "<language>",
        "voice": "<voice>",
        "text": "<text>"
    }
    

    <language>en-GBzh-CNなどの言語に置き換えます。<voice>を使用したい音声に置き換えます。<text>を音声に変換したいテキストに置き換えます。出力をファイルに保存し、WAVファイルを再生できる任意のオーディオプレーヤーで再生できます。

    例えば、"Hello"をUS英語のJenny Neural音声で音声に変換する場合、関数アプリがローカルで実行されているときに以下のcurlコマンドを使用します

    curl -X GET 'http://localhost:7071/api/text-to-speech' \
         -H 'Content-Type: application/json' \
         -o hello.wav \
         -d '{
           "language":"en-US",
           "voice": "en-US-JennyNeural",
           "text": "Hello"
         }'
    

    これにより、現在のディレクトリにhello.wavという名前で音声が保存されます。

💁 このコードはcode-spoken-response/functionsフォルダーにあります。

タスク - Wio Terminalから音声を取得する

  1. smart-timerプロジェクトをVS Codeで開きますまだ開いていない場合

  2. config.hヘッダーファイルを開き、関数アプリのURLを追加します

    const char *TEXT_TO_SPEECH_FUNCTION_URL = "<URL>";
    

    <URL>を関数アプリのtext-to-speech HTTPトリガーのURLに置き換えます。このURLはTEXT_TO_TIMER_FUNCTION_URLの値と同じですが、関数名がtext-to-timerではなくtext-to-speechになります。

  3. text_to_speech.hヘッダーファイルを開き、TextToSpeechクラスのpublicセクションに以下のメソッドを追加します:

    void convertTextToSpeech(String text)
    {
    }
    
  4. convertTextToSpeechメソッドに、関数アプリに送信するJSONを作成する以下のコードを追加します

    DynamicJsonDocument doc(1024);
    doc["language"] = LANGUAGE;
    doc["voice"] = _voice;
    doc["text"] = text;
    
    String body;
    serializeJson(doc, body);
    

    これにより、言語、音声、テキストがJSONドキュメントに書き込まれ、文字列としてシリアライズされます。

  5. この下に、関数アプリを呼び出す以下のコードを追加します:

    HTTPClient httpClient;
    httpClient.begin(_client, TEXT_TO_SPEECH_FUNCTION_URL);
    
    int httpResponseCode = httpClient.POST(body);
    

    これにより、HTTPClientが作成され、JSONドキュメントを使用してテキスト読み上げHTTPトリガーにPOSTリクエストが行われます。

  6. 呼び出しが成功した場合、関数アプリ呼び出しから返された生のバイナリデータをSDカード上のファイルにストリームできます。これを行う以下のコードを追加します

    if (httpResponseCode == 200)
    {            
        File wav_file = SD.open("SPEECH.WAV", FILE_WRITE);
        httpClient.writeToStream(&wav_file);
        wav_file.close();
    }
    else
    {
        Serial.print("Failed to get speech - error ");
        Serial.println(httpResponseCode);
    }
    

    このコードはレスポンスを確認し、200成功であれば、バイナリデータをSDカードのルートにあるSPEECH.WAVという名前のファイルにストリームします。

  7. このメソッドの最後に、HTTP接続を閉じます

    httpClient.end();
    
  8. 話すべきテキストを音声に変換できるようになりました。main.cppファイルのsay関数の最後に以下の行を追加して、話すテキストを音声に変換します:

    textToSpeech.convertTextToSpeech(text);
    ```

### タスク - Wio Terminalでオーディオを再生する

**近日公開**

## 関数アプリをクラウドにデプロイする

関数アプリをローカルで実行する理由は、Linux上の`librosa` Pipパッケージがデフォルトでインストールされていないライブラリに依存しているためです。このライブラリをインストールしないと関数アプリは実行できません。関数アプリはサーバーレスであり、自分で管理できるサーバーが存在しないため、事前にこのライブラリをインストールする方法はありません。

これを解決する方法は、Dockerコンテナを使用して関数アプリをデプロイすることです。このコンテナは、クラウドが関数アプリの新しいインスタンスを起動する必要がある場合(例えば、需要が利用可能なリソースを超えた場合や、関数アプリがしばらく使用されておらずシャットダウンされた場合)にデプロイされます。

Linux上でカスタムコンテナを使用して関数を作成し、Dockerを介してデプロイする手順については、[Microsoft Docsのドキュメント](https://docs.microsoft.com/azure/azure-functions/functions-create-function-linux-custom-image?WT.mc_id=academic-17441-jabenn&tabs=bash%2Cazurecli&pivots=programming-language-python)をご覧ください。

デプロイが完了したら、Wio Terminalのコードを移植してこの関数にアクセスできるようにします:

1. Azure Functionsの証明書を`config.h`に追加します:

    ```cpp
    const char *FUNCTIONS_CERTIFICATE =
        "-----BEGIN CERTIFICATE-----\r\n"
        "MIIFWjCCBEKgAwIBAgIQDxSWXyAgaZlP1ceseIlB4jANBgkqhkiG9w0BAQsFADBa\r\n"
        "MQswCQYDVQQGEwJJRTESMBAGA1UEChMJQmFsdGltb3JlMRMwEQYDVQQLEwpDeWJl\r\n"
        "clRydXN0MSIwIAYDVQQDExlCYWx0aW1vcmUgQ3liZXJUcnVzdCBSb290MB4XDTIw\r\n"
        "MDcyMTIzMDAwMFoXDTI0MTAwODA3MDAwMFowTzELMAkGA1UEBhMCVVMxHjAcBgNV\r\n"
        "BAoTFU1pY3Jvc29mdCBDb3Jwb3JhdGlvbjEgMB4GA1UEAxMXTWljcm9zb2Z0IFJT\r\n"
        "QSBUTFMgQ0EgMDEwggIiMA0GCSqGSIb3DQEBAQUAA4ICDwAwggIKAoICAQCqYnfP\r\n"
        "mmOyBoTzkDb0mfMUUavqlQo7Rgb9EUEf/lsGWMk4bgj8T0RIzTqk970eouKVuL5R\r\n"
        "IMW/snBjXXgMQ8ApzWRJCZbar879BV8rKpHoAW4uGJssnNABf2n17j9TiFy6BWy+\r\n"
        "IhVnFILyLNK+W2M3zK9gheiWa2uACKhuvgCca5Vw/OQYErEdG7LBEzFnMzTmJcli\r\n"
        "W1iCdXby/vI/OxbfqkKD4zJtm45DJvC9Dh+hpzqvLMiK5uo/+aXSJY+SqhoIEpz+\r\n"
        "rErHw+uAlKuHFtEjSeeku8eR3+Z5ND9BSqc6JtLqb0bjOHPm5dSRrgt4nnil75bj\r\n"
        "c9j3lWXpBb9PXP9Sp/nPCK+nTQmZwHGjUnqlO9ebAVQD47ZisFonnDAmjrZNVqEX\r\n"
        "F3p7laEHrFMxttYuD81BdOzxAbL9Rb/8MeFGQjE2Qx65qgVfhH+RsYuuD9dUw/3w\r\n"
        "ZAhq05yO6nk07AM9c+AbNtRoEcdZcLCHfMDcbkXKNs5DJncCqXAN6LhXVERCw/us\r\n"
        "G2MmCMLSIx9/kwt8bwhUmitOXc6fpT7SmFvRAtvxg84wUkg4Y/Gx++0j0z6StSeN\r\n"
        "0EJz150jaHG6WV4HUqaWTb98Tm90IgXAU4AW2GBOlzFPiU5IY9jt+eXC2Q6yC/Zp\r\n"
        "TL1LAcnL3Qa/OgLrHN0wiw1KFGD51WRPQ0Sh7QIDAQABo4IBJTCCASEwHQYDVR0O\r\n"
        "BBYEFLV2DDARzseSQk1Mx1wsyKkM6AtkMB8GA1UdIwQYMBaAFOWdWTCCR1jMrPoI\r\n"
        "VDaGezq1BE3wMA4GA1UdDwEB/wQEAwIBhjAdBgNVHSUEFjAUBggrBgEFBQcDAQYI\r\n"
        "KwYBBQUHAwIwEgYDVR0TAQH/BAgwBgEB/wIBADA0BggrBgEFBQcBAQQoMCYwJAYI\r\n"
        "KwYBBQUHMAGGGGh0dHA6Ly9vY3NwLmRpZ2ljZXJ0LmNvbTA6BgNVHR8EMzAxMC+g\r\n"
        "LaArhilodHRwOi8vY3JsMy5kaWdpY2VydC5jb20vT21uaXJvb3QyMDI1LmNybDAq\r\n"
        "BgNVHSAEIzAhMAgGBmeBDAECATAIBgZngQwBAgIwCwYJKwYBBAGCNyoBMA0GCSqG\r\n"
        "SIb3DQEBCwUAA4IBAQCfK76SZ1vae4qt6P+dTQUO7bYNFUHR5hXcA2D59CJWnEj5\r\n"
        "na7aKzyowKvQupW4yMH9fGNxtsh6iJswRqOOfZYC4/giBO/gNsBvwr8uDW7t1nYo\r\n"
        "DYGHPpvnpxCM2mYfQFHq576/TmeYu1RZY29C4w8xYBlkAA8mDJfRhMCmehk7cN5F\r\n"
        "JtyWRj2cZj/hOoI45TYDBChXpOlLZKIYiG1giY16vhCRi6zmPzEwv+tk156N6cGS\r\n"
        "Vm44jTQ/rs1sa0JSYjzUaYngoFdZC4OfxnIkQvUIA4TOFmPzNPEFdjcZsgbeEz4T\r\n"
        "cGHTBPK4R28F44qIMCtHRV55VMX53ev6P3hRddJb\r\n"
        "-----END CERTIFICATE-----\r\n";
    ```

1. `<WiFiClient.h>`のすべてのインクルードを`<WiFiClientSecure.h>`に変更します。

1. すべての`WiFiClient`フィールドを`WiFiClientSecure`に変更します。

1. `WiFiClientSecure`フィールドを持つすべてのクラスにコンストラクタを追加し、そのコンストラクタ内で証明書を設定します:

    ```cpp
    _client.setCACert(FUNCTIONS_CERTIFICATE);
    ```

**免責事項**:  
この文書は、AI翻訳サービス [Co-op Translator](https://github.com/Azure/co-op-translator) を使用して翻訳されています。正確性を追求しておりますが、自動翻訳には誤りや不正確さが含まれる可能性があります。元の言語で記載された原文が正式な情報源と見なされるべきです。重要な情報については、専門の人間による翻訳を推奨します。この翻訳の使用に起因する誤解や誤訳について、当社は一切の責任を負いません。