8.7 KiB
टेक्स्ट टू स्पीच - व्हर्च्युअल IoT डिव्हाइस
या धड्याच्या या भागात, तुम्ही स्पीच सर्व्हिसचा वापर करून टेक्स्टला स्पीचमध्ये रूपांतरित करण्यासाठी कोड लिहाल.
टेक्स्टला स्पीचमध्ये रूपांतरित करा
तुम्ही मागील धड्यात टेक्स्टमध्ये स्पीच रूपांतरित करण्यासाठी वापरलेले स्पीच सर्व्हिसेस SDK, टेक्स्टला पुन्हा स्पीचमध्ये रूपांतरित करण्यासाठीही वापरले जाऊ शकते. स्पीचची विनंती करताना, तुम्हाला वापरण्यासाठी आवाज प्रदान करावा लागतो, कारण विविध प्रकारच्या आवाजांचा वापर करून स्पीच तयार केले जाऊ शकते.
प्रत्येक भाषेसाठी विविध आवाज उपलब्ध असतात, आणि तुम्ही स्पीच सर्व्हिसेस SDK मधून प्रत्येक भाषेसाठी समर्थित आवाजांची यादी मिळवू शकता.
कार्य - टेक्स्टला स्पीचमध्ये रूपांतरित करा
-
VS Code मध्ये
smart-timer
प्रकल्प उघडा आणि टर्मिनलमध्ये व्हर्च्युअल एन्व्हायर्नमेंट लोड केले आहे याची खात्री करा. -
azure.cognitiveservices.speech
पॅकेजमधूनSpeechSynthesizer
आयात करा आणि ते विद्यमान आयातांमध्ये जोडा:from azure.cognitiveservices.speech import SpeechConfig, SpeechRecognizer, SpeechSynthesizer
-
say
फंक्शनच्या वर, स्पीच सिंथेसायझरसाठी वापरण्यासाठी एक स्पीच कॉन्फिगरेशन तयार करा:speech_config = SpeechConfig(subscription=speech_api_key, region=location) speech_config.speech_synthesis_language = language speech_synthesizer = SpeechSynthesizer(speech_config=speech_config)
हे त्याच API की, लोकेशन आणि भाषेचा वापर करते जे recognizer ने वापरले होते.
-
याखाली, आवाज मिळवण्यासाठी आणि तो स्पीच कॉन्फिगरेशनवर सेट करण्यासाठी खालील कोड जोडा:
voices = speech_synthesizer.get_voices_async().get().voices first_voice = next(x for x in voices if x.locale.lower() == language.lower()) speech_config.speech_synthesis_voice_name = first_voice.short_name
हे सर्व उपलब्ध आवाजांची यादी मिळवते, नंतर वापरल्या जाणाऱ्या भाषेशी जुळणारा पहिला आवाज शोधते.
💁 तुम्ही Microsoft Docs वरील भाषा आणि आवाज समर्थन दस्तऐवज मधून समर्थित आवाजांची संपूर्ण यादी मिळवू शकता. जर तुम्हाला विशिष्ट आवाज वापरायचा असेल, तर तुम्ही ही फंक्शन काढून टाकू शकता आणि या दस्तऐवजातील आवाजाचे नाव हार्ड कोड करू शकता. उदाहरणार्थ:
speech_config.speech_synthesis_voice_name = 'hi-IN-SwaraNeural'
-
say
फंक्शनच्या सामग्रीला SSML तयार करण्यासाठी अपडेट करा:ssml = f'<speak version=\'1.0\' xml:lang=\'{language}\'>' ssml += f'<voice xml:lang=\'{language}\' name=\'{first_voice.short_name}\'>' ssml += text ssml += '</voice>' ssml += '</speak>'
-
याखाली, स्पीच रेकग्निशन थांबवा, SSML वाचा, आणि नंतर पुन्हा रेकग्निशन सुरू करा:
recognizer.stop_continuous_recognition() speech_synthesizer.speak_ssml(ssml) recognizer.start_continuous_recognition()
टेक्स्ट बोलले जात असताना रेकग्निशन थांबवले जाते, जेणेकरून टाइमर सुरू झाल्याची घोषणा ओळखली जाणार नाही, LUIS कडे पाठवली जाणार नाही आणि कदाचित नवीन टाइमर सेट करण्याची विनंती म्हणून व्याख्या केली जाणार नाही.
💁 तुम्ही हे तपासण्यासाठी रेकग्निशन थांबवण्याच्या आणि पुन्हा सुरू करण्याच्या ओळींवर टिप्पणी करून पाहू शकता. एक टाइमर सेट करा, आणि तुम्हाला कदाचित असे आढळेल की घोषणा नवीन टाइमर सेट करते, ज्यामुळे नवीन घोषणा होते, आणि त्यामुळे नवीन टाइमर सेट होतो, आणि हे चक्र सतत चालू राहते!
-
अॅप चालवा, आणि फंक्शन अॅप देखील चालू असल्याची खात्री करा. काही टाइमर सेट करा, आणि तुम्हाला तुमचा टाइमर सेट झाल्याचे सांगणारा आवाज ऐकू येईल, आणि नंतर टाइमर पूर्ण झाल्यावर आणखी एक आवाज ऐकू येईल.
💁 तुम्हाला हा कोड code-spoken-response/virtual-iot-device फोल्डरमध्ये सापडेल.
😀 तुमचा टाइमर प्रोग्राम यशस्वी झाला!
अस्वीकरण:
हा दस्तऐवज AI भाषांतर सेवा Co-op Translator वापरून भाषांतरित करण्यात आला आहे. आम्ही अचूकतेसाठी प्रयत्नशील असलो तरी कृपया लक्षात ठेवा की स्वयंचलित भाषांतरांमध्ये त्रुटी किंवा अचूकतेचा अभाव असू शकतो. मूळ भाषेतील दस्तऐवज हा अधिकृत स्रोत मानला जावा. महत्त्वाच्या माहितीसाठी व्यावसायिक मानवी भाषांतराची शिफारस केली जाते. या भाषांतराचा वापर करून उद्भवलेल्या कोणत्याही गैरसमज किंवा चुकीच्या अर्थासाठी आम्ही जबाबदार राहणार नाही.