# This is the parameter configuration file for PaddleSpeech Serving. ################################################################################# # SERVER SETTING # ################################################################################# host: 0.0.0.0 port: 8090 # The task format in the engin_list is: _ # task choices = ['asr_online', 'tts_online'] # protocol = ['websocket', 'http'] (only one can be selected). # websocket only support online engine type. protocol: 'websocket' engine_list: ['asr_online-inference'] ################################################################################# # ENGINE CONFIG # ################################################################################# ################################### ASR ######################################### ################### speech task: asr; engine_type: online ####################### asr_online-inference: model_type: 'deepspeech2online_aishell' am_model: # the pdmodel file of am static model [optional] am_params: # the pdiparams file of am static model [optional] lang: 'zh' sample_rate: 16000 cfg_path: decode_method: num_decoding_left_chunks: force_yes: True device: # cpu or gpu:id am_predictor_conf: device: # set 'gpu:id' or 'cpu' switch_ir_optim: True glog_info: False # True -> print glog summary: True # False -> do not show predictor config chunk_buffer_conf: frame_duration_ms: 80 shift_ms: 40 sample_rate: 16000 sample_width: 2 window_n: 7 # frame shift_n: 4 # frame window_ms: 20 # ms shift_ms: 10 # ms