服务粉丝

我们一直在努力
当前位置:首页 > 财经 >

直面原理:5张图彻底了解 Android TextToSpeech 机制

日期: 来源:郭霖收集编辑:小虾米君


/   今日科技快讯   /

近日,集度“ROBOVERSE三里屯体验中心启动会”在北京举办。集度CEO夏一平宣布,集度汽车机器人将融合百度文心一言的全面能力,打造首个针对智能汽车场景的大模型人工智能交互体验,支持汽车机器人实现自然交流的再进阶。

据悉,此次文心一言上车,也是全球类ChatGPT技术首次应用于智能汽车产品。现场,集度还发布了集度用户数字体验计划ROBOVERSE(汽车机器人宇宙)。文心一言技术上车,将进一步提升汽车机器人产品的自然交流能力,为用户带来颠覆性的人机交互数字化体验。

/   作者简介   /

本篇文章转自TechMerger的博客,文章主要分享了 Android 中 TextToSpeech 机制的相关内容,相信会对大家有所帮助!

原文地址:
https://juejin.cn/post/7199472291586441275

/   前言   /

ChatGPT 如此火爆,但它的强悍在于 NLU(自然语言理解)、DM(对话管理)和 NLG (自然语言生成)这三块,而 Recognition 识别和 TTS 播报这两块是缺失的。假使你的 App 接入了 ChatGPT,但如果需要播报出来的话,TextToSpeech 机制就可以派上用场了。

关于语音方面的交互,Android SDK 提供了用于语音交互的 VoiceInteraction 机制、语音识别的 Recognition 接口、语音播报的 TTS 接口。前者已经介绍过,本次主要聊聊第 3 块即 TTS,后续会分析下第 2 块即 Android 标准的 Recognition 机制。

通过 TextToSpeech 机制,任意 App 都可以方便地采用系统内置或第三方提供的 TTS Engine 进行播放铃声提示、语音提示的请求,Engine 可以由系统选择默认的 provider 来执行操作,也可由 App 具体指定偏好的目标 Engine 来完成。

默认 TTS Engine 可以在设备设置的路径中找到,亦可由用户手动更改:Settings -> Accessibility -> Text-to-speech ouput -> preferred engine。


TextToSpeech 机制的优点有很多:

  • 对于需要使用 TTS 的请求 App 而言,无需关心 TTS 的具体实现,通过 TextToSpeech API 即用即有
  • 对于需要对外提供 TTS 能力的实现 Engine 而言,无需维护复杂的 TTS 时序和逻辑,按照 TextToSpeechService 框架的定义对接即可,无需关心系统如何将实现和请求进行衔接

本文将会阐述 TextToSpeech 机制的调用、Engine 的实现以及系统调度这三块,彻底梳理清楚整个流程。

/   TextToSpeech调用   /


TextToSpeech API 是为 TTS 调用准备,总体比较简单。

最主要的是提供初始化 TTS 接口的 TextToSpeech() 构造函数和初始化后的回调 OnInitListener,后续的播放 TTS 的 speak() 和播放铃声的 playEarcon()。比较重要的是处理播放请求的 4 种回调结果,需要依据不同结果进行 TTS 播报开始的状态记录、播报完毕后的下一步动作、抑或是在播报出错时对音频焦点的管理等等。之前的 OnUtteranceCompletedListener 在 API level 18 时被废弃,可以使用回调更为精细的 UtteranceProgressListener。

 // TTSTest.kt
 class TTSTest(context: Context) {
     private val tts: TextToSpeech = TextToSpeech(context) { initResult -> ... }
 
     init {
         tts.setOnUtteranceProgressListener(object : UtteranceProgressListener() {
             override fun onStart(utteranceId: String?) { ... }
 
             override fun onDone(utteranceId: String?) { ... }
 
             override fun onStop(utteranceId: String?, interrupted: Boolean)  { ... }

             override fun onError(utteranceId: String?)  { ... }
         })
     }

     fun testTextToSpeech(context: Context) {
         tts.speak(
             "你好,汽车",
             TextToSpeech.QUEUE_ADD,
             Bundle(),
             "xxdtgfsf"
         )
 
         tts.playEarcon(
             EARCON_DONE,
             TextToSpeech.QUEUE_ADD,
             Bundle(),
             "yydtgfsf"
         )
     }
 
     companion object {
         const val EARCON_DONE = "earCon_done"
     }
 }

/   TextToSpeech系统调度   /

init 绑定



首先从 TextToSpeech() 的实现入手,以了解在 TTS 播报之前,系统和 TTS Engine 之间做了什么准备工作。

其触发的 initTTS() 将按照如下顺序查找需要连接到哪个 Engine:

  • 如果构造 TTS 接口的实例时指定了目标 Engine 的 package,那么首选连接到该 Engine
  • 反之,获取设备设置的 default Engine 并连接,设置来自于 TtsEngines 从系统设置数据 SettingsProvider 中 读取 TTS_DEFAULT_SYNTH 而来
  • 如果 default 不存在或者没有安装的话,从 TtsEngines 获取第一位的系统 Engine 并连接。第一位指的是从所有 TTS Service 实现 Engine 列表里获得第一个属于 system image 的 Engine

连接的话均是调用 connectToEngine(),其将依据调用来源来采用不同的 Connection 内部实现去 connect():

  • 具体是直接获取名为 texttospeech 、管理 TTS Service 的系统服务 TextToSpeechManagerService 的接口代理并直接调用它的 createSession() 创建一个 session,同时暂存其指向的 ITextToSpeechSession 代理接口。

该 session 实际上还是 AIDL 机制,TTS 系统服务的内部会创建专用的 TextToSpeechSessionConnection 去 bind 和 cache Engine,这里不再赘述

  • 其 connect() 实现较为简单,封装 Action 为 INTENT_ACTION_TTS_SERVICE 的 Intent 进行 bindService(),后续由 AMS 执行和 Engine 的绑定,这里不再展开。

如果调用不是来自 system,采用 DirectConnection。反之,采用 SystemConnection,原因在于系统的 TTS 请求可能很多,不能像其他 App 一样总是创建一个新的连接,而是需要 cache 并复用这种连接。无论是哪种方式,在 connected 之后都需要将具体的 TTS Eninge 的 ITextToSpeechService 接口实例暂存,同时将 Connection 实例暂存到 mServiceConnection,给外部类接收到 speak() 的时候使用。而且要留意,此刻还会启动一个异步任务 SetupConnectionAsyncTask 将自己作为 Binder 接口 ITextToSpeechCallback 返回给 Engine 以处理完之后回调结果给 Request。

connect 执行完毕并结果 OK 的话,还要暂存到 mConnectingServiceConnection,以在结束 TTS 需求的时候释放连接使用。并通过 dispatchOnInit() 传递 SUCCESS 给 Request App。

实现很简单,将结果 Enum 回调给初始化传入的 OnInitListener 接口。

如果连接失败的话,则调用 dispatchOnInit() 传递 ERROR。

 // TTSTest.kt
 // TextToSpeech.java
 public class TextToSpeech {
     public TextToSpeech(Context context, OnInitListener listener) {
         this(context, listener, null);
     }
 
     private TextToSpeech( ... ) {
         ...
         initTts();
     }
 
     private int initTts() {
         // Step 1: Try connecting to the engine that was requested.
         if (mRequestedEngine != null) {
             if (mEnginesHelper.isEngineInstalled(mRequestedEngine)) {
                 if (connectToEngine(mRequestedEngine)) {
                     mCurrentEngine = mRequestedEngine;
                     return SUCCESS;
                 }
                 ...
             } else if (!mUseFallback) {
                 ...
                 dispatchOnInit(ERROR);
                 return ERROR;
             }
         }
 
         // Step 2: Try connecting to the user's default engine.
         final String defaultEngine = getDefaultEngine();
         ...
 
         // Step 3: Try connecting to the highest ranked engine in the system.
         final String highestRanked = mEnginesHelper.getHighestRankedEngineName();
         ...
 
         dispatchOnInit(ERROR);
         return ERROR;
     }
 
     private boolean connectToEngine(String engine) {
         Connection connection;
         if (mIsSystem) {
             connection = new SystemConnection();
         } else {
             connection = new DirectConnection();
         }
 
         boolean bound = connection.connect(engine);
         if (!bound) {
             return false;
         } else {
             mConnectingServiceConnection = connection;
             return true;
         }
     }
 }

Connection 内部类和其两个子类的实现:

 // TextToSpeech.java
 public class TextToSpeech {
     ...
     private abstract class Connection implements ServiceConnection {
         private ITextToSpeechService mService;
         ...
 
         private final ITextToSpeechCallback.Stub mCallback =
                 new ITextToSpeechCallback.Stub() {
                     public void onStop(String utteranceId, boolean isStarted)
                             throws RemoteException {
                         UtteranceProgressListener listener = mUtteranceProgressListener;
                         if (listener != null) {
                             listener.onStop(utteranceId, isStarted);
                         }
                     };
 
                     @Override
                     public void onSuccess(String utteranceId) { ... }
 
                     @Override
                     public void onError(String utteranceId, int errorCode) { ... }
 
                     @Override
                     public void onStart(String utteranceId) { ... }
                     ...
                 };
 
         @Override
         public void onServiceConnected(ComponentName componentName, IBinder service) {
             synchronized(mStartLock) {
                 mConnectingServiceConnection = null;
 
                 mService = ITextToSpeechService.Stub.asInterface(service);
                 mServiceConnection = Connection.this;
 
                 mEstablished = false;
                 mOnSetupConnectionAsyncTask = new SetupConnectionAsyncTask();
                 mOnSetupConnectionAsyncTask.execute();
             }
         } 
         ...
     }
 
     private class DirectConnection extends Connection {
         @Override
         boolean connect(String engine) {
             Intent intent = new Intent(Engine.INTENT_ACTION_TTS_SERVICE);
             intent.setPackage(engine);
             return mContext.bindService(intent, this, Context.BIND_AUTO_CREATE);
         }
         ...
     }
 
     private class SystemConnection extends Connection {
         ...
         boolean connect(String engine) {
             IBinder binder = ServiceManager.getService(Context.TEXT_TO_SPEECH_MANAGER_SERVICE);
             ...
             try {
                 manager.createSession(engine, new ITextToSpeechSessionCallback.Stub() {
                     ...
                 });
                 return true;
             } ...
         }
         ...
     }
 }

speak 播报



后面看看重要的 speak(),系统做了什么具体实现。

首先将 speak() 对应的调用远程接口的操作封装为 Action 接口实例,并交给 init() 时暂存的已连接的 Connection 实例去调度。

 // TextToSpeech.java
 public class TextToSpeech {
     ...
     private Connection mServiceConnection;

     public int speak(final CharSequence text, ... ) {
         return runAction((ITextToSpeechService service) -> {
             ...
         }, ERROR, "speak");
     }
 
     private <R> R runAction(Action<R> action, R errorResult, String method) {
         return runAction(action, errorResult, method, true, true);
     }
 
     private <R> R runAction( ... ) {
         synchronized (mStartLock) {
             ...
             return mServiceConnection.runAction(action, errorResult, method, reconnect,
                     onlyEstablishedConnection);
         }
     }

     private abstract class Connection implements ServiceConnection {
         public <R> R runAction( ... ) {
             synchronized (mStartLock) {
                 try {
                     ...
                     return action.run(mService);
                 }
                 ...
             }
         }
     }
 }

Action 的实际内容是先从 mUtterances Map 里查找目标文本是否有设置过本地的 audio 资源:

  • 如有设置的话,调用用 TTS Engine 的 playAudio() 直接播放
  • 反之调用 text 转 audio 的接口 speak()

  // TextToSpeech.java
 public class TextToSpeech {
     ...
     public int speak(final CharSequence text, ... ) {
         return runAction((ITextToSpeechService service) -> {
             Uri utteranceUri = mUtterances.get(text);
             if (utteranceUri != null) {
                 return service.playAudio(getCallerIdentity(), utteranceUri, queueMode,
                         getParams(params), utteranceId);
             } else {
                 return service.speak(getCallerIdentity(), text, queueMode, getParams(params),
                         utteranceId);
             }
         }, ERROR, "speak");
     }
     ...
 }

后面即是 TextToSpeechService 的实现环节。

/   TextToSpeechService 实现   /


TextToSpeechService 内接收的实现是向内部的 SynthHandler 发送封装的 speak 或 playAudio 请求的 SpeechItem。

SynthHandler 绑定到 TextToSpeechService 初始化的时候启动的、名为 "SynthThread" 的 HandlerThread。

    • speak 请求封装给 Handler 的是 SynthesisSpeechItem
    • playAudio 请求封装的是 AudioSpeechItem

 // TextToSpeechService.java
 public abstract class TextToSpeechService extends Service {
     private final ITextToSpeechService.Stub mBinder =
             new ITextToSpeechService.Stub() {
                 @Override
                 public int speak(
                         IBinder caller,
                         CharSequence text,
                         int queueMode,
                         Bundle params,
                         String utteranceId) {
                     SpeechItem item =
                             new SynthesisSpeechItem(
                                     caller,
                                     Binder.getCallingUid(),
                                     Binder.getCallingPid(),
                                     params,
                                     utteranceId,
                                     text);
                     return mSynthHandler.enqueueSpeechItem(queueMode, item);
                 }
 
                 @Override
                 public int playAudio( ... ) {
                     SpeechItem item =
                             new AudioSpeechItem( ... );
                     ...
                 }
                 ...
             };
     ...
 }

SynthHandler 拿到 SpeechItem 后根据 queueMode 的值决定是 stop() 还是继续播放。播放的话,是封装进一步 play 的操作 Message 给 Handler。

 // TextToSpeechService.java
     private class SynthHandler extends Handler {
         ...
         public int enqueueSpeechItem(int queueMode, final SpeechItem speechItem) {
             UtteranceProgressDispatcher utterenceProgress = null;
             if (speechItem instanceof UtteranceProgressDispatcher) {
                 utterenceProgress = (UtteranceProgressDispatcher) speechItem;
             }
 
             if (!speechItem.isValid()) {
                 if (utterenceProgress != null) {
                     utterenceProgress.dispatchOnError(
                             TextToSpeech.ERROR_INVALID_REQUEST);
                 }
                 return TextToSpeech.ERROR;
             }
 
             if (queueMode == TextToSpeech.QUEUE_FLUSH) {
                 stopForApp(speechItem.getCallerIdentity());
             } else if (queueMode == TextToSpeech.QUEUE_DESTROY) {
                 stopAll();
             }
             Runnable runnable = new Runnable() {
                 @Override
                 public void run() {
                     if (setCurrentSpeechItem(speechItem)) {
                         speechItem.play();
                         removeCurrentSpeechItem();
                     } else {
                         speechItem.stop();
                     }
                 }
             };
             Message msg = Message.obtain(this, runnable);
 
             msg.obj = speechItem.getCallerIdentity();
 
             if (sendMessage(msg)) {
                 return TextToSpeech.SUCCESS;
             } else {
                 if (utterenceProgress != null) {
                     utterenceProgress.dispatchOnError(TextToSpeech.ERROR_SERVICE);
                 }
                 return TextToSpeech.ERROR;
             }
         }
         ...
     }

play() 具体是调用 playImpl() 继续。对于 SynthesisSpeechItem 来说,将初始化时创建的 SynthesisRequest 实例和 SynthesisCallback 实例(此处的实现是 PlaybackSynthesisCallback)收集和调用 onSynthesizeText() 进一步处理,用于请求和回调结果。

 // TextToSpeechService.java
     private abstract class SpeechItem {
         ...
         public void play() {
             synchronized (this) {
                 if (mStarted) {
                     throw new IllegalStateException("play() called twice");
                 }
                 mStarted = true;
             }
             playImpl();
         }
     }
 
     class SynthesisSpeechItem extends UtteranceSpeechItemWithParams {
         public SynthesisSpeechItem(
                 ...
                 String utteranceId,
                 CharSequence text) {
             mSynthesisRequest = new SynthesisRequest(mText, mParams);
             ...
         }
         ...
         @Override
         protected void playImpl() {
             AbstractSynthesisCallback synthesisCallback;
             mEventLogger.onRequestProcessingStart();
             synchronized (this) {
                 ...
                 mSynthesisCallback = createSynthesisCallback();
                 synthesisCallback = mSynthesisCallback;
             }
 
             TextToSpeechService.this.onSynthesizeText(mSynthesisRequest, synthesisCallback);
             if (synthesisCallback.hasStarted() && !synthesisCallback.hasFinished()) {
                 synthesisCallback.done();
             }
         }
         ...
     }

onSynthesizeText() 是 abstract 方法,需要 Engine 复写以将 text 合成 audio 数据,也是 TTS 功能里最核心的实现。

  • Engine 需要从 SynthesisRequest 中提取 speak 的目标文本、参数等信息,针对不同信息进行区别处理。并通过 SynthesisCallback 的各接口将数据和时机带回:
  • 在数据合成前,通过 start() 告诉系统生成音频的采样频率,多少位 pcm 格式音频,几通道等等。PlaybackSynthesisCallback 的实现将会创建播放的 SynthesisPlaybackQueueItem 交由 AudioPlaybackHandler 去排队调度
  • 之后,通过 audioAvailable() 接口将合成的数据以 byte[] 形式传递回来,会取出 start() 时创建的 QueueItem put 该 audio 数据开始播放
  • 最后,通过 done() 告知合成完毕

 // PlaybackSynthesisCallback.java
 class PlaybackSynthesisCallback extends AbstractSynthesisCallback {
     ...
     @Override
     public int start(int sampleRateInHz, int audioFormat, int channelCount) {
         mDispatcher.dispatchOnBeginSynthesis(sampleRateInHz, audioFormat, channelCount);
 
         int channelConfig = BlockingAudioTrack.getChannelConfig(channelCount);
 
         synchronized (mStateLock) {
             ...
             SynthesisPlaybackQueueItem item = new SynthesisPlaybackQueueItem(
                     mAudioParams, sampleRateInHz, audioFormat, channelCount,
                     mDispatcher, mCallerIdentity, mLogger);
             mAudioTrackHandler.enqueue(item);
             mItem = item;
         }
 
         return TextToSpeech.SUCCESS;
     }
 
     @Override
     public int audioAvailable(byte[] buffer, int offset, int length) {
         SynthesisPlaybackQueueItem item = null;
         synchronized (mStateLock) {
             ...
             item = mItem;
         }
 
         final byte[] bufferCopy = new byte[length];
         System.arraycopy(buffer, offset, bufferCopy, 0, length);
         mDispatcher.dispatchOnAudioAvailable(bufferCopy);
 
         try {
             item.put(bufferCopy);
         }
         ...
         return TextToSpeech.SUCCESS;
     }
 
     @Override
     public int done() {
         int statusCode = 0;
         SynthesisPlaybackQueueItem item = null;
         synchronized (mStateLock) {
             ...
             mDone = true;
 
             if (mItem == null) {
                 if (mStatusCode == TextToSpeech.SUCCESS) {
                     mDispatcher.dispatchOnSuccess();
                 } else {
                     mDispatcher.dispatchOnError(mStatusCode);
                 }
                 return TextToSpeech.ERROR;
             }
 
             item = mItem;
             statusCode = mStatusCode;
         }
 
         if (statusCode == TextToSpeech.SUCCESS) {
             item.done();
         } else {
             item.stop(statusCode);
         }
         return TextToSpeech.SUCCESS;
     }
     ...
 }

上述的 QueueItem 的放置 audio 数据和消费的逻辑如下,主要是 put 操作触发 Lock 接口的 take Condition 恢复执行,最后调用 AudioTrack 去播放。

 // SynthesisPlaybackQueueItem.java
 final class SynthesisPlaybackQueueItem ... {
     void put(byte[] buffer) throws InterruptedException {
         try {
             mListLock.lock();
             long unconsumedAudioMs = 0;
             ...
             mDataBufferList.add(new ListEntry(buffer));
             mUnconsumedBytes += buffer.length;
             mReadReady.signal();
         } finally {
             mListLock.unlock();
         }
     }
 
     private byte[] take() throws InterruptedException {
         try {
             mListLock.lock();
 
             while (mDataBufferList.size() == 0 && !mStopped && !mDone) {
                 mReadReady.await();
             }
             ...
             ListEntry entry = mDataBufferList.poll();
             mUnconsumedBytes -= entry.mBytes.length;
             mNotFull.signal();
 
             return entry.mBytes;
         } finally {
             mListLock.unlock();
         }
     }
 
     public void run() {
         ...
         final UtteranceProgressDispatcher dispatcher = getDispatcher();
         dispatcher.dispatchOnStart();
 
         if (!mAudioTrack.init()) {
             dispatcher.dispatchOnError(TextToSpeech.ERROR_OUTPUT);
             return;
         }
 
         try {
             byte[] buffer = null;
             while ((buffer = take()) != null) {
                 mAudioTrack.write(buffer);
             }
 
         } ...
         mAudioTrack.waitAndRelease();
         dispatchEndStatus();
     }
 
     void done() {
         try {
             mListLock.lock();
             mDone = true;
             mReadReady.signal();
             mNotFull.signal();
         } finally {
             mListLock.unlock();
         }
     }
 }

上述 PlaybackSynthesisCallback 在通知 QueueItem 的同时,会通过 UtteranceProgressDispatcher 接口将数据、结果一并发送给 Request App。

 // TextToSpeechService.java
     interface UtteranceProgressDispatcher {
         void dispatchOnStop();
 
         void dispatchOnSuccess();
 
         void dispatchOnStart();
 
         void dispatchOnError(int errorCode);
 
         void dispatchOnBeginSynthesis(int sampleRateInHz, int audioFormat, int channelCount);
 
         void dispatchOnAudioAvailable(byte[] audio);
 
         public void dispatchOnRangeStart(int start, int end, int frame);
     }

事实上该接口的实现就是 TextToSpeechService 处理 speak 请求的 UtteranceSpeechItem 实例,其通过缓存着各 ITextToSpeechCallback 接口实例的 CallbackMap 发送回调给 TTS 请求的 App。(这些 Callback 来自于 TextToSpeech 初始化时候通过 ITextToSpeechService 将 Binder 接口传递来和缓存起来的。)

     private abstract class UtteranceSpeechItem extends SpeechItem
         implements UtteranceProgressDispatcher  {
         ...
         @Override
         public void dispatchOnStart() {
             final String utteranceId = getUtteranceId();
             if (utteranceId != null) {
                 mCallbacks.dispatchOnStart(getCallerIdentity(), utteranceId);
             }
         }
 
         @Override
         public void dispatchOnAudioAvailable(byte[] audio) {
             final String utteranceId = getUtteranceId();
             if (utteranceId != null) {
                 mCallbacks.dispatchOnAudioAvailable(getCallerIdentity(), utteranceId, audio);
             }
         }
 
         @Override
         public void dispatchOnSuccess() {
             final String utteranceId = getUtteranceId();
             if (utteranceId != null) {
                 mCallbacks.dispatchOnSuccess(getCallerIdentity(), utteranceId);
             }
         }
 
         @Override
         public void dispatchOnStop() { ... }
 
         @Override
         public void dispatchOnError(int errorCode) { ... }
 
         @Override
         public void dispatchOnBeginSynthesis(int sampleRateInHz, int audioFormat, int channelCount) { ... }
 
         @Override
         public void dispatchOnRangeStart(int start, int end, int frame) { ... }
     }
 
     private class CallbackMap extends RemoteCallbackList<ITextToSpeechCallback> {
         ...
         public void dispatchOnStart(Object callerIdentity, String utteranceId) {
             ITextToSpeechCallback cb = getCallbackFor(callerIdentity);
             if (cb == null) return;
             try {
                 cb.onStart(utteranceId);
             } ...
         }
 
         public void dispatchOnAudioAvailable(Object callerIdentity, String utteranceId, byte[] buffer) {
             ITextToSpeechCallback cb = getCallbackFor(callerIdentity);
             if (cb == null) return;
             try {
                 cb.onAudioAvailable(utteranceId, buffer);
             } ...
         }
 
         public void dispatchOnSuccess(Object callerIdentity, String utteranceId) {
             ITextToSpeechCallback cb = getCallbackFor(callerIdentity);
             if (cb == null) return;
             try {
                 cb.onSuccess(utteranceId);
             } ...
         }
         ...
     }

ITextToSpeechCallback 的执行将通过 TextToSpeech 的中转抵达请求 App 的 Callback,以执行“TextToSpeech 调用”章节提到的进一步操作。

 // TextToSpeech.java
 public class TextToSpeech {
     ...
     private abstract class Connection implements ServiceConnection {
         ...
         private final ITextToSpeechCallback.Stub mCallback =
                 new ITextToSpeechCallback.Stub() {
                     @Override
                     public void onStart(String utteranceId) {
                         UtteranceProgressListener listener = mUtteranceProgressListener;
                         if (listener != null) {
                             listener.onStart(utteranceId);
                         }
                     }
                     ...
                 };
     }
 }

 // TTSTest.kt
 class TTSTest(context: Context) {
     init {
         tts.setOnUtteranceProgressListener(object : UtteranceProgressListener() {
             override fun onStart(utteranceId: String?) { ... }
 
             override fun onDone(utteranceId: String?) { ... }
 
             override fun onStop(utteranceId: String?, interrupted: Boolean) { ... }
 
             override fun onError(utteranceId: String?)  { ... }
         })
     }
     ....
 }

/   使用和实现上的注意   /

对于 TTS 请求方有几点使用上的建议:

  1. TTS 播报前记得申请对应 type 的音频焦点
  2. TTS Request App 的 Activity 或 Service 生命周期销毁的时候,比如 onDestroy() 等时候,需要调用 TextToSpeech 的 shutdown() 释放连接、资源
  3. 可以通过 addSpeech() 指定固定文本的对应 audio 资源(比如说语音里常用的几套唤醒后的欢迎词 audio),在后续的文本请求时直接播放该 audio,免去文本转语音的过程、提高效率

对于 TTS Engine 提供方也有几点实现上的建议:

TTS Engine 的各实现要和 TTS 的 SynthesisCallback 做好对接,要留意只能在该 callback 已经执行了 start() 并未结束的条件下调用 done()。否则 TTS 会发生如下两种错误:

  • Duplicate call to done()
  • done() was called before start() call

TTS Engine 核心作用是将 text 文本合成 speech 音频数据,合成到数据之后 Engine 当然可以选择直接播报,甚至不回传音频数据。但建议将音频数据回传,交由系统 AudioTrack 播报。一来交由系统统一播报;二来 Request App 亦可以拿到音频数据进行 cache 和分析。

/   写在最后   /

可以看到 Request App 不关心实现、只需通过 TextToSpeech 几个 API 便可完成 TTS 的播报操作。而且 TTS 的实现也只需要按照 TextToSpeechService 约定的框架、回调实现即可,和 App 的对接工作由系统完成。

我们再花点时间梳理下整个过程:


流程:

  1. TTS Request App 调用 TextToSpeech 构造函数,由系统准备播报工作前的准备,比如通过 Connection 绑定和初始化目标的 TTS Engine
  2. Request App 提供目标 text 并调用 speak() 请求
  3. TextToSpeech 会检查目标 text 是否设置过本地的 audio 资源,没有的话回通过 Connection 调用 ITextToSpeechService AIDL 的 speak() 继续
  4. TextToSpeechService 收到后封装请求 SynthesisRequest 和用于回调结果的 SynthesisCallback 实例
  5. 之后将两者作为参数调用核心实现 onSynthesizeText(),其将解析 Request 并进行 Speech 音频数据合成
  6. 此后通过 SynthesisCallback 将合成前后的关键回调告知系统,尤其是 AudioTrack 播放
  7. 同时需要将 speak 请求的结果告知 Request App,即通过 UtteranceProgressDispatcher 中转,实际上是调用 ITextToSpeechCallback AIDL
  8. 最后通过 UtteranceProgressListener 告知 TextToSpeech 初始化时设置的各回调

推荐阅读:
我的新书,《第一行代码 第3版》已出版!
深度揭秘,Android应用是如何安装到手机上的
Kotlin Flow响应式编程,StateFlow和SharedFlow

欢迎关注我的公众号
学习技术或投稿


长按上图,识别图中二维码即可关注


相关阅读

  • 推倒重来,如何快速从 0 到 1 重构一个 APP 项目?

  • 说到「重构」这个话题,或许有些朋友遇到过这样的经历,公司早年间上线的项目系统,因一直没专人在演进过程中为代码质量负责,导致现在代码越来越混乱,逐渐堆积成“屎山”,目前的维护
  • 干货|API接口渗透测试技巧汇总

  • 作者:白河愁,来源:先知社区1 API 接口介绍1.1 RPC(远程过程调用)远程过程调用(英语:Remote Procedure Call,缩写为 RPC)是一个计算机通信协议。该协议允许运行于一台计算机的程序调用
  • Android Framework 一学就"废"

  • 本文作者作者:阿豪元代码链接:https://juejin.cn/post/7195770700106776636本文由作者授权发布。1为什么要学 Framework为什么要学 Framework?最直接最功利的原因就是面试要问,
  • Linux 只是一个内核:这意味着什么?

  • 点击上方蓝字 ● 关注Linux公社 这是困扰 Linux 用户的一个常见问题。这也是考试和面试中经常问的问题。以下是您需要了解的所有信息。您可能已经在互联网上看到和听到
  • 招募优惠情报官&商务同学 |毛爸招聘

  • 大家好,我是毛爸。如标题所说,今天发个招聘公告。共招募两个工作岗位,一个是优惠情报官,一个是商务。【优惠情报官】不一定非得在南京,也不一定非得全职。【商务】需要在南京,也需
  • 生日快乐,我对自己说

  • 今天的头条留给自己。二月初七,生日快乐,我对自己说。生日的意义,可能是给了自己为过去一年所经历的一切画上句号的机会吧。又大了一岁,看着身边的人、看着朋友圈的人,再看看自己
  • 开学?这么穿就很帅!

  • 2023/02/21天气:晴开学季,正是用穿搭一决高下的时刻!不管你是新生还是老油条,想在芸芸男同学中脱颖而出,给她留下好印象,就要趁现在提升自己的穿搭品味,原地帅起来!建议可以看下本期
  • 正式上线!

  • 近日,市公共资源交易中心联合市住建局发布了《关于我市房屋建筑和市政基础设施工程施工招标按照最新范本进行电子化招投标的通知》和《关于开展房屋建筑和市政基础设施工程施

热门文章

  • “复活”半年后 京东拍拍二手杀入公益事业

  • 京东拍拍二手“复活”半年后,杀入公益事业,试图让企业捐的赠品、家庭闲置品变成实实在在的“爱心”。 把“闲置品”变爱心 6月12日,“益心一益·守护梦想每一步”2018年四

最新文章

  • 直面原理:5张图彻底了解 Android TextToSpeech 机制

  • / 今日科技快讯 /近日,集度“ROBOVERSE三里屯体验中心启动会”在北京举办。集度CEO夏一平宣布,集度汽车机器人将融合百度文心一言的全面能力,打造首个针对智能汽车场景的大
  • Android Input系统之事件分发机制

  • / 今日科技快讯 /近日,微软对来自169个国家的用户进行了为期一周的必应搜索引擎人工智能新功能测试。微软在旗下必应搜索引擎和Edge浏览器中整合人工智能聊天机器人功能
  • 基于Android 13:包管理机制详解

  • / 今日科技快讯 /当地时间2月22日,谷歌宣布在量子计算机的纠错方面取得了突破,这一研究结果已发表在英国《自然》杂志上。在多数情况下,量子计算机很容易犯错。这是因为量
  • Kotlin协程开发的基础入门知识

  • / 今日科技快讯 /近日,爱奇艺官方账号发文,针对近期爱奇艺VIP会员用户反馈的投屏清晰度、设备登录等问题做出如下调整:1.为2023年2月20日仍处于订阅状态的爱奇艺黄金 VIP
  • 湖北医药学院举行春季招聘会,提供岗位两万余个

  • 十堰广电讯(全媒体记者 翁红 见习记者 钱心玥 通讯员 鲍晓宇)2月28日,湖北医药学院举行春季招聘会,来自省内外700多家医疗卫生机构,提供两万多个岗位,吸引毕业生求职就业。28日上