Менеджер по синтезу речи ссылка
Менеджер по Синтезу речи, раньше названный менеджером по Речи, является частью Mac OS, обеспечивающего стандартный метод для приложений Mac для генерации синтезированной речи. Например, можно хотеть, чтобы приложение включило возможность говорить ее сообщения диалогового окна с пользователем. Приложение обработки текстов могло бы использовать менеджера по Синтезу речи для реализации команды, говорящей выбранный раздел документа пользователю. Поскольку звуковые выборки могут привести большие суммы в рабочее состояние комнаты на диске, использование текста вместо выбранного звука чрезвычайно эффективно. Например, мультимедийное приложение могло бы использовать менеджера по Синтезу речи для обеспечения повествования фильма в формате QuickTime вместо того, чтобы включить данные выбранного звука на дорожке фильма.
OS X v10.5 представляет собственную поддержку выполнения задач синтеза речи с помощью Базовых Основанных на основе объектов, таких как говорящий текст, представленный как CFString объекты и управляющий свойствами речевого канала с помощью a CFDictionary- основанный словарь свойства. Необходимо начать использовать эти Базовые Основанные на основе интерфейсы программирования, как только это удобно, потому что будущие синтезаторы примут Базовые строки Основы и структуры данных непосредственно через платформу синтеза речи. Тем временем существующие основанные на буфере клиенты и синтезаторы будут продолжать работать как прежде со строками и другими структурами данных, автоматически преобразовываемыми по мере необходимости.
-
SetSpeechInfo SetSpeechInfo(OS X v10.8)Изменяет настройки определенного речевого канала.
Объявление
Objective C
OSErr SetSpeechInfo ( SpeechChannel chan, OSType selector, const void *speechInfo );Параметры
chanРечевой канал, для которого Ваше приложение хочет изменить настройки.
selectorСелектор информации о речи, указывающий тип изменяемой информации.
Для полного списка селекторов информации о речи посмотрите Константы информации о Речевом канале. Этот список указывает, как Ваше приложение должно установить
speechInfoпараметр для каждого селектора.speechInfoУказатель, значение которого зависит от селектора информации о речи, указанного в
selectorпараметр.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
SetSpeechInfoфункционируйте изменяет тип установки обозначенногоselectorпараметр в речевом канале, указанномchanпараметр, на основе данных Ваше приложение обеспечивает черезspeechInfoпараметр.Формат структуры данных, указанной
speechInfoпараметр зависит от селектора, который Вы выбираете. Обычно, селектор требует этогоspeechInfoбудьте указателем на структуру данных, указывающую новую установку для речевого канала.Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
Устанавливает значение указанного свойства речевого канала.
Объявление
Swift
func SetSpeechProperty(_chan: SpeechChannel, _property: CFString!, _object: AnyObject!) -> OSErrObjective C
OSErr SetSpeechProperty ( SpeechChannel chan, CFStringRef property, CFTypeRef object );Параметры
chanРечевой канал, чье свойство для установки.
propertyСвойство речевого канала для установки в указанное значение.
objectЗначение, в которое должно быть установлено указанное свойство речевого канала. Для некоторых свойств это значение может быть
NULL.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
SetSpeechPropertyфункция является Базовым Основанным на основе эквивалентомSetSpeechInfoфункция.Посмотрите
“Speech-Channel Properties”для получения информации о свойствах можно указать.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.5 и позже.
-
Устанавливает речевую подачу на определяемом речевом канале.
Объявление
Swift
func SetSpeechPitch(_chan: SpeechChannel, _pitch: Fixed) -> OSErrObjective C
OSErr SetSpeechPitch ( SpeechChannel chan, Fixed pitch );Параметры
chanРечевой канал, подачу которого Вы хотите установить.
pitchНовая подача для речевого канала, выраженного как значение частоты фиксированной точки.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
SetSpeechPitchфункционируйте изменяет текущую речевую подачу на речевом канале, указанномchanпараметр к подаче, указаннойpitchпараметр. Типичные частоты речевого диапазона располагаются приблизительно от 90 герц для низкого мужского голоса к, возможно, 300 герц для речи высокого дочернего элемента. Эти частоты соответствуют приблизительным значениям подачи в диапазонах 30 000 - 40 000 и 55 000 - 65 000, соответственно. Несмотря на то, что значения фиксированной точки позволяют Вам указывать широкий диапазон передач, не, все синтезаторы будут поддерживать полный спектр передач. Если Ваше приложение указывает подачу, которую не может обработать синтезатор, это может скорректировать подачу для адаптации в приемлемом диапазоне.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Устанавливает речевой уровень определяемого речевого канала.
Объявление
Swift
func SetSpeechRate(_chan: SpeechChannel, _rate: Fixed) -> OSErrObjective C
OSErr SetSpeechRate ( SpeechChannel chan, Fixed rate );Параметры
chanРечевой канал, уровень которого Вы хотите установить.
rateНовый речевой уровень в словах в минуту, выраженную как целочисленное значение.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
SetSpeechRateфункция корректирует речевой уровень на речевом канале, указанномchanпараметр к уровню, указанномуrateпараметр. Как правило говорящие уровни располагаются приблизительно от 150 слов в минуту приблизительно к 220 словам в минуту. Важно иметь в виду, однако, что пользователи будут отличаться значительно по их возможности понять синтезированную речь на определенном уровне, основанном на их уровне опыта, слушая речь и их возможность ожидать типы произнесения, с которым они встретятся.Примечание: новый речевой уровень должен быть выражен как целое число (не десятичное число фиксированной точки, поскольку тип данных подразумевает).
Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
TextToPhonemes TextToPhonemes(OS X v10.8)Преобразовывает буфер текстовых данных в фонематические данные.
Объявление
Objective C
OSErr TextToPhonemes ( SpeechChannel chan, const void *textBuf, unsigned long textBytes, Handle phonemeBuf, long *phonemeBytes );Параметры
chanРечевой канал, связанный синтезатор которого и речь должны использоваться для процесса преобразования.
textBufУказатель на буфер текста, который будет преобразован.
textBytesЧисло байтов текста, который будет преобразован.
phonemeBufДескриптор к буферу, который будет использоваться, чтобы хранить фонематические данные.
TextToPhonemesфункция может изменить размеры перемещаемого блока, на который ссылается этот дескриптор.phonemeBytesПо возврату, указателю на число байтов фонематических данных, записанных в дескриптор.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
Преобразование текстовых данных в фонематические данные особенно полезно во время разработки приложений, когда Вы могли бы хотеть скорректировать фразы, которые Ваше приложение генерирует для создания более гладкой речи. Первым преобразованием целевой фразы в фонемы Вы видите то, что синтезатор попытается говорить. Тогда Вы должны исправить только роли, которые не игрались бы путем, Вы хотите.
TextToPhonemesфункция преобразовываетtextBytesбайты текстовых данных, на которые указываютtextBufпараметр к фонематическим данным, которые это пишет в перемещаемый блок, указанныйphonemeBufпараметр. Если необходимо,TextToPhonemesизменяет размеры этого перемещаемого блока.TextToPhonemesфункционируйте устанавливаетphonemeBytesпараметр к числу байтов фонематических данных, фактически записанных.Если текстовые данные содержатся в перемещаемом блоке, дескриптор к тому блоку должен быть заблокирован перед
TextToPhonemesфункция вызвана.Данные, возвращенные
TextToPhonemesсоответствует точно фонемам, на которых говорили бы, имел входной текст, отправленный вSpeakTextвместо этого. Все текущие настройки режима для речевого канала, указанногоchanприменяются к преобразованной речи. Никакие обратные вызовы не сгенерированы в то время какTextToPhonemesфункция генерирует свой вывод.Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
Преобразовывает указанную текстовую строку в ее эквивалентное фонематическое представление.
Объявление
Swift
func CopyPhonemesFromText(_chan: SpeechChannel, _text: CFString!, _phonemes: UnsafeMutablePointer<Unmanaged<CFString>?>) -> OSErrObjective C
OSErr CopyPhonemesFromText ( SpeechChannel chan, CFStringRef text, CFStringRef *phonemes );Параметры
chanРечевой канал, связанный синтезатор которого и свойства должны использоваться в процессе преобразования.
textТекст, из которого можно извлечь фонематические данные.
phonemesПо возврату, a
CFStringобъект, содержащий извлеченные фонематические данные. Вызывающая сторона ответственна за выпуск этого объекта.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
CopyPhonemesFromTextфункция является Базовым Основанным на основе эквивалентомTextToPhonemesфункция.Преобразование текстовых данных в фонематические данные особенно полезно во время разработки приложений, когда Вы могли бы хотеть скорректировать фразы, которые Ваше приложение генерирует для создания более гладкой речи. Первым преобразованием целевой фразы в фонемы Вы видите то, что синтезатор попытается говорить. Тогда Вы должны исправить только роли, которые не игрались бы путем, Вы хотите.
Данные
CopyPhonemesFromTextфункционируйте хранилища вphonemesпараметр соответствует точно фонемам, на которых говорили бы, имел входной текст, отправленный вSpeakCFStringвместо этого. Все текущие настройки свойства для речевого канала, указанногоchanприменяются к преобразованной речи. Никакие обратные вызовы не сгенерированы в то время какCopyPhonemesFromTextфункция генерирует свой вывод.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.5 и позже.
-
UseDictionary UseDictionary(OS X v10.8)Устанавливает определяемый словарь в речевой канал.
Объявление
Objective C
OSErr UseDictionary ( SpeechChannel chan, Handle dictionary );Параметры
chanРечевой канал, в который должен быть установлен словарь.
dictionaryДескриптор к данным словаря. Это часто - дескриптор к ресурсу типа
'dict'.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
UseDictionaryфункционируйте пытается установить данные словаря, на которые ссылаютсяdictionaryпараметр в речевой канал, на который ссылаютсяchanпараметр. Синтезатор будет использовать любые элементы ресурса словаря, который он считает полезным для речевого процесса преобразования. Некоторые синтезаторы речи могли бы проигнорировать определенные типы словарных статей.После
UseDictionaryфункционируйте возвраты, Ваше приложение является бесплатным выпустить любое хранение, выделенное для дескриптора словаря. Поисковый порядок на предоставленные приложением словари является последним - в, сначала искавший.Все подробные данные того, как предоставленный приложением словарь представлен в синтезаторе речи, зависят от определенной реализации синтезатора и являются частными к синтезатору.
Словари произношения позволяют Вашему приложению переопределять менеджера по Синтезу речи по умолчанию произношение отдельных слов, такое как имена с необычными написаниями.
Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
Регистрирует речевой словарь в речевом канале.
Объявление
Swift
func UseSpeechDictionary(_chan: SpeechChannel, _speechDictionary: CFDictionary!) -> OSErrObjective C
OSErr UseSpeechDictionary ( SpeechChannel chan, CFDictionaryRef speechDictionary );Параметры
chanРечевой канал, в котором должен быть зарегистрирован указанный речевой словарь.
speechDictionaryРечевой словарь, который будет зарегистрирован в указанном речевом канале, представленном как a
CFDictionaryобъект. Посмотрите“Speech Dictionary Keys”для ключей можно использовать в словаре.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
Функция UseSpeechDictionary является Базовым Основанным на основе эквивалентом
UseDictionaryфункция.UseSpeechDictionaryфункционируйте регистрируетсяCFDictionaryобъект, на который ссылаютсяspeechDictionaryпараметр с речевым каналом, на который ссылаютсяchanпараметр. Речевые словари позволяют Вашему приложению переопределять произношение синтезатора по умолчанию отдельных слов, такое как имена с необычными написаниями. Синтезатор будет использовать любые элементы словаря, который он считает полезным в речевом процессе преобразования. Некоторые синтезаторы речи могли бы проигнорировать определенные типы словарных статей.Многократные словари могут быть зарегистрированы в синтезаторе. Если то же слово появится в многократных словарях, то синтезатор будет использовать тот из словаря с новой датой.
Обратите внимание на то, что, потому что речевой словарь является a
CFDictionaryобъект, это может быть загружено из основанного на XML файла списка свойств. Пример такого файла показан ниже:<?xml version="1.0" encoding="UTF-8"?> <!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd"> <plist version="1.0"> <dict> <key>LocaleIdentifier</key> <string>en_US</string> <key>ModificationDate</key> <string>2006-12-21 11:59:25 -0800</string> <key>Pronunciations</key> <array> <dict> <key>Phonemes</key> <string>_hEY_yUW</string> <key>Spelling</key> <string>Hello</string> </dict> </array> <key>Abbreviations</key> <array> <dict> <key>Phonemes</key> <string>_OW_sAEkz</string> <key>Spelling</key> <string>OSAX</string> </dict> </array> </dict> </plist>
После
UseSpeechDictionaryфункционируйте возвраты, Ваше приложение является бесплатным выпуститьCFDictionaryобъект, на который ссылаютсяspeechDictionaryпараметр.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.5 и позже.
-
Избавляется от существующего речевого канала.
Объявление
Swift
func DisposeSpeechChannel(_chan: SpeechChannel) -> OSErrObjective C
OSErr DisposeSpeechChannel ( SpeechChannel chan );Параметры
chanРечевой канал для избавления.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
DisposeSpeechChannelфункция избавляется от речевого канала, указанного вchanпараметр и выпуски вся память канал занимают. Если указанный речевой канал производит речь, тоDisposeSpeechChannelфункционируйте сразу останавливает речь перед избавлением от канала. При определении сделанной текстом функции обратного вызова или сделанной речью функции обратного вызова функция не будет вызвана, прежде чем от канала избавляются.Менеджер по Синтезу речи выпускает любые речевые каналы, от которых явно не избавилось приложение, когда приложение выходит. В целом, однако, Ваше приложение должно избавиться от любых речевых каналов, которые оно создало каждый раз, когда оно получает приостановить событие. Это гарантирует, что другие приложения могут в полной мере воспользоваться менеджером по Синтезу речи и Звуковыми возможностями менеджера.
Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Создает новый речевой канал.
Объявление
Swift
func NewSpeechChannel(_voice: UnsafeMutablePointer<VoiceSpec>, _chan: UnsafeMutablePointer<SpeechChannel>) -> OSErrObjective C
OSErr NewSpeechChannel ( VoiceSpec *voice, SpeechChannel *chan );Параметры
voiceУказатель на речевую структуру спецификации, соответствующую речи, которая будет использоваться для нового речевого канала. Передача
NULLсоздать речевой канал с помощью речи системного значения по умолчанию.Указание речи означает, что начальный говорящий курс установлен говорящим уровнем синтезатора по умолчанию; передача
NULLозначает, что говорящий уровень автоматически установлен в уровень, который пользователь указывает в Речевых предпочтениях.chanПо возврату, указателю на допустимый речевой канал.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
NewSpeechChannelфункция выделяет память для структуры речевого канала и устанавливает переменную речевого канала, на которую указываютchanпараметр для указания на эту структуру речевого канала. Менеджер по Синтезу речи автоматически определяет местоположение и открывает соединение с надлежащим синтезатором для речи, указаннойvoiceпараметр.Нет никакого предопределенного предела числу речевых каналов, которые может создать приложение. Однако системные ограничения на доступный RAM, загрузка процессора и число доступных звуковых каналов ограничивают число фактически возможных речевых каналов.
Ваше приложение не должно пытаться управлять данными, на которые указывает переменная типа
SpeechChannel. Внутренний формат, что менеджер по Синтезу речи использование для данных речевых каналов не документируется и может измениться в будущих версиях системного программного обеспечения.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Связали значение с указанным свойством речевого канала.
Объявление
Swift
func CopySpeechProperty(_chan: SpeechChannel, _property: CFString!, _object: UnsafeMutablePointer<Unmanaged<AnyObject>?>) -> OSErrObjective C
OSErr CopySpeechProperty ( SpeechChannel chan, CFStringRef property, CFTypeRef *object );Параметры
chanРечевой канал, с которым связано указанное свойство.
propertyСвойство речевого канала, о котором запрашивается информация. Посмотрите
“Speech-Channel Properties”для получения информации о свойствах можно указать.objectПо возврату, указателю на Базовый объект Основы, содержащий значение указанного свойства. Тип объекта зависит от определенного свойства, переданного в. Для некоторых свойств, значения
objectможет бытьNULL. Когда возвращенный объект является aCFDictionaryобъект, можно использоватьCFDictionaryфункции, такой какCFDictionaryGetValue, получать значения связалось с ключами, связанными с указанным свойством.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
CopySpeechPropertyфункция является Базовым Основанным на основе эквивалентомGetSpeechInfoфункция.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.5 и позже.
-
GetSpeechInfo GetSpeechInfo(OS X v10.8)Получает информацию об определяемом речевом канале.
Объявление
Objective C
OSErr GetSpeechInfo ( SpeechChannel chan, OSType selector, void *speechInfo );Параметры
chanРечевой канал, о котором запрашивается информация.
selectorСелектор информации о речи, указывающий тип запрошенной информации.
Для полного списка селекторов информации о речи посмотрите Константы информации о Речевом канале. Этот список указывает, как Ваше приложение должно установить
speechInfoпараметр для каждого селектора.speechInfoУказатель, значение которого зависит от селектора информации о речи, указанного в
selectorпараметр.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
GetSpeechInfoфункционируйте возвраты в структуре данных, на которую указываютspeechInfoпараметр, тип требуемой информацииselectorпараметр, поскольку это применяется к речевому каналу, указанному вchanпараметр.Формат структуры данных, указанной
speechInfoпараметр зависит от селектора, который Вы выбираете. Например, селектор мог бы потребовать, чтобы Ваше приложение выделило блок памяти определенного размера и передало указатель на тот блок. Другой селектор мог бы потребовать этогоspeechInfoбудьте установлены в адрес переменной дескриптора. В этом случае,GetSpeechInfoфункция выделила бы перемещаемый блок памяти и заменила бы переменную дескриптора, указанную для ссылки на блок.Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
Получает текущую речевую подачу речевого канала.
Объявление
Swift
func GetSpeechPitch(_chan: SpeechChannel, _pitch: UnsafeMutablePointer<Fixed>) -> OSErrObjective C
OSErr GetSpeechPitch ( SpeechChannel chan, Fixed *pitch );Параметры
chanРечевой канал, подачу которого Вы хотите определить.
pitchПо возврату, указателю на текущую подачу речи в речевом канале, выраженном как значение частоты фиксированной точки.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
Типичные частоты речевого диапазона располагаются приблизительно от 90 герц для низкого мужского голоса к, возможно, 300 герц для речи высокого дочернего элемента. Эти частоты соответствуют приблизительным значениям подачи в диапазонах 30 000 - 40 000 и 55 000 - 65 000, соответственно.
Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Получает текущий речевой уровень речевого канала.
Объявление
Swift
func GetSpeechRate(_chan: SpeechChannel, _rate: UnsafeMutablePointer<Fixed>) -> OSErrObjective C
OSErr GetSpeechRate ( SpeechChannel chan, Fixed *rate );Параметры
chanРечевой канал, курс которого Вы хотите установить.
rateПо возврату, указателю на речевой уровень речевого канала в словах в минуту, выраженную как целочисленное значение.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Определяет, синтезируют ли какие-либо каналы речи в настоящее время речь.
Объявление
Swift
func SpeechBusy() -> Int16Objective C
SInt16 SpeechBusy ( void );Возвращаемое значение
Число речевых каналов, в настоящее время синтезирующих речь в приложении. Это полезно, когда Вы хотите гарантировать, что более ранний речевой запрос был завершен прежде, чем иметь систему, говорят снова. Приостановленные речевые каналы считаются среди тех, которые синтезируют речь.
Речевой канал, который менеджер по Синтезу речи выделяет внутренне в ответ на вызовы к
SpeakStringфункция считается в числе, возвращенномSpeechBusy. Таким образом, если Вы используете простоSpeakStringинициировать речь,SpeechBusyвсегда возвраты1пока речь производится. КогдаSpeechBusyвозвраты0, вся речь закончилась.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Определяет, синтезируется ли какая-либо речь в настоящее время в Вашем приложении или в другом месте на компьютере.
Объявление
Swift
func SpeechBusySystemWide() -> Int16Objective C
SInt16 SpeechBusySystemWide ( void );Возвращаемое значение
Общее количество речевых каналов, в настоящее время синтезирующих речь на компьютере, инициировались ли они Вашим приложением или кодом процесса или некоторым другим процессом, выполняющимся одновременно. Приостановленные речевые каналы считаются среди тех каналов, синтезирующих речь.
Обсуждение
Эта функция полезна, когда Вы хотите гарантировать, что никакая речь в настоящее время не производится нигде на компьютере Macintosh прежде, чем инициировать речь. Несмотря на то, что менеджер по Синтезу речи позволяет различным приложениям производить речь одновременно, это может сбить с толку пользователю. В результате это часто - хорошая идея для Вашего приложения, чтобы проверить, что никакой другой процесс не производит речь прежде, чем произвести саму речь. Если различие между значениями, возвращенными
SpeechBusySystemWideиSpeechBusyфункция0, никакой другой процесс не производит речь.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Определяет текущую версию менеджера по Синтезу речи, установленного в системе.
Объявление
Swift
func SpeechManagerVersion() -> NumVersionObjective C
NumVersion SpeechManagerVersion ( void );Возвращаемое значение
Версия менеджера по Синтезу речи, установленного в системе, в формате первых 4 байтов a
'vers'ресурс.Обсуждение
Используйте этот вызов, чтобы определить, может ли Ваша программа получить доступ к функциям менеджера по Синтезу речи, включенным в некоторого менеджера по Синтезу речи выпуски, но не в более ранние.
Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Определяет, сколько речи доступно.
Объявление
Swift
func CountVoices(_numVoices: UnsafeMutablePointer<Int16>) -> OSErrObjective C
OSErr CountVoices ( SInt16 *numVoices );Параметры
numVoicesНа выходе, указателе на число речи, которую может использовать приложение.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
CountVoicesфункционируйте возвраты, вnumVoicesпараметр, число доступной речи. Приложение может тогда использовать эту информацию для вызоваGetIndVoiceфункция для получения речевых структур спецификации для один или больше речи.Каждый раз
CountVoicesвызывается, менеджер по Синтезу речи поиски новой речи.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Получает речевую структуру спецификации для речи путем передачи индекса
GetIndVoiceфункция.Объявление
Swift
func GetIndVoice(_index: Int16, _voice: UnsafeMutablePointer<VoiceSpec>) -> OSErrObjective C
OSErr GetIndVoice ( SInt16 index, VoiceSpec *voice );Параметры
indexИндекс речи, для которой можно получить речевую структуру спецификации. Это число должно расположиться от
1к общему количеству речи, как возвращеноCountVoicesфункция.voiceУказатель на речевую структуру спецификации, поля которой должны быть заполнены в.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
GetIndVoiceфункционируйте возвраты в речевой структуре спецификации, на которую указываютvoiceпараметр, спецификация речи, индекс которой предоставлен вindexпараметр. Ваше приложение не должно делать предположения о порядке, в котором индексируется речь.Ваше приложение не должно добавлять, удалять, или изменять речь и затем вызывать
GetIndVoiceфункция с индексом оценивает кроме1. Чтобы позволить менеджеру по Синтезу речи обновлять его информацию о речи, Ваше приложение должно всегда или вызыватьCountVoicesфункционируйте или вызовитеGetIndVoiceфункция с индексным значением1после добавления, удаления или изменения речи или через некоторое время в котором пользователь, возможно, сделал так.Если Вы указываете, что индекс оценивает вне числа доступной речи,
GetIndVoiceфункционируйте возвращает avoiceNotFoundошибка.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Получает описание речи при помощи
GetVoiceDescriptionфункция.Объявление
Swift
func GetVoiceDescription(_voice: UnsafePointer<VoiceSpec>, _info: UnsafeMutablePointer<VoiceDescription>, _infoLength: Int) -> OSErrObjective C
OSErr GetVoiceDescription ( const VoiceSpec *voice, VoiceDescription *info, long infoLength );Параметры
voiceУказатель на речевую структуру спецификации, идентифицирующую речь, которая будет описана, или
NULLполучить описание речи системного значения по умолчанию.infoУказатель на речевую структуру описания. Если этот параметр
NULL, функция не заполняет поля речевой структуры описания; вместо этого, это просто определяет лиvoiceпараметр указывает доступную речь и, в противном случае возвращает avoiceNotFoundошибка.infoLengthДлина, в байтах, речевой структуры описания. В текущей версии менеджера по Синтезу речи речевая структура описания содержит 362 байта. Однако необходимо всегда использовать
SizeOfфункция для определения длины этой структуры.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
GetVoiceDescriptionфункция заполняет речевую структуру описания, на которую указываютinfoпараметр с корректной информацией для речи, указаннойvoiceпараметр. Это заполняетlengthполе речевой структуры описания с числом байтов фактически скопировано. Это значение всегда будет меньше чем или равно значению, в котором передает Ваше приложениеinfoLengthперед вызовомGetVoiceDescription. Эта схема позволяет приложениям, предназначенным для текущей версии менеджера по Синтезу речи работать над будущими версиями, которые могли бы иметь более длинные речевые структуры описания; это также позволяет Вам писать код для будущих версий менеджера по Синтезу речи, который будет также работать на компьютерах, поддерживающих только текущую версию.Если речевая структура спецификации не идентифицирует доступную речь,
GetVoiceDescriptionвозвраты avoiceNotFoundошибка.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Получает ту же информацию о речи что
GetVoiceDescriptionфункция обеспечивает, или определить, в котором файле и снабжают речь ресурсами, сохранен.Объявление
Swift
func GetVoiceInfo(_voice: UnsafePointer<VoiceSpec>, _selector: OSType, _voiceInfo: UnsafeMutablePointer<Void>) -> OSErrObjective C
OSErr GetVoiceInfo ( const VoiceSpec *voice, OSType selector, void *voiceInfo );Параметры
voiceУказатель на речевую структуру спецификации, идентифицирующую речь, о которой Ваше приложение запрашивает информацию, или
NULLполучить информацию о речи системного значения по умолчанию.selectorСпецификация типа запрошенных данных. Для текущих версий менеджера по Синтезу речи необходимо установить это поле любой в
soVoiceDescription, если требуется использоватьGetVoiceInfoфункционируйте для имитацииGetVoiceDescriptionфункция, или кsoVoiceFile, если требуется получить информацию о расположении речи на диске.voiceInfoУказатель на надлежащую структуру данных. Если селектор
soVoiceDescription, тогдаvoiceInfoдолжен быть указатель на речевую структуру описания, иlengthполе структуры должно быть установлено в длину речевой структуры описания. Если селекторsoVoiceFile, тогдаvoiceInfoдолжен быть указатель на речевую информационную структуру файла.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
Эта функция предназначается прежде всего для использования синтезаторами, но приложение может вызвать его также.
GetVoiceInfoфункция принимает селектор вselectorпараметр, определяющий тип информации, которую Вы хотите получить о речи, указанной вvoiceпараметр. Функция тогда заполняет поля структуры данных, надлежащей селектору, который Вы указываете вvoiceInfoпараметр.Если речевая спецификация недопустима,
GetVoiceInfoвозвраты avoiceNotFoundошибка. Если существует недостаточно памяти для загрузки речи в память для получения информации об этом,GetVoiceInfoвозвращает код результатаmemFullErr.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Устанавливает поля речевой структуры спецификации.
Объявление
Swift
func MakeVoiceSpec(_creator: OSType, _id: OSType, _voice: UnsafeMutablePointer<VoiceSpec>) -> OSErrObjective C
OSErr MakeVoiceSpec ( OSType creator, OSType id, VoiceSpec *voice );Параметры
creatorID синтезатора, которого требует Ваше приложение.
idID речи на синтезаторе, указанном
creatorпараметр.voiceУказатель на речевую структуру спецификации, поля которой должны быть заполнены в.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
Речевая структура спецификации является уникальной речью ID, используемый менеджером по Синтезу речи. Большинство речевых функций управления ожидает быть переданным указатель на речевую структуру спецификации. Когда Вы уже знаете создателя и ID для речи, необходимо использовать
MakeVoiceSpecфункция для создания такой структуры вместо того, чтобы заполнить поля одного непосредственно. На выходе, речевая структура спецификации, на которую указываютvoiceпараметр содержит надлежащие значения. Вы никогда не должны устанавливать поля такой структуры непосредственно.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Речь резюме, приостановленная
PauseSpeechAtфункция.Объявление
Swift
func ContinueSpeech(_chan: SpeechChannel) -> OSErrObjective C
OSErr ContinueSpeech ( SpeechChannel chan );Параметры
chanПриостановленный речевой канал, на котором должна быть возобновлена речь.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
В любое время после
PauseSpeechAtфункция вызвана,ContinueSpeechфункция может быть вызвана, чтобы продолжать говорить с начала слова, в котором приостановилась речь. ВызовContinueSpeechна канале, который в настоящее время не находится в приостановленном состоянии, не имеет никакого эффекта на речевой канал или на будущие вызовы кPauseSpeechAtфункция. Если Вы вызываетеContinueSpeechна канале, прежде чем пауза является эффективной,ContinueSpeechотменяет паузу.Если
PauseSpeechAtфункционируйте остановил речь посреди слова, менеджер по Синтезу речи начнет произносить то слово с начала, когда Вы вызоветеContinueSpeech.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Речь пауз на речевом канале.
Объявление
Swift
func PauseSpeechAt(_chan: SpeechChannel, _whereToPause: Int32) -> OSErrObjective C
OSErr PauseSpeechAt ( SpeechChannel chan, SInt32 whereToPause );Параметры
chanРечевой канал, на котором должна быть приостановлена речь.
whereToPauseПостоянное указание, когда должна быть приостановлена обработка речи. Передайте константу
kImmediateприостановиться сразу, даже посреди слова. ПередачаkEndOfWordилиkEndOfSentenceк речи паузы в конце текущего слова или предложения, соответственно.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
PauseSpeechAtфункция делает паузу речеобразования в указанной точке в тексте.PauseSpeechAtвозвраты сразу, несмотря на то, что речевой вывод будет продолжаться до указанной точки.Можно определить, приостановило ли приложение речевой вывод на речевом канале путем получения речевой структуры информации о статусе через
GetSpeechInfoфункция. В то время как речевой канал приостанавливается, речевая структура информации о статусе указывает этоoutputBusyиoutputPausedобаTRUE.Если конец входного текстового буфера достигнут перед указанной точкой паузы, паузами речевого вывода в конце буфера.
PauseSpeechAtфункция отличается отStopSpeechиStopSpeechAtфункции в этом последующий вызов кContinueSpeech, описанный затем, заставляет содержание буфера текущего текста продолжать говориться.Если Вы планируете продолжать синтез речи от приостановленного речевого канала, текстовый обрабатываемый буфер должен остаться доступным в любом случае и не должен перемещаться, в то время как канал находится в приостановленном состоянии.
Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
SpeakBuffer SpeakBuffer(OS X v10.8)Говорит буфер текста, с помощью определенных флагов для управления речевым поведением.
Объявление
Objective C
OSErr SpeakBuffer ( SpeechChannel chan, const void *textBuf, unsigned long textBytes, SInt32 controlFlags );Параметры
chanРечевой канал, через который нужно говорить на речи.
textBufУказатель на первый байт текста к разговорному.
textBytesЧисло байтов текста к разговорному.
controlFlagsУправление отмечает для настройки речевого поведения.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
SpeakBufferфункция ведет себя тождественно кSpeakTextфункция, но позволяет управление нескольких речевых параметров путем установки значенийcontrolFlagsпараметр.controlFlagsпараметр полагается на определенные константы, которые могут быть применены аддитивным образом. Посмотрите Константы Флагов Управления.Каждая константа указывает флаговый бит
controlFlagsпараметр, таким образом, путем передачи констант аддитивным образом можно включить многократные возможностиSpeakBuffer. Если Вы передаете0вcontrolFlagsпараметр,SpeakBufferработы точно так же, какSpeakText. Путем передачиkNoEndingProsody + kNoSpeechInterruptвcontrolFlagsпараметр,SpeakBufferработы какSpeakTextза исключением того, чтоkNoEndingProsodyиkNoSpeechInterruptфункции были выбраны. Будущие версии менеджера по Синтезу речи могут определить дополнительные константы.Когда
controlFlagsпараметр устанавливается на0,SpeakBufferведет себя тождественно кSpeakText.Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
SpeakString SpeakString(OS X v10.8)Начинает говорить текстовую строку.
Объявление
Objective C
OSErr SpeakString ( ConstStr255Param textToBeSpoken );Параметры
textToBeSpokenСтрока, на которой будут говорить.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
SpeakStringфункционируйте пытается говорить текстовую строку стиля Паскаля, содержавшуюся в строкеtextToBeSpoken. Речь производится асинхронно с помощью системной речи по умолчанию. Когда приложение вызывает эту функцию, менеджер по Синтезу речи делает копию переданной строки и создает любые структуры, требуемые говорить ее. Как только разговор начался, управление возвращается к приложению. Синтезированная речь сгенерирована асинхронно к приложению так, чтобы нормальная обработка могла продолжаться, в то время как говорят на тексте. Никакое дальнейшее взаимодействие с менеджером по Синтезу речи не требуется в этой точке, и приложение является бесплатным выпустить память, которую заняла исходная строка.Если
SpeakStringвызывается, в то время как на предшествующей строке все еще говорят, звук, в настоящее время синтезируемый, сразу прерван. Преобразование нового текста в речь тогда начато. Если Вы передаете строку нулевой длины (или, в C, anullуказатель) кSpeakString, менеджер по Синтезу речи останавливает любую речь, ранее синтезируемуюSpeakStringне генерируя дополнительную речь. Если Ваше приложение используетSpeakString, это часто - хорошая идея остановить любую происходящую речь каждый раз, когда Ваше приложение получает приостановить событие. ВызовSpeakStringсо строкой нулевой длины не имеет никакого эффекта на речевые каналы кроме того, которым управляет внутренне менеджер по Синтезу речи поSpeakStringфункция.)Текст передал
SpeakStringфункция может содержать встроенные речевые команды.Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
Начинает говорить строку, представленную как a
CFStringобъект.Объявление
Swift
func SpeakCFString(_chan: SpeechChannel, _aString: CFString!, _options: CFDictionary!) -> OSErrObjective C
OSErr SpeakCFString ( SpeechChannel chan, CFStringRef aString, CFDictionaryRef options );Параметры
chanРечевой канал, через который нужно говорить на речи.
aStringСтрока, на которой будут говорить, представленный как a
CFStringобъект.optionsДополнительный словарь пар ключ/значение раньше настраивал речевое поведение. Посмотрите
“Synthesizer Option Keys”для доступных ключей.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
SpeakCFStringфункция является Базовым Основанным на основе эквивалентомSpeakBufferфункция.SpeakCFStringфункция преобразовывает текстовую строку, указанную вaStringв речь, с помощью речи и настроек управления в действительности для речевого канала, указанного вchan. (Перед использованиемSpeakCFString, поэтому, убедитесь, что Вы создали речевой канал сNewSpeechChannelфункция.)SpeakCFStringфункция генерирует речь асинхронно, что означает, что управление возвращается к Вашему приложению, прежде чем речь закончилась, возможно даже, прежде чем речь является сначала слышимой.Если
SpeakCFStringвызывается, в то время как речевой канал в настоящее время говорит содержание другой текстовой строки, речь сразу останавливается, и на новой текстовой строке говорят как можно скорее.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.5 и позже.
-
Начинает говорить буфер текста.
Объявление
Objective C
OSErr SpeakText ( SpeechChannel chan, const void *textBuf, unsigned long textBytes );Параметры
chanРечевой канал, через который нужно говорить на речи.
textBufУказатель на первый байт текста к разговорному.
textBytesЧисло байтов текста к разговорному.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
Как
SpeakString,SpeakTextфункция также генерирует речь, но через речевой канал, через который можно осуществить контроль над сгенерированной речью.SpeakTextфункция преобразовывает текстовый поток, указанныйtextBufиtextBytesпараметры в речь с помощью речи и настроек управления для речевого каналаchan, который должен быть создан сNewSpeechChannelфункция. Речь сгенерирована асинхронно. Это означает, что управление возвращается к Вашему приложению, прежде чем речь закончилась (и вероятно даже, прежде чем это началось). Максимальная длина текстового буфера, на котором можно говорить, ограничивается только доступным RAM.Если
SpeakTextвызывается, в то время как канал в настоящее время занят, говоря содержание предшествующего текстового буфера, он сразу прекращает говорить от предшествующего буфера и начинает говорить от нового текстового буфера как можно скорее. Если Вы передаете строку нулевой длины (или, в C, anullуказатель) кSpeakText, менеджер по Синтезу речи останавливает всю речь, в настоящее время синтезируемую речевым каналом, указанным вchanпараметр, не генерируя дополнительную речь.Текстовый буфер должен быть заблокирован в памяти и не должен перемещаться, в то время как менеджер по Синтезу речи обрабатывает его. Во время прерывания читается этот буфер, и перемещение его могло вызвать системный катастрофический отказ. Если Ваше приложение определяет сделанную текстом функцию обратного вызова, то оно может переместиться, текст буферизуют или избавляются от него, как только выполняется функция обратного вызова.
Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
Сразу завершает речь на указанном канале.
Объявление
Swift
func StopSpeech(_chan: SpeechChannel) -> OSErrObjective C
OSErr StopSpeech ( SpeechChannel chan );Параметры
chanРечевой канал, на котором должна быть остановлена речь.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
StopSpeechфункция сразу завершает речь на канале, указанномchanпараметр. После возврата изStopSpeech, Ваше приложение может безопасно выпустить любой текстовый буфер, который использовал синтезатор речи. Можно вызватьStopSpeechдля уже незанятого канала без вредного воздействия.Можно также остановить речь путем передачи строки нулевой длины (или, в C, a
nullуказатель) к одному изSpeakString,SpeakText, илиSpeakBufferфункции. Выполнение этого останавливает речь только в указанном речевом канале (или, в случаеSpeakString, в речевом канале, которым управляет внутренне менеджер по Синтезу речи).Прежде, чем вызвать
StopSpeechфункция, можно использоватьSpeechBusyфункция, описанная вSpeechBusy, определить, говорит ли все еще синтезатор. Если Вы работаете с многократными речевыми каналами, можно использовать селектор состояния с функциейGetSpeechInfoкоторый описан вGetSpeechInfo, определить, говорит ли все еще определенный канал.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Завершает речевую поставку на указанный канал или сразу или в конце текущего слова или предложения.
Объявление
Swift
func StopSpeechAt(_chan: SpeechChannel, _whereToStop: Int32) -> OSErrObjective C
OSErr StopSpeechAt ( SpeechChannel chan, SInt32 whereToStop );Параметры
chanРечевой канал, на котором должна быть остановлена речь.
whereToStopПостоянное указание, когда должна остановиться обработка речи. Передайте константу
kImmediateостановиться сразу, даже посреди слова. ПередачаkEndOfWordилиkEndOfSentenceостановить речь в конце текущего слова или предложения, соответственно.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
StopSpeechAtфункционируйте останавливает производство речи на канале, указанномchanв указанной точке в тексте. Эта функция сразу возвращается, несмотря на то, что речевой вывод продолжается, пока указанная точка не была достигнута.Если Вы вызываете
StopSpeechAtфункция перед менеджером по Синтезу речи заканчивает обрабатывать входной текст, тогда функция могла бы возвратиться, прежде чем на некотором входном тексте нужно все же говорить. Таким образом, перед избавлением от текстового буфера, Ваше приложение должно ожидать, пока его сделанную текстом функцию обратного вызова не вызвали (если Вы были определены), или пока это не может определить (например получая речевую структуру информации о статусе), что менеджер по Синтезу речи больше не обрабатывает входной текст.Если конец входного текстового буфера достигнут перед указанной точкой остановки, остановками синтезатора речи в конце буфера, не генерируя ошибку.
Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Регистры и делают доступным синтезатор речи или речь.
Объявление
Swift
func SpeechSynthesisRegisterModuleURL(_url: CFURL!) -> OSErrObjective C
OSErr SpeechSynthesisRegisterModuleURL ( CFURLRef url );Параметры
urlURL файла плагина синтезатора или речи для регистрации (отмечают, что плагин синтезатора или речь должны быть на смонтированном объеме, чтобы быть доступными для регистрации).
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
SpeechSynthesisRegisterModuleURLфункционируйте регистрирует синтезатор речи или речь, указаннуюurlи делает его доступным для обработки вызовов. Прежде чем речь синтезатора может быть зарегистрирована, синтезатор должен быть зарегистрирован (или загружен автоматически менеджером по Синтезу речи). Если Вы вызываетеSpeechSynthesisRegisterModuleURLдля регистрации речи и Вы получаете“incompatibleVoice”закончитесь код, вероятно, что должен быть зарегистрирован синтезатор, связанный с речью. Если Вы вызываете эту функцию для регистрации синтезатора или речи, уже зарегистрированной,SpeechSynthesisRegisterModuleURLничего не делает и возвращает ошибку.Зарегистрированный синтезатор или речь известны только приложению, зарегистрировавшему его. Поэтому каждое приложение должно вызвать
SpeechSynthesisRegisterModuleURLдаже если комплект работы приложений вместе и использует тот же синтезатор и речь, для регистрации синтезатора или речи, это использует.Вызвавшее приложение
SpeechSynthesisRegisterModuleURLесли объем, содержащий синтезатор или речь, собирается быть размонтированным, зарегистрировать синтезатор или речь должно сделать следующий:Вызвать
DisposeSpeechChannelизбавляться от каждого речевого канала, использующего синтезатор или речьВызвать
SpeechSynthesisUnregisterModuleURLне зарегистрировать синтезатор или речь
Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.6 и позже.
См. также
-
Не регистрирует зарегистрированный синтезатор речи или речь.
Объявление
Swift
func SpeechSynthesisUnregisterModuleURL(_url: CFURL!) -> OSErrObjective C
OSErr SpeechSynthesisUnregisterModuleURL ( CFURLRef url );Параметры
urlФайл URL плагина синтезатора или речи, чтобы не зарегистрироваться.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
SpeechSynthesisUnregisterModuleURLфункционируйте не регистрирует синтезатор речи или речь, указаннуюurl. Когда синтезатор не зарегистрирован, вся речь, требующая, чтобы синтезатор был автоматически не зарегистрирован.Обратите внимание на то, что, если речевой канал в настоящее время использует синтезатор или речь, становящуюся незарегистрированной, речевой канал считают неактивным и возвратит ошибку, когда приложение пытается получить доступ к нему.
Вызвавшее приложение
SpeechSynthesisRegisterModuleURLесли объем, содержащий синтезатор или речь, собирается быть размонтированным, зарегистрировать синтезатор или речь должно сделать следующий:Вызвать
DisposeSpeechChannelизбавляться от каждого речевого канала, использующего синтезатор или речьВызвать
SpeechSynthesisUnregisterModuleURLне зарегистрировать синтезатор или речь
Если Вы вызываете
SpeechSynthesisUnregisterModuleURLчтобы не зарегистрировать синтезатор или речь и Вы принимаете любого“noSynthFound”или“voiceNotFound”закончитесь коды, это означает, что в настоящее время не регистрируются синтезатор или речь.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.6 и позже.
См. также
-
DisposeSpeechDoneUPP DisposeSpeechDoneUPP(OS X v10.8)Избавляется от универсального указателя процедуры (UPP) к сделанной речью функции обратного вызова.
Объявление
Objective C
void DisposeSpeechDoneUPP ( SpeechDoneUPP userUPP );Параметры
userUPPUPP для избавления.
Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
DisposeSpeechErrorUPP DisposeSpeechErrorUPP(OS X v10.8)Избавляется от универсального указателя процедуры (UPP) к ошибочной функции обратного вызова.
Объявление
Objective C
void DisposeSpeechErrorUPP ( SpeechErrorUPP userUPP );Параметры
userUPPUPP для избавления.
Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
DisposeSpeechPhonemeUPP DisposeSpeechPhonemeUPP(OS X v10.8)Избавляется от универсального указателя процедуры (UPP) к функции обратного вызова фонемы.
Объявление
Objective C
void DisposeSpeechPhonemeUPP ( SpeechPhonemeUPP userUPP );Параметры
userUPPUPP для избавления.
Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
DisposeSpeechSyncUPP DisposeSpeechSyncUPP(OS X v10.8)Избавляется от универсального указателя процедуры (UPP) к функции обратного вызова синхронизации.
Объявление
Objective C
void DisposeSpeechSyncUPP ( SpeechSyncUPP userUPP );Параметры
userUPPUPP для избавления.
Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
DisposeSpeechTextDoneUPP DisposeSpeechTextDoneUPP(OS X v10.8)Избавляется от универсального указателя процедуры (UPP) к сделанной текстом функции обратного вызова.
Объявление
Objective C
void DisposeSpeechTextDoneUPP ( SpeechTextDoneUPP userUPP );Параметры
userUPPUPP для избавления.
Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
DisposeSpeechWordUPP DisposeSpeechWordUPP(OS X v10.8)Избавляется от универсального указателя процедуры (UPP) к функции обратного вызова слова.
Объявление
Objective C
void DisposeSpeechWordUPP ( SpeechWordUPP userUPP );Параметры
userUPPUPP для избавления.
Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
InvokeSpeechDoneUPP InvokeSpeechDoneUPP(OS X v10.8)Вызывает Вашу сделанную речью функцию обратного вызова.
Объявление
Objective C
void InvokeSpeechDoneUPP ( SpeechChannel chan, SRefCon refCon, SpeechDoneUPP userUPP );Обсуждение
Вы не должны должны быть вызывать
InvokeSpeechDoneUPPфункция, потому что системные вызовы Ваша сделанная речью функция обратного вызова для Вас.Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
InvokeSpeechErrorUPP InvokeSpeechErrorUPP(OS X v10.8)Вызывает Вашу ошибочную функцию обратного вызова.
Объявление
Objective C
void InvokeSpeechErrorUPP ( SpeechChannel chan, SRefCon refCon, OSErr theError, long bytePos, SpeechErrorUPP userUPP );Обсуждение
Вы не должны должны быть вызывать
InvokeSpeechErrorUPPфункция, потому что системные вызовы Ваша ошибочная функция обратного вызова для Вас.Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
InvokeSpeechPhonemeUPP InvokeSpeechPhonemeUPP(OS X v10.8)Вызывает Вашу функцию обратного вызова фонемы.
Объявление
Objective C
void InvokeSpeechPhonemeUPP ( SpeechChannel chan, SRefCon refCon, SInt16 phonemeOpcode, SpeechPhonemeUPP userUPP );Обсуждение
Вы не должны должны быть вызывать
InvokeSpeechPhonemeUPPфункция, потому что системные вызовы Ваша функция обратного вызова фонемы для Вас.Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
InvokeSpeechSyncUPP InvokeSpeechSyncUPP(OS X v10.8)Вызывает Вашу функцию обратного вызова синхронизации.
Объявление
Objective C
void InvokeSpeechSyncUPP ( SpeechChannel chan, SRefCon refCon, OSType syncMessage, SpeechSyncUPP userUPP );Обсуждение
Вы не должны должны быть вызывать
InvokeSpeechSyncUPPфункция, потому что системные вызовы Ваша функция обратного вызова синхронизации для Вас.Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
InvokeSpeechTextDoneUPP InvokeSpeechTextDoneUPP(OS X v10.8)Вызывает Вашу сделанную текстом функцию обратного вызова.
Объявление
Objective C
void InvokeSpeechTextDoneUPP ( SpeechChannel chan, SRefCon refCon, const void **nextBuf, unsigned long *byteLen, SInt32 *controlFlags, SpeechTextDoneUPP userUPP );Обсуждение
Вы не должны должны быть вызывать
InvokeSpeechTextDoneUPPфункция, потому что системные вызовы Ваша сделанная текстом функция обратного вызова для Вас.Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
InvokeSpeechWordUPP InvokeSpeechWordUPP(OS X v10.8)Вызывает Вашу функцию обратного вызова слова.
Объявление
Objective C
void InvokeSpeechWordUPP ( SpeechChannel chan, SRefCon refCon, unsigned long wordPos, UInt16 wordLen, SpeechWordUPP userUPP );Обсуждение
Вы не должны должны быть вызывать
InvokeSpeechWordUPPфункция, потому что системные вызовы Ваша функция обратного вызова слова для Вас.Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
NewSpeechDoneUPP NewSpeechDoneUPP(OS X v10.8)Создает новый универсальный указатель процедуры (UPP) к сделанной речью функции обратного вызова.
Объявление
Objective C
SpeechDoneUPP NewSpeechDoneUPP ( SpeechDoneProcPtr userRoutine );Параметры
userRoutineУказатель на Вашу сделанную речью функцию обратного вызова.
Возвращаемое значение
UPP к сделанной речью функции обратного вызова. См. описание
SpeechDoneUPPтип данных.Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
NewSpeechErrorUPP NewSpeechErrorUPP(OS X v10.8)Создает новый универсальный указатель процедуры на ошибочную функцию обратного вызова.
Объявление
Objective C
SpeechErrorUPP NewSpeechErrorUPP ( SpeechErrorProcPtr userRoutine );Параметры
userRoutineУказатель на Вашу ошибочную функцию обратного вызова.
Возвращаемое значение
UPP к ошибочной функции обратного вызова. См. описание
SpeechErrorUPPтип данных.Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
NewSpeechPhonemeUPP NewSpeechPhonemeUPP(OS X v10.8)Избавляется от универсального указателя процедуры (UPP) к функции обратного вызова фонемы.
Объявление
Objective C
SpeechPhonemeUPP NewSpeechPhonemeUPP ( SpeechPhonemeProcPtr userRoutine );Параметры
userRoutineУказатель на Вашу функцию обратного вызова фонемы.
Возвращаемое значение
UPP к функции обратного вызова фонемы. См. описание
SpeechPhonemeUPPтип данных.Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
NewSpeechSyncUPP NewSpeechSyncUPP(OS X v10.8)Создает новый универсальный указатель процедуры (UPP) к функции обратного вызова синхронизации.
Объявление
Objective C
SpeechSyncUPP NewSpeechSyncUPP ( SpeechSyncProcPtr userRoutine );Параметры
userRoutineУказатель на Вашу функцию обратного вызова синхронизации.
Возвращаемое значение
UPP к функции обратного вызова синхронизации. См. описание
SpeechSyncUPPтип данных.Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
NewSpeechTextDoneUPP NewSpeechTextDoneUPP(OS X v10.8)Создает новый универсальный указатель процедуры (UPP) к сделанной текстом функции обратного вызова.
Объявление
Objective C
SpeechTextDoneUPP NewSpeechTextDoneUPP ( SpeechTextDoneProcPtr userRoutine );Параметры
userRoutineУказатель на Вашу сделанную текстом функцию обратного вызова.
Возвращаемое значение
UPP к сделанной текстом функции обратного вызова. См. описание
SpeechTextDoneUPPтип данных.Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
NewSpeechWordUPP NewSpeechWordUPP(OS X v10.8)Создает новый универсальный указатель процедуры (UPP) к функции обратного вызова слова.
Объявление
Objective C
SpeechWordUPP NewSpeechWordUPP ( SpeechWordProcPtr userRoutine );Параметры
userRoutineУказатель на Вашу функцию обратного вызова слова.
Возвращаемое значение
UPP к функции обратного вызова слова. См. описание
SpeechWordUPPтип данных.Оператор импорта
Objective C
@import ApplicationServices;Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
Определяет указатель на сделанную речью функцию обратного вызова, которую вызывают, когда менеджер по Синтезу речи заканчивает говорить буфер текста.
Объявление
Swift
typealias SpeechDoneProcPtr = CFunctionPointer<((SpeechChannel, SRefCon) -> Void)>Objective C
typedef void (*SpeechDoneProcPtr) ( SpeechChannel chan, SRefCon refCon );Параметры
chanРечевой канал, закончивший обрабатывать входной текст.
refConСсылочная константа связалась с речевым каналом.
Обсуждение
Если сделанная речью функция обратного вызова установлена в речевом канале, то Вызовы диспетчера Синтеза речи эта функция, когда это заканчивает говорить буфер текста.
Можно указать сделанную речью функцию обратного вызова путем передачи
soSpeechDoneCallBackселектор кSetSpeechInfoфункция.Вы могли бы использовать сделанную речью функцию обратного вызова, если необходимо обновить некоторый визуальный индикатор, показывающий, на каком тексте в настоящее время говорят. Например, предположите, что Ваше приложение передает текстовые буферы менеджеру по Синтезу речи один абзац за один раз. Ваша сделанная речью функция обратного вызова могла бы установить глобальную переменную флага, чтобы указать к приложению, что менеджер по Синтезу речи закончил говорить абзац. Когда функция, вызванная основным циклом событий Вашего приложения, проверяет глобальную переменную флага и решает, что это было установлено, функция могла бы гарантировать, что следующий абзац текста видим.
Вы могли бы использовать сделанную речью функцию обратного вызова для установки переменной флага, предупреждающей приложение, что это должно передать новый буфер текста менеджеру по Синтезу речи. Если Вы делаете так, однако, могла бы быть значимая пауза, поскольку менеджер по Синтезу речи переключается от обработки одного текстового буфера другому. Обычно, проще достигнуть этой цели при помощи сделанной текстом функции обратного вызова, как описано ранее.
Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Определяет указатель на ошибочную функцию обратного вызова, обрабатывающую синтаксические ошибки в командах, встроенных в текстовый буфер, обрабатываемый менеджером по Синтезу речи.
Объявление
Swift
typealias SpeechErrorProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, OSErr, Int) -> Void)>Objective C
typedef void (*SpeechErrorProcPtr) ( SpeechChannel chan, SRefCon refCon, OSErr theError, long bytePos );Параметры
chanРечевой канал, закончивший обрабатывать входной текст.
refConСсылочная константа связалась с речевым каналом.
theErrorОшибка, произошедшая в обработке встроенной команды.
bytePosЧисло байтов с начала текстового буфера, на котором говорят с ошибкой, встретилось.
Обсуждение
Вызовы диспетчера Синтеза речи ошибочная функция обратного вызова речевого канала каждый раз, когда это встречается с синтаксической ошибкой в команде, встроенной в текстовый буфер, это обрабатывает. Это может быть полезно во время отладки приложения, для обнаружения проблем с командами, которые Вы встроили в текстовые буферы, которые говорит Ваше приложение. Если Ваше приложение позволяет пользователям встраивать команды в текстовых буферах, может также быть полезно. Ваше приложение могло бы вывести на экран предупреждение, указывающее, что менеджер по Синтезу речи встретился с проблемой в обработке встроенной команды.
Обычно, информация об ошибке, что менеджер по Синтезу речи обеспечивает ошибочную функцию обратного вызова, должна быть достаточной. Однако, если для Вашего приложения нужна информация об ошибках, произошедших, прежде чем ошибочная функция обратного вызова была включена, приложение (включая ошибочную функцию обратного вызова) может вызвать
GetSpeechInfoфункция сsoErrorsселектор.Можно указать ошибочную функцию обратного вызова путем передачи
soErrorCallBackселектор кSetSpeechInfoфункция.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Определяет указатель на ошибочную функцию обратного вызова, обрабатывающую синтаксические ошибки в командах, встроенных в a
CFStringобъект, обрабатываемый менеджером по Синтезу речи.Объявление
Swift
typealias SpeechErrorCFProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, CFError!) -> Void)>Objective C
typedef void (*SpeechErrorCFProcPtr) ( SpeechChannel chan, SRefCon refCon, CFErrorRef theError );Параметры
chanРечевой канал, закончивший обрабатывать входной текст.
refConСсылочная константа связалась с речевым каналом.
theErrorОшибка, произошедшая в обработке встроенной команды.
Обсуждение
Ошибочная функция обратного вызова, определенная
SpeechErrorCFProcPtrБазовый Основанный на основе эквивалент ошибочной функции обратного вызова, определеннойSpeechErrorProcPtr. Вызовы диспетчера Синтеза речи ошибочная функция обратного вызова речевого канала каждый раз, когда это встречается с синтаксической ошибкой в команде, встроенной в aCFStringобъект это обрабатывает. Это может быть полезно во время отладки приложения, для обнаружения проблем с командами, которые Вы встроили в строки, которые говорит Ваше приложение. Если Ваше приложение позволяет пользователям встраивать команды в строках, может также быть полезно. Ваше приложение могло бы вывести на экран предупреждение, указывающее, что менеджер по Синтезу речи встретился с проблемой в обработке встроенной команды.Обычно, информация об ошибке, что менеджер по Синтезу речи обеспечивает ошибочную функцию обратного вызова, должна быть достаточной. Однако, если для Вашего приложения нужна информация об ошибках, произошедших, прежде чем ошибочная функция обратного вызова была включена, приложение (включая ошибочную функцию обратного вызова) может вызвать
CopySpeechPropertyфункция сkSpeechErrorsPropertyсвойство.Можно указать ошибочную функцию обратного вызова путем передачи
kSpeechErrorCFCallbackсвойство кSetSpeechPropertyфункция.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.5 и позже.
-
Определяет указатель на функцию обратного вызова фонемы, которую вызывает менеджер по Синтезу речи, прежде чем это объявит фонему.
Объявление
Swift
typealias SpeechPhonemeProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, Int16) -> Void)>Objective C
typedef void (*SpeechPhonemeProcPtr) ( SpeechChannel chan, SRefCon refCon, short phonemeOpcode );Параметры
chanРечевой канал, закончивший обрабатывать входной текст.
refConСсылочная константа связалась с речевым каналом.
phonemeOpcodeФонема, собирающаяся быть объявленным.
Обсуждение
Вызовы диспетчера Синтеза речи функция обратного вызова фонемы речевого канала непосредственно перед тем, как это объявляет фонему. Например, Ваше приложение могло бы использовать такую функцию обратного вызова для включения синхронизации рта. В этом случае функция обратного вызова установила бы глобальную переменную флага, чтобы указать, что объявляемая фонема изменяется и другая глобальная переменная на
phonemeOpcode. Функция, вызванная основным циклом событий Вашего приложения, могла обнаружить, что объявляемая фонема изменяется, и обновите изображение рта для отражения текущей фонемы. На практике обеспечение визуальной индикации относительно произношения фонемы требует, чтобы несколько последовательных изображений перемещения рта были быстро выведены на экран. Консультируйтесь с литературой лингвистики для получения информации о перемещениях рта, связанных с различными фонемами.Можно указать функцию обратного вызова фонемы путем передачи
soPhonemeCallBackселектор кSetSpeechInfoфункция.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Определяет указатель на функцию обратного вызова синхронизации, которую вызывают, когда менеджер по Синтезу речи встречается с командой синхронизации, встроенной в текстовый буфер.
Объявление
Swift
typealias SpeechSyncProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, OSType) -> Void)>Objective C
typedef void (*SpeechSyncProcPtr) ( SpeechChannel chan, SRefCon refCon, OSType syncMessage );Параметры
chanРечевой канал, закончивший обрабатывать входной текст.
refConСсылочная константа связалась с речевым каналом.
syncMessageСообщение синхронизации передается во встроенной команде. Обычно, Вы используете это сообщение для различения несколько различных типов команд синхронизации, но можно использовать его любой способ, которым Вы желаете.
Обсуждение
Вызовы диспетчера Синтеза речи функция обратного вызова синхронизации речевого канала каждый раз, когда это встречается с командой синхронизации, встроенной в текстовый буфер. Вы могли бы использовать функцию обратного вызова синхронизации для обеспечения обратного вызова, не обычно предоставленного. Например, Вы могли бы вставить команды синхронизации в конце каждого предложения в текстовом буфере, или Вы могли бы ввести команды синхронизации после каждого числового значения в тексте. Однако для синхронизации приложения с фонемами или словами имеет больше смысла использовать встроенную фонему и функции обратного вызова слова, определенные в
SpeechPhonemeProcPtr.Можно указать функцию обратного вызова синхронизации путем передачи
soSyncCallBackселектор кSetSpeechInfoфункция и встраивание команды синхронизации в текстовом буфере передалиSpeakTextилиSpeakBufferфункция.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Определяет указатель на сделанную текстом функцию обратного вызова, которую вызывают, когда менеджер по Синтезу речи закончил обрабатывать буфер текста.
Объявление
Swift
typealias SpeechTextDoneProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, UnsafeMutablePointer<UnsafePointer<Void>>, UnsafeMutablePointer<UInt>, UnsafeMutablePointer<Int32>) -> Void)>Objective C
typedef void (*SpeechTextDoneProcPtr) ( SpeechChannel chan, SRefCon refCon, void ** nextBuf, unsigned long * byteLen, long * controlFlags );Параметры
chanРечевой канал, закончивший обрабатывать входной текст.
refConСсылочная константа связалась с речевым каналом.
nextBufПо возврату, указателю на следующий буфер текста, который обработает или
NULLесли Ваше приложение не имеет никакого дополнительного текста, на котором будут говорить. Этот параметр главным образом для внутреннего использования менеджером по Синтезу речи.byteLenПо возврату, указателю на число байтов текстового буфера, на который указывают
nextBufпараметр.controlFlagsПо возврату указатель на управление отмечает, чтобы использоваться в генерации следующего буфера текста.
Обсуждение
Если сделанная текстом функция обратного вызова установлена в речевом канале, то Вызовы диспетчера Синтеза речи эта функция, когда это заканчивает обрабатывать буфер текста. Менеджер по Синтезу речи еще, возможно, не завершил окончание, говоря текст и действительно, возможно, не начал говорить его.
Можно указать сделанную текстом функцию обратного вызова путем передачи
soTextDoneCallBackселектор кSetSpeechInfoфункция.Общее использование сделанной текстом функции обратного вызова должно предупредить Ваше приложение, как только текст передал
SpeakTextилиSpeakBufferот функции можно избавиться (или, когда текст содержится в заблокированном перемещаемом блоке, когда перемещаемый блок может быть разблокирован). Менеджер по Синтезу речи копирует текст, который Вы передаетеSpeakTextилиSpeakBufferфункция во внутренний буфер. Как только это закончило обрабатывать текст, можно избавиться от буфера оригинального текста, даже если речь еще не завершена. Однако, если Вы хотите записать функцию обратного вызова, выполняющуюся, когда речь завершается, см. определение сделанной речью функции обратного вызова ниже.Несмотря на то, что большинство приложений не должно будет, Ваша функция обратного вызова может указать менеджеру по Синтезу речи, существует ли другой буфер текста для разговора. Если существует другой буфер, Ваша функция обратного вызова должна сослаться на него путем установки
nextBufиbyteLenпараметры к надлежащим значениям. (Ваша функция обратного вызова могла бы также изменить флаги управления, которые будут использоваться для обработки речи путем изменения значения вcontrolFlagsпараметр.) Устанавливающий эти параметры позволяет менеджеру по Синтезу речи генерировать непрерывную речь. Если больше нет текста для разговора, функция обратного вызова должна установитьnextBufкNULL. В этом случае менеджер по Синтезу речи игнорируетbyteLenиcontrolFlagsпараметры.Если Ваша сделанная текстом функция обратного вызова не изменяет значения
nextBufиbyteLenпараметры, на текстовом буфере, просто разговорном, будут говорить снова.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Определяет указатель на функцию обратного вызова слова, которую вызывает менеджер по Синтезу речи, прежде чем это произнесет слово.
Объявление
Swift
typealias SpeechWordProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, UInt, UInt16) -> Void)>Objective C
typedef void (*SpeechWordProcPtr) ( SpeechChannel chan, SRefCon refCon, unsigned long wordPos, unsigned short wordLen );Параметры
chanРечевой канал, закончивший обрабатывать входной текст.
refConСсылочная константа связалась с речевым каналом.
wordPosЧисло байтов между началом текстового буфера и начало слова, собирающегося быть объявленным.
wordLenДлина в байтах слова, собирающегося быть объявленным.
Обсуждение
Вызовы диспетчера Синтеза речи функция обратного вызова слова речевого канала непосредственно перед тем, как это произносит слово. Вы могли бы использовать такую функцию обратного вызова, например, для рисования слова, собирающегося говориться в окне. В этом случае функция обратного вызова установила бы глобальную переменную флага, чтобы указать, что произнесенное слово изменяется и еще две глобальные переменные на
wordPosиwordLen. Функция, вызванная основным циклом событий Вашего приложения, могла обнаружить, что произнесенное слово изменяется, и нарисуйте слово в окне.Можно указать функцию обратного вызова слова путем передачи
soWordCallBackселектор кSetSpeechInfoфункция.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Определяет указатель на Базовую Основанную на основе функцию обратного вызова слова, которую вызывает менеджер по Синтезу речи, прежде чем это произнесет слово.
Объявление
Swift
typealias SpeechWordCFProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, CFString!, CFRange) -> Void)>Objective C
typedef void (*SpeechWordCFProcPtr) ( SpeechChannel chan, SRefCon refCon, CFStringRef aString, CFRange wordRange );Параметры
chanРечевой канал, закончивший обрабатывать входной текст.
refConСсылочная константа связалась с речевым каналом.
aStringСтрока, содержащая оригинальный текст, передала синтезатору речи в
SpeakCFStringвызвать.wordRangeДиапазон символов в
aStringэто соответствует слову.Обсуждение
Функция обратного вызова слова, определенная
SpeechWordCFProcPtrБазовый Основанный на основе эквивалент функции обратного вызова слова, определеннойSpeechWordProcPtr. Вызовы диспетчера Синтеза речи функция обратного вызова слова речевого канала непосредственно перед тем, как это произносит слово. Вы могли бы использовать такую функцию обратного вызова, например, для выделения слова, собирающегося говориться в окне.Можно указать функцию обратного вызова слова путем передачи
kSpeechWordCFCallBackсвойство кSetSpeechPropertyфункция.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.5 и позже.
-
Определяет информационную структуру разделителя.
Объявление
Swift
struct DelimiterInfo { var startDelimiter: (Byte, Byte) var endDelimiter: (Byte, Byte) }Objective C
struct DelimiterInfo { Byte startDelimiter[2]; Byte endDelimiter[2]; }; typedef struct DelimiterInfo DelimiterInfo;Поля
startDelimiterНачальный ограничитель для встроенной команды. По умолчанию начальный ограничитель “
[[”.endDelimiterКонечный ограничитель для встроенной команды. По умолчанию конечный ограничитель “
]]”.Обсуждение
Информационная структура разделителя определяет символы, используемые для указания начала и конца команды, встроенной в текст. Разделитель может быть одним или двумя символами.
Обычно, приложения, поддерживающие встроенные речевые команды, не должны изменять запуск или конечные ограничители. Однако, если по некоторым причинам необходимо изменить разделители, можно использовать
SetSpeechInfoфункция сsoCommandDelimiterселектор. Например, если текстовый буфер естественно включает строки разделителя, Вы могли бы сделать это. Прежде, чем передать такой буфер менеджеру по Синтезу речи, можно изменить строки разделителя на некоторые две последовательности символов, не используемые в буфере, и затем возвратить строки разделителя, как только обработка буфера завершена.Если однобайтовый разделитель желаем, он должен сопровождаться a
NULL(0) байт. Если разделитель представляет в виде строки, оба состоят из дваNULLбайты, встроенная обработка команды отключена.Доступность
Доступный в OS X v10.0 и позже.
-
Определяет структуру дескриптора фонемы.
Объявление
Swift
struct PhonemeDescriptor { var phonemeCount: Int16 var thePhonemes: (PhonemeInfo) }Objective C
struct PhonemeDescriptor { SInt16 phonemeCount; PhonemeInfo thePhonemes[1]; }; typedef struct PhonemeDescriptor PhonemeDescriptor;Поля
phonemeCountЧисло фонем, которые определяет текущий синтезатор. Как правило, это будет соответствовать числу фонем на языке, поддерживаемом синтезатором.
thePhonemesМассив информационных структур фонемы.
Обсуждение
Путем вызова
GetSpeechInfoфункция сsoPhonemeSymbolsселектор, можно получить структуру дескриптора фонемы, описывающую все фонемы, определенные для текущего синтезатора.Общее использование для структуры дескриптора фонемы должно предоставить графический дисплей пользователю всех доступных фонем. Такой список используется только для пользователя, вводящего фонематические данные непосредственно вместо того, чтобы просто ввести текст.
Доступность
Доступный в OS X v10.0 и позже.
-
Определяет структуру, хранящую информацию о фонеме.
Объявление
Swift
struct PhonemeInfo { var opcode: Int16 var phStr: Str15 var exampleStr: Str31 var hiliteStart: Int16 var hiliteEnd: Int16 }Objective C
struct PhonemeInfo { SInt16 opcode; Str15 phStr; Str31 exampleStr; SInt16 hiliteStart; SInt16 hiliteEnd; }; typedef struct PhonemeInfo PhonemeInfo;Поля
opcodeКод операции для фонемы.
phStrСтрока раньше представляла фонему. Строка не обязательно имеет фонетическое соединение с фонемой, но могла бы просто быть абстрактным текстовым представлением ее.
exampleStrСлово в качестве примера, иллюстрирующее использование фонемы.
hiliteStartЧисло символов в слове в качестве примера, предшествующих части того слова, представляющего фонему.
hiliteEndЧисло символов между началом слова в качестве примера и концом части того слова, представляющего фонему.
Обсуждение
Обычно, Вы используете информационную структуру фонемы, чтобы показать пользователю, как ввести текст для представления определенной фонемы когда
'PHON'режим ввода активируется.Вы могли бы использовать информацию, содержавшуюся в
hiliteStartиhiliteEndполя для выделения символов в слове в качестве примера, представляющих фонему.Для получения информационной структуры фонемы для отдельной фонемы необходимо получить список фонем через структуру дескриптора фонемы.
Доступность
Доступный в OS X v10.0 и позже.
-
Представляет речевой канал.
Объявление
Swift
struct SpeechChannelRecord { var data: (Int) }Objective C
struct SpeechChannelRecord { long data[1]; }; typedef struct SpeechChannelRecord SpeechChannelRecord;Доступность
Доступный в OS X v10.0 и позже.
-
Определяет указатель на запись речевого канала.
Объявление
Swift
typealias SpeechChannel = UnsafeMutablePointer<SpeechChannelRecord>Objective C
typedef SpeechChannelRecord * SpeechChannel;Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Определяет универсальный указатель процедуры (UPP) к сделанной речью функции обратного вызова.
Объявление
Swift
typealias SpeechDoneUPP = SpeechDoneProcPtrObjective C
typedef SpeechDoneProcPtr SpeechDoneUPP;Обсуждение
Для получения дополнительной информации см. описание
SpeechDoneProcPtrфункция обратного вызова.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Определяет речевую ошибочную информационную структуру.
Объявление
Swift
struct SpeechErrorInfo { var count: Int16 var oldest: OSErr var oldPos: Int var newest: OSErr var newPos: Int }Objective C
struct SpeechErrorInfo { SInt16 count; OSErr oldest; long oldPos; OSErr newest; long newPos; }; typedef struct SpeechErrorInfo SpeechErrorInfo;Поля
countЧисло ошибок, произошедших в обработке буфера текущего текста начиная с последней возможности к
GetSpeechInfoфункция сsoErrorsселектор. Из этих ошибок можно найти информацию о только произошедшей первой и последней ошибке.oldestКод ошибки первой ошибки, произошедшей после предыдущего вызова с
GetSpeechInfoфункция сsoErrorsселектор.oldPosПозиция символа в текстовом буфере, обрабатываемом первой ошибки, произошедшей после предыдущего вызова с
GetSpeechInfoфункция сsoErrorsселектор.newestКод ошибки новой ошибки.
newPosПозиция символа в текстовом буфере, обрабатываемом новой ошибки.
Обсуждение
Путем вызова
GetSpeechInfoфункция сsoErrorsселектор, можно получить речевую ошибочную информационную структуру, показывающую, какой менеджер по Синтезу речи ошибки произошли при обработке текстового буфера на данном речевом канале.Речевые ошибочные информационные структуры никогда не включают ошибки, возвращающиеся менеджером по Синтезу речи функции. Вместо этого они отражают только ошибки, с которыми встречаются непосредственно в обработке текста, и, в частности в обработке команд, встроенных в тексте.
Речевая ошибочная информационная структура отслеживает только новую ошибку и первую ошибку, произошедшую после предыдущего вызова с
GetSpeechInfoфункция сsoErrorsселектор. Если Ваше приложение должно отслеживать все ошибки, то необходимо установить ошибочную функцию обратного вызова,SpeechErrorProcPtr.Доступность
Доступный в OS X v10.0 и позже.
-
Определяет универсальный указатель процедуры (UPP) к ошибочной функции обратного вызова.
Объявление
Swift
typealias SpeechErrorUPP = SpeechErrorProcPtrObjective C
typedef SpeechErrorProcPtr SpeechErrorUPP;Обсуждение
Для получения дополнительной информации см. описание
SpeechErrorProcPtrфункция обратного вызова.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Определяет универсальный указатель процедуры (UPP) к функции обратного вызова фонемы.
Объявление
Swift
typealias SpeechPhonemeUPP = SpeechPhonemeProcPtrObjective C
typedef SpeechPhonemeProcPtr SpeechPhonemeUPP;Обсуждение
Для получения дополнительной информации см. описание
SpeechPhonemeProcPtrфункция обратного вызова.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Определяет речевую структуру информации о статусе, хранящую информацию о состоянии речевого канала.
Объявление
Swift
struct SpeechStatusInfo { var outputBusy: Boolean var outputPaused: Boolean var inputBytesLeft: Int var phonemeCode: Int16 }Objective C
struct SpeechStatusInfo { Boolean outputBusy; Boolean outputPaused; long inputBytesLeft; SInt16 phonemeCode; }; typedef struct SpeechStatusInfo SpeechStatusInfo;Поля
outputBusyПроизводит ли речевой канал в настоящее время речь. Когда никакие аудиоданные не производятся через динамик Macintosh, речевой канал считается, производя речь даже в несколько раз. Это происходит, например, когда менеджер по Синтезу речи обрабатывает входной буфер, но еще не инициировал речь или когда приостанавливается речевой вывод.
outputPausedБыл ли речевой вывод в речевом канале приостановлен вызовом к
PauseSpeechAtфункция.inputBytesLeftЧисло входных байтов текста, который должен все еще обработать речевой канал. Когда
inputBytesLeft0, буфер входного текста передал одному изSpeakTextилиSpeakBufferот функций можно избавиться. Когда Вы вызываетеSpeakStringфункция, менеджер по Синтезу речи хранит копию строки, на которой будут говорить во внутреннем буфере; таким образом можно сразу удалить исходную строку после вызоваSpeakString.phonemeCodeКод операции для фонемы, которую в настоящее время обрабатывает речевой канал.
Обсуждение
Путем вызова
GetSpeechInfoфункция сsoStatusселектор, можно узнать информацию о состоянии речевого канала.Доступность
Доступный в OS X v10.0 и позже.
-
Определяет универсальный указатель процедуры (UPP) к функции обратного вызова синхронизации.
Объявление
Swift
typealias SpeechSyncUPP = SpeechSyncProcPtrObjective C
typedef SpeechSyncProcPtr SpeechSyncUPP;Обсуждение
Для получения дополнительной информации см. описание
SpeechSyncProcPtrфункция обратного вызова.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Определяет универсальный указатель процедуры (UPP) к сделанной текстом функции обратного вызова.
Объявление
Swift
typealias SpeechTextDoneUPP = SpeechTextDoneProcPtrObjective C
typedef SpeechTextDoneProcPtr SpeechTextDoneUPP;Обсуждение
Для получения дополнительной информации см. описание
SpeechTextDoneProcPtrфункция обратного вызова.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Определяет речевую структуру информации о версии.
Объявление
Swift
struct SpeechVersionInfo { var synthType: OSType var synthSubType: OSType var synthManufacturer: OSType var synthFlags: Int32 var synthVersion: NumVersion }Objective C
struct SpeechVersionInfo { OSType synthType; OSType synthSubType; OSType synthManufacturer; SInt32 synthFlags; NumVersion synthVersion; }; typedef struct SpeechVersionInfo SpeechVersionInfo;Поля
synthTypeОбщий тип синтезатора. Для текущей версии менеджера по Синтезу речи это поле всегда содержит значение
kTextToSpeechSynthType, указание, что синтезатор преобразовывает текст в речь.synthSubTypeОпределенный тип синтезатора. В настоящее время никакие определенные типы синтезатора не определяются. При определении нового типа синтезатора необходимо зарегистрировать четыре кода символа для типа с Технической поддержкой Разработчика.
synthManufacturerУникальная идентификация механизма синтезатора. Если Вы разрабатываете синтезаторы, то необходимо зарегистрировать различный четыре кода символа для каждого синтезатора, который Вы разрабатываете с Технической поддержкой Разработчика.
creatorIDполе речевой структуры спецификации иsynthCreatorполе речевой структуры данных расширения должно каждый быть установлено в значение, сохраненное в этом поле для желаемого синтезатора.synthFlagsРяд отмечает указывающий, какие опции синтезатора активированы. Определенные константы определяют биты в этом поле, значения которого определяются для всех синтезаторов.
synthVersionНомер версии синтезатора.
Обсуждение
Путем вызова
GetSpeechInfoфункция сsoSynthTypeселектор, можно получить речевую структуру информации о версии, предоставляющую информацию о синтезаторе речи, в настоящее время используясь.Доступность
Доступный в OS X v10.0 и позже.
-
Определяет универсальный указатель процедуры (UPP) к функции обратного вызова слова.
Объявление
Swift
typealias SpeechWordUPP = SpeechWordProcPtrObjective C
typedef SpeechWordProcPtr SpeechWordUPP;Обсуждение
Для получения дополнительной информации см. описание
SpeechWordProcPtrфункция обратного вызова.Оператор импорта
Objective C
@import ApplicationServices;Swift
import ApplicationServicesДоступность
Доступный в OS X v10.0 и позже.
-
Определяет речевую структуру данных расширения.
Объявление
Swift
struct SpeechXtndData { var synthCreator: OSType var synthData: (Byte, Byte) }Objective C
struct SpeechXtndData { OSType synthCreator; Byte synthData[2]; }; typedef struct SpeechXtndData SpeechXtndData;Поля
synthCreatorСоздатель синтезатора ID, идентичный значению, сохраненному в
synthManufacturerполе речевой структуры информации о версии. Необходимо установить это поле в надлежащее значение перед вызовомGetSpeechInfoилиSetSpeechInfo.synthDataСпецифичные для синтезатора данные. Размер и формат данных в этом поле могут варьироваться.
Обсуждение
Речевая структура данных расширения позволяет Вам использовать
GetSpeechInfoиSetSpeechInfoфункции с селекторами, определенными определенными синтезаторами. Путем требования, чтобы Вы передали одной из этих функций указатель на речевую структуру данных расширения, синтезаторы могут разрешить обмен данными в любом формате.Доступность
Доступный в OS X v10.0 и позже.
-
Определяет речевую структуру описания.
Объявление
Swift
struct VoiceDescription { var length: Int32 var voice: VoiceSpec var version: Int32 var name: Str63 var comment: Str255 var gender: Int16 var age: Int16 var script: Int16 var language: Int16 var region: Int16 var reserved: (Int32, Int32, Int32, Int32) }Objective C
struct VoiceDescription { SInt32 length; VoiceSpec voice; SInt32 version; Str63 name; Str255 comment; SInt16 gender; SInt16 age; SInt16 script; SInt16 language; SInt16 region; SInt32 reserved[4]; }; typedef struct VoiceDescription VoiceDescription;Поля
lengthРазмер речевой структуры описания, в байтах.
voiceРечевая структура спецификации, однозначно определяющая речь.
versionНомер версии речи.
nameИмя речи, которой предшествует байт длины. Имена должны быть 63 символами или меньше.
commentДополнительная информация о тексте о речи. Некоторые синтезаторы используют это поле для хранения фразы, на которой можно говорить.
genderРод частного лица представлен речью. Посмотрите Константы Рода.
ageПриблизительный возраст в годах частного лица представлен речью.
scriptВ OS X v10.4.7 и позже, код кодирования текста, который может обработать речь.
Обратите внимание на то, что это поле содержит 16-разрядное значение. Можно использовать любое из 16-разрядных значений, описанных в
External_String_EncodingsилиCFStringBuiltInEncodings. Однако, если необходимо использовать 32-разрядное значение, такой какkCFStringEncodingUTF8, Вы передаете значение в первом элементе матрицыreservedполе, и также необходимо указать-1илиkCFStringEncodingInvalidIdвscriptполе.languageКод, указывающий язык речевого вывода.
regionКод, указывающий область, представленную речью.
reservedЗарезервированный. Может использоваться для содержания 32-разрядного значения кодирования, если необходимый (см. описание
scriptполе для получения дополнительной информации).Обсуждение
Путем вызова
GetVoiceDescriptionфункция, можно получить информацию о речи в речевой структуре описания.Доступность
Доступный в OS X v10.0 и позже.
-
Определяет речевую информационную структуру файла.
Объявление
Swift
struct VoiceFileInfo { var fileSpec: FSSpec var resID: Int16 }Objective C
struct VoiceFileInfo { FSSpec fileSpec; SInt16 resID; }; typedef struct VoiceFileInfo VoiceFileInfo;Поля
fileSpecСтруктура спецификации файловой системы, содержащая объем, каталог и имя файла, содержащего речь. Обычно файлы, содержащие единственную речь, имеют тип
kTextToSpeechVoiceFileType, и файлы, содержащие многократную речь, имеют типkTextToSpeechVoiceBundleType.resIDРесурс ID речи в файле. Речь сохранена в ресурсах типа
kTextToSpeechVoiceType.Обсуждение
Речевая информационная структура файла указывает файл, в котором речь сохранена и ресурс ID речи в том файле. Используйте
GetVoiceInfoфункция для получения речевой информационной структуры файла для речи.Доступность
Доступный в OS X v10.0 и позже.
-
Определяет речевую структуру спецификации.
Объявление
Swift
struct VoiceSpec { var creator: OSType var id: OSType }Поля
creatorСинтезатор, требующийся, чтобы использовать речь. Это эквивалентно значению, содержавшемуся в
synthManufacturerполе речевой структуры информации о версии и содержавшегося вsynthCreatorполе речевой структуры данных расширения. НаборOSTypeзначения, указанные полностью пробелами и строчными буквами, резервируются.idРечь ID речи для синтезатора. Каждая речь на синтезаторе имеет уникальный идентификатор.
Обсуждение
Речевая структура спецификации обеспечивает уникальную спецификацию, которую необходимо использовать для получения информации о речи. Также необходимо использовать речевую структуру спецификации, если Вы хотите создать речевой канал, генерирующий речь речью кроме речи значения по умолчанию существующей системы.
Для обеспечения совместимости будущими версиями менеджера по Синтезу речи Вы никогда не должны заполнять поля речевой структуры спецификации сами. Вместо этого необходимо создать речевую структуру спецификации при помощи
MakeVoiceSpecфункция.Доступность
Доступный в OS X v10.0 и позже.
-
Флаги, указывающие, какие функции синтезатора активны.
Объявление
Swift
var kNoEndingProsody: Int { get } var kNoSpeechInterrupt: Int { get } var kPreflightThenPause: Int { get }Objective C
enum { kNoEndingProsody = 1, kNoSpeechInterrupt = 2, kPreflightThenPause = 4 };Константы
-
kNoEndingProsodykNoEndingProsodyОтключает просодию в конце предложений.
kNoEndingProsodyфлаговый бит используется, чтобы управлять, применяет ли синтезатор речи автоматически конечную просодию, речевой тон и тактовый сигнал, обычно происходящие в конце оператора. При нормальных обстоятельствах (например, когда флаговый бит не установлен), конечная просодия применяется к речи когда конецtextBufданные достигнуты. Это поведение по умолчанию может быть отключено путем установкиkNoEndingProsodyфлаговый бит.Некоторые синтезаторы не говорят до
kNoEndingProsodyфлаговый бит сбрасывается, или они встречаются с периодом в тексте, илиtextBufполно.Доступный в OS X v10.0 и позже.
-
kNoSpeechInterruptkNoSpeechInterruptНе прерывает текущую речь.
kNoSpeechInterruptфлаговый бит используется для управления поведениемSpeakBufferкогда обращено речевой канал, который все еще занят. Когда флаговый бит не установлен,SpeakBufferведет себя так же кSpeakStringиSpeakText. Любая речь, в настоящее время производимая на указанном речевом канале, сразу прервана, и затем на новом текстовом буфере говорят. КогдаkNoSpeechInterruptфлаговый бит установлен, однако, запрос для разговора о канале, который все еще занят, обрабатывая предшествующий текстовый буфер, приведет к ошибке. Новый буфер проигнорирован и ошибкаsynthNotReadyвозвращается. Если предшествующий текстовый буфер был полностью обработан, на новом буфере обычно говорят. Один способ достигнуть слитной речи, не используя функции обратного вызова состоит в том, чтобы постоянно вызыватьSpeakBufferсkNoSpeechInterruptнабор флагового бита до функциональных возвратовnoErr. Функция тогда выполнится, как только был обработан первый текстовый буфер.Доступный в OS X v10.0 и позже.
-
kPreflightThenPausekPreflightThenPauseВычисляет речь без генерации.
kPreflightThenPauseкогда синтезатор речи пытается говорить, флаговый бит используется для минимизации задержки, испытанной. Обычно, каждый раз, когда вызов кSpeakString,SpeakText, илиSpeakBufferсделан, синтезатор речи должен выполнить определенную сумму начальной буквы, обрабатывающей, прежде чем услышат речевой вывод. Эта задержка запуска может варьироваться от нескольких миллисекунд до нескольких секунд, в зависимости от которых используется синтезатор речи. Распознавая, что большие задержки запуска могли бы быть вредны для определенных приложений, механизм существует, чтобы позволить синтезатору выполнять любые необходимые вычисления в некритические времена. Как только вычисления были завершены, речь в состоянии запуститься немедленно. КогдаkPreflightThenPauseфлаговый бит установлен, синтезатор речи обработает входной текст по мере необходимости к точке, где это готово начать производить речевой вывод. В этой точке синтезатор введет приостановленное состояние и возвратится к вызывающей стороне. Когда приложение готово произвести речь, оно должно вызватьContinueSpeechфункция, чтобы начать говорить.Доступный в OS X v10.0 и позже.
Обсуждение
Эти константы используются в
controlFlagsпараметрSpeakBufferфункционируйте и вsynthFlagslполеSpeechVersionInfoструктура. -
-
Константы, указывающие род частного лица, представленного речью.
Объявление
Objective C
enum { kNeuter = 0, kMale = 1, kFemale = 2 };Константы
-
kNeuterkNeuterСредняя речь.
Доступный в OS X v10.0 и позже.
-
kMalekMaleМужской голос.
Доступный в OS X v10.0 и позже.
-
kFemalekFemaleРозеточная речь.
Доступный в OS X v10.0 и позже.
Обсуждение
Эти константы используются в
genderполеVoiceDescriptionструктура. -
-
Константы, идентифицирующие значения в аудиоустройстве синтеза речи.
Объявление
Swift
var kAudioUnitSubType_SpeechSynthesis: Int { get } var kAudioUnitProperty_Voice: Int { get } var kAudioUnitProperty_SpeechChannel: Int { get }Objective C
enum { kAudioUnitSubType_SpeechSynthesis = 'ttsp', kAudioUnitProperty_Voice = 3330, kAudioUnitProperty_SpeechChannel = 3331 };Константы
-
kAudioUnitSubType_SpeechSynthesiskAudioUnitSubType_SpeechSynthesisКомпонентный подтип синтеза речи используется в создании аудиоустройства синтеза речи. (Тип компонента
kAudioUnitType_Generator.)Доступный в OS X v10.5 и позже.
-
kAudioUnitProperty_VoicekAudioUnitProperty_VoiceРечевое свойство в аудиоустройстве синтеза речи.
Доступный в OS X v10.5 и позже.
-
kAudioUnitProperty_SpeechChannelkAudioUnitProperty_SpeechChannelСвойство речевого канала в аудиоустройстве синтеза речи.
Доступный в OS X v10.5 и позже.
-
-
Расположения, указывающие, где речь должна быть приостановлена или остановлена.
Объявление
Objective C
enum { kImmediate = 0, kEndOfWord = 1, kEndOfSentence = 2 };Константы
-
kImmediatekImmediateРечь должна быть приостановлена или сразу остановлена.
Доступный в OS X v10.0 и позже.
-
kEndOfWordkEndOfWordРечь должна быть приостановлена или остановлена в конце слова.
Доступный в OS X v10.0 и позже.
-
kEndOfSentencekEndOfSentenceРечь должна быть приостановлена или остановлена в конце предложения.
Доступный в OS X v10.0 и позже.
Обсуждение
Посмотрите функции
PauseSpeechAtиStopSpeechAtдля получения дополнительной информации. -
-
OSTypeопределения используются менеджером по Синтезу речи.Объявление
Swift
var kTextToSpeechSynthType: Int { get } var kTextToSpeechVoiceType: Int { get } var kTextToSpeechVoiceFileType: Int { get } var kTextToSpeechVoiceBundleType: Int { get }Objective C
enum { kTextToSpeechSynthType = 'ttsc', kTextToSpeechVoiceType = 'ttvd', kTextToSpeechVoiceFileType = 'ttvf', kTextToSpeechVoiceBundleType = 'ttvb' };Константы
-
kTextToSpeechSynthTypekTextToSpeechSynthTypeТип компонента синтезатора.
Доступный в OS X v10.0 и позже.
-
kTextToSpeechVoiceTypekTextToSpeechVoiceTypeТип речевого ресурса.
Доступный в OS X v10.0 и позже.
-
kTextToSpeechVoiceFileTypekTextToSpeechVoiceFileTypeТип речевого файла. Обычно. файлы, содержащие единственную речь, имеют тип
kTextToSpeechVoiceFileType.Доступный в OS X v10.0 и позже.
-
kTextToSpeechVoiceBundleTypekTextToSpeechVoiceBundleTypeТип речи связывает файл. Как правило, файлы, содержащие многократную речь, имеют тип
kTextToSpeechVoiceBundleType.Доступный в OS X v10.0 и позже.
-
-
Доступные относящиеся к обработке текстов и обрабатывающие число режимы для речевого канала.
Объявление
Swift
var modeText: Int { get } var modePhonemes: Int { get } var modeNormal: Int { get } var modeLiteral: Int { get }Objective C
enum { modeText = 'TEXT', modePhonemes = 'PHON', modeNormal = 'NORM', modeLiteral = 'LTRL' };Константы
-
modeTextmodeTextИспользуемый с
soInputModeуказать, что речевой канал находится в относящемся к обработке текстов режиме.Доступный в OS X v10.0 и позже.
-
modePhonemesmodePhonemesИспользуемый с
soInputModeуказать, что речевой канал находится в обрабатывающем фонему режиме. Когда в обрабатывающем фонему режиме, текстовый буфер интерпретируется, чтобы быть серией символов, представляющих различные фонемы и просодические средства управления.Доступный в OS X v10.0 и позже.
-
modeNormalmodeNormalТо, когда речевой канал находится в относящемся к обработке текстов режиме, указывает, что синтезатор должен обработать символы как ожидалось и собрать цифры в числа. Используйте это значение с
soCharacterModeиsoNumberMode.Доступный в OS X v10.0 и позже.
-
modeLiteralmodeLiteralТо, когда речевой канал находится в относящемся к обработке текстов режиме, указывает, что на символах и цифрах говорят буквально (например, на «кошке» говорят, как на «CAT» и «12» говорят как «один, два»). Используйте это значение с
soCharacterModeиsoNumberMode.Доступный в OS X v10.0 и позже.
-
-
Доступные относящиеся к обработке текстов и обрабатывающие число режимы для речевого канала.
Объявление
Swift
var kSpeechModeText: Unmanaged<CFString>! var kSpeechModePhoneme: Unmanaged<CFString>! var kSpeechModeNormal: Unmanaged<CFString>! var kSpeechModeLiteral: Unmanaged<CFString>!Objective C
CFStringRef kSpeechModeText = CFSTR("TEXT"); CFStringRef kSpeechModePhoneme = CFSTR("PHON"); CFStringRef kSpeechModeNormal = CFSTR("NORM"); CFStringRef kSpeechModeLiteral = CFSTR("LTRL");Константы
-
kSpeechModeTextkSpeechModeTextИспользуемый с
kSpeechInputModePropertyуказать, что речевой канал находится в относящемся к обработке текстов режиме.Доступный в OS X v10.5 и позже.
-
kSpeechModePhonemekSpeechModePhonemeИспользуемый с
kSpeechInputModePropertyуказать, что речевой канал находится в обрабатывающем фонему режиме. Когда в обрабатывающем фонему режиме, текстовый буфер интерпретируется, чтобы быть серией символов, представляющих различные фонемы и просодические средства управления.Доступный в OS X v10.5 и позже.
-
kSpeechModeNormalkSpeechModeNormalТо, когда речевой канал находится в относящемся к обработке текстов режиме, указывает, что синтезатор должен обработать символы как ожидалось и собрать цифры в числа. Используйте это значение с
kSpeechCharacterModePropertyиkSpeechNumberModeProperty.Доступный в OS X v10.5 и позже.
-
kSpeechModeLiteralkSpeechModeLiteralТо, когда речевой канал находится в относящемся к обработке текстов режиме, указывает, что на символах и цифрах говорят буквально (например, на «кошке» говорят, как на «CAT» и «12» говорят как «один, два»). Используйте это значение с
kSpeechCharacterModePropertyиkSpeechNumberModeProperty.Доступный в OS X v10.5 и позже.
-
-
Типы речевой информации, которую можно требовать
GetVoiceInfoфункция.Объявление
Objective C
enum { soVoiceDescription = 'info', soVoiceFile = 'fref' };Константы
-
Селекторы, которые могут быть переданы
GetSpeechInfoилиSetSpeechInfoфункции.Объявление
Swift
var soStatus: Int { get } var soErrors: Int { get } var soInputMode: Int { get } var soCharacterMode: Int { get } var soNumberMode: Int { get } var soRate: Int { get } var soPitchBase: Int { get } var soPitchMod: Int { get } var soVolume: Int { get } var soSynthType: Int { get } var soRecentSync: Int { get } var soPhonemeSymbols: Int { get } var soCurrentVoice: Int { get } var soCommandDelimiter: Int { get } var soReset: Int { get } var soCurrentA5: Int { get } var soRefCon: Int { get } var soTextDoneCallBack: Int { get } var soSpeechDoneCallBack: Int { get } var soSyncCallBack: Int { get } var soErrorCallBack: Int { get } var soPhonemeCallBack: Int { get } var soWordCallBack: Int { get } var soSynthExtension: Int { get } var soSoundOutput: Int { get } var soOutputToFileWithCFURL: Int { get } var soOutputToExtAudioFile: Int { get } var soPhonemeOptions: Int { get } var soOutputToAudioDevice: Int { get }Objective C
enum { soStatus = 'stat', soErrors = 'erro', soInputMode = 'inpt', soCharacterMode = 'char', soNumberMode = 'nmbr', soRate = 'rate', soPitchBase = 'pbas', soPitchMod = 'pmod', soVolume = 'volm', soSynthType = 'vers', soRecentSync = 'sync', soPhonemeSymbols = 'phsy', soCurrentVoice = 'cvox', soCommandDelimiter = 'dlim', soReset = 'rset', soCurrentA5 = 'myA5', soRefCon = 'refc', soTextDoneCallBack = 'tdcb', soSpeechDoneCallBack = 'sdcb', soSyncCallBack = 'sycb', soErrorCallBack = 'ercb', soPhonemeCallBack = 'phcb', soWordCallBack = 'wdcb', soSynthExtension = 'xtnd', soSoundOutput = 'sndo', soOutputToFileWithCFURL = 'opaf', soOutputToExtAudioFile = 'opax', soPhonemeOptions = 'popt', soOutputToAudioDevice = 'opad' };Константы
-
soStatussoStatusПолучите речевую структуру информации о статусе для речевого канала.
speechInfoпараметр является указателем на речевую структуру информации о статусе, описанную вSpeechStatusInfo.Этот селектор работает с
GetSpeechInfoфункция.Доступный в OS X v10.0 и позже.
-
soErrorssoErrorsПолучите сохраненную ошибочную информацию для речевого канала и очистите его ошибочные регистры. Этот селектор позволяет Вам опросить относительно различных ошибок периода выполнения, происходящих во время разговора, такого как обнаружение плохо сформированных встроенных команд. Об ошибках, возвращенных непосредственно менеджером по Синтезу речи функции, не сообщают здесь. Если Ваше приложение определяет ошибочную функцию обратного вызова, обратный вызов должен использовать
soErrorsселектор для получения информации об ошибке.speechInfoпараметр является указателем на речевую ошибочную информационную структуру, описанную вSpeechErrorInfo.Этот селектор работает с
GetSpeechInfoфункция.Доступный в OS X v10.0 и позже.
-
soInputModesoInputModeПолучите или установите текущий относящийся к обработке текстов режим речевого канала. Возвращенное значение указывает, является ли канал в настоящее время в режиме ввода фонемы или режиме ввода текста.
speechInfoпараметр является указателем на переменную типаOSType, который указывает относящийся к обработке текстов режим. КонстантыmodeTextиmodePhonemesукажите доступные относящиеся к обработке текстов режимы.modeTextпостоянный указывает, что речевой канал находится в относящемся к обработке текстов режиме.modePhonemesпостоянный указывает, что речевой канал находится в обрабатывающем фонему режиме. Когда в обрабатывающем фонему режиме, текстовый буфер интерпретируется, чтобы быть серией символов, представляющих различные фонемы и просодические средства управления. Некоторые синтезаторы могли бы поддерживать дополнительные обрабатывающие ввод режимы и определить константы для этих режимов.Когда в относящемся к обработке текстов режиме, можно также указать, как символы и числа должны быть обработаны, с помощью
soCharacterModeиsoNumberMode.Этот селектор работает с обоими
GetSpeechInfoиSetSpeechInfoфункции.Доступный в OS X v10.0 и позже.
-
soCharacterModesoCharacterModeПолучите или установите обрабатывающий символ режим речевого канала. Две константы в настоящее время определяются для режима обработки,
modeNormalиmodeLiteral. Когда обрабатывающий символ режимmodeNormal, на вводимых символах говорят, поскольку Вы ожидали бы слышать их. Когда режимmodeLiteral, на каждом символе говорят буквально, так, чтобы слово «кошка» было бы произнесено «CAT».speechInfoпараметр указывает на переменную типаOSType, который является обрабатывающим символ режимом.Этот селектор работает с
GetSpeechInfoиSetSpeechInfoфункции.Доступный в OS X v10.0 и позже.
-
soNumberModesoNumberModeПолучите или установите текущий обрабатывающий число режим речевого канала. Два
OSTypeконстанты в настоящее время определяются,modeNormalиmodeLiteral. Когда обрабатывающий число режимmodeNormal, синтезатор собирает цифры в числа (так, чтобы «12» говорился как «двенадцать»). Когда режимmodeLiteral, на каждой цифре говорят буквально (так, чтобы «12» говорился как “один, два”).speechInfoпараметр является указателем на переменную типаOSType, который указывает обрабатывающий число режим.Этот селектор работает с обоими
GetSpeechInfoиSetSpeechInfoфункции.Доступный в OS X v10.0 и позже.
-
soRatesoRateПолучите или установите речевой уровень речевого канала.
speechInfoпараметр является указателем на переменную типаFixed. Возможный диапазон речевых уровней от 0.000 до 65 535,65535. Диапазон поддерживаемых уровней не предопределен менеджером по Синтезу речи; каждый синтезатор речи обеспечивает свой собственный диапазон речевых уровней. Средняя человеческая речь происходит на уровне 180 - 220 слов в минуту.Этот селектор работает с обоими
GetSpeechInfoиSetSpeechInfoфункции.Доступный в OS X v10.0 и позже.
-
soPitchBasesoPitchBaseПолучите или установите базовую речевую подачу речевого канала. Этот селектор предназначается для использования менеджером по Синтезу речи; обычно, приложение использует
GetSpeechPitchиSetSpeechPitchфункции.speechInfoпараметр является указателем на переменную типаFixed.Этот селектор работает с обоими
GetSpeechInfoиSetSpeechInfoфункции.Доступный в OS X v10.0 и позже.
-
soPitchModsoPitchModПолучите или установите модуляцию подачи речевого канала.
speechInfoпараметр является указателем на переменную типаFixed. Модуляция подачи также выражена как значение фиксированной точки в диапазоне 0.000 к 127 000. Эти значения соответствуют длительности нот MIDI, где 60.000 равно середине C в масштабе фортепьяно. Самая полезная речь передает падение диапазона 40 000 - 55 000. Значение модуляции подачи 0.000 соответствует монотонности, в которой вся речь сгенерирована в частоте, соответствующей речевой подаче. Учитывая речевое значение подачи 46 000, модуляция подачи 2 000 означала бы, что самый широкий диапазон передач, соответствующих фактической частоте сгенерированного текста, будет 44 000 - 48 000.Этот селектор работает с обоими
GetSpeechInfoиSetSpeechInfoфункции.Доступный в OS X v10.0 и позже.
-
soVolumesoVolumeПолучите или установите динамический диапазон речевых сигналов для речевого канала.
speechInfoпараметр является указателем на переменную типаFixed. Объемы выражены в модулях фиксированной точки в пределах от 0,0 до 1,0. Значение 0,0 соответствует тишине, и значение 1,0 соответствует максимальному возможному объему. Единицы объема лежат на масштабе, который линеен с амплитудой или напряжением. Удвоение воспринятой громкости соответствует удвоению объема.Этот селектор работает с обоими
GetSpeechInfoиSetSpeechInfoфункции.Доступный в OS X v10.0 и позже.
-
soSynthTypesoSynthTypeПолучите речевую структуру информации о версии для синтезатора речи, используемого на указанном речевом канале.
speechInfoпараметр является указателем на речевую структуру информации о версии, описанную вSpeechVersionInfo.Этот селектор работает с
GetSpeechInfoфункция.Доступный в OS X v10.0 и позже.
-
soRecentSyncsoRecentSyncПолучите код сообщения для команды синхронизации, с которой последний раз встречаются. Если ни с какой командой синхронизации не встретились, 0 возвращается.
speechInfoпараметр является указателем на переменную типаOSType.Этот селектор работает с
GetSpeechInfoфункция.Доступный в OS X v10.0 и позже.
-
soPhonemeSymbolssoPhonemeSymbolsПолучите список символов фонемы и слов в качестве примера, определенных для синтезатора речевого канала. Ваше приложение могло бы использовать эту информацию, чтобы показать пользователю что символы использовать при введении фонематического текста непосредственно.
speechInfoпараметр является указателем на переменную Дескриптора типа что на выходе отGetSpeechInfoфункционируйте, дескриптор к структуре дескриптора фонемы, описанной вPhonemeDescriptor.Этот селектор работает с
GetSpeechInfoфункция.Доступный в OS X v10.0 и позже.
-
soCurrentVoicesoCurrentVoiceУстановите текущую речь на текущем речевом канале к указанной речи.
speechInfoпараметр является указателем на речевую структуру спецификации. Ваше приложение должно создать структуру путем вызоваMakeVoiceSpec.SetSpeechInfoвозвратитсяincompatibleVoiceошибка, если указанная речь является несовместимой с синтезатором речи, связанным с речевым каналом. Если у Вас есть речевой канал открытое использование речи от определенного синтезатора, и Вы пытаетесь переключиться на речь, работающую с различным синтезатором, Вы получаетеincompatibleVoiceошибка. Необходимо создать новый канал для использования с новой речью.Этот селектор работает с
SetSpeechInfoфункция.Доступный в OS X v10.0 и позже.
-
soCommandDelimitersoCommandDelimiterУстановите встроенные речевые символы-разделители команды, которые будут использоваться для речевого канала. По умолчанию вводный разделитель “
[[” и заключительный разделитель “]]”. Ваше приложение, возможно, должно было бы изменить эти разделители временно, если те последовательности символов происходят естественно в текстовом буфере, на котором нужно говорить. Ваше приложение может также отключить встроенную обработку команды передающими пустыми разделителями (использующий дваNULСимволы ASCII).speechInfoпараметр является указателем на информационную структуру разделителя, описанную вDelimiterInfo.Этот селектор работает с
SetSpeechInfoфункция.Доступный в OS X v10.0 и позже.
-
soResetsoResetЗадержите речевой канал к его состоянию по умолчанию. Например, речевая подача и речевой уровень установлены в значения по умолчанию.
speechInfoпараметр должен быть установлен наNULL.Этот селектор работает с
SetSpeechInfoфункция.Доступный в OS X v10.0 и позже.
-
soCurrentA5soCurrentA5Установите значение, которое менеджер по Синтезу речи присваивает регистру A5 прежде, чем вызвать любые определенные с помощью приложения функции обратного вызова для речевого канала. Если функции обратного вызова должны быть в состоянии получить доступ к глобальным переменным приложения, регистр A5 должен быть установлен правильно.
speechInfoв то время, когда приложение не выполняет код прерывания или к, параметр должен быть установлен на указатель, содержавшийся в регистре A5NULLесли Ваше приложение хочет очистить значение, ранее установленное сsoCurrentA5селектор.Этот селектор работает с
SetSpeechInfoфункция.Доступный в OS X v10.0 и позже.
-
soRefConsoRefConУстановите ссылочное постоянное значение речевого канала. Ссылочное постоянное значение передается определенным с помощью приложения функциям обратного вызова и могло бы содержать любое значение, удобное для приложения.
speechInfoпараметр является длинным целым, содержащим ссылочное постоянное значение. В отличие от других селекторов, этот селектор не требует чтоspeechInfoзначение параметра быть значением указателя. Как правило, однако, приложение действительно использует этот селектор для передачи указателя, или дескриптор оценивают функциям обратного вызова.Этот селектор работает с
SetSpeechInfoфункция.Доступный в OS X v10.0 и позже.
-
soTextDoneCallBacksoTextDoneCallBackУстановите функцию обратного вызова, которую вызовут, когда менеджер по Синтезу речи закончит обрабатывать речь, сгенерированную на речевом канале.
speechInfoпараметр является указателем на определенную с помощью приложения сделанную текстом функцию обратного вызова, синтаксис которой описан вSpeechTextDoneProcPtr. ПередачаNULLвspeechInfoотключает сделанную текстом функцию обратного вызова.Этот селектор работает с
SetSpeechInfoфункция.Доступный в OS X v10.0 и позже.
-
soSpeechDoneCallBacksoSpeechDoneCallBackУстановите функцию обратного вызова, которую вызовут, когда менеджер по Синтезу речи закончит генерировать речь на речевом канале.
speechInfoпараметр является указателем на определенную с помощью приложения сделанную речью функцию обратного вызова, синтаксис которой описан вSpeechDoneProcPtr. ПередачаNULLвspeechInfoотключает сделанную речью функцию обратного вызова.Этот селектор работает с
SetSpeechInfoфункция.Доступный в OS X v10.0 и позже.
-
soSyncCallBacksoSyncCallBackУстановите функцию обратного вызова, которую вызовут, когда менеджер по Синтезу речи встретится с командой синхронизации во встроенной речевой команде в тексте, обрабатываемом на речевом канале.
speechInfoпараметр является указателем на определенную с помощью приложения функцию обратного вызова синхронизации, синтаксис которой описан вSpeechSyncProcPtr. ПередачаNULLвspeechInfoотключает функцию обратного вызова синхронизации.Этот селектор работает с
SetSpeechInfoфункция.Доступный в OS X v10.0 и позже.
-
soErrorCallBacksoErrorCallBackУстановите функцию обратного вызова, которую вызовут, когда с ошибкой встретятся во время обработки встроенной команды. Если другие условия (такие как недостаточно память) возникают во время речевого процесса преобразования, функцию обратного вызова можно было бы также вызвать. Когда менеджера по Синтезу речи, функция возвращает ошибку непосредственно, ошибочная функция обратного вызова не вызывают, функция обратного вызова является переданной информацией о новой ошибке; это может определить информацию о самой старой незаконченной ошибке при помощи селектора информации о речи
soErrors.speechInfoпараметр является указателем на определенную с помощью приложения ошибочную функцию обратного вызова. ПередачаNULLвspeechInfoотключает ошибочную функцию обратного вызова,SpeechErrorProcPtr.Этот селектор работает с
SetSpeechInfoфункция.Доступный в OS X v10.0 и позже.
-
soPhonemeCallBacksoPhonemeCallBackУстановите функцию обратного вызова, которую вызовут каждый раз, когда менеджер по Синтезу речи собирается генерировать фонему на речевом канале.
speechInfoпараметр является указателем на определенную с помощью приложения функцию обратного вызова фонемы, синтаксис которой описан вSpeechPhonemeProcPtr. ПередачаNULLвspeechInfoотключает функцию обратного вызова фонемы.Этот селектор работает с
SetSpeechInfoфункция.Доступный в OS X v10.0 и позже.
-
soWordCallBacksoWordCallBackУстановите функцию обратного вызова, которую вызовут каждый раз, когда менеджер по Синтезу речи собирается генерировать слово на речевом канале.
speechInfoпараметр является указателем на определенную с помощью приложения функцию обратного вызова слова, синтаксис которой описан вSpeechWordProcPtr. ПередачаNULLвspeechInfoотключает функцию обратного вызова слова.Этот селектор работает с
SetSpeechInfoфункция.Доступный в OS X v10.0 и позже.
-
soSynthExtensionsoSynthExtensionПолучите или установите специфичную для синтезатора информацию или настройки.
speechInfoпараметр является указателем на речевую структуру данных расширения, описанную вSpeechXtndData. Ваше приложение должно установитьsynthCreatorполе этой структуры перед вызовомGetSpeechInfoилиSetSpeechInfo. Обычно, Ваше приложение должно передать дополнительную информацию синтезатору вsynthDataполе.Этот селектор работает с обоими
GetSpeechInfoиSetSpeechInfoфункции.Доступный в OS X v10.0 и позже.
-
soSoundOutputsoSoundOutputПолучите или установите канал текущей производительности речевого канала.
Использовать
soOutputToFileWithCFURLвместо этого.Этот селектор работает с обоими
GetSpeechInfoиSetSpeechInfoфункции.Доступный в OS X v10.0 и позже.
-
soOutputToFileWithCFURLsoOutputToFileWithCFURLПередача a
CFURLRefвspeechInfoпараметр для записи в этот файл, илиNULLгенерировать звук.Этот селектор работает с
SetSpeechInfoфункция.Доступный в OS X v10.3 и позже.
-
soOutputToExtAudioFilesoOutputToExtAudioFileПередайте
ExtAudioFileRefвspeechInfoпараметр для записи в этот файл, илиNULLгенерировать звук.Обратите внимание на то, что менеджер по Синтезу речи может измениться
kExtAudioFileProperty_ClientDataFormatиkExtAudioFileProperty_ClientChannelLayoutсвойства расширенного объекта аудиофайла. Вызывающая сторона ответственна за закрытие расширенного объекта аудиофайла после того, как менеджер по Синтезу речи будет закончен с ним.Этот селектор работает с
SetSpeechInfoфункция.Доступный в OS X v10.6 и позже.
-
soPhonemeOptionssoPhonemeOptionsПолучите или установите опции для генерации фонетического вывода. Посмотрите Опции Генерации Фонемы для полного списка опций.
speechInfoпараметр является указателем на длинное значение, представляющее значение генерации фонемы.Этот селектор работает с обоими
GetSpeechInfoиSetSpeechInfoфункции.Доступный в OS X v10.6 и позже.
-
soOutputToAudioDevicesoOutputToAudioDeviceПередайте указатель на
AudioDeviceIDвspeechInfoпараметр для игры к этому файлу, или0проиграть устройство аудиовыхода по умолчанию.Этот селектор работает с
SetSpeechInfoфункция.Доступный в OS X v10.6 и позже.
Обсуждение
Посмотрите
GetSpeechInfoиSetSpeechInfoфункции. -
-
Флаги, указывающие опции для генерации фонетического вывода.
Объявление
Swift
var kSpeechGenerateTune: Int { get } var kSpeechRelativePitch: Int { get } var kSpeechRelativeDuration: Int { get } var kSpeechShowSyllables: Int { get }Objective C
enum { kSpeechGenerateTune = 1, kSpeechRelativePitch = 2, kSpeechRelativeDuration = 4, kSpeechShowSyllables = 8 };Константы
-
kSpeechGenerateTunekSpeechGenerateTuneГенерируйте фонемы, производящие подробную мелодию, указанную информацией о продолжительности и подачей.
Доступный в OS X v10.6 и позже.
-
kSpeechRelativePitchkSpeechRelativePitchУкажите подачу в мелодии относительно базовой линии подачи речи (это упрощает снова использовать мелодию с различной речью).
Доступный в OS X v10.6 и позже.
-
kSpeechRelativeDurationkSpeechRelativeDurationУкажите продолжительность в мелодии относительно текущего речевого уровня (это упрощает снова использовать мелодию на различном уровне).
Доступный в OS X v10.6 и позже.
-
kSpeechShowSyllableskSpeechShowSyllablesПокажите все метки слога в фонетическом выводе или мелодии.
Доступный в OS X v10.6 и позже.
Доступность
Доступный в OS X v10.6 и позже.
-
-
Свойства, используемые с
CopySpeechPropertyилиSetSpeechPropertyполучить или установить характеристики речевого канала.Объявление
Swift
var kSpeechStatusProperty: Unmanaged<CFString>! var kSpeechErrorsProperty: Unmanaged<CFString>! var kSpeechInputModeProperty: Unmanaged<CFString>! var kSpeechCharacterModeProperty: Unmanaged<CFString>! var kSpeechNumberModeProperty: Unmanaged<CFString>! var kSpeechRateProperty: Unmanaged<CFString>! var kSpeechPitchBaseProperty: Unmanaged<CFString>! var kSpeechPitchModProperty: Unmanaged<CFString>! var kSpeechVolumeProperty: Unmanaged<CFString>! var kSpeechSynthesizerInfoProperty: Unmanaged<CFString>! var kSpeechRecentSyncProperty: Unmanaged<CFString>! var kSpeechPhonemeSymbolsProperty: Unmanaged<CFString>! var kSpeechCurrentVoiceProperty: Unmanaged<CFString>! var kSpeechCommandDelimiterProperty: Unmanaged<CFString>! var kSpeechResetProperty: Unmanaged<CFString>! var kSpeechOutputToFileURLProperty: Unmanaged<CFString>! var kSpeechOutputToExtAudioFileProperty: Unmanaged<CFString>! var kSpeechRefConProperty: Unmanaged<CFString>! var kSpeechTextDoneCallBack: Unmanaged<CFString>! var kSpeechSpeechDoneCallBack: Unmanaged<CFString>! var kSpeechSyncCallBack: Unmanaged<CFString>! var kSpeechPhonemeCallBack: Unmanaged<CFString>! var kSpeechErrorCFCallBack: Unmanaged<CFString>! var kSpeechWordCFCallBack: Unmanaged<CFString>! var kSpeechPhonemeOptionsProperty: Unmanaged<CFString>! var kSpeechOutputToAudioDeviceProperty: Unmanaged<CFString>!Objective C
CFStringRef kSpeechStatusProperty = CFSTR("stat"); CFStringRef kSpeechErrorsProperty = CFSTR("erro"); CFStringRef kSpeechInputModeProperty = CFSTR("inpt"); CFStringRef kSpeechCharacterModeProperty = CFSTR("char"); CFStringRef kSpeechNumberModeProperty = CFSTR("nmbr"); CFStringRef kSpeechRateProperty = CFSTR("rate"); CFStringRef kSpeechPitchBaseProperty = CFSTR("pbas"); CFStringRef kSpeechPitchModProperty = CFSTR("pmod"); CFStringRef kSpeechVolumeProperty = CFSTR("volm"); CFStringRef kSpeechSynthesizerInfoProperty = CFSTR("vers"); CFNumberRef kSpeechRecentSyncProperty = CFSTR("sync"); CFStringRef kSpeechPhonemeSymbolsProperty = CFSTR("phsy"); CFStringRef kSpeechCurrentVoiceProperty = CFSTR("cvox"); CFStringRef kSpeechCommandDelimiterProperty = CFSTR("dlim"); CFStringRef kSpeechResetProperty = CFSTR("rset"); CFStringRef kSpeechOutputToFileURLProperty = CFSTR("opaf"); CFStringRef kSpeechOutputToExtAudioFileProperty = CFSTR("opax"); CFStringRef kSpeechRefConProperty = CFSTR("refc"); CFStringRef kSpeechTextDoneCallBack = CFSTR("tdcb"); CFStringRef kSpeechSpeechDoneCallBack = CFSTR("sdcb"); CFStringRef kSpeechSyncCallBack = CFSTR("sycb"); CFStringRef kSpeechPhonemeCallBack = CFSTR("phcb"); CFStringRef kSpeechErrorCFCallBack = CFSTR("eccb"); CFStringRef kSpeechWordCFCallBack = CFSTR("wccb"); CFStringRef kSpeechPhonemeOptionsProperty = CFSTR("popt"); CFStringRef kSpeechOutputToAudioDeviceProperty = CRSTR("opad");Константы
-
kSpeechStatusPropertykSpeechStatusPropertyПолучите речевую информацию о статусе для речевого канала.
Значение, связанное с этим свойством, является a
CFDictionaryобъект, содержащий речевую информацию о статусе для речевого канала. Посмотрите“Speech Status Keys”для описания ключевого настоящего в словаре.Это свойство работает с
CopySpeechPropertyфункция.Доступный в OS X v10.5 и позже.
-
kSpeechErrorsPropertykSpeechErrorsPropertyПолучите информацию речевой ошибки для речевого канала.
Значение, связанное с этим свойством, является a
CFDictionaryобъект, содержащий информацию о речевой ошибке. Посмотрите“Speech Error Keys”для описания ключевого настоящего в словаре.Это свойство позволяет Вам получить информацию о различных ошибках периода выполнения, происходящих во время разговора, такого как обнаружение плохо сформированных встроенных команд. Об ошибках, возвращенных непосредственно менеджером по Синтезу речи, не сообщают здесь. Если Ваше приложение определяет ошибочную функцию обратного вызова, функция может использовать это свойство для получения ошибочной информации.
Это свойство работает с
CopySpeechPropertyфункция.Доступный в OS X v10.5 и позже.
-
kSpeechInputModePropertykSpeechInputModePropertyПолучите или установите текущий относящийся к обработке текстов режим речевого канала.
Значение, связанное с этим свойством, является a
CFStringобъект, указывающий, является ли канал в настоящее время в режиме ввода фонемы или режиме ввода текста. КонстантыkSpeechModeTextиkSpeechModePhoneme(определенный в“Speech-Channel Modes for Core Foundation-based Functions”) возможные значения этой строки.Когда в обрабатывающем фонему режиме, текстовая строка интерпретируется, чтобы быть серией символов, представляющих различные фонемы и просодические средства управления. Некоторые синтезаторы могли бы поддерживать дополнительные обрабатывающие ввод режимы и определить константы для этих режимов.
Когда в относящемся к обработке текстов режиме, можно также указать, как символы и числа должны быть обработаны с помощью
kSpeechCharacterModePropertyиkSpeechNumberModeProperty.Это свойство работает с
CopySpeechPropertyиSetSpeechPropertyфункции.Доступный в OS X v10.5 и позже.
-
kSpeechCharacterModePropertykSpeechCharacterModePropertyПолучите или установите обрабатывающий текущий символ режим речевого канала.
Значение, связанное с этим свойством, является a
CFStringобъект, указывающий, является ли речевой канал в настоящее время в нормальном или обрабатывающем буквенный символ режиме. КонстантыkSpeechModeNormalиkSpeechModeLiteral(определенный в“Speech-Channel Modes for Core Foundation-based Functions”) возможные значения этой строки.Когда обрабатывающий символ режим
kSpeechModeNormal, на вводимых символах говорят, поскольку Вы ожидали бы слышать их. Когда режимkSpeechModeLiteral, на каждом символе говорят буквально, так, чтобы слово «кошка» было произнесено «CAT».Это свойство работает с
CopySpeechPropertyиSetSpeechPropertyфункции.Доступный в OS X v10.5 и позже.
-
kSpeechNumberModePropertykSpeechNumberModePropertyПолучите или установите текущий обрабатывающий число режим речевого канала.
Значение, связанное с этим свойством, является a
CFStringобъект, указывающий, является ли речевой канал в настоящее время в нормальном или литеральном обрабатывающем число режиме. КонстантыkSpeechModeNormalиkSpeechModeLiteral(определенный в“Speech-Channel Modes for Core Foundation-based Functions”) возможные значения этой строки.Когда обрабатывающий число режим
kSpeechModeNormal, синтезатор собирает цифры в числа (так, чтобы «12» говорился как «двенадцать»). Когда режимkSpeechModeLiteral, на каждой цифре говорят буквально (так, чтобы «12» говорился как “один, два”).Это свойство работает с
CopySpeechPropertyиSetSpeechPropertyфункции.Доступный в OS X v10.5 и позже.
-
kSpeechRatePropertykSpeechRatePropertyПолучите или установите речевой уровень речевого канала.
Значение, связанное с этим свойством, является a
CFNumberобъект, указывающий говорящий уровень речевого канала.Диапазон поддерживаемых уровней не предопределен менеджером по Синтезу речи; каждый синтезатор речи обеспечивает свой собственный диапазон речевых уровней. Средняя человеческая речь происходит на уровне 180 - 220 слов в минуту.
Это свойство работает с
CopySpeechPropertyиSetSpeechPropertyфункции.Доступный в OS X v10.5 и позже.
-
kSpeechPitchBasePropertykSpeechPitchBasePropertyПолучите или установите базовую речевую подачу речевого канала.
Значение, связанное с этим свойством, является a
CFNumberобъект, указывающий базовую речевую подачу речевого канала.Типичные частоты речевого диапазона располагаются приблизительно от 90 герц для низкого мужского голоса к, возможно, 300 герц для речи высокого дочернего элемента. Эти частоты соответствуют приблизительным значениям подачи в диапазонах 30 000 - 40 000 и 55 000 - 65 000, соответственно.
Это свойство работает с
CopySpeechPropertyиSetSpeechPropertyфункции.Доступный в OS X v10.5 и позже.
-
kSpeechPitchModPropertykSpeechPitchModPropertyПолучите или установите модуляцию подачи речевого канала.
Значение, связанное с этим свойством, является a
CFNumberобъект, указывающий модуляцию подачи речевого канала.Модуляция подачи также выражена как значение с плавающей точкой в диапазоне 0.000 к 127 000. Эти значения соответствуют длительности нот MIDI, где 60.000 равно середине C в масштабе фортепьяно. Самая полезная речь передает падение диапазона 40 000 - 55 000. Значение модуляции подачи 0.000 соответствует монотонности, в которой вся речь сгенерирована в частоте, соответствующей речевой подаче. Учитывая речевое значение подачи 46 000, модуляция подачи 2 000 означала бы, что самый широкий диапазон передач, соответствующих фактической частоте сгенерированного текста, будет 44 000 - 48 000.
Это свойство работает с
CopySpeechPropertyиSetSpeechPropertyфункции.Доступный в OS X v10.5 и позже.
-
kSpeechVolumePropertykSpeechVolumePropertyПолучите или установите динамический диапазон речевых сигналов для речевого канала.
Значение, связанное с этим свойством, является a
CFNumberобъект, указывающий динамический диапазон речевых сигналов речевого канала.Объемы выражены в значениях с плавающей точкой в пределах от 0,0 до 1,0. Значение 0,0 соответствует тишине, и значение 1,0 соответствует максимальному возможному объему. Единицы объема лежат на масштабе, который линеен с амплитудой или напряжением. Удвоение воспринятой громкости соответствует удвоению объема.
Это свойство работает с
CopySpeechPropertyиSetSpeechPropertyфункции.Доступный в OS X v10.5 и позже.
-
kSpeechSynthesizerInfoPropertykSpeechSynthesizerInfoPropertyПолучите информацию о синтезаторе речи, используемом на указанном речевом канале.
Значение, связанное с этим свойством, является a
CFDictionaryобъект, содержащий информацию о синтезаторе речи, используемом на указанном речевом канале. Посмотрите“Speech Synthesizer Information Keys”для описания ключевого настоящего в словаре.Это свойство работает с
CopySpeechPropertyфункция.Доступный в OS X v10.5 и позже.
-
kSpeechRecentSyncPropertykSpeechRecentSyncPropertyПолучите код сообщения для команды синхронизации, с которой последний раз встречаются.
Значение, связанное с этим свойством, является a
CFNumberобъект, указывающий команду синхронизации, с которой последний раз встречаются. Это свойство работает сCopySpeechPropertyфункция.Доступный в OS X v10.5 и позже.
-
kSpeechPhonemeSymbolsPropertykSpeechPhonemeSymbolsPropertyПолучите список символов фонемы и слов в качестве примера, определенных для синтезатора речевого канала.
Значение, связанное с этим свойством, является a
CFDictionaryобъект, содержащий символы фонемы и слова в качестве примера, определенные для текущего синтезатора. Ваше приложение могло бы использовать эту информацию, чтобы показать пользователю что символы использовать при введении фонематического текста непосредственно. Посмотрите“Phoneme Symbols Keys”для описания ключевого настоящего в словаре.Это свойство работает с
CopySpeechPropertyфункция.Доступный в OS X v10.5 и позже.
-
kSpeechCurrentVoicePropertykSpeechCurrentVoicePropertyУстановите текущую речь на текущем речевом канале к указанной речи.
Значение, связанное с этим свойством, является a
CFDictionaryобъект, содержащий символы фонемы и слова в качестве примера, определенные для текущего синтезатора. Ваше приложение могло бы использовать эту информацию, чтобы показать пользователю что символы использовать при введении фонематического текста непосредственно. Посмотрите“Phoneme Symbols Keys”для ключей можно использовать для указания значений в этом словаре.Это свойство работает с
SetSpeechPropertyфункция.Доступный в OS X v10.5 и позже.
-
kSpeechCommandDelimiterPropertykSpeechCommandDelimiterPropertyУстановите встроенные речевые символы-разделители команды, которые будут использоваться для речевого канала.
По умолчанию вводный разделитель “
[[” и заключительный разделитель “]]”. Ваше приложение, возможно, должно было бы изменить эти разделители временно, если те последовательности символов происходят естественно в текстовом буфере, на котором нужно говорить. Ваше приложение может также отключить встроенную обработку команды передающими пустыми разделителями (как пустые строки). Значение, связанное с этим свойством, является aCFDictionaryобъект, содержащий информацию о разделителе. Посмотрите“Command Delimiter Keys”для ключей можно использовать для указания значений в этом словаре.Это свойство работает с
SetSpeechPropertyфункция.Доступный в OS X v10.5 и позже.
-
kSpeechResetPropertykSpeechResetPropertyЗадержите речевой канал к его состоянию по умолчанию.
Можно использовать эту функцию для, например, подача заранее составленной речи и речевой уровень к значениям по умолчанию. Нет никакого значения, связанного с этим свойством; для сброса канала к его состоянию по умолчанию установите строку в
NULL.Это свойство работает с
SetSpeechPropertyфункция.Доступный в OS X v10.5 и позже.
-
kSpeechOutputToFileURLPropertykSpeechOutputToFileURLPropertyУстановите место назначения речевого вывода в файл или динамикам компьютера.
Значение, связанное с этим свойством, является a
CFURLобъект. Для записи речевого вывода в файл используйте файлCFURLRef; для генерации звука через динамики компьютера использоватьNULL.Это свойство работает с
SetSpeechPropertyфункция.Доступный в OS X v10.5 и позже.
-
kSpeechOutputToExtAudioFilePropertykSpeechOutputToExtAudioFilePropertyУстановите место назначения речевого вывода в расширенный аудиофайл или динамикам компьютера.
Значение, связанное с этим свойством, является a
CFNumberвозразите, чье значениеExtAudioFileRef. Для записи речевого вывода в расширенный аудиофайл используйте файлExtAudioFileRef; для генерации звука через динамики компьютера использоватьNULL.Это свойство работает с
SetSpeechPropertyфункция.Доступный в OS X v10.5 и позже.
-
kSpeechRefConPropertykSpeechRefConPropertyУстановите ссылочное постоянное значение речевого канала.
Ссылочное постоянное значение передается определенным с помощью приложения функциям обратного вызова и могло бы содержать любое значение, удобное для приложения. Значение, связанное с этим свойством, является a
CFNumberобъект, содержащий целочисленное значение. Например, приложение могло бы установить значениеCFNumberвозразите против адреса в памяти, содержащей ссылку на объект или указатель на функцию.Это свойство работает с
SetSpeechPropertyфункция.Доступный в OS X v10.5 и позже.
-
kSpeechTextDoneCallBackkSpeechTextDoneCallBackУстановите функцию обратного вызова, которую вызовут, когда менеджер по Синтезу речи закончит обрабатывать речь, сгенерированную на речевом канале.
Значение, связанное с этим свойством, является a
CFNumberвозразите, чье значение является указателем на определенную с помощью приложения сделанную текстом функцию обратного вызова, синтаксис которой описан вSpeechTextDoneProcPtr. Передача aCFNumberобъект, содержащий значениеNULLотключает сделанную текстом функцию обратного вызова.Это свойство работает с
SetSpeechPropertyфункция.Доступный в OS X v10.5 и позже.
-
kSpeechSpeechDoneCallBackkSpeechSpeechDoneCallBackУстановите функцию обратного вызова, которую вызовут, когда менеджер по Синтезу речи закончит генерировать речь на речевом канале.
Значение, связанное с этим свойством,
CFNumberвозразите, чье значение является указателем на определенную с помощью приложения сделанную речью функцию обратного вызова, синтаксис которой описан вSpeechDoneProcPtr. ПередачаNULLпоскольку значение этого свойства отключает сделанную речью функцию обратного вызова.Это свойство работает с
SetSpeechPropertyфункция.Доступный в OS X v10.5 и позже.
-
kSpeechSyncCallBackkSpeechSyncCallBackУстановите функцию обратного вызова, которую вызовут, когда менеджер по Синтезу речи встретится с командой синхронизации во встроенной речевой команде в тексте, обрабатываемом на речевом канале.
Значение, связанное с этим свойством,
CFNumberвозразите, чье значение является указателем на определенную с помощью приложения функцию обратного вызова синхронизации, синтаксис которой описан вSpeechSyncProcPtr. Передача aCFNumberобъект, содержащий значениеNULLпоскольку значение этого свойства отключает функцию обратного вызова синхронизации.Это свойство работает с
SetSpeechPropertyфункция.Доступный в OS X v10.5 и позже.
-
kSpeechPhonemeCallBackkSpeechPhonemeCallBackУстановите функцию обратного вызова, которую вызовут каждый раз, когда менеджер по Синтезу речи собирается генерировать фонему на речевом канале.
Значение, связанное с этим свойством,
CFNumberвозразите, чье значение является указателем на определенную с помощью приложения функцию обратного вызова фонемы, синтаксис которой описан вSpeechPhonemeProcPtr. Передача aCFNumberобъект, содержащий значениеNULLпоскольку значение этого свойства отключает функцию обратного вызова фонемы.Это свойство работает с
SetSpeechPropertyфункция.Доступный в OS X v10.5 и позже.
-
kSpeechErrorCFCallBackkSpeechErrorCFCallBackУстановите функцию обратного вызова, которую вызовут, когда с ошибкой встретятся во время обработки встроенной команды.
. Когда менеджера по Синтезу речи, функция возвращает ошибку непосредственно, ошибочная функция обратного вызова не вызывают, функция обратного вызова является переданной информацией о новой ошибке; это может определить информацию о самой старой незаконченной ошибке при помощи свойства информации о речи
kSpeechErrorsProperty. Значение, связанное с этим свойством,CFNumberвозразите, чье значение является указателем на определенную с помощью приложения ошибочную функцию обратного вызова, синтаксис которой описан вSpeechErrorCFProcPtr. Передача aCFNumberобъект, содержащий значениеNULLпоскольку значение этого свойства отключает ошибочную функцию обратного вызова.Это свойство работает с
SetSpeechPropertyфункция.Доступный в OS X v10.5 и позже.
-
kSpeechWordCFCallBackkSpeechWordCFCallBackУстановите функцию обратного вызова, которую вызовут каждый раз, когда менеджер по Синтезу речи собирается генерировать слово на речевом канале.
Значение, связанное с этим свойством,
CFNumberвозразите, чье значение является указателем на определенную с помощью приложения функцию обратного вызова слова, синтаксис которой описан вSpeechWordCFProcPtr. Передача aCFNumberобъект, содержащий значениеNULLпоскольку значение этого свойства отключает функцию обратного вызова слова.Это свойство работает с
SetSpeechPropertyфункция.Доступный в OS X v10.5 и позже.
-
kSpeechPhonemeOptionsPropertykSpeechPhonemeOptionsPropertyПолучите или установите опции для генерации фонетического вывода.
Значение, связанное с этим свойством, является указателем на
CFNumberобъект, содержащий флаги (опции), Вы передали быsoPhonemeOptions. (См. Опции Генерации Фонемы для полного списка опций.)Это свойство работает с
SetSpeechPropertyиCopySpeechPropertyфункции.Доступный в OS X v10.5 и позже.
-
kSpeechOutputToAudioDevicePropertykSpeechOutputToAudioDevicePropertyУстановите место назначения речевого вывода в файл аудиоустройства или динамикам компьютера.
Значение, связанное с этим свойством, является a
CFNumberобъект, содержащийAudioDeviceID. Для игры речевого вывода к аудиоустройству используйтеAudioDeviceIDэто представляет устройство; для генерации звука через динамики компьютера использовать0.Это свойство работает с
SetSpeechPropertyфункция.Доступный в OS X v10.6 и позже.
-
-
Ключи раньше указывали опции синтезатора.
Объявление
Swift
var kSpeechNoEndingProsody: Unmanaged<CFString>! var kSpeechNoSpeechInterrupt: Unmanaged<CFString>! var kSpeechPreflightThenPause: Unmanaged<CFString>!Objective C
CFStringRef kSpeechNoEndingProsody = CFSTR("NoEndingProsody"); CFStringRef kSpeechNoSpeechInterrupt = CFSTR("NoSpeechInterrupt"); CFStringRef kSpeechPreflightThenPause = CFSTR("PreflightThenPause");Константы
-
kSpeechNoEndingProsodykSpeechNoEndingProsodyОтключите просодию в конце предложений.
kSpeechNoEndingProsodyключ используется, чтобы указать, должен ли синтезатор речи автоматически применить конечную просодию, которая является речевым тоном и тактовым сигналом, обычно происходящими в конце предложения. Когда ключ не указан (или если он указан со значениемkCFBooleanFalse), конечная просодия применяется к речи в концеaString. Это поведение может быть отключено путем указанияkSpeechNoEndingProsodyключ, со значениемkCFBooleanTrue, вoptionsсловарь.Доступный в OS X v10.5 и позже.
-
kSpeechNoSpeechInterruptkSpeechNoSpeechInterruptНе прерывайте текущую речь.
kSpeechNoSpeechInterruptключ используется для управления поведениемSpeakCFStringкогда это вызывают на речевом канале, который занят. КогдаkSpeechNoSpeechInterruptне указан вoptionsсловарь (или если это указано со значениемkCFBooleanFalse),SpeakCFStringсразу прерывает речь, в настоящее время производимую на указанном речевом канале и новомaStringна тексте говорят. КогдаkSpeechNoSpeechInterruptуказан со значениемkCFBooleanTrue, запрос для разговора о речевом канале, который уже является занятыми причинами новоеaStringтекст, который будет проигнорирован иsynthNotReadyошибка, которая будет возвращена.Доступный в OS X v10.5 и позже.
-
kSpeechPreflightThenPausekSpeechPreflightThenPauseВычислите речь, не генерируя его.
kSpeechPreflightThenPauseкогда синтезатор речи пытается говорить, ключ используется для минимизации задержки, испытанной. Для достижения этого укажитеkSpeechPreflightThenPauseключ, со значениемkCFBooleanTrue, вoptionsсловарь. Это заставляет синтезатор речи обрабатывать входной текст по мере необходимости к точке, где это готово начать производить речевой вывод. В этой точке синтезатор вводит приостановленное состояние и возвращается к вызывающей стороне. Когда приложение готово произвести речь, оно должно вызватьContinueSpeechначать говорить.Если Вы не указываете
kSpeechPreflightThenPauseключ (или Вы указываете его со значениемkCFBooleanFalse),SpeakCFStringначинает говорить входной текст после обработки его.Доступный в OS X v10.5 и позже.
-
-
Ключи, используемые с
kSpeechStatusPropertyсвойство для указания состояния речевого канала.Объявление
Swift
var kSpeechStatusOutputBusy: Unmanaged<CFString>! var kSpeechStatusOutputPaused: Unmanaged<CFString>! var kSpeechStatusNumberOfCharactersLeft: Unmanaged<CFString>! var kSpeechStatusPhonemeCode: Unmanaged<CFString>!Objective C
CFStringRef kSpeechStatusOutputBusy = CFSTR("OutputBusy"); CFStringRef kSpeechStatusOutputPaused = CFSTR("OutputPaused"); CFStringRef kSpeechStatusNumberOfCharactersLeft = CFSTR("NumberOfCharactersLeft"); CFStringRef kSpeechStatusPhonemeCode = CFSTR("PhonemeCode");Константы
-
kSpeechStatusOutputBusykSpeechStatusOutputBusyУказывает, производит ли речевой канал в настоящее время речь.
Когда никакие аудиоданные не производятся через динамик компьютера, речевой канал считается, производя речь даже в несколько раз. Это происходит, например, когда менеджер по Синтезу речи обрабатывает ввод, но еще не инициировал речь или когда приостанавливается речевой вывод.
Доступный в OS X v10.5 и позже.
-
kSpeechStatusOutputPausedkSpeechStatusOutputPausedУказывает, был ли речевой вывод в речевом канале приостановлен вызовом к
PauseSpeechAtфункция.Доступный в OS X v10.5 и позже.
-
kSpeechStatusNumberOfCharactersLeftkSpeechStatusNumberOfCharactersLeftЧисло символов уехало во входной строке текста.
Когда значение этой константы является нулем, можно уничтожить входную строку.
Доступный в OS X v10.5 и позже.
-
kSpeechStatusPhonemeCodekSpeechStatusPhonemeCodeКод операции для фонемы, которую в настоящее время обрабатывает речевой канал.
Доступный в OS X v10.5 и позже.
-
-
Ключи, используемые с
kSpeechErrorsPropertyсвойство для описания ошибок встретилось во время обработки речи и производства.Объявление
Swift
var kSpeechErrorCount: Unmanaged<CFString>! var kSpeechErrorOldest: Unmanaged<CFString>! var kSpeechErrorOldestCharacterOffset: Unmanaged<CFString>! var kSpeechErrorNewest: Unmanaged<CFString>! var kSpeechErrorNewestCharacterOffset: Unmanaged<CFString>!Objective C
CFStringRef kSpeechErrorCount = CFSTR("Count"); CFStringRef kSpeechErrorOldest = CFSTR("OldestCode"); CFStringRef kSpeechErrorOldestCharacterOffset = CFSTR("OldestCharacterOffset"); CFStringRef kSpeechErrorNewest = CFSTR("NewestCode"); CFStringRef kSpeechErrorNewestCharacterOffset = CFSTR("NewestCharacterOffset");Константы
-
kSpeechErrorCountkSpeechErrorCountЧисло ошибок, произошедших в обработке строки текущего текста, начиная с последней возможности к
CopySpeechPropertyфункция сkSpeechErrorsPropertyсвойство.Используя
kSpeechErrorOldestключи иkSpeechErrorNewestключи, можно получить информацию о самых старых и новых ошибках, произошедших начиная с последней возможности сCopySpeechProperty, но Вы не можете получить информацию ни о каких прошедших ошибках.Доступный в OS X v10.5 и позже.
-
kSpeechErrorOldestkSpeechErrorOldestКод ошибки первой ошибки, произошедшей начиная с последней возможности с
CopySpeechPropertyфункция сkSpeechErrorsPropertyсвойство.Доступный в OS X v10.5 и позже.
-
kSpeechErrorOldestCharacterOffsetkSpeechErrorOldestCharacterOffsetПозиция в текстовой строке первой ошибки, произошедшей начиная с последней возможности с
CopySpeechPropertyфункция сkSpeechErrorsPropertyсвойство.Доступный в OS X v10.5 и позже.
-
kSpeechErrorNewestkSpeechErrorNewestКод ошибки новой ошибки, произошедшей начиная с последней возможности с
CopySpeechPropertyфункция сkSpeechErrorsPropertyсвойство.Доступный в OS X v10.5 и позже.
-
kSpeechErrorNewestCharacterOffsetkSpeechErrorNewestCharacterOffsetПозиция в текстовой строке новой ошибки, произошедшей начиная с последней возможности с
CopySpeechPropertyфункция сkSpeechErrorsPropertyсвойство.Доступный в OS X v10.5 и позже.
-
-
Ключи, используемые с
kSpeechSynthesizerInfoPropertyсвойство для получения информации о синтезаторе.Объявление
Swift
var kSpeechSynthesizerInfoIdentifier: Unmanaged<CFString>! var kSpeechSynthesizerInfoVersion: Unmanaged<CFString>! var kSpeechSynthesizerInfoManufacturer: Unmanaged<CFString>!Objective C
CFStringRef kSpeechSynthesizerInfoIdentifier = CFSTR("Identifier"); CFStringRef kSpeechSynthesizerInfoVersion = CFSTR("Version"); CFStringRef kSpeechSynthesizerInfoManufacturer = CFSTR("Manufacturer");Константы
-
kSpeechSynthesizerInfoIdentifierkSpeechSynthesizerInfoIdentifierИдентификатор синтезатора речи.
Доступный в OS X v10.5 и позже.
-
kSpeechSynthesizerInfoVersionkSpeechSynthesizerInfoVersionВерсия синтезатора речи.
Доступный в OS X v10.5 и позже.
-
kSpeechSynthesizerInfoManufacturerkSpeechSynthesizerInfoManufacturerИдентификация механизма синтезатора (см.
synthManufacturerполе вSpeechVersionInfo).Доступный в OS X v10.5 и позже.
-
-
Ключи, используемые с
kSpeechPhonemeSymbolsPropertyсвойство для предоставления информации об обрабатываемой фонеме.Объявление
Swift
var kSpeechPhonemeInfoOpcode: Unmanaged<CFString>! var kSpeechPhonemeInfoSymbol: Unmanaged<CFString>! var kSpeechPhonemeInfoExample: Unmanaged<CFString>! var kSpeechPhonemeInfoHiliteStart: Unmanaged<CFString>! var kSpeechPhonemeInfoHiliteEnd: Unmanaged<CFString>!Objective C
CFStringRef kSpeechPhonemeInfoOpcode = CFSTR("Opcode"); CFStringRef kSpeechPhonemeInfoSymbol = CFSTR("Symbol"); CFStringRef kSpeechPhonemeInfoExample = CFSTR("Example"); CFStringRef kSpeechPhonemeInfoHiliteStart = CFSTR("HiliteStart"); CFStringRef kSpeechPhonemeInfoHiliteEnd = CFSTR("HiliteEnd");Константы
-
kSpeechPhonemeInfoOpcodekSpeechPhonemeInfoOpcodeКод операции фонемы.
Доступный в OS X v10.5 и позже.
-
kSpeechPhonemeInfoSymbolkSpeechPhonemeInfoSymbolСимвол раньше представлял фонему.
Символ не обязательно имеет фонетическое соединение с фонемой, но мог бы просто быть абстрактным текстовым представлением ее.
Доступный в OS X v10.5 и позже.
-
kSpeechPhonemeInfoExamplekSpeechPhonemeInfoExampleСлово в качестве примера, иллюстрирующее использование фонемы.
Доступный в OS X v10.5 и позже.
-
kSpeechPhonemeInfoHiliteStartkSpeechPhonemeInfoHiliteStartСимвольное смещение в слово в качестве примера, идентифицирующее расположение начала фонемы.
Доступный в OS X v10.5 и позже.
-
kSpeechPhonemeInfoHiliteEndkSpeechPhonemeInfoHiliteEndСимвольное смещение в слово в качестве примера, идентифицирующее расположение конца фонемы.
Доступный в OS X v10.5 и позже.
-
-
Ключи, используемые с
kSpeechCurrentVoicePropertyсвойство для указания информации о текущей речи.Объявление
Swift
var kSpeechVoiceCreator: Unmanaged<CFString>! var kSpeechVoiceID: Unmanaged<CFString>!Objective C
CFStringRef kSpeechVoiceCreator = CFSTR("Creator"); CFStringRef kSpeechVoiceID = CFSTR("ID");Константы
-
Ключи, используемые с
kSpeechCommandDelimiterPropertyсвойство для указания информации о строках разделителя команды.Объявление
Swift
var kSpeechCommandPrefix: Unmanaged<CFString>! var kSpeechCommandSuffix: Unmanaged<CFString>!Objective C
CFStringRef kSpeechCommandPrefix = CFSTR("Prefix"); CFStringRef kSpeechCommandSuffix = CFSTR("Suffix");Константы
-
kSpeechCommandPrefixkSpeechCommandPrefixРазделитель команды представляет это в виде строки префиксы команда (по умолчанию, это “
[[”). Строка должна содержать два или меньше символов, которые, для лучшей совместимости, должны быть символами ASCII.Доступный в OS X v10.5 и позже.
-
kSpeechCommandSuffixkSpeechCommandSuffixРазделитель команды представляет это в виде строки суффиксы команда (по умолчанию, это “
]]”). Строка должна содержать два или меньше символов, которые, для лучшей совместимости, должны быть символами ASCII.Доступный в OS X v10.5 и позже.
Доступность
Доступный в OS X v10.5 и позже.
-
-
Ключи, используемые в речевом словаре для переопределения произношения синтезатора по умолчанию слова.
Объявление
Swift
var kSpeechDictionaryLocaleIdentifier: Unmanaged<CFString>! var kSpeechDictionaryModificationDate: Unmanaged<CFString>! var kSpeechDictionaryPronunciations: Unmanaged<CFString>! var kSpeechDictionaryAbbreviations: Unmanaged<CFString>! var kSpeechDictionaryEntrySpelling: Unmanaged<CFString>! var kSpeechDictionaryEntryPhonemes: Unmanaged<CFString>!Objective C
CFStringRef kSpeechDictionaryLocaleIdentifier = CFSTR("LocaleIdentifier"); CFStringRef kSpeechDictionaryModificationDate = CFSTR("ModificationDate"); CFStringRef kSpeechDictionaryPronunciations = CFSTR("Pronunciations"); CFStringRef kSpeechDictionaryAbbreviations = CFSTR("Abbreviations"); CFStringRef kSpeechDictionaryEntrySpelling = CFSTR("Spelling"); CFStringRef kSpeechDictionaryEntryPhonemes = CFSTR("Phonemes");Константы
-
kSpeechDictionaryLocaleIdentifierkSpeechDictionaryLocaleIdentifierЛокаль связалась с произношением.
Доступный в OS X v10.5 и позже.
-
kSpeechDictionaryModificationDatekSpeechDictionaryModificationDateДата словарь была в последний раз изменена.
Доступный в OS X v10.5 и позже.
-
kSpeechDictionaryPronunciationskSpeechDictionaryPronunciationsНабор пользовательского произношения.
Доступный в OS X v10.5 и позже.
-
kSpeechDictionaryAbbreviationskSpeechDictionaryAbbreviationsНабор пользовательского произношения для сокращений.
Доступный в OS X v10.5 и позже.
-
kSpeechDictionaryEntrySpellingkSpeechDictionaryEntrySpellingНаписание записи.
Доступный в OS X v10.5 и позже.
-
kSpeechDictionaryEntryPhonemeskSpeechDictionaryEntryPhonemesФонематическое представление записи.
Доступный в OS X v10.5 и позже.
Обсуждение
Ключи в речевом словаре могут определить, как синтезатор произносит слово. После создания речевого словаря Вы регистрируете его в речевом канале с
UseSpeechDictionaryфункция. -
-
Когда ошибка происходит, указывает информацию о тексте, синтезируемом.
Объявление
Swift
var kSpeechErrorCallbackSpokenString: Unmanaged<CFString>! var kSpeechErrorCallbackCharacterOffset: Unmanaged<CFString>!Objective C
CFStringRef kSpeechErrorCallbackSpokenString = CFSTR("SpokenString"); CFStringRef kSpeechErrorCallbackCharacterOffset = CFSTR("CharacterOffset");Константы
-
kSpeechErrorCallbackSpokenStringkSpeechErrorCallbackSpokenStringТекст, синтезируемый, когда произошла ошибка.
Доступный в OS X v10.5 и позже.
-
kSpeechErrorCallbackCharacterOffsetkSpeechErrorCallbackCharacterOffsetИндекс символа в тексте, синтезируемом, когда ошибка произошла (строка, представляющая текст, находится в
kSpeechErrorCallbackSpokenString).Доступный в OS X v10.5 и позже.
-
Наиболее распространенные коды результата, возвращенные менеджером по Синтезу речи, упоминаются ниже.
-
Не удалось найти указанный синтезатор речи
Значение
- 240
Описание
Не удалось найти указанный синтезатор речи
Доступный в OS X v10.0 и позже.
-
Не удалось открыть другой канал синтезатора речи
Значение
- 241
Описание
Не удалось открыть другой канал синтезатора речи
Доступный в OS X v10.0 и позже.
-
Синтезатор речи все еще занят, говоря
Значение
- 242
Описание
Синтезатор речи все еще занят, говоря
Доступный в OS X v10.0 и позже.
-
Буфер вывода является слишком небольшим для содержания результата
Значение
- 243
Описание
Буфер вывода является слишком небольшим для содержания результата
Доступный в OS X v10.0 и позже.
-
Речевой ресурс, не найденный
Значение
- 244
Описание
Речевой ресурс, не найденный
Доступный в OS X v10.0 и позже.
-
Указанная речь не может использоваться с синтезатором
Значение
- 245
Описание
Указанная речь не может использоваться с синтезатором
Доступный в OS X v10.0 и позже.
-
Ошибка формата словаря произношения
Значение
- 246
Описание
Ошибка формата словаря произношения
Доступный в OS X v10.0 и позже.
-
Необработанный текст фонемы содержит недопустимые символы
Значение
- 247
Описание
Необработанный текст фонемы содержит недопустимые символы
Доступный в OS X v10.0 и позже.
Константы гештальта
Можно проверить на версию и информацию о доступности функции при помощи менеджера по Синтезу речи селекторы, определенные в менеджере по Гештальту. Для получения дополнительной информации посмотрите Внутренний OS X: менеджер по Гештальту Ссылка.
