Менеджер по синтезу речи ссылка
Менеджер по Синтезу речи, раньше названный менеджером по Речи, является частью Mac OS, обеспечивающего стандартный метод для приложений Mac для генерации синтезированной речи. Например, можно хотеть, чтобы приложение включило возможность говорить ее сообщения диалогового окна с пользователем. Приложение обработки текстов могло бы использовать менеджера по Синтезу речи для реализации команды, говорящей выбранный раздел документа пользователю. Поскольку звуковые выборки могут привести большие суммы в рабочее состояние комнаты на диске, использование текста вместо выбранного звука чрезвычайно эффективно. Например, мультимедийное приложение могло бы использовать менеджера по Синтезу речи для обеспечения повествования фильма в формате QuickTime вместо того, чтобы включить данные выбранного звука на дорожке фильма.
OS X v10.5 представляет собственную поддержку выполнения задач синтеза речи с помощью Базовых Основанных на основе объектов, таких как говорящий текст, представленный как CFString
объекты и управляющий свойствами речевого канала с помощью a CFDictionary
- основанный словарь свойства. Необходимо начать использовать эти Базовые Основанные на основе интерфейсы программирования, как только это удобно, потому что будущие синтезаторы примут Базовые строки Основы и структуры данных непосредственно через платформу синтеза речи. Тем временем существующие основанные на буфере клиенты и синтезаторы будут продолжать работать как прежде со строками и другими структурами данных, автоматически преобразовываемыми по мере необходимости.
-
SetSpeechInfo SetSpeechInfo
(OS X v10.8)Изменяет настройки определенного речевого канала.
Объявление
Objective C
OSErr SetSpeechInfo ( SpeechChannel chan, OSType selector, const void *speechInfo );
Параметры
chan
Речевой канал, для которого Ваше приложение хочет изменить настройки.
selector
Селектор информации о речи, указывающий тип изменяемой информации.
Для полного списка селекторов информации о речи посмотрите Константы информации о Речевом канале. Этот список указывает, как Ваше приложение должно установить
speechInfo
параметр для каждого селектора.speechInfo
Указатель, значение которого зависит от селектора информации о речи, указанного в
selector
параметр.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
SetSpeechInfo
функционируйте изменяет тип установки обозначенногоselector
параметр в речевом канале, указанномchan
параметр, на основе данных Ваше приложение обеспечивает черезspeechInfo
параметр.Формат структуры данных, указанной
speechInfo
параметр зависит от селектора, который Вы выбираете. Обычно, селектор требует этогоspeechInfo
будьте указателем на структуру данных, указывающую новую установку для речевого канала.Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
Устанавливает значение указанного свойства речевого канала.
Объявление
Swift
func SetSpeechProperty(_
chan
: SpeechChannel, _property
: CFString!, _object
: AnyObject!) -> OSErrObjective C
OSErr SetSpeechProperty ( SpeechChannel chan, CFStringRef property, CFTypeRef object );
Параметры
chan
Речевой канал, чье свойство для установки.
property
Свойство речевого канала для установки в указанное значение.
object
Значение, в которое должно быть установлено указанное свойство речевого канала. Для некоторых свойств это значение может быть
NULL
.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
SetSpeechProperty
функция является Базовым Основанным на основе эквивалентомSetSpeechInfo
функция.Посмотрите
“Speech-Channel Properties”
для получения информации о свойствах можно указать.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.5 и позже.
-
Устанавливает речевую подачу на определяемом речевом канале.
Объявление
Swift
func SetSpeechPitch(_
chan
: SpeechChannel, _pitch
: Fixed) -> OSErrObjective C
OSErr SetSpeechPitch ( SpeechChannel chan, Fixed pitch );
Параметры
chan
Речевой канал, подачу которого Вы хотите установить.
pitch
Новая подача для речевого канала, выраженного как значение частоты фиксированной точки.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
SetSpeechPitch
функционируйте изменяет текущую речевую подачу на речевом канале, указанномchan
параметр к подаче, указаннойpitch
параметр. Типичные частоты речевого диапазона располагаются приблизительно от 90 герц для низкого мужского голоса к, возможно, 300 герц для речи высокого дочернего элемента. Эти частоты соответствуют приблизительным значениям подачи в диапазонах 30 000 - 40 000 и 55 000 - 65 000, соответственно. Несмотря на то, что значения фиксированной точки позволяют Вам указывать широкий диапазон передач, не, все синтезаторы будут поддерживать полный спектр передач. Если Ваше приложение указывает подачу, которую не может обработать синтезатор, это может скорректировать подачу для адаптации в приемлемом диапазоне.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Устанавливает речевой уровень определяемого речевого канала.
Объявление
Swift
func SetSpeechRate(_
chan
: SpeechChannel, _rate
: Fixed) -> OSErrObjective C
OSErr SetSpeechRate ( SpeechChannel chan, Fixed rate );
Параметры
chan
Речевой канал, уровень которого Вы хотите установить.
rate
Новый речевой уровень в словах в минуту, выраженную как целочисленное значение.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
SetSpeechRate
функция корректирует речевой уровень на речевом канале, указанномchan
параметр к уровню, указанномуrate
параметр. Как правило говорящие уровни располагаются приблизительно от 150 слов в минуту приблизительно к 220 словам в минуту. Важно иметь в виду, однако, что пользователи будут отличаться значительно по их возможности понять синтезированную речь на определенном уровне, основанном на их уровне опыта, слушая речь и их возможность ожидать типы произнесения, с которым они встретятся.Примечание: новый речевой уровень должен быть выражен как целое число (не десятичное число фиксированной точки, поскольку тип данных подразумевает).
Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
TextToPhonemes TextToPhonemes
(OS X v10.8)Преобразовывает буфер текстовых данных в фонематические данные.
Объявление
Objective C
OSErr TextToPhonemes ( SpeechChannel chan, const void *textBuf, unsigned long textBytes, Handle phonemeBuf, long *phonemeBytes );
Параметры
chan
Речевой канал, связанный синтезатор которого и речь должны использоваться для процесса преобразования.
textBuf
Указатель на буфер текста, который будет преобразован.
textBytes
Число байтов текста, который будет преобразован.
phonemeBuf
Дескриптор к буферу, который будет использоваться, чтобы хранить фонематические данные.
TextToPhonemes
функция может изменить размеры перемещаемого блока, на который ссылается этот дескриптор.phonemeBytes
По возврату, указателю на число байтов фонематических данных, записанных в дескриптор.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
Преобразование текстовых данных в фонематические данные особенно полезно во время разработки приложений, когда Вы могли бы хотеть скорректировать фразы, которые Ваше приложение генерирует для создания более гладкой речи. Первым преобразованием целевой фразы в фонемы Вы видите то, что синтезатор попытается говорить. Тогда Вы должны исправить только роли, которые не игрались бы путем, Вы хотите.
TextToPhonemes
функция преобразовываетtextBytes
байты текстовых данных, на которые указываютtextBuf
параметр к фонематическим данным, которые это пишет в перемещаемый блок, указанныйphonemeBuf
параметр. Если необходимо,TextToPhonemes
изменяет размеры этого перемещаемого блока.TextToPhonemes
функционируйте устанавливаетphonemeBytes
параметр к числу байтов фонематических данных, фактически записанных.Если текстовые данные содержатся в перемещаемом блоке, дескриптор к тому блоку должен быть заблокирован перед
TextToPhonemes
функция вызвана.Данные, возвращенные
TextToPhonemes
соответствует точно фонемам, на которых говорили бы, имел входной текст, отправленный вSpeakText
вместо этого. Все текущие настройки режима для речевого канала, указанногоchan
применяются к преобразованной речи. Никакие обратные вызовы не сгенерированы в то время какTextToPhonemes
функция генерирует свой вывод.Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
Преобразовывает указанную текстовую строку в ее эквивалентное фонематическое представление.
Объявление
Swift
func CopyPhonemesFromText(_
chan
: SpeechChannel, _text
: CFString!, _phonemes
: UnsafeMutablePointer<Unmanaged<CFString>?>) -> OSErrObjective C
OSErr CopyPhonemesFromText ( SpeechChannel chan, CFStringRef text, CFStringRef *phonemes );
Параметры
chan
Речевой канал, связанный синтезатор которого и свойства должны использоваться в процессе преобразования.
text
Текст, из которого можно извлечь фонематические данные.
phonemes
По возврату, a
CFString
объект, содержащий извлеченные фонематические данные. Вызывающая сторона ответственна за выпуск этого объекта.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
CopyPhonemesFromText
функция является Базовым Основанным на основе эквивалентомTextToPhonemes
функция.Преобразование текстовых данных в фонематические данные особенно полезно во время разработки приложений, когда Вы могли бы хотеть скорректировать фразы, которые Ваше приложение генерирует для создания более гладкой речи. Первым преобразованием целевой фразы в фонемы Вы видите то, что синтезатор попытается говорить. Тогда Вы должны исправить только роли, которые не игрались бы путем, Вы хотите.
Данные
CopyPhonemesFromText
функционируйте хранилища вphonemes
параметр соответствует точно фонемам, на которых говорили бы, имел входной текст, отправленный вSpeakCFString
вместо этого. Все текущие настройки свойства для речевого канала, указанногоchan
применяются к преобразованной речи. Никакие обратные вызовы не сгенерированы в то время какCopyPhonemesFromText
функция генерирует свой вывод.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.5 и позже.
-
UseDictionary UseDictionary
(OS X v10.8)Устанавливает определяемый словарь в речевой канал.
Объявление
Objective C
OSErr UseDictionary ( SpeechChannel chan, Handle dictionary );
Параметры
chan
Речевой канал, в который должен быть установлен словарь.
dictionary
Дескриптор к данным словаря. Это часто - дескриптор к ресурсу типа
'dict'
.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
UseDictionary
функционируйте пытается установить данные словаря, на которые ссылаютсяdictionary
параметр в речевой канал, на который ссылаютсяchan
параметр. Синтезатор будет использовать любые элементы ресурса словаря, который он считает полезным для речевого процесса преобразования. Некоторые синтезаторы речи могли бы проигнорировать определенные типы словарных статей.После
UseDictionary
функционируйте возвраты, Ваше приложение является бесплатным выпустить любое хранение, выделенное для дескриптора словаря. Поисковый порядок на предоставленные приложением словари является последним - в, сначала искавший.Все подробные данные того, как предоставленный приложением словарь представлен в синтезаторе речи, зависят от определенной реализации синтезатора и являются частными к синтезатору.
Словари произношения позволяют Вашему приложению переопределять менеджера по Синтезу речи по умолчанию произношение отдельных слов, такое как имена с необычными написаниями.
Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
Регистрирует речевой словарь в речевом канале.
Объявление
Swift
func UseSpeechDictionary(_
chan
: SpeechChannel, _speechDictionary
: CFDictionary!) -> OSErrObjective C
OSErr UseSpeechDictionary ( SpeechChannel chan, CFDictionaryRef speechDictionary );
Параметры
chan
Речевой канал, в котором должен быть зарегистрирован указанный речевой словарь.
speechDictionary
Речевой словарь, который будет зарегистрирован в указанном речевом канале, представленном как a
CFDictionary
объект. Посмотрите“Speech Dictionary Keys”
для ключей можно использовать в словаре.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
Функция UseSpeechDictionary является Базовым Основанным на основе эквивалентом
UseDictionary
функция.UseSpeechDictionary
функционируйте регистрируетсяCFDictionary
объект, на который ссылаютсяspeechDictionary
параметр с речевым каналом, на который ссылаютсяchan
параметр. Речевые словари позволяют Вашему приложению переопределять произношение синтезатора по умолчанию отдельных слов, такое как имена с необычными написаниями. Синтезатор будет использовать любые элементы словаря, который он считает полезным в речевом процессе преобразования. Некоторые синтезаторы речи могли бы проигнорировать определенные типы словарных статей.Многократные словари могут быть зарегистрированы в синтезаторе. Если то же слово появится в многократных словарях, то синтезатор будет использовать тот из словаря с новой датой.
Обратите внимание на то, что, потому что речевой словарь является a
CFDictionary
объект, это может быть загружено из основанного на XML файла списка свойств. Пример такого файла показан ниже:<?xml version="1.0" encoding="UTF-8"?> <!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd"> <plist version="1.0"> <dict> <key>LocaleIdentifier</key> <string>en_US</string> <key>ModificationDate</key> <string>2006-12-21 11:59:25 -0800</string> <key>Pronunciations</key> <array> <dict> <key>Phonemes</key> <string>_hEY_yUW</string> <key>Spelling</key> <string>Hello</string> </dict> </array> <key>Abbreviations</key> <array> <dict> <key>Phonemes</key> <string>_OW_sAEkz</string> <key>Spelling</key> <string>OSAX</string> </dict> </array> </dict> </plist>
После
UseSpeechDictionary
функционируйте возвраты, Ваше приложение является бесплатным выпуститьCFDictionary
объект, на который ссылаютсяspeechDictionary
параметр.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.5 и позже.
-
Избавляется от существующего речевого канала.
Объявление
Swift
func DisposeSpeechChannel(_
chan
: SpeechChannel) -> OSErrObjective C
OSErr DisposeSpeechChannel ( SpeechChannel chan );
Параметры
chan
Речевой канал для избавления.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
DisposeSpeechChannel
функция избавляется от речевого канала, указанного вchan
параметр и выпуски вся память канал занимают. Если указанный речевой канал производит речь, тоDisposeSpeechChannel
функционируйте сразу останавливает речь перед избавлением от канала. При определении сделанной текстом функции обратного вызова или сделанной речью функции обратного вызова функция не будет вызвана, прежде чем от канала избавляются.Менеджер по Синтезу речи выпускает любые речевые каналы, от которых явно не избавилось приложение, когда приложение выходит. В целом, однако, Ваше приложение должно избавиться от любых речевых каналов, которые оно создало каждый раз, когда оно получает приостановить событие. Это гарантирует, что другие приложения могут в полной мере воспользоваться менеджером по Синтезу речи и Звуковыми возможностями менеджера.
Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Создает новый речевой канал.
Объявление
Swift
func NewSpeechChannel(_
voice
: UnsafeMutablePointer<VoiceSpec>, _chan
: UnsafeMutablePointer<SpeechChannel>) -> OSErrObjective C
OSErr NewSpeechChannel ( VoiceSpec *voice, SpeechChannel *chan );
Параметры
voice
Указатель на речевую структуру спецификации, соответствующую речи, которая будет использоваться для нового речевого канала. Передача
NULL
создать речевой канал с помощью речи системного значения по умолчанию.Указание речи означает, что начальный говорящий курс установлен говорящим уровнем синтезатора по умолчанию; передача
NULL
означает, что говорящий уровень автоматически установлен в уровень, который пользователь указывает в Речевых предпочтениях.chan
По возврату, указателю на допустимый речевой канал.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
NewSpeechChannel
функция выделяет память для структуры речевого канала и устанавливает переменную речевого канала, на которую указываютchan
параметр для указания на эту структуру речевого канала. Менеджер по Синтезу речи автоматически определяет местоположение и открывает соединение с надлежащим синтезатором для речи, указаннойvoice
параметр.Нет никакого предопределенного предела числу речевых каналов, которые может создать приложение. Однако системные ограничения на доступный RAM, загрузка процессора и число доступных звуковых каналов ограничивают число фактически возможных речевых каналов.
Ваше приложение не должно пытаться управлять данными, на которые указывает переменная типа
SpeechChannel
. Внутренний формат, что менеджер по Синтезу речи использование для данных речевых каналов не документируется и может измениться в будущих версиях системного программного обеспечения.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Связали значение с указанным свойством речевого канала.
Объявление
Swift
func CopySpeechProperty(_
chan
: SpeechChannel, _property
: CFString!, _object
: UnsafeMutablePointer<Unmanaged<AnyObject>?>) -> OSErrObjective C
OSErr CopySpeechProperty ( SpeechChannel chan, CFStringRef property, CFTypeRef *object );
Параметры
chan
Речевой канал, с которым связано указанное свойство.
property
Свойство речевого канала, о котором запрашивается информация. Посмотрите
“Speech-Channel Properties”
для получения информации о свойствах можно указать.object
По возврату, указателю на Базовый объект Основы, содержащий значение указанного свойства. Тип объекта зависит от определенного свойства, переданного в. Для некоторых свойств, значения
object
может бытьNULL
. Когда возвращенный объект является aCFDictionary
объект, можно использоватьCFDictionary
функции, такой какCFDictionaryGetValue
, получать значения связалось с ключами, связанными с указанным свойством.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
CopySpeechProperty
функция является Базовым Основанным на основе эквивалентомGetSpeechInfo
функция.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.5 и позже.
-
GetSpeechInfo GetSpeechInfo
(OS X v10.8)Получает информацию об определяемом речевом канале.
Объявление
Objective C
OSErr GetSpeechInfo ( SpeechChannel chan, OSType selector, void *speechInfo );
Параметры
chan
Речевой канал, о котором запрашивается информация.
selector
Селектор информации о речи, указывающий тип запрошенной информации.
Для полного списка селекторов информации о речи посмотрите Константы информации о Речевом канале. Этот список указывает, как Ваше приложение должно установить
speechInfo
параметр для каждого селектора.speechInfo
Указатель, значение которого зависит от селектора информации о речи, указанного в
selector
параметр.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
GetSpeechInfo
функционируйте возвраты в структуре данных, на которую указываютspeechInfo
параметр, тип требуемой информацииselector
параметр, поскольку это применяется к речевому каналу, указанному вchan
параметр.Формат структуры данных, указанной
speechInfo
параметр зависит от селектора, который Вы выбираете. Например, селектор мог бы потребовать, чтобы Ваше приложение выделило блок памяти определенного размера и передало указатель на тот блок. Другой селектор мог бы потребовать этогоspeechInfo
будьте установлены в адрес переменной дескриптора. В этом случае,GetSpeechInfo
функция выделила бы перемещаемый блок памяти и заменила бы переменную дескриптора, указанную для ссылки на блок.Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
Получает текущую речевую подачу речевого канала.
Объявление
Swift
func GetSpeechPitch(_
chan
: SpeechChannel, _pitch
: UnsafeMutablePointer<Fixed>) -> OSErrObjective C
OSErr GetSpeechPitch ( SpeechChannel chan, Fixed *pitch );
Параметры
chan
Речевой канал, подачу которого Вы хотите определить.
pitch
По возврату, указателю на текущую подачу речи в речевом канале, выраженном как значение частоты фиксированной точки.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
Типичные частоты речевого диапазона располагаются приблизительно от 90 герц для низкого мужского голоса к, возможно, 300 герц для речи высокого дочернего элемента. Эти частоты соответствуют приблизительным значениям подачи в диапазонах 30 000 - 40 000 и 55 000 - 65 000, соответственно.
Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Получает текущий речевой уровень речевого канала.
Объявление
Swift
func GetSpeechRate(_
chan
: SpeechChannel, _rate
: UnsafeMutablePointer<Fixed>) -> OSErrObjective C
OSErr GetSpeechRate ( SpeechChannel chan, Fixed *rate );
Параметры
chan
Речевой канал, курс которого Вы хотите установить.
rate
По возврату, указателю на речевой уровень речевого канала в словах в минуту, выраженную как целочисленное значение.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Определяет, синтезируют ли какие-либо каналы речи в настоящее время речь.
Объявление
Swift
func SpeechBusy() -> Int16
Objective C
SInt16 SpeechBusy ( void );
Возвращаемое значение
Число речевых каналов, в настоящее время синтезирующих речь в приложении. Это полезно, когда Вы хотите гарантировать, что более ранний речевой запрос был завершен прежде, чем иметь систему, говорят снова. Приостановленные речевые каналы считаются среди тех, которые синтезируют речь.
Речевой канал, который менеджер по Синтезу речи выделяет внутренне в ответ на вызовы к
SpeakString
функция считается в числе, возвращенномSpeechBusy
. Таким образом, если Вы используете простоSpeakString
инициировать речь,SpeechBusy
всегда возвраты1
пока речь производится. КогдаSpeechBusy
возвраты0
, вся речь закончилась.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Определяет, синтезируется ли какая-либо речь в настоящее время в Вашем приложении или в другом месте на компьютере.
Объявление
Swift
func SpeechBusySystemWide() -> Int16
Objective C
SInt16 SpeechBusySystemWide ( void );
Возвращаемое значение
Общее количество речевых каналов, в настоящее время синтезирующих речь на компьютере, инициировались ли они Вашим приложением или кодом процесса или некоторым другим процессом, выполняющимся одновременно. Приостановленные речевые каналы считаются среди тех каналов, синтезирующих речь.
Обсуждение
Эта функция полезна, когда Вы хотите гарантировать, что никакая речь в настоящее время не производится нигде на компьютере Macintosh прежде, чем инициировать речь. Несмотря на то, что менеджер по Синтезу речи позволяет различным приложениям производить речь одновременно, это может сбить с толку пользователю. В результате это часто - хорошая идея для Вашего приложения, чтобы проверить, что никакой другой процесс не производит речь прежде, чем произвести саму речь. Если различие между значениями, возвращенными
SpeechBusySystemWide
иSpeechBusy
функция0
, никакой другой процесс не производит речь.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Определяет текущую версию менеджера по Синтезу речи, установленного в системе.
Объявление
Swift
func SpeechManagerVersion() -> NumVersion
Objective C
NumVersion SpeechManagerVersion ( void );
Возвращаемое значение
Версия менеджера по Синтезу речи, установленного в системе, в формате первых 4 байтов a
'vers'
ресурс.Обсуждение
Используйте этот вызов, чтобы определить, может ли Ваша программа получить доступ к функциям менеджера по Синтезу речи, включенным в некоторого менеджера по Синтезу речи выпуски, но не в более ранние.
Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Определяет, сколько речи доступно.
Объявление
Swift
func CountVoices(_
numVoices
: UnsafeMutablePointer<Int16>) -> OSErrObjective C
OSErr CountVoices ( SInt16 *numVoices );
Параметры
numVoices
На выходе, указателе на число речи, которую может использовать приложение.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
CountVoices
функционируйте возвраты, вnumVoices
параметр, число доступной речи. Приложение может тогда использовать эту информацию для вызоваGetIndVoice
функция для получения речевых структур спецификации для один или больше речи.Каждый раз
CountVoices
вызывается, менеджер по Синтезу речи поиски новой речи.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Получает речевую структуру спецификации для речи путем передачи индекса
GetIndVoice
функция.Объявление
Swift
func GetIndVoice(_
index
: Int16, _voice
: UnsafeMutablePointer<VoiceSpec>) -> OSErrObjective C
OSErr GetIndVoice ( SInt16 index, VoiceSpec *voice );
Параметры
index
Индекс речи, для которой можно получить речевую структуру спецификации. Это число должно расположиться от
1
к общему количеству речи, как возвращеноCountVoices
функция.voice
Указатель на речевую структуру спецификации, поля которой должны быть заполнены в.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
GetIndVoice
функционируйте возвраты в речевой структуре спецификации, на которую указываютvoice
параметр, спецификация речи, индекс которой предоставлен вindex
параметр. Ваше приложение не должно делать предположения о порядке, в котором индексируется речь.Ваше приложение не должно добавлять, удалять, или изменять речь и затем вызывать
GetIndVoice
функция с индексом оценивает кроме1
. Чтобы позволить менеджеру по Синтезу речи обновлять его информацию о речи, Ваше приложение должно всегда или вызыватьCountVoices
функционируйте или вызовитеGetIndVoice
функция с индексным значением1
после добавления, удаления или изменения речи или через некоторое время в котором пользователь, возможно, сделал так.Если Вы указываете, что индекс оценивает вне числа доступной речи,
GetIndVoice
функционируйте возвращает avoiceNotFound
ошибка.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Получает описание речи при помощи
GetVoiceDescription
функция.Объявление
Swift
func GetVoiceDescription(_
voice
: UnsafePointer<VoiceSpec>, _info
: UnsafeMutablePointer<VoiceDescription>, _infoLength
: Int) -> OSErrObjective C
OSErr GetVoiceDescription ( const VoiceSpec *voice, VoiceDescription *info, long infoLength );
Параметры
voice
Указатель на речевую структуру спецификации, идентифицирующую речь, которая будет описана, или
NULL
получить описание речи системного значения по умолчанию.info
Указатель на речевую структуру описания. Если этот параметр
NULL
, функция не заполняет поля речевой структуры описания; вместо этого, это просто определяет лиvoice
параметр указывает доступную речь и, в противном случае возвращает avoiceNotFound
ошибка.infoLength
Длина, в байтах, речевой структуры описания. В текущей версии менеджера по Синтезу речи речевая структура описания содержит 362 байта. Однако необходимо всегда использовать
SizeOf
функция для определения длины этой структуры.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
GetVoiceDescription
функция заполняет речевую структуру описания, на которую указываютinfo
параметр с корректной информацией для речи, указаннойvoice
параметр. Это заполняетlength
поле речевой структуры описания с числом байтов фактически скопировано. Это значение всегда будет меньше чем или равно значению, в котором передает Ваше приложениеinfoLength
перед вызовомGetVoiceDescription
. Эта схема позволяет приложениям, предназначенным для текущей версии менеджера по Синтезу речи работать над будущими версиями, которые могли бы иметь более длинные речевые структуры описания; это также позволяет Вам писать код для будущих версий менеджера по Синтезу речи, который будет также работать на компьютерах, поддерживающих только текущую версию.Если речевая структура спецификации не идентифицирует доступную речь,
GetVoiceDescription
возвраты avoiceNotFound
ошибка.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Получает ту же информацию о речи что
GetVoiceDescription
функция обеспечивает, или определить, в котором файле и снабжают речь ресурсами, сохранен.Объявление
Swift
func GetVoiceInfo(_
voice
: UnsafePointer<VoiceSpec>, _selector
: OSType, _voiceInfo
: UnsafeMutablePointer<Void>) -> OSErrObjective C
OSErr GetVoiceInfo ( const VoiceSpec *voice, OSType selector, void *voiceInfo );
Параметры
voice
Указатель на речевую структуру спецификации, идентифицирующую речь, о которой Ваше приложение запрашивает информацию, или
NULL
получить информацию о речи системного значения по умолчанию.selector
Спецификация типа запрошенных данных. Для текущих версий менеджера по Синтезу речи необходимо установить это поле любой в
soVoiceDescription
, если требуется использоватьGetVoiceInfo
функционируйте для имитацииGetVoiceDescription
функция, или кsoVoiceFile
, если требуется получить информацию о расположении речи на диске.voiceInfo
Указатель на надлежащую структуру данных. Если селектор
soVoiceDescription
, тогдаvoiceInfo
должен быть указатель на речевую структуру описания, иlength
поле структуры должно быть установлено в длину речевой структуры описания. Если селекторsoVoiceFile
, тогдаvoiceInfo
должен быть указатель на речевую информационную структуру файла.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
Эта функция предназначается прежде всего для использования синтезаторами, но приложение может вызвать его также.
GetVoiceInfo
функция принимает селектор вselector
параметр, определяющий тип информации, которую Вы хотите получить о речи, указанной вvoice
параметр. Функция тогда заполняет поля структуры данных, надлежащей селектору, который Вы указываете вvoiceInfo
параметр.Если речевая спецификация недопустима,
GetVoiceInfo
возвраты avoiceNotFound
ошибка. Если существует недостаточно памяти для загрузки речи в память для получения информации об этом,GetVoiceInfo
возвращает код результатаmemFullErr
.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Устанавливает поля речевой структуры спецификации.
Объявление
Swift
func MakeVoiceSpec(_
creator
: OSType, _id
: OSType, _voice
: UnsafeMutablePointer<VoiceSpec>) -> OSErrObjective C
OSErr MakeVoiceSpec ( OSType creator, OSType id, VoiceSpec *voice );
Параметры
creator
ID синтезатора, которого требует Ваше приложение.
id
ID речи на синтезаторе, указанном
creator
параметр.voice
Указатель на речевую структуру спецификации, поля которой должны быть заполнены в.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
Речевая структура спецификации является уникальной речью ID, используемый менеджером по Синтезу речи. Большинство речевых функций управления ожидает быть переданным указатель на речевую структуру спецификации. Когда Вы уже знаете создателя и ID для речи, необходимо использовать
MakeVoiceSpec
функция для создания такой структуры вместо того, чтобы заполнить поля одного непосредственно. На выходе, речевая структура спецификации, на которую указываютvoice
параметр содержит надлежащие значения. Вы никогда не должны устанавливать поля такой структуры непосредственно.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Речь резюме, приостановленная
PauseSpeechAt
функция.Объявление
Swift
func ContinueSpeech(_
chan
: SpeechChannel) -> OSErrObjective C
OSErr ContinueSpeech ( SpeechChannel chan );
Параметры
chan
Приостановленный речевой канал, на котором должна быть возобновлена речь.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
В любое время после
PauseSpeechAt
функция вызвана,ContinueSpeech
функция может быть вызвана, чтобы продолжать говорить с начала слова, в котором приостановилась речь. ВызовContinueSpeech
на канале, который в настоящее время не находится в приостановленном состоянии, не имеет никакого эффекта на речевой канал или на будущие вызовы кPauseSpeechAt
функция. Если Вы вызываетеContinueSpeech
на канале, прежде чем пауза является эффективной,ContinueSpeech
отменяет паузу.Если
PauseSpeechAt
функционируйте остановил речь посреди слова, менеджер по Синтезу речи начнет произносить то слово с начала, когда Вы вызоветеContinueSpeech
.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Речь пауз на речевом канале.
Объявление
Swift
func PauseSpeechAt(_
chan
: SpeechChannel, _whereToPause
: Int32) -> OSErrObjective C
OSErr PauseSpeechAt ( SpeechChannel chan, SInt32 whereToPause );
Параметры
chan
Речевой канал, на котором должна быть приостановлена речь.
whereToPause
Постоянное указание, когда должна быть приостановлена обработка речи. Передайте константу
kImmediate
приостановиться сразу, даже посреди слова. ПередачаkEndOfWord
илиkEndOfSentence
к речи паузы в конце текущего слова или предложения, соответственно.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
PauseSpeechAt
функция делает паузу речеобразования в указанной точке в тексте.PauseSpeechAt
возвраты сразу, несмотря на то, что речевой вывод будет продолжаться до указанной точки.Можно определить, приостановило ли приложение речевой вывод на речевом канале путем получения речевой структуры информации о статусе через
GetSpeechInfo
функция. В то время как речевой канал приостанавливается, речевая структура информации о статусе указывает этоoutputBusy
иoutputPaused
обаTRUE
.Если конец входного текстового буфера достигнут перед указанной точкой паузы, паузами речевого вывода в конце буфера.
PauseSpeechAt
функция отличается отStopSpeech
иStopSpeechAt
функции в этом последующий вызов кContinueSpeech
, описанный затем, заставляет содержание буфера текущего текста продолжать говориться.Если Вы планируете продолжать синтез речи от приостановленного речевого канала, текстовый обрабатываемый буфер должен остаться доступным в любом случае и не должен перемещаться, в то время как канал находится в приостановленном состоянии.
Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
SpeakBuffer SpeakBuffer
(OS X v10.8)Говорит буфер текста, с помощью определенных флагов для управления речевым поведением.
Объявление
Objective C
OSErr SpeakBuffer ( SpeechChannel chan, const void *textBuf, unsigned long textBytes, SInt32 controlFlags );
Параметры
chan
Речевой канал, через который нужно говорить на речи.
textBuf
Указатель на первый байт текста к разговорному.
textBytes
Число байтов текста к разговорному.
controlFlags
Управление отмечает для настройки речевого поведения.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
SpeakBuffer
функция ведет себя тождественно кSpeakText
функция, но позволяет управление нескольких речевых параметров путем установки значенийcontrolFlags
параметр.controlFlags
параметр полагается на определенные константы, которые могут быть применены аддитивным образом. Посмотрите Константы Флагов Управления.Каждая константа указывает флаговый бит
controlFlags
параметр, таким образом, путем передачи констант аддитивным образом можно включить многократные возможностиSpeakBuffer
. Если Вы передаете0
вcontrolFlags
параметр,SpeakBuffer
работы точно так же, какSpeakText
. Путем передачиkNoEndingProsody + kNoSpeechInterrupt
вcontrolFlags
параметр,SpeakBuffer
работы какSpeakText
за исключением того, чтоkNoEndingProsody
иkNoSpeechInterrupt
функции были выбраны. Будущие версии менеджера по Синтезу речи могут определить дополнительные константы.Когда
controlFlags
параметр устанавливается на0
,SpeakBuffer
ведет себя тождественно кSpeakText
.Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
SpeakString SpeakString
(OS X v10.8)Начинает говорить текстовую строку.
Объявление
Objective C
OSErr SpeakString ( ConstStr255Param textToBeSpoken );
Параметры
textToBeSpoken
Строка, на которой будут говорить.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
SpeakString
функционируйте пытается говорить текстовую строку стиля Паскаля, содержавшуюся в строкеtextToBeSpoken
. Речь производится асинхронно с помощью системной речи по умолчанию. Когда приложение вызывает эту функцию, менеджер по Синтезу речи делает копию переданной строки и создает любые структуры, требуемые говорить ее. Как только разговор начался, управление возвращается к приложению. Синтезированная речь сгенерирована асинхронно к приложению так, чтобы нормальная обработка могла продолжаться, в то время как говорят на тексте. Никакое дальнейшее взаимодействие с менеджером по Синтезу речи не требуется в этой точке, и приложение является бесплатным выпустить память, которую заняла исходная строка.Если
SpeakString
вызывается, в то время как на предшествующей строке все еще говорят, звук, в настоящее время синтезируемый, сразу прерван. Преобразование нового текста в речь тогда начато. Если Вы передаете строку нулевой длины (или, в C, anull
указатель) кSpeakString
, менеджер по Синтезу речи останавливает любую речь, ранее синтезируемуюSpeakString
не генерируя дополнительную речь. Если Ваше приложение используетSpeakString
, это часто - хорошая идея остановить любую происходящую речь каждый раз, когда Ваше приложение получает приостановить событие. ВызовSpeakString
со строкой нулевой длины не имеет никакого эффекта на речевые каналы кроме того, которым управляет внутренне менеджер по Синтезу речи поSpeakString
функция.)Текст передал
SpeakString
функция может содержать встроенные речевые команды.Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
Начинает говорить строку, представленную как a
CFString
объект.Объявление
Swift
func SpeakCFString(_
chan
: SpeechChannel, _aString
: CFString!, _options
: CFDictionary!) -> OSErrObjective C
OSErr SpeakCFString ( SpeechChannel chan, CFStringRef aString, CFDictionaryRef options );
Параметры
chan
Речевой канал, через который нужно говорить на речи.
aString
Строка, на которой будут говорить, представленный как a
CFString
объект.options
Дополнительный словарь пар ключ/значение раньше настраивал речевое поведение. Посмотрите
“Synthesizer Option Keys”
для доступных ключей.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
SpeakCFString
функция является Базовым Основанным на основе эквивалентомSpeakBuffer
функция.SpeakCFString
функция преобразовывает текстовую строку, указанную вaString
в речь, с помощью речи и настроек управления в действительности для речевого канала, указанного вchan
. (Перед использованиемSpeakCFString
, поэтому, убедитесь, что Вы создали речевой канал сNewSpeechChannel
функция.)SpeakCFString
функция генерирует речь асинхронно, что означает, что управление возвращается к Вашему приложению, прежде чем речь закончилась, возможно даже, прежде чем речь является сначала слышимой.Если
SpeakCFString
вызывается, в то время как речевой канал в настоящее время говорит содержание другой текстовой строки, речь сразу останавливается, и на новой текстовой строке говорят как можно скорее.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.5 и позже.
-
Начинает говорить буфер текста.
Объявление
Objective C
OSErr SpeakText ( SpeechChannel chan, const void *textBuf, unsigned long textBytes );
Параметры
chan
Речевой канал, через который нужно говорить на речи.
textBuf
Указатель на первый байт текста к разговорному.
textBytes
Число байтов текста к разговорному.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
Как
SpeakString
,SpeakText
функция также генерирует речь, но через речевой канал, через который можно осуществить контроль над сгенерированной речью.SpeakText
функция преобразовывает текстовый поток, указанныйtextBuf
иtextBytes
параметры в речь с помощью речи и настроек управления для речевого каналаchan
, который должен быть создан сNewSpeechChannel
функция. Речь сгенерирована асинхронно. Это означает, что управление возвращается к Вашему приложению, прежде чем речь закончилась (и вероятно даже, прежде чем это началось). Максимальная длина текстового буфера, на котором можно говорить, ограничивается только доступным RAM.Если
SpeakText
вызывается, в то время как канал в настоящее время занят, говоря содержание предшествующего текстового буфера, он сразу прекращает говорить от предшествующего буфера и начинает говорить от нового текстового буфера как можно скорее. Если Вы передаете строку нулевой длины (или, в C, anull
указатель) кSpeakText
, менеджер по Синтезу речи останавливает всю речь, в настоящее время синтезируемую речевым каналом, указанным вchan
параметр, не генерируя дополнительную речь.Текстовый буфер должен быть заблокирован в памяти и не должен перемещаться, в то время как менеджер по Синтезу речи обрабатывает его. Во время прерывания читается этот буфер, и перемещение его могло вызвать системный катастрофический отказ. Если Ваше приложение определяет сделанную текстом функцию обратного вызова, то оно может переместиться, текст буферизуют или избавляются от него, как только выполняется функция обратного вызова.
Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
Сразу завершает речь на указанном канале.
Объявление
Swift
func StopSpeech(_
chan
: SpeechChannel) -> OSErrObjective C
OSErr StopSpeech ( SpeechChannel chan );
Параметры
chan
Речевой канал, на котором должна быть остановлена речь.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
StopSpeech
функция сразу завершает речь на канале, указанномchan
параметр. После возврата изStopSpeech
, Ваше приложение может безопасно выпустить любой текстовый буфер, который использовал синтезатор речи. Можно вызватьStopSpeech
для уже незанятого канала без вредного воздействия.Можно также остановить речь путем передачи строки нулевой длины (или, в C, a
null
указатель) к одному изSpeakString
,SpeakText
, илиSpeakBuffer
функции. Выполнение этого останавливает речь только в указанном речевом канале (или, в случаеSpeakString
, в речевом канале, которым управляет внутренне менеджер по Синтезу речи).Прежде, чем вызвать
StopSpeech
функция, можно использоватьSpeechBusy
функция, описанная вSpeechBusy
, определить, говорит ли все еще синтезатор. Если Вы работаете с многократными речевыми каналами, можно использовать селектор состояния с функциейGetSpeechInfo
который описан вGetSpeechInfo
, определить, говорит ли все еще определенный канал.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Завершает речевую поставку на указанный канал или сразу или в конце текущего слова или предложения.
Объявление
Swift
func StopSpeechAt(_
chan
: SpeechChannel, _whereToStop
: Int32) -> OSErrObjective C
OSErr StopSpeechAt ( SpeechChannel chan, SInt32 whereToStop );
Параметры
chan
Речевой канал, на котором должна быть остановлена речь.
whereToStop
Постоянное указание, когда должна остановиться обработка речи. Передайте константу
kImmediate
остановиться сразу, даже посреди слова. ПередачаkEndOfWord
илиkEndOfSentence
остановить речь в конце текущего слова или предложения, соответственно.Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
StopSpeechAt
функционируйте останавливает производство речи на канале, указанномchan
в указанной точке в тексте. Эта функция сразу возвращается, несмотря на то, что речевой вывод продолжается, пока указанная точка не была достигнута.Если Вы вызываете
StopSpeechAt
функция перед менеджером по Синтезу речи заканчивает обрабатывать входной текст, тогда функция могла бы возвратиться, прежде чем на некотором входном тексте нужно все же говорить. Таким образом, перед избавлением от текстового буфера, Ваше приложение должно ожидать, пока его сделанную текстом функцию обратного вызова не вызвали (если Вы были определены), или пока это не может определить (например получая речевую структуру информации о статусе), что менеджер по Синтезу речи больше не обрабатывает входной текст.Если конец входного текстового буфера достигнут перед указанной точкой остановки, остановками синтезатора речи в конце буфера, не генерируя ошибку.
Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Регистры и делают доступным синтезатор речи или речь.
Объявление
Swift
func SpeechSynthesisRegisterModuleURL(_
url
: CFURL!) -> OSErrObjective C
OSErr SpeechSynthesisRegisterModuleURL ( CFURLRef url );
Параметры
url
URL файла плагина синтезатора или речи для регистрации (отмечают, что плагин синтезатора или речь должны быть на смонтированном объеме, чтобы быть доступными для регистрации).
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
SpeechSynthesisRegisterModuleURL
функционируйте регистрирует синтезатор речи или речь, указаннуюurl
и делает его доступным для обработки вызовов. Прежде чем речь синтезатора может быть зарегистрирована, синтезатор должен быть зарегистрирован (или загружен автоматически менеджером по Синтезу речи). Если Вы вызываетеSpeechSynthesisRegisterModuleURL
для регистрации речи и Вы получаете“incompatibleVoice”
закончитесь код, вероятно, что должен быть зарегистрирован синтезатор, связанный с речью. Если Вы вызываете эту функцию для регистрации синтезатора или речи, уже зарегистрированной,SpeechSynthesisRegisterModuleURL
ничего не делает и возвращает ошибку.Зарегистрированный синтезатор или речь известны только приложению, зарегистрировавшему его. Поэтому каждое приложение должно вызвать
SpeechSynthesisRegisterModuleURL
даже если комплект работы приложений вместе и использует тот же синтезатор и речь, для регистрации синтезатора или речи, это использует.Вызвавшее приложение
SpeechSynthesisRegisterModuleURL
если объем, содержащий синтезатор или речь, собирается быть размонтированным, зарегистрировать синтезатор или речь должно сделать следующий:Вызвать
DisposeSpeechChannel
избавляться от каждого речевого канала, использующего синтезатор или речьВызвать
SpeechSynthesisUnregisterModuleURL
не зарегистрировать синтезатор или речь
Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.6 и позже.
См. также
-
Не регистрирует зарегистрированный синтезатор речи или речь.
Объявление
Swift
func SpeechSynthesisUnregisterModuleURL(_
url
: CFURL!) -> OSErrObjective C
OSErr SpeechSynthesisUnregisterModuleURL ( CFURLRef url );
Параметры
url
Файл URL плагина синтезатора или речи, чтобы не зарегистрироваться.
Возвращаемое значение
Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.
Обсуждение
SpeechSynthesisUnregisterModuleURL
функционируйте не регистрирует синтезатор речи или речь, указаннуюurl
. Когда синтезатор не зарегистрирован, вся речь, требующая, чтобы синтезатор был автоматически не зарегистрирован.Обратите внимание на то, что, если речевой канал в настоящее время использует синтезатор или речь, становящуюся незарегистрированной, речевой канал считают неактивным и возвратит ошибку, когда приложение пытается получить доступ к нему.
Вызвавшее приложение
SpeechSynthesisRegisterModuleURL
если объем, содержащий синтезатор или речь, собирается быть размонтированным, зарегистрировать синтезатор или речь должно сделать следующий:Вызвать
DisposeSpeechChannel
избавляться от каждого речевого канала, использующего синтезатор или речьВызвать
SpeechSynthesisUnregisterModuleURL
не зарегистрировать синтезатор или речь
Если Вы вызываете
SpeechSynthesisUnregisterModuleURL
чтобы не зарегистрировать синтезатор или речь и Вы принимаете любого“noSynthFound”
или“voiceNotFound”
закончитесь коды, это означает, что в настоящее время не регистрируются синтезатор или речь.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.6 и позже.
См. также
-
DisposeSpeechDoneUPP DisposeSpeechDoneUPP
(OS X v10.8)Избавляется от универсального указателя процедуры (UPP) к сделанной речью функции обратного вызова.
Объявление
Objective C
void DisposeSpeechDoneUPP ( SpeechDoneUPP userUPP );
Параметры
userUPP
UPP для избавления.
Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
DisposeSpeechErrorUPP DisposeSpeechErrorUPP
(OS X v10.8)Избавляется от универсального указателя процедуры (UPP) к ошибочной функции обратного вызова.
Объявление
Objective C
void DisposeSpeechErrorUPP ( SpeechErrorUPP userUPP );
Параметры
userUPP
UPP для избавления.
Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
DisposeSpeechPhonemeUPP DisposeSpeechPhonemeUPP
(OS X v10.8)Избавляется от универсального указателя процедуры (UPP) к функции обратного вызова фонемы.
Объявление
Objective C
void DisposeSpeechPhonemeUPP ( SpeechPhonemeUPP userUPP );
Параметры
userUPP
UPP для избавления.
Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
DisposeSpeechSyncUPP DisposeSpeechSyncUPP
(OS X v10.8)Избавляется от универсального указателя процедуры (UPP) к функции обратного вызова синхронизации.
Объявление
Objective C
void DisposeSpeechSyncUPP ( SpeechSyncUPP userUPP );
Параметры
userUPP
UPP для избавления.
Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
DisposeSpeechTextDoneUPP DisposeSpeechTextDoneUPP
(OS X v10.8)Избавляется от универсального указателя процедуры (UPP) к сделанной текстом функции обратного вызова.
Объявление
Objective C
void DisposeSpeechTextDoneUPP ( SpeechTextDoneUPP userUPP );
Параметры
userUPP
UPP для избавления.
Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
DisposeSpeechWordUPP DisposeSpeechWordUPP
(OS X v10.8)Избавляется от универсального указателя процедуры (UPP) к функции обратного вызова слова.
Объявление
Objective C
void DisposeSpeechWordUPP ( SpeechWordUPP userUPP );
Параметры
userUPP
UPP для избавления.
Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
InvokeSpeechDoneUPP InvokeSpeechDoneUPP
(OS X v10.8)Вызывает Вашу сделанную речью функцию обратного вызова.
Объявление
Objective C
void InvokeSpeechDoneUPP ( SpeechChannel chan, SRefCon refCon, SpeechDoneUPP userUPP );
Обсуждение
Вы не должны должны быть вызывать
InvokeSpeechDoneUPP
функция, потому что системные вызовы Ваша сделанная речью функция обратного вызова для Вас.Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
InvokeSpeechErrorUPP InvokeSpeechErrorUPP
(OS X v10.8)Вызывает Вашу ошибочную функцию обратного вызова.
Объявление
Objective C
void InvokeSpeechErrorUPP ( SpeechChannel chan, SRefCon refCon, OSErr theError, long bytePos, SpeechErrorUPP userUPP );
Обсуждение
Вы не должны должны быть вызывать
InvokeSpeechErrorUPP
функция, потому что системные вызовы Ваша ошибочная функция обратного вызова для Вас.Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
InvokeSpeechPhonemeUPP InvokeSpeechPhonemeUPP
(OS X v10.8)Вызывает Вашу функцию обратного вызова фонемы.
Объявление
Objective C
void InvokeSpeechPhonemeUPP ( SpeechChannel chan, SRefCon refCon, SInt16 phonemeOpcode, SpeechPhonemeUPP userUPP );
Обсуждение
Вы не должны должны быть вызывать
InvokeSpeechPhonemeUPP
функция, потому что системные вызовы Ваша функция обратного вызова фонемы для Вас.Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
InvokeSpeechSyncUPP InvokeSpeechSyncUPP
(OS X v10.8)Вызывает Вашу функцию обратного вызова синхронизации.
Объявление
Objective C
void InvokeSpeechSyncUPP ( SpeechChannel chan, SRefCon refCon, OSType syncMessage, SpeechSyncUPP userUPP );
Обсуждение
Вы не должны должны быть вызывать
InvokeSpeechSyncUPP
функция, потому что системные вызовы Ваша функция обратного вызова синхронизации для Вас.Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
InvokeSpeechTextDoneUPP InvokeSpeechTextDoneUPP
(OS X v10.8)Вызывает Вашу сделанную текстом функцию обратного вызова.
Объявление
Objective C
void InvokeSpeechTextDoneUPP ( SpeechChannel chan, SRefCon refCon, const void **nextBuf, unsigned long *byteLen, SInt32 *controlFlags, SpeechTextDoneUPP userUPP );
Обсуждение
Вы не должны должны быть вызывать
InvokeSpeechTextDoneUPP
функция, потому что системные вызовы Ваша сделанная текстом функция обратного вызова для Вас.Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
InvokeSpeechWordUPP InvokeSpeechWordUPP
(OS X v10.8)Вызывает Вашу функцию обратного вызова слова.
Объявление
Objective C
void InvokeSpeechWordUPP ( SpeechChannel chan, SRefCon refCon, unsigned long wordPos, UInt16 wordLen, SpeechWordUPP userUPP );
Обсуждение
Вы не должны должны быть вызывать
InvokeSpeechWordUPP
функция, потому что системные вызовы Ваша функция обратного вызова слова для Вас.Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
NewSpeechDoneUPP NewSpeechDoneUPP
(OS X v10.8)Создает новый универсальный указатель процедуры (UPP) к сделанной речью функции обратного вызова.
Объявление
Objective C
SpeechDoneUPP NewSpeechDoneUPP ( SpeechDoneProcPtr userRoutine );
Параметры
userRoutine
Указатель на Вашу сделанную речью функцию обратного вызова.
Возвращаемое значение
UPP к сделанной речью функции обратного вызова. См. описание
SpeechDoneUPP
тип данных.Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
NewSpeechErrorUPP NewSpeechErrorUPP
(OS X v10.8)Создает новый универсальный указатель процедуры на ошибочную функцию обратного вызова.
Объявление
Objective C
SpeechErrorUPP NewSpeechErrorUPP ( SpeechErrorProcPtr userRoutine );
Параметры
userRoutine
Указатель на Вашу ошибочную функцию обратного вызова.
Возвращаемое значение
UPP к ошибочной функции обратного вызова. См. описание
SpeechErrorUPP
тип данных.Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
NewSpeechPhonemeUPP NewSpeechPhonemeUPP
(OS X v10.8)Избавляется от универсального указателя процедуры (UPP) к функции обратного вызова фонемы.
Объявление
Objective C
SpeechPhonemeUPP NewSpeechPhonemeUPP ( SpeechPhonemeProcPtr userRoutine );
Параметры
userRoutine
Указатель на Вашу функцию обратного вызова фонемы.
Возвращаемое значение
UPP к функции обратного вызова фонемы. См. описание
SpeechPhonemeUPP
тип данных.Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
NewSpeechSyncUPP NewSpeechSyncUPP
(OS X v10.8)Создает новый универсальный указатель процедуры (UPP) к функции обратного вызова синхронизации.
Объявление
Objective C
SpeechSyncUPP NewSpeechSyncUPP ( SpeechSyncProcPtr userRoutine );
Параметры
userRoutine
Указатель на Вашу функцию обратного вызова синхронизации.
Возвращаемое значение
UPP к функции обратного вызова синхронизации. См. описание
SpeechSyncUPP
тип данных.Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
NewSpeechTextDoneUPP NewSpeechTextDoneUPP
(OS X v10.8)Создает новый универсальный указатель процедуры (UPP) к сделанной текстом функции обратного вызова.
Объявление
Objective C
SpeechTextDoneUPP NewSpeechTextDoneUPP ( SpeechTextDoneProcPtr userRoutine );
Параметры
userRoutine
Указатель на Вашу сделанную текстом функцию обратного вызова.
Возвращаемое значение
UPP к сделанной текстом функции обратного вызова. См. описание
SpeechTextDoneUPP
тип данных.Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
NewSpeechWordUPP NewSpeechWordUPP
(OS X v10.8)Создает новый универсальный указатель процедуры (UPP) к функции обратного вызова слова.
Объявление
Objective C
SpeechWordUPP NewSpeechWordUPP ( SpeechWordProcPtr userRoutine );
Параметры
userRoutine
Указатель на Вашу функцию обратного вызова слова.
Возвращаемое значение
UPP к функции обратного вызова слова. См. описание
SpeechWordUPP
тип данных.Оператор импорта
Objective C
@import ApplicationServices;
Доступность
Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.8.
-
Определяет указатель на сделанную речью функцию обратного вызова, которую вызывают, когда менеджер по Синтезу речи заканчивает говорить буфер текста.
Объявление
Swift
typealias SpeechDoneProcPtr = CFunctionPointer<((SpeechChannel, SRefCon) -> Void)>
Objective C
typedef void (*SpeechDoneProcPtr) ( SpeechChannel chan, SRefCon refCon );
Параметры
chan
Речевой канал, закончивший обрабатывать входной текст.
refCon
Ссылочная константа связалась с речевым каналом.
Обсуждение
Если сделанная речью функция обратного вызова установлена в речевом канале, то Вызовы диспетчера Синтеза речи эта функция, когда это заканчивает говорить буфер текста.
Можно указать сделанную речью функцию обратного вызова путем передачи
soSpeechDoneCallBack
селектор кSetSpeechInfo
функция.Вы могли бы использовать сделанную речью функцию обратного вызова, если необходимо обновить некоторый визуальный индикатор, показывающий, на каком тексте в настоящее время говорят. Например, предположите, что Ваше приложение передает текстовые буферы менеджеру по Синтезу речи один абзац за один раз. Ваша сделанная речью функция обратного вызова могла бы установить глобальную переменную флага, чтобы указать к приложению, что менеджер по Синтезу речи закончил говорить абзац. Когда функция, вызванная основным циклом событий Вашего приложения, проверяет глобальную переменную флага и решает, что это было установлено, функция могла бы гарантировать, что следующий абзац текста видим.
Вы могли бы использовать сделанную речью функцию обратного вызова для установки переменной флага, предупреждающей приложение, что это должно передать новый буфер текста менеджеру по Синтезу речи. Если Вы делаете так, однако, могла бы быть значимая пауза, поскольку менеджер по Синтезу речи переключается от обработки одного текстового буфера другому. Обычно, проще достигнуть этой цели при помощи сделанной текстом функции обратного вызова, как описано ранее.
Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Определяет указатель на ошибочную функцию обратного вызова, обрабатывающую синтаксические ошибки в командах, встроенных в текстовый буфер, обрабатываемый менеджером по Синтезу речи.
Объявление
Swift
typealias SpeechErrorProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, OSErr, Int) -> Void)>
Objective C
typedef void (*SpeechErrorProcPtr) ( SpeechChannel chan, SRefCon refCon, OSErr theError, long bytePos );
Параметры
chan
Речевой канал, закончивший обрабатывать входной текст.
refCon
Ссылочная константа связалась с речевым каналом.
theError
Ошибка, произошедшая в обработке встроенной команды.
bytePos
Число байтов с начала текстового буфера, на котором говорят с ошибкой, встретилось.
Обсуждение
Вызовы диспетчера Синтеза речи ошибочная функция обратного вызова речевого канала каждый раз, когда это встречается с синтаксической ошибкой в команде, встроенной в текстовый буфер, это обрабатывает. Это может быть полезно во время отладки приложения, для обнаружения проблем с командами, которые Вы встроили в текстовые буферы, которые говорит Ваше приложение. Если Ваше приложение позволяет пользователям встраивать команды в текстовых буферах, может также быть полезно. Ваше приложение могло бы вывести на экран предупреждение, указывающее, что менеджер по Синтезу речи встретился с проблемой в обработке встроенной команды.
Обычно, информация об ошибке, что менеджер по Синтезу речи обеспечивает ошибочную функцию обратного вызова, должна быть достаточной. Однако, если для Вашего приложения нужна информация об ошибках, произошедших, прежде чем ошибочная функция обратного вызова была включена, приложение (включая ошибочную функцию обратного вызова) может вызвать
GetSpeechInfo
функция сsoErrors
селектор.Можно указать ошибочную функцию обратного вызова путем передачи
soErrorCallBack
селектор кSetSpeechInfo
функция.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Определяет указатель на ошибочную функцию обратного вызова, обрабатывающую синтаксические ошибки в командах, встроенных в a
CFString
объект, обрабатываемый менеджером по Синтезу речи.Объявление
Swift
typealias SpeechErrorCFProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, CFError!) -> Void)>
Objective C
typedef void (*SpeechErrorCFProcPtr) ( SpeechChannel chan, SRefCon refCon, CFErrorRef theError );
Параметры
chan
Речевой канал, закончивший обрабатывать входной текст.
refCon
Ссылочная константа связалась с речевым каналом.
theError
Ошибка, произошедшая в обработке встроенной команды.
Обсуждение
Ошибочная функция обратного вызова, определенная
SpeechErrorCFProcPtr
Базовый Основанный на основе эквивалент ошибочной функции обратного вызова, определеннойSpeechErrorProcPtr
. Вызовы диспетчера Синтеза речи ошибочная функция обратного вызова речевого канала каждый раз, когда это встречается с синтаксической ошибкой в команде, встроенной в aCFString
объект это обрабатывает. Это может быть полезно во время отладки приложения, для обнаружения проблем с командами, которые Вы встроили в строки, которые говорит Ваше приложение. Если Ваше приложение позволяет пользователям встраивать команды в строках, может также быть полезно. Ваше приложение могло бы вывести на экран предупреждение, указывающее, что менеджер по Синтезу речи встретился с проблемой в обработке встроенной команды.Обычно, информация об ошибке, что менеджер по Синтезу речи обеспечивает ошибочную функцию обратного вызова, должна быть достаточной. Однако, если для Вашего приложения нужна информация об ошибках, произошедших, прежде чем ошибочная функция обратного вызова была включена, приложение (включая ошибочную функцию обратного вызова) может вызвать
CopySpeechProperty
функция сkSpeechErrorsProperty
свойство.Можно указать ошибочную функцию обратного вызова путем передачи
kSpeechErrorCFCallback
свойство кSetSpeechProperty
функция.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.5 и позже.
-
Определяет указатель на функцию обратного вызова фонемы, которую вызывает менеджер по Синтезу речи, прежде чем это объявит фонему.
Объявление
Swift
typealias SpeechPhonemeProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, Int16) -> Void)>
Objective C
typedef void (*SpeechPhonemeProcPtr) ( SpeechChannel chan, SRefCon refCon, short phonemeOpcode );
Параметры
chan
Речевой канал, закончивший обрабатывать входной текст.
refCon
Ссылочная константа связалась с речевым каналом.
phonemeOpcode
Фонема, собирающаяся быть объявленным.
Обсуждение
Вызовы диспетчера Синтеза речи функция обратного вызова фонемы речевого канала непосредственно перед тем, как это объявляет фонему. Например, Ваше приложение могло бы использовать такую функцию обратного вызова для включения синхронизации рта. В этом случае функция обратного вызова установила бы глобальную переменную флага, чтобы указать, что объявляемая фонема изменяется и другая глобальная переменная на
phonemeOpcode
. Функция, вызванная основным циклом событий Вашего приложения, могла обнаружить, что объявляемая фонема изменяется, и обновите изображение рта для отражения текущей фонемы. На практике обеспечение визуальной индикации относительно произношения фонемы требует, чтобы несколько последовательных изображений перемещения рта были быстро выведены на экран. Консультируйтесь с литературой лингвистики для получения информации о перемещениях рта, связанных с различными фонемами.Можно указать функцию обратного вызова фонемы путем передачи
soPhonemeCallBack
селектор кSetSpeechInfo
функция.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Определяет указатель на функцию обратного вызова синхронизации, которую вызывают, когда менеджер по Синтезу речи встречается с командой синхронизации, встроенной в текстовый буфер.
Объявление
Swift
typealias SpeechSyncProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, OSType) -> Void)>
Objective C
typedef void (*SpeechSyncProcPtr) ( SpeechChannel chan, SRefCon refCon, OSType syncMessage );
Параметры
chan
Речевой канал, закончивший обрабатывать входной текст.
refCon
Ссылочная константа связалась с речевым каналом.
syncMessage
Сообщение синхронизации передается во встроенной команде. Обычно, Вы используете это сообщение для различения несколько различных типов команд синхронизации, но можно использовать его любой способ, которым Вы желаете.
Обсуждение
Вызовы диспетчера Синтеза речи функция обратного вызова синхронизации речевого канала каждый раз, когда это встречается с командой синхронизации, встроенной в текстовый буфер. Вы могли бы использовать функцию обратного вызова синхронизации для обеспечения обратного вызова, не обычно предоставленного. Например, Вы могли бы вставить команды синхронизации в конце каждого предложения в текстовом буфере, или Вы могли бы ввести команды синхронизации после каждого числового значения в тексте. Однако для синхронизации приложения с фонемами или словами имеет больше смысла использовать встроенную фонему и функции обратного вызова слова, определенные в
SpeechPhonemeProcPtr
.Можно указать функцию обратного вызова синхронизации путем передачи
soSyncCallBack
селектор кSetSpeechInfo
функция и встраивание команды синхронизации в текстовом буфере передалиSpeakText
илиSpeakBuffer
функция.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Определяет указатель на сделанную текстом функцию обратного вызова, которую вызывают, когда менеджер по Синтезу речи закончил обрабатывать буфер текста.
Объявление
Swift
typealias SpeechTextDoneProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, UnsafeMutablePointer<UnsafePointer<Void>>, UnsafeMutablePointer<UInt>, UnsafeMutablePointer<Int32>) -> Void)>
Objective C
typedef void (*SpeechTextDoneProcPtr) ( SpeechChannel chan, SRefCon refCon, void ** nextBuf, unsigned long * byteLen, long * controlFlags );
Параметры
chan
Речевой канал, закончивший обрабатывать входной текст.
refCon
Ссылочная константа связалась с речевым каналом.
nextBuf
По возврату, указателю на следующий буфер текста, который обработает или
NULL
если Ваше приложение не имеет никакого дополнительного текста, на котором будут говорить. Этот параметр главным образом для внутреннего использования менеджером по Синтезу речи.byteLen
По возврату, указателю на число байтов текстового буфера, на который указывают
nextBuf
параметр.controlFlags
По возврату указатель на управление отмечает, чтобы использоваться в генерации следующего буфера текста.
Обсуждение
Если сделанная текстом функция обратного вызова установлена в речевом канале, то Вызовы диспетчера Синтеза речи эта функция, когда это заканчивает обрабатывать буфер текста. Менеджер по Синтезу речи еще, возможно, не завершил окончание, говоря текст и действительно, возможно, не начал говорить его.
Можно указать сделанную текстом функцию обратного вызова путем передачи
soTextDoneCallBack
селектор кSetSpeechInfo
функция.Общее использование сделанной текстом функции обратного вызова должно предупредить Ваше приложение, как только текст передал
SpeakText
илиSpeakBuffer
от функции можно избавиться (или, когда текст содержится в заблокированном перемещаемом блоке, когда перемещаемый блок может быть разблокирован). Менеджер по Синтезу речи копирует текст, который Вы передаетеSpeakText
илиSpeakBuffer
функция во внутренний буфер. Как только это закончило обрабатывать текст, можно избавиться от буфера оригинального текста, даже если речь еще не завершена. Однако, если Вы хотите записать функцию обратного вызова, выполняющуюся, когда речь завершается, см. определение сделанной речью функции обратного вызова ниже.Несмотря на то, что большинство приложений не должно будет, Ваша функция обратного вызова может указать менеджеру по Синтезу речи, существует ли другой буфер текста для разговора. Если существует другой буфер, Ваша функция обратного вызова должна сослаться на него путем установки
nextBuf
иbyteLen
параметры к надлежащим значениям. (Ваша функция обратного вызова могла бы также изменить флаги управления, которые будут использоваться для обработки речи путем изменения значения вcontrolFlags
параметр.) Устанавливающий эти параметры позволяет менеджеру по Синтезу речи генерировать непрерывную речь. Если больше нет текста для разговора, функция обратного вызова должна установитьnextBuf
кNULL
. В этом случае менеджер по Синтезу речи игнорируетbyteLen
иcontrolFlags
параметры.Если Ваша сделанная текстом функция обратного вызова не изменяет значения
nextBuf
иbyteLen
параметры, на текстовом буфере, просто разговорном, будут говорить снова.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Определяет указатель на функцию обратного вызова слова, которую вызывает менеджер по Синтезу речи, прежде чем это произнесет слово.
Объявление
Swift
typealias SpeechWordProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, UInt, UInt16) -> Void)>
Objective C
typedef void (*SpeechWordProcPtr) ( SpeechChannel chan, SRefCon refCon, unsigned long wordPos, unsigned short wordLen );
Параметры
chan
Речевой канал, закончивший обрабатывать входной текст.
refCon
Ссылочная константа связалась с речевым каналом.
wordPos
Число байтов между началом текстового буфера и начало слова, собирающегося быть объявленным.
wordLen
Длина в байтах слова, собирающегося быть объявленным.
Обсуждение
Вызовы диспетчера Синтеза речи функция обратного вызова слова речевого канала непосредственно перед тем, как это произносит слово. Вы могли бы использовать такую функцию обратного вызова, например, для рисования слова, собирающегося говориться в окне. В этом случае функция обратного вызова установила бы глобальную переменную флага, чтобы указать, что произнесенное слово изменяется и еще две глобальные переменные на
wordPos
иwordLen
. Функция, вызванная основным циклом событий Вашего приложения, могла обнаружить, что произнесенное слово изменяется, и нарисуйте слово в окне.Можно указать функцию обратного вызова слова путем передачи
soWordCallBack
селектор кSetSpeechInfo
функция.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Определяет указатель на Базовую Основанную на основе функцию обратного вызова слова, которую вызывает менеджер по Синтезу речи, прежде чем это произнесет слово.
Объявление
Swift
typealias SpeechWordCFProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, CFString!, CFRange) -> Void)>
Objective C
typedef void (*SpeechWordCFProcPtr) ( SpeechChannel chan, SRefCon refCon, CFStringRef aString, CFRange wordRange );
Параметры
chan
Речевой канал, закончивший обрабатывать входной текст.
refCon
Ссылочная константа связалась с речевым каналом.
aString
Строка, содержащая оригинальный текст, передала синтезатору речи в
SpeakCFString
вызвать.wordRange
Диапазон символов в
aString
это соответствует слову.Обсуждение
Функция обратного вызова слова, определенная
SpeechWordCFProcPtr
Базовый Основанный на основе эквивалент функции обратного вызова слова, определеннойSpeechWordProcPtr
. Вызовы диспетчера Синтеза речи функция обратного вызова слова речевого канала непосредственно перед тем, как это произносит слово. Вы могли бы использовать такую функцию обратного вызова, например, для выделения слова, собирающегося говориться в окне.Можно указать функцию обратного вызова слова путем передачи
kSpeechWordCFCallBack
свойство кSetSpeechProperty
функция.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.5 и позже.
-
Определяет информационную структуру разделителя.
Объявление
Swift
struct DelimiterInfo { var startDelimiter: (Byte, Byte) var endDelimiter: (Byte, Byte) }
Objective C
struct DelimiterInfo { Byte startDelimiter[2]; Byte endDelimiter[2]; }; typedef struct DelimiterInfo DelimiterInfo;
Поля
startDelimiter
Начальный ограничитель для встроенной команды. По умолчанию начальный ограничитель “
[[
”.endDelimiter
Конечный ограничитель для встроенной команды. По умолчанию конечный ограничитель “
]]
”.Обсуждение
Информационная структура разделителя определяет символы, используемые для указания начала и конца команды, встроенной в текст. Разделитель может быть одним или двумя символами.
Обычно, приложения, поддерживающие встроенные речевые команды, не должны изменять запуск или конечные ограничители. Однако, если по некоторым причинам необходимо изменить разделители, можно использовать
SetSpeechInfo
функция сsoCommandDelimiter
селектор. Например, если текстовый буфер естественно включает строки разделителя, Вы могли бы сделать это. Прежде, чем передать такой буфер менеджеру по Синтезу речи, можно изменить строки разделителя на некоторые две последовательности символов, не используемые в буфере, и затем возвратить строки разделителя, как только обработка буфера завершена.Если однобайтовый разделитель желаем, он должен сопровождаться a
NULL
(0) байт. Если разделитель представляет в виде строки, оба состоят из дваNULL
байты, встроенная обработка команды отключена.Доступность
Доступный в OS X v10.0 и позже.
-
Определяет структуру дескриптора фонемы.
Объявление
Swift
struct PhonemeDescriptor { var phonemeCount: Int16 var thePhonemes: (PhonemeInfo) }
Objective C
struct PhonemeDescriptor { SInt16 phonemeCount; PhonemeInfo thePhonemes[1]; }; typedef struct PhonemeDescriptor PhonemeDescriptor;
Поля
phonemeCount
Число фонем, которые определяет текущий синтезатор. Как правило, это будет соответствовать числу фонем на языке, поддерживаемом синтезатором.
thePhonemes
Массив информационных структур фонемы.
Обсуждение
Путем вызова
GetSpeechInfo
функция сsoPhonemeSymbols
селектор, можно получить структуру дескриптора фонемы, описывающую все фонемы, определенные для текущего синтезатора.Общее использование для структуры дескриптора фонемы должно предоставить графический дисплей пользователю всех доступных фонем. Такой список используется только для пользователя, вводящего фонематические данные непосредственно вместо того, чтобы просто ввести текст.
Доступность
Доступный в OS X v10.0 и позже.
-
Определяет структуру, хранящую информацию о фонеме.
Объявление
Swift
struct PhonemeInfo { var opcode: Int16 var phStr: Str15 var exampleStr: Str31 var hiliteStart: Int16 var hiliteEnd: Int16 }
Objective C
struct PhonemeInfo { SInt16 opcode; Str15 phStr; Str31 exampleStr; SInt16 hiliteStart; SInt16 hiliteEnd; }; typedef struct PhonemeInfo PhonemeInfo;
Поля
opcode
Код операции для фонемы.
phStr
Строка раньше представляла фонему. Строка не обязательно имеет фонетическое соединение с фонемой, но могла бы просто быть абстрактным текстовым представлением ее.
exampleStr
Слово в качестве примера, иллюстрирующее использование фонемы.
hiliteStart
Число символов в слове в качестве примера, предшествующих части того слова, представляющего фонему.
hiliteEnd
Число символов между началом слова в качестве примера и концом части того слова, представляющего фонему.
Обсуждение
Обычно, Вы используете информационную структуру фонемы, чтобы показать пользователю, как ввести текст для представления определенной фонемы когда
'PHON'
режим ввода активируется.Вы могли бы использовать информацию, содержавшуюся в
hiliteStart
иhiliteEnd
поля для выделения символов в слове в качестве примера, представляющих фонему.Для получения информационной структуры фонемы для отдельной фонемы необходимо получить список фонем через структуру дескриптора фонемы.
Доступность
Доступный в OS X v10.0 и позже.
-
Представляет речевой канал.
Объявление
Swift
struct SpeechChannelRecord { var data: (Int) }
Objective C
struct SpeechChannelRecord { long data[1]; }; typedef struct SpeechChannelRecord SpeechChannelRecord;
Доступность
Доступный в OS X v10.0 и позже.
-
Определяет указатель на запись речевого канала.
Объявление
Swift
typealias SpeechChannel = UnsafeMutablePointer<SpeechChannelRecord>
Objective C
typedef SpeechChannelRecord * SpeechChannel;
Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Определяет универсальный указатель процедуры (UPP) к сделанной речью функции обратного вызова.
Объявление
Swift
typealias SpeechDoneUPP = SpeechDoneProcPtr
Objective C
typedef SpeechDoneProcPtr SpeechDoneUPP;
Обсуждение
Для получения дополнительной информации см. описание
SpeechDoneProcPtr
функция обратного вызова.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Определяет речевую ошибочную информационную структуру.
Объявление
Swift
struct SpeechErrorInfo { var count: Int16 var oldest: OSErr var oldPos: Int var newest: OSErr var newPos: Int }
Objective C
struct SpeechErrorInfo { SInt16 count; OSErr oldest; long oldPos; OSErr newest; long newPos; }; typedef struct SpeechErrorInfo SpeechErrorInfo;
Поля
count
Число ошибок, произошедших в обработке буфера текущего текста начиная с последней возможности к
GetSpeechInfo
функция сsoErrors
селектор. Из этих ошибок можно найти информацию о только произошедшей первой и последней ошибке.oldest
Код ошибки первой ошибки, произошедшей после предыдущего вызова с
GetSpeechInfo
функция сsoErrors
селектор.oldPos
Позиция символа в текстовом буфере, обрабатываемом первой ошибки, произошедшей после предыдущего вызова с
GetSpeechInfo
функция сsoErrors
селектор.newest
Код ошибки новой ошибки.
newPos
Позиция символа в текстовом буфере, обрабатываемом новой ошибки.
Обсуждение
Путем вызова
GetSpeechInfo
функция сsoErrors
селектор, можно получить речевую ошибочную информационную структуру, показывающую, какой менеджер по Синтезу речи ошибки произошли при обработке текстового буфера на данном речевом канале.Речевые ошибочные информационные структуры никогда не включают ошибки, возвращающиеся менеджером по Синтезу речи функции. Вместо этого они отражают только ошибки, с которыми встречаются непосредственно в обработке текста, и, в частности в обработке команд, встроенных в тексте.
Речевая ошибочная информационная структура отслеживает только новую ошибку и первую ошибку, произошедшую после предыдущего вызова с
GetSpeechInfo
функция сsoErrors
селектор. Если Ваше приложение должно отслеживать все ошибки, то необходимо установить ошибочную функцию обратного вызова,SpeechErrorProcPtr
.Доступность
Доступный в OS X v10.0 и позже.
-
Определяет универсальный указатель процедуры (UPP) к ошибочной функции обратного вызова.
Объявление
Swift
typealias SpeechErrorUPP = SpeechErrorProcPtr
Objective C
typedef SpeechErrorProcPtr SpeechErrorUPP;
Обсуждение
Для получения дополнительной информации см. описание
SpeechErrorProcPtr
функция обратного вызова.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Определяет универсальный указатель процедуры (UPP) к функции обратного вызова фонемы.
Объявление
Swift
typealias SpeechPhonemeUPP = SpeechPhonemeProcPtr
Objective C
typedef SpeechPhonemeProcPtr SpeechPhonemeUPP;
Обсуждение
Для получения дополнительной информации см. описание
SpeechPhonemeProcPtr
функция обратного вызова.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Определяет речевую структуру информации о статусе, хранящую информацию о состоянии речевого канала.
Объявление
Swift
struct SpeechStatusInfo { var outputBusy: Boolean var outputPaused: Boolean var inputBytesLeft: Int var phonemeCode: Int16 }
Objective C
struct SpeechStatusInfo { Boolean outputBusy; Boolean outputPaused; long inputBytesLeft; SInt16 phonemeCode; }; typedef struct SpeechStatusInfo SpeechStatusInfo;
Поля
outputBusy
Производит ли речевой канал в настоящее время речь. Когда никакие аудиоданные не производятся через динамик Macintosh, речевой канал считается, производя речь даже в несколько раз. Это происходит, например, когда менеджер по Синтезу речи обрабатывает входной буфер, но еще не инициировал речь или когда приостанавливается речевой вывод.
outputPaused
Был ли речевой вывод в речевом канале приостановлен вызовом к
PauseSpeechAt
функция.inputBytesLeft
Число входных байтов текста, который должен все еще обработать речевой канал. Когда
inputBytesLeft
0, буфер входного текста передал одному изSpeakText
илиSpeakBuffer
от функций можно избавиться. Когда Вы вызываетеSpeakString
функция, менеджер по Синтезу речи хранит копию строки, на которой будут говорить во внутреннем буфере; таким образом можно сразу удалить исходную строку после вызоваSpeakString
.phonemeCode
Код операции для фонемы, которую в настоящее время обрабатывает речевой канал.
Обсуждение
Путем вызова
GetSpeechInfo
функция сsoStatus
селектор, можно узнать информацию о состоянии речевого канала.Доступность
Доступный в OS X v10.0 и позже.
-
Определяет универсальный указатель процедуры (UPP) к функции обратного вызова синхронизации.
Объявление
Swift
typealias SpeechSyncUPP = SpeechSyncProcPtr
Objective C
typedef SpeechSyncProcPtr SpeechSyncUPP;
Обсуждение
Для получения дополнительной информации см. описание
SpeechSyncProcPtr
функция обратного вызова.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Определяет универсальный указатель процедуры (UPP) к сделанной текстом функции обратного вызова.
Объявление
Swift
typealias SpeechTextDoneUPP = SpeechTextDoneProcPtr
Objective C
typedef SpeechTextDoneProcPtr SpeechTextDoneUPP;
Обсуждение
Для получения дополнительной информации см. описание
SpeechTextDoneProcPtr
функция обратного вызова.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Определяет речевую структуру информации о версии.
Объявление
Swift
struct SpeechVersionInfo { var synthType: OSType var synthSubType: OSType var synthManufacturer: OSType var synthFlags: Int32 var synthVersion: NumVersion }
Objective C
struct SpeechVersionInfo { OSType synthType; OSType synthSubType; OSType synthManufacturer; SInt32 synthFlags; NumVersion synthVersion; }; typedef struct SpeechVersionInfo SpeechVersionInfo;
Поля
synthType
Общий тип синтезатора. Для текущей версии менеджера по Синтезу речи это поле всегда содержит значение
kTextToSpeechSynthType
, указание, что синтезатор преобразовывает текст в речь.synthSubType
Определенный тип синтезатора. В настоящее время никакие определенные типы синтезатора не определяются. При определении нового типа синтезатора необходимо зарегистрировать четыре кода символа для типа с Технической поддержкой Разработчика.
synthManufacturer
Уникальная идентификация механизма синтезатора. Если Вы разрабатываете синтезаторы, то необходимо зарегистрировать различный четыре кода символа для каждого синтезатора, который Вы разрабатываете с Технической поддержкой Разработчика.
creatorID
поле речевой структуры спецификации иsynthCreator
поле речевой структуры данных расширения должно каждый быть установлено в значение, сохраненное в этом поле для желаемого синтезатора.synthFlags
Ряд отмечает указывающий, какие опции синтезатора активированы. Определенные константы определяют биты в этом поле, значения которого определяются для всех синтезаторов.
synthVersion
Номер версии синтезатора.
Обсуждение
Путем вызова
GetSpeechInfo
функция сsoSynthType
селектор, можно получить речевую структуру информации о версии, предоставляющую информацию о синтезаторе речи, в настоящее время используясь.Доступность
Доступный в OS X v10.0 и позже.
-
Определяет универсальный указатель процедуры (UPP) к функции обратного вызова слова.
Объявление
Swift
typealias SpeechWordUPP = SpeechWordProcPtr
Objective C
typedef SpeechWordProcPtr SpeechWordUPP;
Обсуждение
Для получения дополнительной информации см. описание
SpeechWordProcPtr
функция обратного вызова.Оператор импорта
Objective C
@import ApplicationServices;
Swift
import ApplicationServices
Доступность
Доступный в OS X v10.0 и позже.
-
Определяет речевую структуру данных расширения.
Объявление
Swift
struct SpeechXtndData { var synthCreator: OSType var synthData: (Byte, Byte) }
Objective C
struct SpeechXtndData { OSType synthCreator; Byte synthData[2]; }; typedef struct SpeechXtndData SpeechXtndData;
Поля
synthCreator
Создатель синтезатора ID, идентичный значению, сохраненному в
synthManufacturer
поле речевой структуры информации о версии. Необходимо установить это поле в надлежащее значение перед вызовомGetSpeechInfo
илиSetSpeechInfo
.synthData
Специфичные для синтезатора данные. Размер и формат данных в этом поле могут варьироваться.
Обсуждение
Речевая структура данных расширения позволяет Вам использовать
GetSpeechInfo
иSetSpeechInfo
функции с селекторами, определенными определенными синтезаторами. Путем требования, чтобы Вы передали одной из этих функций указатель на речевую структуру данных расширения, синтезаторы могут разрешить обмен данными в любом формате.Доступность
Доступный в OS X v10.0 и позже.
-
Определяет речевую структуру описания.
Объявление
Swift
struct VoiceDescription { var length: Int32 var voice: VoiceSpec var version: Int32 var name: Str63 var comment: Str255 var gender: Int16 var age: Int16 var script: Int16 var language: Int16 var region: Int16 var reserved: (Int32, Int32, Int32, Int32) }
Objective C
struct VoiceDescription { SInt32 length; VoiceSpec voice; SInt32 version; Str63 name; Str255 comment; SInt16 gender; SInt16 age; SInt16 script; SInt16 language; SInt16 region; SInt32 reserved[4]; }; typedef struct VoiceDescription VoiceDescription;
Поля
length
Размер речевой структуры описания, в байтах.
voice
Речевая структура спецификации, однозначно определяющая речь.
version
Номер версии речи.
name
Имя речи, которой предшествует байт длины. Имена должны быть 63 символами или меньше.
comment
Дополнительная информация о тексте о речи. Некоторые синтезаторы используют это поле для хранения фразы, на которой можно говорить.
gender
Род частного лица представлен речью. Посмотрите Константы Рода.
age
Приблизительный возраст в годах частного лица представлен речью.
script
В OS X v10.4.7 и позже, код кодирования текста, который может обработать речь.
Обратите внимание на то, что это поле содержит 16-разрядное значение. Можно использовать любое из 16-разрядных значений, описанных в
External_String_Encodings
илиCFStringBuiltInEncodings
. Однако, если необходимо использовать 32-разрядное значение, такой какkCFStringEncodingUTF8
, Вы передаете значение в первом элементе матрицыreserved
поле, и также необходимо указать-1
илиkCFStringEncodingInvalidId
вscript
поле.language
Код, указывающий язык речевого вывода.
region
Код, указывающий область, представленную речью.
reserved
Зарезервированный. Может использоваться для содержания 32-разрядного значения кодирования, если необходимый (см. описание
script
поле для получения дополнительной информации).Обсуждение
Путем вызова
GetVoiceDescription
функция, можно получить информацию о речи в речевой структуре описания.Доступность
Доступный в OS X v10.0 и позже.
-
Определяет речевую информационную структуру файла.
Объявление
Swift
struct VoiceFileInfo { var fileSpec: FSSpec var resID: Int16 }
Objective C
struct VoiceFileInfo { FSSpec fileSpec; SInt16 resID; }; typedef struct VoiceFileInfo VoiceFileInfo;
Поля
fileSpec
Структура спецификации файловой системы, содержащая объем, каталог и имя файла, содержащего речь. Обычно файлы, содержащие единственную речь, имеют тип
kTextToSpeechVoiceFileType
, и файлы, содержащие многократную речь, имеют типkTextToSpeechVoiceBundleType
.resID
Ресурс ID речи в файле. Речь сохранена в ресурсах типа
kTextToSpeechVoiceType
.Обсуждение
Речевая информационная структура файла указывает файл, в котором речь сохранена и ресурс ID речи в том файле. Используйте
GetVoiceInfo
функция для получения речевой информационной структуры файла для речи.Доступность
Доступный в OS X v10.0 и позже.
-
Определяет речевую структуру спецификации.
Объявление
Swift
struct VoiceSpec { var creator: OSType var id: OSType }
Поля
creator
Синтезатор, требующийся, чтобы использовать речь. Это эквивалентно значению, содержавшемуся в
synthManufacturer
поле речевой структуры информации о версии и содержавшегося вsynthCreator
поле речевой структуры данных расширения. НаборOSType
значения, указанные полностью пробелами и строчными буквами, резервируются.id
Речь ID речи для синтезатора. Каждая речь на синтезаторе имеет уникальный идентификатор.
Обсуждение
Речевая структура спецификации обеспечивает уникальную спецификацию, которую необходимо использовать для получения информации о речи. Также необходимо использовать речевую структуру спецификации, если Вы хотите создать речевой канал, генерирующий речь речью кроме речи значения по умолчанию существующей системы.
Для обеспечения совместимости будущими версиями менеджера по Синтезу речи Вы никогда не должны заполнять поля речевой структуры спецификации сами. Вместо этого необходимо создать речевую структуру спецификации при помощи
MakeVoiceSpec
функция.Доступность
Доступный в OS X v10.0 и позже.
-
Флаги, указывающие, какие функции синтезатора активны.
Объявление
Swift
var kNoEndingProsody: Int { get } var kNoSpeechInterrupt: Int { get } var kPreflightThenPause: Int { get }
Objective C
enum { kNoEndingProsody = 1, kNoSpeechInterrupt = 2, kPreflightThenPause = 4 };
Константы
-
kNoEndingProsody
kNoEndingProsody
Отключает просодию в конце предложений.
kNoEndingProsody
флаговый бит используется, чтобы управлять, применяет ли синтезатор речи автоматически конечную просодию, речевой тон и тактовый сигнал, обычно происходящие в конце оператора. При нормальных обстоятельствах (например, когда флаговый бит не установлен), конечная просодия применяется к речи когда конецtextBuf
данные достигнуты. Это поведение по умолчанию может быть отключено путем установкиkNoEndingProsody
флаговый бит.Некоторые синтезаторы не говорят до
kNoEndingProsody
флаговый бит сбрасывается, или они встречаются с периодом в тексте, илиtextBuf
полно.Доступный в OS X v10.0 и позже.
-
kNoSpeechInterrupt
kNoSpeechInterrupt
Не прерывает текущую речь.
kNoSpeechInterrupt
флаговый бит используется для управления поведениемSpeakBuffer
когда обращено речевой канал, который все еще занят. Когда флаговый бит не установлен,SpeakBuffer
ведет себя так же кSpeakString
иSpeakText
. Любая речь, в настоящее время производимая на указанном речевом канале, сразу прервана, и затем на новом текстовом буфере говорят. КогдаkNoSpeechInterrupt
флаговый бит установлен, однако, запрос для разговора о канале, который все еще занят, обрабатывая предшествующий текстовый буфер, приведет к ошибке. Новый буфер проигнорирован и ошибкаsynthNotReady
возвращается. Если предшествующий текстовый буфер был полностью обработан, на новом буфере обычно говорят. Один способ достигнуть слитной речи, не используя функции обратного вызова состоит в том, чтобы постоянно вызыватьSpeakBuffer
сkNoSpeechInterrupt
набор флагового бита до функциональных возвратовnoErr
. Функция тогда выполнится, как только был обработан первый текстовый буфер.Доступный в OS X v10.0 и позже.
-
kPreflightThenPause
kPreflightThenPause
Вычисляет речь без генерации.
kPreflightThenPause
когда синтезатор речи пытается говорить, флаговый бит используется для минимизации задержки, испытанной. Обычно, каждый раз, когда вызов кSpeakString
,SpeakText
, илиSpeakBuffer
сделан, синтезатор речи должен выполнить определенную сумму начальной буквы, обрабатывающей, прежде чем услышат речевой вывод. Эта задержка запуска может варьироваться от нескольких миллисекунд до нескольких секунд, в зависимости от которых используется синтезатор речи. Распознавая, что большие задержки запуска могли бы быть вредны для определенных приложений, механизм существует, чтобы позволить синтезатору выполнять любые необходимые вычисления в некритические времена. Как только вычисления были завершены, речь в состоянии запуститься немедленно. КогдаkPreflightThenPause
флаговый бит установлен, синтезатор речи обработает входной текст по мере необходимости к точке, где это готово начать производить речевой вывод. В этой точке синтезатор введет приостановленное состояние и возвратится к вызывающей стороне. Когда приложение готово произвести речь, оно должно вызватьContinueSpeech
функция, чтобы начать говорить.Доступный в OS X v10.0 и позже.
Обсуждение
Эти константы используются в
controlFlags
параметрSpeakBuffer
функционируйте и вsynthFlagsl
полеSpeechVersionInfo
структура. -
-
Константы, указывающие род частного лица, представленного речью.
Объявление
Objective C
enum { kNeuter = 0, kMale = 1, kFemale = 2 };
Константы
-
kNeuter
kNeuter
Средняя речь.
Доступный в OS X v10.0 и позже.
-
kMale
kMale
Мужской голос.
Доступный в OS X v10.0 и позже.
-
kFemale
kFemale
Розеточная речь.
Доступный в OS X v10.0 и позже.
Обсуждение
Эти константы используются в
gender
полеVoiceDescription
структура. -
-
Константы, идентифицирующие значения в аудиоустройстве синтеза речи.
Объявление
Swift
var kAudioUnitSubType_SpeechSynthesis: Int { get } var kAudioUnitProperty_Voice: Int { get } var kAudioUnitProperty_SpeechChannel: Int { get }
Objective C
enum { kAudioUnitSubType_SpeechSynthesis = 'ttsp', kAudioUnitProperty_Voice = 3330, kAudioUnitProperty_SpeechChannel = 3331 };
Константы
-
kAudioUnitSubType_SpeechSynthesis
kAudioUnitSubType_SpeechSynthesis
Компонентный подтип синтеза речи используется в создании аудиоустройства синтеза речи. (Тип компонента
kAudioUnitType_Generator
.)Доступный в OS X v10.5 и позже.
-
kAudioUnitProperty_Voice
kAudioUnitProperty_Voice
Речевое свойство в аудиоустройстве синтеза речи.
Доступный в OS X v10.5 и позже.
-
kAudioUnitProperty_SpeechChannel
kAudioUnitProperty_SpeechChannel
Свойство речевого канала в аудиоустройстве синтеза речи.
Доступный в OS X v10.5 и позже.
-
-
Расположения, указывающие, где речь должна быть приостановлена или остановлена.
Объявление
Objective C
enum { kImmediate = 0, kEndOfWord = 1, kEndOfSentence = 2 };
Константы
-
kImmediate
kImmediate
Речь должна быть приостановлена или сразу остановлена.
Доступный в OS X v10.0 и позже.
-
kEndOfWord
kEndOfWord
Речь должна быть приостановлена или остановлена в конце слова.
Доступный в OS X v10.0 и позже.
-
kEndOfSentence
kEndOfSentence
Речь должна быть приостановлена или остановлена в конце предложения.
Доступный в OS X v10.0 и позже.
Обсуждение
Посмотрите функции
PauseSpeechAt
иStopSpeechAt
для получения дополнительной информации. -
-
OSType
определения используются менеджером по Синтезу речи.Объявление
Swift
var kTextToSpeechSynthType: Int { get } var kTextToSpeechVoiceType: Int { get } var kTextToSpeechVoiceFileType: Int { get } var kTextToSpeechVoiceBundleType: Int { get }
Objective C
enum { kTextToSpeechSynthType = 'ttsc', kTextToSpeechVoiceType = 'ttvd', kTextToSpeechVoiceFileType = 'ttvf', kTextToSpeechVoiceBundleType = 'ttvb' };
Константы
-
kTextToSpeechSynthType
kTextToSpeechSynthType
Тип компонента синтезатора.
Доступный в OS X v10.0 и позже.
-
kTextToSpeechVoiceType
kTextToSpeechVoiceType
Тип речевого ресурса.
Доступный в OS X v10.0 и позже.
-
kTextToSpeechVoiceFileType
kTextToSpeechVoiceFileType
Тип речевого файла. Обычно. файлы, содержащие единственную речь, имеют тип
kTextToSpeechVoiceFileType
.Доступный в OS X v10.0 и позже.
-
kTextToSpeechVoiceBundleType
kTextToSpeechVoiceBundleType
Тип речи связывает файл. Как правило, файлы, содержащие многократную речь, имеют тип
kTextToSpeechVoiceBundleType
.Доступный в OS X v10.0 и позже.
-
-
Доступные относящиеся к обработке текстов и обрабатывающие число режимы для речевого канала.
Объявление
Swift
var modeText: Int { get } var modePhonemes: Int { get } var modeNormal: Int { get } var modeLiteral: Int { get }
Objective C
enum { modeText = 'TEXT', modePhonemes = 'PHON', modeNormal = 'NORM', modeLiteral = 'LTRL' };
Константы
-
modeText
modeText
Используемый с
soInputMode
указать, что речевой канал находится в относящемся к обработке текстов режиме.Доступный в OS X v10.0 и позже.
-
modePhonemes
modePhonemes
Используемый с
soInputMode
указать, что речевой канал находится в обрабатывающем фонему режиме. Когда в обрабатывающем фонему режиме, текстовый буфер интерпретируется, чтобы быть серией символов, представляющих различные фонемы и просодические средства управления.Доступный в OS X v10.0 и позже.
-
modeNormal
modeNormal
То, когда речевой канал находится в относящемся к обработке текстов режиме, указывает, что синтезатор должен обработать символы как ожидалось и собрать цифры в числа. Используйте это значение с
soCharacterMode
иsoNumberMode
.Доступный в OS X v10.0 и позже.
-
modeLiteral
modeLiteral
То, когда речевой канал находится в относящемся к обработке текстов режиме, указывает, что на символах и цифрах говорят буквально (например, на «кошке» говорят, как на «CAT» и «12» говорят как «один, два»). Используйте это значение с
soCharacterMode
иsoNumberMode
.Доступный в OS X v10.0 и позже.
-
-
Доступные относящиеся к обработке текстов и обрабатывающие число режимы для речевого канала.
Объявление
Swift
var kSpeechModeText: Unmanaged<CFString>! var kSpeechModePhoneme: Unmanaged<CFString>! var kSpeechModeNormal: Unmanaged<CFString>! var kSpeechModeLiteral: Unmanaged<CFString>!
Objective C
CFStringRef kSpeechModeText = CFSTR("TEXT"); CFStringRef kSpeechModePhoneme = CFSTR("PHON"); CFStringRef kSpeechModeNormal = CFSTR("NORM"); CFStringRef kSpeechModeLiteral = CFSTR("LTRL");
Константы
-
kSpeechModeText
kSpeechModeText
Используемый с
kSpeechInputModeProperty
указать, что речевой канал находится в относящемся к обработке текстов режиме.Доступный в OS X v10.5 и позже.
-
kSpeechModePhoneme
kSpeechModePhoneme
Используемый с
kSpeechInputModeProperty
указать, что речевой канал находится в обрабатывающем фонему режиме. Когда в обрабатывающем фонему режиме, текстовый буфер интерпретируется, чтобы быть серией символов, представляющих различные фонемы и просодические средства управления.Доступный в OS X v10.5 и позже.
-
kSpeechModeNormal
kSpeechModeNormal
То, когда речевой канал находится в относящемся к обработке текстов режиме, указывает, что синтезатор должен обработать символы как ожидалось и собрать цифры в числа. Используйте это значение с
kSpeechCharacterModeProperty
иkSpeechNumberModeProperty
.Доступный в OS X v10.5 и позже.
-
kSpeechModeLiteral
kSpeechModeLiteral
То, когда речевой канал находится в относящемся к обработке текстов режиме, указывает, что на символах и цифрах говорят буквально (например, на «кошке» говорят, как на «CAT» и «12» говорят как «один, два»). Используйте это значение с
kSpeechCharacterModeProperty
иkSpeechNumberModeProperty
.Доступный в OS X v10.5 и позже.
-
-
Типы речевой информации, которую можно требовать
GetVoiceInfo
функция.Объявление
Objective C
enum { soVoiceDescription = 'info', soVoiceFile = 'fref' };
Константы
-
Селекторы, которые могут быть переданы
GetSpeechInfo
илиSetSpeechInfo
функции.Объявление
Swift
var soStatus: Int { get } var soErrors: Int { get } var soInputMode: Int { get } var soCharacterMode: Int { get } var soNumberMode: Int { get } var soRate: Int { get } var soPitchBase: Int { get } var soPitchMod: Int { get } var soVolume: Int { get } var soSynthType: Int { get } var soRecentSync: Int { get } var soPhonemeSymbols: Int { get } var soCurrentVoice: Int { get } var soCommandDelimiter: Int { get } var soReset: Int { get } var soCurrentA5: Int { get } var soRefCon: Int { get } var soTextDoneCallBack: Int { get } var soSpeechDoneCallBack: Int { get } var soSyncCallBack: Int { get } var soErrorCallBack: Int { get } var soPhonemeCallBack: Int { get } var soWordCallBack: Int { get } var soSynthExtension: Int { get } var soSoundOutput: Int { get } var soOutputToFileWithCFURL: Int { get } var soOutputToExtAudioFile: Int { get } var soPhonemeOptions: Int { get } var soOutputToAudioDevice: Int { get }
Objective C
enum { soStatus = 'stat', soErrors = 'erro', soInputMode = 'inpt', soCharacterMode = 'char', soNumberMode = 'nmbr', soRate = 'rate', soPitchBase = 'pbas', soPitchMod = 'pmod', soVolume = 'volm', soSynthType = 'vers', soRecentSync = 'sync', soPhonemeSymbols = 'phsy', soCurrentVoice = 'cvox', soCommandDelimiter = 'dlim', soReset = 'rset', soCurrentA5 = 'myA5', soRefCon = 'refc', soTextDoneCallBack = 'tdcb', soSpeechDoneCallBack = 'sdcb', soSyncCallBack = 'sycb', soErrorCallBack = 'ercb', soPhonemeCallBack = 'phcb', soWordCallBack = 'wdcb', soSynthExtension = 'xtnd', soSoundOutput = 'sndo', soOutputToFileWithCFURL = 'opaf', soOutputToExtAudioFile = 'opax', soPhonemeOptions = 'popt', soOutputToAudioDevice = 'opad' };
Константы
-
soStatus
soStatus
Получите речевую структуру информации о статусе для речевого канала.
speechInfo
параметр является указателем на речевую структуру информации о статусе, описанную вSpeechStatusInfo
.Этот селектор работает с
GetSpeechInfo
функция.Доступный в OS X v10.0 и позже.
-
soErrors
soErrors
Получите сохраненную ошибочную информацию для речевого канала и очистите его ошибочные регистры. Этот селектор позволяет Вам опросить относительно различных ошибок периода выполнения, происходящих во время разговора, такого как обнаружение плохо сформированных встроенных команд. Об ошибках, возвращенных непосредственно менеджером по Синтезу речи функции, не сообщают здесь. Если Ваше приложение определяет ошибочную функцию обратного вызова, обратный вызов должен использовать
soErrors
селектор для получения информации об ошибке.speechInfo
параметр является указателем на речевую ошибочную информационную структуру, описанную вSpeechErrorInfo
.Этот селектор работает с
GetSpeechInfo
функция.Доступный в OS X v10.0 и позже.
-
soInputMode
soInputMode
Получите или установите текущий относящийся к обработке текстов режим речевого канала. Возвращенное значение указывает, является ли канал в настоящее время в режиме ввода фонемы или режиме ввода текста.
speechInfo
параметр является указателем на переменную типаOSType
, который указывает относящийся к обработке текстов режим. КонстантыmodeText
иmodePhonemes
укажите доступные относящиеся к обработке текстов режимы.modeText
постоянный указывает, что речевой канал находится в относящемся к обработке текстов режиме.modePhonemes
постоянный указывает, что речевой канал находится в обрабатывающем фонему режиме. Когда в обрабатывающем фонему режиме, текстовый буфер интерпретируется, чтобы быть серией символов, представляющих различные фонемы и просодические средства управления. Некоторые синтезаторы могли бы поддерживать дополнительные обрабатывающие ввод режимы и определить константы для этих режимов.Когда в относящемся к обработке текстов режиме, можно также указать, как символы и числа должны быть обработаны, с помощью
soCharacterMode
иsoNumberMode
.Этот селектор работает с обоими
GetSpeechInfo
иSetSpeechInfo
функции.Доступный в OS X v10.0 и позже.
-
soCharacterMode
soCharacterMode
Получите или установите обрабатывающий символ режим речевого канала. Две константы в настоящее время определяются для режима обработки,
modeNormal
иmodeLiteral
. Когда обрабатывающий символ режимmodeNormal
, на вводимых символах говорят, поскольку Вы ожидали бы слышать их. Когда режимmodeLiteral
, на каждом символе говорят буквально, так, чтобы слово «кошка» было бы произнесено «CAT».speechInfo
параметр указывает на переменную типаOSType
, который является обрабатывающим символ режимом.Этот селектор работает с
GetSpeechInfo
иSetSpeechInfo
функции.Доступный в OS X v10.0 и позже.
-
soNumberMode
soNumberMode
Получите или установите текущий обрабатывающий число режим речевого канала. Два
OSType
константы в настоящее время определяются,modeNormal
иmodeLiteral
. Когда обрабатывающий число режимmodeNormal
, синтезатор собирает цифры в числа (так, чтобы «12» говорился как «двенадцать»). Когда режимmodeLiteral
, на каждой цифре говорят буквально (так, чтобы «12» говорился как “один, два”).speechInfo
параметр является указателем на переменную типаOSType
, который указывает обрабатывающий число режим.Этот селектор работает с обоими
GetSpeechInfo
иSetSpeechInfo
функции.Доступный в OS X v10.0 и позже.
-
soRate
soRate
Получите или установите речевой уровень речевого канала.
speechInfo
параметр является указателем на переменную типаFixed
. Возможный диапазон речевых уровней от 0.000 до 65 535,65535. Диапазон поддерживаемых уровней не предопределен менеджером по Синтезу речи; каждый синтезатор речи обеспечивает свой собственный диапазон речевых уровней. Средняя человеческая речь происходит на уровне 180 - 220 слов в минуту.Этот селектор работает с обоими
GetSpeechInfo
иSetSpeechInfo
функции.Доступный в OS X v10.0 и позже.
-
soPitchBase
soPitchBase
Получите или установите базовую речевую подачу речевого канала. Этот селектор предназначается для использования менеджером по Синтезу речи; обычно, приложение использует
GetSpeechPitch
иSetSpeechPitch
функции.speechInfo
параметр является указателем на переменную типаFixed
.Этот селектор работает с обоими
GetSpeechInfo
иSetSpeechInfo
функции.Доступный в OS X v10.0 и позже.
-
soPitchMod
soPitchMod
Получите или установите модуляцию подачи речевого канала.
speechInfo
параметр является указателем на переменную типаFixed
. Модуляция подачи также выражена как значение фиксированной точки в диапазоне 0.000 к 127 000. Эти значения соответствуют длительности нот MIDI, где 60.000 равно середине C в масштабе фортепьяно. Самая полезная речь передает падение диапазона 40 000 - 55 000. Значение модуляции подачи 0.000 соответствует монотонности, в которой вся речь сгенерирована в частоте, соответствующей речевой подаче. Учитывая речевое значение подачи 46 000, модуляция подачи 2 000 означала бы, что самый широкий диапазон передач, соответствующих фактической частоте сгенерированного текста, будет 44 000 - 48 000.Этот селектор работает с обоими
GetSpeechInfo
иSetSpeechInfo
функции.Доступный в OS X v10.0 и позже.
-
soVolume
soVolume
Получите или установите динамический диапазон речевых сигналов для речевого канала.
speechInfo
параметр является указателем на переменную типаFixed
. Объемы выражены в модулях фиксированной точки в пределах от 0,0 до 1,0. Значение 0,0 соответствует тишине, и значение 1,0 соответствует максимальному возможному объему. Единицы объема лежат на масштабе, который линеен с амплитудой или напряжением. Удвоение воспринятой громкости соответствует удвоению объема.Этот селектор работает с обоими
GetSpeechInfo
иSetSpeechInfo
функции.Доступный в OS X v10.0 и позже.
-
soSynthType
soSynthType
Получите речевую структуру информации о версии для синтезатора речи, используемого на указанном речевом канале.
speechInfo
параметр является указателем на речевую структуру информации о версии, описанную вSpeechVersionInfo
.Этот селектор работает с
GetSpeechInfo
функция.Доступный в OS X v10.0 и позже.
-
soRecentSync
soRecentSync
Получите код сообщения для команды синхронизации, с которой последний раз встречаются. Если ни с какой командой синхронизации не встретились, 0 возвращается.
speechInfo
параметр является указателем на переменную типаOSType
.Этот селектор работает с
GetSpeechInfo
функция.Доступный в OS X v10.0 и позже.
-
soPhonemeSymbols
soPhonemeSymbols
Получите список символов фонемы и слов в качестве примера, определенных для синтезатора речевого канала. Ваше приложение могло бы использовать эту информацию, чтобы показать пользователю что символы использовать при введении фонематического текста непосредственно.
speechInfo
параметр является указателем на переменную Дескриптора типа что на выходе отGetSpeechInfo
функционируйте, дескриптор к структуре дескриптора фонемы, описанной вPhonemeDescriptor
.Этот селектор работает с
GetSpeechInfo
функция.Доступный в OS X v10.0 и позже.
-
soCurrentVoice
soCurrentVoice
Установите текущую речь на текущем речевом канале к указанной речи.
speechInfo
параметр является указателем на речевую структуру спецификации. Ваше приложение должно создать структуру путем вызоваMakeVoiceSpec
.SetSpeechInfo
возвратитсяincompatibleVoice
ошибка, если указанная речь является несовместимой с синтезатором речи, связанным с речевым каналом. Если у Вас есть речевой канал открытое использование речи от определенного синтезатора, и Вы пытаетесь переключиться на речь, работающую с различным синтезатором, Вы получаетеincompatibleVoice
ошибка. Необходимо создать новый канал для использования с новой речью.Этот селектор работает с
SetSpeechInfo
функция.Доступный в OS X v10.0 и позже.
-
soCommandDelimiter
soCommandDelimiter
Установите встроенные речевые символы-разделители команды, которые будут использоваться для речевого канала. По умолчанию вводный разделитель “
[[
” и заключительный разделитель “]]
”. Ваше приложение, возможно, должно было бы изменить эти разделители временно, если те последовательности символов происходят естественно в текстовом буфере, на котором нужно говорить. Ваше приложение может также отключить встроенную обработку команды передающими пустыми разделителями (использующий дваNUL
Символы ASCII).speechInfo
параметр является указателем на информационную структуру разделителя, описанную вDelimiterInfo
.Этот селектор работает с
SetSpeechInfo
функция.Доступный в OS X v10.0 и позже.
-
soReset
soReset
Задержите речевой канал к его состоянию по умолчанию. Например, речевая подача и речевой уровень установлены в значения по умолчанию.
speechInfo
параметр должен быть установлен наNULL
.Этот селектор работает с
SetSpeechInfo
функция.Доступный в OS X v10.0 и позже.
-
soCurrentA5
soCurrentA5
Установите значение, которое менеджер по Синтезу речи присваивает регистру A5 прежде, чем вызвать любые определенные с помощью приложения функции обратного вызова для речевого канала. Если функции обратного вызова должны быть в состоянии получить доступ к глобальным переменным приложения, регистр A5 должен быть установлен правильно.
speechInfo
в то время, когда приложение не выполняет код прерывания или к, параметр должен быть установлен на указатель, содержавшийся в регистре A5NULL
если Ваше приложение хочет очистить значение, ранее установленное сsoCurrentA5
селектор.Этот селектор работает с
SetSpeechInfo
функция.Доступный в OS X v10.0 и позже.
-
soRefCon
soRefCon
Установите ссылочное постоянное значение речевого канала. Ссылочное постоянное значение передается определенным с помощью приложения функциям обратного вызова и могло бы содержать любое значение, удобное для приложения.
speechInfo
параметр является длинным целым, содержащим ссылочное постоянное значение. В отличие от других селекторов, этот селектор не требует чтоspeechInfo
значение параметра быть значением указателя. Как правило, однако, приложение действительно использует этот селектор для передачи указателя, или дескриптор оценивают функциям обратного вызова.Этот селектор работает с
SetSpeechInfo
функция.Доступный в OS X v10.0 и позже.
-
soTextDoneCallBack
soTextDoneCallBack
Установите функцию обратного вызова, которую вызовут, когда менеджер по Синтезу речи закончит обрабатывать речь, сгенерированную на речевом канале.
speechInfo
параметр является указателем на определенную с помощью приложения сделанную текстом функцию обратного вызова, синтаксис которой описан вSpeechTextDoneProcPtr
. ПередачаNULL
вspeechInfo
отключает сделанную текстом функцию обратного вызова.Этот селектор работает с
SetSpeechInfo
функция.Доступный в OS X v10.0 и позже.
-
soSpeechDoneCallBack
soSpeechDoneCallBack
Установите функцию обратного вызова, которую вызовут, когда менеджер по Синтезу речи закончит генерировать речь на речевом канале.
speechInfo
параметр является указателем на определенную с помощью приложения сделанную речью функцию обратного вызова, синтаксис которой описан вSpeechDoneProcPtr
. ПередачаNULL
вspeechInfo
отключает сделанную речью функцию обратного вызова.Этот селектор работает с
SetSpeechInfo
функция.Доступный в OS X v10.0 и позже.
-
soSyncCallBack
soSyncCallBack
Установите функцию обратного вызова, которую вызовут, когда менеджер по Синтезу речи встретится с командой синхронизации во встроенной речевой команде в тексте, обрабатываемом на речевом канале.
speechInfo
параметр является указателем на определенную с помощью приложения функцию обратного вызова синхронизации, синтаксис которой описан вSpeechSyncProcPtr
. ПередачаNULL
вspeechInfo
отключает функцию обратного вызова синхронизации.Этот селектор работает с
SetSpeechInfo
функция.Доступный в OS X v10.0 и позже.
-
soErrorCallBack
soErrorCallBack
Установите функцию обратного вызова, которую вызовут, когда с ошибкой встретятся во время обработки встроенной команды. Если другие условия (такие как недостаточно память) возникают во время речевого процесса преобразования, функцию обратного вызова можно было бы также вызвать. Когда менеджера по Синтезу речи, функция возвращает ошибку непосредственно, ошибочная функция обратного вызова не вызывают, функция обратного вызова является переданной информацией о новой ошибке; это может определить информацию о самой старой незаконченной ошибке при помощи селектора информации о речи
soErrors
.speechInfo
параметр является указателем на определенную с помощью приложения ошибочную функцию обратного вызова. ПередачаNULL
вspeechInfo
отключает ошибочную функцию обратного вызова,SpeechErrorProcPtr
.Этот селектор работает с
SetSpeechInfo
функция.Доступный в OS X v10.0 и позже.
-
soPhonemeCallBack
soPhonemeCallBack
Установите функцию обратного вызова, которую вызовут каждый раз, когда менеджер по Синтезу речи собирается генерировать фонему на речевом канале.
speechInfo
параметр является указателем на определенную с помощью приложения функцию обратного вызова фонемы, синтаксис которой описан вSpeechPhonemeProcPtr
. ПередачаNULL
вspeechInfo
отключает функцию обратного вызова фонемы.Этот селектор работает с
SetSpeechInfo
функция.Доступный в OS X v10.0 и позже.
-
soWordCallBack
soWordCallBack
Установите функцию обратного вызова, которую вызовут каждый раз, когда менеджер по Синтезу речи собирается генерировать слово на речевом канале.
speechInfo
параметр является указателем на определенную с помощью приложения функцию обратного вызова слова, синтаксис которой описан вSpeechWordProcPtr
. ПередачаNULL
вspeechInfo
отключает функцию обратного вызова слова.Этот селектор работает с
SetSpeechInfo
функция.Доступный в OS X v10.0 и позже.
-
soSynthExtension
soSynthExtension
Получите или установите специфичную для синтезатора информацию или настройки.
speechInfo
параметр является указателем на речевую структуру данных расширения, описанную вSpeechXtndData
. Ваше приложение должно установитьsynthCreator
поле этой структуры перед вызовомGetSpeechInfo
илиSetSpeechInfo
. Обычно, Ваше приложение должно передать дополнительную информацию синтезатору вsynthData
поле.Этот селектор работает с обоими
GetSpeechInfo
иSetSpeechInfo
функции.Доступный в OS X v10.0 и позже.
-
soSoundOutput
soSoundOutput
Получите или установите канал текущей производительности речевого канала.
Использовать
soOutputToFileWithCFURL
вместо этого.Этот селектор работает с обоими
GetSpeechInfo
иSetSpeechInfo
функции.Доступный в OS X v10.0 и позже.
-
soOutputToFileWithCFURL
soOutputToFileWithCFURL
Передача a
CFURLRef
вspeechInfo
параметр для записи в этот файл, илиNULL
генерировать звук.Этот селектор работает с
SetSpeechInfo
функция.Доступный в OS X v10.3 и позже.
-
soOutputToExtAudioFile
soOutputToExtAudioFile
Передайте
ExtAudioFileRef
вspeechInfo
параметр для записи в этот файл, илиNULL
генерировать звук.Обратите внимание на то, что менеджер по Синтезу речи может измениться
kExtAudioFileProperty_ClientDataFormat
иkExtAudioFileProperty_ClientChannelLayout
свойства расширенного объекта аудиофайла. Вызывающая сторона ответственна за закрытие расширенного объекта аудиофайла после того, как менеджер по Синтезу речи будет закончен с ним.Этот селектор работает с
SetSpeechInfo
функция.Доступный в OS X v10.6 и позже.
-
soPhonemeOptions
soPhonemeOptions
Получите или установите опции для генерации фонетического вывода. Посмотрите Опции Генерации Фонемы для полного списка опций.
speechInfo
параметр является указателем на длинное значение, представляющее значение генерации фонемы.Этот селектор работает с обоими
GetSpeechInfo
иSetSpeechInfo
функции.Доступный в OS X v10.6 и позже.
-
soOutputToAudioDevice
soOutputToAudioDevice
Передайте указатель на
AudioDeviceID
вspeechInfo
параметр для игры к этому файлу, или0
проиграть устройство аудиовыхода по умолчанию.Этот селектор работает с
SetSpeechInfo
функция.Доступный в OS X v10.6 и позже.
Обсуждение
Посмотрите
GetSpeechInfo
иSetSpeechInfo
функции. -
-
Флаги, указывающие опции для генерации фонетического вывода.
Объявление
Swift
var kSpeechGenerateTune: Int { get } var kSpeechRelativePitch: Int { get } var kSpeechRelativeDuration: Int { get } var kSpeechShowSyllables: Int { get }
Objective C
enum { kSpeechGenerateTune = 1, kSpeechRelativePitch = 2, kSpeechRelativeDuration = 4, kSpeechShowSyllables = 8 };
Константы
-
kSpeechGenerateTune
kSpeechGenerateTune
Генерируйте фонемы, производящие подробную мелодию, указанную информацией о продолжительности и подачей.
Доступный в OS X v10.6 и позже.
-
kSpeechRelativePitch
kSpeechRelativePitch
Укажите подачу в мелодии относительно базовой линии подачи речи (это упрощает снова использовать мелодию с различной речью).
Доступный в OS X v10.6 и позже.
-
kSpeechRelativeDuration
kSpeechRelativeDuration
Укажите продолжительность в мелодии относительно текущего речевого уровня (это упрощает снова использовать мелодию на различном уровне).
Доступный в OS X v10.6 и позже.
-
kSpeechShowSyllables
kSpeechShowSyllables
Покажите все метки слога в фонетическом выводе или мелодии.
Доступный в OS X v10.6 и позже.
Доступность
Доступный в OS X v10.6 и позже.
-
-
Свойства, используемые с
CopySpeechProperty
илиSetSpeechProperty
получить или установить характеристики речевого канала.Объявление
Swift
var kSpeechStatusProperty: Unmanaged<CFString>! var kSpeechErrorsProperty: Unmanaged<CFString>! var kSpeechInputModeProperty: Unmanaged<CFString>! var kSpeechCharacterModeProperty: Unmanaged<CFString>! var kSpeechNumberModeProperty: Unmanaged<CFString>! var kSpeechRateProperty: Unmanaged<CFString>! var kSpeechPitchBaseProperty: Unmanaged<CFString>! var kSpeechPitchModProperty: Unmanaged<CFString>! var kSpeechVolumeProperty: Unmanaged<CFString>! var kSpeechSynthesizerInfoProperty: Unmanaged<CFString>! var kSpeechRecentSyncProperty: Unmanaged<CFString>! var kSpeechPhonemeSymbolsProperty: Unmanaged<CFString>! var kSpeechCurrentVoiceProperty: Unmanaged<CFString>! var kSpeechCommandDelimiterProperty: Unmanaged<CFString>! var kSpeechResetProperty: Unmanaged<CFString>! var kSpeechOutputToFileURLProperty: Unmanaged<CFString>! var kSpeechOutputToExtAudioFileProperty: Unmanaged<CFString>! var kSpeechRefConProperty: Unmanaged<CFString>! var kSpeechTextDoneCallBack: Unmanaged<CFString>! var kSpeechSpeechDoneCallBack: Unmanaged<CFString>! var kSpeechSyncCallBack: Unmanaged<CFString>! var kSpeechPhonemeCallBack: Unmanaged<CFString>! var kSpeechErrorCFCallBack: Unmanaged<CFString>! var kSpeechWordCFCallBack: Unmanaged<CFString>! var kSpeechPhonemeOptionsProperty: Unmanaged<CFString>! var kSpeechOutputToAudioDeviceProperty: Unmanaged<CFString>!
Objective C
CFStringRef kSpeechStatusProperty = CFSTR("stat"); CFStringRef kSpeechErrorsProperty = CFSTR("erro"); CFStringRef kSpeechInputModeProperty = CFSTR("inpt"); CFStringRef kSpeechCharacterModeProperty = CFSTR("char"); CFStringRef kSpeechNumberModeProperty = CFSTR("nmbr"); CFStringRef kSpeechRateProperty = CFSTR("rate"); CFStringRef kSpeechPitchBaseProperty = CFSTR("pbas"); CFStringRef kSpeechPitchModProperty = CFSTR("pmod"); CFStringRef kSpeechVolumeProperty = CFSTR("volm"); CFStringRef kSpeechSynthesizerInfoProperty = CFSTR("vers"); CFNumberRef kSpeechRecentSyncProperty = CFSTR("sync"); CFStringRef kSpeechPhonemeSymbolsProperty = CFSTR("phsy"); CFStringRef kSpeechCurrentVoiceProperty = CFSTR("cvox"); CFStringRef kSpeechCommandDelimiterProperty = CFSTR("dlim"); CFStringRef kSpeechResetProperty = CFSTR("rset"); CFStringRef kSpeechOutputToFileURLProperty = CFSTR("opaf"); CFStringRef kSpeechOutputToExtAudioFileProperty = CFSTR("opax"); CFStringRef kSpeechRefConProperty = CFSTR("refc"); CFStringRef kSpeechTextDoneCallBack = CFSTR("tdcb"); CFStringRef kSpeechSpeechDoneCallBack = CFSTR("sdcb"); CFStringRef kSpeechSyncCallBack = CFSTR("sycb"); CFStringRef kSpeechPhonemeCallBack = CFSTR("phcb"); CFStringRef kSpeechErrorCFCallBack = CFSTR("eccb"); CFStringRef kSpeechWordCFCallBack = CFSTR("wccb"); CFStringRef kSpeechPhonemeOptionsProperty = CFSTR("popt"); CFStringRef kSpeechOutputToAudioDeviceProperty = CRSTR("opad");
Константы
-
kSpeechStatusProperty
kSpeechStatusProperty
Получите речевую информацию о статусе для речевого канала.
Значение, связанное с этим свойством, является a
CFDictionary
объект, содержащий речевую информацию о статусе для речевого канала. Посмотрите“Speech Status Keys”
для описания ключевого настоящего в словаре.Это свойство работает с
CopySpeechProperty
функция.Доступный в OS X v10.5 и позже.
-
kSpeechErrorsProperty
kSpeechErrorsProperty
Получите информацию речевой ошибки для речевого канала.
Значение, связанное с этим свойством, является a
CFDictionary
объект, содержащий информацию о речевой ошибке. Посмотрите“Speech Error Keys”
для описания ключевого настоящего в словаре.Это свойство позволяет Вам получить информацию о различных ошибках периода выполнения, происходящих во время разговора, такого как обнаружение плохо сформированных встроенных команд. Об ошибках, возвращенных непосредственно менеджером по Синтезу речи, не сообщают здесь. Если Ваше приложение определяет ошибочную функцию обратного вызова, функция может использовать это свойство для получения ошибочной информации.
Это свойство работает с
CopySpeechProperty
функция.Доступный в OS X v10.5 и позже.
-
kSpeechInputModeProperty
kSpeechInputModeProperty
Получите или установите текущий относящийся к обработке текстов режим речевого канала.
Значение, связанное с этим свойством, является a
CFString
объект, указывающий, является ли канал в настоящее время в режиме ввода фонемы или режиме ввода текста. КонстантыkSpeechModeText
иkSpeechModePhoneme
(определенный в“Speech-Channel Modes for Core Foundation-based Functions”
) возможные значения этой строки.Когда в обрабатывающем фонему режиме, текстовая строка интерпретируется, чтобы быть серией символов, представляющих различные фонемы и просодические средства управления. Некоторые синтезаторы могли бы поддерживать дополнительные обрабатывающие ввод режимы и определить константы для этих режимов.
Когда в относящемся к обработке текстов режиме, можно также указать, как символы и числа должны быть обработаны с помощью
kSpeechCharacterModeProperty
иkSpeechNumberModeProperty
.Это свойство работает с
CopySpeechProperty
иSetSpeechProperty
функции.Доступный в OS X v10.5 и позже.
-
kSpeechCharacterModeProperty
kSpeechCharacterModeProperty
Получите или установите обрабатывающий текущий символ режим речевого канала.
Значение, связанное с этим свойством, является a
CFString
объект, указывающий, является ли речевой канал в настоящее время в нормальном или обрабатывающем буквенный символ режиме. КонстантыkSpeechModeNormal
иkSpeechModeLiteral
(определенный в“Speech-Channel Modes for Core Foundation-based Functions”
) возможные значения этой строки.Когда обрабатывающий символ режим
kSpeechModeNormal
, на вводимых символах говорят, поскольку Вы ожидали бы слышать их. Когда режимkSpeechModeLiteral
, на каждом символе говорят буквально, так, чтобы слово «кошка» было произнесено «CAT».Это свойство работает с
CopySpeechProperty
иSetSpeechProperty
функции.Доступный в OS X v10.5 и позже.
-
kSpeechNumberModeProperty
kSpeechNumberModeProperty
Получите или установите текущий обрабатывающий число режим речевого канала.
Значение, связанное с этим свойством, является a
CFString
объект, указывающий, является ли речевой канал в настоящее время в нормальном или литеральном обрабатывающем число режиме. КонстантыkSpeechModeNormal
иkSpeechModeLiteral
(определенный в“Speech-Channel Modes for Core Foundation-based Functions”
) возможные значения этой строки.Когда обрабатывающий число режим
kSpeechModeNormal
, синтезатор собирает цифры в числа (так, чтобы «12» говорился как «двенадцать»). Когда режимkSpeechModeLiteral
, на каждой цифре говорят буквально (так, чтобы «12» говорился как “один, два”).Это свойство работает с
CopySpeechProperty
иSetSpeechProperty
функции.Доступный в OS X v10.5 и позже.
-
kSpeechRateProperty
kSpeechRateProperty
Получите или установите речевой уровень речевого канала.
Значение, связанное с этим свойством, является a
CFNumber
объект, указывающий говорящий уровень речевого канала.Диапазон поддерживаемых уровней не предопределен менеджером по Синтезу речи; каждый синтезатор речи обеспечивает свой собственный диапазон речевых уровней. Средняя человеческая речь происходит на уровне 180 - 220 слов в минуту.
Это свойство работает с
CopySpeechProperty
иSetSpeechProperty
функции.Доступный в OS X v10.5 и позже.
-
kSpeechPitchBaseProperty
kSpeechPitchBaseProperty
Получите или установите базовую речевую подачу речевого канала.
Значение, связанное с этим свойством, является a
CFNumber
объект, указывающий базовую речевую подачу речевого канала.Типичные частоты речевого диапазона располагаются приблизительно от 90 герц для низкого мужского голоса к, возможно, 300 герц для речи высокого дочернего элемента. Эти частоты соответствуют приблизительным значениям подачи в диапазонах 30 000 - 40 000 и 55 000 - 65 000, соответственно.
Это свойство работает с
CopySpeechProperty
иSetSpeechProperty
функции.Доступный в OS X v10.5 и позже.
-
kSpeechPitchModProperty
kSpeechPitchModProperty
Получите или установите модуляцию подачи речевого канала.
Значение, связанное с этим свойством, является a
CFNumber
объект, указывающий модуляцию подачи речевого канала.Модуляция подачи также выражена как значение с плавающей точкой в диапазоне 0.000 к 127 000. Эти значения соответствуют длительности нот MIDI, где 60.000 равно середине C в масштабе фортепьяно. Самая полезная речь передает падение диапазона 40 000 - 55 000. Значение модуляции подачи 0.000 соответствует монотонности, в которой вся речь сгенерирована в частоте, соответствующей речевой подаче. Учитывая речевое значение подачи 46 000, модуляция подачи 2 000 означала бы, что самый широкий диапазон передач, соответствующих фактической частоте сгенерированного текста, будет 44 000 - 48 000.
Это свойство работает с
CopySpeechProperty
иSetSpeechProperty
функции.Доступный в OS X v10.5 и позже.
-
kSpeechVolumeProperty
kSpeechVolumeProperty
Получите или установите динамический диапазон речевых сигналов для речевого канала.
Значение, связанное с этим свойством, является a
CFNumber
объект, указывающий динамический диапазон речевых сигналов речевого канала.Объемы выражены в значениях с плавающей точкой в пределах от 0,0 до 1,0. Значение 0,0 соответствует тишине, и значение 1,0 соответствует максимальному возможному объему. Единицы объема лежат на масштабе, который линеен с амплитудой или напряжением. Удвоение воспринятой громкости соответствует удвоению объема.
Это свойство работает с
CopySpeechProperty
иSetSpeechProperty
функции.Доступный в OS X v10.5 и позже.
-
kSpeechSynthesizerInfoProperty
kSpeechSynthesizerInfoProperty
Получите информацию о синтезаторе речи, используемом на указанном речевом канале.
Значение, связанное с этим свойством, является a
CFDictionary
объект, содержащий информацию о синтезаторе речи, используемом на указанном речевом канале. Посмотрите“Speech Synthesizer Information Keys”
для описания ключевого настоящего в словаре.Это свойство работает с
CopySpeechProperty
функция.Доступный в OS X v10.5 и позже.
-
kSpeechRecentSyncProperty
kSpeechRecentSyncProperty
Получите код сообщения для команды синхронизации, с которой последний раз встречаются.
Значение, связанное с этим свойством, является a
CFNumber
объект, указывающий команду синхронизации, с которой последний раз встречаются. Это свойство работает сCopySpeechProperty
функция.Доступный в OS X v10.5 и позже.
-
kSpeechPhonemeSymbolsProperty
kSpeechPhonemeSymbolsProperty
Получите список символов фонемы и слов в качестве примера, определенных для синтезатора речевого канала.
Значение, связанное с этим свойством, является a
CFDictionary
объект, содержащий символы фонемы и слова в качестве примера, определенные для текущего синтезатора. Ваше приложение могло бы использовать эту информацию, чтобы показать пользователю что символы использовать при введении фонематического текста непосредственно. Посмотрите“Phoneme Symbols Keys”
для описания ключевого настоящего в словаре.Это свойство работает с
CopySpeechProperty
функция.Доступный в OS X v10.5 и позже.
-
kSpeechCurrentVoiceProperty
kSpeechCurrentVoiceProperty
Установите текущую речь на текущем речевом канале к указанной речи.
Значение, связанное с этим свойством, является a
CFDictionary
объект, содержащий символы фонемы и слова в качестве примера, определенные для текущего синтезатора. Ваше приложение могло бы использовать эту информацию, чтобы показать пользователю что символы использовать при введении фонематического текста непосредственно. Посмотрите“Phoneme Symbols Keys”
для ключей можно использовать для указания значений в этом словаре.Это свойство работает с
SetSpeechProperty
функция.Доступный в OS X v10.5 и позже.
-
kSpeechCommandDelimiterProperty
kSpeechCommandDelimiterProperty
Установите встроенные речевые символы-разделители команды, которые будут использоваться для речевого канала.
По умолчанию вводный разделитель “
[[
” и заключительный разделитель “]]
”. Ваше приложение, возможно, должно было бы изменить эти разделители временно, если те последовательности символов происходят естественно в текстовом буфере, на котором нужно говорить. Ваше приложение может также отключить встроенную обработку команды передающими пустыми разделителями (как пустые строки). Значение, связанное с этим свойством, является aCFDictionary
объект, содержащий информацию о разделителе. Посмотрите“Command Delimiter Keys”
для ключей можно использовать для указания значений в этом словаре.Это свойство работает с
SetSpeechProperty
функция.Доступный в OS X v10.5 и позже.
-
kSpeechResetProperty
kSpeechResetProperty
Задержите речевой канал к его состоянию по умолчанию.
Можно использовать эту функцию для, например, подача заранее составленной речи и речевой уровень к значениям по умолчанию. Нет никакого значения, связанного с этим свойством; для сброса канала к его состоянию по умолчанию установите строку в
NULL
.Это свойство работает с
SetSpeechProperty
функция.Доступный в OS X v10.5 и позже.
-
kSpeechOutputToFileURLProperty
kSpeechOutputToFileURLProperty
Установите место назначения речевого вывода в файл или динамикам компьютера.
Значение, связанное с этим свойством, является a
CFURL
объект. Для записи речевого вывода в файл используйте файлCFURLRef
; для генерации звука через динамики компьютера использоватьNULL
.Это свойство работает с
SetSpeechProperty
функция.Доступный в OS X v10.5 и позже.
-
kSpeechOutputToExtAudioFileProperty
kSpeechOutputToExtAudioFileProperty
Установите место назначения речевого вывода в расширенный аудиофайл или динамикам компьютера.
Значение, связанное с этим свойством, является a
CFNumber
возразите, чье значениеExtAudioFileRef
. Для записи речевого вывода в расширенный аудиофайл используйте файлExtAudioFileRef
; для генерации звука через динамики компьютера использоватьNULL
.Это свойство работает с
SetSpeechProperty
функция.Доступный в OS X v10.5 и позже.
-
kSpeechRefConProperty
kSpeechRefConProperty
Установите ссылочное постоянное значение речевого канала.
Ссылочное постоянное значение передается определенным с помощью приложения функциям обратного вызова и могло бы содержать любое значение, удобное для приложения. Значение, связанное с этим свойством, является a
CFNumber
объект, содержащий целочисленное значение. Например, приложение могло бы установить значениеCFNumber
возразите против адреса в памяти, содержащей ссылку на объект или указатель на функцию.Это свойство работает с
SetSpeechProperty
функция.Доступный в OS X v10.5 и позже.
-
kSpeechTextDoneCallBack
kSpeechTextDoneCallBack
Установите функцию обратного вызова, которую вызовут, когда менеджер по Синтезу речи закончит обрабатывать речь, сгенерированную на речевом канале.
Значение, связанное с этим свойством, является a
CFNumber
возразите, чье значение является указателем на определенную с помощью приложения сделанную текстом функцию обратного вызова, синтаксис которой описан вSpeechTextDoneProcPtr
. Передача aCFNumber
объект, содержащий значениеNULL
отключает сделанную текстом функцию обратного вызова.Это свойство работает с
SetSpeechProperty
функция.Доступный в OS X v10.5 и позже.
-
kSpeechSpeechDoneCallBack
kSpeechSpeechDoneCallBack
Установите функцию обратного вызова, которую вызовут, когда менеджер по Синтезу речи закончит генерировать речь на речевом канале.
Значение, связанное с этим свойством,
CFNumber
возразите, чье значение является указателем на определенную с помощью приложения сделанную речью функцию обратного вызова, синтаксис которой описан вSpeechDoneProcPtr
. ПередачаNULL
поскольку значение этого свойства отключает сделанную речью функцию обратного вызова.Это свойство работает с
SetSpeechProperty
функция.Доступный в OS X v10.5 и позже.
-
kSpeechSyncCallBack
kSpeechSyncCallBack
Установите функцию обратного вызова, которую вызовут, когда менеджер по Синтезу речи встретится с командой синхронизации во встроенной речевой команде в тексте, обрабатываемом на речевом канале.
Значение, связанное с этим свойством,
CFNumber
возразите, чье значение является указателем на определенную с помощью приложения функцию обратного вызова синхронизации, синтаксис которой описан вSpeechSyncProcPtr
. Передача aCFNumber
объект, содержащий значениеNULL
поскольку значение этого свойства отключает функцию обратного вызова синхронизации.Это свойство работает с
SetSpeechProperty
функция.Доступный в OS X v10.5 и позже.
-
kSpeechPhonemeCallBack
kSpeechPhonemeCallBack
Установите функцию обратного вызова, которую вызовут каждый раз, когда менеджер по Синтезу речи собирается генерировать фонему на речевом канале.
Значение, связанное с этим свойством,
CFNumber
возразите, чье значение является указателем на определенную с помощью приложения функцию обратного вызова фонемы, синтаксис которой описан вSpeechPhonemeProcPtr
. Передача aCFNumber
объект, содержащий значениеNULL
поскольку значение этого свойства отключает функцию обратного вызова фонемы.Это свойство работает с
SetSpeechProperty
функция.Доступный в OS X v10.5 и позже.
-
kSpeechErrorCFCallBack
kSpeechErrorCFCallBack
Установите функцию обратного вызова, которую вызовут, когда с ошибкой встретятся во время обработки встроенной команды.
. Когда менеджера по Синтезу речи, функция возвращает ошибку непосредственно, ошибочная функция обратного вызова не вызывают, функция обратного вызова является переданной информацией о новой ошибке; это может определить информацию о самой старой незаконченной ошибке при помощи свойства информации о речи
kSpeechErrorsProperty
. Значение, связанное с этим свойством,CFNumber
возразите, чье значение является указателем на определенную с помощью приложения ошибочную функцию обратного вызова, синтаксис которой описан вSpeechErrorCFProcPtr
. Передача aCFNumber
объект, содержащий значениеNULL
поскольку значение этого свойства отключает ошибочную функцию обратного вызова.Это свойство работает с
SetSpeechProperty
функция.Доступный в OS X v10.5 и позже.
-
kSpeechWordCFCallBack
kSpeechWordCFCallBack
Установите функцию обратного вызова, которую вызовут каждый раз, когда менеджер по Синтезу речи собирается генерировать слово на речевом канале.
Значение, связанное с этим свойством,
CFNumber
возразите, чье значение является указателем на определенную с помощью приложения функцию обратного вызова слова, синтаксис которой описан вSpeechWordCFProcPtr
. Передача aCFNumber
объект, содержащий значениеNULL
поскольку значение этого свойства отключает функцию обратного вызова слова.Это свойство работает с
SetSpeechProperty
функция.Доступный в OS X v10.5 и позже.
-
kSpeechPhonemeOptionsProperty
kSpeechPhonemeOptionsProperty
Получите или установите опции для генерации фонетического вывода.
Значение, связанное с этим свойством, является указателем на
CFNumber
объект, содержащий флаги (опции), Вы передали быsoPhonemeOptions
. (См. Опции Генерации Фонемы для полного списка опций.)Это свойство работает с
SetSpeechProperty
иCopySpeechProperty
функции.Доступный в OS X v10.5 и позже.
-
kSpeechOutputToAudioDeviceProperty
kSpeechOutputToAudioDeviceProperty
Установите место назначения речевого вывода в файл аудиоустройства или динамикам компьютера.
Значение, связанное с этим свойством, является a
CFNumber
объект, содержащийAudioDeviceID
. Для игры речевого вывода к аудиоустройству используйтеAudioDeviceID
это представляет устройство; для генерации звука через динамики компьютера использовать0
.Это свойство работает с
SetSpeechProperty
функция.Доступный в OS X v10.6 и позже.
-
-
Ключи раньше указывали опции синтезатора.
Объявление
Swift
var kSpeechNoEndingProsody: Unmanaged<CFString>! var kSpeechNoSpeechInterrupt: Unmanaged<CFString>! var kSpeechPreflightThenPause: Unmanaged<CFString>!
Objective C
CFStringRef kSpeechNoEndingProsody = CFSTR("NoEndingProsody"); CFStringRef kSpeechNoSpeechInterrupt = CFSTR("NoSpeechInterrupt"); CFStringRef kSpeechPreflightThenPause = CFSTR("PreflightThenPause");
Константы
-
kSpeechNoEndingProsody
kSpeechNoEndingProsody
Отключите просодию в конце предложений.
kSpeechNoEndingProsody
ключ используется, чтобы указать, должен ли синтезатор речи автоматически применить конечную просодию, которая является речевым тоном и тактовым сигналом, обычно происходящими в конце предложения. Когда ключ не указан (или если он указан со значениемkCFBooleanFalse
), конечная просодия применяется к речи в концеaString
. Это поведение может быть отключено путем указанияkSpeechNoEndingProsody
ключ, со значениемkCFBooleanTrue
, вoptions
словарь.Доступный в OS X v10.5 и позже.
-
kSpeechNoSpeechInterrupt
kSpeechNoSpeechInterrupt
Не прерывайте текущую речь.
kSpeechNoSpeechInterrupt
ключ используется для управления поведениемSpeakCFString
когда это вызывают на речевом канале, который занят. КогдаkSpeechNoSpeechInterrupt
не указан вoptions
словарь (или если это указано со значениемkCFBooleanFalse
),SpeakCFString
сразу прерывает речь, в настоящее время производимую на указанном речевом канале и новомaString
на тексте говорят. КогдаkSpeechNoSpeechInterrupt
указан со значениемkCFBooleanTrue
, запрос для разговора о речевом канале, который уже является занятыми причинами новоеaString
текст, который будет проигнорирован иsynthNotReady
ошибка, которая будет возвращена.Доступный в OS X v10.5 и позже.
-
kSpeechPreflightThenPause
kSpeechPreflightThenPause
Вычислите речь, не генерируя его.
kSpeechPreflightThenPause
когда синтезатор речи пытается говорить, ключ используется для минимизации задержки, испытанной. Для достижения этого укажитеkSpeechPreflightThenPause
ключ, со значениемkCFBooleanTrue
, вoptions
словарь. Это заставляет синтезатор речи обрабатывать входной текст по мере необходимости к точке, где это готово начать производить речевой вывод. В этой точке синтезатор вводит приостановленное состояние и возвращается к вызывающей стороне. Когда приложение готово произвести речь, оно должно вызватьContinueSpeech
начать говорить.Если Вы не указываете
kSpeechPreflightThenPause
ключ (или Вы указываете его со значениемkCFBooleanFalse
),SpeakCFString
начинает говорить входной текст после обработки его.Доступный в OS X v10.5 и позже.
-
-
Ключи, используемые с
kSpeechStatusProperty
свойство для указания состояния речевого канала.Объявление
Swift
var kSpeechStatusOutputBusy: Unmanaged<CFString>! var kSpeechStatusOutputPaused: Unmanaged<CFString>! var kSpeechStatusNumberOfCharactersLeft: Unmanaged<CFString>! var kSpeechStatusPhonemeCode: Unmanaged<CFString>!
Objective C
CFStringRef kSpeechStatusOutputBusy = CFSTR("OutputBusy"); CFStringRef kSpeechStatusOutputPaused = CFSTR("OutputPaused"); CFStringRef kSpeechStatusNumberOfCharactersLeft = CFSTR("NumberOfCharactersLeft"); CFStringRef kSpeechStatusPhonemeCode = CFSTR("PhonemeCode");
Константы
-
kSpeechStatusOutputBusy
kSpeechStatusOutputBusy
Указывает, производит ли речевой канал в настоящее время речь.
Когда никакие аудиоданные не производятся через динамик компьютера, речевой канал считается, производя речь даже в несколько раз. Это происходит, например, когда менеджер по Синтезу речи обрабатывает ввод, но еще не инициировал речь или когда приостанавливается речевой вывод.
Доступный в OS X v10.5 и позже.
-
kSpeechStatusOutputPaused
kSpeechStatusOutputPaused
Указывает, был ли речевой вывод в речевом канале приостановлен вызовом к
PauseSpeechAt
функция.Доступный в OS X v10.5 и позже.
-
kSpeechStatusNumberOfCharactersLeft
kSpeechStatusNumberOfCharactersLeft
Число символов уехало во входной строке текста.
Когда значение этой константы является нулем, можно уничтожить входную строку.
Доступный в OS X v10.5 и позже.
-
kSpeechStatusPhonemeCode
kSpeechStatusPhonemeCode
Код операции для фонемы, которую в настоящее время обрабатывает речевой канал.
Доступный в OS X v10.5 и позже.
-
-
Ключи, используемые с
kSpeechErrorsProperty
свойство для описания ошибок встретилось во время обработки речи и производства.Объявление
Swift
var kSpeechErrorCount: Unmanaged<CFString>! var kSpeechErrorOldest: Unmanaged<CFString>! var kSpeechErrorOldestCharacterOffset: Unmanaged<CFString>! var kSpeechErrorNewest: Unmanaged<CFString>! var kSpeechErrorNewestCharacterOffset: Unmanaged<CFString>!
Objective C
CFStringRef kSpeechErrorCount = CFSTR("Count"); CFStringRef kSpeechErrorOldest = CFSTR("OldestCode"); CFStringRef kSpeechErrorOldestCharacterOffset = CFSTR("OldestCharacterOffset"); CFStringRef kSpeechErrorNewest = CFSTR("NewestCode"); CFStringRef kSpeechErrorNewestCharacterOffset = CFSTR("NewestCharacterOffset");
Константы
-
kSpeechErrorCount
kSpeechErrorCount
Число ошибок, произошедших в обработке строки текущего текста, начиная с последней возможности к
CopySpeechProperty
функция сkSpeechErrorsProperty
свойство.Используя
kSpeechErrorOldest
ключи иkSpeechErrorNewest
ключи, можно получить информацию о самых старых и новых ошибках, произошедших начиная с последней возможности сCopySpeechProperty
, но Вы не можете получить информацию ни о каких прошедших ошибках.Доступный в OS X v10.5 и позже.
-
kSpeechErrorOldest
kSpeechErrorOldest
Код ошибки первой ошибки, произошедшей начиная с последней возможности с
CopySpeechProperty
функция сkSpeechErrorsProperty
свойство.Доступный в OS X v10.5 и позже.
-
kSpeechErrorOldestCharacterOffset
kSpeechErrorOldestCharacterOffset
Позиция в текстовой строке первой ошибки, произошедшей начиная с последней возможности с
CopySpeechProperty
функция сkSpeechErrorsProperty
свойство.Доступный в OS X v10.5 и позже.
-
kSpeechErrorNewest
kSpeechErrorNewest
Код ошибки новой ошибки, произошедшей начиная с последней возможности с
CopySpeechProperty
функция сkSpeechErrorsProperty
свойство.Доступный в OS X v10.5 и позже.
-
kSpeechErrorNewestCharacterOffset
kSpeechErrorNewestCharacterOffset
Позиция в текстовой строке новой ошибки, произошедшей начиная с последней возможности с
CopySpeechProperty
функция сkSpeechErrorsProperty
свойство.Доступный в OS X v10.5 и позже.
-
-
Ключи, используемые с
kSpeechSynthesizerInfoProperty
свойство для получения информации о синтезаторе.Объявление
Swift
var kSpeechSynthesizerInfoIdentifier: Unmanaged<CFString>! var kSpeechSynthesizerInfoVersion: Unmanaged<CFString>! var kSpeechSynthesizerInfoManufacturer: Unmanaged<CFString>!
Objective C
CFStringRef kSpeechSynthesizerInfoIdentifier = CFSTR("Identifier"); CFStringRef kSpeechSynthesizerInfoVersion = CFSTR("Version"); CFStringRef kSpeechSynthesizerInfoManufacturer = CFSTR("Manufacturer");
Константы
-
kSpeechSynthesizerInfoIdentifier
kSpeechSynthesizerInfoIdentifier
Идентификатор синтезатора речи.
Доступный в OS X v10.5 и позже.
-
kSpeechSynthesizerInfoVersion
kSpeechSynthesizerInfoVersion
Версия синтезатора речи.
Доступный в OS X v10.5 и позже.
-
kSpeechSynthesizerInfoManufacturer
kSpeechSynthesizerInfoManufacturer
Идентификация механизма синтезатора (см.
synthManufacturer
поле вSpeechVersionInfo
).Доступный в OS X v10.5 и позже.
-
-
Ключи, используемые с
kSpeechPhonemeSymbolsProperty
свойство для предоставления информации об обрабатываемой фонеме.Объявление
Swift
var kSpeechPhonemeInfoOpcode: Unmanaged<CFString>! var kSpeechPhonemeInfoSymbol: Unmanaged<CFString>! var kSpeechPhonemeInfoExample: Unmanaged<CFString>! var kSpeechPhonemeInfoHiliteStart: Unmanaged<CFString>! var kSpeechPhonemeInfoHiliteEnd: Unmanaged<CFString>!
Objective C
CFStringRef kSpeechPhonemeInfoOpcode = CFSTR("Opcode"); CFStringRef kSpeechPhonemeInfoSymbol = CFSTR("Symbol"); CFStringRef kSpeechPhonemeInfoExample = CFSTR("Example"); CFStringRef kSpeechPhonemeInfoHiliteStart = CFSTR("HiliteStart"); CFStringRef kSpeechPhonemeInfoHiliteEnd = CFSTR("HiliteEnd");
Константы
-
kSpeechPhonemeInfoOpcode
kSpeechPhonemeInfoOpcode
Код операции фонемы.
Доступный в OS X v10.5 и позже.
-
kSpeechPhonemeInfoSymbol
kSpeechPhonemeInfoSymbol
Символ раньше представлял фонему.
Символ не обязательно имеет фонетическое соединение с фонемой, но мог бы просто быть абстрактным текстовым представлением ее.
Доступный в OS X v10.5 и позже.
-
kSpeechPhonemeInfoExample
kSpeechPhonemeInfoExample
Слово в качестве примера, иллюстрирующее использование фонемы.
Доступный в OS X v10.5 и позже.
-
kSpeechPhonemeInfoHiliteStart
kSpeechPhonemeInfoHiliteStart
Символьное смещение в слово в качестве примера, идентифицирующее расположение начала фонемы.
Доступный в OS X v10.5 и позже.
-
kSpeechPhonemeInfoHiliteEnd
kSpeechPhonemeInfoHiliteEnd
Символьное смещение в слово в качестве примера, идентифицирующее расположение конца фонемы.
Доступный в OS X v10.5 и позже.
-
-
Ключи, используемые с
kSpeechCurrentVoiceProperty
свойство для указания информации о текущей речи.Объявление
Swift
var kSpeechVoiceCreator: Unmanaged<CFString>! var kSpeechVoiceID: Unmanaged<CFString>!
Objective C
CFStringRef kSpeechVoiceCreator = CFSTR("Creator"); CFStringRef kSpeechVoiceID = CFSTR("ID");
Константы
-
Ключи, используемые с
kSpeechCommandDelimiterProperty
свойство для указания информации о строках разделителя команды.Объявление
Swift
var kSpeechCommandPrefix: Unmanaged<CFString>! var kSpeechCommandSuffix: Unmanaged<CFString>!
Objective C
CFStringRef kSpeechCommandPrefix = CFSTR("Prefix"); CFStringRef kSpeechCommandSuffix = CFSTR("Suffix");
Константы
-
kSpeechCommandPrefix
kSpeechCommandPrefix
Разделитель команды представляет это в виде строки префиксы команда (по умолчанию, это “
[[
”). Строка должна содержать два или меньше символов, которые, для лучшей совместимости, должны быть символами ASCII.Доступный в OS X v10.5 и позже.
-
kSpeechCommandSuffix
kSpeechCommandSuffix
Разделитель команды представляет это в виде строки суффиксы команда (по умолчанию, это “
]]
”). Строка должна содержать два или меньше символов, которые, для лучшей совместимости, должны быть символами ASCII.Доступный в OS X v10.5 и позже.
Доступность
Доступный в OS X v10.5 и позже.
-
-
Ключи, используемые в речевом словаре для переопределения произношения синтезатора по умолчанию слова.
Объявление
Swift
var kSpeechDictionaryLocaleIdentifier: Unmanaged<CFString>! var kSpeechDictionaryModificationDate: Unmanaged<CFString>! var kSpeechDictionaryPronunciations: Unmanaged<CFString>! var kSpeechDictionaryAbbreviations: Unmanaged<CFString>! var kSpeechDictionaryEntrySpelling: Unmanaged<CFString>! var kSpeechDictionaryEntryPhonemes: Unmanaged<CFString>!
Objective C
CFStringRef kSpeechDictionaryLocaleIdentifier = CFSTR("LocaleIdentifier"); CFStringRef kSpeechDictionaryModificationDate = CFSTR("ModificationDate"); CFStringRef kSpeechDictionaryPronunciations = CFSTR("Pronunciations"); CFStringRef kSpeechDictionaryAbbreviations = CFSTR("Abbreviations"); CFStringRef kSpeechDictionaryEntrySpelling = CFSTR("Spelling"); CFStringRef kSpeechDictionaryEntryPhonemes = CFSTR("Phonemes");
Константы
-
kSpeechDictionaryLocaleIdentifier
kSpeechDictionaryLocaleIdentifier
Локаль связалась с произношением.
Доступный в OS X v10.5 и позже.
-
kSpeechDictionaryModificationDate
kSpeechDictionaryModificationDate
Дата словарь была в последний раз изменена.
Доступный в OS X v10.5 и позже.
-
kSpeechDictionaryPronunciations
kSpeechDictionaryPronunciations
Набор пользовательского произношения.
Доступный в OS X v10.5 и позже.
-
kSpeechDictionaryAbbreviations
kSpeechDictionaryAbbreviations
Набор пользовательского произношения для сокращений.
Доступный в OS X v10.5 и позже.
-
kSpeechDictionaryEntrySpelling
kSpeechDictionaryEntrySpelling
Написание записи.
Доступный в OS X v10.5 и позже.
-
kSpeechDictionaryEntryPhonemes
kSpeechDictionaryEntryPhonemes
Фонематическое представление записи.
Доступный в OS X v10.5 и позже.
Обсуждение
Ключи в речевом словаре могут определить, как синтезатор произносит слово. После создания речевого словаря Вы регистрируете его в речевом канале с
UseSpeechDictionary
функция. -
-
Когда ошибка происходит, указывает информацию о тексте, синтезируемом.
Объявление
Swift
var kSpeechErrorCallbackSpokenString: Unmanaged<CFString>! var kSpeechErrorCallbackCharacterOffset: Unmanaged<CFString>!
Objective C
CFStringRef kSpeechErrorCallbackSpokenString = CFSTR("SpokenString"); CFStringRef kSpeechErrorCallbackCharacterOffset = CFSTR("CharacterOffset");
Константы
-
kSpeechErrorCallbackSpokenString
kSpeechErrorCallbackSpokenString
Текст, синтезируемый, когда произошла ошибка.
Доступный в OS X v10.5 и позже.
-
kSpeechErrorCallbackCharacterOffset
kSpeechErrorCallbackCharacterOffset
Индекс символа в тексте, синтезируемом, когда ошибка произошла (строка, представляющая текст, находится в
kSpeechErrorCallbackSpokenString
).Доступный в OS X v10.5 и позже.
-
Наиболее распространенные коды результата, возвращенные менеджером по Синтезу речи, упоминаются ниже.
-
Не удалось найти указанный синтезатор речи
Значение
- 240
Описание
Не удалось найти указанный синтезатор речи
Доступный в OS X v10.0 и позже.
-
Не удалось открыть другой канал синтезатора речи
Значение
- 241
Описание
Не удалось открыть другой канал синтезатора речи
Доступный в OS X v10.0 и позже.
-
Синтезатор речи все еще занят, говоря
Значение
- 242
Описание
Синтезатор речи все еще занят, говоря
Доступный в OS X v10.0 и позже.
-
Буфер вывода является слишком небольшим для содержания результата
Значение
- 243
Описание
Буфер вывода является слишком небольшим для содержания результата
Доступный в OS X v10.0 и позже.
-
Речевой ресурс, не найденный
Значение
- 244
Описание
Речевой ресурс, не найденный
Доступный в OS X v10.0 и позже.
-
Указанная речь не может использоваться с синтезатором
Значение
- 245
Описание
Указанная речь не может использоваться с синтезатором
Доступный в OS X v10.0 и позже.
-
Ошибка формата словаря произношения
Значение
- 246
Описание
Ошибка формата словаря произношения
Доступный в OS X v10.0 и позже.
-
Необработанный текст фонемы содержит недопустимые символы
Значение
- 247
Описание
Необработанный текст фонемы содержит недопустимые символы
Доступный в OS X v10.0 и позже.
Константы гештальта
Можно проверить на версию и информацию о доступности функции при помощи менеджера по Синтезу речи селекторы, определенные в менеджере по Гештальту. Для получения дополнительной информации посмотрите Внутренний OS X: менеджер по Гештальту Ссылка.