Spec-Zone .ru
спецификации, руководства, описания, API

Библиотека разработчика Mac

Разработчик

Ссылочный менеджер по синтезу речи платформы ApplicationServices ссылка

Опции
Развертывание Target:

На этой странице
Язык:

Менеджер по синтезу речи ссылка

Менеджер по Синтезу речи, раньше названный менеджером по Речи, является частью Mac OS, обеспечивающего стандартный метод для приложений Mac для генерации синтезированной речи. Например, можно хотеть, чтобы приложение включило возможность говорить ее сообщения диалогового окна с пользователем. Приложение обработки текстов могло бы использовать менеджера по Синтезу речи для реализации команды, говорящей выбранный раздел документа пользователю. Поскольку звуковые выборки могут привести большие суммы в рабочее состояние комнаты на диске, использование текста вместо выбранного звука чрезвычайно эффективно. Например, мультимедийное приложение могло бы использовать менеджера по Синтезу речи для обеспечения повествования фильма в формате QuickTime вместо того, чтобы включить данные выбранного звука на дорожке фильма.

OS X v10.5 представляет собственную поддержку выполнения задач синтеза речи с помощью Базовых Основанных на основе объектов, таких как говорящий текст, представленный как CFString объекты и управляющий свойствами речевого канала с помощью a CFDictionary- основанный словарь свойства. Необходимо начать использовать эти Базовые Основанные на основе интерфейсы программирования, как только это удобно, потому что будущие синтезаторы примут Базовые строки Основы и структуры данных непосредственно через платформу синтеза речи. Тем временем существующие основанные на буфере клиенты и синтезаторы будут продолжать работать как прежде со строками и другими структурами данных, автоматически преобразовываемыми по мере необходимости.

Функции

  • Изменяет настройки определенного речевого канала.

    Объявление

    Objective C

    OSErr SetSpeechInfo ( SpeechChannel chan, OSType selector, const void *speechInfo );

    Параметры

    chan

    Речевой канал, для которого Ваше приложение хочет изменить настройки.

    selector

    Селектор информации о речи, указывающий тип изменяемой информации.

    Для полного списка селекторов информации о речи посмотрите Константы информации о Речевом канале. Этот список указывает, как Ваше приложение должно установить speechInfo параметр для каждого селектора.

    speechInfo

    Указатель, значение которого зависит от селектора информации о речи, указанного в selector параметр.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    SetSpeechInfo функционируйте изменяет тип установки обозначенного selector параметр в речевом канале, указанном chan параметр, на основе данных Ваше приложение обеспечивает через speechInfo параметр.

    Формат структуры данных, указанной speechInfo параметр зависит от селектора, который Вы выбираете. Обычно, селектор требует этого speechInfo будьте указателем на структуру данных, указывающую новую установку для речевого канала.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Устанавливает значение указанного свойства речевого канала.

    Объявление

    Swift

    func SetSpeechProperty(_ chan: SpeechChannel, _ property: CFString!, _ object: AnyObject!) -> OSErr

    Objective C

    OSErr SetSpeechProperty ( SpeechChannel chan, CFStringRef property, CFTypeRef object );

    Параметры

    chan

    Речевой канал, чье свойство для установки.

    property

    Свойство речевого канала для установки в указанное значение.

    object

    Значение, в которое должно быть установлено указанное свойство речевого канала. Для некоторых свойств это значение может быть NULL.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    SetSpeechProperty функция является Базовым Основанным на основе эквивалентом SetSpeechInfo функция.

    Посмотрите “Speech-Channel Properties” для получения информации о свойствах можно указать.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.5 и позже.

  • Устанавливает речевую подачу на определяемом речевом канале.

    Объявление

    Swift

    func SetSpeechPitch(_ chan: SpeechChannel, _ pitch: Fixed) -> OSErr

    Objective C

    OSErr SetSpeechPitch ( SpeechChannel chan, Fixed pitch );

    Параметры

    chan

    Речевой канал, подачу которого Вы хотите установить.

    pitch

    Новая подача для речевого канала, выраженного как значение частоты фиксированной точки.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    SetSpeechPitch функционируйте изменяет текущую речевую подачу на речевом канале, указанном chan параметр к подаче, указанной pitch параметр. Типичные частоты речевого диапазона располагаются приблизительно от 90 герц для низкого мужского голоса к, возможно, 300 герц для речи высокого дочернего элемента. Эти частоты соответствуют приблизительным значениям подачи в диапазонах 30 000 - 40 000 и 55 000 - 65 000, соответственно. Несмотря на то, что значения фиксированной точки позволяют Вам указывать широкий диапазон передач, не, все синтезаторы будут поддерживать полный спектр передач. Если Ваше приложение указывает подачу, которую не может обработать синтезатор, это может скорректировать подачу для адаптации в приемлемом диапазоне.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Устанавливает речевой уровень определяемого речевого канала.

    Объявление

    Swift

    func SetSpeechRate(_ chan: SpeechChannel, _ rate: Fixed) -> OSErr

    Objective C

    OSErr SetSpeechRate ( SpeechChannel chan, Fixed rate );

    Параметры

    chan

    Речевой канал, уровень которого Вы хотите установить.

    rate

    Новый речевой уровень в словах в минуту, выраженную как целочисленное значение.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    SetSpeechRate функция корректирует речевой уровень на речевом канале, указанном chan параметр к уровню, указанному rate параметр. Как правило говорящие уровни располагаются приблизительно от 150 слов в минуту приблизительно к 220 словам в минуту. Важно иметь в виду, однако, что пользователи будут отличаться значительно по их возможности понять синтезированную речь на определенном уровне, основанном на их уровне опыта, слушая речь и их возможность ожидать типы произнесения, с которым они встретятся.

    Примечание: новый речевой уровень должен быть выражен как целое число (не десятичное число фиксированной точки, поскольку тип данных подразумевает).

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Преобразовывает буфер текстовых данных в фонематические данные.

    Объявление

    Objective C

    OSErr TextToPhonemes ( SpeechChannel chan, const void *textBuf, unsigned long textBytes, Handle phonemeBuf, long *phonemeBytes );

    Параметры

    chan

    Речевой канал, связанный синтезатор которого и речь должны использоваться для процесса преобразования.

    textBuf

    Указатель на буфер текста, который будет преобразован.

    textBytes

    Число байтов текста, который будет преобразован.

    phonemeBuf

    Дескриптор к буферу, который будет использоваться, чтобы хранить фонематические данные. TextToPhonemes функция может изменить размеры перемещаемого блока, на который ссылается этот дескриптор.

    phonemeBytes

    По возврату, указателю на число байтов фонематических данных, записанных в дескриптор.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    Преобразование текстовых данных в фонематические данные особенно полезно во время разработки приложений, когда Вы могли бы хотеть скорректировать фразы, которые Ваше приложение генерирует для создания более гладкой речи. Первым преобразованием целевой фразы в фонемы Вы видите то, что синтезатор попытается говорить. Тогда Вы должны исправить только роли, которые не игрались бы путем, Вы хотите.

    TextToPhonemes функция преобразовывает textBytes байты текстовых данных, на которые указывают textBuf параметр к фонематическим данным, которые это пишет в перемещаемый блок, указанный phonemeBuf параметр. Если необходимо, TextToPhonemes изменяет размеры этого перемещаемого блока. TextToPhonemes функционируйте устанавливает phonemeBytes параметр к числу байтов фонематических данных, фактически записанных.

    Если текстовые данные содержатся в перемещаемом блоке, дескриптор к тому блоку должен быть заблокирован перед TextToPhonemes функция вызвана.

    Данные, возвращенные TextToPhonemes соответствует точно фонемам, на которых говорили бы, имел входной текст, отправленный в SpeakText вместо этого. Все текущие настройки режима для речевого канала, указанного chan применяются к преобразованной речи. Никакие обратные вызовы не сгенерированы в то время как TextToPhonemes функция генерирует свой вывод.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Преобразовывает указанную текстовую строку в ее эквивалентное фонематическое представление.

    Объявление

    Swift

    func CopyPhonemesFromText(_ chan: SpeechChannel, _ text: CFString!, _ phonemes: UnsafeMutablePointer<Unmanaged<CFString>?>) -> OSErr

    Objective C

    OSErr CopyPhonemesFromText ( SpeechChannel chan, CFStringRef text, CFStringRef *phonemes );

    Параметры

    chan

    Речевой канал, связанный синтезатор которого и свойства должны использоваться в процессе преобразования.

    text

    Текст, из которого можно извлечь фонематические данные.

    phonemes

    По возврату, a CFString объект, содержащий извлеченные фонематические данные. Вызывающая сторона ответственна за выпуск этого объекта.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    CopyPhonemesFromText функция является Базовым Основанным на основе эквивалентом TextToPhonemes функция.

    Преобразование текстовых данных в фонематические данные особенно полезно во время разработки приложений, когда Вы могли бы хотеть скорректировать фразы, которые Ваше приложение генерирует для создания более гладкой речи. Первым преобразованием целевой фразы в фонемы Вы видите то, что синтезатор попытается говорить. Тогда Вы должны исправить только роли, которые не игрались бы путем, Вы хотите.

    Данные CopyPhonemesFromText функционируйте хранилища в phonemes параметр соответствует точно фонемам, на которых говорили бы, имел входной текст, отправленный в SpeakCFString вместо этого. Все текущие настройки свойства для речевого канала, указанного chan применяются к преобразованной речи. Никакие обратные вызовы не сгенерированы в то время как CopyPhonemesFromText функция генерирует свой вывод.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.5 и позже.

  • Устанавливает определяемый словарь в речевой канал.

    Объявление

    Objective C

    OSErr UseDictionary ( SpeechChannel chan, Handle dictionary );

    Параметры

    chan

    Речевой канал, в который должен быть установлен словарь.

    dictionary

    Дескриптор к данным словаря. Это часто - дескриптор к ресурсу типа 'dict'.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    UseDictionary функционируйте пытается установить данные словаря, на которые ссылаются dictionary параметр в речевой канал, на который ссылаются chan параметр. Синтезатор будет использовать любые элементы ресурса словаря, который он считает полезным для речевого процесса преобразования. Некоторые синтезаторы речи могли бы проигнорировать определенные типы словарных статей.

    После UseDictionary функционируйте возвраты, Ваше приложение является бесплатным выпустить любое хранение, выделенное для дескриптора словаря. Поисковый порядок на предоставленные приложением словари является последним - в, сначала искавший.

    Все подробные данные того, как предоставленный приложением словарь представлен в синтезаторе речи, зависят от определенной реализации синтезатора и являются частными к синтезатору.

    Словари произношения позволяют Вашему приложению переопределять менеджера по Синтезу речи по умолчанию произношение отдельных слов, такое как имена с необычными написаниями.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Регистрирует речевой словарь в речевом канале.

    Объявление

    Swift

    func UseSpeechDictionary(_ chan: SpeechChannel, _ speechDictionary: CFDictionary!) -> OSErr

    Objective C

    OSErr UseSpeechDictionary ( SpeechChannel chan, CFDictionaryRef speechDictionary );

    Параметры

    chan

    Речевой канал, в котором должен быть зарегистрирован указанный речевой словарь.

    speechDictionary

    Речевой словарь, который будет зарегистрирован в указанном речевом канале, представленном как a CFDictionary объект. Посмотрите “Speech Dictionary Keys” для ключей можно использовать в словаре.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    Функция UseSpeechDictionary является Базовым Основанным на основе эквивалентом UseDictionary функция.

    UseSpeechDictionary функционируйте регистрируется CFDictionary объект, на который ссылаются speechDictionary параметр с речевым каналом, на который ссылаются chan параметр. Речевые словари позволяют Вашему приложению переопределять произношение синтезатора по умолчанию отдельных слов, такое как имена с необычными написаниями. Синтезатор будет использовать любые элементы словаря, который он считает полезным в речевом процессе преобразования. Некоторые синтезаторы речи могли бы проигнорировать определенные типы словарных статей.

    Многократные словари могут быть зарегистрированы в синтезаторе. Если то же слово появится в многократных словарях, то синтезатор будет использовать тот из словаря с новой датой.

    Обратите внимание на то, что, потому что речевой словарь является a CFDictionary объект, это может быть загружено из основанного на XML файла списка свойств. Пример такого файла показан ниже:

    • <?xml version="1.0" encoding="UTF-8"?> <!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd"> <plist version="1.0"> <dict> <key>LocaleIdentifier</key> <string>en_US</string> <key>ModificationDate</key> <string>2006-12-21 11:59:25 -0800</string> <key>Pronunciations</key> <array> <dict> <key>Phonemes</key> <string>_hEY_yUW</string> <key>Spelling</key> <string>Hello</string> </dict> </array> <key>Abbreviations</key> <array> <dict> <key>Phonemes</key> <string>_OW_sAEkz</string> <key>Spelling</key> <string>OSAX</string> </dict> </array> </dict> </plist>

    После UseSpeechDictionary функционируйте возвраты, Ваше приложение является бесплатным выпустить CFDictionary объект, на который ссылаются speechDictionary параметр.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.5 и позже.

  • Избавляется от существующего речевого канала.

    Объявление

    Swift

    func DisposeSpeechChannel(_ chan: SpeechChannel) -> OSErr

    Objective C

    OSErr DisposeSpeechChannel ( SpeechChannel chan );

    Параметры

    chan

    Речевой канал для избавления.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    DisposeSpeechChannel функция избавляется от речевого канала, указанного в chan параметр и выпуски вся память канал занимают. Если указанный речевой канал производит речь, то DisposeSpeechChannel функционируйте сразу останавливает речь перед избавлением от канала. При определении сделанной текстом функции обратного вызова или сделанной речью функции обратного вызова функция не будет вызвана, прежде чем от канала избавляются.

    Менеджер по Синтезу речи выпускает любые речевые каналы, от которых явно не избавилось приложение, когда приложение выходит. В целом, однако, Ваше приложение должно избавиться от любых речевых каналов, которые оно создало каждый раз, когда оно получает приостановить событие. Это гарантирует, что другие приложения могут в полной мере воспользоваться менеджером по Синтезу речи и Звуковыми возможностями менеджера.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Создает новый речевой канал.

    Объявление

    Swift

    func NewSpeechChannel(_ voice: UnsafeMutablePointer<VoiceSpec>, _ chan: UnsafeMutablePointer<SpeechChannel>) -> OSErr

    Objective C

    OSErr NewSpeechChannel ( VoiceSpec *voice, SpeechChannel *chan );

    Параметры

    voice

    Указатель на речевую структуру спецификации, соответствующую речи, которая будет использоваться для нового речевого канала. Передача NULL создать речевой канал с помощью речи системного значения по умолчанию.

    Указание речи означает, что начальный говорящий курс установлен говорящим уровнем синтезатора по умолчанию; передача NULL означает, что говорящий уровень автоматически установлен в уровень, который пользователь указывает в Речевых предпочтениях.

    chan

    По возврату, указателю на допустимый речевой канал.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    NewSpeechChannel функция выделяет память для структуры речевого канала и устанавливает переменную речевого канала, на которую указывают chan параметр для указания на эту структуру речевого канала. Менеджер по Синтезу речи автоматически определяет местоположение и открывает соединение с надлежащим синтезатором для речи, указанной voice параметр.

    Нет никакого предопределенного предела числу речевых каналов, которые может создать приложение. Однако системные ограничения на доступный RAM, загрузка процессора и число доступных звуковых каналов ограничивают число фактически возможных речевых каналов.

    Ваше приложение не должно пытаться управлять данными, на которые указывает переменная типа SpeechChannel. Внутренний формат, что менеджер по Синтезу речи использование для данных речевых каналов не документируется и может измениться в будущих версиях системного программного обеспечения.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Связали значение с указанным свойством речевого канала.

    Объявление

    Swift

    func CopySpeechProperty(_ chan: SpeechChannel, _ property: CFString!, _ object: UnsafeMutablePointer<Unmanaged<AnyObject>?>) -> OSErr

    Objective C

    OSErr CopySpeechProperty ( SpeechChannel chan, CFStringRef property, CFTypeRef *object );

    Параметры

    chan

    Речевой канал, с которым связано указанное свойство.

    property

    Свойство речевого канала, о котором запрашивается информация. Посмотрите “Speech-Channel Properties” для получения информации о свойствах можно указать.

    object

    По возврату, указателю на Базовый объект Основы, содержащий значение указанного свойства. Тип объекта зависит от определенного свойства, переданного в. Для некоторых свойств, значения object может быть NULL. Когда возвращенный объект является a CFDictionary объект, можно использовать CFDictionary функции, такой как CFDictionaryGetValue, получать значения связалось с ключами, связанными с указанным свойством.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    CopySpeechProperty функция является Базовым Основанным на основе эквивалентом GetSpeechInfo функция.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.5 и позже.

  • Получает информацию об определяемом речевом канале.

    Объявление

    Objective C

    OSErr GetSpeechInfo ( SpeechChannel chan, OSType selector, void *speechInfo );

    Параметры

    chan

    Речевой канал, о котором запрашивается информация.

    selector

    Селектор информации о речи, указывающий тип запрошенной информации.

    Для полного списка селекторов информации о речи посмотрите Константы информации о Речевом канале. Этот список указывает, как Ваше приложение должно установить speechInfo параметр для каждого селектора.

    speechInfo

    Указатель, значение которого зависит от селектора информации о речи, указанного в selector параметр.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    GetSpeechInfo функционируйте возвраты в структуре данных, на которую указывают speechInfo параметр, тип требуемой информации selector параметр, поскольку это применяется к речевому каналу, указанному в chan параметр.

    Формат структуры данных, указанной speechInfo параметр зависит от селектора, который Вы выбираете. Например, селектор мог бы потребовать, чтобы Ваше приложение выделило блок памяти определенного размера и передало указатель на тот блок. Другой селектор мог бы потребовать этого speechInfo будьте установлены в адрес переменной дескриптора. В этом случае, GetSpeechInfo функция выделила бы перемещаемый блок памяти и заменила бы переменную дескриптора, указанную для ссылки на блок.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Получает текущую речевую подачу речевого канала.

    Объявление

    Swift

    func GetSpeechPitch(_ chan: SpeechChannel, _ pitch: UnsafeMutablePointer<Fixed>) -> OSErr

    Objective C

    OSErr GetSpeechPitch ( SpeechChannel chan, Fixed *pitch );

    Параметры

    chan

    Речевой канал, подачу которого Вы хотите определить.

    pitch

    По возврату, указателю на текущую подачу речи в речевом канале, выраженном как значение частоты фиксированной точки.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    Типичные частоты речевого диапазона располагаются приблизительно от 90 герц для низкого мужского голоса к, возможно, 300 герц для речи высокого дочернего элемента. Эти частоты соответствуют приблизительным значениям подачи в диапазонах 30 000 - 40 000 и 55 000 - 65 000, соответственно.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Получает текущий речевой уровень речевого канала.

    Объявление

    Swift

    func GetSpeechRate(_ chan: SpeechChannel, _ rate: UnsafeMutablePointer<Fixed>) -> OSErr

    Objective C

    OSErr GetSpeechRate ( SpeechChannel chan, Fixed *rate );

    Параметры

    chan

    Речевой канал, курс которого Вы хотите установить.

    rate

    По возврату, указателю на речевой уровень речевого канала в словах в минуту, выраженную как целочисленное значение.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет, синтезируют ли какие-либо каналы речи в настоящее время речь.

    Объявление

    Swift

    func SpeechBusy() -> Int16

    Objective C

    SInt16 SpeechBusy ( void );

    Возвращаемое значение

    Число речевых каналов, в настоящее время синтезирующих речь в приложении. Это полезно, когда Вы хотите гарантировать, что более ранний речевой запрос был завершен прежде, чем иметь систему, говорят снова. Приостановленные речевые каналы считаются среди тех, которые синтезируют речь.

    Речевой канал, который менеджер по Синтезу речи выделяет внутренне в ответ на вызовы к SpeakString функция считается в числе, возвращенном SpeechBusy. Таким образом, если Вы используете просто SpeakString инициировать речь, SpeechBusy всегда возвраты 1 пока речь производится. Когда SpeechBusy возвраты 0, вся речь закончилась.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет, синтезируется ли какая-либо речь в настоящее время в Вашем приложении или в другом месте на компьютере.

    Объявление

    Swift

    func SpeechBusySystemWide() -> Int16

    Objective C

    SInt16 SpeechBusySystemWide ( void );

    Возвращаемое значение

    Общее количество речевых каналов, в настоящее время синтезирующих речь на компьютере, инициировались ли они Вашим приложением или кодом процесса или некоторым другим процессом, выполняющимся одновременно. Приостановленные речевые каналы считаются среди тех каналов, синтезирующих речь.

    Обсуждение

    Эта функция полезна, когда Вы хотите гарантировать, что никакая речь в настоящее время не производится нигде на компьютере Macintosh прежде, чем инициировать речь. Несмотря на то, что менеджер по Синтезу речи позволяет различным приложениям производить речь одновременно, это может сбить с толку пользователю. В результате это часто - хорошая идея для Вашего приложения, чтобы проверить, что никакой другой процесс не производит речь прежде, чем произвести саму речь. Если различие между значениями, возвращенными SpeechBusySystemWide и SpeechBusy функция 0, никакой другой процесс не производит речь.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет текущую версию менеджера по Синтезу речи, установленного в системе.

    Объявление

    Swift

    func SpeechManagerVersion() -> NumVersion

    Objective C

    NumVersion SpeechManagerVersion ( void );

    Возвращаемое значение

    Версия менеджера по Синтезу речи, установленного в системе, в формате первых 4 байтов a 'vers' ресурс.

    Обсуждение

    Используйте этот вызов, чтобы определить, может ли Ваша программа получить доступ к функциям менеджера по Синтезу речи, включенным в некоторого менеджера по Синтезу речи выпуски, но не в более ранние.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет, сколько речи доступно.

    Объявление

    Swift

    func CountVoices(_ numVoices: UnsafeMutablePointer<Int16>) -> OSErr

    Objective C

    OSErr CountVoices ( SInt16 *numVoices );

    Параметры

    numVoices

    На выходе, указателе на число речи, которую может использовать приложение.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    CountVoices функционируйте возвраты, в numVoices параметр, число доступной речи. Приложение может тогда использовать эту информацию для вызова GetIndVoice функция для получения речевых структур спецификации для один или больше речи.

    Каждый раз CountVoices вызывается, менеджер по Синтезу речи поиски новой речи.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Получает речевую структуру спецификации для речи путем передачи индекса GetIndVoice функция.

    Объявление

    Swift

    func GetIndVoice(_ index: Int16, _ voice: UnsafeMutablePointer<VoiceSpec>) -> OSErr

    Objective C

    OSErr GetIndVoice ( SInt16 index, VoiceSpec *voice );

    Параметры

    index

    Индекс речи, для которой можно получить речевую структуру спецификации. Это число должно расположиться от 1 к общему количеству речи, как возвращено CountVoices функция.

    voice

    Указатель на речевую структуру спецификации, поля которой должны быть заполнены в.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    GetIndVoice функционируйте возвраты в речевой структуре спецификации, на которую указывают voice параметр, спецификация речи, индекс которой предоставлен в index параметр. Ваше приложение не должно делать предположения о порядке, в котором индексируется речь.

    Ваше приложение не должно добавлять, удалять, или изменять речь и затем вызывать GetIndVoice функция с индексом оценивает кроме 1. Чтобы позволить менеджеру по Синтезу речи обновлять его информацию о речи, Ваше приложение должно всегда или вызывать CountVoices функционируйте или вызовите GetIndVoice функция с индексным значением 1 после добавления, удаления или изменения речи или через некоторое время в котором пользователь, возможно, сделал так.

    Если Вы указываете, что индекс оценивает вне числа доступной речи, GetIndVoice функционируйте возвращает a voiceNotFound ошибка.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Получает описание речи при помощи GetVoiceDescription функция.

    Объявление

    Swift

    func GetVoiceDescription(_ voice: UnsafePointer<VoiceSpec>, _ info: UnsafeMutablePointer<VoiceDescription>, _ infoLength: Int) -> OSErr

    Objective C

    OSErr GetVoiceDescription ( const VoiceSpec *voice, VoiceDescription *info, long infoLength );

    Параметры

    voice

    Указатель на речевую структуру спецификации, идентифицирующую речь, которая будет описана, или NULL получить описание речи системного значения по умолчанию.

    info

    Указатель на речевую структуру описания. Если этот параметр NULL, функция не заполняет поля речевой структуры описания; вместо этого, это просто определяет ли voice параметр указывает доступную речь и, в противном случае возвращает a voiceNotFound ошибка.

    infoLength

    Длина, в байтах, речевой структуры описания. В текущей версии менеджера по Синтезу речи речевая структура описания содержит 362 байта. Однако необходимо всегда использовать SizeOf функция для определения длины этой структуры.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    GetVoiceDescription функция заполняет речевую структуру описания, на которую указывают info параметр с корректной информацией для речи, указанной voice параметр. Это заполняет length поле речевой структуры описания с числом байтов фактически скопировано. Это значение всегда будет меньше чем или равно значению, в котором передает Ваше приложение infoLength перед вызовом GetVoiceDescription. Эта схема позволяет приложениям, предназначенным для текущей версии менеджера по Синтезу речи работать над будущими версиями, которые могли бы иметь более длинные речевые структуры описания; это также позволяет Вам писать код для будущих версий менеджера по Синтезу речи, который будет также работать на компьютерах, поддерживающих только текущую версию.

    Если речевая структура спецификации не идентифицирует доступную речь, GetVoiceDescription возвраты a voiceNotFound ошибка.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Получает ту же информацию о речи что GetVoiceDescription функция обеспечивает, или определить, в котором файле и снабжают речь ресурсами, сохранен.

    Объявление

    Swift

    func GetVoiceInfo(_ voice: UnsafePointer<VoiceSpec>, _ selector: OSType, _ voiceInfo: UnsafeMutablePointer<Void>) -> OSErr

    Objective C

    OSErr GetVoiceInfo ( const VoiceSpec *voice, OSType selector, void *voiceInfo );

    Параметры

    voice

    Указатель на речевую структуру спецификации, идентифицирующую речь, о которой Ваше приложение запрашивает информацию, или NULL получить информацию о речи системного значения по умолчанию.

    selector

    Спецификация типа запрошенных данных. Для текущих версий менеджера по Синтезу речи необходимо установить это поле любой в soVoiceDescription, если требуется использовать GetVoiceInfo функционируйте для имитации GetVoiceDescription функция, или к soVoiceFile, если требуется получить информацию о расположении речи на диске.

    voiceInfo

    Указатель на надлежащую структуру данных. Если селектор soVoiceDescription, тогда voiceInfo должен быть указатель на речевую структуру описания, и length поле структуры должно быть установлено в длину речевой структуры описания. Если селектор soVoiceFile, тогда voiceInfo должен быть указатель на речевую информационную структуру файла.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    Эта функция предназначается прежде всего для использования синтезаторами, но приложение может вызвать его также.

    GetVoiceInfo функция принимает селектор в selector параметр, определяющий тип информации, которую Вы хотите получить о речи, указанной в voice параметр. Функция тогда заполняет поля структуры данных, надлежащей селектору, который Вы указываете в voiceInfo параметр.

    Если речевая спецификация недопустима, GetVoiceInfo возвраты a voiceNotFound ошибка. Если существует недостаточно памяти для загрузки речи в память для получения информации об этом, GetVoiceInfo возвращает код результата memFullErr.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Устанавливает поля речевой структуры спецификации.

    Объявление

    Swift

    func MakeVoiceSpec(_ creator: OSType, _ id: OSType, _ voice: UnsafeMutablePointer<VoiceSpec>) -> OSErr

    Objective C

    OSErr MakeVoiceSpec ( OSType creator, OSType id, VoiceSpec *voice );

    Параметры

    creator

    ID синтезатора, которого требует Ваше приложение.

    id

    ID речи на синтезаторе, указанном creator параметр.

    voice

    Указатель на речевую структуру спецификации, поля которой должны быть заполнены в.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    Речевая структура спецификации является уникальной речью ID, используемый менеджером по Синтезу речи. Большинство речевых функций управления ожидает быть переданным указатель на речевую структуру спецификации. Когда Вы уже знаете создателя и ID для речи, необходимо использовать MakeVoiceSpec функция для создания такой структуры вместо того, чтобы заполнить поля одного непосредственно. На выходе, речевая структура спецификации, на которую указывают voice параметр содержит надлежащие значения. Вы никогда не должны устанавливать поля такой структуры непосредственно.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Речь резюме, приостановленная PauseSpeechAt функция.

    Объявление

    Swift

    func ContinueSpeech(_ chan: SpeechChannel) -> OSErr

    Objective C

    OSErr ContinueSpeech ( SpeechChannel chan );

    Параметры

    chan

    Приостановленный речевой канал, на котором должна быть возобновлена речь.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    В любое время после PauseSpeechAt функция вызвана, ContinueSpeech функция может быть вызвана, чтобы продолжать говорить с начала слова, в котором приостановилась речь. Вызов ContinueSpeech на канале, который в настоящее время не находится в приостановленном состоянии, не имеет никакого эффекта на речевой канал или на будущие вызовы к PauseSpeechAt функция. Если Вы вызываете ContinueSpeech на канале, прежде чем пауза является эффективной, ContinueSpeech отменяет паузу.

    Если PauseSpeechAt функционируйте остановил речь посреди слова, менеджер по Синтезу речи начнет произносить то слово с начала, когда Вы вызовете ContinueSpeech.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Речь пауз на речевом канале.

    Объявление

    Swift

    func PauseSpeechAt(_ chan: SpeechChannel, _ whereToPause: Int32) -> OSErr

    Objective C

    OSErr PauseSpeechAt ( SpeechChannel chan, SInt32 whereToPause );

    Параметры

    chan

    Речевой канал, на котором должна быть приостановлена речь.

    whereToPause

    Постоянное указание, когда должна быть приостановлена обработка речи. Передайте константу kImmediate приостановиться сразу, даже посреди слова. Передача kEndOfWord или kEndOfSentence к речи паузы в конце текущего слова или предложения, соответственно.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    PauseSpeechAt функция делает паузу речеобразования в указанной точке в тексте. PauseSpeechAt возвраты сразу, несмотря на то, что речевой вывод будет продолжаться до указанной точки.

    Можно определить, приостановило ли приложение речевой вывод на речевом канале путем получения речевой структуры информации о статусе через GetSpeechInfo функция. В то время как речевой канал приостанавливается, речевая структура информации о статусе указывает это outputBusy и outputPaused оба TRUE.

    Если конец входного текстового буфера достигнут перед указанной точкой паузы, паузами речевого вывода в конце буфера.

    PauseSpeechAt функция отличается от StopSpeech и StopSpeechAt функции в этом последующий вызов к ContinueSpeech, описанный затем, заставляет содержание буфера текущего текста продолжать говориться.

    Если Вы планируете продолжать синтез речи от приостановленного речевого канала, текстовый обрабатываемый буфер должен остаться доступным в любом случае и не должен перемещаться, в то время как канал находится в приостановленном состоянии.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • SpeakBuffer SpeakBuffer (OS X v10.8)

    Говорит буфер текста, с помощью определенных флагов для управления речевым поведением.

    Объявление

    Objective C

    OSErr SpeakBuffer ( SpeechChannel chan, const void *textBuf, unsigned long textBytes, SInt32 controlFlags );

    Параметры

    chan

    Речевой канал, через который нужно говорить на речи.

    textBuf

    Указатель на первый байт текста к разговорному.

    textBytes

    Число байтов текста к разговорному.

    controlFlags

    Управление отмечает для настройки речевого поведения.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    SpeakBuffer функция ведет себя тождественно к SpeakText функция, но позволяет управление нескольких речевых параметров путем установки значений controlFlags параметр. controlFlags параметр полагается на определенные константы, которые могут быть применены аддитивным образом. Посмотрите Константы Флагов Управления.

    Каждая константа указывает флаговый бит controlFlags параметр, таким образом, путем передачи констант аддитивным образом можно включить многократные возможности SpeakBuffer. Если Вы передаете 0 в controlFlags параметр, SpeakBuffer работы точно так же, как SpeakText. Путем передачи kNoEndingProsody + kNoSpeechInterrupt в controlFlags параметр, SpeakBuffer работы как SpeakText за исключением того, что kNoEndingProsody и kNoSpeechInterrupt функции были выбраны. Будущие версии менеджера по Синтезу речи могут определить дополнительные константы.

    Когда controlFlags параметр устанавливается на 0, SpeakBuffer ведет себя тождественно к SpeakText.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • SpeakString SpeakString (OS X v10.8)

    Начинает говорить текстовую строку.

    Объявление

    Objective C

    OSErr SpeakString ( ConstStr255Param textToBeSpoken );

    Параметры

    textToBeSpoken

    Строка, на которой будут говорить.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    SpeakString функционируйте пытается говорить текстовую строку стиля Паскаля, содержавшуюся в строке textToBeSpoken. Речь производится асинхронно с помощью системной речи по умолчанию. Когда приложение вызывает эту функцию, менеджер по Синтезу речи делает копию переданной строки и создает любые структуры, требуемые говорить ее. Как только разговор начался, управление возвращается к приложению. Синтезированная речь сгенерирована асинхронно к приложению так, чтобы нормальная обработка могла продолжаться, в то время как говорят на тексте. Никакое дальнейшее взаимодействие с менеджером по Синтезу речи не требуется в этой точке, и приложение является бесплатным выпустить память, которую заняла исходная строка.

    Если SpeakString вызывается, в то время как на предшествующей строке все еще говорят, звук, в настоящее время синтезируемый, сразу прерван. Преобразование нового текста в речь тогда начато. Если Вы передаете строку нулевой длины (или, в C, a null указатель) к SpeakString, менеджер по Синтезу речи останавливает любую речь, ранее синтезируемую SpeakString не генерируя дополнительную речь. Если Ваше приложение использует SpeakString, это часто - хорошая идея остановить любую происходящую речь каждый раз, когда Ваше приложение получает приостановить событие. Вызов SpeakString со строкой нулевой длины не имеет никакого эффекта на речевые каналы кроме того, которым управляет внутренне менеджер по Синтезу речи по SpeakString функция.)

    Текст передал SpeakString функция может содержать встроенные речевые команды.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Начинает говорить строку, представленную как a CFString объект.

    Объявление

    Swift

    func SpeakCFString(_ chan: SpeechChannel, _ aString: CFString!, _ options: CFDictionary!) -> OSErr

    Objective C

    OSErr SpeakCFString ( SpeechChannel chan, CFStringRef aString, CFDictionaryRef options );

    Параметры

    chan

    Речевой канал, через который нужно говорить на речи.

    aString

    Строка, на которой будут говорить, представленный как a CFString объект.

    options

    Дополнительный словарь пар ключ/значение раньше настраивал речевое поведение. Посмотрите “Synthesizer Option Keys” для доступных ключей.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    SpeakCFString функция является Базовым Основанным на основе эквивалентом SpeakBuffer функция.

    SpeakCFString функция преобразовывает текстовую строку, указанную в aString в речь, с помощью речи и настроек управления в действительности для речевого канала, указанного в chan. (Перед использованием SpeakCFString, поэтому, убедитесь, что Вы создали речевой канал с NewSpeechChannel функция.) SpeakCFString функция генерирует речь асинхронно, что означает, что управление возвращается к Вашему приложению, прежде чем речь закончилась, возможно даже, прежде чем речь является сначала слышимой.

    Если SpeakCFString вызывается, в то время как речевой канал в настоящее время говорит содержание другой текстовой строки, речь сразу останавливается, и на новой текстовой строке говорят как можно скорее.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.5 и позже.

  • SpeakText SpeakText (OS X v10.8)

    Начинает говорить буфер текста.

    Объявление

    Objective C

    OSErr SpeakText ( SpeechChannel chan, const void *textBuf, unsigned long textBytes );

    Параметры

    chan

    Речевой канал, через который нужно говорить на речи.

    textBuf

    Указатель на первый байт текста к разговорному.

    textBytes

    Число байтов текста к разговорному.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    Как SpeakString, SpeakText функция также генерирует речь, но через речевой канал, через который можно осуществить контроль над сгенерированной речью.

    SpeakText функция преобразовывает текстовый поток, указанный textBuf и textBytes параметры в речь с помощью речи и настроек управления для речевого канала chan, который должен быть создан с NewSpeechChannel функция. Речь сгенерирована асинхронно. Это означает, что управление возвращается к Вашему приложению, прежде чем речь закончилась (и вероятно даже, прежде чем это началось). Максимальная длина текстового буфера, на котором можно говорить, ограничивается только доступным RAM.

    Если SpeakText вызывается, в то время как канал в настоящее время занят, говоря содержание предшествующего текстового буфера, он сразу прекращает говорить от предшествующего буфера и начинает говорить от нового текстового буфера как можно скорее. Если Вы передаете строку нулевой длины (или, в C, a null указатель) к SpeakText, менеджер по Синтезу речи останавливает всю речь, в настоящее время синтезируемую речевым каналом, указанным в chan параметр, не генерируя дополнительную речь.

    Текстовый буфер должен быть заблокирован в памяти и не должен перемещаться, в то время как менеджер по Синтезу речи обрабатывает его. Во время прерывания читается этот буфер, и перемещение его могло вызвать системный катастрофический отказ. Если Ваше приложение определяет сделанную текстом функцию обратного вызова, то оно может переместиться, текст буферизуют или избавляются от него, как только выполняется функция обратного вызова.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Сразу завершает речь на указанном канале.

    Объявление

    Swift

    func StopSpeech(_ chan: SpeechChannel) -> OSErr

    Objective C

    OSErr StopSpeech ( SpeechChannel chan );

    Параметры

    chan

    Речевой канал, на котором должна быть остановлена речь.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    StopSpeech функция сразу завершает речь на канале, указанном chan параметр. После возврата из StopSpeech, Ваше приложение может безопасно выпустить любой текстовый буфер, который использовал синтезатор речи. Можно вызвать StopSpeech для уже незанятого канала без вредного воздействия.

    Можно также остановить речь путем передачи строки нулевой длины (или, в C, a null указатель) к одному из SpeakString, SpeakText, или SpeakBuffer функции. Выполнение этого останавливает речь только в указанном речевом канале (или, в случае SpeakString, в речевом канале, которым управляет внутренне менеджер по Синтезу речи).

    Прежде, чем вызвать StopSpeech функция, можно использовать SpeechBusy функция, описанная в SpeechBusy, определить, говорит ли все еще синтезатор. Если Вы работаете с многократными речевыми каналами, можно использовать селектор состояния с функцией GetSpeechInfo который описан в GetSpeechInfo, определить, говорит ли все еще определенный канал.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Завершает речевую поставку на указанный канал или сразу или в конце текущего слова или предложения.

    Объявление

    Swift

    func StopSpeechAt(_ chan: SpeechChannel, _ whereToStop: Int32) -> OSErr

    Objective C

    OSErr StopSpeechAt ( SpeechChannel chan, SInt32 whereToStop );

    Параметры

    chan

    Речевой канал, на котором должна быть остановлена речь.

    whereToStop

    Постоянное указание, когда должна остановиться обработка речи. Передайте константу kImmediate остановиться сразу, даже посреди слова. Передача kEndOfWord или kEndOfSentence остановить речь в конце текущего слова или предложения, соответственно.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    StopSpeechAt функционируйте останавливает производство речи на канале, указанном chan в указанной точке в тексте. Эта функция сразу возвращается, несмотря на то, что речевой вывод продолжается, пока указанная точка не была достигнута.

    Если Вы вызываете StopSpeechAt функция перед менеджером по Синтезу речи заканчивает обрабатывать входной текст, тогда функция могла бы возвратиться, прежде чем на некотором входном тексте нужно все же говорить. Таким образом, перед избавлением от текстового буфера, Ваше приложение должно ожидать, пока его сделанную текстом функцию обратного вызова не вызвали (если Вы были определены), или пока это не может определить (например получая речевую структуру информации о статусе), что менеджер по Синтезу речи больше не обрабатывает входной текст.

    Если конец входного текстового буфера достигнут перед указанной точкой остановки, остановками синтезатора речи в конце буфера, не генерируя ошибку.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Регистры и делают доступным синтезатор речи или речь.

    Объявление

    Swift

    func SpeechSynthesisRegisterModuleURL(_ url: CFURL!) -> OSErr

    Objective C

    OSErr SpeechSynthesisRegisterModuleURL ( CFURLRef url );

    Параметры

    url

    URL файла плагина синтезатора или речи для регистрации (отмечают, что плагин синтезатора или речь должны быть на смонтированном объеме, чтобы быть доступными для регистрации).

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    SpeechSynthesisRegisterModuleURL функционируйте регистрирует синтезатор речи или речь, указанную url и делает его доступным для обработки вызовов. Прежде чем речь синтезатора может быть зарегистрирована, синтезатор должен быть зарегистрирован (или загружен автоматически менеджером по Синтезу речи). Если Вы вызываете SpeechSynthesisRegisterModuleURL для регистрации речи и Вы получаете “incompatibleVoice” закончитесь код, вероятно, что должен быть зарегистрирован синтезатор, связанный с речью. Если Вы вызываете эту функцию для регистрации синтезатора или речи, уже зарегистрированной, SpeechSynthesisRegisterModuleURL ничего не делает и возвращает ошибку.

    Зарегистрированный синтезатор или речь известны только приложению, зарегистрировавшему его. Поэтому каждое приложение должно вызвать SpeechSynthesisRegisterModuleURL даже если комплект работы приложений вместе и использует тот же синтезатор и речь, для регистрации синтезатора или речи, это использует.

    Вызвавшее приложение SpeechSynthesisRegisterModuleURL если объем, содержащий синтезатор или речь, собирается быть размонтированным, зарегистрировать синтезатор или речь должно сделать следующий:

    • Вызвать DisposeSpeechChannel избавляться от каждого речевого канала, использующего синтезатор или речь

    • Вызвать SpeechSynthesisUnregisterModuleURL не зарегистрировать синтезатор или речь

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.6 и позже.

  • Не регистрирует зарегистрированный синтезатор речи или речь.

    Объявление

    Swift

    func SpeechSynthesisUnregisterModuleURL(_ url: CFURL!) -> OSErr

    Objective C

    OSErr SpeechSynthesisUnregisterModuleURL ( CFURLRef url );

    Параметры

    url

    Файл URL плагина синтезатора или речи, чтобы не зарегистрироваться.

    Возвращаемое значение

    Код результата. Посмотрите менеджера по Синтезу речи Коды Результата.

    Обсуждение

    SpeechSynthesisUnregisterModuleURL функционируйте не регистрирует синтезатор речи или речь, указанную url. Когда синтезатор не зарегистрирован, вся речь, требующая, чтобы синтезатор был автоматически не зарегистрирован.

    Обратите внимание на то, что, если речевой канал в настоящее время использует синтезатор или речь, становящуюся незарегистрированной, речевой канал считают неактивным и возвратит ошибку, когда приложение пытается получить доступ к нему.

    Вызвавшее приложение SpeechSynthesisRegisterModuleURL если объем, содержащий синтезатор или речь, собирается быть размонтированным, зарегистрировать синтезатор или речь должно сделать следующий:

    • Вызвать DisposeSpeechChannel избавляться от каждого речевого канала, использующего синтезатор или речь

    • Вызвать SpeechSynthesisUnregisterModuleURL не зарегистрировать синтезатор или речь

    Если Вы вызываете SpeechSynthesisUnregisterModuleURL чтобы не зарегистрировать синтезатор или речь и Вы принимаете любого “noSynthFound” или “voiceNotFound” закончитесь коды, это означает, что в настоящее время не регистрируются синтезатор или речь.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.6 и позже.

  • Избавляется от универсального указателя процедуры (UPP) к сделанной речью функции обратного вызова.

    Объявление

    Objective C

    void DisposeSpeechDoneUPP ( SpeechDoneUPP userUPP );

    Параметры

    userUPP

    UPP для избавления.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Избавляется от универсального указателя процедуры (UPP) к ошибочной функции обратного вызова.

    Объявление

    Objective C

    void DisposeSpeechErrorUPP ( SpeechErrorUPP userUPP );

    Параметры

    userUPP

    UPP для избавления.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Избавляется от универсального указателя процедуры (UPP) к функции обратного вызова фонемы.

    Объявление

    Objective C

    void DisposeSpeechPhonemeUPP ( SpeechPhonemeUPP userUPP );

    Параметры

    userUPP

    UPP для избавления.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Избавляется от универсального указателя процедуры (UPP) к функции обратного вызова синхронизации.

    Объявление

    Objective C

    void DisposeSpeechSyncUPP ( SpeechSyncUPP userUPP );

    Параметры

    userUPP

    UPP для избавления.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Избавляется от универсального указателя процедуры (UPP) к сделанной текстом функции обратного вызова.

    Объявление

    Objective C

    void DisposeSpeechTextDoneUPP ( SpeechTextDoneUPP userUPP );

    Параметры

    userUPP

    UPP для избавления.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Избавляется от универсального указателя процедуры (UPP) к функции обратного вызова слова.

    Объявление

    Objective C

    void DisposeSpeechWordUPP ( SpeechWordUPP userUPP );

    Параметры

    userUPP

    UPP для избавления.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Вызывает Вашу сделанную речью функцию обратного вызова.

    Объявление

    Objective C

    void InvokeSpeechDoneUPP ( SpeechChannel chan, SRefCon refCon, SpeechDoneUPP userUPP );

    Обсуждение

    Вы не должны должны быть вызывать InvokeSpeechDoneUPP функция, потому что системные вызовы Ваша сделанная речью функция обратного вызова для Вас.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Вызывает Вашу ошибочную функцию обратного вызова.

    Объявление

    Objective C

    void InvokeSpeechErrorUPP ( SpeechChannel chan, SRefCon refCon, OSErr theError, long bytePos, SpeechErrorUPP userUPP );

    Обсуждение

    Вы не должны должны быть вызывать InvokeSpeechErrorUPP функция, потому что системные вызовы Ваша ошибочная функция обратного вызова для Вас.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Вызывает Вашу функцию обратного вызова фонемы.

    Объявление

    Objective C

    void InvokeSpeechPhonemeUPP ( SpeechChannel chan, SRefCon refCon, SInt16 phonemeOpcode, SpeechPhonemeUPP userUPP );

    Обсуждение

    Вы не должны должны быть вызывать InvokeSpeechPhonemeUPP функция, потому что системные вызовы Ваша функция обратного вызова фонемы для Вас.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Вызывает Вашу функцию обратного вызова синхронизации.

    Объявление

    Objective C

    void InvokeSpeechSyncUPP ( SpeechChannel chan, SRefCon refCon, OSType syncMessage, SpeechSyncUPP userUPP );

    Обсуждение

    Вы не должны должны быть вызывать InvokeSpeechSyncUPP функция, потому что системные вызовы Ваша функция обратного вызова синхронизации для Вас.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Вызывает Вашу сделанную текстом функцию обратного вызова.

    Объявление

    Objective C

    void InvokeSpeechTextDoneUPP ( SpeechChannel chan, SRefCon refCon, const void **nextBuf, unsigned long *byteLen, SInt32 *controlFlags, SpeechTextDoneUPP userUPP );

    Обсуждение

    Вы не должны должны быть вызывать InvokeSpeechTextDoneUPP функция, потому что системные вызовы Ваша сделанная текстом функция обратного вызова для Вас.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Вызывает Вашу функцию обратного вызова слова.

    Объявление

    Objective C

    void InvokeSpeechWordUPP ( SpeechChannel chan, SRefCon refCon, unsigned long wordPos, UInt16 wordLen, SpeechWordUPP userUPP );

    Обсуждение

    Вы не должны должны быть вызывать InvokeSpeechWordUPP функция, потому что системные вызовы Ваша функция обратного вызова слова для Вас.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Создает новый универсальный указатель процедуры (UPP) к сделанной речью функции обратного вызова.

    Объявление

    Objective C

    SpeechDoneUPP NewSpeechDoneUPP ( SpeechDoneProcPtr userRoutine );

    Параметры

    userRoutine

    Указатель на Вашу сделанную речью функцию обратного вызова.

    Возвращаемое значение

    UPP к сделанной речью функции обратного вызова. См. описание SpeechDoneUPP тип данных.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Создает новый универсальный указатель процедуры на ошибочную функцию обратного вызова.

    Объявление

    Objective C

    SpeechErrorUPP NewSpeechErrorUPP ( SpeechErrorProcPtr userRoutine );

    Параметры

    userRoutine

    Указатель на Вашу ошибочную функцию обратного вызова.

    Возвращаемое значение

    UPP к ошибочной функции обратного вызова. См. описание SpeechErrorUPP тип данных.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Избавляется от универсального указателя процедуры (UPP) к функции обратного вызова фонемы.

    Объявление

    Objective C

    SpeechPhonemeUPP NewSpeechPhonemeUPP ( SpeechPhonemeProcPtr userRoutine );

    Параметры

    userRoutine

    Указатель на Вашу функцию обратного вызова фонемы.

    Возвращаемое значение

    UPP к функции обратного вызова фонемы. См. описание SpeechPhonemeUPP тип данных.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Создает новый универсальный указатель процедуры (UPP) к функции обратного вызова синхронизации.

    Объявление

    Objective C

    SpeechSyncUPP NewSpeechSyncUPP ( SpeechSyncProcPtr userRoutine );

    Параметры

    userRoutine

    Указатель на Вашу функцию обратного вызова синхронизации.

    Возвращаемое значение

    UPP к функции обратного вызова синхронизации. См. описание SpeechSyncUPP тип данных.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Создает новый универсальный указатель процедуры (UPP) к сделанной текстом функции обратного вызова.

    Объявление

    Objective C

    SpeechTextDoneUPP NewSpeechTextDoneUPP ( SpeechTextDoneProcPtr userRoutine );

    Параметры

    userRoutine

    Указатель на Вашу сделанную текстом функцию обратного вызова.

    Возвращаемое значение

    UPP к сделанной текстом функции обратного вызова. См. описание SpeechTextDoneUPP тип данных.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

  • Создает новый универсальный указатель процедуры (UPP) к функции обратного вызова слова.

    Объявление

    Objective C

    SpeechWordUPP NewSpeechWordUPP ( SpeechWordProcPtr userRoutine );

    Параметры

    userRoutine

    Указатель на Вашу функцию обратного вызова слова.

    Возвращаемое значение

    UPP к функции обратного вызова слова. См. описание SpeechWordUPP тип данных.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Доступность

    Доступный в OS X v10.0 и позже.

    Осуждаемый в OS X v10.8.

Обратные вызовы

  • Определяет указатель на сделанную речью функцию обратного вызова, которую вызывают, когда менеджер по Синтезу речи заканчивает говорить буфер текста.

    Объявление

    Swift

    typealias SpeechDoneProcPtr = CFunctionPointer<((SpeechChannel, SRefCon) -> Void)>

    Objective C

    typedef void (*SpeechDoneProcPtr) ( SpeechChannel chan, SRefCon refCon );

    Параметры

    chan

    Речевой канал, закончивший обрабатывать входной текст.

    refCon

    Ссылочная константа связалась с речевым каналом.

    Обсуждение

    Если сделанная речью функция обратного вызова установлена в речевом канале, то Вызовы диспетчера Синтеза речи эта функция, когда это заканчивает говорить буфер текста.

    Можно указать сделанную речью функцию обратного вызова путем передачи soSpeechDoneCallBack селектор к SetSpeechInfo функция.

    Вы могли бы использовать сделанную речью функцию обратного вызова, если необходимо обновить некоторый визуальный индикатор, показывающий, на каком тексте в настоящее время говорят. Например, предположите, что Ваше приложение передает текстовые буферы менеджеру по Синтезу речи один абзац за один раз. Ваша сделанная речью функция обратного вызова могла бы установить глобальную переменную флага, чтобы указать к приложению, что менеджер по Синтезу речи закончил говорить абзац. Когда функция, вызванная основным циклом событий Вашего приложения, проверяет глобальную переменную флага и решает, что это было установлено, функция могла бы гарантировать, что следующий абзац текста видим.

    Вы могли бы использовать сделанную речью функцию обратного вызова для установки переменной флага, предупреждающей приложение, что это должно передать новый буфер текста менеджеру по Синтезу речи. Если Вы делаете так, однако, могла бы быть значимая пауза, поскольку менеджер по Синтезу речи переключается от обработки одного текстового буфера другому. Обычно, проще достигнуть этой цели при помощи сделанной текстом функции обратного вызова, как описано ранее.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет указатель на ошибочную функцию обратного вызова, обрабатывающую синтаксические ошибки в командах, встроенных в текстовый буфер, обрабатываемый менеджером по Синтезу речи.

    Объявление

    Swift

    typealias SpeechErrorProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, OSErr, Int) -> Void)>

    Objective C

    typedef void (*SpeechErrorProcPtr) ( SpeechChannel chan, SRefCon refCon, OSErr theError, long bytePos );

    Параметры

    chan

    Речевой канал, закончивший обрабатывать входной текст.

    refCon

    Ссылочная константа связалась с речевым каналом.

    theError

    Ошибка, произошедшая в обработке встроенной команды.

    bytePos

    Число байтов с начала текстового буфера, на котором говорят с ошибкой, встретилось.

    Обсуждение

    Вызовы диспетчера Синтеза речи ошибочная функция обратного вызова речевого канала каждый раз, когда это встречается с синтаксической ошибкой в команде, встроенной в текстовый буфер, это обрабатывает. Это может быть полезно во время отладки приложения, для обнаружения проблем с командами, которые Вы встроили в текстовые буферы, которые говорит Ваше приложение. Если Ваше приложение позволяет пользователям встраивать команды в текстовых буферах, может также быть полезно. Ваше приложение могло бы вывести на экран предупреждение, указывающее, что менеджер по Синтезу речи встретился с проблемой в обработке встроенной команды.

    Обычно, информация об ошибке, что менеджер по Синтезу речи обеспечивает ошибочную функцию обратного вызова, должна быть достаточной. Однако, если для Вашего приложения нужна информация об ошибках, произошедших, прежде чем ошибочная функция обратного вызова была включена, приложение (включая ошибочную функцию обратного вызова) может вызвать GetSpeechInfo функция с soErrors селектор.

    Можно указать ошибочную функцию обратного вызова путем передачи soErrorCallBack селектор к SetSpeechInfo функция.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет указатель на ошибочную функцию обратного вызова, обрабатывающую синтаксические ошибки в командах, встроенных в a CFString объект, обрабатываемый менеджером по Синтезу речи.

    Объявление

    Swift

    typealias SpeechErrorCFProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, CFError!) -> Void)>

    Objective C

    typedef void (*SpeechErrorCFProcPtr) ( SpeechChannel chan, SRefCon refCon, CFErrorRef theError );

    Параметры

    chan

    Речевой канал, закончивший обрабатывать входной текст.

    refCon

    Ссылочная константа связалась с речевым каналом.

    theError

    Ошибка, произошедшая в обработке встроенной команды.

    Обсуждение

    Ошибочная функция обратного вызова, определенная SpeechErrorCFProcPtr Базовый Основанный на основе эквивалент ошибочной функции обратного вызова, определенной SpeechErrorProcPtr. Вызовы диспетчера Синтеза речи ошибочная функция обратного вызова речевого канала каждый раз, когда это встречается с синтаксической ошибкой в команде, встроенной в a CFString объект это обрабатывает. Это может быть полезно во время отладки приложения, для обнаружения проблем с командами, которые Вы встроили в строки, которые говорит Ваше приложение. Если Ваше приложение позволяет пользователям встраивать команды в строках, может также быть полезно. Ваше приложение могло бы вывести на экран предупреждение, указывающее, что менеджер по Синтезу речи встретился с проблемой в обработке встроенной команды.

    Обычно, информация об ошибке, что менеджер по Синтезу речи обеспечивает ошибочную функцию обратного вызова, должна быть достаточной. Однако, если для Вашего приложения нужна информация об ошибках, произошедших, прежде чем ошибочная функция обратного вызова была включена, приложение (включая ошибочную функцию обратного вызова) может вызвать CopySpeechProperty функция с kSpeechErrorsProperty свойство.

    Можно указать ошибочную функцию обратного вызова путем передачи kSpeechErrorCFCallback свойство к SetSpeechProperty функция.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.5 и позже.

  • Определяет указатель на функцию обратного вызова фонемы, которую вызывает менеджер по Синтезу речи, прежде чем это объявит фонему.

    Объявление

    Swift

    typealias SpeechPhonemeProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, Int16) -> Void)>

    Objective C

    typedef void (*SpeechPhonemeProcPtr) ( SpeechChannel chan, SRefCon refCon, short phonemeOpcode );

    Параметры

    chan

    Речевой канал, закончивший обрабатывать входной текст.

    refCon

    Ссылочная константа связалась с речевым каналом.

    phonemeOpcode

    Фонема, собирающаяся быть объявленным.

    Обсуждение

    Вызовы диспетчера Синтеза речи функция обратного вызова фонемы речевого канала непосредственно перед тем, как это объявляет фонему. Например, Ваше приложение могло бы использовать такую функцию обратного вызова для включения синхронизации рта. В этом случае функция обратного вызова установила бы глобальную переменную флага, чтобы указать, что объявляемая фонема изменяется и другая глобальная переменная на phonemeOpcode. Функция, вызванная основным циклом событий Вашего приложения, могла обнаружить, что объявляемая фонема изменяется, и обновите изображение рта для отражения текущей фонемы. На практике обеспечение визуальной индикации относительно произношения фонемы требует, чтобы несколько последовательных изображений перемещения рта были быстро выведены на экран. Консультируйтесь с литературой лингвистики для получения информации о перемещениях рта, связанных с различными фонемами.

    Можно указать функцию обратного вызова фонемы путем передачи soPhonemeCallBack селектор к SetSpeechInfo функция.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет указатель на функцию обратного вызова синхронизации, которую вызывают, когда менеджер по Синтезу речи встречается с командой синхронизации, встроенной в текстовый буфер.

    Объявление

    Swift

    typealias SpeechSyncProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, OSType) -> Void)>

    Objective C

    typedef void (*SpeechSyncProcPtr) ( SpeechChannel chan, SRefCon refCon, OSType syncMessage );

    Параметры

    chan

    Речевой канал, закончивший обрабатывать входной текст.

    refCon

    Ссылочная константа связалась с речевым каналом.

    syncMessage

    Сообщение синхронизации передается во встроенной команде. Обычно, Вы используете это сообщение для различения несколько различных типов команд синхронизации, но можно использовать его любой способ, которым Вы желаете.

    Обсуждение

    Вызовы диспетчера Синтеза речи функция обратного вызова синхронизации речевого канала каждый раз, когда это встречается с командой синхронизации, встроенной в текстовый буфер. Вы могли бы использовать функцию обратного вызова синхронизации для обеспечения обратного вызова, не обычно предоставленного. Например, Вы могли бы вставить команды синхронизации в конце каждого предложения в текстовом буфере, или Вы могли бы ввести команды синхронизации после каждого числового значения в тексте. Однако для синхронизации приложения с фонемами или словами имеет больше смысла использовать встроенную фонему и функции обратного вызова слова, определенные в SpeechPhonemeProcPtr.

    Можно указать функцию обратного вызова синхронизации путем передачи soSyncCallBack селектор к SetSpeechInfo функция и встраивание команды синхронизации в текстовом буфере передали SpeakText или SpeakBuffer функция.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет указатель на сделанную текстом функцию обратного вызова, которую вызывают, когда менеджер по Синтезу речи закончил обрабатывать буфер текста.

    Объявление

    Swift

    typealias SpeechTextDoneProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, UnsafeMutablePointer<UnsafePointer<Void>>, UnsafeMutablePointer<UInt>, UnsafeMutablePointer<Int32>) -> Void)>

    Objective C

    typedef void (*SpeechTextDoneProcPtr) ( SpeechChannel chan, SRefCon refCon, void ** nextBuf, unsigned long * byteLen, long * controlFlags );

    Параметры

    chan

    Речевой канал, закончивший обрабатывать входной текст.

    refCon

    Ссылочная константа связалась с речевым каналом.

    nextBuf

    По возврату, указателю на следующий буфер текста, который обработает или NULL если Ваше приложение не имеет никакого дополнительного текста, на котором будут говорить. Этот параметр главным образом для внутреннего использования менеджером по Синтезу речи.

    byteLen

    По возврату, указателю на число байтов текстового буфера, на который указывают nextBuf параметр.

    controlFlags

    По возврату указатель на управление отмечает, чтобы использоваться в генерации следующего буфера текста.

    Обсуждение

    Если сделанная текстом функция обратного вызова установлена в речевом канале, то Вызовы диспетчера Синтеза речи эта функция, когда это заканчивает обрабатывать буфер текста. Менеджер по Синтезу речи еще, возможно, не завершил окончание, говоря текст и действительно, возможно, не начал говорить его.

    Можно указать сделанную текстом функцию обратного вызова путем передачи soTextDoneCallBack селектор к SetSpeechInfo функция.

    Общее использование сделанной текстом функции обратного вызова должно предупредить Ваше приложение, как только текст передал SpeakText или SpeakBuffer от функции можно избавиться (или, когда текст содержится в заблокированном перемещаемом блоке, когда перемещаемый блок может быть разблокирован). Менеджер по Синтезу речи копирует текст, который Вы передаете SpeakText или SpeakBuffer функция во внутренний буфер. Как только это закончило обрабатывать текст, можно избавиться от буфера оригинального текста, даже если речь еще не завершена. Однако, если Вы хотите записать функцию обратного вызова, выполняющуюся, когда речь завершается, см. определение сделанной речью функции обратного вызова ниже.

    Несмотря на то, что большинство приложений не должно будет, Ваша функция обратного вызова может указать менеджеру по Синтезу речи, существует ли другой буфер текста для разговора. Если существует другой буфер, Ваша функция обратного вызова должна сослаться на него путем установки nextBuf и byteLen параметры к надлежащим значениям. (Ваша функция обратного вызова могла бы также изменить флаги управления, которые будут использоваться для обработки речи путем изменения значения в controlFlags параметр.) Устанавливающий эти параметры позволяет менеджеру по Синтезу речи генерировать непрерывную речь. Если больше нет текста для разговора, функция обратного вызова должна установить nextBuf к NULL. В этом случае менеджер по Синтезу речи игнорирует byteLen и controlFlags параметры.

    Если Ваша сделанная текстом функция обратного вызова не изменяет значения nextBuf и byteLen параметры, на текстовом буфере, просто разговорном, будут говорить снова.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет указатель на функцию обратного вызова слова, которую вызывает менеджер по Синтезу речи, прежде чем это произнесет слово.

    Объявление

    Swift

    typealias SpeechWordProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, UInt, UInt16) -> Void)>

    Objective C

    typedef void (*SpeechWordProcPtr) ( SpeechChannel chan, SRefCon refCon, unsigned long wordPos, unsigned short wordLen );

    Параметры

    chan

    Речевой канал, закончивший обрабатывать входной текст.

    refCon

    Ссылочная константа связалась с речевым каналом.

    wordPos

    Число байтов между началом текстового буфера и начало слова, собирающегося быть объявленным.

    wordLen

    Длина в байтах слова, собирающегося быть объявленным.

    Обсуждение

    Вызовы диспетчера Синтеза речи функция обратного вызова слова речевого канала непосредственно перед тем, как это произносит слово. Вы могли бы использовать такую функцию обратного вызова, например, для рисования слова, собирающегося говориться в окне. В этом случае функция обратного вызова установила бы глобальную переменную флага, чтобы указать, что произнесенное слово изменяется и еще две глобальные переменные на wordPos и wordLen. Функция, вызванная основным циклом событий Вашего приложения, могла обнаружить, что произнесенное слово изменяется, и нарисуйте слово в окне.

    Можно указать функцию обратного вызова слова путем передачи soWordCallBack селектор к SetSpeechInfo функция.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет указатель на Базовую Основанную на основе функцию обратного вызова слова, которую вызывает менеджер по Синтезу речи, прежде чем это произнесет слово.

    Объявление

    Swift

    typealias SpeechWordCFProcPtr = CFunctionPointer<((SpeechChannel, SRefCon, CFString!, CFRange) -> Void)>

    Objective C

    typedef void (*SpeechWordCFProcPtr) ( SpeechChannel chan, SRefCon refCon, CFStringRef aString, CFRange wordRange );

    Параметры

    chan

    Речевой канал, закончивший обрабатывать входной текст.

    refCon

    Ссылочная константа связалась с речевым каналом.

    aString

    Строка, содержащая оригинальный текст, передала синтезатору речи в SpeakCFString вызвать.

    wordRange

    Диапазон символов в aString это соответствует слову.

    Обсуждение

    Функция обратного вызова слова, определенная SpeechWordCFProcPtr Базовый Основанный на основе эквивалент функции обратного вызова слова, определенной SpeechWordProcPtr. Вызовы диспетчера Синтеза речи функция обратного вызова слова речевого канала непосредственно перед тем, как это произносит слово. Вы могли бы использовать такую функцию обратного вызова, например, для выделения слова, собирающегося говориться в окне.

    Можно указать функцию обратного вызова слова путем передачи kSpeechWordCFCallBack свойство кSetSpeechProperty функция.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.5 и позже.

Типы данных

  • Определяет информационную структуру разделителя.

    Объявление

    Swift

    struct DelimiterInfo { var startDelimiter: (Byte, Byte) var endDelimiter: (Byte, Byte) }

    Objective C

    struct DelimiterInfo { Byte startDelimiter[2]; Byte endDelimiter[2]; }; typedef struct DelimiterInfo DelimiterInfo;

    Поля

    startDelimiter

    Начальный ограничитель для встроенной команды. По умолчанию начальный ограничитель “[[”.

    endDelimiter

    Конечный ограничитель для встроенной команды. По умолчанию конечный ограничитель “]]”.

    Обсуждение

    Информационная структура разделителя определяет символы, используемые для указания начала и конца команды, встроенной в текст. Разделитель может быть одним или двумя символами.

    Обычно, приложения, поддерживающие встроенные речевые команды, не должны изменять запуск или конечные ограничители. Однако, если по некоторым причинам необходимо изменить разделители, можно использовать SetSpeechInfo функция с soCommandDelimiter селектор. Например, если текстовый буфер естественно включает строки разделителя, Вы могли бы сделать это. Прежде, чем передать такой буфер менеджеру по Синтезу речи, можно изменить строки разделителя на некоторые две последовательности символов, не используемые в буфере, и затем возвратить строки разделителя, как только обработка буфера завершена.

    Если однобайтовый разделитель желаем, он должен сопровождаться a NULL (0) байт. Если разделитель представляет в виде строки, оба состоят из два NULL байты, встроенная обработка команды отключена.

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет структуру дескриптора фонемы.

    Объявление

    Swift

    struct PhonemeDescriptor { var phonemeCount: Int16 var thePhonemes: (PhonemeInfo) }

    Objective C

    struct PhonemeDescriptor { SInt16 phonemeCount; PhonemeInfo thePhonemes[1]; }; typedef struct PhonemeDescriptor PhonemeDescriptor;

    Поля

    phonemeCount

    Число фонем, которые определяет текущий синтезатор. Как правило, это будет соответствовать числу фонем на языке, поддерживаемом синтезатором.

    thePhonemes

    Массив информационных структур фонемы.

    Обсуждение

    Путем вызова GetSpeechInfo функция с soPhonemeSymbols селектор, можно получить структуру дескриптора фонемы, описывающую все фонемы, определенные для текущего синтезатора.

    Общее использование для структуры дескриптора фонемы должно предоставить графический дисплей пользователю всех доступных фонем. Такой список используется только для пользователя, вводящего фонематические данные непосредственно вместо того, чтобы просто ввести текст.

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет структуру, хранящую информацию о фонеме.

    Объявление

    Swift

    struct PhonemeInfo { var opcode: Int16 var phStr: Str15 var exampleStr: Str31 var hiliteStart: Int16 var hiliteEnd: Int16 }

    Objective C

    struct PhonemeInfo { SInt16 opcode; Str15 phStr; Str31 exampleStr; SInt16 hiliteStart; SInt16 hiliteEnd; }; typedef struct PhonemeInfo PhonemeInfo;

    Поля

    opcode

    Код операции для фонемы.

    phStr

    Строка раньше представляла фонему. Строка не обязательно имеет фонетическое соединение с фонемой, но могла бы просто быть абстрактным текстовым представлением ее.

    exampleStr

    Слово в качестве примера, иллюстрирующее использование фонемы.

    hiliteStart

    Число символов в слове в качестве примера, предшествующих части того слова, представляющего фонему.

    hiliteEnd

    Число символов между началом слова в качестве примера и концом части того слова, представляющего фонему.

    Обсуждение

    Обычно, Вы используете информационную структуру фонемы, чтобы показать пользователю, как ввести текст для представления определенной фонемы когда 'PHON' режим ввода активируется.

    Вы могли бы использовать информацию, содержавшуюся в hiliteStart и hiliteEnd поля для выделения символов в слове в качестве примера, представляющих фонему.

    Для получения информационной структуры фонемы для отдельной фонемы необходимо получить список фонем через структуру дескриптора фонемы.

    Доступность

    Доступный в OS X v10.0 и позже.

  • Представляет речевой канал.

    Объявление

    Swift

    struct SpeechChannelRecord { var data: (Int) }

    Objective C

    struct SpeechChannelRecord { long data[1]; }; typedef struct SpeechChannelRecord SpeechChannelRecord;

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет указатель на запись речевого канала.

    Объявление

    Swift

    typealias SpeechChannel = UnsafeMutablePointer<SpeechChannelRecord>

    Objective C

    typedef SpeechChannelRecord * SpeechChannel;

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет универсальный указатель процедуры (UPP) к сделанной речью функции обратного вызова.

    Объявление

    Swift

    typealias SpeechDoneUPP = SpeechDoneProcPtr

    Objective C

    typedef SpeechDoneProcPtr SpeechDoneUPP;

    Обсуждение

    Для получения дополнительной информации см. описание SpeechDoneProcPtr функция обратного вызова.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет речевую ошибочную информационную структуру.

    Объявление

    Swift

    struct SpeechErrorInfo { var count: Int16 var oldest: OSErr var oldPos: Int var newest: OSErr var newPos: Int }

    Objective C

    struct SpeechErrorInfo { SInt16 count; OSErr oldest; long oldPos; OSErr newest; long newPos; }; typedef struct SpeechErrorInfo SpeechErrorInfo;

    Поля

    count

    Число ошибок, произошедших в обработке буфера текущего текста начиная с последней возможности к GetSpeechInfo функция с soErrors селектор. Из этих ошибок можно найти информацию о только произошедшей первой и последней ошибке.

    oldest

    Код ошибки первой ошибки, произошедшей после предыдущего вызова с GetSpeechInfo функция с soErrors селектор.

    oldPos

    Позиция символа в текстовом буфере, обрабатываемом первой ошибки, произошедшей после предыдущего вызова с GetSpeechInfo функция с soErrors селектор.

    newest

    Код ошибки новой ошибки.

    newPos

    Позиция символа в текстовом буфере, обрабатываемом новой ошибки.

    Обсуждение

    Путем вызова GetSpeechInfo функция с soErrors селектор, можно получить речевую ошибочную информационную структуру, показывающую, какой менеджер по Синтезу речи ошибки произошли при обработке текстового буфера на данном речевом канале.

    Речевые ошибочные информационные структуры никогда не включают ошибки, возвращающиеся менеджером по Синтезу речи функции. Вместо этого они отражают только ошибки, с которыми встречаются непосредственно в обработке текста, и, в частности в обработке команд, встроенных в тексте.

    Речевая ошибочная информационная структура отслеживает только новую ошибку и первую ошибку, произошедшую после предыдущего вызова с GetSpeechInfo функция с soErrors селектор. Если Ваше приложение должно отслеживать все ошибки, то необходимо установить ошибочную функцию обратного вызова, SpeechErrorProcPtr.

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет универсальный указатель процедуры (UPP) к ошибочной функции обратного вызова.

    Объявление

    Swift

    typealias SpeechErrorUPP = SpeechErrorProcPtr

    Objective C

    typedef SpeechErrorProcPtr SpeechErrorUPP;

    Обсуждение

    Для получения дополнительной информации см. описание SpeechErrorProcPtr функция обратного вызова.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет универсальный указатель процедуры (UPP) к функции обратного вызова фонемы.

    Объявление

    Swift

    typealias SpeechPhonemeUPP = SpeechPhonemeProcPtr

    Objective C

    typedef SpeechPhonemeProcPtr SpeechPhonemeUPP;

    Обсуждение

    Для получения дополнительной информации см. описание SpeechPhonemeProcPtr функция обратного вызова.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет речевую структуру информации о статусе, хранящую информацию о состоянии речевого канала.

    Объявление

    Swift

    struct SpeechStatusInfo { var outputBusy: Boolean var outputPaused: Boolean var inputBytesLeft: Int var phonemeCode: Int16 }

    Objective C

    struct SpeechStatusInfo { Boolean outputBusy; Boolean outputPaused; long inputBytesLeft; SInt16 phonemeCode; }; typedef struct SpeechStatusInfo SpeechStatusInfo;

    Поля

    outputBusy

    Производит ли речевой канал в настоящее время речь. Когда никакие аудиоданные не производятся через динамик Macintosh, речевой канал считается, производя речь даже в несколько раз. Это происходит, например, когда менеджер по Синтезу речи обрабатывает входной буфер, но еще не инициировал речь или когда приостанавливается речевой вывод.

    outputPaused

    Был ли речевой вывод в речевом канале приостановлен вызовом к PauseSpeechAt функция.

    inputBytesLeft

    Число входных байтов текста, который должен все еще обработать речевой канал. Когда inputBytesLeft 0, буфер входного текста передал одному из SpeakText или SpeakBuffer от функций можно избавиться. Когда Вы вызываете SpeakString функция, менеджер по Синтезу речи хранит копию строки, на которой будут говорить во внутреннем буфере; таким образом можно сразу удалить исходную строку после вызова SpeakString.

    phonemeCode

    Код операции для фонемы, которую в настоящее время обрабатывает речевой канал.

    Обсуждение

    Путем вызова GetSpeechInfo функция с soStatus селектор, можно узнать информацию о состоянии речевого канала.

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет универсальный указатель процедуры (UPP) к функции обратного вызова синхронизации.

    Объявление

    Swift

    typealias SpeechSyncUPP = SpeechSyncProcPtr

    Objective C

    typedef SpeechSyncProcPtr SpeechSyncUPP;

    Обсуждение

    Для получения дополнительной информации см. описание SpeechSyncProcPtr функция обратного вызова.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет универсальный указатель процедуры (UPP) к сделанной текстом функции обратного вызова.

    Объявление

    Swift

    typealias SpeechTextDoneUPP = SpeechTextDoneProcPtr

    Objective C

    typedef SpeechTextDoneProcPtr SpeechTextDoneUPP;

    Обсуждение

    Для получения дополнительной информации см. описание SpeechTextDoneProcPtr функция обратного вызова.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет речевую структуру информации о версии.

    Объявление

    Swift

    struct SpeechVersionInfo { var synthType: OSType var synthSubType: OSType var synthManufacturer: OSType var synthFlags: Int32 var synthVersion: NumVersion }

    Objective C

    struct SpeechVersionInfo { OSType synthType; OSType synthSubType; OSType synthManufacturer; SInt32 synthFlags; NumVersion synthVersion; }; typedef struct SpeechVersionInfo SpeechVersionInfo;

    Поля

    synthType

    Общий тип синтезатора. Для текущей версии менеджера по Синтезу речи это поле всегда содержит значение kTextToSpeechSynthType, указание, что синтезатор преобразовывает текст в речь.

    synthSubType

    Определенный тип синтезатора. В настоящее время никакие определенные типы синтезатора не определяются. При определении нового типа синтезатора необходимо зарегистрировать четыре кода символа для типа с Технической поддержкой Разработчика.

    synthManufacturer

    Уникальная идентификация механизма синтезатора. Если Вы разрабатываете синтезаторы, то необходимо зарегистрировать различный четыре кода символа для каждого синтезатора, который Вы разрабатываете с Технической поддержкой Разработчика. creatorID поле речевой структуры спецификации и synthCreator поле речевой структуры данных расширения должно каждый быть установлено в значение, сохраненное в этом поле для желаемого синтезатора.

    synthFlags

    Ряд отмечает указывающий, какие опции синтезатора активированы. Определенные константы определяют биты в этом поле, значения которого определяются для всех синтезаторов.

    synthVersion

    Номер версии синтезатора.

    Обсуждение

    Путем вызова GetSpeechInfo функция с soSynthType селектор, можно получить речевую структуру информации о версии, предоставляющую информацию о синтезаторе речи, в настоящее время используясь.

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет универсальный указатель процедуры (UPP) к функции обратного вызова слова.

    Объявление

    Swift

    typealias SpeechWordUPP = SpeechWordProcPtr

    Objective C

    typedef SpeechWordProcPtr SpeechWordUPP;

    Обсуждение

    Для получения дополнительной информации см. описание SpeechWordProcPtr функция обратного вызова.

    Оператор импорта

    Objective C

    @import ApplicationServices;

    Swift

    import ApplicationServices

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет речевую структуру данных расширения.

    Объявление

    Swift

    struct SpeechXtndData { var synthCreator: OSType var synthData: (Byte, Byte) }

    Objective C

    struct SpeechXtndData { OSType synthCreator; Byte synthData[2]; }; typedef struct SpeechXtndData SpeechXtndData;

    Поля

    synthCreator

    Создатель синтезатора ID, идентичный значению, сохраненному в synthManufacturer поле речевой структуры информации о версии. Необходимо установить это поле в надлежащее значение перед вызовом GetSpeechInfo или SetSpeechInfo.

    synthData

    Специфичные для синтезатора данные. Размер и формат данных в этом поле могут варьироваться.

    Обсуждение

    Речевая структура данных расширения позволяет Вам использовать GetSpeechInfo и SetSpeechInfo функции с селекторами, определенными определенными синтезаторами. Путем требования, чтобы Вы передали одной из этих функций указатель на речевую структуру данных расширения, синтезаторы могут разрешить обмен данными в любом формате.

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет речевую структуру описания.

    Объявление

    Swift

    struct VoiceDescription { var length: Int32 var voice: VoiceSpec var version: Int32 var name: Str63 var comment: Str255 var gender: Int16 var age: Int16 var script: Int16 var language: Int16 var region: Int16 var reserved: (Int32, Int32, Int32, Int32) }

    Objective C

    struct VoiceDescription { SInt32 length; VoiceSpec voice; SInt32 version; Str63 name; Str255 comment; SInt16 gender; SInt16 age; SInt16 script; SInt16 language; SInt16 region; SInt32 reserved[4]; }; typedef struct VoiceDescription VoiceDescription;

    Поля

    length

    Размер речевой структуры описания, в байтах.

    voice

    Речевая структура спецификации, однозначно определяющая речь.

    version

    Номер версии речи.

    name

    Имя речи, которой предшествует байт длины. Имена должны быть 63 символами или меньше.

    comment

    Дополнительная информация о тексте о речи. Некоторые синтезаторы используют это поле для хранения фразы, на которой можно говорить.

    gender

    Род частного лица представлен речью. Посмотрите Константы Рода.

    age

    Приблизительный возраст в годах частного лица представлен речью.

    script

    В OS X v10.4.7 и позже, код кодирования текста, который может обработать речь.

    Обратите внимание на то, что это поле содержит 16-разрядное значение. Можно использовать любое из 16-разрядных значений, описанных в External_String_Encodings или CFStringBuiltInEncodings. Однако, если необходимо использовать 32-разрядное значение, такой как kCFStringEncodingUTF8, Вы передаете значение в первом элементе матрицы reserved поле, и также необходимо указать -1 или kCFStringEncodingInvalidId в script поле.

    language

    Код, указывающий язык речевого вывода.

    region

    Код, указывающий область, представленную речью.

    reserved

    Зарезервированный. Может использоваться для содержания 32-разрядного значения кодирования, если необходимый (см. описание script поле для получения дополнительной информации).

    Обсуждение

    Путем вызова GetVoiceDescription функция, можно получить информацию о речи в речевой структуре описания.

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет речевую информационную структуру файла.

    Объявление

    Swift

    struct VoiceFileInfo { var fileSpec: FSSpec var resID: Int16 }

    Objective C

    struct VoiceFileInfo { FSSpec fileSpec; SInt16 resID; }; typedef struct VoiceFileInfo VoiceFileInfo;

    Поля

    fileSpec

    Структура спецификации файловой системы, содержащая объем, каталог и имя файла, содержащего речь. Обычно файлы, содержащие единственную речь, имеют тип kTextToSpeechVoiceFileType, и файлы, содержащие многократную речь, имеют тип kTextToSpeechVoiceBundleType.

    resID

    Ресурс ID речи в файле. Речь сохранена в ресурсах типа kTextToSpeechVoiceType.

    Обсуждение

    Речевая информационная структура файла указывает файл, в котором речь сохранена и ресурс ID речи в том файле. Используйте GetVoiceInfo функция для получения речевой информационной структуры файла для речи.

    Доступность

    Доступный в OS X v10.0 и позже.

  • Определяет речевую структуру спецификации.

    Объявление

    Swift

    struct VoiceSpec { var creator: OSType var id: OSType }

    Objective C

    struct VoiceSpec { OSType creator; OSType id; }; typedef struct VoiceSpec VoiceSpec; typedef VoiceSpec * VoiceSpecPtr;

    Поля

    creator

    Синтезатор, требующийся, чтобы использовать речь. Это эквивалентно значению, содержавшемуся в synthManufacturer поле речевой структуры информации о версии и содержавшегося в synthCreator поле речевой структуры данных расширения. Набор OSType значения, указанные полностью пробелами и строчными буквами, резервируются.

    id

    Речь ID речи для синтезатора. Каждая речь на синтезаторе имеет уникальный идентификатор.

    Обсуждение

    Речевая структура спецификации обеспечивает уникальную спецификацию, которую необходимо использовать для получения информации о речи. Также необходимо использовать речевую структуру спецификации, если Вы хотите создать речевой канал, генерирующий речь речью кроме речи значения по умолчанию существующей системы.

    Для обеспечения совместимости будущими версиями менеджера по Синтезу речи Вы никогда не должны заполнять поля речевой структуры спецификации сами. Вместо этого необходимо создать речевую структуру спецификации при помощи MakeVoiceSpec функция.

    Доступность

    Доступный в OS X v10.0 и позже.

Константы

  • Флаги, указывающие, какие функции синтезатора активны.

    Объявление

    Swift

    var kNoEndingProsody: Int { get } var kNoSpeechInterrupt: Int { get } var kPreflightThenPause: Int { get }

    Objective C

    enum { kNoEndingProsody = 1, kNoSpeechInterrupt = 2, kPreflightThenPause = 4 };

    Константы

    • kNoEndingProsody

      kNoEndingProsody

      Отключает просодию в конце предложений. kNoEndingProsody флаговый бит используется, чтобы управлять, применяет ли синтезатор речи автоматически конечную просодию, речевой тон и тактовый сигнал, обычно происходящие в конце оператора. При нормальных обстоятельствах (например, когда флаговый бит не установлен), конечная просодия применяется к речи когда конец textBuf данные достигнуты. Это поведение по умолчанию может быть отключено путем установки kNoEndingProsody флаговый бит.

      Некоторые синтезаторы не говорят до kNoEndingProsody флаговый бит сбрасывается, или они встречаются с периодом в тексте, или textBuf полно.

      Доступный в OS X v10.0 и позже.

    • kNoSpeechInterrupt

      kNoSpeechInterrupt

      Не прерывает текущую речь. kNoSpeechInterrupt флаговый бит используется для управления поведением SpeakBuffer когда обращено речевой канал, который все еще занят. Когда флаговый бит не установлен, SpeakBuffer ведет себя так же к SpeakString и SpeakText. Любая речь, в настоящее время производимая на указанном речевом канале, сразу прервана, и затем на новом текстовом буфере говорят. Когда kNoSpeechInterrupt флаговый бит установлен, однако, запрос для разговора о канале, который все еще занят, обрабатывая предшествующий текстовый буфер, приведет к ошибке. Новый буфер проигнорирован и ошибка synthNotReady возвращается. Если предшествующий текстовый буфер был полностью обработан, на новом буфере обычно говорят. Один способ достигнуть слитной речи, не используя функции обратного вызова состоит в том, чтобы постоянно вызывать SpeakBuffer с kNoSpeechInterrupt набор флагового бита до функциональных возвратов noErr. Функция тогда выполнится, как только был обработан первый текстовый буфер.

      Доступный в OS X v10.0 и позже.

    • kPreflightThenPause

      kPreflightThenPause

      Вычисляет речь без генерации. kPreflightThenPause когда синтезатор речи пытается говорить, флаговый бит используется для минимизации задержки, испытанной. Обычно, каждый раз, когда вызов к SpeakString, SpeakText, или SpeakBuffer сделан, синтезатор речи должен выполнить определенную сумму начальной буквы, обрабатывающей, прежде чем услышат речевой вывод. Эта задержка запуска может варьироваться от нескольких миллисекунд до нескольких секунд, в зависимости от которых используется синтезатор речи. Распознавая, что большие задержки запуска могли бы быть вредны для определенных приложений, механизм существует, чтобы позволить синтезатору выполнять любые необходимые вычисления в некритические времена. Как только вычисления были завершены, речь в состоянии запуститься немедленно. Когда kPreflightThenPause флаговый бит установлен, синтезатор речи обработает входной текст по мере необходимости к точке, где это готово начать производить речевой вывод. В этой точке синтезатор введет приостановленное состояние и возвратится к вызывающей стороне. Когда приложение готово произвести речь, оно должно вызвать ContinueSpeech функция, чтобы начать говорить.

      Доступный в OS X v10.0 и позже.

    Обсуждение

    Эти константы используются в controlFlags параметр SpeakBuffer функционируйте и в synthFlagsl поле SpeechVersionInfo структура.

  • Константы, указывающие род частного лица, представленного речью.

    Объявление

    Swift

    var kNeuter: Int { get } var kMale: Int { get } var kFemale: Int { get }

    Objective C

    enum { kNeuter = 0, kMale = 1, kFemale = 2 };

    Константы

    • kNeuter

      kNeuter

      Средняя речь.

      Доступный в OS X v10.0 и позже.

    • kMale

      kMale

      Мужской голос.

      Доступный в OS X v10.0 и позже.

    • kFemale

      kFemale

      Розеточная речь.

      Доступный в OS X v10.0 и позже.

    Обсуждение

    Эти константы используются в gender поле VoiceDescription структура.

  • Константы, идентифицирующие значения в аудиоустройстве синтеза речи.

    Объявление

    Swift

    var kAudioUnitSubType_SpeechSynthesis: Int { get } var kAudioUnitProperty_Voice: Int { get } var kAudioUnitProperty_SpeechChannel: Int { get }

    Objective C

    enum { kAudioUnitSubType_SpeechSynthesis = 'ttsp', kAudioUnitProperty_Voice = 3330, kAudioUnitProperty_SpeechChannel = 3331 };

    Константы

    • kAudioUnitSubType_SpeechSynthesis

      kAudioUnitSubType_SpeechSynthesis

      Компонентный подтип синтеза речи используется в создании аудиоустройства синтеза речи. (Тип компонента kAudioUnitType_Generator.)

      Доступный в OS X v10.5 и позже.

    • kAudioUnitProperty_Voice

      kAudioUnitProperty_Voice

      Речевое свойство в аудиоустройстве синтеза речи.

      Доступный в OS X v10.5 и позже.

    • kAudioUnitProperty_SpeechChannel

      kAudioUnitProperty_SpeechChannel

      Свойство речевого канала в аудиоустройстве синтеза речи.

      Доступный в OS X v10.5 и позже.

  • Расположения, указывающие, где речь должна быть приостановлена или остановлена.

    Объявление

    Swift

    var kImmediate: Int { get } var kEndOfWord: Int { get } var kEndOfSentence: Int { get }

    Objective C

    enum { kImmediate = 0, kEndOfWord = 1, kEndOfSentence = 2 };

    Константы

    • kImmediate

      kImmediate

      Речь должна быть приостановлена или сразу остановлена.

      Доступный в OS X v10.0 и позже.

    • kEndOfWord

      kEndOfWord

      Речь должна быть приостановлена или остановлена в конце слова.

      Доступный в OS X v10.0 и позже.

    • kEndOfSentence

      kEndOfSentence

      Речь должна быть приостановлена или остановлена в конце предложения.

      Доступный в OS X v10.0 и позже.

    Обсуждение

    Посмотрите функции PauseSpeechAt и StopSpeechAt для получения дополнительной информации.

  • OSType определения используются менеджером по Синтезу речи.

    Объявление

    Swift

    var kTextToSpeechSynthType: Int { get } var kTextToSpeechVoiceType: Int { get } var kTextToSpeechVoiceFileType: Int { get } var kTextToSpeechVoiceBundleType: Int { get }

    Objective C

    enum { kTextToSpeechSynthType = 'ttsc', kTextToSpeechVoiceType = 'ttvd', kTextToSpeechVoiceFileType = 'ttvf', kTextToSpeechVoiceBundleType = 'ttvb' };

    Константы

    • kTextToSpeechSynthType

      kTextToSpeechSynthType

      Тип компонента синтезатора.

      Доступный в OS X v10.0 и позже.

    • kTextToSpeechVoiceType

      kTextToSpeechVoiceType

      Тип речевого ресурса.

      Доступный в OS X v10.0 и позже.

    • kTextToSpeechVoiceFileType

      kTextToSpeechVoiceFileType

      Тип речевого файла. Обычно. файлы, содержащие единственную речь, имеют тип kTextToSpeechVoiceFileType.

      Доступный в OS X v10.0 и позже.

    • kTextToSpeechVoiceBundleType

      kTextToSpeechVoiceBundleType

      Тип речи связывает файл. Как правило, файлы, содержащие многократную речь, имеют тип kTextToSpeechVoiceBundleType.

      Доступный в OS X v10.0 и позже.

  • Доступные относящиеся к обработке текстов и обрабатывающие число режимы для речевого канала.

    Объявление

    Swift

    var modeText: Int { get } var modePhonemes: Int { get } var modeNormal: Int { get } var modeLiteral: Int { get }

    Objective C

    enum { modeText = 'TEXT', modePhonemes = 'PHON', modeNormal = 'NORM', modeLiteral = 'LTRL' };

    Константы

    • modeText

      modeText

      Используемый с soInputMode указать, что речевой канал находится в относящемся к обработке текстов режиме.

      Доступный в OS X v10.0 и позже.

    • modePhonemes

      modePhonemes

      Используемый с soInputMode указать, что речевой канал находится в обрабатывающем фонему режиме. Когда в обрабатывающем фонему режиме, текстовый буфер интерпретируется, чтобы быть серией символов, представляющих различные фонемы и просодические средства управления.

      Доступный в OS X v10.0 и позже.

    • modeNormal

      modeNormal

      То, когда речевой канал находится в относящемся к обработке текстов режиме, указывает, что синтезатор должен обработать символы как ожидалось и собрать цифры в числа. Используйте это значение с soCharacterMode и soNumberMode.

      Доступный в OS X v10.0 и позже.

    • modeLiteral

      modeLiteral

      То, когда речевой канал находится в относящемся к обработке текстов режиме, указывает, что на символах и цифрах говорят буквально (например, на «кошке» говорят, как на «CAT» и «12» говорят как «один, два»). Используйте это значение с soCharacterMode и soNumberMode.

      Доступный в OS X v10.0 и позже.

  • Доступные относящиеся к обработке текстов и обрабатывающие число режимы для речевого канала.

    Объявление

    Swift

    var kSpeechModeText: Unmanaged<CFString>! var kSpeechModePhoneme: Unmanaged<CFString>! var kSpeechModeNormal: Unmanaged<CFString>! var kSpeechModeLiteral: Unmanaged<CFString>!

    Objective C

    CFStringRef kSpeechModeText = CFSTR("TEXT"); CFStringRef kSpeechModePhoneme = CFSTR("PHON"); CFStringRef kSpeechModeNormal = CFSTR("NORM"); CFStringRef kSpeechModeLiteral = CFSTR("LTRL");

    Константы

    • kSpeechModeText

      kSpeechModeText

      Используемый с kSpeechInputModeProperty указать, что речевой канал находится в относящемся к обработке текстов режиме.

      Доступный в OS X v10.5 и позже.

    • kSpeechModePhoneme

      kSpeechModePhoneme

      Используемый с kSpeechInputModeProperty указать, что речевой канал находится в обрабатывающем фонему режиме. Когда в обрабатывающем фонему режиме, текстовый буфер интерпретируется, чтобы быть серией символов, представляющих различные фонемы и просодические средства управления.

      Доступный в OS X v10.5 и позже.

    • kSpeechModeNormal

      kSpeechModeNormal

      То, когда речевой канал находится в относящемся к обработке текстов режиме, указывает, что синтезатор должен обработать символы как ожидалось и собрать цифры в числа. Используйте это значение с kSpeechCharacterModeProperty и kSpeechNumberModeProperty.

      Доступный в OS X v10.5 и позже.

    • kSpeechModeLiteral

      kSpeechModeLiteral

      То, когда речевой канал находится в относящемся к обработке текстов режиме, указывает, что на символах и цифрах говорят буквально (например, на «кошке» говорят, как на «CAT» и «12» говорят как «один, два»). Используйте это значение с kSpeechCharacterModeProperty и kSpeechNumberModeProperty.

      Доступный в OS X v10.5 и позже.

  • Типы речевой информации, которую можно требовать GetVoiceInfo функция.

    Объявление

    Swift

    var soVoiceDescription: Int { get } var soVoiceFile: Int { get }

    Objective C

    enum { soVoiceDescription = 'info', soVoiceFile = 'fref' };

    Константы

    • soVoiceDescription

      soVoiceDescription

      Получите основную речевую информацию.

      Доступный в OS X v10.0 и позже.

    • soVoiceFile

      soVoiceFile

      Получите речевую информацию ссылки на файл.

      Доступный в OS X v10.0 и позже.

  • Селекторы, которые могут быть переданы GetSpeechInfo или SetSpeechInfo функции.

    Объявление

    Swift

    var soStatus: Int { get } var soErrors: Int { get } var soInputMode: Int { get } var soCharacterMode: Int { get } var soNumberMode: Int { get } var soRate: Int { get } var soPitchBase: Int { get } var soPitchMod: Int { get } var soVolume: Int { get } var soSynthType: Int { get } var soRecentSync: Int { get } var soPhonemeSymbols: Int { get } var soCurrentVoice: Int { get } var soCommandDelimiter: Int { get } var soReset: Int { get } var soCurrentA5: Int { get } var soRefCon: Int { get } var soTextDoneCallBack: Int { get } var soSpeechDoneCallBack: Int { get } var soSyncCallBack: Int { get } var soErrorCallBack: Int { get } var soPhonemeCallBack: Int { get } var soWordCallBack: Int { get } var soSynthExtension: Int { get } var soSoundOutput: Int { get } var soOutputToFileWithCFURL: Int { get } var soOutputToExtAudioFile: Int { get } var soPhonemeOptions: Int { get } var soOutputToAudioDevice: Int { get }

    Objective C

    enum { soStatus = 'stat', soErrors = 'erro', soInputMode = 'inpt', soCharacterMode = 'char', soNumberMode = 'nmbr', soRate = 'rate', soPitchBase = 'pbas', soPitchMod = 'pmod', soVolume = 'volm', soSynthType = 'vers', soRecentSync = 'sync', soPhonemeSymbols = 'phsy', soCurrentVoice = 'cvox', soCommandDelimiter = 'dlim', soReset = 'rset', soCurrentA5 = 'myA5', soRefCon = 'refc', soTextDoneCallBack = 'tdcb', soSpeechDoneCallBack = 'sdcb', soSyncCallBack = 'sycb', soErrorCallBack = 'ercb', soPhonemeCallBack = 'phcb', soWordCallBack = 'wdcb', soSynthExtension = 'xtnd', soSoundOutput = 'sndo', soOutputToFileWithCFURL = 'opaf', soOutputToExtAudioFile = 'opax', soPhonemeOptions = 'popt', soOutputToAudioDevice = 'opad' };

    Константы

    • soStatus

      soStatus

      Получите речевую структуру информации о статусе для речевого канала. speechInfo параметр является указателем на речевую структуру информации о статусе, описанную в SpeechStatusInfo.

      Этот селектор работает с GetSpeechInfo функция.

      Доступный в OS X v10.0 и позже.

    • soErrors

      soErrors

      Получите сохраненную ошибочную информацию для речевого канала и очистите его ошибочные регистры. Этот селектор позволяет Вам опросить относительно различных ошибок периода выполнения, происходящих во время разговора, такого как обнаружение плохо сформированных встроенных команд. Об ошибках, возвращенных непосредственно менеджером по Синтезу речи функции, не сообщают здесь. Если Ваше приложение определяет ошибочную функцию обратного вызова, обратный вызов должен использовать soErrors селектор для получения информации об ошибке. speechInfo параметр является указателем на речевую ошибочную информационную структуру, описанную в SpeechErrorInfo.

      Этот селектор работает с GetSpeechInfo функция.

      Доступный в OS X v10.0 и позже.

    • soInputMode

      soInputMode

      Получите или установите текущий относящийся к обработке текстов режим речевого канала. Возвращенное значение указывает, является ли канал в настоящее время в режиме ввода фонемы или режиме ввода текста. speechInfo параметр является указателем на переменную типа OSType, который указывает относящийся к обработке текстов режим. Константы modeText и modePhonemes укажите доступные относящиеся к обработке текстов режимы.

      modeText постоянный указывает, что речевой канал находится в относящемся к обработке текстов режиме. modePhonemes постоянный указывает, что речевой канал находится в обрабатывающем фонему режиме. Когда в обрабатывающем фонему режиме, текстовый буфер интерпретируется, чтобы быть серией символов, представляющих различные фонемы и просодические средства управления. Некоторые синтезаторы могли бы поддерживать дополнительные обрабатывающие ввод режимы и определить константы для этих режимов.

      Когда в относящемся к обработке текстов режиме, можно также указать, как символы и числа должны быть обработаны, с помощью soCharacterMode и soNumberMode.

      Этот селектор работает с обоими GetSpeechInfo и SetSpeechInfo функции.

      Доступный в OS X v10.0 и позже.

    • soCharacterMode

      soCharacterMode

      Получите или установите обрабатывающий символ режим речевого канала. Две константы в настоящее время определяются для режима обработки, modeNormal и modeLiteral. Когда обрабатывающий символ режим modeNormal, на вводимых символах говорят, поскольку Вы ожидали бы слышать их. Когда режим modeLiteral, на каждом символе говорят буквально, так, чтобы слово «кошка» было бы произнесено «CAT». speechInfo параметр указывает на переменную типа OSType, который является обрабатывающим символ режимом.

      Этот селектор работает с GetSpeechInfo и SetSpeechInfo функции.

      Доступный в OS X v10.0 и позже.

    • soNumberMode

      soNumberMode

      Получите или установите текущий обрабатывающий число режим речевого канала. Два OSType константы в настоящее время определяются, modeNormal и modeLiteral. Когда обрабатывающий число режим modeNormal, синтезатор собирает цифры в числа (так, чтобы «12» говорился как «двенадцать»). Когда режим modeLiteral, на каждой цифре говорят буквально (так, чтобы «12» говорился как “один, два”). speechInfo параметр является указателем на переменную типа OSType, который указывает обрабатывающий число режим.

      Этот селектор работает с обоими GetSpeechInfo и SetSpeechInfo функции.

      Доступный в OS X v10.0 и позже.

    • soRate

      soRate

      Получите или установите речевой уровень речевого канала. speechInfo параметр является указателем на переменную типа Fixed. Возможный диапазон речевых уровней от 0.000 до 65 535,65535. Диапазон поддерживаемых уровней не предопределен менеджером по Синтезу речи; каждый синтезатор речи обеспечивает свой собственный диапазон речевых уровней. Средняя человеческая речь происходит на уровне 180 - 220 слов в минуту.

      Этот селектор работает с обоими GetSpeechInfo и SetSpeechInfo функции.

      Доступный в OS X v10.0 и позже.

    • soPitchBase

      soPitchBase

      Получите или установите базовую речевую подачу речевого канала. Этот селектор предназначается для использования менеджером по Синтезу речи; обычно, приложение использует GetSpeechPitch и SetSpeechPitch функции. speechInfo параметр является указателем на переменную типа Fixed.

      Этот селектор работает с обоими GetSpeechInfo и SetSpeechInfo функции.

      Доступный в OS X v10.0 и позже.

    • soPitchMod

      soPitchMod

      Получите или установите модуляцию подачи речевого канала. speechInfo параметр является указателем на переменную типа Fixed. Модуляция подачи также выражена как значение фиксированной точки в диапазоне 0.000 к 127 000. Эти значения соответствуют длительности нот MIDI, где 60.000 равно середине C в масштабе фортепьяно. Самая полезная речь передает падение диапазона 40 000 - 55 000. Значение модуляции подачи 0.000 соответствует монотонности, в которой вся речь сгенерирована в частоте, соответствующей речевой подаче. Учитывая речевое значение подачи 46 000, модуляция подачи 2 000 означала бы, что самый широкий диапазон передач, соответствующих фактической частоте сгенерированного текста, будет 44 000 - 48 000.

      Этот селектор работает с обоими GetSpeechInfo и SetSpeechInfo функции.

      Доступный в OS X v10.0 и позже.

    • soVolume

      soVolume

      Получите или установите динамический диапазон речевых сигналов для речевого канала. speechInfo параметр является указателем на переменную типа Fixed. Объемы выражены в модулях фиксированной точки в пределах от 0,0 до 1,0. Значение 0,0 соответствует тишине, и значение 1,0 соответствует максимальному возможному объему. Единицы объема лежат на масштабе, который линеен с амплитудой или напряжением. Удвоение воспринятой громкости соответствует удвоению объема.

      Этот селектор работает с обоими GetSpeechInfo и SetSpeechInfo функции.

      Доступный в OS X v10.0 и позже.

    • soSynthType

      soSynthType

      Получите речевую структуру информации о версии для синтезатора речи, используемого на указанном речевом канале. speechInfo параметр является указателем на речевую структуру информации о версии, описанную в SpeechVersionInfo.

      Этот селектор работает с GetSpeechInfo функция.

      Доступный в OS X v10.0 и позже.

    • soRecentSync

      soRecentSync

      Получите код сообщения для команды синхронизации, с которой последний раз встречаются. Если ни с какой командой синхронизации не встретились, 0 возвращается. speechInfo параметр является указателем на переменную типа OSType.

      Этот селектор работает с GetSpeechInfo функция.

      Доступный в OS X v10.0 и позже.

    • soPhonemeSymbols

      soPhonemeSymbols

      Получите список символов фонемы и слов в качестве примера, определенных для синтезатора речевого канала. Ваше приложение могло бы использовать эту информацию, чтобы показать пользователю что символы использовать при введении фонематического текста непосредственно. speechInfo параметр является указателем на переменную Дескриптора типа что на выходе от GetSpeechInfo функционируйте, дескриптор к структуре дескриптора фонемы, описанной в PhonemeDescriptor.

      Этот селектор работает с GetSpeechInfo функция.

      Доступный в OS X v10.0 и позже.

    • soCurrentVoice

      soCurrentVoice

      Установите текущую речь на текущем речевом канале к указанной речи. speechInfo параметр является указателем на речевую структуру спецификации. Ваше приложение должно создать структуру путем вызова MakeVoiceSpec. SetSpeechInfo возвратится incompatibleVoice ошибка, если указанная речь является несовместимой с синтезатором речи, связанным с речевым каналом. Если у Вас есть речевой канал открытое использование речи от определенного синтезатора, и Вы пытаетесь переключиться на речь, работающую с различным синтезатором, Вы получаете incompatibleVoice ошибка. Необходимо создать новый канал для использования с новой речью.

      Этот селектор работает с SetSpeechInfo функция.

      Доступный в OS X v10.0 и позже.

    • soCommandDelimiter

      soCommandDelimiter

      Установите встроенные речевые символы-разделители команды, которые будут использоваться для речевого канала. По умолчанию вводный разделитель “[[” и заключительный разделитель “]]”. Ваше приложение, возможно, должно было бы изменить эти разделители временно, если те последовательности символов происходят естественно в текстовом буфере, на котором нужно говорить. Ваше приложение может также отключить встроенную обработку команды передающими пустыми разделителями (использующий два NUL Символы ASCII). speechInfo параметр является указателем на информационную структуру разделителя, описанную в DelimiterInfo.

      Этот селектор работает с SetSpeechInfo функция.

      Доступный в OS X v10.0 и позже.

    • soReset

      soReset

      Задержите речевой канал к его состоянию по умолчанию. Например, речевая подача и речевой уровень установлены в значения по умолчанию. speechInfo параметр должен быть установлен на NULL.

      Этот селектор работает с SetSpeechInfo функция.

      Доступный в OS X v10.0 и позже.

    • soCurrentA5

      soCurrentA5

      Установите значение, которое менеджер по Синтезу речи присваивает регистру A5 прежде, чем вызвать любые определенные с помощью приложения функции обратного вызова для речевого канала. Если функции обратного вызова должны быть в состоянии получить доступ к глобальным переменным приложения, регистр A5 должен быть установлен правильно. speechInfo в то время, когда приложение не выполняет код прерывания или к, параметр должен быть установлен на указатель, содержавшийся в регистре A5 NULL если Ваше приложение хочет очистить значение, ранее установленное с soCurrentA5 селектор.

      Этот селектор работает с SetSpeechInfo функция.

      Доступный в OS X v10.0 и позже.

    • soRefCon

      soRefCon

      Установите ссылочное постоянное значение речевого канала. Ссылочное постоянное значение передается определенным с помощью приложения функциям обратного вызова и могло бы содержать любое значение, удобное для приложения. speechInfo параметр является длинным целым, содержащим ссылочное постоянное значение. В отличие от других селекторов, этот селектор не требует что speechInfo значение параметра быть значением указателя. Как правило, однако, приложение действительно использует этот селектор для передачи указателя, или дескриптор оценивают функциям обратного вызова.

      Этот селектор работает с SetSpeechInfo функция.

      Доступный в OS X v10.0 и позже.

    • soTextDoneCallBack

      soTextDoneCallBack

      Установите функцию обратного вызова, которую вызовут, когда менеджер по Синтезу речи закончит обрабатывать речь, сгенерированную на речевом канале. speechInfo параметр является указателем на определенную с помощью приложения сделанную текстом функцию обратного вызова, синтаксис которой описан в SpeechTextDoneProcPtr. Передача NULL в speechInfo отключает сделанную текстом функцию обратного вызова.

      Этот селектор работает с SetSpeechInfo функция.

      Доступный в OS X v10.0 и позже.

    • soSpeechDoneCallBack

      soSpeechDoneCallBack

      Установите функцию обратного вызова, которую вызовут, когда менеджер по Синтезу речи закончит генерировать речь на речевом канале. speechInfo параметр является указателем на определенную с помощью приложения сделанную речью функцию обратного вызова, синтаксис которой описан в SpeechDoneProcPtr. Передача NULL в speechInfo отключает сделанную речью функцию обратного вызова.

      Этот селектор работает с SetSpeechInfo функция.

      Доступный в OS X v10.0 и позже.

    • soSyncCallBack

      soSyncCallBack

      Установите функцию обратного вызова, которую вызовут, когда менеджер по Синтезу речи встретится с командой синхронизации во встроенной речевой команде в тексте, обрабатываемом на речевом канале. speechInfo параметр является указателем на определенную с помощью приложения функцию обратного вызова синхронизации, синтаксис которой описан в SpeechSyncProcPtr. Передача NULL в speechInfo отключает функцию обратного вызова синхронизации.

      Этот селектор работает с SetSpeechInfo функция.

      Доступный в OS X v10.0 и позже.

    • soErrorCallBack

      soErrorCallBack

      Установите функцию обратного вызова, которую вызовут, когда с ошибкой встретятся во время обработки встроенной команды. Если другие условия (такие как недостаточно память) возникают во время речевого процесса преобразования, функцию обратного вызова можно было бы также вызвать. Когда менеджера по Синтезу речи, функция возвращает ошибку непосредственно, ошибочная функция обратного вызова не вызывают, функция обратного вызова является переданной информацией о новой ошибке; это может определить информацию о самой старой незаконченной ошибке при помощи селектора информации о речи soErrors. speechInfo параметр является указателем на определенную с помощью приложения ошибочную функцию обратного вызова. Передача NULL в speechInfo отключает ошибочную функцию обратного вызова, SpeechErrorProcPtr.

      Этот селектор работает с SetSpeechInfo функция.

      Доступный в OS X v10.0 и позже.

    • soPhonemeCallBack

      soPhonemeCallBack

      Установите функцию обратного вызова, которую вызовут каждый раз, когда менеджер по Синтезу речи собирается генерировать фонему на речевом канале. speechInfo параметр является указателем на определенную с помощью приложения функцию обратного вызова фонемы, синтаксис которой описан в SpeechPhonemeProcPtr. Передача NULL в speechInfo отключает функцию обратного вызова фонемы.

      Этот селектор работает с SetSpeechInfo функция.

      Доступный в OS X v10.0 и позже.

    • soWordCallBack

      soWordCallBack

      Установите функцию обратного вызова, которую вызовут каждый раз, когда менеджер по Синтезу речи собирается генерировать слово на речевом канале. speechInfo параметр является указателем на определенную с помощью приложения функцию обратного вызова слова, синтаксис которой описан в SpeechWordProcPtr. Передача NULL в speechInfo отключает функцию обратного вызова слова.

      Этот селектор работает с SetSpeechInfo функция.

      Доступный в OS X v10.0 и позже.

    • soSynthExtension

      soSynthExtension

      Получите или установите специфичную для синтезатора информацию или настройки. speechInfo параметр является указателем на речевую структуру данных расширения, описанную в SpeechXtndData. Ваше приложение должно установить synthCreator поле этой структуры перед вызовом GetSpeechInfo или SetSpeechInfo. Обычно, Ваше приложение должно передать дополнительную информацию синтезатору в synthData поле.

      Этот селектор работает с обоими GetSpeechInfo и SetSpeechInfo функции.

      Доступный в OS X v10.0 и позже.

    • soSoundOutput

      soSoundOutput

      Получите или установите канал текущей производительности речевого канала.

      Использовать soOutputToFileWithCFURL вместо этого.

      Этот селектор работает с обоими GetSpeechInfo и SetSpeechInfo функции.

      Доступный в OS X v10.0 и позже.

    • soOutputToFileWithCFURL

      soOutputToFileWithCFURL

      Передача a CFURLRef в speechInfo параметр для записи в этот файл, или NULL генерировать звук.

      Этот селектор работает с SetSpeechInfo функция.

      Доступный в OS X v10.3 и позже.

    • soOutputToExtAudioFile

      soOutputToExtAudioFile

      Передайте ExtAudioFileRef в speechInfo параметр для записи в этот файл, или NULL генерировать звук.

      Обратите внимание на то, что менеджер по Синтезу речи может измениться kExtAudioFileProperty_ClientDataFormat и kExtAudioFileProperty_ClientChannelLayout свойства расширенного объекта аудиофайла. Вызывающая сторона ответственна за закрытие расширенного объекта аудиофайла после того, как менеджер по Синтезу речи будет закончен с ним.

      Этот селектор работает с SetSpeechInfo функция.

      Доступный в OS X v10.6 и позже.

    • soPhonemeOptions

      soPhonemeOptions

      Получите или установите опции для генерации фонетического вывода. Посмотрите Опции Генерации Фонемы для полного списка опций.

      speechInfo параметр является указателем на длинное значение, представляющее значение генерации фонемы.

      Этот селектор работает с обоими GetSpeechInfo и SetSpeechInfo функции.

      Доступный в OS X v10.6 и позже.

    • soOutputToAudioDevice

      soOutputToAudioDevice

      Передайте указатель на AudioDeviceID в speechInfo параметр для игры к этому файлу, или 0 проиграть устройство аудиовыхода по умолчанию.

      Этот селектор работает с SetSpeechInfo функция.

      Доступный в OS X v10.6 и позже.

    Обсуждение

    Посмотрите GetSpeechInfo и SetSpeechInfo функции.

  • Флаги, указывающие опции для генерации фонетического вывода.

    Объявление

    Swift

    var kSpeechGenerateTune: Int { get } var kSpeechRelativePitch: Int { get } var kSpeechRelativeDuration: Int { get } var kSpeechShowSyllables: Int { get }

    Objective C

    enum { kSpeechGenerateTune = 1, kSpeechRelativePitch = 2, kSpeechRelativeDuration = 4, kSpeechShowSyllables = 8 };

    Константы

    • kSpeechGenerateTune

      kSpeechGenerateTune

      Генерируйте фонемы, производящие подробную мелодию, указанную информацией о продолжительности и подачей.

      Доступный в OS X v10.6 и позже.

    • kSpeechRelativePitch

      kSpeechRelativePitch

      Укажите подачу в мелодии относительно базовой линии подачи речи (это упрощает снова использовать мелодию с различной речью).

      Доступный в OS X v10.6 и позже.

    • kSpeechRelativeDuration

      kSpeechRelativeDuration

      Укажите продолжительность в мелодии относительно текущего речевого уровня (это упрощает снова использовать мелодию на различном уровне).

      Доступный в OS X v10.6 и позже.

    • kSpeechShowSyllables

      kSpeechShowSyllables

      Покажите все метки слога в фонетическом выводе или мелодии.

      Доступный в OS X v10.6 и позже.

    Доступность

    Доступный в OS X v10.6 и позже.

  • Свойства, используемые с CopySpeechProperty или SetSpeechProperty получить или установить характеристики речевого канала.

    Объявление

    Swift

    var kSpeechStatusProperty: Unmanaged<CFString>! var kSpeechErrorsProperty: Unmanaged<CFString>! var kSpeechInputModeProperty: Unmanaged<CFString>! var kSpeechCharacterModeProperty: Unmanaged<CFString>! var kSpeechNumberModeProperty: Unmanaged<CFString>! var kSpeechRateProperty: Unmanaged<CFString>! var kSpeechPitchBaseProperty: Unmanaged<CFString>! var kSpeechPitchModProperty: Unmanaged<CFString>! var kSpeechVolumeProperty: Unmanaged<CFString>! var kSpeechSynthesizerInfoProperty: Unmanaged<CFString>! var kSpeechRecentSyncProperty: Unmanaged<CFString>! var kSpeechPhonemeSymbolsProperty: Unmanaged<CFString>! var kSpeechCurrentVoiceProperty: Unmanaged<CFString>! var kSpeechCommandDelimiterProperty: Unmanaged<CFString>! var kSpeechResetProperty: Unmanaged<CFString>! var kSpeechOutputToFileURLProperty: Unmanaged<CFString>! var kSpeechOutputToExtAudioFileProperty: Unmanaged<CFString>! var kSpeechRefConProperty: Unmanaged<CFString>! var kSpeechTextDoneCallBack: Unmanaged<CFString>! var kSpeechSpeechDoneCallBack: Unmanaged<CFString>! var kSpeechSyncCallBack: Unmanaged<CFString>! var kSpeechPhonemeCallBack: Unmanaged<CFString>! var kSpeechErrorCFCallBack: Unmanaged<CFString>! var kSpeechWordCFCallBack: Unmanaged<CFString>! var kSpeechPhonemeOptionsProperty: Unmanaged<CFString>! var kSpeechOutputToAudioDeviceProperty: Unmanaged<CFString>!

    Objective C

    CFStringRef kSpeechStatusProperty = CFSTR("stat"); CFStringRef kSpeechErrorsProperty = CFSTR("erro"); CFStringRef kSpeechInputModeProperty = CFSTR("inpt"); CFStringRef kSpeechCharacterModeProperty = CFSTR("char"); CFStringRef kSpeechNumberModeProperty = CFSTR("nmbr"); CFStringRef kSpeechRateProperty = CFSTR("rate"); CFStringRef kSpeechPitchBaseProperty = CFSTR("pbas"); CFStringRef kSpeechPitchModProperty = CFSTR("pmod"); CFStringRef kSpeechVolumeProperty = CFSTR("volm"); CFStringRef kSpeechSynthesizerInfoProperty = CFSTR("vers"); CFNumberRef kSpeechRecentSyncProperty = CFSTR("sync"); CFStringRef kSpeechPhonemeSymbolsProperty = CFSTR("phsy"); CFStringRef kSpeechCurrentVoiceProperty = CFSTR("cvox"); CFStringRef kSpeechCommandDelimiterProperty = CFSTR("dlim"); CFStringRef kSpeechResetProperty = CFSTR("rset"); CFStringRef kSpeechOutputToFileURLProperty = CFSTR("opaf"); CFStringRef kSpeechOutputToExtAudioFileProperty = CFSTR("opax"); CFStringRef kSpeechRefConProperty = CFSTR("refc"); CFStringRef kSpeechTextDoneCallBack = CFSTR("tdcb"); CFStringRef kSpeechSpeechDoneCallBack = CFSTR("sdcb"); CFStringRef kSpeechSyncCallBack = CFSTR("sycb"); CFStringRef kSpeechPhonemeCallBack = CFSTR("phcb"); CFStringRef kSpeechErrorCFCallBack = CFSTR("eccb"); CFStringRef kSpeechWordCFCallBack = CFSTR("wccb"); CFStringRef kSpeechPhonemeOptionsProperty = CFSTR("popt"); CFStringRef kSpeechOutputToAudioDeviceProperty = CRSTR("opad");

    Константы

    • kSpeechStatusProperty

      kSpeechStatusProperty

      Получите речевую информацию о статусе для речевого канала.

      Значение, связанное с этим свойством, является a CFDictionary объект, содержащий речевую информацию о статусе для речевого канала. Посмотрите “Speech Status Keys” для описания ключевого настоящего в словаре.

      Это свойство работает с CopySpeechProperty функция.

      Доступный в OS X v10.5 и позже.

    • kSpeechErrorsProperty

      kSpeechErrorsProperty

      Получите информацию речевой ошибки для речевого канала.

      Значение, связанное с этим свойством, является a CFDictionary объект, содержащий информацию о речевой ошибке. Посмотрите “Speech Error Keys” для описания ключевого настоящего в словаре.

      Это свойство позволяет Вам получить информацию о различных ошибках периода выполнения, происходящих во время разговора, такого как обнаружение плохо сформированных встроенных команд. Об ошибках, возвращенных непосредственно менеджером по Синтезу речи, не сообщают здесь. Если Ваше приложение определяет ошибочную функцию обратного вызова, функция может использовать это свойство для получения ошибочной информации.

      Это свойство работает с CopySpeechProperty функция.

      Доступный в OS X v10.5 и позже.

    • kSpeechInputModeProperty

      kSpeechInputModeProperty

      Получите или установите текущий относящийся к обработке текстов режим речевого канала.

      Значение, связанное с этим свойством, является a CFString объект, указывающий, является ли канал в настоящее время в режиме ввода фонемы или режиме ввода текста. Константы kSpeechModeText и kSpeechModePhoneme (определенный в “Speech-Channel Modes for Core Foundation-based Functions”) возможные значения этой строки.

      Когда в обрабатывающем фонему режиме, текстовая строка интерпретируется, чтобы быть серией символов, представляющих различные фонемы и просодические средства управления. Некоторые синтезаторы могли бы поддерживать дополнительные обрабатывающие ввод режимы и определить константы для этих режимов.

      Когда в относящемся к обработке текстов режиме, можно также указать, как символы и числа должны быть обработаны с помощью kSpeechCharacterModeProperty и kSpeechNumberModeProperty.

      Это свойство работает с CopySpeechProperty и SetSpeechProperty функции.

      Доступный в OS X v10.5 и позже.

    • kSpeechCharacterModeProperty

      kSpeechCharacterModeProperty

      Получите или установите обрабатывающий текущий символ режим речевого канала.

      Значение, связанное с этим свойством, является a CFString объект, указывающий, является ли речевой канал в настоящее время в нормальном или обрабатывающем буквенный символ режиме. Константы kSpeechModeNormal и kSpeechModeLiteral (определенный в “Speech-Channel Modes for Core Foundation-based Functions”) возможные значения этой строки.

      Когда обрабатывающий символ режим kSpeechModeNormal, на вводимых символах говорят, поскольку Вы ожидали бы слышать их. Когда режим kSpeechModeLiteral, на каждом символе говорят буквально, так, чтобы слово «кошка» было произнесено «CAT».

      Это свойство работает с CopySpeechProperty и SetSpeechProperty функции.

      Доступный в OS X v10.5 и позже.

    • kSpeechNumberModeProperty

      kSpeechNumberModeProperty

      Получите или установите текущий обрабатывающий число режим речевого канала.

      Значение, связанное с этим свойством, является a CFString объект, указывающий, является ли речевой канал в настоящее время в нормальном или литеральном обрабатывающем число режиме. Константы kSpeechModeNormal и kSpeechModeLiteral (определенный в “Speech-Channel Modes for Core Foundation-based Functions”) возможные значения этой строки.

      Когда обрабатывающий число режим kSpeechModeNormal, синтезатор собирает цифры в числа (так, чтобы «12» говорился как «двенадцать»). Когда режим kSpeechModeLiteral, на каждой цифре говорят буквально (так, чтобы «12» говорился как “один, два”).

      Это свойство работает с CopySpeechProperty и SetSpeechProperty функции.

      Доступный в OS X v10.5 и позже.

    • kSpeechRateProperty

      kSpeechRateProperty

      Получите или установите речевой уровень речевого канала.

      Значение, связанное с этим свойством, является a CFNumber объект, указывающий говорящий уровень речевого канала.

      Диапазон поддерживаемых уровней не предопределен менеджером по Синтезу речи; каждый синтезатор речи обеспечивает свой собственный диапазон речевых уровней. Средняя человеческая речь происходит на уровне 180 - 220 слов в минуту.

      Это свойство работает с CopySpeechProperty и SetSpeechProperty функции.

      Доступный в OS X v10.5 и позже.

    • kSpeechPitchBaseProperty

      kSpeechPitchBaseProperty

      Получите или установите базовую речевую подачу речевого канала.

      Значение, связанное с этим свойством, является a CFNumber объект, указывающий базовую речевую подачу речевого канала.

      Типичные частоты речевого диапазона располагаются приблизительно от 90 герц для низкого мужского голоса к, возможно, 300 герц для речи высокого дочернего элемента. Эти частоты соответствуют приблизительным значениям подачи в диапазонах 30 000 - 40 000 и 55 000 - 65 000, соответственно.

      Это свойство работает с CopySpeechProperty и SetSpeechProperty функции.

      Доступный в OS X v10.5 и позже.

    • kSpeechPitchModProperty

      kSpeechPitchModProperty

      Получите или установите модуляцию подачи речевого канала.

      Значение, связанное с этим свойством, является a CFNumber объект, указывающий модуляцию подачи речевого канала.

      Модуляция подачи также выражена как значение с плавающей точкой в диапазоне 0.000 к 127 000. Эти значения соответствуют длительности нот MIDI, где 60.000 равно середине C в масштабе фортепьяно. Самая полезная речь передает падение диапазона 40 000 - 55 000. Значение модуляции подачи 0.000 соответствует монотонности, в которой вся речь сгенерирована в частоте, соответствующей речевой подаче. Учитывая речевое значение подачи 46 000, модуляция подачи 2 000 означала бы, что самый широкий диапазон передач, соответствующих фактической частоте сгенерированного текста, будет 44 000 - 48 000.

      Это свойство работает с CopySpeechProperty и SetSpeechProperty функции.

      Доступный в OS X v10.5 и позже.

    • kSpeechVolumeProperty

      kSpeechVolumeProperty

      Получите или установите динамический диапазон речевых сигналов для речевого канала.

      Значение, связанное с этим свойством, является a CFNumber объект, указывающий динамический диапазон речевых сигналов речевого канала.

      Объемы выражены в значениях с плавающей точкой в пределах от 0,0 до 1,0. Значение 0,0 соответствует тишине, и значение 1,0 соответствует максимальному возможному объему. Единицы объема лежат на масштабе, который линеен с амплитудой или напряжением. Удвоение воспринятой громкости соответствует удвоению объема.

      Это свойство работает с CopySpeechProperty и SetSpeechProperty функции.

      Доступный в OS X v10.5 и позже.

    • kSpeechSynthesizerInfoProperty

      kSpeechSynthesizerInfoProperty

      Получите информацию о синтезаторе речи, используемом на указанном речевом канале.

      Значение, связанное с этим свойством, является a CFDictionary объект, содержащий информацию о синтезаторе речи, используемом на указанном речевом канале. Посмотрите “Speech Synthesizer Information Keys” для описания ключевого настоящего в словаре.

      Это свойство работает с CopySpeechProperty функция.

      Доступный в OS X v10.5 и позже.

    • kSpeechRecentSyncProperty

      kSpeechRecentSyncProperty

      Получите код сообщения для команды синхронизации, с которой последний раз встречаются.

      Значение, связанное с этим свойством, является a CFNumber объект, указывающий команду синхронизации, с которой последний раз встречаются. Это свойство работает с CopySpeechProperty функция.

      Доступный в OS X v10.5 и позже.

    • kSpeechPhonemeSymbolsProperty

      kSpeechPhonemeSymbolsProperty

      Получите список символов фонемы и слов в качестве примера, определенных для синтезатора речевого канала.

      Значение, связанное с этим свойством, является a CFDictionary объект, содержащий символы фонемы и слова в качестве примера, определенные для текущего синтезатора. Ваше приложение могло бы использовать эту информацию, чтобы показать пользователю что символы использовать при введении фонематического текста непосредственно. Посмотрите “Phoneme Symbols Keys” для описания ключевого настоящего в словаре.

      Это свойство работает с CopySpeechProperty функция.

      Доступный в OS X v10.5 и позже.

    • kSpeechCurrentVoiceProperty

      kSpeechCurrentVoiceProperty

      Установите текущую речь на текущем речевом канале к указанной речи.

      Значение, связанное с этим свойством, является a CFDictionary объект, содержащий символы фонемы и слова в качестве примера, определенные для текущего синтезатора. Ваше приложение могло бы использовать эту информацию, чтобы показать пользователю что символы использовать при введении фонематического текста непосредственно. Посмотрите “Phoneme Symbols Keys” для ключей можно использовать для указания значений в этом словаре.

      Это свойство работает с SetSpeechProperty функция.

      Доступный в OS X v10.5 и позже.

    • kSpeechCommandDelimiterProperty

      kSpeechCommandDelimiterProperty

      Установите встроенные речевые символы-разделители команды, которые будут использоваться для речевого канала.

      По умолчанию вводный разделитель “[[” и заключительный разделитель “]]”. Ваше приложение, возможно, должно было бы изменить эти разделители временно, если те последовательности символов происходят естественно в текстовом буфере, на котором нужно говорить. Ваше приложение может также отключить встроенную обработку команды передающими пустыми разделителями (как пустые строки). Значение, связанное с этим свойством, является a CFDictionary объект, содержащий информацию о разделителе. Посмотрите “Command Delimiter Keys” для ключей можно использовать для указания значений в этом словаре.

      Это свойство работает с SetSpeechProperty функция.

      Доступный в OS X v10.5 и позже.

    • kSpeechResetProperty

      kSpeechResetProperty

      Задержите речевой канал к его состоянию по умолчанию.

      Можно использовать эту функцию для, например, подача заранее составленной речи и речевой уровень к значениям по умолчанию. Нет никакого значения, связанного с этим свойством; для сброса канала к его состоянию по умолчанию установите строку в NULL.

      Это свойство работает с SetSpeechProperty функция.

      Доступный в OS X v10.5 и позже.

    • kSpeechOutputToFileURLProperty

      kSpeechOutputToFileURLProperty

      Установите место назначения речевого вывода в файл или динамикам компьютера.

      Значение, связанное с этим свойством, является a CFURL объект. Для записи речевого вывода в файл используйте файл CFURLRef; для генерации звука через динамики компьютера использовать NULL.

      Это свойство работает с SetSpeechProperty функция.

      Доступный в OS X v10.5 и позже.

    • kSpeechOutputToExtAudioFileProperty

      kSpeechOutputToExtAudioFileProperty

      Установите место назначения речевого вывода в расширенный аудиофайл или динамикам компьютера.

      Значение, связанное с этим свойством, является a CFNumber возразите, чье значение ExtAudioFileRef. Для записи речевого вывода в расширенный аудиофайл используйте файл ExtAudioFileRef; для генерации звука через динамики компьютера использовать NULL.

      Это свойство работает с SetSpeechProperty функция.

      Доступный в OS X v10.5 и позже.

    • kSpeechRefConProperty

      kSpeechRefConProperty

      Установите ссылочное постоянное значение речевого канала.

      Ссылочное постоянное значение передается определенным с помощью приложения функциям обратного вызова и могло бы содержать любое значение, удобное для приложения. Значение, связанное с этим свойством, является a CFNumber объект, содержащий целочисленное значение. Например, приложение могло бы установить значение CFNumber возразите против адреса в памяти, содержащей ссылку на объект или указатель на функцию.

      Это свойство работает с SetSpeechProperty функция.

      Доступный в OS X v10.5 и позже.

    • kSpeechTextDoneCallBack

      kSpeechTextDoneCallBack

      Установите функцию обратного вызова, которую вызовут, когда менеджер по Синтезу речи закончит обрабатывать речь, сгенерированную на речевом канале.

      Значение, связанное с этим свойством, является a CFNumber возразите, чье значение является указателем на определенную с помощью приложения сделанную текстом функцию обратного вызова, синтаксис которой описан в SpeechTextDoneProcPtr. Передача a CFNumber объект, содержащий значение NULL отключает сделанную текстом функцию обратного вызова.

      Это свойство работает с SetSpeechProperty функция.

      Доступный в OS X v10.5 и позже.

    • kSpeechSpeechDoneCallBack

      kSpeechSpeechDoneCallBack

      Установите функцию обратного вызова, которую вызовут, когда менеджер по Синтезу речи закончит генерировать речь на речевом канале.

      Значение, связанное с этим свойством, CFNumber возразите, чье значение является указателем на определенную с помощью приложения сделанную речью функцию обратного вызова, синтаксис которой описан в SpeechDoneProcPtr. Передача NULL поскольку значение этого свойства отключает сделанную речью функцию обратного вызова.

      Это свойство работает с SetSpeechProperty функция.

      Доступный в OS X v10.5 и позже.

    • kSpeechSyncCallBack

      kSpeechSyncCallBack

      Установите функцию обратного вызова, которую вызовут, когда менеджер по Синтезу речи встретится с командой синхронизации во встроенной речевой команде в тексте, обрабатываемом на речевом канале.

      Значение, связанное с этим свойством, CFNumber возразите, чье значение является указателем на определенную с помощью приложения функцию обратного вызова синхронизации, синтаксис которой описан в SpeechSyncProcPtr. Передача a CFNumber объект, содержащий значение NULL поскольку значение этого свойства отключает функцию обратного вызова синхронизации.

      Это свойство работает с SetSpeechProperty функция.

      Доступный в OS X v10.5 и позже.

    • kSpeechPhonemeCallBack

      kSpeechPhonemeCallBack

      Установите функцию обратного вызова, которую вызовут каждый раз, когда менеджер по Синтезу речи собирается генерировать фонему на речевом канале.

      Значение, связанное с этим свойством, CFNumber возразите, чье значение является указателем на определенную с помощью приложения функцию обратного вызова фонемы, синтаксис которой описан в SpeechPhonemeProcPtr. Передача a CFNumber объект, содержащий значение NULL поскольку значение этого свойства отключает функцию обратного вызова фонемы.

      Это свойство работает с SetSpeechProperty функция.

      Доступный в OS X v10.5 и позже.

    • kSpeechErrorCFCallBack

      kSpeechErrorCFCallBack

      Установите функцию обратного вызова, которую вызовут, когда с ошибкой встретятся во время обработки встроенной команды.

      . Когда менеджера по Синтезу речи, функция возвращает ошибку непосредственно, ошибочная функция обратного вызова не вызывают, функция обратного вызова является переданной информацией о новой ошибке; это может определить информацию о самой старой незаконченной ошибке при помощи свойства информации о речи kSpeechErrorsProperty. Значение, связанное с этим свойством, CFNumber возразите, чье значение является указателем на определенную с помощью приложения ошибочную функцию обратного вызова, синтаксис которой описан в SpeechErrorCFProcPtr. Передача a CFNumber объект, содержащий значение NULL поскольку значение этого свойства отключает ошибочную функцию обратного вызова.

      Это свойство работает с SetSpeechProperty функция.

      Доступный в OS X v10.5 и позже.

    • kSpeechWordCFCallBack

      kSpeechWordCFCallBack

      Установите функцию обратного вызова, которую вызовут каждый раз, когда менеджер по Синтезу речи собирается генерировать слово на речевом канале.

      Значение, связанное с этим свойством, CFNumber возразите, чье значение является указателем на определенную с помощью приложения функцию обратного вызова слова, синтаксис которой описан в SpeechWordCFProcPtr. Передача a CFNumber объект, содержащий значение NULL поскольку значение этого свойства отключает функцию обратного вызова слова.

      Это свойство работает с SetSpeechProperty функция.

      Доступный в OS X v10.5 и позже.

    • kSpeechPhonemeOptionsProperty

      kSpeechPhonemeOptionsProperty

      Получите или установите опции для генерации фонетического вывода.

      Значение, связанное с этим свойством, является указателем на CFNumber объект, содержащий флаги (опции), Вы передали бы soPhonemeOptions. (См. Опции Генерации Фонемы для полного списка опций.)

      Это свойство работает с SetSpeechProperty и CopySpeechProperty функции.

      Доступный в OS X v10.5 и позже.

    • kSpeechOutputToAudioDeviceProperty

      kSpeechOutputToAudioDeviceProperty

      Установите место назначения речевого вывода в файл аудиоустройства или динамикам компьютера.

      Значение, связанное с этим свойством, является a CFNumber объект, содержащий AudioDeviceID. Для игры речевого вывода к аудиоустройству используйте AudioDeviceID это представляет устройство; для генерации звука через динамики компьютера использовать 0.

      Это свойство работает с SetSpeechProperty функция.

      Доступный в OS X v10.6 и позже.

  • Ключи раньше указывали опции синтезатора.

    Объявление

    Swift

    var kSpeechNoEndingProsody: Unmanaged<CFString>! var kSpeechNoSpeechInterrupt: Unmanaged<CFString>! var kSpeechPreflightThenPause: Unmanaged<CFString>!

    Objective C

    CFStringRef kSpeechNoEndingProsody = CFSTR("NoEndingProsody"); CFStringRef kSpeechNoSpeechInterrupt = CFSTR("NoSpeechInterrupt"); CFStringRef kSpeechPreflightThenPause = CFSTR("PreflightThenPause");

    Константы

    • kSpeechNoEndingProsody

      kSpeechNoEndingProsody

      Отключите просодию в конце предложений.

      kSpeechNoEndingProsody ключ используется, чтобы указать, должен ли синтезатор речи автоматически применить конечную просодию, которая является речевым тоном и тактовым сигналом, обычно происходящими в конце предложения. Когда ключ не указан (или если он указан со значением kCFBooleanFalse), конечная просодия применяется к речи в конце aString. Это поведение может быть отключено путем указания kSpeechNoEndingProsody ключ, со значением kCFBooleanTrue, в options словарь.

      Доступный в OS X v10.5 и позже.

    • kSpeechNoSpeechInterrupt

      kSpeechNoSpeechInterrupt

      Не прерывайте текущую речь.

      kSpeechNoSpeechInterrupt ключ используется для управления поведением SpeakCFString когда это вызывают на речевом канале, который занят. Когда kSpeechNoSpeechInterrupt не указан в options словарь (или если это указано со значением kCFBooleanFalse), SpeakCFString сразу прерывает речь, в настоящее время производимую на указанном речевом канале и новом aString на тексте говорят. Когда kSpeechNoSpeechInterrupt указан со значением kCFBooleanTrue, запрос для разговора о речевом канале, который уже является занятыми причинами новое aString текст, который будет проигнорирован и synthNotReady ошибка, которая будет возвращена.

      Доступный в OS X v10.5 и позже.

    • kSpeechPreflightThenPause

      kSpeechPreflightThenPause

      Вычислите речь, не генерируя его.

      kSpeechPreflightThenPause когда синтезатор речи пытается говорить, ключ используется для минимизации задержки, испытанной. Для достижения этого укажите kSpeechPreflightThenPause ключ, со значением kCFBooleanTrue, в options словарь. Это заставляет синтезатор речи обрабатывать входной текст по мере необходимости к точке, где это готово начать производить речевой вывод. В этой точке синтезатор вводит приостановленное состояние и возвращается к вызывающей стороне. Когда приложение готово произвести речь, оно должно вызвать ContinueSpeech начать говорить.

      Если Вы не указываете kSpeechPreflightThenPause ключ (или Вы указываете его со значением kCFBooleanFalse), SpeakCFString начинает говорить входной текст после обработки его.

      Доступный в OS X v10.5 и позже.

  • Ключи, используемые с kSpeechStatusProperty свойство для указания состояния речевого канала.

    Объявление

    Swift

    var kSpeechStatusOutputBusy: Unmanaged<CFString>! var kSpeechStatusOutputPaused: Unmanaged<CFString>! var kSpeechStatusNumberOfCharactersLeft: Unmanaged<CFString>! var kSpeechStatusPhonemeCode: Unmanaged<CFString>!

    Objective C

    CFStringRef kSpeechStatusOutputBusy = CFSTR("OutputBusy"); CFStringRef kSpeechStatusOutputPaused = CFSTR("OutputPaused"); CFStringRef kSpeechStatusNumberOfCharactersLeft = CFSTR("NumberOfCharactersLeft"); CFStringRef kSpeechStatusPhonemeCode = CFSTR("PhonemeCode");

    Константы

    • kSpeechStatusOutputBusy

      kSpeechStatusOutputBusy

      Указывает, производит ли речевой канал в настоящее время речь.

      Когда никакие аудиоданные не производятся через динамик компьютера, речевой канал считается, производя речь даже в несколько раз. Это происходит, например, когда менеджер по Синтезу речи обрабатывает ввод, но еще не инициировал речь или когда приостанавливается речевой вывод.

      Доступный в OS X v10.5 и позже.

    • kSpeechStatusOutputPaused

      kSpeechStatusOutputPaused

      Указывает, был ли речевой вывод в речевом канале приостановлен вызовом к PauseSpeechAt функция.

      Доступный в OS X v10.5 и позже.

    • kSpeechStatusNumberOfCharactersLeft

      kSpeechStatusNumberOfCharactersLeft

      Число символов уехало во входной строке текста.

      Когда значение этой константы является нулем, можно уничтожить входную строку.

      Доступный в OS X v10.5 и позже.

    • kSpeechStatusPhonemeCode

      kSpeechStatusPhonemeCode

      Код операции для фонемы, которую в настоящее время обрабатывает речевой канал.

      Доступный в OS X v10.5 и позже.

  • Ключи, используемые с kSpeechErrorsProperty свойство для описания ошибок встретилось во время обработки речи и производства.

    Объявление

    Swift

    var kSpeechErrorCount: Unmanaged<CFString>! var kSpeechErrorOldest: Unmanaged<CFString>! var kSpeechErrorOldestCharacterOffset: Unmanaged<CFString>! var kSpeechErrorNewest: Unmanaged<CFString>! var kSpeechErrorNewestCharacterOffset: Unmanaged<CFString>!

    Objective C

    CFStringRef kSpeechErrorCount = CFSTR("Count"); CFStringRef kSpeechErrorOldest = CFSTR("OldestCode"); CFStringRef kSpeechErrorOldestCharacterOffset = CFSTR("OldestCharacterOffset"); CFStringRef kSpeechErrorNewest = CFSTR("NewestCode"); CFStringRef kSpeechErrorNewestCharacterOffset = CFSTR("NewestCharacterOffset");

    Константы

    • kSpeechErrorCount

      kSpeechErrorCount

      Число ошибок, произошедших в обработке строки текущего текста, начиная с последней возможности к CopySpeechProperty функция с kSpeechErrorsProperty свойство.

      Используя kSpeechErrorOldest ключи и kSpeechErrorNewest ключи, можно получить информацию о самых старых и новых ошибках, произошедших начиная с последней возможности с CopySpeechProperty, но Вы не можете получить информацию ни о каких прошедших ошибках.

      Доступный в OS X v10.5 и позже.

    • kSpeechErrorOldest

      kSpeechErrorOldest

      Код ошибки первой ошибки, произошедшей начиная с последней возможности с CopySpeechProperty функция с kSpeechErrorsProperty свойство.

      Доступный в OS X v10.5 и позже.

    • kSpeechErrorOldestCharacterOffset

      kSpeechErrorOldestCharacterOffset

      Позиция в текстовой строке первой ошибки, произошедшей начиная с последней возможности с CopySpeechProperty функция с kSpeechErrorsProperty свойство.

      Доступный в OS X v10.5 и позже.

    • kSpeechErrorNewest

      kSpeechErrorNewest

      Код ошибки новой ошибки, произошедшей начиная с последней возможности с CopySpeechProperty функция с kSpeechErrorsProperty свойство.

      Доступный в OS X v10.5 и позже.

    • kSpeechErrorNewestCharacterOffset

      kSpeechErrorNewestCharacterOffset

      Позиция в текстовой строке новой ошибки, произошедшей начиная с последней возможности с CopySpeechProperty функция с kSpeechErrorsProperty свойство.

      Доступный в OS X v10.5 и позже.

  • Ключи, используемые с kSpeechSynthesizerInfoProperty свойство для получения информации о синтезаторе.

    Объявление

    Swift

    var kSpeechSynthesizerInfoIdentifier: Unmanaged<CFString>! var kSpeechSynthesizerInfoVersion: Unmanaged<CFString>! var kSpeechSynthesizerInfoManufacturer: Unmanaged<CFString>!

    Objective C

    CFStringRef kSpeechSynthesizerInfoIdentifier = CFSTR("Identifier"); CFStringRef kSpeechSynthesizerInfoVersion = CFSTR("Version"); CFStringRef kSpeechSynthesizerInfoManufacturer = CFSTR("Manufacturer");

    Константы

    • kSpeechSynthesizerInfoIdentifier

      kSpeechSynthesizerInfoIdentifier

      Идентификатор синтезатора речи.

      Доступный в OS X v10.5 и позже.

    • kSpeechSynthesizerInfoVersion

      kSpeechSynthesizerInfoVersion

      Версия синтезатора речи.

      Доступный в OS X v10.5 и позже.

    • kSpeechSynthesizerInfoManufacturer

      kSpeechSynthesizerInfoManufacturer

      Идентификация механизма синтезатора (см. synthManufacturer поле в SpeechVersionInfo).

      Доступный в OS X v10.5 и позже.

  • Ключи, используемые с kSpeechPhonemeSymbolsProperty свойство для предоставления информации об обрабатываемой фонеме.

    Объявление

    Swift

    var kSpeechPhonemeInfoOpcode: Unmanaged<CFString>! var kSpeechPhonemeInfoSymbol: Unmanaged<CFString>! var kSpeechPhonemeInfoExample: Unmanaged<CFString>! var kSpeechPhonemeInfoHiliteStart: Unmanaged<CFString>! var kSpeechPhonemeInfoHiliteEnd: Unmanaged<CFString>!

    Objective C

    CFStringRef kSpeechPhonemeInfoOpcode = CFSTR("Opcode"); CFStringRef kSpeechPhonemeInfoSymbol = CFSTR("Symbol"); CFStringRef kSpeechPhonemeInfoExample = CFSTR("Example"); CFStringRef kSpeechPhonemeInfoHiliteStart = CFSTR("HiliteStart"); CFStringRef kSpeechPhonemeInfoHiliteEnd = CFSTR("HiliteEnd");

    Константы

    • kSpeechPhonemeInfoOpcode

      kSpeechPhonemeInfoOpcode

      Код операции фонемы.

      Доступный в OS X v10.5 и позже.

    • kSpeechPhonemeInfoSymbol

      kSpeechPhonemeInfoSymbol

      Символ раньше представлял фонему.

      Символ не обязательно имеет фонетическое соединение с фонемой, но мог бы просто быть абстрактным текстовым представлением ее.

      Доступный в OS X v10.5 и позже.

    • kSpeechPhonemeInfoExample

      kSpeechPhonemeInfoExample

      Слово в качестве примера, иллюстрирующее использование фонемы.

      Доступный в OS X v10.5 и позже.

    • kSpeechPhonemeInfoHiliteStart

      kSpeechPhonemeInfoHiliteStart

      Символьное смещение в слово в качестве примера, идентифицирующее расположение начала фонемы.

      Доступный в OS X v10.5 и позже.

    • kSpeechPhonemeInfoHiliteEnd

      kSpeechPhonemeInfoHiliteEnd

      Символьное смещение в слово в качестве примера, идентифицирующее расположение конца фонемы.

      Доступный в OS X v10.5 и позже.

  • Ключи, используемые с kSpeechCurrentVoiceProperty свойство для указания информации о текущей речи.

    Объявление

    Swift

    var kSpeechVoiceCreator: Unmanaged<CFString>! var kSpeechVoiceID: Unmanaged<CFString>!

    Objective C

    CFStringRef kSpeechVoiceCreator = CFSTR("Creator"); CFStringRef kSpeechVoiceID = CFSTR("ID");

    Константы

    • kSpeechVoiceCreator

      kSpeechVoiceCreator

      Синтезатор, требующийся, чтобы использовать речь.

      Доступный в OS X v10.5 и позже.

    • kSpeechVoiceID

      kSpeechVoiceID

      Речевой ID речи для синтезатора (каждая речь на синтезаторе имеет уникальный идентификатор).

      Доступный в OS X v10.5 и позже.

  • Ключи, используемые с kSpeechCommandDelimiterProperty свойство для указания информации о строках разделителя команды.

    Объявление

    Swift

    var kSpeechCommandPrefix: Unmanaged<CFString>! var kSpeechCommandSuffix: Unmanaged<CFString>!

    Objective C

    CFStringRef kSpeechCommandPrefix = CFSTR("Prefix"); CFStringRef kSpeechCommandSuffix = CFSTR("Suffix");

    Константы

    • kSpeechCommandPrefix

      kSpeechCommandPrefix

      Разделитель команды представляет это в виде строки префиксы команда (по умолчанию, это “[[”). Строка должна содержать два или меньше символов, которые, для лучшей совместимости, должны быть символами ASCII.

      Доступный в OS X v10.5 и позже.

    • kSpeechCommandSuffix

      kSpeechCommandSuffix

      Разделитель команды представляет это в виде строки суффиксы команда (по умолчанию, это “]]”). Строка должна содержать два или меньше символов, которые, для лучшей совместимости, должны быть символами ASCII.

      Доступный в OS X v10.5 и позже.

    Доступность

    Доступный в OS X v10.5 и позже.

  • Ключи, используемые в речевом словаре для переопределения произношения синтезатора по умолчанию слова.

    Объявление

    Swift

    var kSpeechDictionaryLocaleIdentifier: Unmanaged<CFString>! var kSpeechDictionaryModificationDate: Unmanaged<CFString>! var kSpeechDictionaryPronunciations: Unmanaged<CFString>! var kSpeechDictionaryAbbreviations: Unmanaged<CFString>! var kSpeechDictionaryEntrySpelling: Unmanaged<CFString>! var kSpeechDictionaryEntryPhonemes: Unmanaged<CFString>!

    Objective C

    CFStringRef kSpeechDictionaryLocaleIdentifier = CFSTR("LocaleIdentifier"); CFStringRef kSpeechDictionaryModificationDate = CFSTR("ModificationDate"); CFStringRef kSpeechDictionaryPronunciations = CFSTR("Pronunciations"); CFStringRef kSpeechDictionaryAbbreviations = CFSTR("Abbreviations"); CFStringRef kSpeechDictionaryEntrySpelling = CFSTR("Spelling"); CFStringRef kSpeechDictionaryEntryPhonemes = CFSTR("Phonemes");

    Константы

    • kSpeechDictionaryLocaleIdentifier

      kSpeechDictionaryLocaleIdentifier

      Локаль связалась с произношением.

      Доступный в OS X v10.5 и позже.

    • kSpeechDictionaryModificationDate

      kSpeechDictionaryModificationDate

      Дата словарь была в последний раз изменена.

      Доступный в OS X v10.5 и позже.

    • kSpeechDictionaryPronunciations

      kSpeechDictionaryPronunciations

      Набор пользовательского произношения.

      Доступный в OS X v10.5 и позже.

    • kSpeechDictionaryAbbreviations

      kSpeechDictionaryAbbreviations

      Набор пользовательского произношения для сокращений.

      Доступный в OS X v10.5 и позже.

    • kSpeechDictionaryEntrySpelling

      kSpeechDictionaryEntrySpelling

      Написание записи.

      Доступный в OS X v10.5 и позже.

    • kSpeechDictionaryEntryPhonemes

      kSpeechDictionaryEntryPhonemes

      Фонематическое представление записи.

      Доступный в OS X v10.5 и позже.

    Обсуждение

    Ключи в речевом словаре могут определить, как синтезатор произносит слово. После создания речевого словаря Вы регистрируете его в речевом канале с UseSpeechDictionary функция.

  • Когда ошибка происходит, указывает информацию о тексте, синтезируемом.

    Объявление

    Swift

    var kSpeechErrorCallbackSpokenString: Unmanaged<CFString>! var kSpeechErrorCallbackCharacterOffset: Unmanaged<CFString>!

    Objective C

    CFStringRef kSpeechErrorCallbackSpokenString = CFSTR("SpokenString"); CFStringRef kSpeechErrorCallbackCharacterOffset = CFSTR("CharacterOffset");

    Константы

    • kSpeechErrorCallbackSpokenString

      kSpeechErrorCallbackSpokenString

      Текст, синтезируемый, когда произошла ошибка.

      Доступный в OS X v10.5 и позже.

    • kSpeechErrorCallbackCharacterOffset

      kSpeechErrorCallbackCharacterOffset

      Индекс символа в тексте, синтезируемом, когда ошибка произошла (строка, представляющая текст, находится в kSpeechErrorCallbackSpokenString).

      Доступный в OS X v10.5 и позже.

Коды результата

Наиболее распространенные коды результата, возвращенные менеджером по Синтезу речи, упоминаются ниже.

  • Не удалось найти указанный синтезатор речи

    Значение

    - 240

    Описание

    Не удалось найти указанный синтезатор речи

    Доступный в OS X v10.0 и позже.

  • Не удалось открыть другой канал синтезатора речи

    Значение

    - 241

    Описание

    Не удалось открыть другой канал синтезатора речи

    Доступный в OS X v10.0 и позже.

  • Синтезатор речи все еще занят, говоря

    Значение

    - 242

    Описание

    Синтезатор речи все еще занят, говоря

    Доступный в OS X v10.0 и позже.

  • Буфер вывода является слишком небольшим для содержания результата

    Значение

    - 243

    Описание

    Буфер вывода является слишком небольшим для содержания результата

    Доступный в OS X v10.0 и позже.

  • Речевой ресурс, не найденный

    Значение

    - 244

    Описание

    Речевой ресурс, не найденный

    Доступный в OS X v10.0 и позже.

  • Указанная речь не может использоваться с синтезатором

    Значение

    - 245

    Описание

    Указанная речь не может использоваться с синтезатором

    Доступный в OS X v10.0 и позже.

  • Ошибка формата словаря произношения

    Значение

    - 246

    Описание

    Ошибка формата словаря произношения

    Доступный в OS X v10.0 и позже.

  • Необработанный текст фонемы содержит недопустимые символы

    Значение

    - 247

    Описание

    Необработанный текст фонемы содержит недопустимые символы

    Доступный в OS X v10.0 и позже.

Константы гештальта

Можно проверить на версию и информацию о доступности функции при помощи менеджера по Синтезу речи селекторы, определенные в менеджере по Гештальту. Для получения дополнительной информации посмотрите Внутренний OS X: менеджер по Гештальту Ссылка.