Spec-Zone .ru
спецификации, руководства, описания, API

Библиотека разработчика Mac

Разработчик

Ссылка платформы AppKit ссылка класса NSSpeechSynthesizer

Опции
Развертывание Target:

На этой странице
Язык:

NSSpeechSynthesizer

NSSpeechSynthesizer класс является интерфейсом Cocoa к Синтезу речи на OS X. Экземпляры этого класса вызывают синтезаторами речи.

Синтез речи, также названный синтезом речи по тексту (TTS), анализирует текст и преобразовывает его в слышимую речь. Это предлагает параллельный режим обратной связи, который может использоваться совместно с или вместо традиционных визуальных и слуховых уведомлений. Например, Ваше приложение может использовать NSSpeechSynthesizer объект «объявить» текст важных предупредительных диалоговых окон. Синтезированная речь имеет несколько преимуществ. Это может предоставить срочную информацию пользователям, не вынуждая их сместить внимание от их текущей задачи. И потому что речь не полагается на визуальные элементы для значения, это - решающая технология для пользователей с ограниченными возможностями внимания или видением.

Кроме того, синтезированная речь может помочь сохранить системные ресурсы. Поскольку звуковые выборки могут привести большие суммы в рабочее состояние комнаты на диске, использование текста вместо выбранного звука чрезвычайно эффективно, и таким образом, мультимедийное приложение могло бы использовать NSSpeechSynthesizer объект обеспечить повествование фильма в формате QuickTime вместо того, чтобы включить данные выбранного звука на дорожке фильма.

Когда Вы создаете NSSpeechSynthesizer экземпляр с помощью инициализатора по умолчанию (init), класс использует речь по умолчанию, выбранную в Установках системы> Речь. Также можно выбрать определенную речь для NSSpeechSynthesizer экземпляр путем инициализации его с initWithVoice:. Для начала синтеза отправьте также startSpeakingString: или startSpeakingString:toURL: к экземпляру. Прежний генерирует речь через устройство звукового вывода системы по умолчанию; последний сохраняет сгенерированную речь в файле. Если Вы хотите быть уведомленными, когда текущая речь заканчивается, установите delegate свойство и реализация метод делегата speechSynthesizer:didFinishSpeaking:.

Синтез речи является только одной из речевых технологий OS X. Технология Устройства распознавания речи позволяет приложениям «слушать» текст, на котором говорят на английском языке США; NSSpeechRecognizer класс является интерфейсом Cocoa к этой технологии. Обе технологии предоставляют преимущества для всех пользователей и особенно полезны для тех пользователей, испытывающих затруднения при наблюдении экрана или использовании мыши и клавиатуры.

Речевое окно обратной связи

Речевое окно обратной связи (рисунок 1) выводит на экран текст, распознанный от речи пользователя и текста от который NSSpeechSynthesizer объект синтезирует речь. Используя обратную связь окно делает разговорный обмен более естественным и помогает пользователю понять синтезированную речь.

Окно обратной связи рисунка 1Speech image: ../Art/speech_feedback_window.gif

Например, Ваше приложение может использовать NSSpeechRecognizer объект прислушаться к команде «Play some music». Когда это распознает эту команду, Ваше приложение могло бы тогда ответить путем разговора “Который художник?” использование синтезатора речи.

Когда UsesFeedbackWindow YEStrue, синтезатор речи использует окно обратной связи, если ее видимое, которое пользователь указывает в Установках системы> Речь.

Наследование


Соответствует


Оператор импорта


Swift

import AppKit

Objective C

@import AppKit;

Доступность


Доступный в OS X v10.3 и позже.
  • Инициализирует получатель с речью.

    Объявление

    Swift

    init!(voice voiceIdentifier: String?)

    Objective C

    - (instancetype)initWithVoice:(NSString *)voiceIdentifier

    Параметры

    voiceIdentifier

    Идентификатор речи для установки как текущая речь. Когда nil, речь по умолчанию используется. Передача определенной речью означает, что начальный говорящий курс установлен говорящим уровнем синтезатора по умолчанию; передача nil означает, что говорящий уровень автоматически установлен в уровень, который пользователь указывает в Речевых предпочтениях.

    Возвращаемое значение

    Инициализированный синтезатор речи или nil когда речь, идентифицированная voiceIdentifier когда существует ошибка выделения, не доступно или.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.3 и позже.

    См. также

    + availableVoices

  • Указывает, использует ли получатель речевое окно обратной связи.

    Объявление

    Swift

    var usesFeedbackWindow: Bool

    Objective C

    @property BOOL usesFeedbackWindow

    Обсуждение

    YEStrue когда получатель использует речевое окно обратной связи, NOfalse иначе.

    См. описание класса для подробных данных о UsesFeedbackWindow атрибут.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.3 и позже.

    См. также

    – usesFeedbackWindow

  • Возвращает идентификатор текущей речи получателя.

    Объявление

    Swift

    func voice() -> String?

    Objective C

    - (NSString *)voice

    Возвращаемое значение

    Идентификатор текущей речи получателя.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.3 и позже.

    См. также

    – setVoice:

  • Устанавливает текущую речь получателя.

    Объявление

    Swift

    func setVoice(_ voiceIdentifier: String?) -> Bool

    Objective C

    - (BOOL)setVoice:(NSString *)voiceIdentifier

    Параметры

    voiceIdentifier

    Идентификатор речи для установки в текущей речи получателя. Когда nil, получатель устанавливает речь по умолчанию как свою текущую речь.

    Возвращаемое значение

    YEStrue когда получатель в настоящее время не синтезирует речь, и текущая речь установлена успешно, NOfalse иначе.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.3 и позже.

    См. также

    – речь
    + defaultVoice

  • уровень уровень Свойство

    Говорящий уровень синтезатора (слова в минуту).

    Объявление

    Swift

    var rate: Float

    Objective C

    @property float rate

    Обсуждение

    Диапазон поддерживаемых уровней не предопределен платформой Синтеза речи; но синтезатор может только реагировать на ограниченный диапазон речевых уровней. Средняя человеческая речь происходит на уровне 180 - 220 слов в минуту.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.5 и позже.

  • объем объем Свойство

    Говорящий объем синтезатора.

    Объявление

    Swift

    var volume: Float

    Objective C

    @property float volume

    Обсуждение

    Объемы выражены в модулях с плавающей точкой в пределах от 0,0 до 1,0. Значение 0,0 соответствует тишине, и значение 1,0 соответствует максимальному возможному объему. Единицы объема лежат на масштабе, который линеен с амплитудой или напряжением. Удвоение воспринятой громкости соответствует удвоению объема. Установка значения вне этого диапазона не определена.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.5 и позже.

  • Регистрирует данный речевой словарь в получателе.

    Объявление

    Swift

    func addSpeechDictionary(_ speechDictionary: [NSObject : AnyObject])

    Objective C

    - (void)addSpeechDictionary:(NSDictionary *)speechDictionary

    Параметры

    speechDictionary

    Речевой словарь для добавления к словарям получателя. Пары ключ/значение перечислены в Речевых Свойствах Словаря.

    Обсуждение

    Посмотрите обсуждение UseSpeechDictionary в менеджере по Синтезу речи Референсе для получения дополнительной информации.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.5 и позже.

  • Обеспечивает значение свойства получателя.

    Объявление

    Swift

    func objectForProperty(_ speechProperty: String, error out_error: NSErrorPointer) -> AnyObject?

    Objective C

    - (id)objectForProperty:(NSString *)speechProperty error:(NSError **)out_error

    Параметры

    speechProperty

    Свойство для получения.

    out_error

    На выводе, ошибка, произошедшая при получении значения speechProperty.

    Возвращаемое значение

    Значение speechProperty.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.5 и позже.

  • Указывает значение свойства получателя.

    Объявление

    Swift

    func setObject(_ object: AnyObject?, forProperty property: String, error outError: NSErrorPointer) -> Bool

    Objective C

    - (BOOL)setObject:(id)object forProperty:(NSString *)property error:(NSError **)outError

    Параметры

    speechProperty

    Свойство для установки. Поддерживаемые свойства перечислены в Ключах Словаря NSSpeechStatusProperty.

    out_error

    На выводе, ошибка, произошедшая при установке speechProperty.

    Возвращаемое значение

    YEStrue когда speechProperty был установлен. NOfalse когда была ошибка, указанная в out_error.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.5 и позже.

  • делегат делегат Свойство

    Делегат синтезатора.

    Объявление

    Swift

    unowned(unsafe) var delegate: NSSpeechSynthesizerDelegate?

    Objective C

    @property(assign) id< NSSpeechSynthesizerDelegate > delegate

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.3 и позже.

  • Обеспечивает идентификаторы речи, доступной в системе.

    Объявление

    Swift

    class func availableVoices() -> [AnyObject]?

    Objective C

    + (NSArray *)availableVoices

    Возвращаемое значение

    Массив строк, представляющих идентификаторы каждой речи, доступной в системе.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.3 и позже.

  • Обеспечивает словарь атрибута речи.

    Объявление

    Swift

    class func attributesForVoice(_ voiceIdentifier: String) -> [NSObject : AnyObject]?

    Objective C

    + (NSDictionary *)attributesForVoice:(NSString *)voiceIdentifier

    Параметры

    voiceIdentifier

    Идентификатор речи, атрибуты которой Вы хотите получить.

    Возвращаемое значение

    Словарь атрибута речи, идентифицированной voiceIdentifier. Ключи атрибутов и типы значения перечислены в Речевых Атрибутах

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.3 и позже.

  • Обеспечивает идентификатор речи по умолчанию.

    Объявление

    Swift

    class func defaultVoice() -> String!

    Objective C

    + (NSString *)defaultVoice

    Возвращаемое значение

    Идентификатор речи по умолчанию.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.3 и позже.

  • Указывает, говорит ли какое-либо приложение в настоящее время через устройство звукового вывода.

    Объявление

    Swift

    class func isAnyApplicationSpeaking() -> Bool

    Objective C

    + (BOOL)isAnyApplicationSpeaking

    Возвращаемое значение

    YEStrue когда другое приложение производит речь через устройство звукового вывода, NOfalse иначе.

    Обсуждение

    Вы обычно вызываете этот метод, чтобы препятствовать тому, чтобы Ваше приложение говорило по речи, сгенерированной другим приложением или системным компонентом.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.3 и позже.

  • Указывает, генерирует ли получатель в настоящее время синтезированную речь.

    Объявление

    Swift

    var speaking: Bool { get }

    Objective C

    @property(getter=isSpeaking, readonly) BOOL speaking

    Обсуждение

    YEStrue когда получатель генерирует синтезированную речь, NOfalse иначе.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.10 и позже.

  • Начинает говорить синтезируемый текст через устройство звукового вывода системы по умолчанию.

    Объявление

    Swift

    func startSpeakingString(_ text: String!) -> Bool

    Objective C

    - (BOOL)startSpeakingString:(NSString *)text

    Параметры

    text

    Текст для разговора. Когда nil или пустой, никакой синтез не происходит.

    Возвращаемое значение

    YEStrue когда разговор запускается успешно, NOfalse иначе.

    Обсуждение

    Если получатель в настоящее время говорит синтезированную речь когда startSpeakingString: вызывается, тот процесс останавливается прежде text говорится.

    Когда синтез text концы обычно или останавливаются, сообщение speechSynthesizer:didFinishSpeaking: отправляется делегату.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.3 и позже.

  • Начинает синтезировать текст в звук (AIFF) файл.

    Объявление

    Swift

    func startSpeakingString(_ text: String!, toURL url: NSURL!) -> Bool

    Objective C

    - (BOOL)startSpeakingString:(NSString *)text toURL:(NSURL *)url

    Параметры

    text

    Текст для разговора. Когда nil или пустой, никакой синтез не запускается.

    url

    Расположение файловой системы выходного звукового файла.

    Возвращаемое значение

    YEStrue когда синтез запускается успешно, NOfalse иначе.

    Обсуждение

    Когда синтез text концы обычно или останавливаются, сообщение speechSynthesizer:didFinishSpeaking: отправляется делегату.

    Один пример того, как Вы могли бы использовать этот метод, находится в почтовой программе, автоматически преобразовывающей новые сообщения в звуковые файлы, которые могут храниться на iPod для более позднего слушания.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.3 и позже.

  • Происходящий синтез пауз на данной границе.

    Объявление

    Swift

    func pauseSpeakingAtBoundary(_ boundary: NSSpeechBoundary)

    Objective C

    - (void)pauseSpeakingAtBoundary:(NSSpeechBoundary)boundary

    Параметры

    boundary

    Граница, на которой можно приостановить речь. Поддерживаемые связанные типы перечислены в NSSpeechBoundary.

    Обсуждение

    Передайте константу NSSpeechImmediateBoundary приостановиться сразу, даже посреди слова. Передача NSSpeechWordBoundary или NSSpeechSentenceBoundary к речи паузы в конце текущего слова или предложения, соответственно.

    Можно определить, приостановило ли приложение речевой вывод синтезатора путем получения NSSpeechStatusProperty свойство через objectForProperty:error: метод. В то время как синтезатор приостанавливается, речевая информация о статусе указывает это NSSpeechStatusOutputBusy и NSSpeechStatusOutputPaused оба YEStrue.

    Если конец строки, на которой говорят, достигнут перед указанной точкой паузы, паузами речевого вывода в конце строки.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.5 и позже.

    См. также

    – continueSpeaking

  • Синтез резюме.

    Объявление

    Swift

    func continueSpeaking()

    Objective C

    - (void)continueSpeaking

    Обсуждение

    В любое время после pauseSpeakingAtBoundary: вызывается, continueSpeaking может быть вызван, чтобы продолжать говорить с начала слова, в котором приостановилась речь.

    Отправка continueSpeaking к получателю, который в настоящее время не находится в приостановленном состоянии, не имеет никакого эффекта на синтезатор или на будущие вызовы к pauseSpeakingAtBoundary: функция. Если Вы вызываете continueSpeaking на синтезаторе, прежде чем пауза является эффективной, continueSpeaking отменяет паузу.

    Если pauseSpeakingAtBoundary: метод остановил речь посреди слова, синтезатор начнет произносить то слово с начала, когда Вы вызовете continueSpeaking.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.5 и позже.

  • Происходящий синтез остановок.

    Объявление

    Swift

    func stopSpeaking()

    Objective C

    - (void)stopSpeaking

    Обсуждение

    Если получатель в настоящее время генерирует речь, синтез останавливается, и сообщение speechSynthesizer:didFinishSpeaking: отправляется делегату.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.3 и позже.

  • Происходящий синтез остановок на данной границе.

    Объявление

    Swift

    func stopSpeakingAtBoundary(_ boundary: NSSpeechBoundary)

    Objective C

    - (void)stopSpeakingAtBoundary:(NSSpeechBoundary)boundary

    Параметры

    boundary

    Граница, на которой можно остановить речь. Поддерживаемые связанные типы перечислены в NSSpeechBoundary.

    Обсуждение

    Передайте константу NSSpeechImmediateBoundary остановиться сразу, даже посреди слова. Передача NSSpeechWordBoundary или NSSpeechSentenceBoundary остановить речь в конце текущего слова или предложения, соответственно.

    Если конец строки, на которой говорят, достигнут перед указанной точкой остановки, остановками синтезатора в конце строки, не генерируя ошибку.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.5 и позже.

  • Обеспечивает символы фонемы, сгенерированные данным текстом.

    Объявление

    Swift

    func phonemesFromText(_ text: String) -> String!

    Objective C

    - (NSString *)phonemesFromText:(NSString *)text

    Параметры

    text

    Текст, из которого можно генерировать фонемы.

    Возвращаемое значение

    Фонемы сгенерированы из текста.

    Обсуждение

    Преобразование текстовых данных в фонетические данные особенно полезно во время разработки приложений, когда Вы могли бы хотеть скорректировать фразы, которые Ваше приложение генерирует для создания более гладкой речи. Первым преобразованием целевой фразы в фонемы Вы видите то, что синтезатор попытается говорить. Тогда Вы должны исправить только роли, которые не игрались бы путем, Вы хотите

    Строка, возвращенная phonemesFromText: соответствует точно фонемам, на которых говорили бы, имел входной текст, отправленный в startSpeakingString: вместо этого. Все текущие настройки свойства для синтезатора применяются к преобразованной речи.

    Никакие методы делегата не вызывают в то время как phonemesFromText: метод генерирует свой вывод.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.5 и позже.

  • Следующие константы являются ключами для словаря, возвращенного attributesForVoice:.

    Объявление

    Swift

    let NSVoiceIdentifier: NSString! let NSVoiceName: NSString! let NSVoiceAge: NSString! let NSVoiceGender: NSString! let NSVoiceDemoText: NSString! let NSVoiceLocaleIdentifier: NSString! let NSVoiceSupportedCharacters: NSString! let NSVoiceIndividuallySpokenCharacters: NSString!

    Objective C

    NSString *const NSVoiceIdentifier; NSString *const NSVoiceName; NSString *const NSVoiceAge; NSString *const NSVoiceGender; NSString *const NSVoiceDemoText; NSString *const NSVoiceLanguage; NSString *const NSVoiceLocaleIdentifier; NSString *const NSVoiceSupportedCharacters; NSString *const NSVoiceIndividuallySpokenCharacters;

    Константы

    • NSVoiceIdentifier

      NSVoiceIdentifier

      Уникальная строка, идентифицирующая речь. Идентификаторы системной речи перечислены в Перечислении 1.

      Доступный в OS X v10.3 и позже.

    • NSVoiceName

      NSVoiceName

      Имя речи, подходящей для дисплея. NSString.

      Доступный в OS X v10.3 и позже.

    • NSVoiceAge

      NSVoiceAge

      Воспринятый возраст (в годах) речи. NSString

      Доступный в OS X v10.3 и позже.

    • NSVoiceGender

      NSVoiceGender

      Воспринятый род речи. Поддерживаемые значения перечислены в Речевых Родах. NSString

      Доступный в OS X v10.3 и позже.

    • NSVoiceDemoText

      NSVoiceDemoText

      Демонстрационная строка для разговора. NSString

      Доступный в OS X v10.3 и позже.

    • NSVoiceLanguage

      NSVoiceLanguage

      Язык речи (в настоящее время только английский язык США). NSString

      Осуждаемый: использовать NSVoiceLocaleIdentifier вместо этого.

      Доступный в OS X v10.0 и позже.

      Осуждаемый в OS X v10.5.

    • NSVoiceLocaleIdentifier

      NSVoiceLocaleIdentifier

      Язык речи. NSString

      Каноническая строка идентификатора локали, описывающая локаль речи. Локаль обычно составляется из трех частей упорядоченной информации: код языка, код области и различный код. Обратитесь к документации о NSLocale класс или Руководство по Интернационализации и Локализации для получения дополнительной информации.

      Доступный в OS X v10.5 и позже.

    • NSVoiceSupportedCharacters

      NSVoiceSupportedCharacters

      Список unicode символьных диапазонов ID, определяющих unicode символы, поддерживаемые этой речью. словарь, содержащий два ключа: «UnicodeCharBegin», целочисленное значение, содержащее начало unicode ID этого диапазона; и «UnicodeCharBegin», целочисленное значение, содержащее окончание unicode ID этого диапазона. Синтезатор преобразует или проигнорирует любые символы, не содержавшиеся в диапазоне поддерживаемых символов.

      Некоторая речь может не обеспечить этот атрибут.

      Доступный в OS X v10.5 и позже.

    • NSVoiceIndividuallySpokenCharacters

      NSVoiceIndividuallySpokenCharacters

      Список unicode символьных диапазонов ID, определяющих unicode символы, на которых может говорить в познаковом режиме эта речь. запись списка ach является словарем, содержащим два ключа: «UnicodeCharBegin», целочисленное значение, содержащее начало unicode ID этого диапазона; и «UnicodeCharBegin», целочисленное значение, содержащее окончание unicode ID этого диапазона.

      Эти диапазоны могут использоваться Вашим приложением, чтобы определить, может ли речь говорить имя отдельного символа, когда говорится в познаковом режиме.

      Некоторая речь может не обеспечить этот атрибут.

      Доступный в OS X v10.5 и позже.

    Обсуждение

    Перечисление 1 перечисляет идентификаторы системной речи (определенный в /System/Library/Speech/Voices):

    Перечисление 1Identifiers системной речи OS X
    • com.apple.speech.synthesis.voice.Agnes
    • com.apple.speech.synthesis.voice.Albert
    • com.apple.speech.synthesis.voice.Alex
    • com.apple.speech.synthesis.voice.BadNews
    • com.apple.speech.synthesis.voice.Bahh
    • com.apple.speech.synthesis.voice.Bells
    • com.apple.speech.synthesis.voice.Boing
    • com.apple.speech.synthesis.voice.Bruce
    • com.apple.speech.synthesis.voice.Bubbles
    • com.apple.speech.synthesis.voice.Cellos
    • com.apple.speech.synthesis.voice.Deranged
    • com.apple.speech.synthesis.voice.Fred
    • com.apple.speech.synthesis.voice.GoodNews
    • com.apple.speech.synthesis.voice.Hysterical
    • com.apple.speech.synthesis.voice.Junior
    • com.apple.speech.synthesis.voice.Kathy
    • com.apple.speech.synthesis.voice.Organ
    • com.apple.speech.synthesis.voice.Princess
    • com.apple.speech.synthesis.voice.Ralph
    • com.apple.speech.synthesis.voice.Trinoids
    • com.apple.speech.synthesis.voice.Vicki
    • com.apple.speech.synthesis.voice.Victoria
    • com.apple.speech.synthesis.voice.Whisper
    • com.apple.speech.synthesis.voice.Zarvox
  • Следующие константы определяют речевые атрибуты рода, которые являются допустимыми значениями NSVoiceGender ключ, возвращенный attributesForVoice:.

    Объявление

    Swift

    let NSVoiceGenderNeuter: NSString! let NSVoiceGenderMale: NSString! let NSVoiceGenderFemale: NSString!

    Objective C

    NSString *const NSVoiceGenderNeuter; NSString *const NSVoiceGenderMale; NSString *const NSVoiceGenderFemale;

    Константы

    • NSVoiceGenderNeuter

      NSVoiceGenderNeuter

      Нейтральная речь (или речь новинки с юмористическим или причудливым качеством).

      Доступный в OS X v10.3 и позже.

    • NSVoiceGenderMale

      NSVoiceGenderMale

      Мужской голос

      Доступный в OS X v10.3 и позже.

    • NSVoiceGenderFemale

      NSVoiceGenderFemale

      Розеточная речь

      Доступный в OS X v10.3 и позже.

  • Эти константы используются с setObject:forProperty:error: и objectForProperty:error: получить или установить характеристики синтезатора.

    Объявление

    Swift

    let NSSpeechStatusProperty: NSString! let NSSpeechErrorsProperty: NSString! let NSSpeechInputModeProperty: NSString! let NSSpeechCharacterModeProperty: NSString! let NSSpeechNumberModeProperty: NSString! let NSSpeechRateProperty: NSString! let NSSpeechPitchBaseProperty: NSString! let NSSpeechPitchModProperty: NSString! let NSSpeechVolumeProperty: NSString! let NSSpeechSynthesizerInfoProperty: NSString! let NSSpeechRecentSyncProperty: NSString! let NSSpeechPhonemeSymbolsProperty: NSString! let NSSpeechCurrentVoiceProperty: NSString! let NSSpeechCommandDelimiterProperty: NSString! let NSSpeechResetProperty: NSString! let NSSpeechOutputToFileURLProperty: NSString!

    Objective C

    NSString *const NSSpeechStatusProperty; NSString *const NSSpeechErrorsProperty; NSString *const NSSpeechInputModeProperty; NSString *const NSSpeechCharacterModeProperty; NSString *const NSSpeechNumberModeProperty; NSString *const NSSpeechRateProperty; NSString *const NSSpeechPitchBaseProperty; NSString *const NSSpeechPitchModProperty; NSString *const NSSpeechVolumeProperty; NSString *const NSSpeechSynthesizerInfoProperty; NSString *const NSSpeechRecentSyncProperty; NSString *const NSSpeechPhonemeSymbolsProperty; NSString *const NSSpeechCurrentVoiceProperty; NSString *const NSSpeechCommandDelimiterProperty; NSString *const NSSpeechResetProperty; NSString *const NSSpeechOutputToFileURLProperty;

    Константы

    • NSSpeechStatusProperty

      NSSpeechStatusProperty

      Получите речевую информацию о статусе для синтезатора. NSDictionary это содержит речевую информацию о статусе для синтезатора. Посмотрите Ключи Словаря NSSpeechStatusProperty для описания ключевого настоящего в словаре.

      Это свойство используется с setObject:forProperty:error:.

      Доступный в OS X v10.5 и позже.

    • NSSpeechErrorsProperty

      NSSpeechErrorsProperty

      Получите информацию речевой ошибки для синтезатора. NSDictionary объект, содержащий информацию о речевой ошибке. Посмотрите Ключи Словаря NSSpeechErrorProperty для описания ключевого настоящего в словаре.

      Это свойство позволяет Вам получить информацию о различных ошибках периода выполнения, происходящих во время разговора, такого как обнаружение плохо сформированных встроенных команд. Об ошибках, возвращенных непосредственно менеджером по Синтезу речи, не сообщают здесь.

      Если Ваше приложение реализует speechSynthesizer:didEncounterErrorAtIndex:ofString:message: делегируйте сообщение, сообщение делегата может использовать это свойство для получения ошибочной информации.

      Это свойство используется с setObject:forProperty:error:.

      Доступный в OS X v10.5 и позже.

    • NSSpeechInputModeProperty

      NSSpeechInputModeProperty

      Получите или установите текущий относящийся к обработке текстов режим синтезатора. NSString объект, указывающий, является ли канал в настоящее время в режиме ввода фонемы или режиме ввода текста. Поддерживаемые значения перечислены в Разговоре Режимов для NSSpeechInputModeProperty.

      Когда в обрабатывающем фонему режиме, текстовая строка интерпретируется, чтобы быть серией символов, представляющих различные фонемы и просодические средства управления. Некоторые синтезаторы могли бы поддерживать дополнительные обрабатывающие ввод режимы и определить константы для этих режимов.

      Это свойство используется с setObject:forProperty:error: и objectForProperty:error:.

      Доступный в OS X v10.5 и позже.

    • NSSpeechCharacterModeProperty

      NSSpeechCharacterModeProperty

      Получите или установите текущий относящийся к обработке текстов режим синтезатора. NSString объект, указывающий, является ли канал в настоящее время в режиме ввода фонемы или режиме ввода текста. Поддерживаемые значения перечислены в Разговоре Режимов для NSSpeechInputModeProperty.

      Когда обрабатывающий символ режим NSSpeechModeNormal, на вводимых символах говорят, поскольку Вы ожидали бы слышать их. Когда режим NSSpeechModeLiteral, на каждом символе говорят буквально, так, чтобы было произнесено слово «кошка» “C–A–T”.

      Это свойство используется с setObject:forProperty:error: и objectForProperty:error:.

      Доступный в OS X v10.5 и позже.

    • NSSpeechNumberModeProperty

      NSSpeechNumberModeProperty

      Получите или установите текущий обрабатывающий число режим синтезатора. NSString объект, указывающий, является ли синтезатор в настоящее время в нормальном или литеральном обрабатывающем число режиме. Константы NSSpeechModeNormal и NSSpeechModeLiteral возможные значения этой строки.

      Когда обрабатывающий число режим NSSpeechModeNormal, синтезатор собирает цифры в числа (так, чтобы «12» говорился как «двенадцать»). Когда режим NSSpeechModeLiteral, на каждой цифре говорят буквально (так, чтобы «12» говорился как “один, два”).

      Это свойство используется с setObject:forProperty:error: и objectForProperty:error:.

      Доступный в OS X v10.5 и позже.

    • NSSpeechRateProperty

      NSSpeechRateProperty

      Получите или установите речевой уровень синтезатора. Объект NSNumber, указывающий говорящий уровень синтезатора.

      Диапазон поддерживаемых уровней не предопределен классом NSSpeechSynthesizer; каждый синтезатор речи обеспечивает свой собственный диапазон речевых уровней. Средняя человеческая речь происходит на уровне 180 - 220 слов в минуту.

      Это свойство используется с setObject:forProperty:error: и objectForProperty:error:.

      Доступный в OS X v10.5 и позже.

    • NSSpeechPitchBaseProperty

      NSSpeechPitchBaseProperty

      Получите или установите базовую речевую подачу синтезатора. NSNumberобъект, указывающий базовую речевую подачу.

      Типичные частоты речевого диапазона располагаются приблизительно от 90 герц для низкого мужского голоса к, возможно, 300 герц для речи высокого дочернего элемента. Эти частоты соответствуют приблизительным значениям подачи в диапазонах 30 000 - 40 000 и 55 000 - 65 000, соответственно.

      Это свойство используется с setObject:forProperty:error: и objectForProperty:error:.

      Доступный в OS X v10.5 и позже.

    • NSSpeechPitchModProperty

      NSSpeechPitchModProperty

      Получите или установите модуляцию подачи синтезатора. NSNumber объект, указывающий модуляцию подачи синтезатора.

      Модуляция подачи также выражена как значение с плавающей точкой в диапазоне 0.000 к 127 000. Эти значения соответствуют длительности нот MIDI, где 60.000 равно середине C в масштабе фортепьяно. Самая полезная речь передает падение диапазона 40 000 - 55 000. Значение модуляции подачи 0.000 соответствует монотонности, в которой вся речь сгенерирована в частоте, соответствующей речевой подаче. Учитывая речевое значение подачи 46 000, модуляция подачи 2 000 означала бы, что самый широкий диапазон передач, соответствующих фактической частоте сгенерированного текста, будет 44 000 - 48 000.

      Это свойство используется с setObject:forProperty:error: и objectForProperty:error:.

      Доступный в OS X v10.5 и позже.

    • NSSpeechVolumeProperty

      NSSpeechVolumeProperty

      Получите или установите динамический диапазон речевых сигналов для синтезатора. NSNumber это указывает динамический диапазон речевых сигналов синтезатора.

      Объемы выражены в значениях с плавающей точкой в пределах от 0,0 до 1,0. Значение 0,0 соответствует тишине, и значение 1,0 соответствует максимальному возможному объему. Единицы объема лежат на масштабе, который линеен с амплитудой или напряжением. Удвоение воспринятой громкости соответствует удвоению объема.

      Это свойство используется с setObject:forProperty:error: и objectForProperty:error:.

      Доступный в OS X v10.5 и позже.

    • NSSpeechSynthesizerInfoProperty

      NSSpeechSynthesizerInfoProperty

      Получите информацию о синтезаторе речи, используемом на указанном синтезаторе. NSDictionary объект, содержащий информацию о синтезаторе речи, используемом на указанном синтезаторе. Посмотрите Ключи Свойства Синтезатора речи для описания ключевого настоящего в словаре.

      Доступный в OS X v10.5 и позже.

    • NSSpeechRecentSyncProperty

      NSSpeechRecentSyncProperty

      Получите код сообщения для команды синхронизации, с которой последний раз встречаются. NSNumber объект, указывающий команду синхронизации, с которой последний раз встречаются.

      Это свойство работает с setObject:forProperty:error:.

      Доступный в OS X v10.5 и позже.

    • NSSpeechPhonemeSymbolsProperty

      NSSpeechPhonemeSymbolsProperty

      Получите список символов фонемы и слов в качестве примера, определенных для синтезатора. NSDictionary объект, содержащий символы фонемы и слова в качестве примера, определенные для текущего синтезатора

      Ваше приложение могло бы использовать эту информацию, чтобы показать пользователю что символы использовать при введении фонематического текста непосредственно. Посмотрите Ключи Словаря NSSpeechPhonemeSymbolsProperty для описания ключевого настоящего в словаре.

      Это свойство работает с setObject:forProperty:error:.

      Доступный в OS X v10.5 и позже.

    • NSSpeechCurrentVoiceProperty

      NSSpeechCurrentVoiceProperty

      Установите текущую речь на синтезаторе к указанной речи. NSDictionary объект, содержащий символы фонемы и слова в качестве примера, определенные для текущего синтезатора.

      Ваше приложение могло бы использовать эту информацию, чтобы показать пользователю что символы использовать при введении фонематического текста непосредственно. Посмотрите Ключи Словаря NSSpeechPhonemeSymbolsProperty для ключей, которые можно использовать для указания значений в этом словаре.

      Это свойство работает с setObject:forProperty:error:.

      Доступный в OS X v10.5 и позже.

    • NSSpeechCommandDelimiterProperty

      NSSpeechCommandDelimiterProperty

      Установите встроенные речевые символы-разделители команды, которые будут использоваться для синтезатора. NSDictionary объект, содержащий информацию о разделителе. См. “Ключи Разделителя Команды” для ключей, которые можно использовать для указания значений в этом словаре.

      По умолчанию вводный разделитель “[[” и заключительный разделитель “]]”. Ваше приложение, возможно, должно было бы изменить эти разделители временно, если те последовательности символов происходят естественно в текстовом буфере, на котором нужно говорить. Ваше приложение может также отключить встроенную обработку команды передающими пустыми разделителями (как пустые строки). Посмотрите Речевой Разделитель Команды для ключей, которые можно использовать для указания значений в этом словаре.

      Это свойство работает с setObject:forProperty:error:.

      Доступный в OS X v10.5 и позже.

    • NSSpeechResetProperty

      NSSpeechResetProperty

      Задержите синтезатор к его состоянию по умолчанию. Нет никакого значения, связанного с этим свойством; для сброса канала к его состоянию по умолчанию установите ключ к NULL.

      Можно использовать эту функцию для, например, подача заранее составленной речи и речевой уровень к значениям по умолчанию.

      Это свойство работает с setObject:forProperty:error:.

      Доступный в OS X v10.5 и позже.

    • NSSpeechOutputToFileURLProperty

      NSSpeechOutputToFileURLProperty

      Установите место назначения речевого вывода в файл или динамикам компьютера. NSURL объект. Для записи речевого вывода в файл используйте NSURL файла; для генерации звука через динамики компьютера использовать NULL.

      Это свойство работает с setObject:forProperty:error:.

      Доступный в OS X v10.5 и позже.

  • Эти константы идентифицируют режимы ввода, используются с NSSpeechInputModeProperty.

    Объявление

    Swift

    let NSSpeechModeText: NSString! let NSSpeechModePhoneme: NSString!

    Objective C

    NSString *const NSSpeechModeText; NSString *const NSSpeechModePhoneme;

    Константы

    • NSSpeechModeText

      NSSpeechModeText

      Указывает, что синтезатор находится в относящемся к обработке текстов режиме.

      Доступный в OS X v10.5 и позже.

    • NSSpeechModePhoneme

      NSSpeechModePhoneme

      Указывает, что синтезатор находится в обрабатывающем фонему режиме. Когда в обрабатывающем фонему режиме, текстовый буфер интерпретируется, чтобы быть серией символов, представляющих различные фонемы и просодические средства управления.

      Доступный в OS X v10.5 и позже.

  • Эти константы определяют доступные относящиеся к обработке текстов и обрабатывающие число режимы для синтезатора. Эти ключи используются с NSSpeechInputModeProperty и NSSpeechNumberModeProperty)

    Объявление

    Swift

    let NSSpeechModeNormal: NSString! let NSSpeechModeLiteral: NSString!

    Objective C

    NSString *const NSSpeechModeNormal; NSString *const NSSpeechModeLiteral;

    Константы

    • NSSpeechModeNormal

      NSSpeechModeNormal

      Указывает, что синтезатор собирает цифры в числа (так, чтобы 12 говорился как «двенадцать»), и текст в слова.

      Доступный в OS X v10.5 и позже.

    • NSSpeechModeLiteral

      NSSpeechModeLiteral

      Указывает, что на каждой цифре или символе говорят буквально (так, чтобы 12 говорился как «один, два», или слово «кошка» произнесено как «C T»).

      Доступный в OS X v10.5 и позже.

  • Эти константы идентифицируют речевые ключи состояния, используемые с NSSpeechStatusProperty.

    Объявление

    Swift

    let NSSpeechStatusOutputBusy: NSString! let NSSpeechStatusOutputPaused: NSString! let NSSpeechStatusNumberOfCharactersLeft: NSString! let NSSpeechStatusPhonemeCode: NSString!

    Objective C

    NSString *const NSSpeechStatusOutputBusy; NSString *const NSSpeechStatusOutputPaused; NSString *const NSSpeechStatusNumberOfCharactersLeft; NSString *const NSSpeechStatusPhonemeCode;

    Константы

    • NSSpeechStatusOutputBusy

      NSSpeechStatusOutputBusy

      Указывает, производит ли синтезатор в настоящее время речь.

      Когда никакие аудиоданные не производятся через динамик компьютера, синтезатор считается, производя речь даже в несколько раз. Это происходит, например, когда синтезатор обрабатывает ввод, но еще не инициировал речь или когда приостанавливается речевой вывод.

      Доступный в OS X v10.5 и позже.

    • NSSpeechStatusOutputPaused

      NSSpeechStatusOutputPaused

      Указывает, был ли речевой вывод в синтезаторе приостановлен путем отправки сообщения pauseSpeakingAtBoundary:.

      Доступный в OS X v10.5 и позже.

    • NSSpeechStatusNumberOfCharactersLeft

      NSSpeechStatusNumberOfCharactersLeft

      Число символов уехало во входной строке текста.

      Когда значение этого ключа является нулем, можно уничтожить входную строку.

      Доступный в OS X v10.5 и позже.

    • NSSpeechStatusPhonemeCode

      NSSpeechStatusPhonemeCode

      Указывает, что синтезатор находится в обрабатывающем фонему режиме. Когда в обрабатывающем фонему режиме, текстовый буфер интерпретируется, чтобы быть серией символов, представляющих различные фонемы и просодические средства управления.

      Доступный в OS X v10.5 и позже.

  • Эти ключевые константы идентифицируют ошибки, которые могут произойти во время синтеза речи. Они используются с NSSpeechErrorsProperty.

    Объявление

    Swift

    let NSSpeechErrorCount: NSString! let NSSpeechErrorOldestCode: NSString! let NSSpeechErrorOldestCharacterOffset: NSString! let NSSpeechErrorNewestCode: NSString! let NSSpeechErrorNewestCharacterOffset: NSString!

    Objective C

    NSString *const NSSpeechErrorCount; NSString *const NSSpeechErrorOldestCode; NSString *const NSSpeechErrorOldestCharacterOffset; NSString *const NSSpeechErrorNewestCode; NSString *const NSSpeechErrorNewestCharacterOffset;

    Константы

    • NSSpeechErrorCount

      NSSpeechErrorCount

      Число ошибок, произошедших в обработке строки текущего текста, начиная с последней возможности к objectForProperty:error: с NSSpeechErrorsProperty свойство. NSNumber

      Используя NSSpeechErrorOldestCode ключи и NSSpeechErrorNewestCode ключи, можно получить информацию о самых старых и новых ошибках, произошедших начиная с последней возможности с objectForProperty:error:, но Вы не можете получить информацию ни о каких прошедших ошибках.

      Доступный в OS X v10.5 и позже.

    • NSSpeechErrorOldestCode

      NSSpeechErrorOldestCode

      Код ошибки первой ошибки, произошедшей начиная с последней возможности с objectForProperty:error: с NSSpeechErrorsProperty свойство. NSNumber

      Доступный в OS X v10.5 и позже.

    • NSSpeechErrorOldestCharacterOffset

      NSSpeechErrorOldestCharacterOffset

      Позиция в текстовой строке первой ошибки, произошедшей начиная с последней возможности с objectForProperty:error: с NSSpeechErrorsProperty свойство. NSNumber

      Доступный в OS X v10.5 и позже.

    • NSSpeechErrorNewestCode

      NSSpeechErrorNewestCode

      Код ошибки новой ошибки, произошедшей начиная с последней возможности с objectForProperty:error: с NSSpeechErrorsProperty свойство. NSNumber

      Доступный в OS X v10.5 и позже.

    • NSSpeechErrorNewestCharacterOffset

      NSSpeechErrorNewestCharacterOffset

      Позиция в текстовой строке новой ошибки, произошедшей начиная с последней возможности с objectForProperty:error: с NSSpeechErrorsProperty свойство. NSNumber.

      Доступный в OS X v10.5 и позже.

  • Эти константы являются ключами, используемыми в словаре NSSpeechSynthesizerInfoProperty.

    Объявление

    Swift

    let NSSpeechSynthesizerInfoIdentifier: NSString! let NSSpeechSynthesizerInfoVersion: NSString!

    Objective C

    NSString *const NSSpeechSynthesizerInfoIdentifier; NSString *const NSSpeechSynthesizerInfoVersion;

    Константы

    • NSSpeechSynthesizerInfoIdentifier

      NSSpeechSynthesizerInfoIdentifier

      Идентификатор синтезатора речи.

      Доступный в OS X v10.5 и позже.

    • NSSpeechSynthesizerInfoVersion

      NSSpeechSynthesizerInfoVersion

      Версия синтезатора речи.

      Доступный в OS X v10.5 и позже.

  • Эти константы являются ключами, используемыми в словаре NSSpeechPhonemeSymbolsProperty.

    Объявление

    Swift

    let NSSpeechPhonemeInfoOpcode: NSString! let NSSpeechPhonemeInfoSymbol: NSString! let NSSpeechPhonemeInfoExample: NSString! let NSSpeechPhonemeInfoHiliteStart: NSString! let NSSpeechPhonemeInfoHiliteEnd: NSString!

    Objective C

    NSString *const NSSpeechPhonemeInfoOpcode NSString *const NSSpeechPhonemeInfoSymbol; NSString *const NSSpeechPhonemeInfoExample; NSString *const NSSpeechPhonemeInfoHiliteStart; NSString *const NSSpeechPhonemeInfoHiliteEnd;

    Константы

    • NSSpeechPhonemeInfoOpcode

      NSSpeechPhonemeInfoOpcode

      NSNumber

      Доступный в OS X v10.5 и позже.

    • NSSpeechPhonemeInfoSymbol

      NSSpeechPhonemeInfoSymbol

      Символ раньше представлял фонему.

      Символ не обязательно имеет фонетическое соединение с фонемой, но мог бы просто быть абстрактным текстовым представлением ее.

      Доступный в OS X v10.5 и позже.

    • NSSpeechPhonemeInfoExample

      NSSpeechPhonemeInfoExample

      Слово в качестве примера, иллюстрирующее использование фонемы.

      Доступный в OS X v10.5 и позже.

    • NSSpeechPhonemeInfoHiliteStart

      NSSpeechPhonemeInfoHiliteStart

      Символьное смещение в слово в качестве примера, идентифицирующее расположение начала фонемы.

      Доступный в OS X v10.5 и позже.

    • NSSpeechPhonemeInfoHiliteEnd

      NSSpeechPhonemeInfoHiliteEnd

      Символьное смещение в слово в качестве примера, идентифицирующее расположение конца фонемы.

      Доступный в OS X v10.5 и позже.

  • Эти ключи разделителей речевой команды констант, используемые в NSSpeechCommandDelimiterProperty .

    Объявление

    Swift

    let NSSpeechCommandPrefix: NSString! let NSSpeechCommandSuffix: NSString!

    Objective C

    NSString *const NSSpeechCommandPrefix; NSString *const NSSpeechCommandSuffix;

    Константы

    • NSSpeechCommandPrefix

      NSSpeechCommandPrefix

      Разделитель команды представляет это в виде строки префиксы команда, по умолчанию, это [[.

      Доступный в OS X v10.5 и позже.

    • NSSpeechCommandSuffix

      NSSpeechCommandSuffix

      Разделитель команды представляет это в виде строки суффиксы команда, по умолчанию, это ]].

      Доступный в OS X v10.5 и позже.

  • Эти константы идентифицируют пары ключ/значение, используемые для добавления словаря к использованию словаря addSpeechDictionary:.

    Объявление

    Swift

    let NSSpeechDictionaryLocaleIdentifier: NSString! let NSSpeechDictionaryModificationDate: NSString! let NSSpeechDictionaryPronunciations: NSString! let NSSpeechDictionaryAbbreviations: NSString! let NSSpeechDictionaryEntrySpelling: NSString! let NSSpeechDictionaryEntryPhonemes: NSString!

    Objective C

    NSString *const NSSpeechDictionaryLocaleIdentifier; NSString *const NSSpeechDictionaryModificationDate; NSString *const NSSpeechDictionaryPronunciations; NSString *const NSSpeechDictionaryAbbreviations; NSString *const NSSpeechDictionaryEntrySpelling; NSString *const NSSpeechDictionaryEntryPhonemes;

    Константы

    • NSSpeechDictionaryLocaleIdentifier

      NSSpeechDictionaryLocaleIdentifier

      Каноническая строка идентификатора локали, описывающая локаль словаря. Локаль обычно составляется из трех частей упорядоченной информации: код языка, код области и различный код. Обратитесь к документации о NSLocale или Руководство по Интернационализации и Локализации для получения дополнительной информации

      Доступный в OS X v10.5 и позже.

    • NSSpeechDictionaryModificationDate

      NSSpeechDictionaryModificationDate

      Строковое представление даты последнего изменения словаря в международном формате (YYYY-MM-DD HH:MM:SS ±HHMM). Если то же слово появится через многократные словари, то тот из словаря с новой датой будет использоваться.

      Доступный в OS X v10.5 и позже.

    • NSSpeechDictionaryPronunciations

      NSSpeechDictionaryPronunciations

      Массив объектов словаря, содержащих ключи NSSpeechDictionaryEntrySpelling и NSSpeechDictionaryEntryPhonemes.

      Доступный в OS X v10.5 и позже.

    • NSSpeechDictionaryAbbreviations

      NSSpeechDictionaryAbbreviations

      Массив объектов словаря, содержащих ключи NSSpeechDictionaryEntrySpelling и NSSpeechDictionaryEntryPhonemes.

      Доступный в OS X v10.5 и позже.

    • NSSpeechDictionaryEntrySpelling

      NSSpeechDictionaryEntrySpelling

      Написание записи. NSString.

      Доступный в OS X v10.5 и позже.

    • NSSpeechDictionaryEntryPhonemes

      NSSpeechDictionaryEntryPhonemes

      Фонематическое представление записи. NSString.

      Доступный в OS X v10.5 и позже.

  • Эти константы используются для указания, где речь должна быть остановлена и приостановлена. Посмотрите pauseSpeakingAtBoundary: и stopSpeakingAtBoundary:.

    Объявление

    Swift

    enum NSSpeechBoundary : UInt { case ImmediateBoundary case WordBoundary case SentenceBoundary }

    Objective C

    enum { NSSpeechImmediateBoundary = 0, NSSpeechWordBoundary, NSSpeechSentenceBoundary }; typedef NSUInteger NSSpeechBoundary;

    Константы

    • ImmediateBoundary

      NSSpeechImmediateBoundary

      Речь должна быть приостановлена или сразу остановлена.

      Доступный в OS X v10.5 и позже.

    • WordBoundary

      NSSpeechWordBoundary

      Речь должна быть приостановлена или остановлена в конце слова.

      Доступный в OS X v10.5 и позже.

    • SentenceBoundary

      NSSpeechSentenceBoundary

      Речь должна быть приостановлена или остановлена в конце предложения.

      Доступный в OS X v10.5 и позже.

    Оператор импорта

    Objective C

    @import AppKit;

    Swift

    import AppKit

    Доступность

    Доступный в OS X v10.5 и позже.