NSSpeechSynthesizer
NSSpeechSynthesizer
класс является интерфейсом Cocoa к Синтезу речи на OS X. Экземпляры этого класса вызывают синтезаторами речи.
Синтез речи, также названный синтезом речи по тексту (TTS), анализирует текст и преобразовывает его в слышимую речь. Это предлагает параллельный режим обратной связи, который может использоваться совместно с или вместо традиционных визуальных и слуховых уведомлений. Например, Ваше приложение может использовать NSSpeechSynthesizer
объект «объявить» текст важных предупредительных диалоговых окон. Синтезированная речь имеет несколько преимуществ. Это может предоставить срочную информацию пользователям, не вынуждая их сместить внимание от их текущей задачи. И потому что речь не полагается на визуальные элементы для значения, это - решающая технология для пользователей с ограниченными возможностями внимания или видением.
Кроме того, синтезированная речь может помочь сохранить системные ресурсы. Поскольку звуковые выборки могут привести большие суммы в рабочее состояние комнаты на диске, использование текста вместо выбранного звука чрезвычайно эффективно, и таким образом, мультимедийное приложение могло бы использовать NSSpeechSynthesizer
объект обеспечить повествование фильма в формате QuickTime вместо того, чтобы включить данные выбранного звука на дорожке фильма.
Когда Вы создаете NSSpeechSynthesizer
экземпляр с помощью инициализатора по умолчанию (init
), класс использует речь по умолчанию, выбранную в Установках системы> Речь. Также можно выбрать определенную речь для NSSpeechSynthesizer
экземпляр путем инициализации его с initWithVoice:
. Для начала синтеза отправьте также startSpeakingString:
или startSpeakingString:toURL:
к экземпляру. Прежний генерирует речь через устройство звукового вывода системы по умолчанию; последний сохраняет сгенерированную речь в файле. Если Вы хотите быть уведомленными, когда текущая речь заканчивается, установите delegate
свойство и реализация метод делегата speechSynthesizer:didFinishSpeaking:
.
Синтез речи является только одной из речевых технологий OS X. Технология Устройства распознавания речи позволяет приложениям «слушать» текст, на котором говорят на английском языке США; NSSpeechRecognizer
класс является интерфейсом Cocoa к этой технологии. Обе технологии предоставляют преимущества для всех пользователей и особенно полезны для тех пользователей, испытывающих затруднения при наблюдении экрана или использовании мыши и клавиатуры.
Речевое окно обратной связи
Речевое окно обратной связи (рисунок 1) выводит на экран текст, распознанный от речи пользователя и текста от который NSSpeechSynthesizer
объект синтезирует речь. Используя обратную связь окно делает разговорный обмен более естественным и помогает пользователю понять синтезированную речь.
Например, Ваше приложение может использовать NSSpeechRecognizer
объект прислушаться к команде «Play some music». Когда это распознает эту команду, Ваше приложение могло бы тогда ответить путем разговора “Который художник?” использование синтезатора речи.
Когда UsesFeedbackWindow
YES
true
, синтезатор речи использует окно обратной связи, если ее видимое, которое пользователь указывает в Установках системы> Речь.
Оператор импорта
Swift
import AppKit
Objective C
@import AppKit;
Доступность
Доступный в OS X v10.3 и позже.
-
Инициализирует получатель с речью.
Объявление
Swift
init!(voice
voiceIdentifier
: String?)Objective C
- (instancetype)initWithVoice:(NSString *)
voiceIdentifier
Параметры
voiceIdentifier
Идентификатор речи для установки как текущая речь. Когда
nil
, речь по умолчанию используется. Передача определенной речью означает, что начальный говорящий курс установлен говорящим уровнем синтезатора по умолчанию; передачаnil
означает, что говорящий уровень автоматически установлен в уровень, который пользователь указывает в Речевых предпочтениях.Возвращаемое значение
Инициализированный синтезатор речи или
nil
когда речь, идентифицированнаяvoiceIdentifier
когда существует ошибка выделения, не доступно или.Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.3 и позже.
См. также
-
usesFeedbackWindow usesFeedbackWindow
СвойствоУказывает, использует ли получатель речевое окно обратной связи.
Объявление
Swift
var usesFeedbackWindow: Bool
Objective C
@property BOOL usesFeedbackWindow
Обсуждение
YES
true
когда получатель использует речевое окно обратной связи,NO
false
иначе.См. описание класса для подробных данных о
UsesFeedbackWindow
атрибут.Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.3 и позже.
См. также
-
Возвращает идентификатор текущей речи получателя.
Возвращаемое значение
Идентификатор текущей речи получателя.
Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.3 и позже.
См. также
-
Устанавливает текущую речь получателя.
Объявление
Swift
func setVoice(_
voiceIdentifier
: String?) -> BoolObjective C
- (BOOL)setVoice:(NSString *)
voiceIdentifier
Параметры
voiceIdentifier
Идентификатор речи для установки в текущей речи получателя. Когда
nil
, получатель устанавливает речь по умолчанию как свою текущую речь.Возвращаемое значение
YES
true
когда получатель в настоящее время не синтезирует речь, и текущая речь установлена успешно,NO
false
иначе.Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.3 и позже.
См. также
-
Говорящий уровень синтезатора (слова в минуту).
Объявление
Swift
var rate: Float
Objective C
@property float rate
Обсуждение
Диапазон поддерживаемых уровней не предопределен платформой Синтеза речи; но синтезатор может только реагировать на ограниченный диапазон речевых уровней. Средняя человеческая речь происходит на уровне 180 - 220 слов в минуту.
Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.5 и позже.
-
Говорящий объем синтезатора.
Объявление
Swift
var volume: Float
Objective C
@property float volume
Обсуждение
Объемы выражены в модулях с плавающей точкой в пределах от 0,0 до 1,0. Значение 0,0 соответствует тишине, и значение 1,0 соответствует максимальному возможному объему. Единицы объема лежат на масштабе, который линеен с амплитудой или напряжением. Удвоение воспринятой громкости соответствует удвоению объема. Установка значения вне этого диапазона не определена.
Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.5 и позже.
-
Регистрирует данный речевой словарь в получателе.
Объявление
Swift
func addSpeechDictionary(_
speechDictionary
: [NSObject : AnyObject])Objective C
- (void)addSpeechDictionary:(NSDictionary *)
speechDictionary
Параметры
speechDictionary
Речевой словарь для добавления к словарям получателя. Пары ключ/значение перечислены в Речевых Свойствах Словаря.
Обсуждение
Посмотрите обсуждение
UseSpeechDictionary
в менеджере по Синтезу речи Референсе для получения дополнительной информации.Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.5 и позже.
-
Обеспечивает значение свойства получателя.
Объявление
Swift
func objectForProperty(_
speechProperty
: String, errorout_error
: NSErrorPointer) -> AnyObject?Параметры
speechProperty
Свойство для получения.
out_error
На выводе, ошибка, произошедшая при получении значения
speechProperty
.Возвращаемое значение
Значение
speechProperty
.Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.5 и позже.
См. также
-
Указывает значение свойства получателя.
Объявление
Swift
func setObject(_
object
: AnyObject?, forPropertyproperty
: String, erroroutError
: NSErrorPointer) -> BoolПараметры
speechProperty
Свойство для установки. Поддерживаемые свойства перечислены в Ключах Словаря NSSpeechStatusProperty.
out_error
На выводе, ошибка, произошедшая при установке
speechProperty
.Возвращаемое значение
YES
true
когдаspeechProperty
был установлен.NO
false
когда была ошибка, указанная вout_error
.Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.5 и позже.
См. также
-
Делегат синтезатора.
Объявление
Swift
unowned(unsafe) var delegate: NSSpeechSynthesizerDelegate?
Objective C
@property(assign) id< NSSpeechSynthesizerDelegate > delegate
Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.3 и позже.
-
Обеспечивает идентификаторы речи, доступной в системе.
Объявление
Swift
class func availableVoices() -> [AnyObject]?
Objective C
+ (NSArray *)availableVoices
Возвращаемое значение
Массив строк, представляющих идентификаторы каждой речи, доступной в системе.
Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.3 и позже.
См. также
-
Обеспечивает словарь атрибута речи.
Объявление
Objective C
+ (NSDictionary *)attributesForVoice:(NSString *)
voiceIdentifier
Параметры
voiceIdentifier
Идентификатор речи, атрибуты которой Вы хотите получить.
Возвращаемое значение
Словарь атрибута речи, идентифицированной
voiceIdentifier
. Ключи атрибутов и типы значения перечислены в Речевых АтрибутахОператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.3 и позже.
-
Обеспечивает идентификатор речи по умолчанию.
Возвращаемое значение
Идентификатор речи по умолчанию.
Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.3 и позже.
-
Указывает, говорит ли какое-либо приложение в настоящее время через устройство звукового вывода.
Объявление
Swift
class func isAnyApplicationSpeaking() -> Bool
Objective C
+ (BOOL)isAnyApplicationSpeaking
Возвращаемое значение
YES
true
когда другое приложение производит речь через устройство звукового вывода,NO
false
иначе.Обсуждение
Вы обычно вызываете этот метод, чтобы препятствовать тому, чтобы Ваше приложение говорило по речи, сгенерированной другим приложением или системным компонентом.
Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.3 и позже.
-
Указывает, генерирует ли получатель в настоящее время синтезированную речь.
Объявление
Swift
var speaking: Bool { get }
Objective C
@property(getter=isSpeaking, readonly) BOOL speaking
Обсуждение
YES
true
когда получатель генерирует синтезированную речь,NO
false
иначе.Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.10 и позже.
-
Начинает говорить синтезируемый текст через устройство звукового вывода системы по умолчанию.
Объявление
Swift
func startSpeakingString(_
text
: String!) -> BoolObjective C
- (BOOL)startSpeakingString:(NSString *)
text
Параметры
text
Текст для разговора. Когда
nil
или пустой, никакой синтез не происходит.Возвращаемое значение
YES
true
когда разговор запускается успешно,NO
false
иначе.Обсуждение
Если получатель в настоящее время говорит синтезированную речь когда
startSpeakingString:
вызывается, тот процесс останавливается преждеtext
говорится.Когда синтез
text
концы обычно или останавливаются, сообщениеspeechSynthesizer:didFinishSpeaking:
отправляется делегату.Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.3 и позже.
-
Начинает синтезировать текст в звук (AIFF) файл.
Объявление
Параметры
text
Текст для разговора. Когда
nil
или пустой, никакой синтез не запускается.url
Расположение файловой системы выходного звукового файла.
Возвращаемое значение
YES
true
когда синтез запускается успешно,NO
false
иначе.Обсуждение
Когда синтез
text
концы обычно или останавливаются, сообщениеspeechSynthesizer:didFinishSpeaking:
отправляется делегату.Один пример того, как Вы могли бы использовать этот метод, находится в почтовой программе, автоматически преобразовывающей новые сообщения в звуковые файлы, которые могут храниться на iPod для более позднего слушания.
Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.3 и позже.
-
Происходящий синтез пауз на данной границе.
Объявление
Swift
func pauseSpeakingAtBoundary(_
boundary
: NSSpeechBoundary)Objective C
- (void)pauseSpeakingAtBoundary:(NSSpeechBoundary)
boundary
Параметры
boundary
Граница, на которой можно приостановить речь. Поддерживаемые связанные типы перечислены в NSSpeechBoundary.
Обсуждение
Передайте константу
NSSpeechImmediateBoundary
приостановиться сразу, даже посреди слова. ПередачаNSSpeechWordBoundary
илиNSSpeechSentenceBoundary
к речи паузы в конце текущего слова или предложения, соответственно.Можно определить, приостановило ли приложение речевой вывод синтезатора путем получения
NSSpeechStatusProperty
свойство черезobjectForProperty:error:
метод. В то время как синтезатор приостанавливается, речевая информация о статусе указывает этоNSSpeechStatusOutputBusy
иNSSpeechStatusOutputPaused
обаYES
true
.Если конец строки, на которой говорят, достигнут перед указанной точкой паузы, паузами речевого вывода в конце строки.
Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.5 и позже.
См. также
-
Синтез резюме.
Объявление
Swift
func continueSpeaking()
Objective C
- (void)continueSpeaking
Обсуждение
В любое время после
pauseSpeakingAtBoundary:
вызывается,continueSpeaking
может быть вызван, чтобы продолжать говорить с начала слова, в котором приостановилась речь.Отправка
continueSpeaking
к получателю, который в настоящее время не находится в приостановленном состоянии, не имеет никакого эффекта на синтезатор или на будущие вызовы кpauseSpeakingAtBoundary:
функция. Если Вы вызываетеcontinueSpeaking
на синтезаторе, прежде чем пауза является эффективной,continueSpeaking
отменяет паузу.Если
pauseSpeakingAtBoundary:
метод остановил речь посреди слова, синтезатор начнет произносить то слово с начала, когда Вы вызоветеcontinueSpeaking
.Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.5 и позже.
См. также
-
Происходящий синтез остановок.
Объявление
Swift
func stopSpeaking()
Objective C
- (void)stopSpeaking
Обсуждение
Если получатель в настоящее время генерирует речь, синтез останавливается, и сообщение
speechSynthesizer:didFinishSpeaking:
отправляется делегату.Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.3 и позже.
-
Происходящий синтез остановок на данной границе.
Объявление
Swift
func stopSpeakingAtBoundary(_
boundary
: NSSpeechBoundary)Objective C
- (void)stopSpeakingAtBoundary:(NSSpeechBoundary)
boundary
Параметры
boundary
Граница, на которой можно остановить речь. Поддерживаемые связанные типы перечислены в NSSpeechBoundary.
Обсуждение
Передайте константу
NSSpeechImmediateBoundary
остановиться сразу, даже посреди слова. ПередачаNSSpeechWordBoundary
илиNSSpeechSentenceBoundary
остановить речь в конце текущего слова или предложения, соответственно.Если конец строки, на которой говорят, достигнут перед указанной точкой остановки, остановками синтезатора в конце строки, не генерируя ошибку.
Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.5 и позже.
-
Обеспечивает символы фонемы, сгенерированные данным текстом.
Объявление
Параметры
text
Текст, из которого можно генерировать фонемы.
Возвращаемое значение
Фонемы сгенерированы из текста.
Обсуждение
Преобразование текстовых данных в фонетические данные особенно полезно во время разработки приложений, когда Вы могли бы хотеть скорректировать фразы, которые Ваше приложение генерирует для создания более гладкой речи. Первым преобразованием целевой фразы в фонемы Вы видите то, что синтезатор попытается говорить. Тогда Вы должны исправить только роли, которые не игрались бы путем, Вы хотите
Строка, возвращенная phonemesFromText: соответствует точно фонемам, на которых говорили бы, имел входной текст, отправленный в
startSpeakingString:
вместо этого. Все текущие настройки свойства для синтезатора применяются к преобразованной речи.Никакие методы делегата не вызывают в то время как
phonemesFromText:
метод генерирует свой вывод.Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.5 и позже.
-
Следующие константы являются ключами для словаря, возвращенного
attributesForVoice:
.Объявление
Swift
let NSVoiceIdentifier: NSString! let NSVoiceName: NSString! let NSVoiceAge: NSString! let NSVoiceGender: NSString! let NSVoiceDemoText: NSString! let NSVoiceLocaleIdentifier: NSString! let NSVoiceSupportedCharacters: NSString! let NSVoiceIndividuallySpokenCharacters: NSString!
Objective C
NSString *const NSVoiceIdentifier; NSString *const NSVoiceName; NSString *const NSVoiceAge; NSString *const NSVoiceGender; NSString *const NSVoiceDemoText; NSString *const NSVoiceLanguage; NSString *const NSVoiceLocaleIdentifier; NSString *const NSVoiceSupportedCharacters; NSString *const NSVoiceIndividuallySpokenCharacters;
Константы
-
NSVoiceIdentifier
NSVoiceIdentifier
Уникальная строка, идентифицирующая речь. Идентификаторы системной речи перечислены в Перечислении 1.
Доступный в OS X v10.3 и позже.
-
NSVoiceName
NSVoiceName
Имя речи, подходящей для дисплея.
NSString
.Доступный в OS X v10.3 и позже.
-
NSVoiceAge
NSVoiceAge
Воспринятый возраст (в годах) речи.
NSString
Доступный в OS X v10.3 и позже.
-
NSVoiceGender
NSVoiceGender
Воспринятый род речи. Поддерживаемые значения перечислены в Речевых Родах.
NSString
Доступный в OS X v10.3 и позже.
-
NSVoiceDemoText
NSVoiceDemoText
Демонстрационная строка для разговора.
NSString
Доступный в OS X v10.3 и позже.
-
NSVoiceLanguage
NSVoiceLanguage
Язык речи (в настоящее время только английский язык США).
NSString
Осуждаемый: использовать
NSVoiceLocaleIdentifier
вместо этого.Доступный в OS X v10.0 и позже.
Осуждаемый в OS X v10.5.
-
NSVoiceLocaleIdentifier
NSVoiceLocaleIdentifier
Язык речи.
NSString
Каноническая строка идентификатора локали, описывающая локаль речи. Локаль обычно составляется из трех частей упорядоченной информации: код языка, код области и различный код. Обратитесь к документации о
NSLocale
класс или Руководство по Интернационализации и Локализации для получения дополнительной информации.Доступный в OS X v10.5 и позже.
-
NSVoiceSupportedCharacters
NSVoiceSupportedCharacters
Список unicode символьных диапазонов ID, определяющих unicode символы, поддерживаемые этой речью. словарь, содержащий два ключа: «UnicodeCharBegin», целочисленное значение, содержащее начало unicode ID этого диапазона; и «UnicodeCharBegin», целочисленное значение, содержащее окончание unicode ID этого диапазона. Синтезатор преобразует или проигнорирует любые символы, не содержавшиеся в диапазоне поддерживаемых символов.
Некоторая речь может не обеспечить этот атрибут.
Доступный в OS X v10.5 и позже.
-
NSVoiceIndividuallySpokenCharacters
NSVoiceIndividuallySpokenCharacters
Список unicode символьных диапазонов ID, определяющих unicode символы, на которых может говорить в познаковом режиме эта речь. запись списка ach является словарем, содержащим два ключа: «UnicodeCharBegin», целочисленное значение, содержащее начало unicode ID этого диапазона; и «UnicodeCharBegin», целочисленное значение, содержащее окончание unicode ID этого диапазона.
Эти диапазоны могут использоваться Вашим приложением, чтобы определить, может ли речь говорить имя отдельного символа, когда говорится в познаковом режиме.
Некоторая речь может не обеспечить этот атрибут.
Доступный в OS X v10.5 и позже.
Обсуждение
Перечисление 1 перечисляет идентификаторы системной речи (определенный в
/System/Library/Speech/Voices
):com.apple.speech.synthesis.voice.Agnes
com.apple.speech.synthesis.voice.Albert
com.apple.speech.synthesis.voice.Alex
com.apple.speech.synthesis.voice.BadNews
com.apple.speech.synthesis.voice.Bahh
com.apple.speech.synthesis.voice.Bells
com.apple.speech.synthesis.voice.Boing
com.apple.speech.synthesis.voice.Bruce
com.apple.speech.synthesis.voice.Bubbles
com.apple.speech.synthesis.voice.Cellos
com.apple.speech.synthesis.voice.Deranged
com.apple.speech.synthesis.voice.Fred
com.apple.speech.synthesis.voice.GoodNews
com.apple.speech.synthesis.voice.Hysterical
com.apple.speech.synthesis.voice.Junior
com.apple.speech.synthesis.voice.Kathy
com.apple.speech.synthesis.voice.Organ
com.apple.speech.synthesis.voice.Princess
com.apple.speech.synthesis.voice.Ralph
com.apple.speech.synthesis.voice.Trinoids
com.apple.speech.synthesis.voice.Vicki
com.apple.speech.synthesis.voice.Victoria
com.apple.speech.synthesis.voice.Whisper
com.apple.speech.synthesis.voice.Zarvox
-
-
Следующие константы определяют речевые атрибуты рода, которые являются допустимыми значениями
NSVoiceGender
ключ, возвращенныйattributesForVoice:
.Объявление
Swift
let NSVoiceGenderNeuter: NSString! let NSVoiceGenderMale: NSString! let NSVoiceGenderFemale: NSString!
Objective C
NSString *const NSVoiceGenderNeuter; NSString *const NSVoiceGenderMale; NSString *const NSVoiceGenderFemale;
Константы
-
NSVoiceGenderNeuter
NSVoiceGenderNeuter
Нейтральная речь (или речь новинки с юмористическим или причудливым качеством).
Доступный в OS X v10.3 и позже.
-
NSVoiceGenderMale
NSVoiceGenderMale
Мужской голос
Доступный в OS X v10.3 и позже.
-
NSVoiceGenderFemale
NSVoiceGenderFemale
Розеточная речь
Доступный в OS X v10.3 и позже.
-
-
Эти константы используются с
setObject:forProperty:error:
иobjectForProperty:error:
получить или установить характеристики синтезатора.Объявление
Swift
let NSSpeechStatusProperty: NSString! let NSSpeechErrorsProperty: NSString! let NSSpeechInputModeProperty: NSString! let NSSpeechCharacterModeProperty: NSString! let NSSpeechNumberModeProperty: NSString! let NSSpeechRateProperty: NSString! let NSSpeechPitchBaseProperty: NSString! let NSSpeechPitchModProperty: NSString! let NSSpeechVolumeProperty: NSString! let NSSpeechSynthesizerInfoProperty: NSString! let NSSpeechRecentSyncProperty: NSString! let NSSpeechPhonemeSymbolsProperty: NSString! let NSSpeechCurrentVoiceProperty: NSString! let NSSpeechCommandDelimiterProperty: NSString! let NSSpeechResetProperty: NSString! let NSSpeechOutputToFileURLProperty: NSString!
Objective C
NSString *const NSSpeechStatusProperty; NSString *const NSSpeechErrorsProperty; NSString *const NSSpeechInputModeProperty; NSString *const NSSpeechCharacterModeProperty; NSString *const NSSpeechNumberModeProperty; NSString *const NSSpeechRateProperty; NSString *const NSSpeechPitchBaseProperty; NSString *const NSSpeechPitchModProperty; NSString *const NSSpeechVolumeProperty; NSString *const NSSpeechSynthesizerInfoProperty; NSString *const NSSpeechRecentSyncProperty; NSString *const NSSpeechPhonemeSymbolsProperty; NSString *const NSSpeechCurrentVoiceProperty; NSString *const NSSpeechCommandDelimiterProperty; NSString *const NSSpeechResetProperty; NSString *const NSSpeechOutputToFileURLProperty;
Константы
-
NSSpeechStatusProperty
NSSpeechStatusProperty
Получите речевую информацию о статусе для синтезатора.
NSDictionary
это содержит речевую информацию о статусе для синтезатора. Посмотрите Ключи Словаря NSSpeechStatusProperty для описания ключевого настоящего в словаре.Это свойство используется с
setObject:forProperty:error:
.Доступный в OS X v10.5 и позже.
-
NSSpeechErrorsProperty
NSSpeechErrorsProperty
Получите информацию речевой ошибки для синтезатора.
NSDictionary
объект, содержащий информацию о речевой ошибке. Посмотрите Ключи Словаря NSSpeechErrorProperty для описания ключевого настоящего в словаре.Это свойство позволяет Вам получить информацию о различных ошибках периода выполнения, происходящих во время разговора, такого как обнаружение плохо сформированных встроенных команд. Об ошибках, возвращенных непосредственно менеджером по Синтезу речи, не сообщают здесь.
Если Ваше приложение реализует
speechSynthesizer:didEncounterErrorAtIndex:ofString:message:
делегируйте сообщение, сообщение делегата может использовать это свойство для получения ошибочной информации.Это свойство используется с
setObject:forProperty:error:
.Доступный в OS X v10.5 и позже.
-
NSSpeechInputModeProperty
NSSpeechInputModeProperty
Получите или установите текущий относящийся к обработке текстов режим синтезатора.
NSString
объект, указывающий, является ли канал в настоящее время в режиме ввода фонемы или режиме ввода текста. Поддерживаемые значения перечислены в Разговоре Режимов для NSSpeechInputModeProperty.Когда в обрабатывающем фонему режиме, текстовая строка интерпретируется, чтобы быть серией символов, представляющих различные фонемы и просодические средства управления. Некоторые синтезаторы могли бы поддерживать дополнительные обрабатывающие ввод режимы и определить константы для этих режимов.
Это свойство используется с
setObject:forProperty:error:
иobjectForProperty:error:
.Доступный в OS X v10.5 и позже.
-
NSSpeechCharacterModeProperty
NSSpeechCharacterModeProperty
Получите или установите текущий относящийся к обработке текстов режим синтезатора.
NSString
объект, указывающий, является ли канал в настоящее время в режиме ввода фонемы или режиме ввода текста. Поддерживаемые значения перечислены в Разговоре Режимов для NSSpeechInputModeProperty.Когда обрабатывающий символ режим
NSSpeechModeNormal
, на вводимых символах говорят, поскольку Вы ожидали бы слышать их. Когда режимNSSpeechModeLiteral
, на каждом символе говорят буквально, так, чтобы было произнесено слово «кошка» “C–A–T
”.Это свойство используется с
setObject:forProperty:error:
иobjectForProperty:error:
.Доступный в OS X v10.5 и позже.
-
NSSpeechNumberModeProperty
NSSpeechNumberModeProperty
Получите или установите текущий обрабатывающий число режим синтезатора.
NSString
объект, указывающий, является ли синтезатор в настоящее время в нормальном или литеральном обрабатывающем число режиме. КонстантыNSSpeechModeNormal
иNSSpeechModeLiteral
возможные значения этой строки.Когда обрабатывающий число режим
NSSpeechModeNormal
, синтезатор собирает цифры в числа (так, чтобы «12» говорился как «двенадцать»). Когда режимNSSpeechModeLiteral
, на каждой цифре говорят буквально (так, чтобы «12» говорился как “один, два”).Это свойство используется с
setObject:forProperty:error:
иobjectForProperty:error:
.Доступный в OS X v10.5 и позже.
-
NSSpeechRateProperty
NSSpeechRateProperty
Получите или установите речевой уровень синтезатора. Объект NSNumber, указывающий говорящий уровень синтезатора.
Диапазон поддерживаемых уровней не предопределен классом NSSpeechSynthesizer; каждый синтезатор речи обеспечивает свой собственный диапазон речевых уровней. Средняя человеческая речь происходит на уровне 180 - 220 слов в минуту.
Это свойство используется с
setObject:forProperty:error:
иobjectForProperty:error:
.Доступный в OS X v10.5 и позже.
-
NSSpeechPitchBaseProperty
NSSpeechPitchBaseProperty
Получите или установите базовую речевую подачу синтезатора.
NSNumber
объект, указывающий базовую речевую подачу.Типичные частоты речевого диапазона располагаются приблизительно от 90 герц для низкого мужского голоса к, возможно, 300 герц для речи высокого дочернего элемента. Эти частоты соответствуют приблизительным значениям подачи в диапазонах 30 000 - 40 000 и 55 000 - 65 000, соответственно.
Это свойство используется с
setObject:forProperty:error:
иobjectForProperty:error:
.Доступный в OS X v10.5 и позже.
-
NSSpeechPitchModProperty
NSSpeechPitchModProperty
Получите или установите модуляцию подачи синтезатора.
NSNumber
объект, указывающий модуляцию подачи синтезатора.Модуляция подачи также выражена как значение с плавающей точкой в диапазоне 0.000 к 127 000. Эти значения соответствуют длительности нот MIDI, где 60.000 равно середине C в масштабе фортепьяно. Самая полезная речь передает падение диапазона 40 000 - 55 000. Значение модуляции подачи 0.000 соответствует монотонности, в которой вся речь сгенерирована в частоте, соответствующей речевой подаче. Учитывая речевое значение подачи 46 000, модуляция подачи 2 000 означала бы, что самый широкий диапазон передач, соответствующих фактической частоте сгенерированного текста, будет 44 000 - 48 000.
Это свойство используется с
setObject:forProperty:error:
иobjectForProperty:error:
.Доступный в OS X v10.5 и позже.
-
NSSpeechVolumeProperty
NSSpeechVolumeProperty
Получите или установите динамический диапазон речевых сигналов для синтезатора.
NSNumber
это указывает динамический диапазон речевых сигналов синтезатора.Объемы выражены в значениях с плавающей точкой в пределах от 0,0 до 1,0. Значение 0,0 соответствует тишине, и значение 1,0 соответствует максимальному возможному объему. Единицы объема лежат на масштабе, который линеен с амплитудой или напряжением. Удвоение воспринятой громкости соответствует удвоению объема.
Это свойство используется с
setObject:forProperty:error:
иobjectForProperty:error:
.Доступный в OS X v10.5 и позже.
-
NSSpeechSynthesizerInfoProperty
NSSpeechSynthesizerInfoProperty
Получите информацию о синтезаторе речи, используемом на указанном синтезаторе.
NSDictionary
объект, содержащий информацию о синтезаторе речи, используемом на указанном синтезаторе. Посмотрите Ключи Свойства Синтезатора речи для описания ключевого настоящего в словаре.Доступный в OS X v10.5 и позже.
-
NSSpeechRecentSyncProperty
NSSpeechRecentSyncProperty
Получите код сообщения для команды синхронизации, с которой последний раз встречаются.
NSNumber
объект, указывающий команду синхронизации, с которой последний раз встречаются.Это свойство работает с
setObject:forProperty:error:
.Доступный в OS X v10.5 и позже.
-
NSSpeechPhonemeSymbolsProperty
NSSpeechPhonemeSymbolsProperty
Получите список символов фонемы и слов в качестве примера, определенных для синтезатора.
NSDictionary
объект, содержащий символы фонемы и слова в качестве примера, определенные для текущего синтезатораВаше приложение могло бы использовать эту информацию, чтобы показать пользователю что символы использовать при введении фонематического текста непосредственно. Посмотрите Ключи Словаря NSSpeechPhonemeSymbolsProperty для описания ключевого настоящего в словаре.
Это свойство работает с
setObject:forProperty:error:
.Доступный в OS X v10.5 и позже.
-
NSSpeechCurrentVoiceProperty
NSSpeechCurrentVoiceProperty
Установите текущую речь на синтезаторе к указанной речи.
NSDictionary
объект, содержащий символы фонемы и слова в качестве примера, определенные для текущего синтезатора.Ваше приложение могло бы использовать эту информацию, чтобы показать пользователю что символы использовать при введении фонематического текста непосредственно. Посмотрите Ключи Словаря NSSpeechPhonemeSymbolsProperty для ключей, которые можно использовать для указания значений в этом словаре.
Это свойство работает с
setObject:forProperty:error:
.Доступный в OS X v10.5 и позже.
-
NSSpeechCommandDelimiterProperty
NSSpeechCommandDelimiterProperty
Установите встроенные речевые символы-разделители команды, которые будут использоваться для синтезатора.
NSDictionary
объект, содержащий информацию о разделителе. См. “Ключи Разделителя Команды” для ключей, которые можно использовать для указания значений в этом словаре.По умолчанию вводный разделитель “[[” и заключительный разделитель “]]”. Ваше приложение, возможно, должно было бы изменить эти разделители временно, если те последовательности символов происходят естественно в текстовом буфере, на котором нужно говорить. Ваше приложение может также отключить встроенную обработку команды передающими пустыми разделителями (как пустые строки). Посмотрите Речевой Разделитель Команды для ключей, которые можно использовать для указания значений в этом словаре.
Это свойство работает с
setObject:forProperty:error:
.Доступный в OS X v10.5 и позже.
-
NSSpeechResetProperty
NSSpeechResetProperty
Задержите синтезатор к его состоянию по умолчанию. Нет никакого значения, связанного с этим свойством; для сброса канала к его состоянию по умолчанию установите ключ к
NULL
.Можно использовать эту функцию для, например, подача заранее составленной речи и речевой уровень к значениям по умолчанию.
Это свойство работает с
setObject:forProperty:error:
.Доступный в OS X v10.5 и позже.
-
NSSpeechOutputToFileURLProperty
NSSpeechOutputToFileURLProperty
Установите место назначения речевого вывода в файл или динамикам компьютера.
NSURL
объект. Для записи речевого вывода в файл используйте NSURL файла; для генерации звука через динамики компьютера использоватьNULL
.Это свойство работает с
setObject:forProperty:error:
.Доступный в OS X v10.5 и позже.
-
-
Эти константы идентифицируют режимы ввода, используются с
NSSpeechInputModeProperty
.Объявление
Objective C
NSString *const NSSpeechModeText; NSString *const NSSpeechModePhoneme;
Константы
-
NSSpeechModeText
NSSpeechModeText
Указывает, что синтезатор находится в относящемся к обработке текстов режиме.
Доступный в OS X v10.5 и позже.
-
NSSpeechModePhoneme
NSSpeechModePhoneme
Указывает, что синтезатор находится в обрабатывающем фонему режиме. Когда в обрабатывающем фонему режиме, текстовый буфер интерпретируется, чтобы быть серией символов, представляющих различные фонемы и просодические средства управления.
Доступный в OS X v10.5 и позже.
-
-
Эти константы определяют доступные относящиеся к обработке текстов и обрабатывающие число режимы для синтезатора. Эти ключи используются с
NSSpeechInputModeProperty
иNSSpeechNumberModeProperty
)Объявление
Objective C
NSString *const NSSpeechModeNormal; NSString *const NSSpeechModeLiteral;
Константы
-
NSSpeechModeNormal
NSSpeechModeNormal
Указывает, что синтезатор собирает цифры в числа (так, чтобы 12 говорился как «двенадцать»), и текст в слова.
Доступный в OS X v10.5 и позже.
-
NSSpeechModeLiteral
NSSpeechModeLiteral
Указывает, что на каждой цифре или символе говорят буквально (так, чтобы 12 говорился как «один, два», или слово «кошка» произнесено как «C T»).
Доступный в OS X v10.5 и позже.
-
-
Эти константы идентифицируют речевые ключи состояния, используемые с
NSSpeechStatusProperty
.Объявление
Swift
let NSSpeechStatusOutputBusy: NSString! let NSSpeechStatusOutputPaused: NSString! let NSSpeechStatusNumberOfCharactersLeft: NSString! let NSSpeechStatusPhonemeCode: NSString!
Objective C
NSString *const NSSpeechStatusOutputBusy; NSString *const NSSpeechStatusOutputPaused; NSString *const NSSpeechStatusNumberOfCharactersLeft; NSString *const NSSpeechStatusPhonemeCode;
Константы
-
NSSpeechStatusOutputBusy
NSSpeechStatusOutputBusy
Указывает, производит ли синтезатор в настоящее время речь.
Когда никакие аудиоданные не производятся через динамик компьютера, синтезатор считается, производя речь даже в несколько раз. Это происходит, например, когда синтезатор обрабатывает ввод, но еще не инициировал речь или когда приостанавливается речевой вывод.
Доступный в OS X v10.5 и позже.
-
NSSpeechStatusOutputPaused
NSSpeechStatusOutputPaused
Указывает, был ли речевой вывод в синтезаторе приостановлен путем отправки сообщения
pauseSpeakingAtBoundary:
.Доступный в OS X v10.5 и позже.
-
NSSpeechStatusNumberOfCharactersLeft
NSSpeechStatusNumberOfCharactersLeft
Число символов уехало во входной строке текста.
Когда значение этого ключа является нулем, можно уничтожить входную строку.
Доступный в OS X v10.5 и позже.
-
NSSpeechStatusPhonemeCode
NSSpeechStatusPhonemeCode
Указывает, что синтезатор находится в обрабатывающем фонему режиме. Когда в обрабатывающем фонему режиме, текстовый буфер интерпретируется, чтобы быть серией символов, представляющих различные фонемы и просодические средства управления.
Доступный в OS X v10.5 и позже.
-
-
Эти ключевые константы идентифицируют ошибки, которые могут произойти во время синтеза речи. Они используются с
NSSpeechErrorsProperty
.Объявление
Swift
let NSSpeechErrorCount: NSString! let NSSpeechErrorOldestCode: NSString! let NSSpeechErrorOldestCharacterOffset: NSString! let NSSpeechErrorNewestCode: NSString! let NSSpeechErrorNewestCharacterOffset: NSString!
Objective C
NSString *const NSSpeechErrorCount; NSString *const NSSpeechErrorOldestCode; NSString *const NSSpeechErrorOldestCharacterOffset; NSString *const NSSpeechErrorNewestCode; NSString *const NSSpeechErrorNewestCharacterOffset;
Константы
-
NSSpeechErrorCount
NSSpeechErrorCount
Число ошибок, произошедших в обработке строки текущего текста, начиная с последней возможности к
objectForProperty:error:
сNSSpeechErrorsProperty
свойство.NSNumber
Используя
NSSpeechErrorOldestCode
ключи иNSSpeechErrorNewestCode
ключи, можно получить информацию о самых старых и новых ошибках, произошедших начиная с последней возможности сobjectForProperty:error:
, но Вы не можете получить информацию ни о каких прошедших ошибках.Доступный в OS X v10.5 и позже.
-
NSSpeechErrorOldestCode
NSSpeechErrorOldestCode
Код ошибки первой ошибки, произошедшей начиная с последней возможности с
objectForProperty:error:
сNSSpeechErrorsProperty
свойство.NSNumber
Доступный в OS X v10.5 и позже.
-
NSSpeechErrorOldestCharacterOffset
NSSpeechErrorOldestCharacterOffset
Позиция в текстовой строке первой ошибки, произошедшей начиная с последней возможности с
objectForProperty:error:
сNSSpeechErrorsProperty
свойство.NSNumber
Доступный в OS X v10.5 и позже.
-
NSSpeechErrorNewestCode
NSSpeechErrorNewestCode
Код ошибки новой ошибки, произошедшей начиная с последней возможности с
objectForProperty:error:
сNSSpeechErrorsProperty
свойство.NSNumber
Доступный в OS X v10.5 и позже.
-
NSSpeechErrorNewestCharacterOffset
NSSpeechErrorNewestCharacterOffset
Позиция в текстовой строке новой ошибки, произошедшей начиная с последней возможности с
objectForProperty:error:
сNSSpeechErrorsProperty
свойство.NSNumber
.Доступный в OS X v10.5 и позже.
-
-
Эти константы являются ключами, используемыми в словаре NSSpeechSynthesizerInfoProperty.
Объявление
Swift
let NSSpeechSynthesizerInfoIdentifier: NSString! let NSSpeechSynthesizerInfoVersion: NSString!
Objective C
NSString *const NSSpeechSynthesizerInfoIdentifier; NSString *const NSSpeechSynthesizerInfoVersion;
Константы
-
Эти константы являются ключами, используемыми в словаре NSSpeechPhonemeSymbolsProperty.
Объявление
Swift
let NSSpeechPhonemeInfoOpcode: NSString! let NSSpeechPhonemeInfoSymbol: NSString! let NSSpeechPhonemeInfoExample: NSString! let NSSpeechPhonemeInfoHiliteStart: NSString! let NSSpeechPhonemeInfoHiliteEnd: NSString!
Objective C
NSString *const NSSpeechPhonemeInfoOpcode NSString *const NSSpeechPhonemeInfoSymbol; NSString *const NSSpeechPhonemeInfoExample; NSString *const NSSpeechPhonemeInfoHiliteStart; NSString *const NSSpeechPhonemeInfoHiliteEnd;
Константы
-
NSSpeechPhonemeInfoOpcode
NSSpeechPhonemeInfoOpcode
NSNumber
Доступный в OS X v10.5 и позже.
-
NSSpeechPhonemeInfoSymbol
NSSpeechPhonemeInfoSymbol
Символ раньше представлял фонему.
Символ не обязательно имеет фонетическое соединение с фонемой, но мог бы просто быть абстрактным текстовым представлением ее.
Доступный в OS X v10.5 и позже.
-
NSSpeechPhonemeInfoExample
NSSpeechPhonemeInfoExample
Слово в качестве примера, иллюстрирующее использование фонемы.
Доступный в OS X v10.5 и позже.
-
NSSpeechPhonemeInfoHiliteStart
NSSpeechPhonemeInfoHiliteStart
Символьное смещение в слово в качестве примера, идентифицирующее расположение начала фонемы.
Доступный в OS X v10.5 и позже.
-
NSSpeechPhonemeInfoHiliteEnd
NSSpeechPhonemeInfoHiliteEnd
Символьное смещение в слово в качестве примера, идентифицирующее расположение конца фонемы.
Доступный в OS X v10.5 и позже.
-
-
Эти ключи разделителей речевой команды констант, используемые в
NSSpeechCommandDelimiterProperty
.Объявление
Objective C
NSString *const NSSpeechCommandPrefix; NSString *const NSSpeechCommandSuffix;
Константы
-
NSSpeechCommandPrefix
NSSpeechCommandPrefix
Разделитель команды представляет это в виде строки префиксы команда, по умолчанию, это
[[
.Доступный в OS X v10.5 и позже.
-
NSSpeechCommandSuffix
NSSpeechCommandSuffix
Разделитель команды представляет это в виде строки суффиксы команда, по умолчанию, это
]]
.Доступный в OS X v10.5 и позже.
-
-
Эти константы идентифицируют пары ключ/значение, используемые для добавления словаря к использованию словаря
addSpeechDictionary:
.Объявление
Swift
let NSSpeechDictionaryLocaleIdentifier: NSString! let NSSpeechDictionaryModificationDate: NSString! let NSSpeechDictionaryPronunciations: NSString! let NSSpeechDictionaryAbbreviations: NSString! let NSSpeechDictionaryEntrySpelling: NSString! let NSSpeechDictionaryEntryPhonemes: NSString!
Objective C
NSString *const NSSpeechDictionaryLocaleIdentifier; NSString *const NSSpeechDictionaryModificationDate; NSString *const NSSpeechDictionaryPronunciations; NSString *const NSSpeechDictionaryAbbreviations; NSString *const NSSpeechDictionaryEntrySpelling; NSString *const NSSpeechDictionaryEntryPhonemes;
Константы
-
NSSpeechDictionaryLocaleIdentifier
NSSpeechDictionaryLocaleIdentifier
Каноническая строка идентификатора локали, описывающая локаль словаря. Локаль обычно составляется из трех частей упорядоченной информации: код языка, код области и различный код. Обратитесь к документации о
NSLocale
или Руководство по Интернационализации и Локализации для получения дополнительной информацииДоступный в OS X v10.5 и позже.
-
NSSpeechDictionaryModificationDate
NSSpeechDictionaryModificationDate
Строковое представление даты последнего изменения словаря в международном формате (YYYY-MM-DD HH:MM:SS ±HHMM). Если то же слово появится через многократные словари, то тот из словаря с новой датой будет использоваться.
Доступный в OS X v10.5 и позже.
-
NSSpeechDictionaryPronunciations
NSSpeechDictionaryPronunciations
Массив объектов словаря, содержащих ключи
NSSpeechDictionaryEntrySpelling
иNSSpeechDictionaryEntryPhonemes
.Доступный в OS X v10.5 и позже.
-
NSSpeechDictionaryAbbreviations
NSSpeechDictionaryAbbreviations
Массив объектов словаря, содержащих ключи
NSSpeechDictionaryEntrySpelling
иNSSpeechDictionaryEntryPhonemes
.Доступный в OS X v10.5 и позже.
-
NSSpeechDictionaryEntrySpelling
NSSpeechDictionaryEntrySpelling
Написание записи.
NSString
.Доступный в OS X v10.5 и позже.
-
NSSpeechDictionaryEntryPhonemes
NSSpeechDictionaryEntryPhonemes
Фонематическое представление записи.
NSString
.Доступный в OS X v10.5 и позже.
-
-
Эти константы используются для указания, где речь должна быть остановлена и приостановлена. Посмотрите
pauseSpeakingAtBoundary:
иstopSpeakingAtBoundary:
.Объявление
Swift
enum NSSpeechBoundary : UInt { case ImmediateBoundary case WordBoundary case SentenceBoundary }
Objective C
enum { NSSpeechImmediateBoundary = 0, NSSpeechWordBoundary, NSSpeechSentenceBoundary }; typedef NSUInteger NSSpeechBoundary;
Константы
-
ImmediateBoundary
NSSpeechImmediateBoundary
Речь должна быть приостановлена или сразу остановлена.
Доступный в OS X v10.5 и позже.
-
WordBoundary
NSSpeechWordBoundary
Речь должна быть приостановлена или остановлена в конце слова.
Доступный в OS X v10.5 и позже.
-
SentenceBoundary
NSSpeechSentenceBoundary
Речь должна быть приостановлена или остановлена в конце предложения.
Доступный в OS X v10.5 и позже.
Оператор импорта
Objective C
@import AppKit;
Swift
import AppKit
Доступность
Доступный в OS X v10.5 и позже.
-