AVSpeechUtterance
Соответствует
-
AnyObject
-
CVarArgType
-
Сопоставимый
-
Hashable
-
NSCoding
-
NSCopying
-
NSObjectProtocol
-
NSSecureCoding
-
Печатаемый
-
NSCopying
-
NSObject
-
NSSecureCoding
Оператор импорта
Swift
import AVFoundation
Objective C
@import AVFoundation;
Доступность
Доступный в iOS 7.0 и позже.
AVSpeechUtterance
основная единица синтеза речи. Произнесение инкапсулирует некоторую сумму текста, на котором будут говорить и ряд параметров, влияющих на его речь: речь, подача, уровень и задержка.
Для синтезирования речи Вы должны:
Создайте
AVSpeechUtterance
экземпляр, содержащий текст, на котором будут говорить. (См. Создание Произнесения.)(Необязательно) Изменение его речь, уровень или другие параметры. (См. Речь Произнесения Конфигурирования.)
Передайте произнесение
AVSpeechSynthesizer
экземпляр, чтобы начать речь (или ставить в очередь произнесение, на котором будут говорить позже, если синтезатор уже говорит).
Можно выбрать, ли и как разделить организацию текста в многократное произнесение для речи. Поскольку произнесение может управлять речевыми параметрами, можно разделить текст на разделы, требующие различных параметров. Например, можно подчеркнуть предложение путем увеличения подачи и уменьшения уровня того произнесения относительно других, или можно представить паузы между предложениями путем помещения каждого в произнесение с продвижением или запаздывающей задержкой. Поскольку синтезатор речи отправляет сообщения своему делегату, как он запускает или заканчивает говорить произнесение, можно создать произнесение для каждого значимого модуля в более длинном тексте, чтобы быть уведомленными, в то время как развивается его речь.
-
Инициализирует объект произнесения с текстом, на котором будут говорить.
Объявление
Swift
init!(string
string
: String!)Objective C
- (instancetype)initWithString:(NSString *)
string
Параметры
string
Строка, содержащая текст, на котором будут говорить.
Возвращаемое значение
AVSpeechUtterance
объект, который может говорить указанный текст.Обсуждение
Для разговора текста произнесение должно быть передано экземпляру
AVSpeechSynthesizer
.Оператор импорта
Objective C
@import AVFoundation;
Swift
import AVFoundation
Доступность
Доступный в iOS 7.0 и позже.
См. также
-
Создает объект произнесения с текстом, на котором будут говорить.
Объявление
Objective C
+ (instancetype)speechUtteranceWithString:(NSString *)
string
Параметры
string
Строка, содержащая текст, на котором будут говорить.
Возвращаемое значение
AVSpeechUtterance
объект, который может говорить указанный текст.Обсуждение
Для разговора текста произнесение должно быть передано экземпляру
AVSpeechSynthesizer
.Оператор импорта
Objective C
@import AVFoundation;
Доступность
Доступный в iOS 7.0 и позже.
См. также
-
pitchMultiplier
СвойствоБазовая подача, при которой будут говорить на произнесении.
Объявление
Swift
var pitchMultiplier: Float
Objective C
@property(nonatomic) float pitchMultiplier
Обсуждение
Подача по умолчанию
1.0
. Позволенные значения находятся в диапазоне от0.5
(для более низкой подачи) к2.0
(для более высокой подачи).Оператор импорта
Objective C
@import AVFoundation;
Swift
import AVFoundation
Доступность
Доступный в iOS 7.0 и позже.
-
postUtteranceDelay
СвойствоНа количестве времени синтезатор речи будет ожидать после произнесения, говорят прежде, чем обработать следующее произнесение с очередями.
Объявление
Swift
var postUtteranceDelay: NSTimeInterval
Objective C
@property(nonatomic) NSTimeInterval postUtteranceDelay
Обсуждение
Когда на двух или больше произнесении говорит экземпляр
AVSpeechSynthesizer
, время между периодами, когда любой будет слышимым, будет, по крайней мере, суммой первого произнесенияpostUtteranceDelay
и второе произнесениеpreUtteranceDelay
.Оператор импорта
Objective C
@import AVFoundation;
Swift
import AVFoundation
Доступность
Доступный в iOS 7.0 и позже.
-
preUtteranceDelay
СвойствоКоличество времени синтезатор речи будет ожидать прежде фактически говорить произнесение относительно начала обработать его.
Объявление
Swift
var preUtteranceDelay: NSTimeInterval
Objective C
@property(nonatomic) NSTimeInterval preUtteranceDelay
Обсуждение
Когда на двух или больше произнесении говорит экземпляр
AVSpeechSynthesizer
, время между периодами, когда любой будет слышимым, будет, по крайней мере, суммой первого произнесенияpostUtteranceDelay
и второе произнесениеpreUtteranceDelay
.Оператор импорта
Objective C
@import AVFoundation;
Swift
import AVFoundation
Доступность
Доступный в iOS 7.0 и позже.
-
rate
СвойствоУровень, на котором будут говорить на произнесении.
Объявление
Swift
var rate: Float
Objective C
@property(nonatomic) float rate
Обсуждение
Речевые уровни являются значениями в диапазоне между
AVSpeechUtteranceMinimumSpeechRate
иAVSpeechUtteranceMaximumSpeechRate
. Нижние значения соответствуют более медленной речи, и наоборот. Значение по умолчаниюAVSpeechUtteranceDefaultSpeechRate
.Оператор импорта
Objective C
@import AVFoundation;
Swift
import AVFoundation
Доступность
Доступный в iOS 7.0 и позже.
-
speechString
СвойствоТекст, на котором будут говорить в произнесении. (только для чтения)
Объявление
Swift
var speechString: String! { get }
Objective C
@property(nonatomic, readonly) NSString *speechString
Обсуждение
Текст произнесения не может быть изменен, как только он создается. Для разговора различного текста создайте новое произнесение.
Оператор импорта
Objective C
@import AVFoundation;
Swift
import AVFoundation
Доступность
Доступный в iOS 7.0 и позже.
-
voice
СвойствоРечь раньше говорила произнесение.
Объявление
Swift
var voice: AVSpeechSynthesisVoice!
Objective C
@property(nonatomic, retain) AVSpeechSynthesisVoice *voice
Обсуждение
Значение по умолчанию
nil
, который заставляет произнесение говориться речью по умолчанию.Оператор импорта
Objective C
@import AVFoundation;
Swift
import AVFoundation
Доступность
Доступный в iOS 7.0 и позже.
-
volume
СвойствоОбъем, используемый при разговоре произнесения.
Объявление
Swift
var volume: Float
Objective C
@property(nonatomic) float volume
Обсуждение
Позволенные значения находятся в диапазоне от
0.0
(тихий) к1.0
(самый громкий). Объем по умолчанию1.0
.Оператор импорта
Objective C
@import AVFoundation;
Swift
import AVFoundation
Доступность
Доступный в iOS 7.0 и позже.
-
Позволенные уровни для синтезированной речи.
Объявление
Swift
let AVSpeechUtteranceMinimumSpeechRate: Float let AVSpeechUtteranceMaximumSpeechRate: Float let AVSpeechUtteranceDefaultSpeechRate: Float
Objective C
const float AVSpeechUtteranceMinimumSpeechRate; const float AVSpeechUtteranceMaximumSpeechRate; const float AVSpeechUtteranceDefaultSpeechRate;
Константы
-
AVSpeechUtteranceMinimumSpeechRate
Минимальный позволенный речевой уровень.
Доступный в iOS 7.0 и позже.
-
AVSpeechUtteranceMaximumSpeechRate
Максимальный позволенный речевой уровень.
Доступный в iOS 7.0 и позже.
-
AVSpeechUtteranceDefaultSpeechRate
Уровень по умолчанию, на котором на произнесении говорят если
rate
свойство изменяется.Доступный в iOS 7.0 и позже.
-