[Homeros] I: Мнение про контекстную разметку от апстрима

tolyangin на mail.ru tolyangin на mail.ru
Вт Янв 26 01:36:11 UTC 2010


Michael Pozhidaev wrote:

Меня мало взволновало мнение Willie Walker,  и в контекстной разметке
текста практически не заинтересован, достаточно иметь его форматирование
одним голосом.

Но возможность одновременной работы сервера с тучей синтезаторов
поддерживаю, на сколько смогу буду  настаивать на ее внедрение и развитии.

Возможность работы с множеством синтезаторов в одном соединении  нахожу
приятной вещью

У нас и так не много средств для тюненгу своего интерфейса.  зрачки вон
 на форумах за оттенок иконок с шрифтами настоящие войны устраивают .

А тут всегда под рукой дежурящих целых несколько синтезаторов в запасе!
Да и мало ли что, основной  синт отказал, возможности установить новое соединение
 нет, а немцы наступают.

Почему бы и нет)?

Такое использование многих голосов, может облегчить администрирование системой в случае
большого потока информации.

Например во время контроля череды различных процессов , требующих в
случае чего оперативного вмешательства админа, задействованием разных
синтезаторов можно существенно снизить нагрузку на внимание оператора.


Размышляя о таком внедрении Я прежде всего думаю о прелести
этого всего для      voiceman --say.
На использование которого Я возлагаю большие надежды.

Тут считаю уместным напомнить еще раз о своей просьбе внедрения бальной
оценки для выстраивания очереди выводимой речи.

Кстати на моей машине замечено такое поведение в этом хозяйстве, что
 voiceman  --say перебивает очередь вывода  речи, а, voicemand --say пока не
закончит место не уступит :)

Закономерность такого поведения установить пока не задавался.
В одних случаях клиент своим сообщением речь звучавшую прерывает, в
других налаживает и читает их параллельно.

 А например запись в /etc/rc.local 
/usr/local/bin/voicemand --say "$(uname -к) приехали, вводи логин!"
/usr/local/bin/voicemand -d

приводит к такому поведению, когда при  загрузки системы , мне сначала
 читается все о ядре, затем приветствие указанное с ядром и уж только
 потом как закончит весь положенный вывод уступает место приветствию
 сигнализирующем о запуске основной копии сервера из startup message=
 "привет я готов!! mbrola love world "  .
  


Да и  сейчас использование разных синтезаторов одного языка в
скринридерах одновременно,  для меня обычное дело.

>
> В общем, чтобы сразу разобраться с перспективами, я задал вопрос об
> обработке контекстной разметки в речевом сервере в рассылке
> gnome-accessibility-devel и получил некоторый комментарий от
> небезызвестного Willie Walker. Хотя он не захотел оценить вероятность
> такого развития событий (что в целом вполне понятно, т. к. это вообще
> не функции реч. сервера), всё же дал понять, что внутри orca
> "насквозь" (throughout) оперирует понятиями Aural CSS. Предложил
> курить документацию по внутренностям и читать файл src/orca/acss.py на
> предмет реализации Aural CSS.
>
> Ниже привожу полностью своё письмо и ответ WW. В общем, мне сейчас
> картина ясна, до этого дело если и дойдёт, то не скоро (поскольку WW
> никак не прокомментировал вероятность обработки Aural CSS в
> реч. сервере) и заниматься этим не буду, но если есть желающие
> поработать над отдалёнными перспективными направлениями и уложить их,
> то, как обычно, welcome.
>
> To: gnome-accessibility-devel на gnome.org
> Subject: Orca and speech data processing order
> From: Michael Pozhidaev <msp на altlinux.ru>
>
> Good day, everyone!
>
> May I ask few questions regarding Orca internal design?  I am
> interesting AT-SPI provided data processing chain until it
> translations to speech processing software like speech servers or
> anything else.
>
> The problem I am thinking about is to mark speech output with
> semantics blocks like hyperlinks, headings, etc, to process them
> inspeech server. Marks can be in terms of Aural css as it was
> published at:
>
> http://www.w3.org/tr/css2/aural.html
>
> Probably such translations is not a speech processor concern, yes, it
> is clear, but, in any case, how likely can this happen?
>
> Please, in few words, describe data life cycle and, if it would not be
> so disturbing, refer to code snippets in orca sources to let me read
> more about it. :)
>
> Great thanks!
>
> -- 
> Michael Pozhidaev. Tomsk, Russia. E-mail: msp на altlinux.ru
> Info: http://www.marigostra.ru/
>
> From: Willie Walker <William.Walker на Sun.COM>
> Subject: Re: [g-a-devel] Orca and speech data processing order
> Date: Mon, 25 Jan 2010 08:34:22 -0500
>
> Hi:
>
> Under the docs/doc-set directory, you will find some
> internals.{pdf,html} files that provide an overall description of the
> internals.  This document is a little out of date, but the high level
> ideas are still much the same.
>
> Also, under src/orca/acss.py, you will find a definition for an ACSS
> (Aural CSS) class, which is used throughout Orca for speech.
>
> Hope this helps,
>
> Will

-- 
               Я не вижу реки, Я не вижу моста,  
                        ну и пусть.
                                    В. Цой


Подробная информация о списке рассылки Homeros