A Universidade de Illinois (UIUC) está trabalhando com a Apple e outras gigantes da tecnologia no Speech Accessibility Project, o qual visa melhorar os sistemas de reconhecimento de voz para pessoas com deficiências.
Embora ridicularizados muitas vezes por não compreender devidamente a solicitação de usuários, os sistemas de reconhecimento de voz de assistentes digitais como a Siri se tornaram mais precisos ao longo dos anos, à medida que os hardwares e softwares também se aprimoraram. Agora, um novo projeto visa aumentar a precisão desses sistemas.
Além da Apple, a Amazon, o Google, a Meta e a Microsoft, bem como organizações sem fins lucrativos, tentarão expandir a gama de padrões de fala que os sistemas de reconhecimento de voz conseguem entender. Isso inclui um foco na fala afetada por doenças e deficiências — como Esclerose Lateral Amiotrófica (ELA), Parkinson, paralisia cerebral e Síndrome de Down.
As interfaces de fala devem estar disponíveis para todos e isso inclui pessoas com deficiência. Por isso, criamos uma equipe interdisciplinar exclusiva com experiência em linguística, fala, inteligência artificial, segurança e privacidade.
—Mark Hasegawa-Johnson, professor da UIUC
Sob o Speech Accessibility Project, amostras de indivíduos serão coletadas “representando uma diversidade de padrões de fala”, para criar um conjunto de dados — o qual inicialmente se concentrará no inglês americano e poderá ser usado para treinar modelos de aprendizado de máquina para lidar melhor com a fala.
Vamos esperar que o projete gere ótimos resultados!
via Engadget