Pessoalmente, eu diria que ainda estamos transitando para a era da inteligência artificial, mas há também quem defenda que nós já estamos nela. Basta comparar o avanço das assistentes virtuais desde o início desta década para entender o quanto os recursos de AI melhoraram — mas não o suficiente, de acordo com o ex-chefe da Siri, Bill Stasior.
Stasior liderou o desenvolvimento da assistente virtual da Apple desde 2012 e, no começo deste ano, deixou o cargo que ocupava em Cupertino para se juntar ao comitê executivo da empresa de diagnóstico e testes genéticos Avellino Labs.
Todos os anos trabalhando com a Siri, entretanto, dão a ele créditos suficientes para avaliar que todas as assistentes virtuais atualmente ainda “não cumprem com a promessa de nos entender tão naturalmente quanto outros humanos”, como divulgado pelo Business Insider.
O executivo explicou que uma das principais razões para isso é que a maioria das assistentes virtuais foi projetada para lidar com tarefas específicas, constatando o óbvio: essa tecnologia não é capaz de compreender o mundo da mesma forma que os humanos.
Quando você quer falar com uma assistente, você está abrindo a porta para quase qualquer tarefa ou qualquer pergunta. Existe uma variedade incrivelmente ampla de linguagens e formas de nos expressarmos. E, tendo essa capacidade geral, ainda estamos longe [de as assistentes virtuais alcançarem isso].
Entre algumas das funções mais complexas, Stasior lembrou que a Alexa, assistente virtual da Amazon, e o Google Assistente estão à frente da tecnologia da Apple no reconhecimento de vozes diferentes. No caso da Siri, ela identificará diferentes usuários pela voz no HomePod só com o iOS 13 — o que já existe nos sistemas da Amazon e do Google desde 2017.
Além disso, enquanto a Amazon está ensinando a Alexa a entender o estado emocional da sua voz, Stasior contou que a Apple, até o momento em que o executivo estava na empresa, não tinha os mesmos planos. Isso, no entanto, não torna a assistente da Maçã menos capaz, mas com menos funções devido às restrições dos sistemas da Apple.
No iOS 13, a Siri ganhará alguns novos recursos muito bem-vindos, como a capacidade de ler mensagens nos AirPods. Além disso, a Apple expandiu o SiriKit (a API1Application programming interface, ou interface de programação de aplicações. de desenvolvimento da assistente) para permitir a conexão da ferramenta com serviços de música e podcasts de terceiros.
Notas de rodapé
- 1Application programming interface, ou interface de programação de aplicações.