21/01/2021 - 0:25
O Facebook anunciou novas melhorias em sua tecnologia de inteligência artificial (IA), que é usada para gerar descrições de fotos publicadas na rede social para usuários com deficiência visual.
A tecnologia, chamada de texto alternativo automático (AAT), foi introduzida pela primeira vez pelo Facebook em 2016 para melhorar a experiência de usuários com deficiência visual. Até então, os usuários com deficiência visual que checavam seu feed de notícias do Facebook e encontravam uma imagem ouviam apenas a palavra “foto” e o nome da pessoa que a compartilhou. Com o AAT, os usuários com deficiência visual podem ouvir coisas como “a imagem pode conter: três pessoas, sorrindo, ao ar livre”.
+ EUA pede que Austrália desista de cobrar que Facebook e Google paguem imprensa
+ Twitter e Facebook administraram ‘mal’ desinformação com Trump, diz fundador da Wikipedia
O Facebook disse que, com a última iteração do AAT, a empresa foi capaz de expandir o número de conceitos que a tecnologia de IA pode detectar e identificar em uma foto, bem como fornecer descrições mais detalhadas para incluir atividades, pontos de referência, tipos de alimentos e tipos de animais, como “uma selfie de duas pessoas, ao ar livre, a Torre Inclinada de Pisa” em vez de “uma imagem de duas pessoas”.
A empresa explicou que o aumento do número de conceitos que a tecnologia pode reconhecer de 100 para mais de 1.200 foi possível através do treinamento do modelo semanalmente com amostras que afirma ser “mais precisas e cultural e demograficamente inclusivas”.
O Facebook acrescentou que, para fornecer mais informações sobre posição e contagem, a empresa treinou seu detector de objetos de dois estágios usando uma plataforma de código aberto desenvolvida pela Facebook AI Research.
“Treinamos os modelos para prever localizações e rótulos semânticos dos objetos em uma imagem. Técnicas de treinamento de conjuntos de multilabel / multi-dados ajudaram a tornar nosso modelo mais confiável com o espaço de rótulo maior”, disse a empresa.
Esforços semelhantes foram feitos no passado por outras empresas de tecnologia para melhorar a experiência do usuário para usuários com deficiência visual.
No ano passado, o Google lançou seu teclado braille TalkBack para ajudar os usuários a digitar diretamente em seus dispositivos Android, sem a necessidade de conectar um teclado braille físico. Isso aconteceu depois que o gigante dos motores de busca lançou seu aplicativo Lookout , que usa IA para ajudar os usuários a ver, apontando seus telefones para objetos para receber feedback verbal.
Antes disso, a Amazon introduziu um recurso Mostrar e dizer ao Echo Show para que ele pudesse reconhecer itens domésticos de despensa. Os usuários simplesmente seguram o item na tela e perguntam: “Alexa, o que estou segurando?””Treinamos os modelos para prever localizações e rótulos semânticos dos objetos em uma imagem. Técnicas de treinamento de conjuntos de multilabel / multi-dados ajudaram a tornar nosso modelo mais confiável com o espaço de rótulo maior”, disse a empresa.