O CEO da Meta, Mark Zuckerberg, anunciou um novo modelo de IA: ‘Massively Multilingual Speech’ (MMS). O MMS dimensiona a conversão de voz para texto (speech-to-text) e de texto para voz (text-to-speech) e suporta mais de 1.100 idiomas – Um aumento de 10 vezes, em relação aos modelos anteriores. A Meta ainda revela que treinou um modelo de identificação de idiomas que suporta mais de 4.000 idiomas – um aumento de 40 vezes.
Segundo Mark Zuckerberg: “Hoje, estamos a disponibilizar outro novo modelo de IA, a que chamamos Massively Multilingual Speech. O modelo consegue identificar mais de 4.000 idiomas e vai facilitar as conexões entre pessoas e o acesso à informação no próprio idioma”.
Mais informações no link abaixo:
https://about.fb.com/news/2023/05/ai-massively-multilingual-speech-technology/
Em destaque:
· Os modelos de reconhecimento de voz existentes cobrem apenas cerca de 100 idiomas – Uma fração dos mais de 7.000 idiomas conhecidos falados no planeta. Ainda mais preocupante é o facto de quase metade destas línguas estarem em risco de desaparecer durante o nosso tempo de vida.
· No projecto ‘Massively Multilingual Speech’ (MMS), a Meta deu um primeiro passo para ultrapassar este desafio, combinando o wav2vec 2.0 – a ferramenta pioneira em aprendizagem auto-supervisionada – e um novo conjunto de dados que fornecem informação rotulada para mais de 1100 línguas, e dados não rotulados para quase 4000 línguas.
· Atualmente, a Meta partilha publicamente os seus modelos e códigos, para que outros membros da comunidade de investigação possam desenvolver o seu trabalho. Com este projeto, a Meta espera contribuir para preservar a diversidade linguística no Mundo.