A Google revelou o TranslateGemma, um conjunto de modelos avançados de tradução capazes de processar 55 idiomas. Estes modelos superam alternativas maiores, demonstrando precisão superior apesar do seu tamanho mais reduzido. Segundo o The Decoder, a versão de 12 mil milhões de parâmetros do TranslateGemma ultrapassa um modelo com o dobro do tamanho em termos de qualidade de tradução.
O TranslateGemma marca um avanço significativo no campo da inteligência artificial, particularmente na tradução automática. O lançamento destes modelos pela Google sublinha o compromisso da empresa em desenvolver tecnologias de IA acessíveis e eficientes. Com a crescente procura por serviços de tradução de alta qualidade em várias plataformas, o TranslateGemma posiciona a Google na vanguarda deste panorama competitivo.
Os modelos TranslateGemma estão disponíveis em três tamanhos adaptados a diferentes configurações de hardware: um modelo de 4 mil milhões de parâmetros para dispositivos móveis, um modelo de 12 mil milhões de parâmetros para portáteis de consumo e um modelo de 27 mil milhões de parâmetros para servidores na nuvem. Cada versão foi concebida para otimizar o desempenho e a eficiência na respetiva plataforma.
A Google avaliou a qualidade do TranslateGemma utilizando o MetricX, uma métrica que mede erros de tradução. O modelo de 12 mil milhões de parâmetros obteve uma pontuação de 3,60 no MetricX, significativamente inferior à pontuação de 4,04 do modelo base de 27 mil milhões de parâmetros. Comparado com o seu próprio modelo base de 12 mil milhões de parâmetros, que obteve 4,86 pontos, a taxa de erro diminuiu aproximadamente 26%.
Estas melhorias são consistentes em todos os 55 pares de idiomas suportados. Notavelmente, idiomas com poucos recursos, como o islandês e o suaíli, registaram ganhos substanciais na precisão da tradução, com taxas de erro a diminuírem mais de 30% e 25%, respetivamente. Isto destaca o potencial para melhorar o acesso a serviços de tradução de alta qualidade em idiomas menos comuns.
A melhoria de desempenho no TranslateGemma é alcançada através de um processo de treino em duas fases. Inicialmente, os modelos são afinados utilizando tanto dados paralelos traduzidos por humanos como gerados sinteticamente. Subsequentemente, a aprendizagem por reforço otimiza a qualidade da tradução avaliando os resultados face a múltiplas métricas de avaliação automática. Isto garante que o texto traduzido não só transmite o significado correto como também soa natural para falantes nativos.
Para manter a versatilidade, os dados de treino incluem 30% de dados gerais de instrução, permitindo que o TranslateGemma funcione como chatbot para além do seu papel principal de tradução. As avaliações humanas por tradutores profissionais confirmam geralmente as medições automatizadas, embora existam algumas discrepâncias, como um declínio nas traduções de japonês para inglês atribuído a erros com nomes próprios.
O TranslateGemma mantém as capacidades multimodais do Gemma 3, permitindo-lhe traduzir texto em imagens sem treino específico para esta tarefa. Testes no benchmark Vistra demonstram que as melhorias na tradução de texto também se estendem a tarefas de tradução baseadas em imagens.
Para obter resultados ideais, a Google recomenda solicitar ao modelo que atue como "tradutor profissional" que considera nuances culturais. Os modelos estão disponíveis no Kaggle e no Hugging Face, proporcionando a programadores e investigadores acesso a estas ferramentas avançadas de tradução.
A Google está a expandir a sua família de modelos Gemma, que inclui outras variantes especializadas como o MedGemma para análise de imagens médicas e o FunctionGemma para controlo de dispositivos locais. Esta medida estratégica coloca a Google em competição direta com gigantes tecnológicos chineses como Alibaba, Baidu e Deepseek, que expandiram rapidamente a sua presença no mercado de modelos de IA abertos.
No futuro, os próximos passos envolverão provavelmente aperfeiçoamentos e expansões adicionais da família Gemma. A Google poderá introduzir modelos especializados adicionais ou melhorar os existentes com base no feedback dos utilizadores e nos avanços tecnológicos. A competição contínua no espaço de modelos de IA abertos sugere que podemos esperar inovação e melhorias contínuas por parte da Google e dos seus concorrentes.
---
Fonte: [The Decoder](https://the-decoder.com/googles-new-open-translategemma-models-bring-translation-for-55-languages-to-laptops-and-phones/)
Contexto Lusófono
O lançamento dos modelos TranslateGemma da Google representa uma oportunidade significativa para o ecossistema tecnológico lusófono, especialmente para Brasil e Portugal, onde empresas de tecnologia e startups podem integrar estas ferramentas de tradução mais eficientes em suas plataformas e serviços. Com metade dos parâmetros de sistemas concorrentes mas superior precisão, estes modelos tornam a tradução automática de alta qualidade mais acessível para empresas de médio porte. Para Timor-Leste, país jovem e multilíngue com aspirações de desenvolvimento digital, ferramentas de tradução mais leves e precisas podem facilitar a comunicação governamental e educacional entre português, tétum e outras línguas locais, contribuindo para a inclusão digital da população.

