Alibaba lança Qwen3
A Alibaba revelou o Qwen3, uma nova família de modelos AI criada para lidar com tarefas complexas de raciocínio e competir com as melhores modelos AI da Google e da OpenAI. A gama Qwen3 inclui modelos até 235 mil milhões de parâmetros, sendo que a maioria será disponibilizada com licença aberta em plataformas como o Hugging Face e GitHub. A empresa afirma que alguns modelos superam alternativas como o o3-mini da OpenAI e o Gemini 2.5 Pro da Google em testes de programação e raciocínio, embora o modelo mais avançado ainda não esteja acessível ao público. Estes modelos híbridos conseguem alternar entre respostas rápidas e raciocínio profundo, adaptando-se à complexidade de cada pedido. Com suporte para 119 línguas, o Qwen3 foi treinado com mais de 36 biliões de tokens, incluindo manuais escolares, conjuntos de perguntas e respostas, código e conteúdo gerado por IA. Alguns modelos usam uma arquitectura Mixture of Experts (MoE), que melhora a eficiência ao dividir tarefas em subtarefas resolvidas por submodelos especializados. Introducing Qwen3! We release and open-weight Qwen3, our latest large language models, including 2 MoE models and 6 dense models, ranging from 0.6B to 235B. Our flagship model, Qwen3-235B-A22B, achieves competitive results in benchmark evaluations of coding, math, general… pic.twitter.com/JWZkJeHWhC— Qwen (@Alibaba_Qwen) April 28, 2025 Qwen3-30B-A3B has hit the mark

A gama Qwen3 inclui modelos até 235 mil milhões de parâmetros, sendo que a maioria será disponibilizada com licença aberta em plataformas como o Hugging Face e GitHub. A empresa afirma que alguns modelos superam alternativas como o o3-mini da OpenAI e o Gemini 2.5 Pro da Google em testes de programação e raciocínio, embora o modelo mais avançado ainda não esteja acessível ao público. Estes modelos híbridos conseguem alternar entre respostas rápidas e raciocínio profundo, adaptando-se à complexidade de cada pedido.
Com suporte para 119 línguas, o Qwen3 foi treinado com mais de 36 biliões de tokens, incluindo manuais escolares, conjuntos de perguntas e respostas, código e conteúdo gerado por IA. Alguns modelos usam uma arquitectura Mixture of Experts (MoE), que melhora a eficiência ao dividir tarefas em subtarefas resolvidas por submodelos especializados.
Introducing Qwen3!
We release and open-weight Qwen3, our latest large language models, including 2 MoE models and 6 dense models, ranging from 0.6B to 235B. Our flagship model, Qwen3-235B-A22B, achieves competitive results in benchmark evaluations of coding, math, general… pic.twitter.com/JWZkJeHWhC— Qwen (@Alibaba_Qwen) April 28, 2025
Qwen3-30B-A3B has hit the mark